JP4553346B2 - Focus adjustment device and focus adjustment method - Google Patents

Focus adjustment device and focus adjustment method Download PDF

Info

Publication number
JP4553346B2
JP4553346B2 JP2003361940A JP2003361940A JP4553346B2 JP 4553346 B2 JP4553346 B2 JP 4553346B2 JP 2003361940 A JP2003361940 A JP 2003361940A JP 2003361940 A JP2003361940 A JP 2003361940A JP 4553346 B2 JP4553346 B2 JP 4553346B2
Authority
JP
Japan
Prior art keywords
focus
focus frame
eye
face
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003361940A
Other languages
Japanese (ja)
Other versions
JP2005128156A (en
JP2005128156A5 (en
Inventor
賢司 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003361940A priority Critical patent/JP4553346B2/en
Publication of JP2005128156A publication Critical patent/JP2005128156A/en
Publication of JP2005128156A5 publication Critical patent/JP2005128156A5/ja
Application granted granted Critical
Publication of JP4553346B2 publication Critical patent/JP4553346B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は焦点調節装置及び焦点調節方法に関し、特に、撮像装置に好適に用いられる焦点調節装置及び焦点調節方法に関する。   The present invention relates to a focus adjustment apparatus and a focus adjustment method, and more particularly to a focus adjustment apparatus and a focus adjustment method that are preferably used in an imaging apparatus.

人物撮影を行う場合において、ピントは眼に合わせるのが基本とされている。鼻や頬等の輪郭にピントが合っていても、眼にピントが合っていなければ、撮影した写真はピンぼけの印象を与えてしまう。   When shooting a person, the focus is basically on the eyes. Even if the outline of the nose or cheeks is in focus, if the eye is not in focus, the photographed image gives a defocused impression.

従来のフォーカス枠が固定されている撮像装置では、図12(a)に示すような構図の写真を取りたい場合、眼に合焦した撮影を行うためには、図12(b)のようにあらかじめ決定された枠(フォーカス枠70)内に眼が来るように画角を変化させ、シャッターを半押し状態にして眼に合焦させ、シャッターの半押し状態を保つことによりその合焦点位置を保持したまま(AFロック)、図12(c)に示すように撮影したい画角にして撮影を行う。   In a conventional imaging apparatus with a fixed focus frame, when it is desired to take a photograph with a composition as shown in FIG. 12A, in order to take a photograph focused on the eyes, as shown in FIG. The angle of view is changed so that the eyes are within a predetermined frame (focus frame 70), the shutter is half-pressed to focus on the eye, and the shutter is half-pressed to change its focus position. While holding (AF lock), shooting is performed at the desired angle of view as shown in FIG.

また、焦点調節をより的確に行うために、図13(a)のように複数のフォーカス枠80を有する多点測距による焦点調節を行う撮像装置が提案されている。   In order to perform the focus adjustment more accurately, an imaging apparatus that performs focus adjustment by multi-point distance measurement having a plurality of focus frames 80 as shown in FIG. 13A has been proposed.

また、被写体の顔全体にピントが合うように、まず眼に焦点を合わせ、その焦点距離を中心にその前後10cmが略合焦するように被写界深度を設定する手法が提案されている(特許文献1参照)。   In addition, a method has been proposed in which the eye is first focused so that the entire face of the subject is in focus, and the depth of field is set so that approximately 10 cm in front and behind is focused on the focal length. Patent Document 1).

特許第3164692号号公報Japanese Patent No. 3164692

しかし、上述したようにシャッターボタンの半押し状態を保ちながら画角を変更する場合、画角を変更する時にシャッターボタンを誤って離してしまったり、逆に、全押しまで押し込んで所望の画角になる前に撮影されてしまうなどの不都合が生じていた。このような場合、再び合焦調節から始めなければならず、撮影に時間がかかり、シャッターチャンスを逃してしまうこともあった。   However, as described above, when changing the angle of view while keeping the shutter button pressed halfway, the shutter button may be accidentally released when changing the angle of view, or conversely, the desired angle of view may be depressed by pressing it fully. There were inconveniences such as being shot before it became. In such a case, the focus adjustment must be started again, and it takes a long time to shoot and sometimes misses a photo opportunity.

また、多点測距に対応した撮像装置においては、主被写体となる人物には合焦するが、人物の眼の位置が測距点(フォーカス枠内)から外れていた場合には、眼に合焦しない場合があった。さらにフォーカス枠の大きさが設定できないため、図13(b)示すように、複数のフォーカス枠から選択されたフォーカス枠内に眼以外の顔の部位、例えば鼻等が含まれている場合、鼻にピントがあってしまうといった問題があった。   In an imaging device that supports multi-point distance measurement, the person who is the main subject is focused, but if the person's eye position is out of the distance measurement point (within the focus frame), In some cases, it was not in focus. Further, since the size of the focus frame cannot be set, as shown in FIG. 13B, when the focus frame selected from the plurality of focus frames includes a facial part other than the eyes, for example, the nose, There was a problem that the camera was in focus.

また、特許文献1に記載の手法では、複数の人物が撮影されている場合に、1人にしか焦点が合わず、他の人物がボケてしまうという問題がある。   Also, the technique described in Patent Document 1 has a problem that when a plurality of persons are photographed, only one person is focused and other persons are blurred.

本発明は上記問題点を鑑みてなされたものであり、人物撮影時に眼に合焦した撮影画像を容易に得られるようにすることを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to make it easy to obtain a photographed image focused on the eyes when photographing a person.

上記問題を解決するために、本発明の焦点検出装置は、入射光を光量に応じた電気信号に変換して、画像データを出力する撮像手段と、前記撮像手段からの前記画像データに基づいて、被写体像から顔を検出する顔検出手段と、前記被写体像から眼を検出する第1の検出手段と、焦点を合わせるために用いる画像データを抽出する位置及び大きさを示すフォーカス枠を設定するフォーカス枠設定手段と、前記フォーカス枠内の画像データに基づいて、1以上のフォーカスレンズの合焦点位置を検出する第2の検出手段とを有し、前記フォーカス枠設定手段は、前記第1の検出手段により検出された眼にフォーカス枠を設定し、前記顔検出手段により第1、第2の顔が検出された場合に、前記第2の検出手段の検出結果に基づいて、前記第1の顔の右眼と左眼のいずれかと前記第2の顔の右眼と左眼のいずれかの互いに近い合焦位置の眼を選択し、当該選択した眼に前記フォーカス枠を設定し直すIn order to solve the above problems, the focus detection apparatus of the present invention converts an incident light into an electrical signal corresponding to the amount of light and outputs image data based on the image data from the imaging means. A face detection unit for detecting a face from the subject image, a first detection unit for detecting an eye from the subject image, and a focus frame indicating a position and size for extracting image data used for focusing. A focus frame setting unit; and a second detection unit configured to detect a focal point position of one or more focus lenses based on image data in the focus frame, wherein the focus frame setting unit includes the first frame set the focus frame in the eye which is detected by the detecting means, first by the face detection unit, when the second face is detected based on the detection result of said second detecting means, said first Of choosing the right eye and one of each other near the focal position of the eye of any said second face of the right and left eyes of the left eye, reset the focus frame on the selected eye.

また、本発明の焦点検出方法は、入射光を光量に応じた電気信号に変換して、画像データを出力する撮像工程と、前記撮像工程で得られた前記画像データに基づいて、被写体像から顔を検出する顔検出工程と、前記被写体像から眼を検出する第1の検出工程と、焦点を合わせるために用いる画像データを抽出する位置及び大きさを示すフォーカス枠を設定するフォーカス枠設定工程と、前記フォーカス枠内の画像データに基づいて、1以上のフォーカスレンズの合焦点位置を検出する第2の検出工程とを有し、前記フォーカス枠設定工程では、前記第1の検出手段により検出された眼にフォーカス枠を設定し、前記顔検出工程で第1、第2の顔が検出された場合に、前記第2の検出工程における検出結果に基づいて、前記第1の顔の右眼と左眼のいずれかと前記第2の顔の右眼と左眼のいずれかの互いに近い合焦点位置の眼を選択し、当該選択した眼に前記フォーカス枠を設定し直すIn addition, the focus detection method of the present invention converts an incident light into an electrical signal corresponding to the amount of light and outputs image data, and based on the image data obtained in the imaging step, from a subject image A face detection step for detecting a face, a first detection step for detecting an eye from the subject image, and a focus frame setting step for setting a focus frame indicating a position and size for extracting image data used for focusing And a second detection step of detecting a focal point position of one or more focus lenses based on the image data in the focus frame, wherein the focus frame setting step is detected by the first detection means. When the first and second faces are detected in the face detection step, the right eye of the first face is set based on the detection result in the second detection step. And left Any and select one of the eye near the focused position each other of the right and left eyes of the second face, reset the focus frame on the selected eye.

上記構成によれば、人物撮影時に眼に合焦した撮影画像を容易に得ることが可能となる。   According to the above configuration, it is possible to easily obtain a photographed image focused on the eyes when photographing a person.

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。ただし、本形態において例示される構成部品の寸法、形状、それらの相対配置などは、本発明が適用される装置の構成や各種条件により適宜変更されるべきものであり、本発明がそれらの例示に限定されるものではない。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings. However, the dimensions, shapes, relative arrangements, and the like of the components exemplified in the present embodiment should be changed as appropriate according to the configuration of the apparatus to which the present invention is applied and various conditions. It is not limited to.

<実施形態1>
本発明の実施形態1を以下に説明する。
<Embodiment 1>
Embodiment 1 of the present invention will be described below.

図1は実施形態1におけるデジタルカメラの簡単な構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a simple configuration of the digital camera according to the first embodiment.

101は撮像部であり、レンズ系、絞り、シャッター、CCD、A/D変換器等が含まれ、レンズ系によりCCDに投影された光学像がデジタル信号に変換されて出力される。102は露出制御部であり、画面の輝度値の測光、絞り値、シャッタースピード値の決定および、絞りおよびシャッタースピードの設定等の露出にかかわる制御を行う。103は顔検出処理部、104はAF制御部、105はフォーカス枠表示部、106は本露光制御部、107は本露光撮影されて得られた画像データに対して、例えばホワイトバランス補正、γ補正などの周知の画像処理を行う画像処理部、108は画像処理された画像データを所定フォーマットに変換し、不図示の記録媒体に記録するデータ書き込み部である。   An imaging unit 101 includes a lens system, an aperture, a shutter, a CCD, an A / D converter, and the like, and an optical image projected on the CCD by the lens system is converted into a digital signal and output. Reference numeral 102 denotes an exposure control unit which performs control related to exposure such as photometry of the luminance value of the screen, determination of the aperture value and shutter speed value, and setting of the aperture and shutter speed. Reference numeral 103 denotes a face detection processing unit, 104 denotes an AF control unit, 105 denotes a focus frame display unit, 106 denotes a main exposure control unit, and 107 denotes image data obtained by the main exposure shooting, for example, white balance correction and γ correction. An image processing unit 108 that performs known image processing such as the above, is a data writing unit that converts image data subjected to image processing into a predetermined format and records the image data on a recording medium (not shown).

次に、本実施形態1における上記構成を有するデジタルカメラの撮影処理について、図2及び図3のフローチャートを参照しながら説明する。   Next, photographing processing of the digital camera having the above-described configuration according to the first embodiment will be described with reference to the flowcharts of FIGS.

不図示のシャッターボタンの半押しなどにより、撮影の準備が指示されると処理がスタートし、撮像部101は、露出制御のための撮影を行う。露出制御部102は撮影して得られた画像データを用いて露出制御を行う(ステップS101)。次にステップS102において、顔検出処理部103はこの露出制御用の画像データを用いて、画面内に人物の顔が存在するかを検出する。   When preparation for shooting is instructed by half-pressing a shutter button (not shown) or the like, the processing starts, and the imaging unit 101 performs shooting for exposure control. The exposure control unit 102 performs exposure control using image data obtained by photographing (step S101). In step S <b> 102, the face detection processing unit 103 detects whether a human face is present on the screen using the exposure control image data.

顔検出処理部103は、例えば特開2002−251380号公報に記載されたような顔検出機能を有している。   The face detection processing unit 103 has a face detection function as described in, for example, JP-A-2002-251380.

まず、露出制御用の画像データの中から輝度情報を用いてエッジを抽出して両目や口といった顔を構成する器官と思われる形状を検出し、それらを包含する周囲の輪郭線を抽出し、顔領域を決定する。決定された顔領域から、輝度情報を用いて更に特徴となる点(以下、「特徴点」と呼ぶ。)を細かく検出する。特徴点からは、両目や鼻などの顔を構成する器官や顔の輪郭などの更に詳細な形状や、座標が求められる。これにより、例えば両目の間隔や、鼻、口、輪郭の形状や、その配置状態情報を得ることができる。   First, extract the edge from the image data for exposure control using luminance information to detect the shape that seems to be the organ that constitutes the face such as both eyes and mouth, extract the surrounding contour line that encompasses them, Determine the face area. From the determined face area, a point (hereinafter referred to as a “feature point”) that is further characteristic is detected in detail using luminance information. From the feature points, more detailed shapes and coordinates such as organs constituting the face such as both eyes and nose and the outline of the face are obtained. Thereby, the space | interval of both eyes, the shape of a nose, a mouth, an outline, and its arrangement | positioning state information can be obtained, for example.

顔が存在する場合(ステップS103でYES)、ステップS104において顔検出処理部103は人物の眼の位置情報、大きさ情報を求める。ステップS105において、AF制御部104は、顔検出処理部103により求められた人物の眼の位置情報および大きさ情報からフォーカス枠を設定し、ステップS107に進む。なお、この時のフォーカス枠120の大きさは、図4に示すように眼の大きさに依存して変化する。また、顔が一つしかなければ右眼または左眼(横向きの場合)または両眼の、1つまたは2つの座標と大きさ情報を、顔が複数N存在していれば、N〜N×2個の座標と大きさ情報を得ることになる。   If a face exists (YES in step S103), in step S104, the face detection processing unit 103 obtains position information and size information of a person's eyes. In step S105, the AF control unit 104 sets a focus frame from the position information and size information of the human eye obtained by the face detection processing unit 103, and the process proceeds to step S107. Note that the size of the focus frame 120 at this time varies depending on the size of the eye as shown in FIG. Further, if there is only one face, one or two coordinates and size information of the right eye, left eye (in the case of landscape orientation) or both eyes and size information are obtained. You will get two coordinates and size information.

一方、ステップS103で顔が検出されなかった場合、ステップS106で予め決められたフォーカス枠を設定して、ステップS107に進む。   On the other hand, if no face is detected in step S103, a predetermined focus frame is set in step S106, and the process proceeds to step S107.

ステップS107では、AF制御部104は、撮像部101の光学系のフォーカスレンズを再至近に移動する。ステップS108において、AF制御部104は、そのフォーカスレンズ位置で撮像部101により撮影して得られた画像データについて、顔検出処理部103により設定された各フォーカス枠内の画像データに対して高周波検出処理を行い、高周波信号を求める。更に、各フォーカス枠それぞれについて求めた高周波信号の加算値(以下、「フォーカス信号」と呼ぶ。)を求める。このステップS108におけるフォーカス枠毎にフォーカス信号を求める処理を、フォーカスレンズを最至近から無限遠まで(ステップS109でYESとなるまで)予め決定されているステップ幅で移動しながら(ステップS110)行う。   In step S <b> 107, the AF control unit 104 moves the focus lens of the optical system of the imaging unit 101 to the closest position. In step S108, the AF control unit 104 performs high-frequency detection on the image data in each focus frame set by the face detection processing unit 103 with respect to the image data acquired by the imaging unit 101 at the focus lens position. Processing is performed to obtain a high frequency signal. Furthermore, an addition value (hereinafter referred to as “focus signal”) of the high-frequency signal obtained for each focus frame is obtained. The process of obtaining the focus signal for each focus frame in step S108 is performed while moving the focus lens from the closest distance to infinity (until YES in step S109) with a predetermined step width (step S110).

各フォーカス枠それぞれの最至近から無限遠までのフォーカス信号の取得が終了すると、各フォーカス枠それぞれについてフォーカス信号の値が一番大きいものを求め、それを与えるフォーカスレンズのステップ位置を各フォーカス枠の合焦点位置とする(ステップS111)。すなわち、画面内にフォーカス枠がM個存在する場合、M個の合焦点位置が求められることになる。フォーカス枠の数が1つであれば(図3のステップS112でNO)、求めたステップ位置をそのまま合焦点位置とすれば良いが、フォーカス枠が複数設定されている場合においては(ステップS112でYES)、各合焦点位置の内、最至近の合焦点位置を最終的な合焦点位置とする(ステップS113)。   When the acquisition of the focus signal from the closest distance to the infinity of each focus frame is completed, the one with the largest focus signal value is obtained for each focus frame, and the step position of the focus lens that gives it is determined for each focus frame. The in-focus position is set (step S111). That is, when there are M focus frames in the screen, M focus positions are obtained. If the number of focus frames is one (NO in step S112 in FIG. 3), the obtained step position may be used as the in-focus position as it is, but when a plurality of focus frames are set (in step S112). YES), the closest in-focus position among the respective in-focus positions is set as the final in-focus position (step S113).

AF制御部104にて決定された最終合焦点位置に対応したフォーカス枠情報はステップS114でフォーカス枠表示部105へと送られ、不図示のディスプレイ上にフォーカス枠が表示される。   The focus frame information corresponding to the final in-focus position determined by the AF control unit 104 is sent to the focus frame display unit 105 in step S114, and the focus frame is displayed on a display (not shown).

ユーザーは、表示されたフォーカス枠から、所望の点に焦点を合わせるように設定されたかどうか、即ち、人物撮影の場合には人物の眼に焦点が合うように設定されたかどうかを確認し、所望の場所であれば(ステップS115でYES)、不図示のシャッターボタンを全押しするなどして撮影を指示し、所望の場所でなければ(ステップS115でNO)、シャッターボタンを離して撮影を行わずにこの処理を終了する。   The user confirms from the displayed focus frame whether or not the focus is set to a desired point, that is, in the case of portrait shooting, whether or not the focus is set on the person's eyes. If it is a location (YES in step S115), shooting is instructed by fully pressing a shutter button (not shown) or the like, and if it is not a desired location (NO in step S115), the shutter button is released and shooting is performed. This process is terminated without any processing.

フォーカス枠が所望の位置にあれば、ステップS116に進み、本露光制御部106にAF制御部104にて求めた最終合焦点位置情報を送り、その合焦点位置までフォーカスレンズを動かし、さらに、絞りおよびメカシャッターを制御して、本露光撮影を行う。   If the focus frame is at a desired position, the process proceeds to step S116, the final focus position information obtained by the AF control section 104 is sent to the main exposure control section 106, the focus lens is moved to the focus position, and the aperture is further reduced. And the main shutter is controlled by controlling the mechanical shutter.

上記の通り本実施形態1によれば、顔検出を行って眼の座標及び大きさを求め、これらに従ってフォーカス枠の大きさ及び位置を設定するため、眼に焦点の合った人物撮影を容易に行うことが可能となる。   As described above, according to the first embodiment, face detection is performed to determine the coordinates and size of the eye, and the size and position of the focus frame are set in accordance with these, so it is easy to photograph a person in focus on the eye. Can be done.

<実施形態2>
次に、本発明の実施形態2を以下に説明する。
<Embodiment 2>
Next, Embodiment 2 of the present invention will be described below.

図5は本実施形態2におけるデジタルカメラの簡単な構成を示すブロック図である。図5は、図1に示す構成にブラケット撮影パラメータ決定部201を追加した構成であり、その他の構成は図1の構成と同様であるため同じ参照番号を付し、詳細説明は省略する。   FIG. 5 is a block diagram showing a simple configuration of the digital camera according to the second embodiment. FIG. 5 shows a configuration in which a bracket shooting parameter determination unit 201 is added to the configuration shown in FIG. 1, and the other configurations are the same as those in FIG.

以下、本実施形態2における上記構成を有するデジタルカメラの撮影処理について、図6のフローチャートを参照しながら説明する。なお、ステップS101〜ステップS111までの処理は、図2を参照して実施形態1で説明した処理と同様であるため、説明を省略する。   Hereinafter, photographing processing of the digital camera having the above-described configuration according to the second embodiment will be described with reference to the flowchart of FIG. Note that the processing from step S101 to step S111 is the same as the processing described in the first embodiment with reference to FIG.

ステップS111までの処理により各フォーカス枠の合焦点位置の検出が済むと、ステップS201において、ステップS102で検出された顔の数が1つであるかどうかを判断する。1つの場合、右目の合焦点位置と、左目の合焦点位置が検出されているので、ステップS202において、これら2つの合焦点位置の中間にあたる合焦点中間位置を求める。ここで左眼の合焦点位置をFleft、右眼の合焦点位置をFrightとすると、合焦点中間位置Fmiddleは次式(1)により求める。
Fmiddle = (Fleft + Fright)/2 …(1)
When the in-focus position of each focus frame is detected by the processing up to step S111, it is determined in step S201 whether the number of faces detected in step S102 is one. In one case, the in-focus position of the right eye and the in-focus position of the left eye have been detected. In step S202, an in-focus intermediate position that is intermediate between these two in-focus positions is obtained. Here, if the left-eye in-focus position is Fleft and the right-eye in-focus position is Fright, the in-focus intermediate position Fmiddle is obtained by the following equation (1).
Fmiddle = (Fleft + Fright) / 2 (1)

ステップS203では、フォーカス枠表示部105には左眼及び右目に対応したフォーカス枠情報(位置と大きさの情報)が送られ、左眼の位置と右眼の位置にフォーカス枠が表示される。   In step S203, focus frame information (position and size information) corresponding to the left eye and right eye is sent to the focus frame display unit 105, and the focus frame is displayed at the position of the left eye and the position of the right eye.

一方、AF制御部104にて求められた左眼の合焦点位置Fleftと右眼の合焦点位置Fright、両方の合焦点位置の中間にあたる合焦点中間位置Fmiddleの3つの合焦点位置情報はブラケット撮影パラメータ決定部201へと送られる。ブラケット撮影パラメータ決定部201においては3つの合焦点位置が3つとも異なれば3回のフォーカスブラケット撮影が必要と判断して撮影枚数を3枚とし、その3枚の撮影時のフォーカス位置をFleft、Fright、Fmiddleに設定する。右眼と左眼の合焦点位置が等しければ1回の撮影だけでよいと判断して撮影枚数を1枚と設定しフォーカス位置をFleftに設定する(ステップS204)。   On the other hand, three in-focus position information of the in-focus position Fleft and the in-focus position Fright of the right eye determined by the AF control unit 104 and the in-focus position Fmiddle, which is the middle of both in-focus positions, are bracket shooting. It is sent to the parameter determination unit 201. In the bracket shooting parameter determination unit 201, if all three in-focus positions are different, it is determined that three focus bracket shootings are necessary, the number of shots is set to three, and the focus position at the time of the three shots is Fleft, Set to Fright and Fmiddle. If the right eye and the left eye are in the same focal position, it is determined that only one shot is required, the number of shots is set to 1, and the focus position is set to Fleft (step S204).

次に、複数の顔が検出されている場合(ステップS205でYES)について説明する。ここでは、説明を分かりやすくするために、2つの顔が検出された場合を具体例として説明するが、3つ以上の場合にも同様の処理が行われる。   Next, a case where a plurality of faces are detected (YES in step S205) will be described. Here, in order to make the explanation easy to understand, a case where two faces are detected will be described as a specific example, but the same processing is also performed when there are three or more faces.

ステップS111までの処理で、AF制御部104によりそれぞれの顔の右眼及び左眼に対応する各フォーカス枠の合焦点位置はすでに検出されている。ここで、一人目の左眼と右眼の合焦点位置をF1left及びF1right、二人目の左眼と右眼の合焦点位置をF2left、F2rightとする。次に、それぞれの人の左眼と右眼の合焦点位置から互いに近い合焦点位置を選択する(ステップS206)。ここでは一人目は左眼の合焦点位置F1left、二人目は右眼の合焦点位置F2rightが選択されたものとする。合焦点位置F1left、F2rightはブラケット撮影パラメータ決定部201へと送られる。 In the processing up to step S111, the AF control unit 104 has already detected the focal position of each focus frame corresponding to the right eye and the left eye of each face. Here, the focal positions of the first left eye and the right eye are F1left and F1right, and the focal positions of the second left eye and the right eye are F2left and F2right. Next, in-focus positions close to each other are selected from the in-focus positions of the left eye and the right eye of each person (step S206). Here, it is assumed that the left eye is in focus position F1left for the first person and the right eye focus position F2right is selected for the second person. Focused position F1left, F2right is sent to Bed Rake' preparative imaging parameter determining unit 201.

一方、ステップS207において、フォーカス枠表示部105にステップS206で選択された合焦点位置(上述の例では合焦点位置F1leftとF2right)に対応したフォーカス枠情報(位置と大きさの情報)を送り、それぞれの位置にフォーカス枠を表示する。   On the other hand, in step S207, focus frame information (position and size information) corresponding to the in-focus positions (in-focus positions F1left and F2right in the above example) selected in step S206 is sent to the focus frame display unit 105. A focus frame is displayed at each position.

ステップS208において、ブラケット撮影パラメータ決定部201では、F1leftとF2rightの合焦点位置が異なれば撮影枚数を2枚とし、その2枚の撮影時のフォーカス位置をF1left、F2rightに設定する。 In step S208, the blanking racket Tsu preparative imaging parameter determining unit 201, and two of shots Different focused position of F1left and F2right, sets the focus position at the time of the two imaging F1left, to F2right.

ステップS209において、ユーザーは、表示されたフォーカス枠から、焦点を合わせる点が所望の点であるかどうか等を確認し、所望の点である場合には(ステップS209でYES)、不図示のシャッターボタンを全押しするなどして撮影を指示し、眼からずれていれば(ステップS209でNO)、シャッターボタンを離して撮影を行わずにこの処理を終了する。   In step S209, the user checks whether or not the point to be focused is a desired point from the displayed focus frame. If the point is a desired point (YES in step S209), a shutter (not shown) is displayed. If the shooting is instructed by pressing the button fully, for example, if it is deviated from the eyes (NO in step S209), the process is ended without releasing the shutter button and shooting.

フォーカス枠が人物の眼にあればステップS210に進み、ステップS204またはステップS208でブラケット撮影パラメータ決定部201により決定されたブラケット撮影枚数及びフォーカス位置に従って本露光制御を行い、順次焦点位置を移動しながら撮影を行う。   If the focus frame is on the human eye, the process proceeds to step S210, where the main exposure control is performed according to the number of bracket shots and the focus position determined by the bracket shooting parameter determination unit 201 in step S204 or step S208, and the focus position is sequentially moved. Take a picture.

また、ステップS205でNO、即ち、顔が検出されなかった場合には、実施形態1で上述した図3のステップS112以降の処理を行う。   If NO in step S205, that is, if a face is not detected, the processing after step S112 in FIG.

上記のように本実施形態2によれば、顔検出を行って眼の座標及び大きさを求め、それぞれの合焦点位置に基づいてブランケット撮影の撮影枚数及びフォーカス位置を決定するため、眼に焦点の合った人物撮影を容易に行うことが可能となる。   As described above, according to the second embodiment, face detection is performed to determine the coordinates and size of the eye, and the number of blanket shots and the focus position are determined based on the respective in-focus positions. It is possible to easily take a picture of a person who matches.

なお、本実施形態2においては、顔が一つしか検出されなかった場合に、左眼と右眼との合焦点位置、及びその中間の合焦点位置の3つの合焦点位置を求め、ブラケット撮影条件(撮影枚数及びフォーカス位置)を決定する場合について説明したが、左眼と右眼の2つの合焦点位置によりブラケット撮影条件を求めるようにしても良い。   In the second embodiment, when only one face is detected, three in-focus positions, that is, the in-focus position between the left eye and the right eye, and an intermediate in-focus position are obtained, and bracket shooting is performed. Although the case of determining the conditions (the number of shots and the focus position) has been described, the bracket shooting conditions may be obtained from the two in-focus positions of the left eye and the right eye.

また本実施形態2においては、ブラケット撮影パラメータ決定部201により同じ合焦点位置があった場合には撮影枚数を減らす処理を行っているが、撮影枚数を減らさずに、AF制御部104により求められた合焦点位置すべてに対応するように撮影を行うようにしても良い。   In the second embodiment, the bracket shooting parameter determination unit 201 performs a process of reducing the number of shots when the same in-focus position is present, but the AF control unit 104 obtains the number of shots without reducing the number of shots. The photographing may be performed so as to correspond to all the in-focus positions.

また、ステップS203及びステップS207におけるフォーカス枠表示のタイミングは上述したものに限るものではなく、適宜変更することが可能である。更に、ステップS207では、ステップS206で選択された合焦点位置だけではなく、選択前の合焦点位置のフォーカス枠を表示するようにしても良い。   Further, the timing of the focus frame display in step S203 and step S207 is not limited to that described above, and can be changed as appropriate. Further, in step S207, not only the in-focus position selected in step S206 but also the focus frame of the in-focus position before selection may be displayed.

<実施形態3>
次に、本発明の実施形態3を以下に説明する。
<Embodiment 3>
Next, Embodiment 3 of the present invention will be described below.

図7は本実施形態3におけるデジタルカメラの簡単な構成を示すブロック図である。図7は、図1に示す構成にAvTv決定部301を追加した構成であり、その他の構成は図1の構成と同様であるため同じ参照番号を付し、詳細説明は省略する。   FIG. 7 is a block diagram showing a simple configuration of the digital camera according to the third embodiment. FIG. 7 is a configuration in which an AvTv determination unit 301 is added to the configuration shown in FIG. 1, and the other configurations are the same as those in FIG.

以下、本実施形態3における上記構成を有するデジタルカメラの撮影処理について、図8のフローチャートを参照しながら説明する。なお、ステップS101〜ステップS111までの処理は、図2を参照して実施形態1で説明した処理と同様であるため、説明を省略する。
ステップS111までの処理により各フォーカス枠の合焦点位置の検出が済むと、ステップS301において、ステップS102で検出された顔の数が1つであるかどうかを判断する。1つの場合、左眼の合焦点位置をFleft、右眼の合焦点位置をFrightとすると、これらの合焦点位置Fleft及びFrightをAvTv決定部301に送ると共に、ステップS304に進んでフォーカス枠表示部105には左眼及び右目に対応したフォーカス枠情報(位置と大きさの情報)を送り、左眼の位置と右眼の位置にフォーカス枠が表示される。
Hereinafter, photographing processing of the digital camera having the above-described configuration according to the third embodiment will be described with reference to the flowchart of FIG. Note that the processing from step S101 to step S111 is the same as the processing described in the first embodiment with reference to FIG.
When the in-focus position of each focus frame is detected by the processing up to step S111, it is determined in step S301 whether the number of faces detected in step S102 is one. In one case, assuming that the left-eye in-focus position is Fleft and the right-eye in-focus position is Fright, the in-focus positions Fleft and Fright are sent to the AvTv determining unit 301, and the process proceeds to step S304 to display the focus frame display unit. In 105, focus frame information (position and size information) corresponding to the left eye and right eye is sent, and the focus frame is displayed at the position of the left eye and the position of the right eye.

ステップS305において、AvTv決定部301は、これらの合焦点位置Fleft及びFrightが被写界深度となる絞り値(Av値)を求め、次にステップS306で、その絞り値と露出制御部102にて求められた測光値とに基づいてシャッタースピード(Tv値)を決定する。決定されたAv値およびTv値は本露光制御部106へと送られる。   In step S305, the AvTv determination unit 301 obtains an aperture value (Av value) at which these in-focus positions Fleft and Fright become the depth of field, and then in step S306, the aperture value and exposure control unit 102 The shutter speed (Tv value) is determined based on the obtained photometric value. The determined Av value and Tv value are sent to the exposure control unit 106.

次に複数の顔が検出されている場合(ステップS302でYES)について説明する。ここでは、説明を分かりやすくするために、2つの顔が検出された場合を具体例として説明するが、3つ以上の場合にも同様の処理が行われる。   Next, a case where a plurality of faces are detected (YES in step S302) will be described. Here, in order to make the explanation easy to understand, a case where two faces are detected will be described as a specific example, but the same processing is also performed when there are three or more faces.

ステップS111までの処理で、AF制御部104によりそれぞれの顔の右眼及び左眼に対応する各フォーカス枠の合焦点位置はすでに検出されている。ここで、一人目の左眼と右眼の合焦点位置をF1left及びF1right、二人目の左眼と右眼の合焦点位置をF2left、F2rightとする。次に、それぞれの人の左眼と右眼の合焦点位置から互いに近い合焦点位置を選択する(ステップS303)。ここでは一人目は左眼の合焦点位置F1left、二人目は右眼の合焦点位置F2rightが選択されたものとする。合焦点位置F1left、F2rightはAvTv決定部301へと送られる。   In the processing up to step S111, the AF control unit 104 has already detected the focal position of each focus frame corresponding to the right eye and the left eye of each face. Here, the focal positions of the first left eye and the right eye are F1left and F1right, and the focal positions of the second left eye and the right eye are F2left and F2right. Next, in-focus positions close to each other are selected from the in-focus positions of the left eye and right eye of each person (step S303). Here, it is assumed that the left eye is in focus position F1left for the first person and the right eye focus position F2right is selected for the second person. The focal positions F1left and F2right are sent to the AvTv determination unit 301.

一方、ステップS304において、フォーカス枠表示部105にステップS303で選択された合焦点位置(上述の例では合焦点位置F1leftとF2right)に対応したフォーカス枠情報(位置と大きさの情報)を送り、それぞれの位置にフォーカス枠を表示する。   On the other hand, in step S304, focus frame information (position and size information) corresponding to the in-focus positions (in-focus positions F1left and F2right in the above example) selected in step S303 is sent to the focus frame display unit 105. A focus frame is displayed at each position.

ステップS305において、AvTv決定部301は、合焦点位置f1leftとf2rightから、すべての合焦点位置が被写界深度内に含まれるような絞り値(Av値)(例えば、合焦点位置f1leftとf2rightで略合焦になると共に、合焦点位置f1leftとf2rightを中心に前後方向に所定距離が略合焦になるような絞り値)を求め、次にステップS306で、その絞り値と露出制御部102にて求められた測光値とに基づいてシャッタースピード(Tv値)を決定する。決定されたAv値およびTv値は本露光制御部106へと送られる。   In step S305, the AvTv determination unit 301 determines from the in-focus positions f1left and f2right an aperture value (Av value) that includes all in-focus positions within the depth of field (for example, at the in-focus positions f1left and f2right). In step S306, the aperture value and the exposure control unit 102 are informed of the aperture value so that the predetermined distance in the front-rear direction is substantially in-focus with the focus positions f1left and f2right. The shutter speed (Tv value) is determined based on the photometric value obtained in this way. The determined Av value and Tv value are sent to the exposure control unit 106.

ユーザーは、ステップS304で表示されたフォーカス枠から、所望の点が焦点が合うように設定されているかどうか、即ち、人物撮影の場合には人物の眼が焦点が合うように設定されているかどうかを確認し、そのように設定されていれば(ステップS307でYES)、不図示のシャッターボタンを全押しするなどして撮影を指示し、そのように設定されていなければ(ステップS307でNO)、シャッターボタンを離して撮影を行わずにこの処理を終了する。   The user determines whether or not a desired point is set to be in focus from the focus frame displayed in step S304, that is, whether or not a person's eyes are set to be in focus in the case of human photography. If it is set as such (YES in step S307), shooting is instructed by fully pressing a shutter button (not shown), and if not set (NO in step S307). Then, the process is terminated without releasing the shutter button.

所望の点が焦点が合うように設定されていれば、ステップS307に進み、本露光制御部106にステップS305及びS306で求めた絞りおよびシャッタースピードを設定し、撮影が行われる。   If the desired point is set to be in focus, the process proceeds to step S307, the aperture and shutter speed obtained in steps S305 and S306 are set in the main exposure control unit 106, and photographing is performed.

また、ステップS302でNO、即ち、顔が検出されなかった場合には、実施形態1で上述した図3のステップS112以降の処理を行う。   If NO in step S302, that is, if a face is not detected, the processing after step S112 in FIG.

上記の通り本実施形態3によれば、被写界深度を考慮することにより、全ての眼に焦点の合った人物撮影を容易に行うことが可能となる。   As described above, according to the third embodiment, taking into consideration the depth of field, it is possible to easily perform person photographing with all eyes in focus.

<実施形態4>
次に、本発明の実施形態4を以下に説明する。
<Embodiment 4>
Next, Embodiment 4 of the present invention will be described below.

図9は本実施形態3におけるデジタルカメラの簡単な構成を示すブロック図である。図9は、図1に示す構成にフォーカス枠選択UI部401を追加した構成であり、その他の構成は図1の構成と同様であるため同じ参照番号を付し、詳細説明は省略する。   FIG. 9 is a block diagram showing a simple configuration of the digital camera according to the third embodiment. FIG. 9 shows a configuration in which a focus frame selection UI unit 401 is added to the configuration shown in FIG. 1, and the other configurations are the same as those in FIG.

以下、本実施形態4における上記構成を有するデジタルカメラの撮影処理について、図10のフローチャートを参照しながら説明する。なお、ステップS101〜ステップS111までの処理は、図2及び図3を参照して実施形態1で説明した処理と同様であるため、説明を省略する。ただし、実施形態1ではステップS104において、左眼と右眼に対応するフォーカス枠をそれぞれ設定していたが、本実施形態4では、左眼及び右眼を共に含むフォーカス枠を設定する。   Hereinafter, photographing processing of the digital camera having the above-described configuration according to the fourth embodiment will be described with reference to the flowchart of FIG. Note that the processing from step S101 to step S111 is the same as the processing described in the first embodiment with reference to FIG. 2 and FIG. However, in the first embodiment, the focus frames corresponding to the left eye and the right eye are respectively set in step S104. However, in the fourth embodiment, a focus frame including both the left eye and the right eye is set.

本実施形態4の特徴は、複数の顔が検出された場合に(ステップS401でYES)フォーカス枠選択UI部401を用いて行われる処理であり、ここでは説明を簡単にするため、図11に示すように三人の顔が検出された場合について説明する。便宜上、一人目1101の左眼と右眼を含むフォーカス枠1111の合焦点位置をf1、二人目1102の左眼と右眼を含むフォーカス枠1112の合焦点位置をf2、三人目1103の左眼と右眼を含むフォーカス枠1113の合焦点位置をf3とする。   A feature of the fourth embodiment is processing performed using the focus frame selection UI unit 401 when a plurality of faces are detected (YES in step S401). Here, for the sake of simplicity, FIG. As shown, a case where three faces are detected will be described. For convenience, the in-focus position of the focus frame 1111 including the left eye and right eye of the first eye 1101 is f1, the in-focus position of the focus frame 1112 including the left eye and right eye of the second person 1102, and the left eye of the third person 1103. And f3 is the focal position of the focus frame 1113 including the right eye.

ステップS402では、AF制御部104はf1、f2、f3を比較し、最至近の合焦点位置を求める。求めた最至近の合焦点位置のフォーカス枠の大きさと座標情報をフォーカス枠表示部105に送り、フォーカス枠が表示される。合焦点位置f1が最至近である場合、図11(a)に示すように、フォーカス枠1101が表示される。ユーザーはフォーカス枠が合焦させたい人物の眼の部分にあるかどうかを確認し(ステップS404)、合焦させたい人物の眼の部分にあればそのままシャッターを押して撮影を行うが(ステップS405)、異なる人に合焦させたい場合には、フォーカス枠選択UI部401により、不図示の左右ボタン等を用いたユーザーインターフェースにより合焦させたい人物にフォーカス枠を移動させる。このときのフォーカス枠は合焦点位置がf1、f2、f3の順に近ければ、フォーカス枠選択UI部401の操作に応じて、図11(a)から、(b)、(c)のように順に移動する。   In step S402, the AF control unit 104 compares f1, f2, and f3 to obtain the closest in-focus position. The size and coordinate information of the focus frame at the closest in-focus position obtained are sent to the focus frame display unit 105, and the focus frame is displayed. When the in-focus position f1 is closest, a focus frame 1101 is displayed as shown in FIG. The user confirms whether or not the focus frame is on the eye part of the person to be focused (step S404), and if the focus frame is on the eye part of the person to be focused, the user presses the shutter to take a picture (step S405). When it is desired to focus on a different person, the focus frame selection UI unit 401 moves the focus frame to the person to be focused by a user interface using left and right buttons (not shown). At this time, if the in-focus position is close to the order of f1, f2, and f3, the focus frame in this order is sequentially changed from FIG. 11A to FIG. 11B according to the operation of the focus frame selection UI unit 401. Moving.

このようにしてフォーカス枠選択UI部401にてユーザーが合焦させたい人物にフォーカス枠が設定し、シャッターを押して撮影が行われる。   In this way, the focus frame selection UI unit 401 sets the focus frame to the person that the user wants to focus on, and the shutter is pressed to perform shooting.

また、ステップS407では検出された顔の数が1であるかどうかを判断し、YESならばステップS403に進み、NOであれば顔が検出されていないので、図3のステップS112に進んで実施形態1で説明した処理を行う。   In step S407, it is determined whether or not the number of detected faces is 1. If YES, the process proceeds to step S403, and if NO, no face is detected, so the process proceeds to step S112 in FIG. The processing described in the first embodiment is performed.

上記の通り本実施形態4によれば、複数の顔が検出された場合に、所望の顔の眼に焦点の合った人物撮影を容易に行うことが可能となる。   As described above, according to the fourth embodiment, when a plurality of faces are detected, it is possible to easily capture a person who focuses on the eyes of a desired face.

なお、本実施形態4では画面内に顔が3つ検出された場合を例にとって説明したが、これに限られるものではなく、2人及び5人以上の顔が検出された場合にも同様の動作が可能であることは言うまでもない。   In the fourth embodiment, the case where three faces are detected on the screen has been described as an example. However, the present invention is not limited to this, and the same applies when two or more faces are detected. Needless to say, the operation is possible.

また、上記第4の実施形態では、フォーカス枠選択UI部401の操作に応じて、合焦点位置が近い順にフォーカス枠を移動したが、本発明はこれに限るものでは無く、例えば、合焦点位置が遠い順にフォーカス枠を移動したり、顔検出処理部103により検出された顔の大きさの大きい順にフォーカス枠を移動したり、また、画面中心から顔までの距離が短い順にフォーカス枠を移動するなど、様々な応用が考えられる。   In the fourth embodiment, the focus frame is moved in the order of closest focus position according to the operation of the focus frame selection UI unit 401. However, the present invention is not limited to this. Move the focus frame in order of increasing distance, move the focus frame in descending order of the size of the face detected by the face detection processing unit 103, or move the focus frame in ascending order of the distance from the center of the screen to the face. Various applications are conceivable.

<他の実施形態>
上記実施形態1〜4では、本発明をデジタルカメラに適用した場合を例にとって説明したが、デジタルカメラに限るものでは無く、フォーカス枠表示部をファインダ内に設けることにより、従来の銀塩カメラにも適用可能である。その場合、撮像部01は本撮影に用いるものではなく、露出制御及び/または焦点調節用の画像撮影に用いられる、固体撮像素子からなる2次元イメージセンサを示す。
<Other embodiments>
In the first to fourth embodiments, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to a digital camera, and a conventional silver salt camera is provided by providing a focus frame display unit in a finder. Is also applicable. In this case, not used for the imaging unit 1 01 this shoot, used in exposure control and / or imaging for focusing, shows a two-dimensional image sensor comprising a solid-state imaging device.

なお、本発明は、複数の機器(例えばホストコンピュータ、インターフェイス機器、カメラヘッドなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、銀塩カメラ、デジタルスチルカメラ、デジタルビデオカメラなど)に適用してもよい。   Note that the present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a camera head, etc.), or a device composed of a single device (for example, a silver salt camera, a digital still camera, a digital It may be applied to a video camera or the like.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。ここでプログラムコードを記憶する記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、ROM、RAM、磁気テープ、不揮発性のメモリカード、CD−ROM、CD−R、DVD、光ディスク、光磁気ディスク、MOなどが考えられる。また、LAN(ローカル・エリア・ネットワーク)やWAN(ワイド・エリア・ネットワーク)などのコンピュータネットワークを、プログラムコードを供給するために用いることができる。   Another object of the present invention is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved by the MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included. Examples of the storage medium for storing the program code include a flexible disk, hard disk, ROM, RAM, magnetic tape, nonvolatile memory card, CD-ROM, CD-R, DVD, optical disk, magneto-optical disk, MO, and the like. Can be considered. Also, a computer network such as a LAN (Local Area Network) or a WAN (Wide Area Network) can be used to supply the program code.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した図2および図3、更に、図6、図8、または図10に示すフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the above-described storage medium, the storage medium stores program codes corresponding to the above-described FIG. 2 and FIG. 3 and the flowchart shown in FIG. 6, FIG. 8, or FIG. It will be.

本発明の実施形態1のデジタルカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the digital camera of Embodiment 1 of this invention. , 本発明の実施形態1における撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in Embodiment 1 of this invention. 本発明の実施形態1におけるフォーカス枠を説明する図である。It is a figure explaining the focus frame in Embodiment 1 of the present invention. 本発明の実施形態2のデジタルカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the digital camera of Embodiment 2 of this invention. 本発明の実施形態2における撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in Embodiment 2 of this invention. 本発明の実施形態3のデジタルカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the digital camera of Embodiment 3 of this invention. 本発明の実施形態3における撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in Embodiment 3 of this invention. 本発明の実施形態4のデジタルカメラの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the digital camera of Embodiment 4 of this invention. 本発明の実施形態4における撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in Embodiment 4 of this invention. 本発明の実施形態4のフォーカス枠の動きを説明する図である。It is a figure explaining the movement of the focus frame of Embodiment 4 of this invention. 従来のカメラにおけるAFロック撮影手順を説明する図である。It is a figure explaining the AF lock imaging | photography procedure in the conventional camera. 多点AFでの撮影を説明する図である。It is a figure explaining imaging | photography with multipoint AF.

符号の説明Explanation of symbols

101 撮像部
102 露出制御部
103 顔検出処理部
104 AF制御部
105 フォーカス枠表示部
106 本露光制御部
107 画像処理部
108 データ書き込み部
201 ブラケット撮影パラメータ設定部
301 AvTv決定部
401 フォーカス枠選択UI部
DESCRIPTION OF SYMBOLS 101 Image pick-up part 102 Exposure control part 103 Face detection process part 104 AF control part 105 Focus frame display part 106 Main exposure control part 107 Image processing part 108 Data writing part 201 Bracket imaging parameter setting part 301 AvTv determination part 401 Focus frame selection UI part

Claims (9)

入射光を光量に応じた電気信号に変換して、画像データを出力する撮像手段と、
前記撮像手段からの前記画像データに基づいて、被写体像から顔を検出する顔検出手段と、
前記被写体像から眼を検出する第1の検出手段と、
焦点を合わせるために用いる画像データを抽出する位置及び大きさを示すフォーカス枠を設定するフォーカス枠設定手段と、
前記フォーカス枠内の画像データに基づいて、1以上のフォーカスレンズの合焦点位置を検出する第2の検出手段とを有し、
前記フォーカス枠設定手段は、前記第1の検出手段により検出された眼にフォーカス枠を設定し、前記顔検出手段により第1、第2の顔が検出された場合に、前記第2の検出手段の検出結果に基づいて、前記第1の顔の右眼と左眼のいずれかと前記第2の顔の右眼と左眼のいずれかの互いに近い合焦位置の眼を選択し、当該選択した眼に前記フォーカス枠を設定し直すことを特徴とする焦点検出装置。
Imaging means for converting incident light into an electrical signal corresponding to the amount of light and outputting image data;
Face detection means for detecting a face from a subject image based on the image data from the imaging means;
First detecting means for detecting an eye from the subject image;
A focus frame setting means for setting a focus frame indicating a position and a size for extracting image data used for focusing;
Second detection means for detecting a focal position of one or more focus lenses based on image data in the focus frame;
The focus frame setting means sets a focus frame for the eye detected by the first detection means, and the first detection means when the first and second faces are detected by the face detection means. Based on the detection result of the first face, select the right eye and the left eye of the first face and the right eye and the left eye of the second face, which are close to each other, and select the selected eye A focus detection apparatus, wherein the focus frame is reset on an eye.
撮影に用いる絞り値を決定する絞り決定手段を更に有し、前記絞り決定手段は、前記フォーカス枠設定手段により選択された眼が被写界深度に含まれるように絞り値を決定することを特徴とする請求項1に記載の焦点検出装置。   The camera further comprises an aperture determination unit that determines an aperture value to be used for photographing, and the aperture determination unit determines the aperture value so that the eye selected by the focus frame setting unit is included in the depth of field. The focus detection apparatus according to claim 1. 前記フォーカス枠設定手段はユーザーインターフェースを含み、前記ユーザーインターフェースを介して入力される情報に応じて前記フォーカス枠を設定することを特徴とする請求項1または2に記載の焦点検出装置。   The focus detection apparatus according to claim 1, wherein the focus frame setting unit includes a user interface, and sets the focus frame in accordance with information input via the user interface. 前記フォーカス枠設定手段により設定された前記フォーカス枠を表示する表示手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の焦点検出装置。   The focus detection apparatus according to claim 1, further comprising display means for displaying the focus frame set by the focus frame setting means. 前記ユーザーインターフェースを介して入力される情報に応じてフォーカス枠を表示する表示手段を更に有することを特徴とする請求項3に記載の焦点検出装置。   The focus detection apparatus according to claim 3, further comprising display means for displaying a focus frame in accordance with information input via the user interface. 前記フォーカス枠設定手段により複数のフォーカス枠が設定された場合に、前記第2の検出手段は、前記フォーカス枠毎に1以上の合焦点位置を検出することを特徴とする請求項1乃至5のいずれか1項に記載の焦点検出装置。   6. The method according to claim 1, wherein when a plurality of focus frames are set by the focus frame setting unit, the second detection unit detects one or more in-focus positions for each focus frame. The focus detection apparatus of any one of Claims. 入射光を光量に応じた電気信号に変換して、画像データを出力する撮像工程と、
前記撮像工程で得られた前記画像データに基づいて、被写体像から顔を検出する顔検出工程と、
前記被写体像から眼を検出する第1の検出工程と、
焦点を合わせるために用いる画像データを抽出する位置及び大きさを示すフォーカス枠を設定するフォーカス枠設定工程と、
前記フォーカス枠内の画像データに基づいて、1以上のフォーカスレンズの合焦点位置を検出する第2の検出工程とを有し、
前記フォーカス枠設定工程では、前記第1の検出手段により検出された眼にフォーカス枠を設定し、前記顔検出工程で第1、第2の顔が検出された場合に、前記第2の検出工程における検出結果に基づいて、前記第1の顔の右眼と左眼のいずれかと前記第2の顔の右眼と左眼のいずれかの互いに近い合焦点位置の眼を選択し、当該選択した眼に前記フォーカス枠を設定し直すことを特徴とする焦点検出方法。
An imaging step of converting incident light into an electrical signal corresponding to the amount of light and outputting image data;
A face detection step of detecting a face from a subject image based on the image data obtained in the imaging step;
A first detection step of detecting an eye from the subject image;
A focus frame setting step for setting a focus frame indicating a position and size for extracting image data used for focusing;
A second detection step of detecting a focal point position of one or more focus lenses based on the image data in the focus frame,
In the focus frame setting step, when the focus frame is set for the eyes detected by the first detection means , and the first and second faces are detected in the face detection step, the second detection step Based on the detection result of the first face, select one of the right eye and the left eye of the first face and the right eye and the left eye of the second face that are close to each other, and select the selected eye. focus detection method characterized by resetting the focus frame in the eye.
コンピュータに、請求項7に記載の焦点検出方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the focus detection method of Claim 7. 請求項8に記載のプログラムを格納したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 8.
JP2003361940A 2003-10-22 2003-10-22 Focus adjustment device and focus adjustment method Expired - Fee Related JP4553346B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003361940A JP4553346B2 (en) 2003-10-22 2003-10-22 Focus adjustment device and focus adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003361940A JP4553346B2 (en) 2003-10-22 2003-10-22 Focus adjustment device and focus adjustment method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010113424A Division JP2010217915A (en) 2010-05-17 2010-05-17 Imaging apparatus and control method therefor

Publications (3)

Publication Number Publication Date
JP2005128156A JP2005128156A (en) 2005-05-19
JP2005128156A5 JP2005128156A5 (en) 2009-08-27
JP4553346B2 true JP4553346B2 (en) 2010-09-29

Family

ID=34641738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003361940A Expired - Fee Related JP4553346B2 (en) 2003-10-22 2003-10-22 Focus adjustment device and focus adjustment method

Country Status (1)

Country Link
JP (1) JP4553346B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3845282A4 (en) * 2018-08-28 2021-10-27 Tencent Technology (Shenzhen) Company Limited Interaction method of application scenario, and mobile terminal and storage medium

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4574459B2 (en) * 2005-06-09 2010-11-04 キヤノン株式会社 Image capturing apparatus, control method therefor, program, and storage medium
JP4567538B2 (en) * 2005-06-22 2010-10-20 富士フイルム株式会社 Exposure amount calculation system, control method therefor, and control program therefor
JP4578334B2 (en) * 2005-06-22 2010-11-10 富士フイルム株式会社 In-focus position determining apparatus and method for imaging lens
JP2007065290A (en) * 2005-08-31 2007-03-15 Nikon Corp Automatic focusing device
JP4422667B2 (en) 2005-10-18 2010-02-24 富士フイルム株式会社 Imaging apparatus and imaging method
JP4579169B2 (en) 2006-02-27 2010-11-10 富士フイルム株式会社 Imaging condition setting method and imaging apparatus using the same
JP4657960B2 (en) * 2006-03-27 2011-03-23 富士フイルム株式会社 Imaging method and apparatus
JP5070728B2 (en) * 2006-04-04 2012-11-14 株式会社ニコン camera
JP2007282118A (en) * 2006-04-11 2007-10-25 Nikon Corp Electronic camera and image processing apparatus
US8306280B2 (en) 2006-04-11 2012-11-06 Nikon Corporation Electronic camera and image processing apparatus
JP4182117B2 (en) 2006-05-10 2008-11-19 キヤノン株式会社 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2007311861A (en) 2006-05-16 2007-11-29 Fujifilm Corp Photographic apparatus and method
JP4127296B2 (en) 2006-06-09 2008-07-30 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4207980B2 (en) 2006-06-09 2009-01-14 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP5055018B2 (en) 2006-06-14 2012-10-24 キヤノン株式会社 Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP4802884B2 (en) * 2006-06-19 2011-10-26 カシオ計算機株式会社 Imaging apparatus, captured image recording method, and program
JP4629002B2 (en) * 2006-06-21 2011-02-09 三菱電機株式会社 Imaging device
JP4799366B2 (en) * 2006-10-27 2011-10-26 三洋電機株式会社 Imaging apparatus and image reproduction apparatus
JP4732303B2 (en) * 2006-11-02 2011-07-27 キヤノン株式会社 Imaging device
JP4254873B2 (en) 2007-02-16 2009-04-15 ソニー株式会社 Image processing apparatus, image processing method, imaging apparatus, and computer program
JP2008245055A (en) * 2007-03-28 2008-10-09 Fujifilm Corp Image display device, photographing device, and image display method
JP4732397B2 (en) * 2007-04-11 2011-07-27 富士フイルム株式会社 Imaging apparatus and focus control method thereof
JP5019939B2 (en) * 2007-04-19 2012-09-05 パナソニック株式会社 Imaging apparatus and imaging method
JP4905797B2 (en) * 2007-05-10 2012-03-28 富士フイルム株式会社 Imaging apparatus and imaging method
JP4823964B2 (en) * 2007-05-10 2011-11-24 富士フイルム株式会社 Imaging apparatus and imaging method
JP4756005B2 (en) * 2007-05-10 2011-08-24 富士フイルム株式会社 Imaging apparatus and imaging method
JP4767904B2 (en) * 2007-05-10 2011-09-07 富士フイルム株式会社 Imaging apparatus and imaging method
JP4782725B2 (en) 2007-05-10 2011-09-28 富士フイルム株式会社 Focusing device, method and program
JP5046788B2 (en) * 2007-08-10 2012-10-10 キヤノン株式会社 Imaging apparatus and control method thereof
JP4997043B2 (en) * 2007-09-27 2012-08-08 富士フイルム株式会社 Imaging apparatus, method and program
JP4518131B2 (en) * 2007-10-05 2010-08-04 富士フイルム株式会社 Imaging method and apparatus
JP5338197B2 (en) * 2008-08-26 2013-11-13 株式会社ニコン Focus detection apparatus and imaging apparatus
JP5249146B2 (en) * 2009-07-03 2013-07-31 富士フイルム株式会社 Imaging control apparatus and method, and program
JP5548405B2 (en) * 2009-07-27 2014-07-16 キヤノン株式会社 Focus adjustment device
JP5669549B2 (en) 2010-12-10 2015-02-12 オリンパスイメージング株式会社 Imaging device
JP5075288B2 (en) * 2012-05-31 2012-11-21 キヤノン株式会社 Imaging apparatus and control method thereof
JP5385428B2 (en) * 2012-06-11 2014-01-08 パナソニック株式会社 Imaging device
JP5697650B2 (en) * 2012-12-13 2015-04-08 キヤノン株式会社 Imaging apparatus and control method thereof
JP6383251B2 (en) * 2013-12-27 2018-08-29 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP5911557B2 (en) * 2014-12-16 2016-04-27 オリンパス株式会社 Imaging device
JP6899049B2 (en) * 2016-10-20 2021-07-07 株式会社ニコン Imaging device
JP7211432B2 (en) * 2018-12-28 2023-01-24 株式会社ニコン Electronics and programs

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02300730A (en) * 1989-05-16 1990-12-12 Nikon Corp Auto-focus camera
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
JP2002006203A (en) * 2000-06-19 2002-01-09 Olympus Optical Co Ltd Focusing device and image pickup device
JP2002162559A (en) * 2000-11-24 2002-06-07 Olympus Optical Co Ltd Imaging device
JP2003092726A (en) * 2001-09-18 2003-03-28 Ricoh Co Ltd Imaging apparatus
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02300730A (en) * 1989-05-16 1990-12-12 Nikon Corp Auto-focus camera
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method
JP2002006203A (en) * 2000-06-19 2002-01-09 Olympus Optical Co Ltd Focusing device and image pickup device
JP2002162559A (en) * 2000-11-24 2002-06-07 Olympus Optical Co Ltd Imaging device
JP2003092726A (en) * 2001-09-18 2003-03-28 Ricoh Co Ltd Imaging apparatus
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3845282A4 (en) * 2018-08-28 2021-10-27 Tencent Technology (Shenzhen) Company Limited Interaction method of application scenario, and mobile terminal and storage medium
US11383166B2 (en) 2018-08-28 2022-07-12 Tencent Technology (Shenzhen) Company Limited Interaction method of application scene, mobile terminal, and storage medium

Also Published As

Publication number Publication date
JP2005128156A (en) 2005-05-19

Similar Documents

Publication Publication Date Title
JP4553346B2 (en) Focus adjustment device and focus adjustment method
JP5087856B2 (en) Electronic camera
JP4315148B2 (en) Electronic camera
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
EP2059029A2 (en) Composition determining apparatus, composition determining method, and program
JP4432886B2 (en) Electronic camera
JP2006201282A (en) Digital camera
JP5228354B2 (en) Digital camera
KR20120114177A (en) Image processing device capable of generating wide-range image
JP4509081B2 (en) Digital camera and digital camera program
JP2003046844A (en) Highlighting method, camera, and focus highlighting system
KR20120115127A (en) Image processing device capable of generating wide-range image
JP2019121860A (en) Image processing apparatus and control method therefor
JP2014050022A (en) Image processing device, imaging device, and program
JP2007148691A (en) Image processor
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP2007150602A (en) Electronic camera
JP2006308813A (en) Imaging apparatus with focus bracket function
JP2011048295A (en) Compound eye photographing device and method for detecting posture of the same
JP2010193050A (en) Electronic camera
JP4978724B2 (en) Imaging apparatus and program
JP2008054031A (en) Digital camera and display control method
JP2010217915A (en) Imaging apparatus and control method therefor
JP4760497B2 (en) Image data generation apparatus and image data generation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061023

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100517

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100709

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100712

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4553346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees