JP2006033440A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2006033440A
JP2006033440A JP2004209674A JP2004209674A JP2006033440A JP 2006033440 A JP2006033440 A JP 2006033440A JP 2004209674 A JP2004209674 A JP 2004209674A JP 2004209674 A JP2004209674 A JP 2004209674A JP 2006033440 A JP2006033440 A JP 2006033440A
Authority
JP
Japan
Prior art keywords
face
detected
digital camera
area
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004209674A
Other languages
Japanese (ja)
Other versions
JP4403903B2 (en
Inventor
Takumi Kawahara
巧 河原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004209674A priority Critical patent/JP4403903B2/en
Publication of JP2006033440A publication Critical patent/JP2006033440A/en
Application granted granted Critical
Publication of JP4403903B2 publication Critical patent/JP4403903B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve detection accuracy for detecting a feature such as the face of an object in a digital camera. <P>SOLUTION: The digital camera is provided with a feature detector for detecting the feature of an object, a memory for storing the feature information detected by the feature detector, and a photographing control unit for performing photographing control on the basis of the feature detected by the feature detector. If the feature detector cannot detect the feature when photographing a recording image, the photographing control unit performs photographing control on the basis of the feature information stored in the memory. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、被写体を撮像するデジタルカメラに関し、特に、顔検出等の被写体の特徴部位を検出することが可能なデジタルカメラに関する。   The present invention relates to a digital camera that captures an image of a subject, and more particularly to a digital camera that can detect a characteristic part of a subject such as face detection.

被写体が人物である場合に人物の顔部分にピントを合わせるため、カメラにより撮像した被写界内の人物の顔部分を検出して、検出した顔エリアにAFするカメラが提案されている。   In order to focus on the face portion of a person when the subject is a person, a camera that detects the face portion of the person in the object scene captured by the camera and performs AF on the detected face area has been proposed.

しかし、顔検出する場合に、顔検出方式によって、または環境によって、顔が検出できない、検出精度が悪い等の不具合が生じる。本発明は、デジタルカメラにおける、顔等の被写体の特徴部位を検出する検出精度を高めることを目的とする。   However, when a face is detected, problems such as a face cannot be detected or detection accuracy is poor depending on the face detection method or environment. An object of the present invention is to improve detection accuracy for detecting a characteristic part of a subject such as a face in a digital camera.

請求項1に記載の発明では、デジタルカメラにおいて、被写体の特徴部位を検出する特徴部位検出部と、前記特徴部位検出部で検出した特徴部位情報を記憶するメモリと、前記特徴部位検出部で検出した特徴部位に基づいて撮影制御を行う撮影制御部とを備え、前記撮影制御部は、記録画像を撮影するとき前記特徴部位検出部により特徴部位が検出できなかったとき、前記メモリに記憶された特徴部位情報に基づいて撮影制御を行う構成とした。   According to the first aspect of the present invention, in the digital camera, a feature part detection unit that detects a feature part of a subject, a memory that stores feature part information detected by the feature part detection unit, and detection by the feature part detection unit An imaging control unit configured to perform imaging control based on the feature part, and the imaging control unit is stored in the memory when the feature part detection unit cannot detect the feature part when capturing a recorded image. It was set as the structure which performs imaging | photography control based on characteristic part information.

請求項2に記載の発明では、請求項1に記載のデジタルカメラにおいて、前記撮影制御部は、前記特徴部位をオートフォーカスエリアとしてオートフォーカス制御を実行する構成とした。   According to a second aspect of the present invention, in the digital camera according to the first aspect, the imaging control unit is configured to execute autofocus control using the characteristic part as an autofocus area.

請求項3に記載の発明では、被写体の特徴部位を検出する特徴部位検出部と、前記特徴部位検出部で検出した特徴部位に基づいて撮影制御を行う撮影制御部とを備え、前記撮影制御部は、記録画像を撮影するとき前記特徴部位検出部により特徴部位が検出できなかったとき、被写界内の予め決められた所定部位に基づいて撮影制御を行う構成とした。   According to a third aspect of the present invention, the imaging control unit includes a feature part detection unit that detects a feature part of a subject, and an imaging control unit that performs imaging control based on the feature part detected by the feature part detection unit. Is configured to perform imaging control based on a predetermined part in the object scene when the characteristic part cannot be detected by the characteristic part detection unit when a recorded image is taken.

請求項4に記載の発明では、請求項3に記載のデジタルカメラにおいて、前記撮影制御部は、前記特徴部位をオートフォーカスエリアとしてオートフォーカスを実行する構成とした。   According to a fourth aspect of the present invention, in the digital camera according to the third aspect, the imaging control unit is configured to execute autofocus using the characteristic part as an autofocus area.

請求項5に記載の発明では、請求項3に記載のデジタルカメラにおいて、前記撮影制御部は、前記特徴部位検出部により特徴部位が検出できなかったとき、被写界内の中央部位をオートフォーカスエリアとしてオートフォーカス制御を実行する構成とした。   According to a fifth aspect of the present invention, in the digital camera according to the third aspect, the imaging control unit autofocuses the central part in the object scene when the characteristic part cannot be detected by the characteristic part detection unit. The area is configured to execute autofocus control.

記録画像の撮影時に特徴部位ができなかったときでも、記録画像の撮影を実行することができる。   Even when a characteristic part is not formed when the recorded image is captured, the recorded image can be captured.

以下、図面を用いて本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本発明の実施の形態によるデジタルカメラ1の構成について説明する。   First, the configuration of the digital camera 1 according to the embodiment of the present invention will be described.

図1は、本発明の実施の形態によるデジタルカメラ1の外観図である。図1において、デジタルカメラ1は、シャッターボタン101、十字キー102、モニタ103、決定ボタン104を備える。   FIG. 1 is an external view of a digital camera 1 according to an embodiment of the present invention. In FIG. 1, the digital camera 1 includes a shutter button 101, a cross key 102, a monitor 103, and an enter button 104.

シャッターボタン101は、半押し段階、全押し段階の2段階を検出可能なボタンである。シャッターボタン101は、使用者が撮影開始を指示するために操作される。十字キー102は、モニタ103上のカーソル等を移動させるために操作される。決定ボタン104は、十字キー102で選択された項目等を決定する時に操作される。また、決定ボタン104は、モニタ103の点灯状態、消灯状態を切り換えるときに操作される。   The shutter button 101 is a button that can detect two stages, a half-pressed stage and a fully-pressed stage. The shutter button 101 is operated for the user to instruct the start of shooting. The cross key 102 is operated to move a cursor or the like on the monitor 103. The decision button 104 is operated when the item selected with the cross key 102 is decided. The enter button 104 is operated to switch the monitor 103 between the on state and the off state.

図2は、本発明の実施の形態によるデジタルカメラ1の機能を示すブロック図である。図2において、デジタルカメラ1は、CPU111、顔検出部112、内蔵メモリ113、操作回路114、表示回路115、モニタ103、画像処理回路116、撮像素子117、ズームレンズ118、ズームドライバ119、フォーカスレンズ120、フォーカスドライバ121、絞り122、絞りドライバ123、メモリカードスロット124により構成される。当然、他にもデジタルカメラの機能を実現するための回路は存在するが本発明と関係が薄いので説明を省略する。   FIG. 2 is a block diagram showing functions of the digital camera 1 according to the embodiment of the present invention. In FIG. 2, the digital camera 1 includes a CPU 111, a face detection unit 112, a built-in memory 113, an operation circuit 114, a display circuit 115, a monitor 103, an image processing circuit 116, an image sensor 117, a zoom lens 118, a zoom driver 119, and a focus lens. 120, a focus driver 121, an aperture 122, an aperture driver 123, and a memory card slot 124. Of course, there are other circuits for realizing the functions of the digital camera, but they are not related to the present invention and will not be described.

CPU111は、デジタルカメラ1で実行される様々な機能を実現するためのプログラムを処理する回路である。CPU111は、CPU111内メモリ、内蔵メモリ113に記憶されたプログラムを実行し、デジタルカメラ1内の様々な回路を制御する。顔検出部112は、撮像素子117で撮像した画像データの特徴部分を抽出して被写体の顔エリア、顔の大きさ等を検出する。説明のため顔検出部112という機能ブロックで記載したが、本実施の形態では、顔検出プログラムをCPU111で実行することによるソフトウェアにて顔検出機能を実現する。ハードウェア回路を組み立てて実現することも可能である。   The CPU 111 is a circuit that processes programs for realizing various functions executed by the digital camera 1. The CPU 111 executes programs stored in the memory in the CPU 111 and the built-in memory 113 and controls various circuits in the digital camera 1. The face detection unit 112 extracts a feature portion of image data captured by the image sensor 117 and detects a face area, a face size, and the like of the subject. For the sake of explanation, the functional block of the face detection unit 112 is described, but in the present embodiment, the face detection function is realized by software obtained by executing the face detection program by the CPU 111. It is also possible to assemble and implement hardware circuits.

内蔵メモリ113は、画像データ、制御プログラム等を記憶するためのメモリである。例えば、不揮発性の半導体メモリが用いられる。内蔵メモリ113には、被写体の顔エリアを検出するために実行される顔検出プログラムを記憶している。また、内臓メモリ113は、顔検出により得られた顔位置、顔の大きさ等の顔情報を記憶することができる。操作回路114は、デジタルカメラ1に設けられたレリーズボタン101、十字キー102、決定ボタン104等の操作ボタンの操作を検出し、CPU111に伝達する回路である。また、操作回路114は、レリーズボタン101の半押し操作、全押し操作を検出する。表示回路115は、モニタ103に表示する画面データを生成する回路である。モニタ103は、デジタルカメラ1の背面に設けられた液晶ディスプレイであり、表示回路115が生成した画面データを表示する。   The built-in memory 113 is a memory for storing image data, a control program, and the like. For example, a nonvolatile semiconductor memory is used. The built-in memory 113 stores a face detection program that is executed to detect the face area of the subject. The built-in memory 113 can store face information such as a face position and a face size obtained by face detection. The operation circuit 114 is a circuit that detects the operation of operation buttons such as the release button 101, the cross key 102, and the determination button 104 provided in the digital camera 1 and transmits them to the CPU 111. The operation circuit 114 detects a half-press operation and a full-press operation of the release button 101. The display circuit 115 is a circuit that generates screen data to be displayed on the monitor 103. The monitor 103 is a liquid crystal display provided on the back surface of the digital camera 1 and displays the screen data generated by the display circuit 115.

撮影レンズは、ズームレンズ118、フォーカスレンズ120等で構成され、被写体像を撮像素子117の受光面上に結像させるための光学レンズである。ズームレンズ118は、撮影レンズを構成するレンズの中で、撮像素子117に結像する光学像を拡大、縮小を実現するためにモータにて移動されるレンズである。ズームドライバ119は、CPU111の指令によりモータを駆動し、ズームレンズ118を所定の位置に移動させるための回路である。フォーカスレンズ120は、撮影レンズを構成するレンズの中で、フォーカスを合わせるためにモータにて移動されるレンズである。フォーカスドライバ121は、CPU111の指令によりモータを駆動し、フォーカスレンズ120を所定の位置に移動させるための回路である。   The photographing lens is composed of a zoom lens 118, a focus lens 120, and the like, and is an optical lens for forming a subject image on the light receiving surface of the image sensor 117. The zoom lens 118 is a lens that is moved by a motor to realize an enlargement and reduction of an optical image formed on the image sensor 117 among lenses constituting the photographing lens. The zoom driver 119 is a circuit for driving a motor according to a command from the CPU 111 and moving the zoom lens 118 to a predetermined position. The focus lens 120 is a lens that is moved by a motor in order to adjust the focus among the lenses constituting the photographing lens. The focus driver 121 is a circuit for driving a motor according to a command from the CPU 111 and moving the focus lens 120 to a predetermined position.

絞り122は、撮像素子117に入射する被写界の光量を調節するためのものである。絞りドライバ123は、CPU111の指令によりモータを駆動し、絞り122の開閉状態を制御する回路である。撮像素子117は、撮影レンズを介して入力した光学像を電気画像信号に変換するCCD等により構成される素子である。画像処理回路116は、撮像素子117から出力された電気信号をアナログ/デジタル変換してデジタル信号を生成する。また、画像処理回路116は、デジタル変換されたデジタル信号に対して補間処理等を施して画像データを生成する。メモリカードスロット124は、メモリカードが挿入され、メモリカードに画像データ等のデータを書き込んだり、データを消去したりするためのスロットである。   The diaphragm 122 is for adjusting the amount of light of the object scene incident on the image sensor 117. The aperture driver 123 is a circuit that drives a motor in response to a command from the CPU 111 and controls the open / close state of the aperture 122. The imaging element 117 is an element configured by a CCD or the like that converts an optical image input via a photographing lens into an electric image signal. The image processing circuit 116 performs analog / digital conversion on the electrical signal output from the image sensor 117 to generate a digital signal. Further, the image processing circuit 116 performs interpolation processing or the like on the digital signal that has been digitally converted, and generates image data. The memory card slot 124 is a slot for inserting a memory card, writing data such as image data into the memory card, and erasing the data.

次に、本発明の実施の形態によるデジタルカメラ1における動作を説明する。   Next, the operation of the digital camera 1 according to the embodiment of the present invention will be described.

デジタルカメラ1で顔検出機能を使用するための設定操作について説明する。カメラの使用者は、主要被写体が人物である場合には、顔検出により得られた顔部分にピントを合わせたいと考える。デジタルカメラ1では、AFするエリアを決定する選択肢の1つとして顔検出による結果を用いる。したがって、デジタルカメラ1では、使用者が選択可能なAFエリアの選択項目の1つとして顔検出を備える。   A setting operation for using the face detection function in the digital camera 1 will be described. When the main subject is a person, the camera user wants to focus on the face portion obtained by the face detection. The digital camera 1 uses the result of face detection as one of the options for determining the area to be AF. Therefore, the digital camera 1 includes face detection as one of AF area selection items that can be selected by the user.

図3、図4は、デジタルカメラ1のモニタ103に表示されるフォーカスに関するメニュー画面を示す図である。   3 and 4 are diagrams showing menu screens related to the focus displayed on the monitor 103 of the digital camera 1.

図3は、メニュー画面の選択項目中の「AFエリア」を設定する場合に表示される画面を示す図である。選択項目「AFエリア」では、「オート」「マニュアル」「中央」「顔検出」のいずれから選択できる。「オート」が選択された場合には、全てのAFエリアを使用して、いずれかのAFエリアに重なる被写体のうち、デジタルカメラ1に最至近の被写体にピントを合わせるように制御する。「マニュアル」が選択された場合には、複数のAFエリアの中から、使用者が選択したAFエリアだけを使用してピントを合わせるように制御する。「中央」が選択された場合には、複数のAFエリアのうち中央部のAFエリアのみを使用してピント合わせを行わせるように制御する。また、「顔検出」が選択された場合には、検出した顔の中から一番近い顔部分にピントが合うように制御する。   FIG. 3 is a diagram showing a screen displayed when setting the “AF area” in the selection items of the menu screen. In the selection item “AF area”, any one of “auto”, “manual”, “center”, and “face detection” can be selected. When “Auto” is selected, control is performed using all the AF areas to focus on the subject closest to the digital camera 1 among the subjects overlapping any of the AF areas. When “Manual” is selected, control is performed so as to focus using only the AF area selected by the user from among a plurality of AF areas. When “center” is selected, control is performed so that focusing is performed using only the central AF area among the plurality of AF areas. When “Face detection” is selected, control is performed so that the closest face portion among the detected faces is in focus.

図4は、メニュー画面の選択項目中の「AFモード」を設定する場合に表示される画面を示す図である。選択項目「AFモード」では、「常時AF」と「シングルAF」が選択できるが、「顔検出」が選択された場合には自動的に「常時AF」に切り換えられる。「常時AF」が選択された場合には、シャッターボタン101の操作に関係なく、AFによるピント合わせを繰り返し、シャッターボタン101の半押しでAFロックを行うよう制御する。「シングルAF」が選択された場合には、シャッターボタン101が半押しされている間のみAFによるピント合わせを行い、ピントが合うとAFロックを行うように制御する。   FIG. 4 is a diagram showing a screen displayed when the “AF mode” in the selection items of the menu screen is set. In the selection item “AF mode”, “always AF” and “single AF” can be selected, but when “face detection” is selected, the mode is automatically switched to “always AF”. When “always AF” is selected, regardless of the operation of the shutter button 101, focusing by AF is repeated, and the AF lock is performed by half-pressing the shutter button 101. When “single AF” is selected, control is performed so that AF is focused only while the shutter button 101 is half-pressed, and AF lock is performed when focus is achieved.

上記メニュー画面における選択、決定は、十字キー102と決定ボタン104とを使用者が操作することにより行うことができる。   Selection and determination on the menu screen can be performed by the user operating the cross key 102 and the determination button 104.

続いて、本発明の実施の形態によるデジタルカメラ1における顔検出動作を説明する。   Next, the face detection operation in the digital camera 1 according to the embodiment of the present invention will be described.

デジタルカメラ1は、図3に示すメニュー画面で「顔検出」が選択されている状態で静止画像撮影を可能とする静止画像撮影モードに切り換えられることで顔検出制御を実行する。デジタルカメラ1では、撮影する被写体像を確認するためにモニタ103に表示する、撮像素子117により撮像された動画像(スルー画像)を利用して顔検出を行う。また、デジタルカメラ1は、顔検出を実行している時には、顔検出を実行していないときに比
べてスルー画像の輝度を上げるように制御する。スルー画像の輝度を上げることにより顔の検出をし易くすることができる。
The digital camera 1 executes face detection control by switching to a still image shooting mode that enables still image shooting in a state where “face detection” is selected on the menu screen shown in FIG. In the digital camera 1, face detection is performed using a moving image (through image) captured by the image sensor 117 displayed on the monitor 103 in order to confirm a subject image to be captured. Further, the digital camera 1 performs control so that the brightness of the through image is increased when face detection is performed, compared to when face detection is not performed. The face can be easily detected by increasing the brightness of the through image.

また、デジタルカメラ1では、シャッターボタン101が半押し操作されるまで、スルー画像を用いて繰り返し顔検出を実行する。そのとき、顔が検出できない場合には、中央エリアAF、マルチエリアAFを実行して被写体にピントを合わせ顔検出を補助する。   Further, the digital camera 1 repeatedly performs face detection using the through image until the shutter button 101 is half-pressed. At that time, if a face cannot be detected, center area AF and multi-area AF are executed to focus on the subject and assist face detection.

また、デジタルカメラ1は、シャッターボタン101が半押し操作されるまで顔検出結果である顔位置、顔の大きさ等の顔検出情報の最近1回分を上書きしながら繰り返し内蔵メモリ113に記憶する。これにより、半押し操作されたときに顔検出できなくても、内蔵メモリ113に記憶されている前回の検出結果を読出して利用することができる。また、半押し操作時に顔検出情報が得られていない場合には、中央エリア等の他のエリアを用いたAFを強制的に実行する。   Further, the digital camera 1 repeatedly stores the face detection information such as the face position and the face size as face detection results in the built-in memory 113 while overwriting the latest one time until the shutter button 101 is half-pressed. Thereby, even if the face cannot be detected when the half-press operation is performed, the previous detection result stored in the built-in memory 113 can be read and used. If face detection information is not obtained during the half-press operation, AF using another area such as the central area is forcibly executed.

以下にフローチャート図を用いて顔検出による撮影制御を具体的に説明する。   Hereinafter, photographing control by face detection will be specifically described with reference to a flowchart.

図5は、CPU111で実行される制御を示すフローチャート図である。図5に示すフローは、図3に示すメニュー画面で「顔検出」が選択され、静止画撮影モードに設定されることでスタートする。   FIG. 5 is a flowchart showing the control executed by the CPU 111. The flow shown in FIG. 5 starts when “Face Detection” is selected on the menu screen shown in FIG. 3 and the still image shooting mode is set.

先ず、ステップS101は、モニタ103が点灯状態であるか検出する。点灯状態である場合にはステップS102に進み、点灯状態でない場合にはステップS118に進む。ここでは、モニタ103が点灯状態にない場合には、使用者は顔検出結果を確認できないため、顔を誤検出している可能性がある。デジタルカメラ1では、使用者によって顔検出結果を確認できない状態では顔検出によるAFエリア設定を無効にする。デジタルカメラ1では、モニタ103が点灯状態でない場合にはスルー画像を出力しないように制御して顔検出を行わない。   First, in step S101, it is detected whether the monitor 103 is in a lighting state. When it is in the lighting state, the process proceeds to step S102, and when it is not in the lighting state, the process proceeds to step S118. Here, when the monitor 103 is not in the lit state, the user cannot confirm the face detection result, so there is a possibility that the face is erroneously detected. In the digital camera 1, the AF area setting by face detection is invalidated when the face detection result cannot be confirmed by the user. In the digital camera 1, when the monitor 103 is not in the lighting state, the face detection is not performed by controlling so as not to output the through image.

そして、ステップS102では、撮像素子117で撮像した画像を用いて被写界輝度を測光する。続いて、ステップS103では、測光した被写界輝度に基づいて輝度調整を実行して、スルー画像をモニタ103に表示する。また、被写界深度を広くする処理を実行する。本ステップで実行される処理については、図8に示すフローチャート図を用いて後述する。   In step S102, the field luminance is measured using the image captured by the image sensor 117. Subsequently, in step S <b> 103, brightness adjustment is performed based on the photometric field brightness, and a through image is displayed on the monitor 103. In addition, processing for increasing the depth of field is executed. The process executed in this step will be described later with reference to the flowchart shown in FIG.

そして、ステップS104では、スルー画像を用いて顔検出を実行する。続いて、ステップS105では、顔を検出できたか判定する。顔を検出した場合にはステップS106に進み、顔を検出しない場合にはステップS108に進む。そして、ステップS106では、検出した顔の位置と顔の大きさによりエリアを設定し、そのエリアでAFを実行する。顔を検出した場合のモニタ103における表示例を図6に示す。続いて、ステップS107では、検出した顔情報を一時的に内蔵メモリ113に記憶する。ここで検出した顔情報を記憶しておくことで、最終的にAFエリアを決定する半押し操作時に顔を検出できなかった場合に内蔵メモリ113に記憶された顔情報を利用してAFエリアを決定する。内蔵メモリ113に記憶した顔情報は、次の顔検出時には新たな顔情報で上書きされる。   In step S104, face detection is performed using the through image. Subsequently, in step S105, it is determined whether a face has been detected. If a face is detected, the process proceeds to step S106, and if no face is detected, the process proceeds to step S108. In step S106, an area is set according to the detected face position and face size, and AF is executed in the area. A display example on the monitor 103 when a face is detected is shown in FIG. Subsequently, in step S107, the detected face information is temporarily stored in the built-in memory 113. By storing the face information detected here, the face information stored in the built-in memory 113 is used to determine the AF area when a face cannot be detected during the half-press operation for finally determining the AF area. decide. The face information stored in the built-in memory 113 is overwritten with new face information when the next face is detected.

また、ステップS108では、中央エリアをAFエリアとしたAFを実行する。人物が被写界内にいるにも関わらず顔がボケ過ぎていて顔が検出できない可能性があるので、主要被写体のいる可能性の高い中央部の被写体にピントを合わせることにより、顔検出を補助する。そして、ステップS109では、顔が検出できたか再度判定する。顔を検出しない場合にはステップS110に進み、顔を検出した場合にはステップS106に進む。そして、ステップS110では、マルチエリアAFを実行する。ステップS108において
中央エリアでのAFと同様、中央部以外に人物がいるときの顔を検出可能にする。
In step S108, AF with the central area as the AF area is executed. Even if a person is in the field, the face may be too blurry to detect the face. Assist. In step S109, it is determined again whether a face has been detected. If no face is detected, the process proceeds to step S110. If a face is detected, the process proceeds to step S106. In step S110, multi-area AF is executed. In step S108, as in AF in the central area, a face when a person is present in a region other than the central portion can be detected.

次に、ステップS111では、再び顔が検出できたか判定する。顔を検出しない場合にはステップS112に進み、顔を検出した場合にはステップS106に進む。そして、ステップS112では、シャッターボタン101が半押し操作されたか検出する。半押し操作されたことを検出した場合にはステップS114に進み、半押し操作を検出しない場合にはステップS113に進む。ステップS113では、内蔵メモリ113に記憶された顔情報を消去して、ステップS101に戻る。   Next, in step S111, it is determined whether the face has been detected again. If no face is detected, the process proceeds to step S112. If a face is detected, the process proceeds to step S106. In step S112, it is detected whether the shutter button 101 is half-pressed. If it is detected that the half-press operation has been performed, the process proceeds to step S114. If the half-press operation is not detected, the process proceeds to step S113. In step S113, the face information stored in the built-in memory 113 is deleted, and the process returns to step S101.

また、ステップS114では、最終的なAFエリアとする顔を特定するため、顔が検出できたか判定する。顔を検出した場合にはステップS115に進み、顔を検出しない場合にはステップS116に進む。そして、ステップS115では、検出した顔の位置、大きさにより設定されたエリアを最終的なAFエリアとして設定し、AF制御を実行する。ここでのモニタ103における表示例を図7に示す。また、ステップS116では、ステップS107で記憶された顔情報がメモリ内に存在するか検出する。存在する場合にはステップS117に進み、存在しない場合にはステップS118に進む。   In step S114, it is determined whether a face has been detected in order to identify the face to be the final AF area. If a face is detected, the process proceeds to step S115, and if no face is detected, the process proceeds to step S116. In step S115, an area set according to the detected face position and size is set as the final AF area, and AF control is executed. A display example on the monitor 103 is shown in FIG. In step S116, it is detected whether the face information stored in step S107 exists in the memory. When it exists, it progresses to step S117, and when it does not exist, it progresses to step S118.

そして、ステップS117では、記憶された顔情報に基づくエリアをAFエリアとして設定してAF制御を実行する。これにより半押し操作時に顔を検出できなかった場合でも時間差の少ない直近に検出された顔エリアをAFエリアとして使用することでほぼ間違えなく顔部分にピントを合わせることができる。特に、シャッターボタン101を一気に全押しまで押し込む一気押し操作にも対応できる。また、ステップS118では、中央エリアをAFエリアとしたAF制御を実行する。これにより、顔を検出できなかった場合に、自動的に主要被写体が存在する可能性の高いエリアである中央エリアをAFエリアとして使用することで、主要被写体にピントが合う可能性が高い。また、メニュー画面に戻ってAFエリアの設定をしなおす必要をなくしたことにより、シャッタチャンスを逃すこともない。   In step S117, an area based on the stored face information is set as an AF area, and AF control is executed. As a result, even when a face cannot be detected during a half-press operation, the most recently detected face area with a small time difference can be used as the AF area, so that the face can be focused almost without error. In particular, it is possible to cope with a single press operation of pressing the shutter button 101 all the way down. In step S118, AF control with the central area as the AF area is executed. As a result, when the face cannot be detected, the central area, which is an area where the main subject is likely to exist automatically, is automatically used as the AF area, so that the main subject is likely to be focused. Further, since it is not necessary to return to the menu screen and reset the AF area, a photo opportunity is not missed.

そして、ステップS119では、シャッターボタン101が全押し操作されたか検出する。全押し操作された場合にはステップS120に進み、全押し操作されない場合にはステップS121に進む。ステップS120では、撮影、記録処理を実行する。また、ステップS121では、シャッターボタン101が半押し操作されているか検出し、半押し操作されている場合にはステップS119に戻り、半押し操作されていない場合にはステップS101に戻る。   In step S119, it is detected whether the shutter button 101 has been fully pressed. If the full press operation has been performed, the process proceeds to step S120, and if the full press operation has not been performed, the process proceeds to step S121. In step S120, shooting and recording processing is executed. In step S121, it is detected whether the shutter button 101 is half-pressed. If the shutter button 101 is half-pressed, the process returns to step S119. If the shutter button 101 is not half-pressed, the process returns to step S101.

図6、図7は、デジタルカメラ1のモニタ103に表示される顔検出制御時の表示例を示す図である。図6、図7を用いて顔検出制御時のモニタ表示を説明する。シャッターボタン101の半押し操作前の表示例を図6に、判押し操作後の表例を図7に示す。図6、図7に示すように、検出した顔の位置と大きさによりAFエリアとして設定した枠をスルー画像上に重ねて表示する。また、複数の顔が検出された場合にはそれぞれに枠が表示される。半押し操作がなされると、半押し操作時点で検出された一番大きいまたは最至近の顔の枠が黄色枠(図6の細線枠)から赤色枠(図7の太線枠)に切り換えられる。図7における赤色枠で表示されたエリアが全押し操作時のAFエリアに設定される。   6 and 7 are diagrams showing display examples at the time of face detection control displayed on the monitor 103 of the digital camera 1. The monitor display during face detection control will be described with reference to FIGS. A display example before the half-pressing operation of the shutter button 101 is shown in FIG. 6, and a table example after the full-pressing operation is shown in FIG. As shown in FIGS. 6 and 7, a frame set as an AF area according to the detected position and size of the face is displayed superimposed on the through image. When a plurality of faces are detected, a frame is displayed for each face. When a half-press operation is performed, the largest or closest face frame detected at the time of the half-press operation is switched from a yellow frame (thin line frame in FIG. 6) to a red frame (thick line frame in FIG. 7). The area indicated by the red frame in FIG. 7 is set as the AF area at the time of the full press operation.

次に、図5のステップS103で実行される輝度調整処理について説明する。   Next, the brightness adjustment process executed in step S103 in FIG. 5 will be described.

ここでの処理は、顔部分を検出する精度を高めることを目的とする。顔を検出するための顔検出プログラムの検出アルゴリズムにより異なるが、検出に用いる画像の輝度を顔検出プログラムにとって顔検出しやすい輝度に調整するように制御する。本実施の形態のデジタルカメラ1では、輝度を通常撮影時より上げたほうが顔検出しやすい顔検出プログラ
ムを用いる例を示す。
The purpose of this processing is to improve the accuracy of detecting the face portion. Although it differs depending on the detection algorithm of the face detection program for detecting the face, control is performed so that the brightness of the image used for detection is adjusted to a brightness that is easy for the face detection program to detect the face. In the digital camera 1 of the present embodiment, an example is shown in which a face detection program that makes it easier to detect a face when the brightness is increased than during normal shooting is shown.

また、被写界深度が広い方が顔検出できる可能性が増える。したがって、通常のスルー画像に比べて被写界深度を広くするように制御する。顔検出が選択されているときには、できるだけ絞りを絞ったり、ズームを広角側に移動したりする動作を実行する。当然、所定の被写界深度以上に広くする必要はなく、顔検出ができない場合に徐々に広くするように制御してもよい。   In addition, the possibility that a face can be detected increases when the depth of field is wider. Therefore, the depth of field is controlled to be wider than that of a normal through image. When face detection is selected, an operation of reducing the aperture as much as possible or moving the zoom to the wide angle side is executed. Of course, it is not necessary to widen the depth of field more than a predetermined depth of field, and when the face cannot be detected, the width may be gradually increased.

図8を用いて具体的な制御を説明する。図8は、図5のステップS103で実行される制御を示すフローチャート図である。   Specific control will be described with reference to FIG. FIG. 8 is a flowchart showing the control executed in step S103 of FIG.

まず、ステップS301では、通常のスルー画像時の適正輝度設定より輝度設定を明るめにするように設定する。続いて、ステップS302では、所定の被写界深度になるように絞り122を駆動する。次に、ステップS303では、現在の絞り122の状態で輝度を確保できているか判定する。確保できている場合には本フローを終了し、確保できていない場合にはステップS304に進む。そして、ステップS304では、画像処理回路116によりスルー画像の感度をアップする処理を施す。続いて、ステップS305では、輝度を確保できているか再度判定する。確保できている場合には本フローを終了し、確保できていない場合にはステップS306に進む。   First, in step S301, the brightness setting is set to be brighter than the appropriate brightness setting for a normal through image. Subsequently, in step S302, the diaphragm 122 is driven so as to have a predetermined depth of field. Next, in step S303, it is determined whether the brightness can be secured with the current state of the aperture 122. If it has been secured, this flow is terminated, and if it has not been secured, the process proceeds to step S304. In step S304, the image processing circuit 116 performs processing for increasing the sensitivity of the through image. Subsequently, in step S305, it is determined again whether the luminance is secured. If it has been secured, this flow is terminated, and if it has not been secured, the process proceeds to step S306.

そして、ステップS306では、ズームレンズ118がズームされている状態であるか否かを判定する。ズームされている状態であればステップS307に進み、ズームされている状態でなければステップ309に進む。そして、ステップS307では、ズームレンズ118を広角側に移動する。続いて、ステップS308では、所定の深度および輝度が確保されているか判定する。確保されている場合には本フローを終了し、確保されていない場合にはステップS309に進む。そして、ステップS309では、絞り122を開放側に駆動し、輝度を確保する。   In step S306, it is determined whether or not the zoom lens 118 is in a zoomed state. If it is zoomed, the process proceeds to step S307, and if it is not zoomed, the process proceeds to step 309. In step S307, the zoom lens 118 is moved to the wide angle side. Subsequently, in step S308, it is determined whether a predetermined depth and luminance are secured. If it has been secured, this flow ends. If it has not been secured, the process proceeds to step S309. In step S309, the diaphragm 122 is driven to the open side to ensure brightness.

次に、デジタルカメラ1で実行される顔検出制御の別の実施の形態を説明する。   Next, another embodiment of face detection control executed by the digital camera 1 will be described.

図5に示した制御では、顔検出できなかった場合に中央エリア、マルチエリアを用いてAFを実行し、顔検出の補助を行う例を示した。   In the control shown in FIG. 5, an example is shown in which AF is performed using the center area and the multi-area when face detection cannot be performed to assist face detection.

本実施の形態での制御では、顔が検出されなかった場合に、AFを実行するのではなくフォーカスレンズ120を予め決められた位置に移動させる。例えば、まず、最至近側にフォーカスレンズ120を移動する。至近の顔を優先するためである。そして、顔が検出されるまで至近側からフォーカスレンズ120を所定の移動量(移動ステップ)毎移動させ、顔を検出したらレンズ駆動を停止する。   In the control in the present embodiment, when a face is not detected, AF is not performed but the focus lens 120 is moved to a predetermined position. For example, first, the focus lens 120 is moved to the closest side. This is to give priority to the closest face. Then, until the face is detected, the focus lens 120 is moved from the closest side by a predetermined movement amount (movement step), and when the face is detected, the lens driving is stopped.

また、フォーカスレンズ120の移動ステップは、マニュアルフォーカス時に移動可能な最小移動ステップと同じ移動量にする。   The moving step of the focus lens 120 is set to the same moving amount as the minimum moving step that can be moved during manual focusing.

以下に、図9を用いて本実施の形態のデジタルカメラ1における制御例を具体的に説明する。図9は、CPU111で実行される制御を示すフローチャート図である。図9に示すフローは、図3に示すメニュー画面で「顔検出」が選択され、静止画撮影モードに設定されることでスタートする。   Hereinafter, an example of control in the digital camera 1 of the present embodiment will be specifically described with reference to FIG. FIG. 9 is a flowchart showing the control executed by the CPU 111. The flow shown in FIG. 9 starts when “FACE DETECTION” is selected on the menu screen shown in FIG. 3 and the still image shooting mode is set.

先ず、ステップS201は、モニタ103が点灯状態であるか検出する。点灯状態である場合にはステップS203に進み、点灯状態でない場合にはステップS202に進む。そして、ステップS202では、モニタ103が点灯状態にない場合には、使用者は顔検出結果を確認できないため、強制的にモニタ103を点灯する。   First, in step S201, it is detected whether the monitor 103 is in a lighting state. When it is in the lighting state, the process proceeds to step S203, and when it is not in the lighting state, the process proceeds to step S202. In step S202, if the monitor 103 is not in the lighting state, the user cannot confirm the face detection result, and thus the monitor 103 is forcibly turned on.

そして、ステップS203では、撮像素子117で撮像した画像を用いて被写界輝度を測光する。続いて、ステップS204では、測光した被写界輝度に基づいて輝度調整を実行して、スルー画像をモニタ103に表示する。また、被写界深度を広くする処理を実行する。本ステップで実行される処理については、図8に示すフローチャート図を用いて説明した。   In step S203, the field luminance is measured using an image captured by the image sensor 117. Subsequently, in step S <b> 204, brightness adjustment is performed based on the photometric field brightness, and a through image is displayed on the monitor 103. In addition, processing for increasing the depth of field is executed. The processing executed in this step has been described with reference to the flowchart shown in FIG.

そして、ステップS205では、スルー画像を用いて顔検出を実行する。続いて、ステップS206では、顔を検出できたか判定する。顔を検出した場合にはステップS211に進み、顔を検出しない場合にはステップS207に進む。そして、ステップS207では、フォーカスレンズ120を至近側に移動させる。次に、ステップS208では、顔が検出できたか再度判定する。顔を検出した場合にはステップS211に進み、顔を検出しない場合にはステップS209に進む。そして、ステップS209では、所定の移動ステップでフォーカスレンズ120を移動させる。続いて、ステップS210では、再度、顔が検出できたか判定する。顔を検出した場合にはステップS211に進み、顔を検出しない場合にはステップS209に戻る。   In step S205, face detection is performed using the through image. In step S206, it is determined whether a face has been detected. If a face is detected, the process proceeds to step S211, and if no face is detected, the process proceeds to step S207. In step S207, the focus lens 120 is moved to the closest side. Next, in step S208, it is determined again whether a face has been detected. If a face is detected, the process proceeds to step S211, and if no face is detected, the process proceeds to step S209. In step S209, the focus lens 120 is moved in a predetermined movement step. Subsequently, in step S210, it is determined again whether a face has been detected. If a face is detected, the process proceeds to step S211. If no face is detected, the process returns to step S209.

そして、ステップS211では、検出した顔の位置と顔の大きさによりエリアを設定し、そのエリアでAFを実行する。顔を検出した場合のモニタ103における表示例を図6に示す。続いて、ステップS212では、検出した顔情報を一時的に内蔵メモリ113に記憶する。ここで検出した顔情報を記憶しておくことで、最終的にAFエリアを決定する半押し操作時に顔を検出できなかった場合に内蔵メモリ113に記憶された顔情報を利用してAFエリアを決定する。内蔵メモリ113に記憶した顔情報は、次の顔検出時には新たな顔情報で上書きされる。   In step S211, an area is set according to the detected face position and face size, and AF is executed in the area. A display example on the monitor 103 when a face is detected is shown in FIG. In step S212, the detected face information is temporarily stored in the built-in memory 113. By storing the face information detected here, the face information stored in the built-in memory 113 is used to determine the AF area when a face cannot be detected during the half-press operation for finally determining the AF area. decide. The face information stored in the built-in memory 113 is overwritten with new face information when the next face is detected.

そして、ステップS213では、シャッターボタン101が半押し操作されたか検出する。半押し操作されたことを検出した場合にはステップS215に進み、半押し操作を検出しない場合にはステップS214に進む。ステップS214では、内蔵メモリ113に記憶された顔情報を消去して、ステップS201に戻る。   In step S213, it is detected whether the shutter button 101 has been pressed halfway. If it is detected that the half-press operation has been performed, the process proceeds to step S215. If the half-press operation is not detected, the process proceeds to step S214. In step S214, the face information stored in the built-in memory 113 is deleted, and the process returns to step S201.

また、ステップS215では、最終的なAFエリアとする顔を特定するため、顔が検出できたか判定する。顔を検出した場合にはステップS216に進み、顔を検出しない場合にはステップS217に進む。そして、ステップS216では、検出した顔の位置、大きさにより設定されたエリアを最終的なAFエリアとして設定し、AF制御を実行する。ここでのモニタ103における表示例を図7に示す。また、ステップS217では、ステップS212で記憶された顔情報がメモリ内に存在するか検出する。存在する場合にはステップS218に進み、存在しない場合にはステップS219に進む。   In step S215, it is determined whether a face has been detected in order to identify the face to be the final AF area. If a face is detected, the process proceeds to step S216. If no face is detected, the process proceeds to step S217. In step S216, an area set according to the detected face position and size is set as a final AF area, and AF control is executed. A display example on the monitor 103 is shown in FIG. In step S217, it is detected whether the face information stored in step S212 exists in the memory. When it exists, it progresses to step S218, and when it does not exist, it progresses to step S219.

そして、ステップS218では、記憶された顔情報に基づくエリアをAFエリアとして設定してAF制御を実行する。これにより半押し操作時に顔を検出できなかった場合でも時間差の少ない直近に検出された顔エリアをAFエリアとして使用することでほぼ間違えなく顔部分にピントを合わせることができる。特に、シャッターボタン101を一気に全押しまで押し込む一気押し操作にも対応できる。また、ステップS219では、中央エリアをAFエリアとしたAF制御を実行する。これにより、顔を検出できなかった場合に、自動的に主要被写体が存在する可能性の高いエリアである中央エリアをAFエリアとして使用することで、主要被写体にピントが合う可能性が高い。また、メニュー画面に戻ってAFエリアの設定をしなおす必要をなくしたことにより、シャッタチャンスを逃すこともない。   In step S218, an area based on the stored face information is set as an AF area, and AF control is executed. As a result, even when a face cannot be detected during a half-press operation, the most recently detected face area with a small time difference can be used as the AF area, so that the face can be focused almost without error. In particular, it is possible to cope with a single press operation of pressing the shutter button 101 all the way down. In step S219, AF control with the central area as the AF area is executed. As a result, when the face cannot be detected, the central area, which is an area where the main subject is likely to exist automatically, is automatically used as the AF area, so that the main subject is likely to be focused. Further, since it is not necessary to return to the menu screen and reset the AF area, a photo opportunity is not missed.

そして、ステップS220では、シャッターボタン101が全押し操作されたか検出す
る。全押し操作された場合にはステップS221に進み、全押し操作されない場合にはステップS222に進む。ステップS221では、撮影、記録処理を実行する。また、ステップS222では、シャッターボタン101が半押し操作されているか検出し、半押し操作されている場合にはステップS220に戻り、半押し操作されていない場合にはステップS201に戻る。
In step S220, it is detected whether the shutter button 101 is fully pressed. If the full press operation has been performed, the process proceeds to step S221. If the full press operation has not been performed, the process proceeds to step S222. In step S221, shooting and recording processing is executed. In step S222, it is detected whether the shutter button 101 is half-pressed. If the shutter button 101 is half-pressed, the process returns to step S220. If the shutter button 101 is not half-pressed, the process returns to step S201.

以上説明した上記の制御を実行することにより、顔検出の精度を高めることができる。   By executing the above-described control described above, the accuracy of face detection can be improved.

図1は、本発明の実施の形態によるデジタルカメラ1の外観図である。FIG. 1 is an external view of a digital camera 1 according to an embodiment of the present invention. 図2は、本発明の実施の形態によるデジタルカメラ1の機能を示すブロック図である。FIG. 2 is a block diagram showing functions of the digital camera 1 according to the embodiment of the present invention. 図3は、デジタルカメラ1のモニタ103に表示されるフォーカスに関するメニュー画面を示す図である。FIG. 3 is a diagram showing a menu screen related to focus displayed on the monitor 103 of the digital camera 1. 図4は、デジタルカメラ1のモニタ103に表示されるフォーカスに関するメニュー画面を示す図である。FIG. 4 is a diagram showing a menu screen related to focus displayed on the monitor 103 of the digital camera 1. 図5は、CPU111で実行される制御を示すフローチャート図である。FIG. 5 is a flowchart showing the control executed by the CPU 111. 図6は、デジタルカメラ1のモニタ103に表示される顔検出制御時の表示例を示す図である。FIG. 6 is a diagram illustrating a display example at the time of face detection control displayed on the monitor 103 of the digital camera 1. 図7は、デジタルカメラ1のモニタ103に表示される顔検出制御時の表示例を示す図である。FIG. 7 is a diagram illustrating a display example during face detection control displayed on the monitor 103 of the digital camera 1. 図8は、図5のステップS103で実行される制御を示すフローチャート図である。FIG. 8 is a flowchart showing the control executed in step S103 of FIG. 図9は、CPU111で実行される制御を示すフローチャート図である。FIG. 9 is a flowchart showing the control executed by the CPU 111.

符号の説明Explanation of symbols

1・・・デジタルカメラ
101・・・シャッターボタン
102・・・十字キー
103・・・モニタ
104・・・決定ボタン
111・・・CPU
112・・・顔検出部
113・・・内蔵メモリ
114・・・操作回路
115・・・表示回路
116・・・画像処理回路
117・・・撮像素子
118・・・ズームレンズ
119・・・ズームドライバ
120・・・フォーカスレンズ
121・・・フォーカスドライバ
122・・・絞り
123・・・絞りドライバ
124・・・メモリカードスロット
DESCRIPTION OF SYMBOLS 1 ... Digital camera 101 ... Shutter button 102 ... Cross key 103 ... Monitor 104 ... Decision button 111 ... CPU
DESCRIPTION OF SYMBOLS 112 ... Face detection part 113 ... Built-in memory 114 ... Operation circuit 115 ... Display circuit 116 ... Image processing circuit 117 ... Image sensor 118 ... Zoom lens 119 ... Zoom driver 120 ... Focus lens 121 ... Focus driver 122 ... Aperture 123 ... Aperture driver 124 ... Memory card slot

Claims (5)

被写体の特徴部位を検出する特徴部位検出部と、
前記特徴部位検出部で検出した特徴部位情報を記憶するメモリと、
前記特徴部位検出部で検出した特徴部位に基づいて撮影制御を行う撮影制御部とを備え、
前記撮影制御部は、記録画像を撮影するとき前記特徴部位検出部により特徴部位が検出できなかったとき、前記メモリに記憶された特徴部位情報に基づいて撮影制御を行うことを特徴とするデジタルカメラ。
A feature part detector for detecting a feature part of the subject;
A memory for storing feature part information detected by the feature part detection unit;
An imaging control unit that performs imaging control based on the feature part detected by the feature part detection unit;
The imaging control unit performs imaging control based on feature part information stored in the memory when the feature part cannot be detected by the feature part detection unit when taking a recorded image. .
請求項1に記載のデジタルカメラにおいて、
前記撮影制御部は、前記特徴部位をオートフォーカスエリアとしてオートフォーカス制御を実行することを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The digital camera according to claim 1, wherein the imaging control unit executes autofocus control using the feature portion as an autofocus area.
被写体の特徴部位を検出する特徴部位検出部と、
前記特徴部位検出部で検出した特徴部位に基づいて撮影制御を行う撮影制御部とを備え、
前記撮影制御部は、記録画像を撮影するとき前記特徴部位検出部により特徴部位が検出できなかったとき、被写界内の予め決められた所定部位に基づいて撮影制御を行うことを特徴とするデジタルカメラ。
A feature part detector for detecting a feature part of the subject;
An imaging control unit that performs imaging control based on the feature part detected by the feature part detection unit;
The imaging control unit performs imaging control based on a predetermined predetermined part in the object scene when the characteristic part cannot be detected by the characteristic part detection unit when a recorded image is captured. Digital camera.
請求項3に記載のデジタルカメラにおいて、
前記撮影制御部は、前記特徴部位をオートフォーカスエリアとしてオートフォーカスを実行することを特徴とするデジタルカメラ。
The digital camera according to claim 3, wherein
The digital camera according to claim 1, wherein the imaging control unit executes autofocus using the feature portion as an autofocus area.
請求項3に記載のデジタルカメラにおいて、
前記撮影制御部は、前記特徴部位検出部により特徴部位が検出できなかったとき、被写界内の中央部位をオートフォーカスエリアとしてオートフォーカス制御を実行することを特徴とするデジタルカメラ。
The digital camera according to claim 3, wherein
The digital camera according to claim 1, wherein the imaging control unit executes autofocus control using the central part in the object scene as an autofocus area when the feature part cannot be detected by the feature part detection unit.
JP2004209674A 2004-07-16 2004-07-16 Digital camera Expired - Lifetime JP4403903B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004209674A JP4403903B2 (en) 2004-07-16 2004-07-16 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004209674A JP4403903B2 (en) 2004-07-16 2004-07-16 Digital camera

Publications (2)

Publication Number Publication Date
JP2006033440A true JP2006033440A (en) 2006-02-02
JP4403903B2 JP4403903B2 (en) 2010-01-27

Family

ID=35899252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004209674A Expired - Lifetime JP4403903B2 (en) 2004-07-16 2004-07-16 Digital camera

Country Status (1)

Country Link
JP (1) JP4403903B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007081991A (en) * 2005-09-15 2007-03-29 Canon Inc Imaging device and control method thereof
JP2007221312A (en) * 2006-02-15 2007-08-30 Pentax Corp Imaging apparatus
JP2007316417A (en) * 2006-05-26 2007-12-06 Matsushita Electric Ind Co Ltd High frequency information detection processing device and imaging apparatus
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging device and method for controlling the same
JP2008079157A (en) * 2006-09-22 2008-04-03 Fujifilm Corp Digital camera and control method thereof
JP2008160427A (en) * 2006-12-22 2008-07-10 Canon Inc Display control device, imaging apparatus, and control method
JP2008262001A (en) * 2007-04-11 2008-10-30 Fujifilm Corp Imaging apparatus, and principal object detecting method and focusing control method thereof
JP2008288868A (en) * 2007-05-17 2008-11-27 Casio Comput Co Ltd Imaging device and program
JP2009003003A (en) * 2007-06-19 2009-01-08 Hoya Corp Camera provided with automatic focusing device
JP2009055539A (en) * 2007-08-29 2009-03-12 Sony Corp Imaging device and method
EP2037320A1 (en) 2007-09-14 2009-03-18 Sony Corporation Imaging apparatus, imaging apparatus control method, and computer program
JP2009251314A (en) * 2008-04-07 2009-10-29 Canon Inc Imaging apparatus and control method therefor
JP2010028354A (en) * 2008-07-17 2010-02-04 Canon Inc Imaging apparatus, imaging method, program, and recording medium
JP2010041399A (en) * 2008-08-05 2010-02-18 Canon Inc Imaging device and its control method
JP2010054587A (en) * 2008-08-26 2010-03-11 Nikon Corp Focal point detector and camera
JP2010141376A (en) * 2008-12-09 2010-06-24 Canon Inc Imaging apparatus and zoom control method
JP2010252352A (en) * 2010-05-24 2010-11-04 Seiko Epson Corp Image processing device, digital camera, image data structure, printer with automatic color correction function, method of producing face object information-attached photographed image, and color correction method
US7978262B2 (en) 2006-10-13 2011-07-12 Fujifilm Corporation Digital camera and flash emission control method

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007081991A (en) * 2005-09-15 2007-03-29 Canon Inc Imaging device and control method thereof
JP4678843B2 (en) * 2005-09-15 2011-04-27 キヤノン株式会社 Imaging apparatus and control method thereof
US7881600B2 (en) 2006-02-15 2011-02-01 Hoya Corporation Photographing device
JP2007221312A (en) * 2006-02-15 2007-08-30 Pentax Corp Imaging apparatus
JP2007316417A (en) * 2006-05-26 2007-12-06 Matsushita Electric Ind Co Ltd High frequency information detection processing device and imaging apparatus
JP2008035415A (en) * 2006-07-31 2008-02-14 Canon Inc Imaging device and method for controlling the same
JP4656657B2 (en) * 2006-07-31 2011-03-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP2008079157A (en) * 2006-09-22 2008-04-03 Fujifilm Corp Digital camera and control method thereof
US8035730B2 (en) 2006-10-13 2011-10-11 Fujifilm Corporation Digital camera and flash emission control method based on face detection
US7978262B2 (en) 2006-10-13 2011-07-12 Fujifilm Corporation Digital camera and flash emission control method
JP2008160427A (en) * 2006-12-22 2008-07-10 Canon Inc Display control device, imaging apparatus, and control method
JP2008262001A (en) * 2007-04-11 2008-10-30 Fujifilm Corp Imaging apparatus, and principal object detecting method and focusing control method thereof
JP4732397B2 (en) * 2007-04-11 2011-07-27 富士フイルム株式会社 Imaging apparatus and focus control method thereof
US8363122B2 (en) 2007-05-17 2013-01-29 Casio Computer Co., Ltd. Image taking apparatus execute shooting control depending on face location
JP2008288868A (en) * 2007-05-17 2008-11-27 Casio Comput Co Ltd Imaging device and program
US8169530B2 (en) 2007-06-19 2012-05-01 Pentax Ricoh Imaging Company Camera having an autofocusing system
JP2009003003A (en) * 2007-06-19 2009-01-08 Hoya Corp Camera provided with automatic focusing device
JP2009055539A (en) * 2007-08-29 2009-03-12 Sony Corp Imaging device and method
EP2037320A1 (en) 2007-09-14 2009-03-18 Sony Corporation Imaging apparatus, imaging apparatus control method, and computer program
US8068164B2 (en) 2007-09-14 2011-11-29 Sony Corporation Face recognition auto focus apparatus for a moving image
JP2009251314A (en) * 2008-04-07 2009-10-29 Canon Inc Imaging apparatus and control method therefor
JP2010028354A (en) * 2008-07-17 2010-02-04 Canon Inc Imaging apparatus, imaging method, program, and recording medium
JP2010041399A (en) * 2008-08-05 2010-02-18 Canon Inc Imaging device and its control method
JP2010054587A (en) * 2008-08-26 2010-03-11 Nikon Corp Focal point detector and camera
JP2010141376A (en) * 2008-12-09 2010-06-24 Canon Inc Imaging apparatus and zoom control method
JP2010252352A (en) * 2010-05-24 2010-11-04 Seiko Epson Corp Image processing device, digital camera, image data structure, printer with automatic color correction function, method of producing face object information-attached photographed image, and color correction method

Also Published As

Publication number Publication date
JP4403903B2 (en) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4581730B2 (en) Digital camera
JP3541820B2 (en) Imaging device and imaging method
JP4403903B2 (en) Digital camera
JP4582212B2 (en) Imaging apparatus and program
JP4761146B2 (en) Imaging apparatus and program thereof
KR101120027B1 (en) Apparatus and method for processing on screen display when shutter is pressed half state in digital camera
JP5173453B2 (en) Imaging device and display control method of imaging device
US20060192879A1 (en) Image-taking apparatus
JPWO2009013850A1 (en) Imaging device
JP6071436B2 (en) Imaging apparatus, imaging method, and program
JP2009239733A (en) Imaging apparatus, imaging method, and program
JP2007108412A (en) Autofocus device and its program
JP4907740B2 (en) Imaging device
JP2007086596A (en) Camera
JP5196768B2 (en) Imaging device
JP4442344B2 (en) Digital camera
JP2010113129A (en) Image tracking device, focusing device, and image capturing apparatus
JP4475044B2 (en) Digital camera
JP2010028158A (en) Imaging apparatus
JP2005223658A (en) Digital camera
JP6661912B2 (en) Image generation apparatus, image generation method, and image generation program
JP2007195099A (en) Photographing apparatus
JP2006033439A (en) Digital camera
JP2003295042A (en) Camera
JP2003270521A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070713

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080620

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20081125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091013

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091026

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4403903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151113

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151113

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term