JP2014068280A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2014068280A JP2014068280A JP2012213310A JP2012213310A JP2014068280A JP 2014068280 A JP2014068280 A JP 2014068280A JP 2012213310 A JP2012213310 A JP 2012213310A JP 2012213310 A JP2012213310 A JP 2012213310A JP 2014068280 A JP2014068280 A JP 2014068280A
- Authority
- JP
- Japan
- Prior art keywords
- face
- eye
- angle
- detection
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像素子を備えた撮像装置及びその制御方法に関する。 The present invention relates to an imaging apparatus including an imaging element and a control method thereof.
人物を被写体として撮影した画像では、被写体の目線が撮像装置に向いたカメラ目線の状態で撮影された画像がより好まれる。しかし、じっとしてくれない子供の撮影など、カメラ目線の撮影は困難な場合が多い。 In an image obtained by photographing a person as a subject, an image photographed in a state where the subject's line of sight faces the imaging device is more preferred. However, it is often difficult to take a picture of the camera, such as taking a picture of a child who does not stay still.
特許文献1では、複数の撮像画像からカメラ目線の状態で被写体が撮影された画像を抽出して記録する技術が開示されている。 Patent Document 1 discloses a technique for extracting and recording an image of a subject taken from a plurality of captured images while looking at the camera.
前記特許文献1では、被写体の顔が斜め横を向いた状態においても、顔画像の目の黒目位置からカメラ目線画像であるかの判定を行う方法が開示されている。なお前記特許文献1では、被写体の目について、左右の2つの目を区別することなしに目線の判定を行っている。 Patent Document 1 discloses a method for determining whether a face image of a subject is a camera eye image even when the face of the subject faces obliquely sideways. In Patent Document 1, the eye line is determined without distinguishing the left and right eyes of the subject's eyes.
図1に示すように、被写体の顔が撮像装置に対して正対する正面の状態から横向きに顔角度θが大きくなるにつれて、被写体の目を抽出した画像は横方向につぶれた状態となる。また、横向きになるにつれて撮像装置から遠くなる側の目は、近い側の目と比較してより小さな角度でも横方向につぶれてしまう。このため、横方向の黒目位置の判定精度が低下し、誤検出が発生しやすい問題がある。さらに、鼻が高く彫りの深い被写体では、前記遠くなる側の目が隠れやすく、目線判定ができなくなることも懸念される。 As shown in FIG. 1, as the face angle θ increases in the horizontal direction from the front where the subject's face is directly facing the imaging device, the image extracted from the subject's eyes is in a state in which it is collapsed in the horizontal direction. Further, the eyes on the side farther from the imaging device as it is turned sideways collapse in the sideways direction even at a smaller angle than the eyes on the near side. For this reason, there is a problem in that the determination accuracy of the black eye position in the horizontal direction is lowered and erroneous detection is likely to occur. Furthermore, in a subject with a high nose and deep carving, there is a concern that the eyes on the far side are easily hidden, and the line of sight cannot be determined.
そこで本発明の目的は、被写体が撮像装置に対して横向きに近い状態においても、より信頼度の高い目線検出および目線判定を行って撮影制御を行うことで、目線検出の精度不足による撮像装置の誤作動を減らし、実用性の高い撮影制御を行うことが可能な撮像装置を提供することである。 Therefore, an object of the present invention is to perform imaging control by performing eye-gaze detection and eye-gaze determination with higher reliability even in a state where the subject is in a sideways direction with respect to the image-gearing apparatus. An object of the present invention is to provide an imaging apparatus capable of reducing malfunctions and performing highly practical shooting control.
前述の課題を解決するために本発明の撮像装置は、被写体の顔を検出する顔検出手段、前記顔検出手段で検出された顔の撮像装置に対する角度検出を行う顔角度検出手段、前記顔検出手段で検出された顔のそれぞれの目について目線方向を検出する目線検出手段、を有する撮像装置であって、前記顔角度検出手段により検出された顔の撮像装置に対する角度が所定角度θ1より大きい場合には前記目線検出手段による目線検出を行わず、また前記顔角度検出手段により検出された顔の撮像装置に対する角度が所定角度θ2より大きい場合には前記目線検出手段における目線検出条件を変更して目線検出を行うことを特徴とする。 In order to solve the above-described problems, an imaging apparatus according to the present invention includes a face detection unit that detects a face of a subject, a face angle detection unit that detects an angle of the face detected by the face detection unit, and the face detection. An eye-gaze detecting unit that detects a gaze direction for each eye of the face detected by the means, wherein the angle of the face detected by the face angle detecting unit is greater than a predetermined angle θ1 If the angle of the face detected by the face angle detection means is larger than a predetermined angle θ2, the eye detection condition in the eye detection means is changed. Eye line detection is performed.
本発明の撮像装置によれば、
被写体の目線検出結果により撮影制御を行う撮像装置において、より信頼度の高い目線検出および目線判定による撮影制御を行うことで、目線検出の精度不足による撮影装置の誤作動を減らし、実用性が高く高度な撮影制御を行うことが可能となる。
According to the imaging device of the present invention,
In an imaging device that performs shooting control based on the detection result of the subject's line of sight, it is highly practical by reducing the malfunction of the imaging device due to insufficient accuracy of eye-gaze detection by performing shooting control with more reliable eye-gaze detection and eye-gaze determination. It is possible to perform advanced shooting control.
以下、本発明を図面に基づいて詳しく説明する。 Hereinafter, the present invention will be described in detail with reference to the drawings.
図2は本発明の実施形態を適用した撮像装置の概略構成を示す図である。 FIG. 2 is a diagram showing a schematic configuration of an imaging apparatus to which the embodiment of the present invention is applied.
光学系201は、入射した光を固体撮像素子上に結像させることで被写体を撮像する。光学系制御部202は、光学系201の露出やズーム、フォーカス、光学式ブレ補正等を制御する。固体撮像素子203は、結像させた光学像を電気信号に変換する。撮像系制御部204は、固体撮像素子を駆動するための制御系である。アナログ信号処理部205は、固体撮像素子の出力にクランプ、ゲインをかける等の処理を行う。アナログ/デジタル(A/D)変換部206は、アナログ信号にデジタル変換を行い画像データとして出力する。 The optical system 201 images a subject by forming incident light on a solid-state image sensor. The optical system control unit 202 controls exposure, zoom, focus, optical blur correction, and the like of the optical system 201. The solid-state image sensor 203 converts the optical image formed into an electric signal. The imaging system control unit 204 is a control system for driving the solid-state imaging device. The analog signal processing unit 205 performs processing such as clamping and gaining on the output of the solid-state imaging device. An analog / digital (A / D) conversion unit 206 performs digital conversion on an analog signal and outputs it as image data.
デジタル信号処理部207は、A/D変換したデジタル信号から出力画像を生成し、現像処理を行う。内部記憶部208は、デジタル信号処理部にて出力画像を生成する際の画像データや、ライブ画像表示するEVF動作用の画像データなどを一時的に格納する。また、後述する顔検出部212や目線検出部214による各種演算データの一時記憶用途でも使用される。インターフェース(I/F)部209は、生成した画像データを最終的に保存するための外部記憶装置とつながっている。画像表示部210は、生成された画像をライブ画像として表示する電子ファインダとしての機能(EVF動作)を有する。 The digital signal processing unit 207 generates an output image from the A / D converted digital signal and performs development processing. The internal storage unit 208 temporarily stores image data when an output image is generated by the digital signal processing unit, image data for EVF operation for displaying a live image, and the like. Further, it is also used for temporarily storing various calculation data by the face detection unit 212 and the eye-line detection unit 214 described later. An interface (I / F) unit 209 is connected to an external storage device for finally storing the generated image data. The image display unit 210 has a function (EVF operation) as an electronic viewfinder that displays a generated image as a live image.
顔検出部212は、撮影画像から人物の顔を検出し、さらに検出された顔画像について目の位置を検出する。顔検出の方法については、公知の方法を用いればよい。ここでは、顔の特徴点のテンプレートマッチングにより顔検出を行い、顔の位置と大きさおよび顔の特徴点である目、鼻、口の位置情報が得られるものとする。また、前記顔の特徴点のテンプレートは横顔を含み、横顔の顔検出も可能とする。 The face detection unit 212 detects a person's face from the captured image, and further detects the position of the eye in the detected face image. A known method may be used for the face detection method. Here, it is assumed that face detection is performed by template matching of face feature points, and position information of the face, face size, and eye, nose, and mouth are obtained. Further, the template of the feature points of the face includes a side face, and it is possible to detect a face of the side face.
顔角度検出部213は、前記顔検出部212で検出された各顔について撮像装置に対する角度検出を行う。図1に示すように、顔角度は撮像装置に正対する方向を基準とする。顔角度検出の方法としては、前記顔の特徴点のテンプレートについて顔角度が異なる複数のテンプレートを用意し、最も類似度の高いテンプレートを検索して、対応する顔角度情報を参照することで実現される。 The face angle detection unit 213 performs angle detection with respect to the imaging apparatus for each face detected by the face detection unit 212. As shown in FIG. 1, the face angle is based on the direction facing the imaging apparatus. The face angle detection method is realized by preparing a plurality of templates having different face angles for the face feature point templates, searching for the template with the highest similarity, and referring to the corresponding face angle information. The
目線検出部214は、前記顔検出部212で検出された目部分の画像から、後述する方法で目線検出を行う。 The eye line detection unit 214 detects the eye line from the image of the eye part detected by the face detection unit 212 by a method described later.
システム制御部211は、前記顔検出結果や前記目線検出結果から所望の撮影を行うために、前記撮像系制御部204を制御するなど、システム全体の制御を行う。 The system control unit 211 controls the entire system such as controlling the imaging system control unit 204 in order to perform desired photographing from the face detection result and the eye detection result.
図3は本発明の実施形態を適用した撮像装置の撮影動作フロー図である。また、図4は顔角度θに対する目線検出結果への重み付け係数の設定を示す図である。 FIG. 3 is a shooting operation flowchart of the imaging apparatus to which the embodiment of the present invention is applied. FIG. 4 is a diagram showing the setting of the weighting coefficient for the eye-gaze detection result with respect to the face angle θ.
ステップS301では、デジタル信号処理部207により生成される画像信号から、顔検出部212において顔の検出、および検出された顔の目の位置を検出する。 In step S <b> 301, the face detection unit 212 detects the face and detects the position of the detected face eye from the image signal generated by the digital signal processing unit 207.
ステップS302では、ステップS301で検出された顔の位置や大きさ情報から、主被写体の候補となる顔の絞込みを行う。具体的には、所定以上の大きさで画面中心に近い顔から優先的に順序付けて選択する。なお、ここでは必ずしも1つの顔に絞り込む必要はない。 In step S302, the face that is a candidate for the main subject is narrowed down based on the position and size information of the face detected in step S301. Specifically, the face is selected in a preferential order from a face that is larger than a predetermined size and close to the center of the screen. Here, it is not always necessary to narrow down to one face.
ステップS303では、ステップS302で絞り込まれた前記主被写体候補の対象顔があれば、ステップS304へ進み、そうでなければステップS311へ進む。 In step S303, if there is a target face of the main subject candidate narrowed down in step S302, the process proceeds to step S304, and if not, the process proceeds to step S311.
ステップS304では、ステップS302で絞り込まれた前記主被写体候補の対象顔について、顔角度検出部213において顔角度の検出を行う。 In step S304, the face angle detection unit 213 detects the face angle of the target face of the main subject candidate narrowed down in step S302.
ステップS305では、ステップS304で検出された顔角度が所定値θ1以下(または−θ1以上)である前記主被写体候補の対象顔があるかを調べ、所定値θ1以下(または−θ1以上)の前記主被写体候補の対象顔があればステップS306へ進み、そうでなければステップS313へ進む。 In step S305, it is checked whether there is a target face of the main subject candidate whose face angle detected in step S304 is a predetermined value θ1 or less (or −θ1 or more), and the face angle detected in step S304 is a predetermined value θ1 or less (or −θ1 or more). If there is a target face that is a candidate for the main subject, the process proceeds to step S306; otherwise, the process proceeds to step S313.
ステップS306では、ステップS304で検出された顔角度が所定値θ1以下(または−θ1以上)である前記主被写体候補の対象顔ごとに、それぞれの検出顔角度に応じた目線検出条件の設定を行い、ステップS307において目線検出処理を行う。目線検出は、ステップS301で検出した目の領域においてテンプレートマッチングにより行い、テンプレートとの類似度合いから、目線検出結果に対する信頼度情報を同時に得る。 In step S306, for each target face of the main subject candidate whose face angle detected in step S304 is a predetermined value θ1 or less (or −θ1 or more), eye-gaze detection conditions corresponding to the detected face angles are set. In step S307, eye line detection processing is performed. The eye line detection is performed by template matching in the eye area detected in step S301, and reliability information for the eye line detection result is simultaneously obtained from the degree of similarity with the template.
ここで図1は、撮像装置に対し顔が正面向きと顔がやや横向きの時で、なおかつ撮像装置に目線が向いている場合を図示している、図1(c)(d)は目領域を拡大したものである。図1(d)に示すように被写体の顔が撮像装置に対してやや横向きの場合には、撮像装置から遠い側の目は近い側の目よりも横方向の幅が小さくなり(Wnear>Wfar)、白目の幅もより小さくなっている。このため、ステップS307の目線検出で用いる目のテンプレートは、撮像装置に目線が向いた各顔角度における右目用と左目用のテンプレートを用意する。 Here, FIG. 1 illustrates a case where the face is front-facing and the face is slightly sideways with respect to the imaging apparatus, and the line of sight is facing the imaging apparatus. FIGS. 1C and 1D are eye regions. Is an enlarged version. As shown in FIG. 1D, when the subject's face is slightly sideways with respect to the imaging device, the width of the eye far from the imaging device is smaller than the width of the near eye (Wnear> Wfar). ) The width of the white eye is also smaller. For this reason, templates for the right eye and the left eye at each face angle with the line of sight facing the imaging device are prepared as eye templates used in the line of sight detection in step S307.
また、前述したように同じ顔角度であっても撮像装置から遠い側の目では目の幅が小さくなるため、テンプレートマッチングによる検出では撮像装置から遠い側の目における目線検出の検出精度が低下する懸念が生じる。そこでステップS306において、ステップS304で検出された顔角度が所定値θ2以下である場合とそうでない場合で、ステップS307における目線検出条件を変更する(θ1>θ2)。例えば、黒目白目の境界をはっきりさせるために検出用に切り出した目の画像のコントラスト調整などを行う。また、後述するステップS308では検出結果に重み付けを行うことで検出精度対策を行う。 Further, as described above, the eye width is smaller in the eyes farther from the imaging device even when the face angle is the same, so that the detection accuracy of eye-gaze detection in the eyes farther from the imaging device is reduced in detection by template matching. Concerns arise. Accordingly, in step S306, the eye-gaze detection condition in step S307 is changed depending on whether the face angle detected in step S304 is equal to or smaller than the predetermined value θ2 (θ1> θ2). For example, the contrast of the eye image cut out for detection is adjusted in order to clarify the boundary between black eyes and white eyes. In step S308, which will be described later, a detection accuracy measure is taken by weighting the detection result.
ステップS308では図4に示すように、ステップS304で検出された顔角度に応じてステップS307の目線検出結果に対して重み付けを行う。具体的には、左右両方のそれぞれの目についてステップS307の目線検出で得られる信頼度情報に前記重み付けを乗算したのちに足し合わせることで、前記主被写体候補の対象顔ごとの目線検出評価値を算出する。 In step S308, as shown in FIG. 4, the eye-gaze detection result in step S307 is weighted according to the face angle detected in step S304. Specifically, for each of the left and right eyes, the reliability information obtained in the eye detection in step S307 is multiplied by the weighting and then added to obtain the eye detection evaluation value for each target face of the main subject candidate. calculate.
これは前述の目線検出精度低下を回避するために設定され、ほぼ正面向きの顔角度の範囲(−θ3<θ<θ3)においては、左右の目線検出結果に対する重み付けは等しく設定されるが、顔角度が横向きになるに従い撮像装置に近い側の検出結果をより重視する設定を行う。なお、前述したようにθ1よりも大きい角度では目線検出を実施しない。 This is set to avoid the above-described decrease in eye-gaze detection accuracy, and in the face angle range (−θ3 <θ <θ3) that is substantially in the front direction, the weights for the left and right eye-gaze detection results are set to be equal. As the angle becomes horizontal, setting is made so that the detection result closer to the imaging device is more important. As described above, eye-gaze detection is not performed at an angle larger than θ1.
ステップS309では、ステップS308で算出された目線検出評価値が所定値Ths以上である前記主被写体候補の対象顔があるか調べ、所定値Ths以上の前記主被写体候補の対象顔があればステップS310へ進み、そうでなければステップS313へ進む。 In step S309, it is checked whether there is a target face of the main subject candidate whose eye-eye detection evaluation value calculated in step S308 is equal to or greater than a predetermined value Ths. If there is a target face of the main subject candidate that is equal to or greater than the predetermined value Ths, step S310 is performed. Otherwise, go to step S313.
ステップS310では、前記主被写体候補の対象顔について、ステップS301で検出された顔の位置や大きさ情報にステップS308で算出された目線検出評価値情報を加えて、主被写体顔の順位付けの見直しを行う。 In step S310, for the target face of the main subject candidate, review the ranking of the main subject face by adding the eye-gaze detection evaluation value information calculated in step S308 to the position and size information of the face detected in step S301. I do.
ステップS311では、主被写体の候補の対象となる顔がないため、画面中心でAFし中央重点露出制御などの通常の撮像動作を行う。 In step S311, since there is no face that is a candidate for the main subject, AF is performed at the center of the screen, and normal imaging operations such as center-weighted exposure control are performed.
ステップS312では、ステップS302で順序付けられた主被写体候補の顔情報を元に、例えば主被写体顔にフォーカスと露出をあわせるなど、顔検出時の撮像動作を行う。 In step S312, based on the face information of the main subject candidates ordered in step S302, for example, an imaging operation at the time of face detection is performed such as adjusting the focus and exposure of the main subject face.
ステップS313では、ステップS310で見直された主被写体顔情報を元に、目線検出時の所定の撮像動作を行う。例えば、目線がある目にピントを合わせ、被写界深度がごく浅くなるよう絞りを開放寄りに設定し、目線がより印象的となるような撮影を行う。 In step S313, based on the main subject face information reviewed in step S310, a predetermined imaging operation at the time of eye line detection is performed. For example, the eye is focused on a certain eye, the aperture is set close to the open position so that the depth of field is very shallow, and shooting is performed so that the eye is more impressive.
以上説明したように本発明を適用した撮像装置によれば、やや横向きの被写体顔においても信頼度の高い目線検出結果を元に撮像動作を切り換えるため、目線検出の誤検出により失敗が少ない撮像制御が可能となる。 As described above, according to the imaging apparatus to which the present invention is applied, the imaging operation is switched based on the reliable eye-gaze detection result even in a slightly horizontal subject face. Is possible.
201‥‥光学系
202‥‥光学系制御部
203‥‥撮像素子
204‥‥撮像系制御部
205‥‥アナログ信号処理部
206‥‥A/D変換部
207‥‥デジタル信号処理部
208‥‥内部記憶部
209‥‥I/F
210‥‥画像表示部
211‥‥システム制御部
212‥‥顔検出部
213‥‥顔角度検出部
214‥‥目線検出部
201 Optical system 202 Optical system control unit 203 Imaging device 204 Imaging system control unit 205 Analog signal processing unit 206 A / D conversion unit 207 Digital signal processing unit 208 Internal Storage unit 209 I / F
210... Image display unit 211... System control unit 212 .. Face detection unit 213 .. Face angle detection unit 214.
Claims (3)
前記顔角度検出手段により検出された顔の撮像装置に対する角度が所定角度θ1より大きい場合には前記目線検出手段による目線検出を行わず、
また前記顔角度検出手段により検出された顔の撮像装置に対する角度が所定角度θ2より大きい場合には前記目線検出手段における目線検出条件を変更して目線検出を行う
ことを特徴とする撮像装置。 Face detecting means for detecting the face of the subject, face angle detecting means for detecting an angle of the face detected by the face detecting means with respect to the imaging device, and detecting the eye direction for each eye of the face detected by the face detecting means An eye-gaze detecting means,
When the angle of the face detected by the face angle detection means with respect to the imaging device is larger than a predetermined angle θ1, the eye detection by the eye detection means is not performed,
In addition, when the angle of the face detected by the face angle detection unit with respect to the imaging device is larger than a predetermined angle θ2, the eye detection is performed by changing the eye detection condition in the eye detection unit.
ことを特徴とする請求項1又は請求項2に記載の撮像装置。
When the face angle detection result is smaller than the predetermined angle ± θ3, the eye detection result in the eye located closer to the imaging device is set to be more weighted than the eye detection result detected by the eye detection means. The imaging apparatus according to claim 1, wherein a weight of the eye detection result in an eye located on a side farther from the imaging apparatus is set to be small.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012213310A JP2014068280A (en) | 2012-09-27 | 2012-09-27 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012213310A JP2014068280A (en) | 2012-09-27 | 2012-09-27 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014068280A true JP2014068280A (en) | 2014-04-17 |
Family
ID=50744253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012213310A Pending JP2014068280A (en) | 2012-09-27 | 2012-09-27 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014068280A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019121860A (en) * | 2017-12-28 | 2019-07-22 | キヤノン株式会社 | Image processing apparatus and control method therefor |
KR20220047656A (en) * | 2019-09-06 | 2022-04-18 | 캐논 가부시끼가이샤 | Electronic device, electronic device control method, and computer-readable storage medium |
-
2012
- 2012-09-27 JP JP2012213310A patent/JP2014068280A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019121860A (en) * | 2017-12-28 | 2019-07-22 | キヤノン株式会社 | Image processing apparatus and control method therefor |
JP7154758B2 (en) | 2017-12-28 | 2022-10-18 | キヤノン株式会社 | Image processing device and its control method |
KR20220047656A (en) * | 2019-09-06 | 2022-04-18 | 캐논 가부시끼가이샤 | Electronic device, electronic device control method, and computer-readable storage medium |
KR102714379B1 (en) | 2019-09-06 | 2024-10-11 | 캐논 가부시끼가이샤 | Electronic device, method for controlling electronic device, and computer-readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5159515B2 (en) | Image processing apparatus and control method thereof | |
US20120275648A1 (en) | Imaging device and imaging method and program | |
US10015374B2 (en) | Image capturing apparatus and photo composition method thereof | |
US10158798B2 (en) | Imaging apparatus and method of controlling the same | |
KR20170106325A (en) | Method and apparatus for multiple technology depth map acquisition and fusion | |
KR20080027443A (en) | Imaging apparatus, control method of imaging apparatus, and computer program | |
KR101686943B1 (en) | Digital photographing apparatus and control method thereof | |
US8558935B2 (en) | Scene information displaying method and apparatus and digital photographing apparatus using the scene information displaying method and apparatus | |
JP2008052123A (en) | Imaging apparatus | |
KR101788740B1 (en) | Subject detecting method and apparatus, and digital photographing apparatus | |
JP2010068128A (en) | Image capturing apparatus, existence or nonexistence decision method of image area, and program | |
US20130027606A1 (en) | Lens position | |
JP2006211139A (en) | Imaging apparatus | |
JP4506779B2 (en) | Imaging apparatus and program | |
JP2019121860A (en) | Image processing apparatus and control method therefor | |
CN107547789B (en) | Image acquisition device and method for photographing composition thereof | |
JP2014068280A (en) | Imaging apparatus | |
WO2012147368A1 (en) | Image capturing apparatus | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
EP2690859B1 (en) | Digital photographing apparatus and method of controlling same | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP2013205675A (en) | Imaging apparatus | |
JP2007133301A (en) | Autofocus camera | |
JP2013134570A (en) | Imaging device, and controlling method and controlling program thereof | |
JP2013074428A (en) | Self-photographing determination device, imaging apparatus, program, and self-photographing determination method |