JP2012015889A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2012015889A
JP2012015889A JP2010151951A JP2010151951A JP2012015889A JP 2012015889 A JP2012015889 A JP 2012015889A JP 2010151951 A JP2010151951 A JP 2010151951A JP 2010151951 A JP2010151951 A JP 2010151951A JP 2012015889 A JP2012015889 A JP 2012015889A
Authority
JP
Japan
Prior art keywords
subject
frame
image
touch
allowable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010151951A
Other languages
English (en)
Inventor
Yoko Fukada
陽子 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010151951A priority Critical patent/JP2012015889A/ja
Priority to US13/109,281 priority patent/US8643740B2/en
Priority to EP11167246.5A priority patent/EP2402884A3/en
Priority to CN201110171591.5A priority patent/CN102316263B/zh
Publication of JP2012015889A publication Critical patent/JP2012015889A/ja
Priority to US14/043,964 priority patent/US8947553B2/en
Priority to US14/556,685 priority patent/US9311712B2/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Analysis (AREA)

Abstract

【課題】追尾の対称となる被写体を的確に認識する。
【解決手段】被写体枠設定処理部24は、画像に写されている被写体を検出する被写体検出器を動作させることにより画像から検出された被写体の所定範囲を囲う被写体枠を設定する。そして、追尾被写体認識部25は、画像の状況に応じて、または、撮像モードに応じて、被写体枠よりも広い範囲のタッチ許容枠を設定し、ユーザによりタッチされた画像上の指定位置がタッチ検出部23により検出されると、タッチ許容枠と指定位置とに基づいて、追尾の対象となる被写体を認識する。本発明は、例えば、デジタルカメラに適用できる。
【選択図】図1

Description

本発明は、画像処理装置および画像処理方法に関し、特に、追尾の対称となる被写体を的確に認識することができるようにした画像処理装置および画像処理方法に関する。
従来、デジタルスチルカメラやデジタルビデオカメラなど(以下、適宜、デジタルカメラと称する)には、ユーザが選択した特定の人物の顔や、顔以外の物体などの被写体を追尾する機能が搭載されている。そして、追尾している被写体の位置の状態に応じてデジタルカメラの各種パラメータ(例えば、フォーカスや明るさなど)が最適となるように維持し続けることができる。
ユーザが、デジタルカメラで撮像されている被写体を選択する方法としては、タッチパネルに表示されている被写体をタッチすることにより選択する方法や、予め被写体を画角に合わせるためのガイド枠を利用して選択する方法などがある。
例えば、特許文献1には、ユーザが、顔以外の被写体を追尾させたいときに、その被写体を検出することができる専用のモードとなるように操作して、物体追尾機能を有効にする撮像装置が開示されている。
特開2006−101186号公報
ところで、従来のデジタルカメラでは、ユーザが、追尾の対称となる被写体を正確に指定することができなければ、ユーザの意図した被写体を的確に認識することが困難であった。
本発明は、このような状況に鑑みてなされたものであり、追尾の対称となる被写体を的確に認識することができるようにするものである。
本発明の第1の側面の画像処理装置は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、ユーザにより指定された画像上の指定位置を検出する位置検出手段と、前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段とを備える。
本発明の第1の側面の画像処理方法は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定し、ユーザにより指定された画像上の指定位置を検出し、前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識するステップを含む。
本発明の第1の側面においては、画像に写されている被写体を検出する被写体検出器を動作させることにより画像から検出された被写体の所定範囲を囲う被写体枠が設定され、画像の状況に応じて、被写体枠よりも広い範囲の許容枠が設定される。そして、ユーザにより指定された画像上の指定位置が検出され、許容枠と指定位置とに基づいて、追尾の対象となる被写体が認識される。
本発明の第2の側面の画像処理装置は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、ユーザにより指定された画像上の指定位置を検出する位置検出手段と、前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段とを備える。
本発明の第2の側面の画像処理方法は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定し、ユーザにより指定された画像上の指定位置を検出し、前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識するステップを含む。
本発明の第2の側面においては、画像に写されている被写体を検出する被写体検出器を動作させることにより画像から検出された被写体の所定範囲を囲う被写体枠が設定され、所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、被写体枠よりも広い範囲の許容枠が設定される。そして、ユーザにより指定された画像上の指定位置が検出され、許容枠と指定位置とに基づいて、追尾の対象となる被写体が認識される。
本発明の第1および第2の側面によれば、追尾の対称となる被写体を的確に認識することができる。
本発明を適用したデジタルカメラの一実施の形態の構成例を示すブロック図である。 撮像モードが人物モードであるときの画面例を示す図である。 撮像モードがペットモードであるときの画面例を示す図である。 撮像モードがペットモードであるときの他の画面例を示す図である。 撮像モードに応じたタッチ許容枠の設定例を示す図である。 被写体の大きさ応じたタッチ許容枠の設定例を示す図である。 被写体の動きに応じたタッチ許容枠の設定例を示す図である。 被写体の動きに応じたタッチ許容枠の設定例を示す図である。 追尾被写体認識部の構成例を示すブロック図である。 被写体の追尾を開始する処理を説明するフローチャートである。 タッチ許容枠設定処理を説明するフローチャートである。 撮像モードに応じて追尾被写体が認識される例を説明する図である。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
図1は、本発明を適用したデジタルカメラの一実施の形態の構成例を示すブロック図である。
図1において、デジタルカメラ11は、レンズ12、撮像部13、表示部14、外部I/F(Interface)15、および画像処理部16を備えて構成される。
レンズ12は、例えば、ズーム機能などを備えた複数枚のレンズ群により構成されており、被写体からの光を集光して、撮像部13が有する撮像素子の撮像面に、被写体の像を結像する。撮像部13は、例えば、CCD(Charge Coupled Device)や、CMOS(Complementary Metal Oxide Semiconductor)センサなどで構成され、被写体の像を撮像し、その撮像によって得られる画像を画像処理部16に出力する。
表示部14は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどで構成され、撮像部13で撮像され、画像処理部16において画像処理が施されて出力される画像、例えば、被写体が被写体枠で囲われた画像を表示する。外部I/F15は、画像処理部16から出力される画像を、例えば、図示しない外部ディスプレイの出力するための端子などで構成される。
画像処理部16は、撮像部13により撮像された画像に対して画像処理を施し、その画像を表示部14および外部I/F15に出力する。画像処理部16は、例えば、画像に写されている被写体(例えば、顔)を検出して、その被写体の所定範囲を囲う被写体枠を画像に合成する画像処理を行う。また、画像処理部16は、任意の被写体がユーザにより選択されると、その被写体を追尾する被写体追尾処理を行い、追尾の対称となった被写体(以下、適宜、追尾被写体と称する)を撮像するのに最適となるように各種のパラメータを調整する処理を行う。
画像処理部16は、画像メモリ21、モード設定部22、タッチ検出部23、被写体枠設定処理部24、追尾被写体認識部25、検出器切り替え部26、および被写体追尾処理部27を備えて構成される。
画像メモリ21には、撮像部13により撮像された画像のデータが順次供給され、画像メモリ21は、供給される画像のデータを順次記憶する。
モード設定部22は、ユーザにより指定された撮像モードで使用される各種のパラメータを設定する。デジタルカメラ11は、例えば、人物の撮像に適した撮像条件で撮像が行われる人物モードや、動物の撮像に適した撮像条件で撮像が行われるペットモードなどの各種の撮像モードを備えている。また、モード設定部22において設定される撮像モードは、被写体枠設定処理部24および追尾被写体認識部25が行う処理において参照される。
タッチ検出部23は、表示部14の画面に重畳するように実装されているタッチパネル(図示せず)からの信号に基づいて、ユーザが表示部14の画面をタッチすると、そのタッチされた位置(指定位置)を検出する。そして、タッチ検出部23は、タッチ位置を示す情報を追尾被写体認識部25に供給する。
被写体枠設定処理部24は、画像に写されている被写体を検出する複数の検出器を有しており、それらの検出器により検出された被写体の所定範囲を囲う大きさの被写体枠を設定する被写体枠設定処理を行う。例えば、図1に示すように、被写体枠設定処理部24は、顔検出器28−1および動物検出器28−2を有しており、顔検出器28−1により検出された人物の顔や、動物検出器28−2により検出された動物の顔などに対して被写体枠を設定する。また、被写体枠設定処理部24により設定された被写体枠は、画像に合成されて表示部14に表示される。
追尾被写体認識部25は、ユーザがタッチしたタッチ位置を示す情報がタッチ検出部23から供給されると、被写体枠設定処理部24により設定されている被写体枠に基づいて追尾被写体を認識する。例えば、追尾被写体認識部25は、ユーザがタッチしたタッチ位置が被写体枠の内側であれば、その被写体枠が設定されている被写体を追尾被写体として認識する。そして、追尾被写体認識部25は、追尾被写体を認識する事ができた場合、追尾被写体を特定する情報を検出器切り替え部26に供給する。
検出器切り替え部26は、追尾被写体認識部25から追尾被写体を特定する情報が供給されると、追尾被写体認識部25を介して、被写体枠設定処理部24が追尾被写体の検出に用いた検出器を認識する。そして、検出器切り替え部26は、追尾被写体を特定する情報を被写体追尾処理部27に供給するとともに、被写体追尾処理部27が被写体追尾処理で使用する検出器を、追尾被写体の検出に用いた検出器に切り替える処理を行う。
被写体追尾処理部27は、検出器切り替え部26により切り替えられた検出器を使用して、追尾被写体を特定する情報で特定される追尾被写体を追尾する被写体追尾処理を開始する。これにより、被写体追尾処理部27は、追尾被写体に適合した検出器で被写体追尾処理を実行することができる。
また、追尾被写体を特定する情報には、例えば、追尾被写体の位置を示す情報や追尾被写体の色および輝度を示す情報などが含まれている。被写体追尾処理部27は、画像メモリ21に次の画像のデータが記憶されると、その前の画像で特定された追尾被写体の位置近辺の所定領域における追尾被写体の色および輝度に近い領域を、次の画像から検出して追尾被写体を特定する。そして、被写体追尾処理部27は、その画像で特定された追尾被写体の位置、並びに、追尾被写体の色および輝度に基づいて、画像メモリ21に順次記憶される画像から追尾被写体を特定すること繰り返して行う。このように被写体追尾処理が行われ、被写体追尾処理部27は、追尾被写体を撮像するのに最適となるように各種のパラメータを調整する。
このように、デジタルカメラ11では、ユーザが表示部14の画面をタッチすることにより、追尾の対称となった被写体が認識され、その被写体を追尾する被写体追尾処理が行われる。
ここで、例えば、複数の被写体が写されている画像に対して複数の被写体枠が設定されている場合に、ユーザがタッチしたタッチ位置が、いずれの被写体枠の内側でない場合、追尾被写体認識部25は、追尾被写体を認識することができない。この場合、追尾被写体認識部25は、モード設定部22に設定されている撮像モードを参照して追尾被写体を認識することができる。
図2および図3を参照して、追尾被写体認識部25が撮像モードを参照して追尾被写体を認識する処理について説明する。
図2には、撮像モードとして人物モードが設定されているときの表示部14の画面P11乃至P13が示されており、図3には、撮像モードとしてペットモードが設定されているときの表示部14の画面P14乃至16が示されている。また、デジタルカメラ11では、被写体枠設定処理部24において顔検出器28−1が常に動作しているものとする。
図2に示すように、撮像モードが人物モードであるとき、表示部14の画面P11乃至P13には、人物を示すアイコンとともに「人物モード」と表示される。そして、画面P11に示すように被写体として、二人の子供と犬が撮像されると、被写体枠設定処理部24は、顔検出器28−1により検出された二人の子供の顔に被写体枠を設定する。これにより、画面P12に示すように、二人の子供の顔に対して設定された被写体枠F11およびF12が表示される。
ここで、ユーザが表示部14の画面をタッチした位置が、画面P12に示されている指マークの先端のように、被写体枠F11の外側近傍であり、かつ、犬の近傍であったとする。この場合、追尾被写体認識部25は、撮像モードが人物モードであることから、被写体枠F11の外側であっても、ユーザが追尾の対称としたい被写体は人物であると推測し、被写体枠F11が設定されている子供の顔を追尾被写体として認識する。これにより、画面P13に示すように、追尾被写体用の被写体枠F11’が表示される。追尾被写体用の被写体枠F11’は、追尾の対称として認識される前の被写体枠F11から、色や大きさなどが変更されて表示される。
一方、図3に示すように、撮像モードがペットモードであるとき、表示部14の画面P14乃至16には、動物を示すアイコンとともに「ペットモード」と表示される。画面P14には、図2の画面P11と同一の構図の画像が表示されており、画面P15に示すように、被写体枠F11の外側近傍であり、かつ、犬の近傍の箇所(図2の画面P12と同一箇所)をユーザがタッチしたとする。
この場合、追尾被写体認識部25は、撮像モードがペットモードであることから、被写体枠F11の外側近傍であっても、ユーザが追尾の対称としたい被写体は子供ではなく動物であると推測し、犬を追尾被写体として認識する。これにより、画面P16に示すように、犬の顔の所定領域を囲う追尾被写体用の被写体枠F13’が表示される。
なお、撮像モードがペットモードであるときには、顔検出器28−1と動物検出器28−2との両方が同時に動作している。このように、デジタルカメラ11において複数の検出器が同時に動作している場合、それぞれの検出器により検出された被写体に対して被写体枠を表示することができる。
即ち、図4に示すように、撮像モードとしてペットモードが設定されているときの表示部14の画面P15’には、子供の顔と同様に、犬の顔にも被写体枠を表示することができる。
ところで、追尾被写体認識部25が、ユーザが表示部14の画面をタッチした位置が、被写体枠の外側近傍であると判断するためには、その近傍を規定する領域を決める必要がある。この領域としては、被写体枠に対して一定の間隔で広い枠を固定的に設定する他、例えば、撮像対象や撮像モードなどに応じて、間隔が変更される枠を設定してもよい。このように、ユーザが表示部14の画面をタッチした位置が被写体枠の外側であっても、その被写体枠が設定されている被写体をユーザがタッチしたとして許容する枠を、以下、適宜、タッチ許容枠と称する。
例えば、図5には、撮像モードとして人物モードが設定されているときの表示部14の画面P17、および、撮像モードとしてペットモードが設定されているときの表示部14の画面P18が示されている。
画面P17およびP18は、人物と犬とが撮像されており、同一の構図である。また、画面P17およびP18において、人物の顔に対する被写体枠F14と、犬の顔に対する被写体枠F15とは、同一の箇所に設定されている。また、画面P17およびP18では、被写体枠F14に対するタッチ許容枠F16と、被写体枠F15に対するタッチ許容枠F17とが破線で示されている。なお、タッチ許容枠F16および17は、説明の為に図示されており、表示部14には表示されない。
画面P17に示すように、撮像モードが人物モードである場合には、撮像が優先される被写体が人物であるため、その撮像モードに適合する被写体である人物の顔の被写体枠F14に設定されるタッチ許容枠F16は、犬の顔の被写体枠F15に設定されるタッチ許容枠F17よりも大きく設定される。
一方、画面P18に示すように、撮像モードがペットモードである場合には、撮像が優先される被写体が動物であるため、その撮像モードに適合する被写体である犬の顔の被写体枠F15に設定されるタッチ許容枠F17は、人物の顔の被写体枠F14に設定されるタッチ許容枠F16よりも大きく設定される。
このように、デジタルカメラ11は、撮像モードに応じた大きさのタッチ許容枠を設定することで、ユーザのタッチが被写体から離れていても、ユーザの選択意図を推定して、その意図に沿った被写体を追尾被写体として認識することができる。
また、画面P17に示すように、被写体である人物に対しては、被写体枠F14に対するタッチ許容枠F16の間隔は、被写体枠F14に対する上側、右側、および左側の間隔よりも、被写体枠F14に対する下側の間隔が広くなるように設定される。これは、例えば、被写体が人物である場合には、被写体枠(顔枠)の下側には、その人物の胴体が写されていることが多いためである。このように、被写体枠F14に対するタッチ許容枠F16の下側の間隔を広く設けることにより、画像に写されている人物の胴体をタッチしたときにも、その人物を追尾被写体とすることができる。
また、画面P17に示すように、被写体が動物である場合には、被写体枠F15に対して等間隔となるように、タッチ許容枠F17が設定される。このように、デジタルカメラ11では、被写体の種類に応じたタッチ許容枠の大きさ、具体的には、被写体を検出した検出器の種類に応じたタッチ許容枠の大きさが予め設定されている。
さらに、被写体枠の大きさは、画像に写されている被写体の大きさに応じて調整され、タッチ許容枠の大きさは、被写体枠の大きさに応じて調整される。
即ち、図6に示すように、被写体Aが被写体Bよりも大きく写されている場合、被写体Aに設定される被写体枠F18は、被写体Bに設定される被写体枠F20よりも大きく設定される。また、被写体Aに設定されるタッチ許容枠F19も、被写体Bに設定されるタッチ許容枠F21よりも大きく設定される。
また、タッチ許容枠F19は、被写体Aの胴体を含むように、被写体枠F18に対するタッチ許容枠F19の下側の間隔(マージン)が、上側、右側、および左側の間隔よりも広く設定される。同様に、タッチ許容枠F21は、被写体Bの胴体を含むように、被写体枠F20に対して下側の間隔が広く設定される。
さらに、被写体枠に対するタッチ許容枠の間隔は、被写体の状況(シーン)に応じて、例えば、被写体の動きに応じて調整してもよい。
即ち、図7に示すように、被写体Aが一人で写されているときに、被写体Bが被写体Aの左側から被写体Aに近づいてくる動きが検出されると、被写体Aに設定されているタッチ許容枠F19の左側(被写体B側)の間隔が狭くなるように調整される。その後、被写体Bが被写体Aから離れる動きが検出されると、タッチ許容枠F19は、元の間隔に戻るように調整される。なお、図7には表されていないが、被写体Bに設定されているタッチ許容枠F21の被写体A側の間隔も、被写体Bが被写体Aに近づくと狭くなるように調整され、被写体Bが被写体Aから離れると元の間隔に戻るように調整される。
また、例えば、図8に示すように、被写体Aが一人で写されているときに、被写体Bが被写体Aの左側から被写体Aに近づいてくる動きと、被写体Cが被写体Aの右側から被写体Aに近づいてくる動きとが検出されたとする。この場合、被写体Aに設定されているタッチ許容枠F19の両側の間隔が狭くなるように調整される。その後、被写体BおよびCが被写体Aから離れる動きが検出されると、タッチ許容枠F19は、元の間隔に戻るように調整される。なお、被写体Bに設定されているタッチ許容枠F21および被写体Cに設定されているタッチ許容枠F23についても、被写体BおよびCの動きに応じて調整される。
図5乃至8を参照して説明したように、被写体枠よりも広い範囲を囲うようにタッチ許容枠が設定され、撮像モードおよび撮像シーン(被写体の大きさや、種類、動きなど)によって、タッチ許容枠の大きさが調整される。
次に、図9は、タッチ許容枠を設定する追尾被写体認識部25の構成例を示すブロック図である。
図9において、追尾被写体認識部25は、記憶部31、動き検出部32、タッチ許容枠設定処理部33、タッチ判定部34、および認識部35を備えて構成される。
記憶部31には、被写体枠設定処理部24が設定した被写体枠に関する情報が供給され、記憶部31は、所定の期間、被写体枠に関する情報を記憶する。被写体枠に関する情報には、被写体枠の位置および大きさを示す情報や、被写体を検出した検出器の種類を示す情報が含まれる。
動き検出部32は、記憶部31に記憶されている被写体枠に関する情報に基づいて、所定の期間における被写体枠の位置の変化を求めることにより、被写体の動きを検出する。
タッチ許容枠設定処理部33は、モード設定部22に設定されている撮像モード、および、記憶部31に記憶されている被写体枠に関する情報に基づいて、被写体枠に対してタッチ許容枠を設定する。また、タッチ許容枠設定処理部33は、動き検出部32により検出された被写体の動きに基づいて、設定したタッチ許容枠の大きさを調整する。
タッチ判定部34は、タッチ検出部23からユーザがタッチしたタッチ位置を示す情報が供給されると、タッチ位置が、タッチ許容枠設定処理部33により設定されているタッチ許容枠の範囲内か否かを判定する。そして、タッチ位置がタッチ許容枠の範囲内であると判定された場合、タッチ判定部34は、そのタッチ許容枠が設定されている被写体を追尾被写体として決定し、認識部35に通知する。
なお、タッチ位置がタッチ許容枠の範囲内でないと判定された場合、タッチ判定部34は、被写体枠設定処理部24に対して他の検出器を動作させる。例えば、顔検出器28−1のみが動作しているときに、ユーザが人物以外の被写体、例えば、動物をタッチしたとする。このとき、タッチ位置がタッチ許容枠の範囲内でないと判定されるが、被写体枠設定処理部24で動物検出器28−2を動作させることにより、ユーザによりタッチされた動物を検出することができ、その動物を追尾被写体として認識することができる。
認識部35は、タッチ判定部34から追尾被写体が通知されると、その追尾被写体を認識して、追尾被写体を特定する情報を出力する。
次に、図10は、デジタルカメラ11が被写体の追尾を開始する処理を説明するフローチャートである。
例えば、デジタルカメラ11が起動して撮像部13による撮像が開始されると処理が開始され、ステップS11において、被写体枠設定処理部24は、顔検出器28−1の動作を開始する。そして、被写体枠設定処理部24は、画像メモリ21に記憶されている画像から検出される人物の顔に対して被写体枠(顔枠)を設定する被写体枠設定処理を開始し、処理はステップS12に進む。
ステップS12において、タッチ検出部23は、表示部14のタッチパネルからの信号に基づいて、ユーザが表示部14の画面をタッチしたか否かを判定する。そして、タッチ検出部23が、ユーザが表示部14の画面をタッチしたと判定するまで処理が待機され、ユーザが表示部14の画面をタッチしたと判定されると、処理はステップS13に進む。
ステップS13において、タッチ検出部23は、ユーザがタッチしたタッチ位置を示す情報(座標)を追尾被写体認識部25に出力し、追尾被写体認識部25は、タッチ位置を取得する。
ステップS13の処理後、処理はステップS14に進み、タッチ許容枠設定処理(後述する図11を参照)が行われ、被写体枠に対してタッチ許容枠が設定される。タッチ許容枠設定処理の処理後、処理はステップS15に進む。
ステップS15において、追尾被写体認識部25では、ステップS13で取得したタッチ位置に基づいて、タッチ判定部34が、タッチ位置がタッチ許容枠の範囲内であるか否かを判定する。
ステップS15において、タッチ位置がタッチ許容枠の範囲内でない(範囲外である)と判定された場合、処理はステップS16に進み、タッチ判定部34は、被写体枠設定処理部24が有する全ての検出器が動作しているか否かを判定する。
ステップS16において、被写体枠設定処理部24が有する全ての検出器が動作していないと判定された場合、処理はステップS17に進む。
ステップS17において、タッチ判定部34は、被写体枠設定処理部24に対して、動作している検出器以外の他の検出器を動作するように要求する。これに応じて、被写体枠設定処理部24は他の検出器の動作を開始し、処理はステップS14に戻り、以下、同様の処理が繰り返される。即ち、動作を開始した検出器により被写体の検出が行われ、被写体が新たに検出されると被写体枠が設定されて、その被写体枠に対してタッチ許容枠が新たに設定される。
一方、ステップS16において、被写体枠設定処理部24が有する全ての検出器が動作していると判定された場合、処理はステップS16に戻り、以下、同様の処理が繰り返される。即ち、この場合、ユーザのタッチに対して追尾被写体を認識することができず、新たなタッチが検出されるのを待機する。なお、この場合、追尾被写体を認識することができなかった旨を表示部14に表示してもよい。
一方、ステップS15において、タッチ位置がタッチ許容枠の範囲内であると判定された場合、処理はステップS18に進む。
ステップS18において、認識部35は、タッチ位置が範囲内とされたタッチ許容枠の設定されている被写体を追尾被写体として認識し、その被写体に設定されている被写体枠内の色および輝度を取得する。そして、認識部35は、追尾被写体の位置を示す情報や追尾被写体の色および輝度を示す情報などが含まれる、追尾被写体を特定する情報を検出器切り替え部26に供給する。
ステップS18の処理後、処理はステップS19に進み、検出器切り替え部26は、追尾被写体を検出した検出器を認識し、その検出器を被写体追尾処理で使用するように被写体追尾処理部27に対して検出器を切り替える処理を行う。また、検出器切り替え部26は、追尾被写体を特定する情報を被写体追尾処理部27に供給し、処理はステップS20に進む。
ステップS20において、被写体追尾処理部27は、ステップS18で切り替えられた検出器を使用し、追尾被写体を特定する情報に基づいて、追尾被写体を追尾する被写体追尾処理を開始する。ステップS20の処理後、処理はステップS12に戻り、ユーザが次の被写体をタッチするまで処理が待機され、以下、同様の処理が繰り返される。
以上のように、デジタルカメラ11では、タッチ許容枠の内側の領域がタッチされたときに、そのタッチ許容枠が設定されている被写体が追尾被写体として認識されるので、ユーザのタッチ位置が被写体枠外であったとしても、被写体を的確に認識することができる。
また、ユーザがタッチした位置がタッチ許容枠の範囲外であった場合、他の検出器を動作させることにより、ユーザが追尾の対称としたい被写体を検出するための検出器が動作していなかったとしても、その被写体を検出することができる。これにより、追尾の対象とする被写体を設定する際に、ユーザの使い勝手を向上させることができる。
即ち、撮像モードが人物モードであり顔検出器28−1しか動作していない場合に、ユーザが表示部14に表示されている動物をタッチしたとき、自動的に、動物検出器28−2の動作が開始されて、その動物が追尾被写体として認識される。このように、ユーザが、撮像モードを動物モードに切り替えるような手間をかけることなく、動物を追尾被写体として被写体追尾処理を開始することができる。
また、このように複数の検出器を動作させて追尾被写体を認識して被写体追尾処理が開始されたとき、検出器切り替え部26は、追尾被写体を検出に用いられた検出器以外の検出器の動作を停止させることができる。これにより、画像処理部16において実行される処理を減らすことができ、例えば、電力の使用を抑制することができる。
次に、図11は、図10のステップS14におけるタッチ許容枠設定処理を説明するフローチャートである。
ステップS31において、タッチ許容枠設定処理部33は、タッチ判定部34がタッチ位置を取得したタイミングで表示部14に表示されていた被写体枠に関する情報を、記憶部31から読み出して取得する。
ステップS31の処理後、処理はステップS32に進み、タッチ許容枠設定処理部33は、モード設定部22を参照し、現在設定されている撮像モードを取得し、処理はステップS33に進む。
ステップS33において、タッチ許容枠設定処理部33は、ステップS31で取得した被写体枠に関する情報に基づいて、被写体枠が設定されている被写体の種類を認識する。そして、タッチ許容枠設定処理部33は、その認識した被写体の種類と、ステップS32で取得した撮像モードとに基づいて、予め登録されている基準となる大きさで、被写体枠に対してタッチ許容枠を設定する。
ここで、タッチ許容枠設定処理部33には、被写体枠の大きさに対するタッチ許容枠の基準となる大きさが予め登録されている。また、被写体枠に対するタッチ許容枠の大きさは、図5を参照して説明したように、撮像モードごとに被写体の種類に応じて異なっており、タッチ許容枠設定処理部33には、被写体枠に対するタッチ許容枠の基準となる大きさが撮像モードごとに登録されている。
ステップS33の処理後、処理はステップS34に進み、タッチ許容枠設定処理部33は、動き検出部32を参照して、被写体の動きを取得し、ステップS35において、基準となる大きさで設定したタッチ許容枠を調整する必要があるか否かを判定する。
上述の図7および図8を参照して説明したように、被写体どうしが近づくような動きが検出された場合、それぞれの被写体の相手側となるタッチ許容枠の被写体枠に対する間隔が狭くなるように、タッチ許容枠が調整される。また、近接していた被写体どうしが離れるような動きが検出された場合、狭められていた間隔が広がるように、タッチ許容枠が調整される。従って、タッチ許容枠設定処理部33は、このような被写体の動きが検出された場合、タッチ許容枠を調整する必要があると判定する。
ステップS35において、タッチ許容枠を調整する必要があると判定された場合、処理はステップS36に進み、タッチ許容枠設定処理部33は、被写体の動きに応じてタッチ許容枠を調整し、処理は終了する。
一方、ステップS35において、タッチ許容枠を調整する必要がないと判定された場合、処理はステップS36をスキップして終了する。
以上のように、タッチ許容枠設定処理部33は、撮像モードに応じてタッチ許容枠の大きさを設定しているので、それぞれの撮像モードで優先して撮像される被写体を優先的に追尾被写体として認識することができる。
また、タッチ許容枠設定処理部33は、撮像シーン(即ち、撮像された画像の状況)に応じて、具体的には、画像に写されている被写体の特徴(種類や大きさなど)や、被写体どうしの動きなどに応じて、タッチ許容枠を調整している。これにより、それぞれの撮像シーンに適合する被写体を優先的に追尾被写体として認識することができる。
このように、撮像モードおよび撮像シーンによって適切なタッチ許容枠が設定されるので、ユーザが追尾の対称としたい被写体を的確に認識することができる。
また、被写体が移動している場合には、ユーザがタッチした位置と、被写体が写されている位置とが一致しないことがあり、ユーザの意図とは異なる被写体が追尾被写体として認識されて被写体追尾処理が行われることがある。これに対し、デジタルカメラ11では、タッチ許容枠の範囲を被写体の動きに応じて変更するので、ユーザの意図とは異なる被写体が追尾被写体として認識されることを回避することができ、ユーザが正しい被写体を選択するために複数回タッチを繰り返すこともない。即ち、容易な操作で被写体を的確に選択することができるので、ユーザの負担を軽減することができる。
なお、デジタルカメラ11は、上述した人物モードおよびペットモード以外の撮像モードを備えており、被写体枠設定処理部24および追尾被写体認識部25は、それらの撮像モードで撮像を優先する被写体に被写体枠およびタッチ許容枠を設定することができる。例えば、デジタルカメラ11は、子供の撮像に適した撮像条件で撮像が行われる子供優先モードや、大人の撮像に適した撮像条件で撮像が行われる大人優先モードなどを備えている。
図12には、撮像モードとして子供優先モードが設定されているときの表示部14の画面P19、および、撮像モードとして大人優先モードが設定されているときの表示部14の画面P20が示されている。
画面P19およびP20は、二人の子供および一人の大人が写された同一の構図であり、被写体枠F24およびF25が子供の顔に表示され、被写体枠F26が大人の顔に表示されている。このような画面P19およびP20に対して、ユーザが表示部14の画面をタッチした位置が、画面P19およびP20に示されている指マークの先端のように、被写体枠F25とF26との間であったとする。
この場合、撮影モードが子供優先モードであれば、被写体枠F25が設定されている子供が追尾被写体として認識され、撮影モードが大人優先モードであれば、被写体枠F26が設定されている大人が追尾被写体として認識される。このように、デジタルカメラ11では、ユーザのタッチ位置が被写体枠F25とF26との間であっても、撮像モードを参照することによりユーザの意図を推定して、的確に追尾被写体を認識することができる。
また、デジタルカメラ11は、水中モードや、料理モード、草花モードなどの撮像モードを備えており、それぞれの撮像モードに適した被写体に対して被写体枠が設定され、タッチ許容枠が調整される。即ち、被写体枠設定処理部24は、図1に示した顔検出器28−1および動物検出器28−2以外に、魚検出器や、料理検出器、草花検出器などを備えることができる。動物検出器28−2として、犬顔検出器や猫顔検出器を有していてもよい。また、デジタルカメラ11は、撮像モードとして、風景モードや夜景モードなどを備えていてもよい。
なお、これらの撮像モードは、ユーザがデジタルカメラ11を操作することにより設定される他、デジタルカメラ11において画像を解析することで、撮像状況に応じて最適な撮像が行われるように自動的に設定されるようにすることができる。
また、本実施の形態においては、顔検出器28−1が常に動作しているものとして説明したが、このように検出器が定常的に動作していなくてもよく、ユーザがタッチする前に、表示部14に被写体枠が表示されていない状態であってもよい。即ち、ユーザがタッチしたタイミングで検出器の動作が開始されるようにしてもよい。
なお、本実施の形態においては、ユーザが表示部14の画面をタッチすることにより追尾したい被写体を選択しているが、その他の手段により、例えば、操作キーを操作することにより被写体を選択してもよい。また、予め被写体を画角に合わせるためのガイド枠を利用して被写体を選択してもよい。
なお、本発明は、デジタルスチルカメラやデジタルビデオカメラなどのデジタルカメラの他、携帯電話機やパーソナルコンピュータなど、撮像機能を備えた装置に適用することができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インタネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 デジタルカメラ, 12 レンズ, 13 撮像部, 14 表示部, 15 外部I/F, 16 画像処理部, 21 画像メモリ, 22 モード設定部, 23 タッチ検出部, 24 被写体枠設定処理部, 25 追尾被写体認識部, 26 検出器切り替え部, 27 被写体追尾処理部, 28−1 顔検出器, 28−2 動物検出器, 31 記憶部, 32 動き検出部, 33 タッチ許容枠設定処理部, 34 タッチ判定部, 35 認識部

Claims (10)

  1. 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、
    前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、
    ユーザにより指定された画像上の指定位置を検出する位置検出手段と、
    前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段と
    を備える画像処理装置。
  2. 前記被写体枠設定手段は、複数種類の前記被写体をそれぞれ検出可能な複数の被写体検出器を有しており、前記認識手段により追尾の対象となる被写体を認識することができなかった場合、動作させていた前記被写体検出器以外の被写体検出器の動作を開始させて他の種類の前記被写体を検出させる
    請求項1に記載の画像処理装置。
  3. 前記許容枠設定手段は、前記画像に写されている前記被写体の大きさに応じて、前記被写体枠に対する前記許容枠の大きさを設定する
    請求項1に記載の画像処理装置。
  4. 前記許容枠設定手段は、前記画像に写されている前記被写体の種類に応じて、前記被写体枠に対する前記許容枠の間隔を設定する
    請求項1に記載の画像処理装置。
  5. 前記許容枠設定手段は、前記画像に写されている前記被写体の動きに応じて、前記被写体枠に対する前記許容枠の間隔を調整する
    請求項1に記載の画像処理装置。
  6. 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、
    前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定し、
    ユーザにより指定された画像上の指定位置を検出し、
    前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識する
    ステップを含む画像処理方法。
  7. 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、
    所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、
    ユーザにより指定された画像上の指定位置を検出する位置検出手段と、
    前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段と
    を備える画像処理装置。
  8. 前記被写体枠設定手段は、複数種類の前記被写体をそれぞれ検出可能な複数の被写体検出器を有しており、前記認識手段により追尾の対象となる被写体を認識することができなかった場合、動作させていた前記被写体検出器以外の被写体検出器の動作を開始させて他の種類の前記被写体を検出させる
    請求項7に記載の画像処理装置。
  9. 前記許容枠設定手段は、前記画像に複数種類の前記被写体が写されているとき、現在設定されている撮像モードに適合する被写体の前記許容枠を、その撮像モードに適合しない被写体の前記許容枠よりも大きく設定する
    請求項7に記載の画像処理装置。
  10. 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、
    所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定し、
    ユーザにより指定された画像上の指定位置を検出し、
    前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識する
    ステップを含む画像処理方法。
JP2010151951A 2010-07-02 2010-07-02 画像処理装置および画像処理方法 Withdrawn JP2012015889A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2010151951A JP2012015889A (ja) 2010-07-02 2010-07-02 画像処理装置および画像処理方法
US13/109,281 US8643740B2 (en) 2010-07-02 2011-05-17 Image processing device and image processing method
EP11167246.5A EP2402884A3 (en) 2010-07-02 2011-05-24 Image processing device and image processing method
CN201110171591.5A CN102316263B (zh) 2010-07-02 2011-06-24 图像处理设备和图像处理方法
US14/043,964 US8947553B2 (en) 2010-07-02 2013-10-02 Image processing device and image processing method
US14/556,685 US9311712B2 (en) 2010-07-02 2014-12-01 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010151951A JP2012015889A (ja) 2010-07-02 2010-07-02 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2012015889A true JP2012015889A (ja) 2012-01-19

Family

ID=45002172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010151951A Withdrawn JP2012015889A (ja) 2010-07-02 2010-07-02 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (3) US8643740B2 (ja)
EP (1) EP2402884A3 (ja)
JP (1) JP2012015889A (ja)
CN (1) CN102316263B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013161250A1 (ja) * 2012-04-26 2013-10-31 パナソニック株式会社 ストロボ装置およびそれを備える撮像装置
JP5640175B2 (ja) * 2012-03-16 2014-12-10 富士フイルム株式会社 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法
JP2017112488A (ja) * 2015-12-16 2017-06-22 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
JP2017143431A (ja) * 2016-02-10 2017-08-17 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JPWO2017169293A1 (ja) * 2016-03-28 2019-02-14 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置
WO2020080037A1 (ja) * 2018-10-18 2020-04-23 パナソニックIpマネジメント株式会社 撮像装置
US11570352B2 (en) 2021-02-26 2023-01-31 Canon Kabushiki Kaisha Image processing apparatus and control method thereof, imaging apparatus, and storage medium
WO2024101677A1 (ko) * 2022-11-08 2024-05-16 삼성전자주식회사 전자 장치 및 이의 제어 방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5485712B2 (ja) * 2010-01-07 2014-05-07 株式会社ザクティ 電子カメラ
JP5136669B2 (ja) * 2011-03-18 2013-02-06 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
WO2013048430A1 (en) * 2011-09-30 2013-04-04 Hewlett-Packard Development Company, L.P. Authentication systems and methods
JP5854280B2 (ja) * 2012-10-03 2016-02-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN103813075A (zh) * 2012-11-07 2014-05-21 联想(北京)有限公司 一种提醒方法和电子设备
WO2014132465A1 (ja) * 2013-02-28 2014-09-04 株式会社ニコン 電子機器
US11096668B2 (en) 2013-03-13 2021-08-24 Samsung Electronics Co., Ltd. Method and ultrasound apparatus for displaying an object
WO2014142468A1 (en) 2013-03-13 2014-09-18 Samsung Electronics Co., Ltd. Method of providing copy image and ultrasound apparatus therefor
US10769362B2 (en) 2013-08-02 2020-09-08 Symbol Technologies, Llc Method and apparatus for capturing and extracting content from documents on a mobile device
US10140257B2 (en) 2013-08-02 2018-11-27 Symbol Technologies, Llc Method and apparatus for capturing and processing content from context sensitive documents on a mobile device
JP6701512B2 (ja) 2013-09-24 2020-05-27 ソニー株式会社 撮影装置、撮影方法、およびプログラム
JP6942464B2 (ja) * 2016-12-09 2021-09-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020136899A (ja) * 2019-02-19 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置、電子機器、および撮像方法
CN109981982B (zh) * 2019-03-25 2021-02-19 联想(北京)有限公司 控制方法、装置以及系统
TWI706335B (zh) * 2019-10-17 2020-10-01 國立交通大學 物件特徵定位裝置及雷射與攝像整合系統
CN112926479A (zh) * 2021-03-08 2021-06-08 新疆爱华盈通信息技术有限公司 猫脸识别方法、系统、电子装置及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101186A (ja) 2004-09-29 2006-04-13 Nikon Corp カメラ
JP4457358B2 (ja) * 2006-05-12 2010-04-28 富士フイルム株式会社 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
JP2008187591A (ja) * 2007-01-31 2008-08-14 Fujifilm Corp 撮像装置及び撮像方法
JP2009010777A (ja) * 2007-06-28 2009-01-15 Sony Corp 撮像装置、撮影制御方法、プログラム
JP5039786B2 (ja) * 2007-07-23 2012-10-03 パナソニック株式会社 撮像装置
JP2010011441A (ja) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd 撮像装置及び画像再生装置
JP2010151951A (ja) 2008-12-24 2010-07-08 Mitsubishi Electric Engineering Co Ltd 特定方向画像表示システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5640175B2 (ja) * 2012-03-16 2014-12-10 富士フイルム株式会社 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法
US9167166B2 (en) 2012-03-16 2015-10-20 Fujifilm Corporation Image display device, imaging apparatus mounted with image display device as finder device, and image display method
WO2013161250A1 (ja) * 2012-04-26 2013-10-31 パナソニック株式会社 ストロボ装置およびそれを備える撮像装置
JP2017112488A (ja) * 2015-12-16 2017-06-22 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
JP2017143431A (ja) * 2016-02-10 2017-08-17 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JP7174894B2 (ja) 2016-03-28 2022-11-18 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置
JPWO2017169293A1 (ja) * 2016-03-28 2019-02-14 パナソニックIpマネジメント株式会社 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置
WO2020080037A1 (ja) * 2018-10-18 2020-04-23 パナソニックIpマネジメント株式会社 撮像装置
JP7113364B2 (ja) 2018-10-18 2022-08-05 パナソニックIpマネジメント株式会社 撮像装置
US11431893B2 (en) 2018-10-18 2022-08-30 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
JPWO2020080037A1 (ja) * 2018-10-18 2021-02-15 パナソニックIpマネジメント株式会社 撮像装置
US11570352B2 (en) 2021-02-26 2023-01-31 Canon Kabushiki Kaisha Image processing apparatus and control method thereof, imaging apparatus, and storage medium
US11838629B2 (en) 2021-02-26 2023-12-05 Canon Kabushiki Kaisha Image processing apparatus and control method thereof, imaging apparatus, and storage medium
WO2024101677A1 (ko) * 2022-11-08 2024-05-16 삼성전자주식회사 전자 장치 및 이의 제어 방법

Also Published As

Publication number Publication date
CN102316263B (zh) 2016-08-24
CN102316263A (zh) 2012-01-11
EP2402884A2 (en) 2012-01-04
EP2402884A3 (en) 2017-03-29
US20120002067A1 (en) 2012-01-05
US20140029799A1 (en) 2014-01-30
US20150085139A1 (en) 2015-03-26
US8643740B2 (en) 2014-02-04
US8947553B2 (en) 2015-02-03
US9311712B2 (en) 2016-04-12

Similar Documents

Publication Publication Date Title
JP2012015889A (ja) 画像処理装置および画像処理方法
US10459190B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
US8654243B2 (en) Image pickup apparatus and control method thereof
JP4561919B2 (ja) 撮像装置、画像処理装置及び画像処理方法
JP5136669B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20170220228A1 (en) Display apparatus and method
US11184524B2 (en) Focus control device, focus control method, program, and imaging device
JP2010056692A (ja) 撮像装置およびその制御方法
JP2010258552A (ja) 撮像装置、撮像方法及びプログラム
KR20100055938A (ko) 장면 정보 표시 방법 및 장치, 및 이를 이용한 디지털 촬영장치
US9560265B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP2012053313A (ja) 撮像装置、オートズーム方法、及び、プログラム
JP2013017218A (ja) 画像処理装置、画像処理方法及びプログラム
US9357133B2 (en) Digital photographing apparatus, auto-focusing method, and computer-readable storage medium for executing the auto-focusing method
JP2008236015A (ja) 画像処理装置、撮像装置及びそのプログラム
JP6465566B2 (ja) 撮像装置及び撮像方法
JP2005221771A (ja) 撮像装置及び機能表示方法
WO2020129620A1 (ja) 撮像制御装置、撮像装置、撮像制御方法
CN110063054A (zh) 控制设备、控制方法和程序
JP6728024B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6351410B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理装置の制御プログラム及び記憶媒体
JP6335064B2 (ja) 撮像装置、撮像装置の制御方法およびコンピュータプログラム
JP2023099384A (ja) 画像処理装置、画像処理方法および撮像装置
JP2009100133A (ja) 撮影装置、撮影装置の処理実行方法及びプログラム
JP5926062B2 (ja) ユーザインタフェース装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903