JP2012015889A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2012015889A JP2012015889A JP2010151951A JP2010151951A JP2012015889A JP 2012015889 A JP2012015889 A JP 2012015889A JP 2010151951 A JP2010151951 A JP 2010151951A JP 2010151951 A JP2010151951 A JP 2010151951A JP 2012015889 A JP2012015889 A JP 2012015889A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- frame
- image
- touch
- allowable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 98
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims abstract description 101
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 230000033001 locomotion Effects 0.000 claims description 24
- 238000000034 method Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 37
- 241001465754 Metazoa Species 0.000 description 21
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000017260 vegetative to reproductive phase transition of meristem Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2101/00—Still video cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Image Analysis (AREA)
Abstract
【課題】追尾の対称となる被写体を的確に認識する。
【解決手段】被写体枠設定処理部24は、画像に写されている被写体を検出する被写体検出器を動作させることにより画像から検出された被写体の所定範囲を囲う被写体枠を設定する。そして、追尾被写体認識部25は、画像の状況に応じて、または、撮像モードに応じて、被写体枠よりも広い範囲のタッチ許容枠を設定し、ユーザによりタッチされた画像上の指定位置がタッチ検出部23により検出されると、タッチ許容枠と指定位置とに基づいて、追尾の対象となる被写体を認識する。本発明は、例えば、デジタルカメラに適用できる。
【選択図】図1
【解決手段】被写体枠設定処理部24は、画像に写されている被写体を検出する被写体検出器を動作させることにより画像から検出された被写体の所定範囲を囲う被写体枠を設定する。そして、追尾被写体認識部25は、画像の状況に応じて、または、撮像モードに応じて、被写体枠よりも広い範囲のタッチ許容枠を設定し、ユーザによりタッチされた画像上の指定位置がタッチ検出部23により検出されると、タッチ許容枠と指定位置とに基づいて、追尾の対象となる被写体を認識する。本発明は、例えば、デジタルカメラに適用できる。
【選択図】図1
Description
本発明は、画像処理装置および画像処理方法に関し、特に、追尾の対称となる被写体を的確に認識することができるようにした画像処理装置および画像処理方法に関する。
従来、デジタルスチルカメラやデジタルビデオカメラなど(以下、適宜、デジタルカメラと称する)には、ユーザが選択した特定の人物の顔や、顔以外の物体などの被写体を追尾する機能が搭載されている。そして、追尾している被写体の位置の状態に応じてデジタルカメラの各種パラメータ(例えば、フォーカスや明るさなど)が最適となるように維持し続けることができる。
ユーザが、デジタルカメラで撮像されている被写体を選択する方法としては、タッチパネルに表示されている被写体をタッチすることにより選択する方法や、予め被写体を画角に合わせるためのガイド枠を利用して選択する方法などがある。
例えば、特許文献1には、ユーザが、顔以外の被写体を追尾させたいときに、その被写体を検出することができる専用のモードとなるように操作して、物体追尾機能を有効にする撮像装置が開示されている。
ところで、従来のデジタルカメラでは、ユーザが、追尾の対称となる被写体を正確に指定することができなければ、ユーザの意図した被写体を的確に認識することが困難であった。
本発明は、このような状況に鑑みてなされたものであり、追尾の対称となる被写体を的確に認識することができるようにするものである。
本発明の第1の側面の画像処理装置は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、ユーザにより指定された画像上の指定位置を検出する位置検出手段と、前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段とを備える。
本発明の第1の側面の画像処理方法は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定し、ユーザにより指定された画像上の指定位置を検出し、前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識するステップを含む。
本発明の第1の側面においては、画像に写されている被写体を検出する被写体検出器を動作させることにより画像から検出された被写体の所定範囲を囲う被写体枠が設定され、画像の状況に応じて、被写体枠よりも広い範囲の許容枠が設定される。そして、ユーザにより指定された画像上の指定位置が検出され、許容枠と指定位置とに基づいて、追尾の対象となる被写体が認識される。
本発明の第2の側面の画像処理装置は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、ユーザにより指定された画像上の指定位置を検出する位置検出手段と、前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段とを備える。
本発明の第2の側面の画像処理方法は、画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定し、ユーザにより指定された画像上の指定位置を検出し、前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識するステップを含む。
本発明の第2の側面においては、画像に写されている被写体を検出する被写体検出器を動作させることにより画像から検出された被写体の所定範囲を囲う被写体枠が設定され、所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、被写体枠よりも広い範囲の許容枠が設定される。そして、ユーザにより指定された画像上の指定位置が検出され、許容枠と指定位置とに基づいて、追尾の対象となる被写体が認識される。
本発明の第1および第2の側面によれば、追尾の対称となる被写体を的確に認識することができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
図1は、本発明を適用したデジタルカメラの一実施の形態の構成例を示すブロック図である。
図1において、デジタルカメラ11は、レンズ12、撮像部13、表示部14、外部I/F(Interface)15、および画像処理部16を備えて構成される。
レンズ12は、例えば、ズーム機能などを備えた複数枚のレンズ群により構成されており、被写体からの光を集光して、撮像部13が有する撮像素子の撮像面に、被写体の像を結像する。撮像部13は、例えば、CCD(Charge Coupled Device)や、CMOS(Complementary Metal Oxide Semiconductor)センサなどで構成され、被写体の像を撮像し、その撮像によって得られる画像を画像処理部16に出力する。
表示部14は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイなどで構成され、撮像部13で撮像され、画像処理部16において画像処理が施されて出力される画像、例えば、被写体が被写体枠で囲われた画像を表示する。外部I/F15は、画像処理部16から出力される画像を、例えば、図示しない外部ディスプレイの出力するための端子などで構成される。
画像処理部16は、撮像部13により撮像された画像に対して画像処理を施し、その画像を表示部14および外部I/F15に出力する。画像処理部16は、例えば、画像に写されている被写体(例えば、顔)を検出して、その被写体の所定範囲を囲う被写体枠を画像に合成する画像処理を行う。また、画像処理部16は、任意の被写体がユーザにより選択されると、その被写体を追尾する被写体追尾処理を行い、追尾の対称となった被写体(以下、適宜、追尾被写体と称する)を撮像するのに最適となるように各種のパラメータを調整する処理を行う。
画像処理部16は、画像メモリ21、モード設定部22、タッチ検出部23、被写体枠設定処理部24、追尾被写体認識部25、検出器切り替え部26、および被写体追尾処理部27を備えて構成される。
画像メモリ21には、撮像部13により撮像された画像のデータが順次供給され、画像メモリ21は、供給される画像のデータを順次記憶する。
モード設定部22は、ユーザにより指定された撮像モードで使用される各種のパラメータを設定する。デジタルカメラ11は、例えば、人物の撮像に適した撮像条件で撮像が行われる人物モードや、動物の撮像に適した撮像条件で撮像が行われるペットモードなどの各種の撮像モードを備えている。また、モード設定部22において設定される撮像モードは、被写体枠設定処理部24および追尾被写体認識部25が行う処理において参照される。
タッチ検出部23は、表示部14の画面に重畳するように実装されているタッチパネル(図示せず)からの信号に基づいて、ユーザが表示部14の画面をタッチすると、そのタッチされた位置(指定位置)を検出する。そして、タッチ検出部23は、タッチ位置を示す情報を追尾被写体認識部25に供給する。
被写体枠設定処理部24は、画像に写されている被写体を検出する複数の検出器を有しており、それらの検出器により検出された被写体の所定範囲を囲う大きさの被写体枠を設定する被写体枠設定処理を行う。例えば、図1に示すように、被写体枠設定処理部24は、顔検出器28−1および動物検出器28−2を有しており、顔検出器28−1により検出された人物の顔や、動物検出器28−2により検出された動物の顔などに対して被写体枠を設定する。また、被写体枠設定処理部24により設定された被写体枠は、画像に合成されて表示部14に表示される。
追尾被写体認識部25は、ユーザがタッチしたタッチ位置を示す情報がタッチ検出部23から供給されると、被写体枠設定処理部24により設定されている被写体枠に基づいて追尾被写体を認識する。例えば、追尾被写体認識部25は、ユーザがタッチしたタッチ位置が被写体枠の内側であれば、その被写体枠が設定されている被写体を追尾被写体として認識する。そして、追尾被写体認識部25は、追尾被写体を認識する事ができた場合、追尾被写体を特定する情報を検出器切り替え部26に供給する。
検出器切り替え部26は、追尾被写体認識部25から追尾被写体を特定する情報が供給されると、追尾被写体認識部25を介して、被写体枠設定処理部24が追尾被写体の検出に用いた検出器を認識する。そして、検出器切り替え部26は、追尾被写体を特定する情報を被写体追尾処理部27に供給するとともに、被写体追尾処理部27が被写体追尾処理で使用する検出器を、追尾被写体の検出に用いた検出器に切り替える処理を行う。
被写体追尾処理部27は、検出器切り替え部26により切り替えられた検出器を使用して、追尾被写体を特定する情報で特定される追尾被写体を追尾する被写体追尾処理を開始する。これにより、被写体追尾処理部27は、追尾被写体に適合した検出器で被写体追尾処理を実行することができる。
また、追尾被写体を特定する情報には、例えば、追尾被写体の位置を示す情報や追尾被写体の色および輝度を示す情報などが含まれている。被写体追尾処理部27は、画像メモリ21に次の画像のデータが記憶されると、その前の画像で特定された追尾被写体の位置近辺の所定領域における追尾被写体の色および輝度に近い領域を、次の画像から検出して追尾被写体を特定する。そして、被写体追尾処理部27は、その画像で特定された追尾被写体の位置、並びに、追尾被写体の色および輝度に基づいて、画像メモリ21に順次記憶される画像から追尾被写体を特定すること繰り返して行う。このように被写体追尾処理が行われ、被写体追尾処理部27は、追尾被写体を撮像するのに最適となるように各種のパラメータを調整する。
このように、デジタルカメラ11では、ユーザが表示部14の画面をタッチすることにより、追尾の対称となった被写体が認識され、その被写体を追尾する被写体追尾処理が行われる。
ここで、例えば、複数の被写体が写されている画像に対して複数の被写体枠が設定されている場合に、ユーザがタッチしたタッチ位置が、いずれの被写体枠の内側でない場合、追尾被写体認識部25は、追尾被写体を認識することができない。この場合、追尾被写体認識部25は、モード設定部22に設定されている撮像モードを参照して追尾被写体を認識することができる。
図2および図3を参照して、追尾被写体認識部25が撮像モードを参照して追尾被写体を認識する処理について説明する。
図2には、撮像モードとして人物モードが設定されているときの表示部14の画面P11乃至P13が示されており、図3には、撮像モードとしてペットモードが設定されているときの表示部14の画面P14乃至16が示されている。また、デジタルカメラ11では、被写体枠設定処理部24において顔検出器28−1が常に動作しているものとする。
図2に示すように、撮像モードが人物モードであるとき、表示部14の画面P11乃至P13には、人物を示すアイコンとともに「人物モード」と表示される。そして、画面P11に示すように被写体として、二人の子供と犬が撮像されると、被写体枠設定処理部24は、顔検出器28−1により検出された二人の子供の顔に被写体枠を設定する。これにより、画面P12に示すように、二人の子供の顔に対して設定された被写体枠F11およびF12が表示される。
ここで、ユーザが表示部14の画面をタッチした位置が、画面P12に示されている指マークの先端のように、被写体枠F11の外側近傍であり、かつ、犬の近傍であったとする。この場合、追尾被写体認識部25は、撮像モードが人物モードであることから、被写体枠F11の外側であっても、ユーザが追尾の対称としたい被写体は人物であると推測し、被写体枠F11が設定されている子供の顔を追尾被写体として認識する。これにより、画面P13に示すように、追尾被写体用の被写体枠F11’が表示される。追尾被写体用の被写体枠F11’は、追尾の対称として認識される前の被写体枠F11から、色や大きさなどが変更されて表示される。
一方、図3に示すように、撮像モードがペットモードであるとき、表示部14の画面P14乃至16には、動物を示すアイコンとともに「ペットモード」と表示される。画面P14には、図2の画面P11と同一の構図の画像が表示されており、画面P15に示すように、被写体枠F11の外側近傍であり、かつ、犬の近傍の箇所(図2の画面P12と同一箇所)をユーザがタッチしたとする。
この場合、追尾被写体認識部25は、撮像モードがペットモードであることから、被写体枠F11の外側近傍であっても、ユーザが追尾の対称としたい被写体は子供ではなく動物であると推測し、犬を追尾被写体として認識する。これにより、画面P16に示すように、犬の顔の所定領域を囲う追尾被写体用の被写体枠F13’が表示される。
なお、撮像モードがペットモードであるときには、顔検出器28−1と動物検出器28−2との両方が同時に動作している。このように、デジタルカメラ11において複数の検出器が同時に動作している場合、それぞれの検出器により検出された被写体に対して被写体枠を表示することができる。
即ち、図4に示すように、撮像モードとしてペットモードが設定されているときの表示部14の画面P15’には、子供の顔と同様に、犬の顔にも被写体枠を表示することができる。
ところで、追尾被写体認識部25が、ユーザが表示部14の画面をタッチした位置が、被写体枠の外側近傍であると判断するためには、その近傍を規定する領域を決める必要がある。この領域としては、被写体枠に対して一定の間隔で広い枠を固定的に設定する他、例えば、撮像対象や撮像モードなどに応じて、間隔が変更される枠を設定してもよい。このように、ユーザが表示部14の画面をタッチした位置が被写体枠の外側であっても、その被写体枠が設定されている被写体をユーザがタッチしたとして許容する枠を、以下、適宜、タッチ許容枠と称する。
例えば、図5には、撮像モードとして人物モードが設定されているときの表示部14の画面P17、および、撮像モードとしてペットモードが設定されているときの表示部14の画面P18が示されている。
画面P17およびP18は、人物と犬とが撮像されており、同一の構図である。また、画面P17およびP18において、人物の顔に対する被写体枠F14と、犬の顔に対する被写体枠F15とは、同一の箇所に設定されている。また、画面P17およびP18では、被写体枠F14に対するタッチ許容枠F16と、被写体枠F15に対するタッチ許容枠F17とが破線で示されている。なお、タッチ許容枠F16および17は、説明の為に図示されており、表示部14には表示されない。
画面P17に示すように、撮像モードが人物モードである場合には、撮像が優先される被写体が人物であるため、その撮像モードに適合する被写体である人物の顔の被写体枠F14に設定されるタッチ許容枠F16は、犬の顔の被写体枠F15に設定されるタッチ許容枠F17よりも大きく設定される。
一方、画面P18に示すように、撮像モードがペットモードである場合には、撮像が優先される被写体が動物であるため、その撮像モードに適合する被写体である犬の顔の被写体枠F15に設定されるタッチ許容枠F17は、人物の顔の被写体枠F14に設定されるタッチ許容枠F16よりも大きく設定される。
このように、デジタルカメラ11は、撮像モードに応じた大きさのタッチ許容枠を設定することで、ユーザのタッチが被写体から離れていても、ユーザの選択意図を推定して、その意図に沿った被写体を追尾被写体として認識することができる。
また、画面P17に示すように、被写体である人物に対しては、被写体枠F14に対するタッチ許容枠F16の間隔は、被写体枠F14に対する上側、右側、および左側の間隔よりも、被写体枠F14に対する下側の間隔が広くなるように設定される。これは、例えば、被写体が人物である場合には、被写体枠(顔枠)の下側には、その人物の胴体が写されていることが多いためである。このように、被写体枠F14に対するタッチ許容枠F16の下側の間隔を広く設けることにより、画像に写されている人物の胴体をタッチしたときにも、その人物を追尾被写体とすることができる。
また、画面P17に示すように、被写体が動物である場合には、被写体枠F15に対して等間隔となるように、タッチ許容枠F17が設定される。このように、デジタルカメラ11では、被写体の種類に応じたタッチ許容枠の大きさ、具体的には、被写体を検出した検出器の種類に応じたタッチ許容枠の大きさが予め設定されている。
さらに、被写体枠の大きさは、画像に写されている被写体の大きさに応じて調整され、タッチ許容枠の大きさは、被写体枠の大きさに応じて調整される。
即ち、図6に示すように、被写体Aが被写体Bよりも大きく写されている場合、被写体Aに設定される被写体枠F18は、被写体Bに設定される被写体枠F20よりも大きく設定される。また、被写体Aに設定されるタッチ許容枠F19も、被写体Bに設定されるタッチ許容枠F21よりも大きく設定される。
また、タッチ許容枠F19は、被写体Aの胴体を含むように、被写体枠F18に対するタッチ許容枠F19の下側の間隔(マージン)が、上側、右側、および左側の間隔よりも広く設定される。同様に、タッチ許容枠F21は、被写体Bの胴体を含むように、被写体枠F20に対して下側の間隔が広く設定される。
さらに、被写体枠に対するタッチ許容枠の間隔は、被写体の状況(シーン)に応じて、例えば、被写体の動きに応じて調整してもよい。
即ち、図7に示すように、被写体Aが一人で写されているときに、被写体Bが被写体Aの左側から被写体Aに近づいてくる動きが検出されると、被写体Aに設定されているタッチ許容枠F19の左側(被写体B側)の間隔が狭くなるように調整される。その後、被写体Bが被写体Aから離れる動きが検出されると、タッチ許容枠F19は、元の間隔に戻るように調整される。なお、図7には表されていないが、被写体Bに設定されているタッチ許容枠F21の被写体A側の間隔も、被写体Bが被写体Aに近づくと狭くなるように調整され、被写体Bが被写体Aから離れると元の間隔に戻るように調整される。
また、例えば、図8に示すように、被写体Aが一人で写されているときに、被写体Bが被写体Aの左側から被写体Aに近づいてくる動きと、被写体Cが被写体Aの右側から被写体Aに近づいてくる動きとが検出されたとする。この場合、被写体Aに設定されているタッチ許容枠F19の両側の間隔が狭くなるように調整される。その後、被写体BおよびCが被写体Aから離れる動きが検出されると、タッチ許容枠F19は、元の間隔に戻るように調整される。なお、被写体Bに設定されているタッチ許容枠F21および被写体Cに設定されているタッチ許容枠F23についても、被写体BおよびCの動きに応じて調整される。
図5乃至8を参照して説明したように、被写体枠よりも広い範囲を囲うようにタッチ許容枠が設定され、撮像モードおよび撮像シーン(被写体の大きさや、種類、動きなど)によって、タッチ許容枠の大きさが調整される。
次に、図9は、タッチ許容枠を設定する追尾被写体認識部25の構成例を示すブロック図である。
図9において、追尾被写体認識部25は、記憶部31、動き検出部32、タッチ許容枠設定処理部33、タッチ判定部34、および認識部35を備えて構成される。
記憶部31には、被写体枠設定処理部24が設定した被写体枠に関する情報が供給され、記憶部31は、所定の期間、被写体枠に関する情報を記憶する。被写体枠に関する情報には、被写体枠の位置および大きさを示す情報や、被写体を検出した検出器の種類を示す情報が含まれる。
動き検出部32は、記憶部31に記憶されている被写体枠に関する情報に基づいて、所定の期間における被写体枠の位置の変化を求めることにより、被写体の動きを検出する。
タッチ許容枠設定処理部33は、モード設定部22に設定されている撮像モード、および、記憶部31に記憶されている被写体枠に関する情報に基づいて、被写体枠に対してタッチ許容枠を設定する。また、タッチ許容枠設定処理部33は、動き検出部32により検出された被写体の動きに基づいて、設定したタッチ許容枠の大きさを調整する。
タッチ判定部34は、タッチ検出部23からユーザがタッチしたタッチ位置を示す情報が供給されると、タッチ位置が、タッチ許容枠設定処理部33により設定されているタッチ許容枠の範囲内か否かを判定する。そして、タッチ位置がタッチ許容枠の範囲内であると判定された場合、タッチ判定部34は、そのタッチ許容枠が設定されている被写体を追尾被写体として決定し、認識部35に通知する。
なお、タッチ位置がタッチ許容枠の範囲内でないと判定された場合、タッチ判定部34は、被写体枠設定処理部24に対して他の検出器を動作させる。例えば、顔検出器28−1のみが動作しているときに、ユーザが人物以外の被写体、例えば、動物をタッチしたとする。このとき、タッチ位置がタッチ許容枠の範囲内でないと判定されるが、被写体枠設定処理部24で動物検出器28−2を動作させることにより、ユーザによりタッチされた動物を検出することができ、その動物を追尾被写体として認識することができる。
認識部35は、タッチ判定部34から追尾被写体が通知されると、その追尾被写体を認識して、追尾被写体を特定する情報を出力する。
次に、図10は、デジタルカメラ11が被写体の追尾を開始する処理を説明するフローチャートである。
例えば、デジタルカメラ11が起動して撮像部13による撮像が開始されると処理が開始され、ステップS11において、被写体枠設定処理部24は、顔検出器28−1の動作を開始する。そして、被写体枠設定処理部24は、画像メモリ21に記憶されている画像から検出される人物の顔に対して被写体枠(顔枠)を設定する被写体枠設定処理を開始し、処理はステップS12に進む。
ステップS12において、タッチ検出部23は、表示部14のタッチパネルからの信号に基づいて、ユーザが表示部14の画面をタッチしたか否かを判定する。そして、タッチ検出部23が、ユーザが表示部14の画面をタッチしたと判定するまで処理が待機され、ユーザが表示部14の画面をタッチしたと判定されると、処理はステップS13に進む。
ステップS13において、タッチ検出部23は、ユーザがタッチしたタッチ位置を示す情報(座標)を追尾被写体認識部25に出力し、追尾被写体認識部25は、タッチ位置を取得する。
ステップS13の処理後、処理はステップS14に進み、タッチ許容枠設定処理(後述する図11を参照)が行われ、被写体枠に対してタッチ許容枠が設定される。タッチ許容枠設定処理の処理後、処理はステップS15に進む。
ステップS15において、追尾被写体認識部25では、ステップS13で取得したタッチ位置に基づいて、タッチ判定部34が、タッチ位置がタッチ許容枠の範囲内であるか否かを判定する。
ステップS15において、タッチ位置がタッチ許容枠の範囲内でない(範囲外である)と判定された場合、処理はステップS16に進み、タッチ判定部34は、被写体枠設定処理部24が有する全ての検出器が動作しているか否かを判定する。
ステップS16において、被写体枠設定処理部24が有する全ての検出器が動作していないと判定された場合、処理はステップS17に進む。
ステップS17において、タッチ判定部34は、被写体枠設定処理部24に対して、動作している検出器以外の他の検出器を動作するように要求する。これに応じて、被写体枠設定処理部24は他の検出器の動作を開始し、処理はステップS14に戻り、以下、同様の処理が繰り返される。即ち、動作を開始した検出器により被写体の検出が行われ、被写体が新たに検出されると被写体枠が設定されて、その被写体枠に対してタッチ許容枠が新たに設定される。
一方、ステップS16において、被写体枠設定処理部24が有する全ての検出器が動作していると判定された場合、処理はステップS16に戻り、以下、同様の処理が繰り返される。即ち、この場合、ユーザのタッチに対して追尾被写体を認識することができず、新たなタッチが検出されるのを待機する。なお、この場合、追尾被写体を認識することができなかった旨を表示部14に表示してもよい。
一方、ステップS15において、タッチ位置がタッチ許容枠の範囲内であると判定された場合、処理はステップS18に進む。
ステップS18において、認識部35は、タッチ位置が範囲内とされたタッチ許容枠の設定されている被写体を追尾被写体として認識し、その被写体に設定されている被写体枠内の色および輝度を取得する。そして、認識部35は、追尾被写体の位置を示す情報や追尾被写体の色および輝度を示す情報などが含まれる、追尾被写体を特定する情報を検出器切り替え部26に供給する。
ステップS18の処理後、処理はステップS19に進み、検出器切り替え部26は、追尾被写体を検出した検出器を認識し、その検出器を被写体追尾処理で使用するように被写体追尾処理部27に対して検出器を切り替える処理を行う。また、検出器切り替え部26は、追尾被写体を特定する情報を被写体追尾処理部27に供給し、処理はステップS20に進む。
ステップS20において、被写体追尾処理部27は、ステップS18で切り替えられた検出器を使用し、追尾被写体を特定する情報に基づいて、追尾被写体を追尾する被写体追尾処理を開始する。ステップS20の処理後、処理はステップS12に戻り、ユーザが次の被写体をタッチするまで処理が待機され、以下、同様の処理が繰り返される。
以上のように、デジタルカメラ11では、タッチ許容枠の内側の領域がタッチされたときに、そのタッチ許容枠が設定されている被写体が追尾被写体として認識されるので、ユーザのタッチ位置が被写体枠外であったとしても、被写体を的確に認識することができる。
また、ユーザがタッチした位置がタッチ許容枠の範囲外であった場合、他の検出器を動作させることにより、ユーザが追尾の対称としたい被写体を検出するための検出器が動作していなかったとしても、その被写体を検出することができる。これにより、追尾の対象とする被写体を設定する際に、ユーザの使い勝手を向上させることができる。
即ち、撮像モードが人物モードであり顔検出器28−1しか動作していない場合に、ユーザが表示部14に表示されている動物をタッチしたとき、自動的に、動物検出器28−2の動作が開始されて、その動物が追尾被写体として認識される。このように、ユーザが、撮像モードを動物モードに切り替えるような手間をかけることなく、動物を追尾被写体として被写体追尾処理を開始することができる。
また、このように複数の検出器を動作させて追尾被写体を認識して被写体追尾処理が開始されたとき、検出器切り替え部26は、追尾被写体を検出に用いられた検出器以外の検出器の動作を停止させることができる。これにより、画像処理部16において実行される処理を減らすことができ、例えば、電力の使用を抑制することができる。
次に、図11は、図10のステップS14におけるタッチ許容枠設定処理を説明するフローチャートである。
ステップS31において、タッチ許容枠設定処理部33は、タッチ判定部34がタッチ位置を取得したタイミングで表示部14に表示されていた被写体枠に関する情報を、記憶部31から読み出して取得する。
ステップS31の処理後、処理はステップS32に進み、タッチ許容枠設定処理部33は、モード設定部22を参照し、現在設定されている撮像モードを取得し、処理はステップS33に進む。
ステップS33において、タッチ許容枠設定処理部33は、ステップS31で取得した被写体枠に関する情報に基づいて、被写体枠が設定されている被写体の種類を認識する。そして、タッチ許容枠設定処理部33は、その認識した被写体の種類と、ステップS32で取得した撮像モードとに基づいて、予め登録されている基準となる大きさで、被写体枠に対してタッチ許容枠を設定する。
ここで、タッチ許容枠設定処理部33には、被写体枠の大きさに対するタッチ許容枠の基準となる大きさが予め登録されている。また、被写体枠に対するタッチ許容枠の大きさは、図5を参照して説明したように、撮像モードごとに被写体の種類に応じて異なっており、タッチ許容枠設定処理部33には、被写体枠に対するタッチ許容枠の基準となる大きさが撮像モードごとに登録されている。
ステップS33の処理後、処理はステップS34に進み、タッチ許容枠設定処理部33は、動き検出部32を参照して、被写体の動きを取得し、ステップS35において、基準となる大きさで設定したタッチ許容枠を調整する必要があるか否かを判定する。
上述の図7および図8を参照して説明したように、被写体どうしが近づくような動きが検出された場合、それぞれの被写体の相手側となるタッチ許容枠の被写体枠に対する間隔が狭くなるように、タッチ許容枠が調整される。また、近接していた被写体どうしが離れるような動きが検出された場合、狭められていた間隔が広がるように、タッチ許容枠が調整される。従って、タッチ許容枠設定処理部33は、このような被写体の動きが検出された場合、タッチ許容枠を調整する必要があると判定する。
ステップS35において、タッチ許容枠を調整する必要があると判定された場合、処理はステップS36に進み、タッチ許容枠設定処理部33は、被写体の動きに応じてタッチ許容枠を調整し、処理は終了する。
一方、ステップS35において、タッチ許容枠を調整する必要がないと判定された場合、処理はステップS36をスキップして終了する。
以上のように、タッチ許容枠設定処理部33は、撮像モードに応じてタッチ許容枠の大きさを設定しているので、それぞれの撮像モードで優先して撮像される被写体を優先的に追尾被写体として認識することができる。
また、タッチ許容枠設定処理部33は、撮像シーン(即ち、撮像された画像の状況)に応じて、具体的には、画像に写されている被写体の特徴(種類や大きさなど)や、被写体どうしの動きなどに応じて、タッチ許容枠を調整している。これにより、それぞれの撮像シーンに適合する被写体を優先的に追尾被写体として認識することができる。
このように、撮像モードおよび撮像シーンによって適切なタッチ許容枠が設定されるので、ユーザが追尾の対称としたい被写体を的確に認識することができる。
また、被写体が移動している場合には、ユーザがタッチした位置と、被写体が写されている位置とが一致しないことがあり、ユーザの意図とは異なる被写体が追尾被写体として認識されて被写体追尾処理が行われることがある。これに対し、デジタルカメラ11では、タッチ許容枠の範囲を被写体の動きに応じて変更するので、ユーザの意図とは異なる被写体が追尾被写体として認識されることを回避することができ、ユーザが正しい被写体を選択するために複数回タッチを繰り返すこともない。即ち、容易な操作で被写体を的確に選択することができるので、ユーザの負担を軽減することができる。
なお、デジタルカメラ11は、上述した人物モードおよびペットモード以外の撮像モードを備えており、被写体枠設定処理部24および追尾被写体認識部25は、それらの撮像モードで撮像を優先する被写体に被写体枠およびタッチ許容枠を設定することができる。例えば、デジタルカメラ11は、子供の撮像に適した撮像条件で撮像が行われる子供優先モードや、大人の撮像に適した撮像条件で撮像が行われる大人優先モードなどを備えている。
図12には、撮像モードとして子供優先モードが設定されているときの表示部14の画面P19、および、撮像モードとして大人優先モードが設定されているときの表示部14の画面P20が示されている。
画面P19およびP20は、二人の子供および一人の大人が写された同一の構図であり、被写体枠F24およびF25が子供の顔に表示され、被写体枠F26が大人の顔に表示されている。このような画面P19およびP20に対して、ユーザが表示部14の画面をタッチした位置が、画面P19およびP20に示されている指マークの先端のように、被写体枠F25とF26との間であったとする。
この場合、撮影モードが子供優先モードであれば、被写体枠F25が設定されている子供が追尾被写体として認識され、撮影モードが大人優先モードであれば、被写体枠F26が設定されている大人が追尾被写体として認識される。このように、デジタルカメラ11では、ユーザのタッチ位置が被写体枠F25とF26との間であっても、撮像モードを参照することによりユーザの意図を推定して、的確に追尾被写体を認識することができる。
また、デジタルカメラ11は、水中モードや、料理モード、草花モードなどの撮像モードを備えており、それぞれの撮像モードに適した被写体に対して被写体枠が設定され、タッチ許容枠が調整される。即ち、被写体枠設定処理部24は、図1に示した顔検出器28−1および動物検出器28−2以外に、魚検出器や、料理検出器、草花検出器などを備えることができる。動物検出器28−2として、犬顔検出器や猫顔検出器を有していてもよい。また、デジタルカメラ11は、撮像モードとして、風景モードや夜景モードなどを備えていてもよい。
なお、これらの撮像モードは、ユーザがデジタルカメラ11を操作することにより設定される他、デジタルカメラ11において画像を解析することで、撮像状況に応じて最適な撮像が行われるように自動的に設定されるようにすることができる。
また、本実施の形態においては、顔検出器28−1が常に動作しているものとして説明したが、このように検出器が定常的に動作していなくてもよく、ユーザがタッチする前に、表示部14に被写体枠が表示されていない状態であってもよい。即ち、ユーザがタッチしたタイミングで検出器の動作が開始されるようにしてもよい。
なお、本実施の形態においては、ユーザが表示部14の画面をタッチすることにより追尾したい被写体を選択しているが、その他の手段により、例えば、操作キーを操作することにより被写体を選択してもよい。また、予め被写体を画角に合わせるためのガイド枠を利用して被写体を選択してもよい。
なお、本発明は、デジタルスチルカメラやデジタルビデオカメラなどのデジタルカメラの他、携帯電話機やパーソナルコンピュータなど、撮像機能を備えた装置に適用することができる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インタネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。また、プログラムは、1のCPUにより処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 デジタルカメラ, 12 レンズ, 13 撮像部, 14 表示部, 15 外部I/F, 16 画像処理部, 21 画像メモリ, 22 モード設定部, 23 タッチ検出部, 24 被写体枠設定処理部, 25 追尾被写体認識部, 26 検出器切り替え部, 27 被写体追尾処理部, 28−1 顔検出器, 28−2 動物検出器, 31 記憶部, 32 動き検出部, 33 タッチ許容枠設定処理部, 34 タッチ判定部, 35 認識部
Claims (10)
- 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、
前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、
ユーザにより指定された画像上の指定位置を検出する位置検出手段と、
前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段と
を備える画像処理装置。 - 前記被写体枠設定手段は、複数種類の前記被写体をそれぞれ検出可能な複数の被写体検出器を有しており、前記認識手段により追尾の対象となる被写体を認識することができなかった場合、動作させていた前記被写体検出器以外の被写体検出器の動作を開始させて他の種類の前記被写体を検出させる
請求項1に記載の画像処理装置。 - 前記許容枠設定手段は、前記画像に写されている前記被写体の大きさに応じて、前記被写体枠に対する前記許容枠の大きさを設定する
請求項1に記載の画像処理装置。 - 前記許容枠設定手段は、前記画像に写されている前記被写体の種類に応じて、前記被写体枠に対する前記許容枠の間隔を設定する
請求項1に記載の画像処理装置。 - 前記許容枠設定手段は、前記画像に写されている前記被写体の動きに応じて、前記被写体枠に対する前記許容枠の間隔を調整する
請求項1に記載の画像処理装置。 - 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、
前記画像の状況に応じて、前記被写体枠よりも広い範囲の許容枠を設定し、
ユーザにより指定された画像上の指定位置を検出し、
前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識する
ステップを含む画像処理方法。 - 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定する被写体枠設定手段と、
所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定する許容枠設定手段と、
ユーザにより指定された画像上の指定位置を検出する位置検出手段と、
前記許容枠設定手段により設定された前記許容枠と前記位置検出手段により検出された前記指定位置とに基づいて、追尾の対象となる被写体を認識する認識手段と
を備える画像処理装置。 - 前記被写体枠設定手段は、複数種類の前記被写体をそれぞれ検出可能な複数の被写体検出器を有しており、前記認識手段により追尾の対象となる被写体を認識することができなかった場合、動作させていた前記被写体検出器以外の被写体検出器の動作を開始させて他の種類の前記被写体を検出させる
請求項7に記載の画像処理装置。 - 前記許容枠設定手段は、前記画像に複数種類の前記被写体が写されているとき、現在設定されている撮像モードに適合する被写体の前記許容枠を、その撮像モードに適合しない被写体の前記許容枠よりも大きく設定する
請求項7に記載の画像処理装置。 - 画像に写されている被写体を検出する被写体検出器を動作させることにより前記画像から検出された前記被写体の所定範囲を囲う被写体枠を設定し、
所定の被写体に適した撮像条件で撮像を行うために設定される撮像モードに応じて、前記被写体枠よりも広い範囲の許容枠を設定し、
ユーザにより指定された画像上の指定位置を検出し、
前記許容枠と前記指定位置とに基づいて、追尾の対象となる被写体を認識する
ステップを含む画像処理方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010151951A JP2012015889A (ja) | 2010-07-02 | 2010-07-02 | 画像処理装置および画像処理方法 |
US13/109,281 US8643740B2 (en) | 2010-07-02 | 2011-05-17 | Image processing device and image processing method |
EP11167246.5A EP2402884A3 (en) | 2010-07-02 | 2011-05-24 | Image processing device and image processing method |
CN201110171591.5A CN102316263B (zh) | 2010-07-02 | 2011-06-24 | 图像处理设备和图像处理方法 |
US14/043,964 US8947553B2 (en) | 2010-07-02 | 2013-10-02 | Image processing device and image processing method |
US14/556,685 US9311712B2 (en) | 2010-07-02 | 2014-12-01 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010151951A JP2012015889A (ja) | 2010-07-02 | 2010-07-02 | 画像処理装置および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012015889A true JP2012015889A (ja) | 2012-01-19 |
Family
ID=45002172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010151951A Withdrawn JP2012015889A (ja) | 2010-07-02 | 2010-07-02 | 画像処理装置および画像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (3) | US8643740B2 (ja) |
EP (1) | EP2402884A3 (ja) |
JP (1) | JP2012015889A (ja) |
CN (1) | CN102316263B (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013161250A1 (ja) * | 2012-04-26 | 2013-10-31 | パナソニック株式会社 | ストロボ装置およびそれを備える撮像装置 |
JP5640175B2 (ja) * | 2012-03-16 | 2014-12-10 | 富士フイルム株式会社 | 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法 |
JP2017112488A (ja) * | 2015-12-16 | 2017-06-22 | キヤノン株式会社 | 撮像装置、その制御方法、および制御プログラム |
JP2017143431A (ja) * | 2016-02-10 | 2017-08-17 | キヤノン株式会社 | 撮像装置、その制御方法、プログラム及び記憶媒体 |
JPWO2017169293A1 (ja) * | 2016-03-28 | 2019-02-14 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置 |
WO2020080037A1 (ja) * | 2018-10-18 | 2020-04-23 | パナソニックIpマネジメント株式会社 | 撮像装置 |
US11570352B2 (en) | 2021-02-26 | 2023-01-31 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof, imaging apparatus, and storage medium |
WO2024101677A1 (ko) * | 2022-11-08 | 2024-05-16 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5485712B2 (ja) * | 2010-01-07 | 2014-05-07 | 株式会社ザクティ | 電子カメラ |
JP5136669B2 (ja) * | 2011-03-18 | 2013-02-06 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2013048430A1 (en) * | 2011-09-30 | 2013-04-04 | Hewlett-Packard Development Company, L.P. | Authentication systems and methods |
JP5854280B2 (ja) * | 2012-10-03 | 2016-02-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
CN103813075A (zh) * | 2012-11-07 | 2014-05-21 | 联想(北京)有限公司 | 一种提醒方法和电子设备 |
WO2014132465A1 (ja) * | 2013-02-28 | 2014-09-04 | 株式会社ニコン | 電子機器 |
US11096668B2 (en) | 2013-03-13 | 2021-08-24 | Samsung Electronics Co., Ltd. | Method and ultrasound apparatus for displaying an object |
WO2014142468A1 (en) | 2013-03-13 | 2014-09-18 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
US10769362B2 (en) | 2013-08-02 | 2020-09-08 | Symbol Technologies, Llc | Method and apparatus for capturing and extracting content from documents on a mobile device |
US10140257B2 (en) | 2013-08-02 | 2018-11-27 | Symbol Technologies, Llc | Method and apparatus for capturing and processing content from context sensitive documents on a mobile device |
JP6701512B2 (ja) | 2013-09-24 | 2020-05-27 | ソニー株式会社 | 撮影装置、撮影方法、およびプログラム |
JP6942464B2 (ja) * | 2016-12-09 | 2021-09-29 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP2020136899A (ja) * | 2019-02-19 | 2020-08-31 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、電子機器、および撮像方法 |
CN109981982B (zh) * | 2019-03-25 | 2021-02-19 | 联想(北京)有限公司 | 控制方法、装置以及系统 |
TWI706335B (zh) * | 2019-10-17 | 2020-10-01 | 國立交通大學 | 物件特徵定位裝置及雷射與攝像整合系統 |
CN112926479A (zh) * | 2021-03-08 | 2021-06-08 | 新疆爱华盈通信息技术有限公司 | 猫脸识别方法、系统、电子装置及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006101186A (ja) | 2004-09-29 | 2006-04-13 | Nikon Corp | カメラ |
JP4457358B2 (ja) * | 2006-05-12 | 2010-04-28 | 富士フイルム株式会社 | 顔検出枠の表示方法、文字情報の表示方法及び撮像装置 |
JP2008187591A (ja) * | 2007-01-31 | 2008-08-14 | Fujifilm Corp | 撮像装置及び撮像方法 |
JP2009010777A (ja) * | 2007-06-28 | 2009-01-15 | Sony Corp | 撮像装置、撮影制御方法、プログラム |
JP5039786B2 (ja) * | 2007-07-23 | 2012-10-03 | パナソニック株式会社 | 撮像装置 |
JP2010011441A (ja) * | 2008-05-26 | 2010-01-14 | Sanyo Electric Co Ltd | 撮像装置及び画像再生装置 |
JP2010151951A (ja) | 2008-12-24 | 2010-07-08 | Mitsubishi Electric Engineering Co Ltd | 特定方向画像表示システム |
-
2010
- 2010-07-02 JP JP2010151951A patent/JP2012015889A/ja not_active Withdrawn
-
2011
- 2011-05-17 US US13/109,281 patent/US8643740B2/en not_active Expired - Fee Related
- 2011-05-24 EP EP11167246.5A patent/EP2402884A3/en not_active Withdrawn
- 2011-06-24 CN CN201110171591.5A patent/CN102316263B/zh not_active Expired - Fee Related
-
2013
- 2013-10-02 US US14/043,964 patent/US8947553B2/en active Active
-
2014
- 2014-12-01 US US14/556,685 patent/US9311712B2/en active Active
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5640175B2 (ja) * | 2012-03-16 | 2014-12-10 | 富士フイルム株式会社 | 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法 |
US9167166B2 (en) | 2012-03-16 | 2015-10-20 | Fujifilm Corporation | Image display device, imaging apparatus mounted with image display device as finder device, and image display method |
WO2013161250A1 (ja) * | 2012-04-26 | 2013-10-31 | パナソニック株式会社 | ストロボ装置およびそれを備える撮像装置 |
JP2017112488A (ja) * | 2015-12-16 | 2017-06-22 | キヤノン株式会社 | 撮像装置、その制御方法、および制御プログラム |
JP2017143431A (ja) * | 2016-02-10 | 2017-08-17 | キヤノン株式会社 | 撮像装置、その制御方法、プログラム及び記憶媒体 |
JP7174894B2 (ja) | 2016-03-28 | 2022-11-18 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置 |
JPWO2017169293A1 (ja) * | 2016-03-28 | 2019-02-14 | パナソニックIpマネジメント株式会社 | 映像処理装置、映像処理システム、映像処理方法、及び映像出力装置 |
WO2020080037A1 (ja) * | 2018-10-18 | 2020-04-23 | パナソニックIpマネジメント株式会社 | 撮像装置 |
JP7113364B2 (ja) | 2018-10-18 | 2022-08-05 | パナソニックIpマネジメント株式会社 | 撮像装置 |
US11431893B2 (en) | 2018-10-18 | 2022-08-30 | Panasonic Intellectual Property Management Co., Ltd. | Imaging apparatus |
JPWO2020080037A1 (ja) * | 2018-10-18 | 2021-02-15 | パナソニックIpマネジメント株式会社 | 撮像装置 |
US11570352B2 (en) | 2021-02-26 | 2023-01-31 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof, imaging apparatus, and storage medium |
US11838629B2 (en) | 2021-02-26 | 2023-12-05 | Canon Kabushiki Kaisha | Image processing apparatus and control method thereof, imaging apparatus, and storage medium |
WO2024101677A1 (ko) * | 2022-11-08 | 2024-05-16 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN102316263B (zh) | 2016-08-24 |
CN102316263A (zh) | 2012-01-11 |
EP2402884A2 (en) | 2012-01-04 |
EP2402884A3 (en) | 2017-03-29 |
US20120002067A1 (en) | 2012-01-05 |
US20140029799A1 (en) | 2014-01-30 |
US20150085139A1 (en) | 2015-03-26 |
US8643740B2 (en) | 2014-02-04 |
US8947553B2 (en) | 2015-02-03 |
US9311712B2 (en) | 2016-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012015889A (ja) | 画像処理装置および画像処理方法 | |
US10459190B2 (en) | Imaging apparatus, imaging method, and computer-readable recording medium | |
US8654243B2 (en) | Image pickup apparatus and control method thereof | |
JP4561919B2 (ja) | 撮像装置、画像処理装置及び画像処理方法 | |
JP5136669B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20170220228A1 (en) | Display apparatus and method | |
US11184524B2 (en) | Focus control device, focus control method, program, and imaging device | |
JP2010056692A (ja) | 撮像装置およびその制御方法 | |
JP2010258552A (ja) | 撮像装置、撮像方法及びプログラム | |
KR20100055938A (ko) | 장면 정보 표시 방법 및 장치, 및 이를 이용한 디지털 촬영장치 | |
US9560265B2 (en) | Image processing apparatus, image processing method, image processing program, and imaging apparatus | |
JP2012053313A (ja) | 撮像装置、オートズーム方法、及び、プログラム | |
JP2013017218A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US9357133B2 (en) | Digital photographing apparatus, auto-focusing method, and computer-readable storage medium for executing the auto-focusing method | |
JP2008236015A (ja) | 画像処理装置、撮像装置及びそのプログラム | |
JP6465566B2 (ja) | 撮像装置及び撮像方法 | |
JP2005221771A (ja) | 撮像装置及び機能表示方法 | |
WO2020129620A1 (ja) | 撮像制御装置、撮像装置、撮像制御方法 | |
CN110063054A (zh) | 控制设备、控制方法和程序 | |
JP6728024B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
JP6351410B2 (ja) | 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理装置の制御プログラム及び記憶媒体 | |
JP6335064B2 (ja) | 撮像装置、撮像装置の制御方法およびコンピュータプログラム | |
JP2023099384A (ja) | 画像処理装置、画像処理方法および撮像装置 | |
JP2009100133A (ja) | 撮影装置、撮影装置の処理実行方法及びプログラム | |
JP5926062B2 (ja) | ユーザインタフェース装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130903 |