JP4368106B2 - Imaging apparatus and method, and program - Google Patents

Imaging apparatus and method, and program Download PDF

Info

Publication number
JP4368106B2
JP4368106B2 JP2002376101A JP2002376101A JP4368106B2 JP 4368106 B2 JP4368106 B2 JP 4368106B2 JP 2002376101 A JP2002376101 A JP 2002376101A JP 2002376101 A JP2002376101 A JP 2002376101A JP 4368106 B2 JP4368106 B2 JP 4368106B2
Authority
JP
Japan
Prior art keywords
area
imaging
user
subject
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002376101A
Other languages
Japanese (ja)
Other versions
JP2004208122A (en
Inventor
謙太郎 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002376101A priority Critical patent/JP4368106B2/en
Priority to US10/743,760 priority patent/US7551223B2/en
Publication of JP2004208122A publication Critical patent/JP2004208122A/en
Application granted granted Critical
Publication of JP4368106B2 publication Critical patent/JP4368106B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は撮像装置および方法、並びにプログラムに関し、特に、より好適な自動合焦を行うことができるようにした、撮像装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
近年、デジタルスチルカメラや撮像機能を有するPDA(Personal Digital Assistants)等に代表される撮像機能を有する小型の電子機器が普及するとともに、これらの撮像機能の高機能化が進んでいる。
【0003】
例えば、これらの撮像装置は、通常、LCD(Liquid Crystal Display)等のディスプレイを備えており、レンズを介して取り込んだ画像を表示することができ、ユーザは、この表示された画像を見ることによって構図を確認しながら、被写体を撮像することができる。
【0004】
また、ディスプレイにタッチパネルを重畳することにより、ユーザが、構図を確認するだけでなく、ディスプレイに重畳されたタッチパネルを操作することにより、自動合焦機能(以下、AF(Auto Focus)と称する)や、自動露出機能(以下、AE(Auto Exposure)と称する)等を調整することができる撮像装置も存在する。
【0005】
例えば、ユーザが、デジタルスチルカメラに設けられたディスプレイに表示されている取り込み画像の被写体をそのディスプレイ上で指示すると、デジタルスチルカメラは、ディスプレイに重畳されているタッチパネルによってその位置を検出し、ユーザが指示した位置の被写体に焦点を合わせる(例えば、特許文献1参照)。
【0006】
【特許文献1】
特開平11−355617号公報(第5−7ページ、図5−7)
【0007】
【発明が解決しようとする課題】
しかしながら、以上のような方法においては、ユーザがキャプチャボタンを操作し、静止画像をキャプチャする際にも、AF処理が行われ、被写体に焦点を合わせてしまう。
【0008】
従って、予め焦点位置を固定した状態で静止画像を取り込む方法である、いわゆる「置きピン」の撮影を行う場合、ユーザは、フォーカスのモードをマニュアルフォーカスモードにして、予め測定した焦点距離に設定するか、若しくは、キャプチャボタンを、いわゆる「半押し」操作してAF処理のみを実行させ、その「半押し」の状態で、撮影タイミングまで待機しなければならず、煩雑な作業を必要とするという課題があった。
【0009】
特に、撮像機能を有するPDA等においては、ディスプレイにソフトウェアのキャプチャボタンが表示されている場合があり、そのようなソフトウェアのキャプチャボタンにはいわゆる「全押し」操作しか用意されていない場合が多く、ユーザがソフトウェアのキャプチャボタンを操作して、いわゆる「置きピン」の撮影を行うのは難しい。
【0010】
本発明はこのような状況に鑑みてなされたものであり、より好適な自動合焦を行うことができるようにしたものである。
【0011】
【課題を解決するための手段】
本発明の撮像装置は、被写体を撮像し、被写体の画像を取り込む撮像手段と、ユーザにより入力される、撮像範囲内における第1の領域の位置の指定を受け付ける受け付け手段と、受け付け手段により受け付けられた指定に基づいて、第1の領域を撮像範囲内の任意の位置に設定する位置設定手段と、撮像手段による撮像の焦点距離を調整させる第1の指示入力、または、焦点距離を調整させた後、さらに撮像手段により得られた被写体の画像を記録させる第2の指示入力を受け付ける入力手段と、入力手段により第1の指示入力または第2の指示入力が受け付けられたときと、位置設定手段により第1の領域の位置が設定されたときに、焦点距離を調整し、第1の領域に含まれる被写体に合焦させる合焦手段と、第1の領域の位置が設定されたときに合焦手段により被写体に合焦された後は、入力手段により第1の指示入力または第2の指示入力が受け付けられても合焦手段による被写体への合焦を禁止する禁止手段とを備え、位置設定手段は、第1の領域の位置を設定する際に、第1の領域の大きさを、受け付け手段により指定が受け付けられていない場合より小さく設定することを特徴とする。
【0012】
前記位置設定手段は、受け付け手段により指定が受け付けられていない場合、第1の領域の中心が撮像範囲の中心に位置するように、第1の領域の位置を設定するようにすることができる。
【0013】
前記位置設定手段は、受け付け手段により指定が受け付けられた場合、第1の領域の中心が、ユーザが指定した座標に位置するように、第1の領域の位置を設定するようにすることができる。
【0014】
前記撮像手段により被写体を撮像して得られた画像を表示する表示手段をさらに備え、受け付け手段は、表示手段に重畳されたタッチパネルにより構成され、ユーザが表示手段により表示されている画像を確認しながら第1の方法で入力した座標を検出し、指定として受け付けるようにすることができる。
【0015】
前記第1の方法は、ユーザがタッチパネルを1回タップする方法であるようにすることができる。
【0016】
前記第1の領域の設定を初期化して、受け付け手段により指定が受け付けられた状態の設定から、指定が受け付けられていない状態の設定に戻す初期化手段をさらに備え、受け付け手段は、ユーザが第2の方法で入力した、第1の領域の設定の初期化の指示をさらに受け付け、初期化手段は、受け付け手段により受け付けられた指示に基づいて、第1の領域の設定を初期化するようにすることができる。
【0017】
前記第2の方法は、ユーザがタッチパネルを所定の時間内に2回タップする方法であるようにすることができる。
【0018】
前記第2の方法は、ユーザが所定の時間以上接触するようにタッチパネルをタップする方法であるようにすることができる。
【0019】
前記表示手段は、合焦手段により第1の領域に含まれる被写体に合焦した場合、画像に重畳して第1の領域の外枠を所定の回数点滅表示するようにすることができる。
【0020】
前記撮像範囲内の所定の第2の領域を対象として露出を調整する露出調整手段をさらに備え、位置設定手段は、第2の領域の中心が、受け付け手段により受け付けられた指定に基づいて、撮像範囲内の任意の位置に設定した第1の領域の中心に位置するように、第2の領域の位置をさらに設定するようにすることができる。
【0021】
本発明の撮像方法は、撮像部において撮像された被写体の画像の取り込みを制御する取り込み制御ステップと、ユーザにより入力される、撮像部の撮像範囲内における所定の第1の領域の位置の指定の受け付けを制御する受け付け制御ステップと、受け付け制御ステップの処理により制御され、受け付けられた指定に基づいて、第1の領域を、撮像範囲内の任意の位置に、指定が受け付けられていない場合よりも小さく設定する位置設定ステップと、撮像部による撮像の焦点距離を調整させる第1の指示入力、または、焦点距離を調整させた後、さらに撮像部により得られた被写体の画像を記録させる第2の指示入力を受け付けさせる入力制御ステップと、入力制御ステップの処理により制御されて、第1の指示入力または第2の指示入力が受け付けられたときと、位置設定ステップの処理により第1の領域の位置が設定されたときに、焦点距離を調整し、第1の領域に含まれる被写体に合焦させる合焦ステップと、第1の領域の位置が設定されたときに合焦ステップの処理により被写体に合焦された後は、入力制御ステップの制御により第1の指示入力または第2の指示入力が受け付けられても合焦ステップの処理による被写体への合焦を禁止する禁止ステップとを含むことを特徴とする。
【0022】
本発明のプログラムは、撮像部において撮像された被写体の画像の取り込みを制御する取り込み制御ステップと、ユーザにより入力される、前記撮像部の撮像範囲内における所定の第1の領域の位置の指定の受け付けを制御する受け付け制御ステップと、受け付け制御ステップの処理により制御され、受け付けられた指定に基づいて、第1の領域を、撮像範囲内の任意の位置に、指定が受け付けられていない場合よりも小さく設定する位置設定ステップと、撮像部による撮像の焦点距離を調整させる第1の指示入力、または、焦点距離を調整させた後、さらに撮像部により得られた被写体の画像を記録させる第2の指示入力を受け付けさせる入力制御ステップと、入力制御ステップの処理により制御されて、第1の指示入力または第2の指示入力が受け付けられたときと、位置設定ステップの処理により第1の領域の位置が設定されたときに、焦点距離を調整し、第1の領域に含まれる被写体に合焦させる合焦ステップと、第1の領域の位置が設定されたときに合焦ステップの処理により被写体に合焦された後は、入力制御ステップの制御により第1の指示入力または第2の指示入力が受け付けられても合焦ステップの処理による被写体への合焦を禁止する禁止ステップとを含む処理をコンピュータに実現させることを特徴とする。
【0023】
本発明の撮像装置および方法、並びにプログラムにおいては、被写体が撮像され、被写体の画像が取り込まれ、ユーザにより入力される、撮像範囲内における第1の領域の位置の指定が受け付けられ、その指定に基づいて、第1の領域が、撮像範囲内の任意の位置に、指定が受け付けられていない場合よりも小さく設定され、撮像の焦点距離を調整させる第1の指示入力、または、焦点距離を調整させた後、さらに得られた被写体の画像を記録させる第2の指示入力が受け付けられ、第1の指示入力または第2の指示入力が受け付けられたときと、第1の領域の位置が設定されたときに、焦点距離が調整され、第1の領域に含まれる被写体に合焦され、第1の領域の位置が設定されたときに被写体に合焦された後は、第1の指示入力または第2の指示入力が受け付けられても被写体への合焦が禁止される。
【0024】
【発明の実施の形態】
図1は、本発明を適用したPDAの正面の構成例を表す図である。
【0025】
図1に示されるように、PDA1は、中央のヒンジ部12を境に、表示部11と本体部13とに分けられており、ヒンジ部12を介して折り畳み可能に形成されている。
【0026】
換言すると、表示部11は、後述する図3に示されるように、軸12−1(仮想的なもの)を中心として回動して本体部13に対して開閉自在とされている。さらに、表示部11は、軸12−1に対して略垂直な軸11−6(仮想的なもの)を中心として本体部13に対して回動自在とされている。即ち、表示部11は、ヒンジ部12と対向する面11−3(LCD28が設けられている面11−1と垂直な図3中下方の面)と平行に、回動されるようになされている。
【0027】
図1に戻り、表示部11の面11−1のほぼ全面には、LCD(Liquid Crystal Display)28、および、LCD28の表面上に積層された透明な感圧式のタッチパネル36が設けられている。即ち、タッチペン35が、LCD28上の任意の位置に配置されると、その座標がタッチパネル36により検出され、検出された座標に対応する所定の処理が行われる。
【0028】
また、タッチパネル36の所定の領域(LCD28の図中下方の領域)には、文字を入力するための文字入力エリア29が設けられており、文字入力エリア29には、種々のソフトボタンや文字入力エリア等が表示される。ユーザが、タッチペン35を操作して、その文字入力エリア上にそれらの特殊文字を書くと、その特殊文字が入力される。即ち、タッチペン35が移動した軌跡がタッチパネル36により検知され、その軌跡に対応する文字が入力される。
【0029】
さらに、ユーザが、タッチペン35を操作してソフトボタン43を押下すると、文字入力エリア29には、キーボードのキー配列を表示したGUI(Graphical User Interface)であるソフトキーボードが表示される。ユーザが、タッチペン35を操作して、ソフトキーボード上の任意のキーを押下すると、その押下されたキーに対応する文字(または記号等)が入力される。即ち、タッチペン35が配置されている座標がタッチパネル36により検知され、その座標に対応するキーが認識され、認識されたキーに割り当てられている文字(または記号等)が入力される。
【0030】
このように、ユーザは、タッチペン35、および、ソフトウエアとしての文字入力エリア29を利用して、容易、かつ迅速に文字を入力することができる。なお、LCD28の表示面上全体に渡ってタッチパネル36が積層されているので、文字入力エリア29のLCD28に対する位置は、図1に示される位置に限定されず、例えば、後述するように、表示された画像の上下左右が反転されると、文字入力エリア29は、図1中上方に配置され、上下逆に表示される。このような場合においても、ユーザは、上述した例と同様に、文字を入力することができる。
【0031】
ヒンジ部12には、図中右方に、PDA1の電源をオンまたはオフ状態にする電源ボタン31が、その左隣に、PDA1に内蔵されているバッテリ(図示せず)が充電中の場合には点灯し、充電が終了すると消灯するLED(Light Emitting Diode)30が、さらにその左隣に、CCD(Charge Coupled Device)よりなるカメラ部22が、左端には、カメラ部22で被写体を撮像するとき操作されるメカキャプチャボタン23が、それぞれ設けられている。カメラ部22は、ヒンジ部12の、表示部11とともに本体部13に対して回動する部分に固定されており、後述するように、ユーザは、表示部11を本体部13に対して開閉させることにより、カメラ部22を回動させることができる。
【0032】
即ち、ユーザは、被写体を撮像する場合、メカキャプチャボタン23を1回押下して、カメラ機能(被写体をカメラ部22により撮像し、その撮像された被写体の画像を記録する機能)を有するアプリケーションソフトウェアを起動させ、カメラ部22の撮像方向を被写体に向けるように表示部11を回動させる。このとき、LCD28には、後述するように、カメラ部22が撮像している画像(被写体の画像)が表示されるので、ユーザは、LCD28を確認しながらカメラ部22の位置を確定し、さらに、各種の設定処理を行った後、シャッタボタンとして動作するメカキャプチャボタン23を再度押下する。これにより、メカキャプチャボタン23が押下された時点のカメラ部22により撮像された画像が、PDA1のメモリ(後述する図8のRAM133等)に記憶される。
【0033】
なお、メカキャプチャボタン23には、押下の方法として、ストロークの最後まで押下する「全押し」と、ストロークの途中である所定の位置まで押下する「半押し」とがある。例えば、ユーザがメカキャプチャボタン23を「半押し」すると、PDA1はカメラ部22において撮影される画像のAF処理やAE処理等を行い、その状態から、ユーザがメカキャプチャボタン23を「全押し」すると、PDA1はカメラ部22より取り込まれた画像をキャプチャする。このように、メカキャプチャボタン23は、押下の方法(深さ)によって、対応する処理を変えるようにすることができる。
【0034】
なお、ユーザがメカキャプチャボタン23を押下していない状態から「全押し」した場合は、PDA1は「半押し」に対応する処理を行った後、「全押し」に対応する処理を実行する。即ち、上述したような場合、ユーザが「全押し」すると、PDA1はカメラ部22において撮影される画像のAF処理やAE処理等を行った後、カメラ部22より取り込まれた画像をキャプチャする。
【0035】
本体部13の折り畳んだとき表示部11に対向する面13−1には、図中上方に、PDA1にインストールされているアプリケーションソフトウェアのそれぞれを表すシンボルが印刷されたボタン32が設けられており、ユーザがその指でボタン32を押下すると、それに対応するアプリケーションソフトウェアが起動される。
【0036】
また、面13−1のボタン32が配置されている領域の中央部には、LCD28に表示されている画像をスクロールするためのスクロールボタン33が設けられている。さらに、面13−1のボタン32の下方には、文字(記号等を含む)を入力するためのキーボード34が設けられている。
【0037】
本体部13の面13−1と垂直な面(側面)13−2の、図中上方には、リモートコントローラ、または、外部のヘッドホンと接続し、接続したそれらに音声を出力するためのヘッドホンジャック24が設けられており、その下方には、押下および回転自在なジョグダイヤル25が面13−2から僅かに突出した状態で設けられており、その下方には、直前の操作を取り消したりするためのバックボタン26が設けられており、さらにその下方には、誤って他のボタンが押下された場合、それに対応する機能の実行を禁止するためのホールドスイッチ27が設けられている。
【0038】
本体部13の面13−1に垂直な面(図中下側の端面)13−4の、中央部には、付属機器を接続するためのコネクタ67が設けられている。
【0039】
図2は、PDA1の裏面の構成例を表している。図2に示されるように、ヒンジ部12の図中左側上部には、抜き差し自在な所定のメモリカードや機能拡張モジュールが装着されるスロット64、メモリカード内のデータが読み書きされている場合に点灯するランプ63、および、赤外線で他の装置と通信するための赤外線ポート62が設けられている。
【0040】
メモリカードは、例えば、小型薄型形状のプラスチックケース内に電気的に書き換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したものであり、画像や音声、音楽等の各種情報(データ)の書き込みおよび読み出しが可能となっている。
【0041】
またメモリカードは、大容量化等による内蔵フラッシュメモリの仕様変更に対しても、使用する機器で互換性を確保することができる独自のシリアルプロトコルを採用し、最大書込速度1.5[MB/S] 、最大読出速度2.45[MB/S]の高速性能を実現していると共に、誤消去防止スイッチを設けて高い信頼性を確保しているようにしてもよい。
【0042】
従って、PDA1は、このようなメモリカードを挿着することができるために、メモリカードを介して他の装置との間でデータの共有化を図ることができる。
【0043】
本体部13の面13−1の反対側の面13−3の中央部の図中左側には、PDA1をリセットするためのリセットボタン65が設けられており、その下方には、音声を出力するためのスピーカ66が設けられている。
【0044】
本体部13の面13−1,13−3に垂直な面(図中下側の端面)13−4の、中央部には、上述したように、コネクタ67が設けられており、その図中左方には、タッチペン35を収納する収納口68が設けられている。
【0045】
次に、表示部11の開閉および回動の操作について、図面を参照して、以下、詳しく説明する。
【0046】
図3に示されるように、ユーザは、表示部11を、軸11−6を中心として回動させることができる。さらに、図4に示されるように、ユーザは、表示部11を、軸11−6を中心として略180度回動させた後、軸12−1を中心として回動させ、図5に示されるように、本体部13に対して閉じることができる。即ち、ユーザは、図1に示される状態のみならず、図5に示されるような状態で、PDA1を利用することができる。
【0047】
例えば、いま、LCD28には、図3に示されるような文字「F」が表示されているものとする。即ち、文字「F」の上方向は、表示部の面11−4側(図3中上方向)に表示されているものとする。
【0048】
このとき、PDA1は、表示部11が所定の基準位置から回動された場合、表示部11の軸11−6を中心とする回動角度を検出し、その回動角度が、表示部11が回動可能な範囲(この例では、図1に示されるように表示部11が配置された場合の回動角度が0度とされると、0度以上180度以下の範囲)のうちの所定の範囲(この例では、0度以上180度未満)に含まれる場合、画像(文字「F」)の上方向を面11−4側とするように、文字「F」をLCD28に表示させる。
【0049】
一方、PDA1は、その回動角度が、その範囲から外れると(この例では、180度になると)、文字「F」の上方向を、面(端面)11−4の反対側の面(端面)11−3側とするように、文字「F」をLCD28に表示させる。換言すると、PDA1は、表示部11の回動角度が所定の範囲から外れた場合、回動角度がその範囲に含まれる場合の画像(例えば、上方向が面11−4側となる文字「F」)に対して、上下左右を反転させた画像(例えば、上方向が面11−3と反対側の面11−3側となる文字「F」)を、LCD28に表示させる。
【0050】
具体的には、図3に示される状態の場合、表示部11の回動角度は180度未満であるので(上述した所定の範囲に含まれるので)、文字「F」は、その上方向が面11−4側(図3中上方向)とされるようにLCD28に表示される。
【0051】
一方、図4と図5に示される状態の場合、表示部11の回動角度は180度であるので(上述した所定の範囲から外れるので)、文字「F」は、その上方向が面11−4の反対側の面11−3側(図4中下方向)とされるようにLCD28に表示される。
【0052】
このように、PDA1は、その表示部11の回動および開閉状態によらず、ユーザにとって自然な方向に画像を表示させることが可能になる。
【0053】
さらに、ユーザは、PDA1が図4に示される状態のみならず、図1に示される状態の場合も、表示部11を、軸12−1を中心として回動させ、本体部13に対して閉じることができる。即ち、ユーザは、図示は省略するが、PDA1を持ち運びする場合等に、PDA1を図5に示されるようなLCD28が外側に露出した状態にしないことで、PDA1(特にLCD28)を保護することができる。
【0054】
また、以上のように表示部11を回動させることにより、ユーザは、カメラ部22の向き、即ち、撮影方向を変更することができる。
【0055】
例えば、図6に示されるように、PDA1のユーザと反対側に位置する他人101を被写体とする場合(PDA1から見てユーザと反対の方向を撮影する場合)、ユーザは、PDA1を図5に示される状態(表示部11を本体部13に対して閉じた状態)にすることにより、LCD28をユーザに向けたまま、カメラ部22の撮影方向をPDA1のユーザと反対側(即ち、被写体である他人101の方向に)に向けることができる。これにより、ユーザは、PDA1のLCD28に表示されたカメラ部22より取り込まれた取り込み画像を確認しながら、PDA1の反対側に位置する被写体である他人101を撮像することができる。
【0056】
一方、図7に示されるように、PDA1のユーザ102が自分自身を被写体とする場合(PDA1から見てユーザ102の方向を撮影する場合)、ユーザ102は、PDA1を図1に示される状態(表示部11を本体部13に対して開いた状態)にすることにより、LCD28をユーザ102に向けたまま、カメラ部22の撮影方向もユーザ102の方向(即ち、被写体である自分自身の方向に)に向けることができる。これにより、ユーザ102は、PDA1のLCD28に表示されたカメラ部22より取り込まれた取り込み画像を確認しながら、PDA1の同じ側に位置する被写体である自分自身を撮像することができる。
【0057】
以上のようにして、ユーザは、PDA1に対するカメラ部22の方向、即ち、撮影方向を設定することができ、常に、LCD28に表示された取り込み画像を確認し、タッチパネル36を用いて調整作業を行いながら、撮影作業を行うことができる。
【0058】
図8は、PDA1の内部の構成例を示すブロック図である。
【0059】
CPU(Central Processing Unit)131は、ROM(Read Only Memory)132に記憶されているプログラム、または記憶部139からRAM(Random Access Memory)133にロードされたプログラムに従って各種の処理を実行する。
【0060】
RAM133にはまた、CPU131が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0061】
CPU131、ROM132、およびRAM133は、バス134を介して相互に接続されている。このバス134にはまた、LCD28に表示させる画像を制御する表示制御部136が接続されている。
【0062】
表示制御部136には、CPU131の制御に基づいて、上述したカメラ部22、および、LCD28の他、VRAM138が接続されている。表示制御部136は、カメラ部22により撮像された画像を、VRAM138に記憶させ、そのVRAM138に記憶されている画像や、他のメモリ(RAM133、記憶部139、スロット64に接続されたメモリカード143)に記憶されている画像を、LCD28に表示させる。
【0063】
バス134にはさらにまた、入出力インタフェース135も接続されている。
【0064】
入出力インタフェース135には、上述したキーボード34、各種ボタン22,32,33、および、ジョグダイヤル25等からなる入力部137、タッチパネル36、赤外線通信ポート62、メモリカード143若しくは機能拡張モジュール121が装着されるスロット64、PDA1が内蔵するバッテリ(図示せず)を充電させるとともに、他の外部装置152との通信の中継装置となるクレードル91等が接続されるコネクタ67、並びに、リモートコントローラ101若しくはヘッドホン153と接続される音声出力部としてのヘッドホンジャック24が接続されている。
【0065】
なお、タッチパネル36により検出された座標は、入出力インタフェース135、バス134を介してCPU131に提供され、CPU131は、提供されたその座標に対応する所定の情報を取得する。
【0066】
例えば、後述するように、撮影時に、ユーザが、LCD28に表示された取り込み画像上の任意の位置をタップすると、タッチパネル36は、そのユーザがタップした位置の座標を検出し、その座標情報を入出力インタフェース135、バス134を介してCPU131に提供する。CPU131は、その提供された座標情報より、取り込み画像上の位置であることを確認すると、その位置に所定のサイズのAF枠を移動させるなど、各部を制御して対応する処理を実行する。
【0067】
入出力インタフェース135にはまた、必要に応じて、EEPROMまたはハードディスクなどより構成される記憶部139が接続される。外部装置152に適宜装着される磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどから読み出されたコンピュータプログラムは、赤外線ポート62を介する無線通信、無線LANモジュール(機能拡張モジュール)121を介する無線通信、または、クレードル91を介する有線通信等の手段により、必要に応じてPDA1に対して供給され、記憶部139にインストールされる。または、スロット64に適宜装着されるメモリカード143から読み出されたコンピュータプログラムも、必要に応じて記憶部139にインストールされる。
【0068】
入出力インタフェース135にはさらにまた、表示部11が本体部13に対して閉状態の場合、オン状態となり、かつ、表示部11が本体部13に対して開状態の場合、オフ状態となるLCD開閉スイッチ144、および、表示部11が所定の回動角度以上回動された場合にオン状態となるLCD回転スイッチ145が設けられている。
【0069】
即ち、この例においては、CPU131は、LCD開閉スイッチ144と、LCD回転スイッチ145の、それぞれのオン状態またはオフ状態に基づいて、表示部11の本体部13に対する開閉の状態(以下、LCD開閉状態と称する)、および回動状態を認識する。
【0070】
カメラ部22は、図9に示されるように構成される。図示せぬ被写体からの光はレンズ部201を介して、前面にイエロー(Ye)、シアン(Cy)、マゼンタ(Mg)、およびグリーン(G)のカラーフィルタがモザイク状に配列された補色系フィルタが装着された、CCD(Charge Coupled Device)等を用いた撮像素子により構成されるCCD202に入射され、光電変換される。
【0071】
CCD202は、受光部において光電変換した映像信号を出力し、AGC(Automatic Gain Control)回路203に供給する。AGC回路203は、映像信号のゲインを調整し、そのゲインが調整された映像信号をCDS回路(Correlated Double Sampling circuit)204に供給する。CDS回路204は、入力された映像信号に相関二重サンプリングを施してノイズを除去した後、A/D(Analog / Digital)変換回路205に供給する。
【0072】
A/D変換回路205は、入力されたアナログ信号を所定のサンプリング周波数でデジタル信号に変換し、取り込まれた画像データを処理するDSP(Digital Signal Processor)206に供給する。
【0073】
DSP206は、EEPROM(Electrically Erasable and Programmable Read only Memory)207にインストールされたプログラムやデータを用いて、内蔵するSDRAM(Synchronous Dynamic Random Access Memory)等の半導体メモリにより構成される内蔵RAM206Aを用いて、供給された映像信号を保持して所定のフォーマットの画像データを生成し、さらに、生成された画像データに、画質調整や、圧縮処理等の各種のデジタル処理を施す。そして、DSP206は、生成された画像データを図8の表示制御部136に供給する。
【0074】
また、DSP206は、画像データのデジタル処理の際に、レンズ部201乃至A/D変換回路205を制御するための情報をカメラ制御部210に供給する。
【0075】
カメラ制御部210は、DSP206より供給された情報、および図8のCPU131より供給された制御情報に基づいて、レンズ部駆動回路211を介してレンズ部201のレンズ位置、絞り、またはメカシャッタを制御したり、CCD駆動回路212を介して、CCD202の電気的動作を制御したりするとともに、AGC回路203、CDS回路204、およびA/D変換回路205の動作タイミング等を制御する。
【0076】
レンズ部駆動回路211は、モータ等により構成され、カメラ制御部210より供給された制御信号に基づいて、レンズ部201のレンズ位置を移動させて焦点位置を調整したり、絞りやメカシャッタの開閉を調整して露光量を調整したりする。CCD駆動回路212は、カメラ制御部210より供給されたタイミング信号等に基づいて、CCD202を駆動させる信号を生成し、画像の取り込みタイミング等を調整する。
【0077】
例えば、カメラ制御部210は、CPU131より供給された制御信号に基づいてTTL(Through The Lens)コントラスト検出方式によるオートフォーカス処理を行う。CPU131よりAF領域を指定されると、カメラ制御部210は、DSP206より供給される取り込み画像の信号より、撮影画枠内の、指定されたAF領域のコントラストを検出し、レンズ部駆動回路211を介して、レンズ201のレンズを移動させ、その領域に存在する被写体に焦点が合うように(コントラストが最も高くなるように)、レンズ位置を調整する。
【0078】
ユーザがカメラアプリケーションを起動すると、カメラアプリケーションを実行したCPU131により各部が制御され、カメラ部22を用いた静止画撮像を行うための静止画撮影モードに移行する。その際、CPU131は、LCD28に図10に示されるようなGUIを表示させる。
【0079】
図10において、メイン画面220は、静止画撮影モード時の各種の操作を受け付けるためのGUIであり、取り込み画像やキャプチャされた撮影画像を表示するEVFエリア221、動画像撮影モード用アプリケーションを起動する動画像撮影用アプリケーション呼び出しボタン222、各種のアイコンを表示するアイコンエリア223、各種の設定を行うためのGUIである設定画面を表示させる設定画面呼び出しボタン224、撮影される画像のサイズや画質に関するGUIを表示させるサイズ・画質切り替えボタン225、撮影される画像の露光量を調整するEV(Exposure Value)補正スライダ226、CCD202より静止画像をキャプチャするソフトキャプチャボタン227、撮像して得られた画像データの保存先フォルダを選択するアルバムカテゴリ選択欄228、設定画面において設定された機能を実行するカスタムボタン229、フラッシュのモードを切り替えるフラッシュモード切り替えボタン230、撮影された画像のズームを調整するズームボタン231、撮像して得られた画像データのサムネイル画像を表示する簡易ビューエリア232乃至234、EVFエリア221に表示されている撮影画像の表示を90度ずつ回転させる回転ボタン235、撮像して得られた画像データを削除する削除ボタン236、並びに、画像データのタイトル等、各種の文字データを表示するタイトルバーエリア237により構成されている。
【0080】
図11は、図10のEVFエリア221の詳細な表示例を示す図である。図11に示されるように、EVFエリア221には取り込み画像に重畳して、各種の情報を表示するアイコン群が表示される。フラッシュモードアイコン251は、必要に応じて、現在設定されているフラッシュのモードを表示し、手ブレ警告アイコン252は、撮影時に手ブレが発生した場合、点灯して警告し、バッテリアイコン253は、バッテリの残容量が少なくなり、充電が必要である場合、点灯して通知し、AF・AEロックインジケータ254は、点灯したり点滅したりすることで、AFやAEの状態を表示し、撮影不可通知アイコン255は、撮影画像データを記録するメモリの空き容量が足りない場合等に点灯し、新たな画像のキャプチャが行えないことを通知し、撮影状況モードアイコン256は、夜景モード、屋内モード、遠景モード、または接写モード等のような、状況に応じた撮影処理に関するモードの、現在設定されているモードに応じて点灯し、シャッタスピードアイコン257は、マニュアル設定時に点灯し、現在設定されているシャッタスピードを表示する。
【0081】
また、EVFエリア221には、その他にも、焦点距離を手動で設定する際に表示されるマニュアルフォーカス用ゲージ258、現在の焦点距離を示すポインタであるマニュアルフォーカス用ゲージポインタ259が、マニュアルフォーカス時に表示される。
【0082】
さらに、EVFエリア221には、スポット測光時に測光される領域の中心を示すスポット測光用ポインタ260、および、AF領域の範囲を示すAF枠261が表示される。撮影を行うユーザは、AFのモードによって、このEVFエリア221上をタップすることにより、AF枠261やスポット測光用ポインタ260の位置を移動させることができる。
【0083】
なお、これらのアイコンは、ユーザが設定を行うことにより、表示・非表示を切り替えることができる。
【0084】
以上のようなPDA1において、フォーカスのモードは後述するように3つ用意されており、ユーザは、図10のメイン画面220において、設定画面呼び出しボタン224を操作して(LCD28の設定画面呼び出しボタン224上をタップする等して)、図12に示されるような設定画面を呼び出して、複数用意されたこのフォーカスモードの切り替えを行う。
【0085】
図12は、LCD28に表示される設定画面301の構成例を示す図である。図12において、設定画面301は、各種の設定項目およびそれらの現在の状態を示す設定一覧表示エリア302、設定一覧表示エリア302に一度に表示できない項目を表示するために、設定一覧表示エリア302の表示内容をスクロールするスクロールバー303、設定一覧表示エリア302に表示されている項目を図中下側の方向にスクロールさせる下スクロールボタン304、設定一覧表示エリア302に表示されている項目を図中上側の方向にスクロールさせる上スクロールボタン305、LCD28に表示されている画面をメイン画面220に戻す、戻るボタン306、設定画面301において、設定が反映された取り込み画像を表示し、ユーザがその効果を確認するためのEVFエリア311により構成されている。
【0086】
設定一覧表示エリア302には、例えば、撮影モード、ホワイトバランス、サイズ・クオリティ、スポット測光、記録先、セルフタイマー、およびフォーカスモード等の撮影に関する様々な項目が表示される。ユーザは、スクロールバー303、下スクロールボタン304、若しくは上スクロールボタン305を操作したり、または、ジョグダイヤル25を回転させたりするなどして、設定したい項目を設定一覧表示エリア302に表示させる。そして、項目が表示されている部分をタップするか、ジョグダイヤル25を回転させる等して、設定したい項目にアンカーを移動させる。
【0087】
そして、ユーザは、アンカーが位置する項目の右側の設定内容が表示されている部分をタップするか、ジョグダイヤル25を押下するなどして、アンカーが位置する項目の変更を指示する。例えば、図12において、アンカーは、フォーカスモードに位置しており、この状態で、「常時AF」と表示されている部分をタップするか、ジョグダイヤル25を押下すると、ユーザは、フォーカスモードの設定を変更することができる。
【0088】
ユーザが、図12に示されるように、アンカーをフォーカスモードに位置させて指定すると、LCD28には、図12に示される設定画面301に重畳して、図13に示されるような、設定内容選択画面が表示される。
【0089】
図13において、設定画面301の設定一覧表示エリア302の、ユーザが選択した項目フォーカスモード以外の項目は、暗く表示される。ユーザが選択した項目321の右側には、対応する設定の一覧が表示された設定内容選択画面322が表示される。図13において、設定内容選択画面322には、フォーカスモードに対応する設定として、「マニュアルフォーカス」、「常時AF」、および「ワンショットAF」の3つのモードが表示されており、現在設定されているモード(図13の場合、「常時AF」)には、マークが表示されている。また、設定内容選択画面322において、現在選択されているモード(図13の場合、「ワンショットAF」)には、アンカーが表示されている。
【0090】
ユーザは、図13に示される設定内容選択画面322に表示されている一覧の中から、選択するモードの部分をタップしたり、ジョグダイヤル25を回転させてアンカーを移動させ、押下することで選択するモードを指示したりして、モードの設定を行う。
【0091】
次に、フォーカスの「マニュアルフォーカスモード」、「常時AFモード」、および「ワンショットAFモード」の各モードについて説明する。
【0092】
マニュアルフォーカスモードはユーザが焦点距離を手動で設定するモードである。このとき、図11に示されるように、EVFエリア221には、マニュアルフォーカス用ゲージ258およびマニュアルフォーカス用ゲージポインタ259が表示される。ユーザは、マニュアルフォーカス用ゲージ258に従って、目的の距離の部分を1回タップするか、ジョグダイヤル25を回転させることによって、マニュアルフォーカス用ゲージポインタ259を、マニュアルフォーカス用ゲージ258上の所望の位置に移動させて、焦点距離を設定する。
【0093】
図9のカメラ制御部210は、図8のCPU131より供給された制御信号に基づいて、ユーザが指定した焦点距離に合焦するように、レンズ部駆動回路211を介してレンズ部201のレンズ位置を制御する。
【0094】
なお、マニュアルフォーカス用ゲージポインタ259を初期値(ユーザがマニュアルフォーカス用ゲージポインタ259を移動させる前の最初の位置)に戻したい場合、ユーザは、LCD28を、所定の短い時間の間に2回連続でタップ(以下、ダブルタップと称する)する。CPU131は、タッチパネル36よりユーザがダブルタップしたことを示す情報を取得すると、表示制御部136を制御して、LCD28に表示されているマニュアルフォーカス用ゲージポインタ259を初期値に戻す。
【0095】
常時AFモードは、AF領域内の被写体に対して、カメラ部22がTTLコントラスト検出方式によりAF処理を行うモードである。常時AFモードにおいては、AF領域の位置は、撮影画枠内においてユーザにより任意に決定される。また、AF処理は、ユーザがAF領域を移動させた時、ユーザがメイン画面220のソフトキャプチャボタン227上をタップした時、または、ユーザが図1のメカキャプチャボタン23を「半押し」した時に実行される。さらに常時AFモードにおいては、図14Aに示されるように、EVFエリア221には、AF領域の範囲を示すAF枠261が表示される。
【0096】
初期状態(ユーザがAF領域の位置を移動させていない状態)において、AF枠261の中心は、EVFエリア221の中央に配置される。このとき、AF枠261に示されるAF領域は、撮影画枠の中心からずれた被写体が、AF領域から外れてしまう、いわゆる「中抜け」を抑制するために、例えば、図14Aに示されるように、EVFエリア221の大きさが320ドット×240ドットであるのに対して、108ドット×60ドットと比較的広く設定されている。
【0097】
このとき、ユーザが図10のソフトキャプチャボタン227を操作したり、メカキャプチャボタン23を押下(全押し)したりすると、カメラ制御部210は、CPU131より供給されたAF枠261の位置情報に基づいて、AF枠261が囲むAF領域を対象として、TTLコントラスト検出方式によるAF処理等の調整処理を行った後、画像のキャプチャ処理を行う。なお、メカキャプチャボタン23を半押しした場合は、AF処理等の調整処理のみを行う。これによりユーザは、被写体をEVFエリア221の中央付近に位置させるようにPDA1を移動させ、ソフトキャプチャボタン227またはメカキャプチャボタン23を操作するだけで、被写体に焦点の合った画像を得ることができる。
【0098】
また、このAF枠261の位置は、EVFエリア221内であれば、ユーザが任意に指定することができる。すなわち、ユーザが、図14Bに示されるように、タッチペン35等を用いて、EVFエリア221上を1回タップすると、CPU131は、タッチパネル36より供給された位置情報に基づいて、ユーザがタップした位置がAF領域の中心となるように、AF枠261を移動させる。
【0099】
この場合、ユーザは、通常、焦点を合わせたい被写体をタップするので、いわゆる「中抜け」の現象が発生する可能性は低い。逆に、不必要にAF領域が広いと、AF領域内のユーザが指定した被写体と異なる被写体に焦点が合う可能性が大きくなってしまう。従って、このように、ユーザがAF枠261の位置を指定した場合、AF領域は、図14Bに示されるように、図14Aに示される場合(ユーザがAF枠261の位置を指定していない場合)のAF領域(108ドット×60ドット)より狭い範囲(30ドット×30ドット)に設定される。
【0100】
このとき、カメラ制御部210は、CPU131より供給されたAF枠261の位置情報に基づいて、AF枠261が囲むAF領域を対象として、TTLコントラスト検出方式によるAF処理を行う。合焦すると、CPU131は、ユーザに通知するために、図14Cに示されるように、EVFエリア221に表示されているAF枠261を所定の時間点滅させる。
【0101】
そして、ユーザが図10のソフトキャプチャボタン227を操作したり、メカキャプチャボタン23を押下(全押し)したりすると、カメラ制御部210は、CPU131より供給されたAF枠261の位置情報に基づいて、AF枠261が囲む領域を対象として、TTLコントラスト検出方式によるオートフォーカス処理を行った後、画像のキャプチャ処理を行う。なお、メカキャプチャボタン23を半分押下する「半押し」した場合は、オートフォーカス処理のみを行う。以上のようにして、ユーザは、被写体がEVFエリア221のどこに位置していても、その被写体に焦点を合わせた画像を容易に得ることができる。
【0102】
AF枠261(AF領域)を初期状態(図14Aに示される状態)に戻したい場合、ユーザは、EVFエリア221上において、ダブルタップを行う。CPU131は、タッチパネル36より供給された、ユーザがダブルタップを行ったことを示す情報に基づいて、表示制御部136を制御して、LCD28に表示されているAF枠261を初期状態に戻し、カメラ制御部210を制御して、AF処理を実行させる。
【0103】
なお、図14Dに示されるように、EVFエリア221に縦方向および横方向の複数のグリッド線を設け、AF枠261の中心の座標は、それらのグリッド線の交点に位置させるようにしてもよい。図14Dにおいては、EVFエリア221には、所定の間隔で、図中縦方向のグリッド線331乃至338、並びに、図中横方向のグリッド線341乃至345が設定されている。ユーザが、EVFエリア221上を1回タップすると、CPU131は、ユーザがタップした位置の位置情報をタッチパネル36より取得し、最も近い位置のグリッド線の交点を算出し、その交点の座標がAF領域の中心となるようにAF枠261を移動させ、カメラ制御部210にAF処理を実行させる。
【0104】
このようにすることにより、AF枠261の位置をある程度限定することが出来るので、ユーザは、より正確に同じ位置にAF枠261を移動させることができるようになる。
【0105】
図14Dに示される例においては、EVFエリア221に、8本の図中縦方向のグリッド線と5本の図中横方向のグリッド線を設けるように説明したが、EVFエリア221に設けるグリッド線の本数は何本であってもよい。また、各グリッド線の間隔は、一定であってもよいし、グリッド線毎に異なるようにしてもよい。さらに、各グリッド線は、LCD28に表示しないようにしてもよい。
【0106】
なお、以上において、EVFエリア221のサイズは、320ドット×240ドットであり、初期状態のAF領域(AF枠261)のサイズは、108ドット×60ドットであり、ユーザがAF領域(AF枠261)の位置を指定した場合のAF領域(AF枠261)のサイズは、30ドット×30ドットであるように説明したが、これらのサイズは、これに限るものではなく、どのようなサイズであってもよい。
【0107】
また、AF領域の範囲を示すAF枠261は、通常時、LCD28に表示されないようにし、AF処理が行われた後の合焦を示す際に、図14Cに示されるように、設定された位置で所定の時間点滅するようにしてもよい。
【0108】
さらに、合焦の通知は、図14Cに示されるようなAF枠261の点滅によって行われるように説明したが、これに限らず、例えば、図11のAF・AEロックインジケータ254のような別のインジケータによって行われるようにしてもよい。
【0109】
ワンショットAFモードは、常時AFモードと同様に、AF領域内の被写体に対して、カメラ部22がTTLコントラスト検出方式によりAF処理を行うモードである。ワンショットAFモードにおいても、図14Aに示されるように、EVFエリア221には、AF領域の範囲を示すAF枠261が表示され、そのAF領域(AF枠261)の位置は、撮影画枠内においてユーザにより任意に決定される。
【0110】
ただし、ワンショットAFモードにおいて、AF処理は、ユーザがAF領域を移動させた時にのみ行われ、ユーザがメイン画面220のソフトキャプチャボタン227上をタップした時、または、ユーザが図1のメカキャプチャボタン23を「半押し」した時には実行されない。すなわち、ワンショットAFモードにおいては、ユーザがメカキャプチャボタン23およびソフトキャプチャボタン227のいずれを操作しても、キャプチャ処理の指示のみが入力されるだけで、AF等の調整処理の指示は入力されないように、CPU131は各部を制御する。
【0111】
AF枠261のサイズや位置等の構成および動作、またはAF枠261の制御方法等は上述した常時AFモードと同様であるので、その説明は省略する。
【0112】
従来においては、AF処理後の焦点距離を固定したまま撮影する、いわゆる「置きピン」の撮影をする場合、ユーザは、シャッタボタンを半押ししてAF処理を行った後、その半押しの状態を維持し、撮影タイミングになった時に、その状態からシャッタボタンを全押ししてキャプチャを指示するなど、煩雑な作業が必要であったが、以上のようなワンショットAFモードにすることで、キャプチャ直前のAF処理を省略することができるので、ユーザは、容易に、「置きピン」の撮影を行うことができる。
【0113】
次に、上述した常時AFモードにおける撮影に関する処理について、具体的に説明する。
【0114】
ユーザがPDA1を操作して、静止画撮影モードを指示すると、PDA1は、静止画撮影モードに移行し、撮像処理を開始する。図15のフローチャートを参照して、撮像処理を説明する。
【0115】
最初に、PDA1のCPU131は、カメラ部22のカメラ制御部210を制御して、カメラ部22を起動し、カメラ部22の初期化処理を行い、ステップS2において、RAM133や記憶部139等に記憶されているカメラ部22に関する設定情報を読み込み、読み込んだ設定情報をカメラ部22のカメラ制御部210に供給し、カメラ部22の設定処理を行う。さらにCPU131は、ステップS3において、表示制御部136を制御して、図10に示されるメイン画面220のような静止画撮影モード用のGUIをLCD28に表示させる。
【0116】
ステップS4において、カメラ部22のDSP206は、レンズ部201より入射され、CCD202において取り込まれた取り込み画像のデータを表示制御部136に供給し、表示制御部136は、その取り込み画像をLCD28に表示させる。
【0117】
ステップS5において、CPU131は、タッチパネル36や入力部137の各ボタンを制御して、ユーザより設定に関する新たな入力が行われ、現在の設定が変更されたか否かを判定する。設定が変更されたと判定した場合、CPU131は、その新たな設定をRAM133や記憶部139等に保存し、処理をステップS7に進める。
【0118】
ステップS5において、設定が変更されていないと判定した場合、CPU131は、ステップS6の処理を省略し、ステップS7に処理を進める。
【0119】
ステップS7において、CPU131は、タッチパネル36や入力部137を監視し、ユーザにより静止画像のキャプチャが指示されたか否かを判定する。指示されたと判定した場合、CPU131は、カメラ部22のカメラ制御部210に画像のキャプチャを指示し、カメラ制御部210は、その指示に基づいて、カメラ部22の各部を制御して、静止画像をキャプチャする。
【0120】
そして、DSP206は、キャプチャした画像の画像データを、画像処理を施した後、表示制御部136に供給し、表示制御部136は、ステップS9において、そのキャプチャした画像をGUIのEVFエリア221に合成し、LCD28に表示させる。キャプチャした画像が表示されるとCPU131は、処理をステップS10に進める。
【0121】
また、ステップS7において、キャプチャが指示されていないと判定した場合、CPU131は、ステップS8およびS9の処理を省略し、ステップS10に処理を進める。
【0122】
ステップS10において、CPU131は、静止画撮影モードを終了するか否かを判定し、終了すると判定した場合、撮像処理を終了する。
【0123】
また、静止画撮影モードを終了しないと判定した場合、CPU131は、処理をステップS4に戻し、それ以降の処理を繰り返す。
【0124】
以上のようにして、PDA1は、静止画撮影モードにおいて撮像処理を実行する。
【0125】
次に、図16および図17のフローチャートを参照して、常時AFモードにおけるAF処理である常時AF処理について説明する。図14Aを参照して上述したように、常時AFモードの初期状態(ユーザがAF枠261の位置を指定していない状態)において、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように、設けられている。
【0126】
CPU131は、ステップS21において、タッチパネル36を制御し、図14Bに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0127】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS22に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0128】
そして、CPU131は、ステップS23において、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給する。カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0129】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS24に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS25に進める。
【0130】
ステップS21において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS22乃至S24の処理を省略し、ステップS25に処理を進める。
【0131】
ステップS25において、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0132】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS26に処理を進め、第1のサイズのAF枠を初期の位置に配置する。すなわち、CPU131は、AF領域の中心がEVFエリア221の中心にくるような位置に、AF枠261を配置する。
【0133】
そして、CPU131は、ステップS27において、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給する。カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0134】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS28に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。点滅が終了するとCPU131は、処理を図17のステップS29に進める。
【0135】
ステップS25において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS26乃至S28の処理を省略し、図17のステップS29に処理を進める。
【0136】
ステップS29において、CPU131は、タッチパネル36および入力部137を監視し、ユーザにより、メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたかを判定する。
【0137】
メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたと判定した場合、CPU131は、ステップS30において、AF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0138】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS31に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS32に進める。
【0139】
ステップS29において、メカキャプチャボタン23が半押し操作されておらず、かつ、メイン画面220上のソフトキャプチャボタン227が操作れていないと判定した場合、CPU131は、ステップS30およびS31の処理を省略し、ステップS32に処理を進める。
【0140】
ステップS32において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図16のステップS21に戻し、それ以降の処理を繰り返す。
【0141】
また、ステップS32において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS33において終了処理を行った後、常時AF処理を終了する。
【0142】
以上のような常時AFモードにより、どのような画像構成であっても、ユーザは、容易に、より好適なAF処理を行った静止画像を得ることができる。
【0143】
次に、図18および図19のフローチャートを参照して、ワンショットAFモードにおけるAF処理であるワンショットAF処理について説明する。上述したように、ワンショットAFモードの初期状態(ユーザがAF枠261の位置を指定していない状態)においても、常時AFモードの場合と同様に、図14Aに示されるように、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように、設けられている。
【0144】
CPU131は、ステップS61において、タッチパネル36を制御し、図14Bに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0145】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS62に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0146】
そして、CPU131は、ステップS63において、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給し、カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0147】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS64に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。
【0148】
CPU131は、ステップS65において、合焦した時点で、カメラ制御部210を制御して、レンズ部201のレンズ位置を固定させ、ステップS66において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。
【0149】
すなわち、CPU131は、ユーザがメカキャプチャボタン23を半押し操作してもフォーカスの調整処理が行われないようにし、ユーザがメカキャプチャボタン23を全押し操作した場合、および、ユーザがソフトキャプチャボタン227を操作した場合、フォーカスの調整処理を行わずに、静止画像のキャプチャのみを行うようにする。
【0150】
半押し処理を無効にしたCPU131は、処理を図19のステップS67に進める。
【0151】
図18のステップS61において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS62乃至S66の処理を省略し、図19のステップS67に処理を進める。
【0152】
図19のステップS67において、CPU131は、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0153】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS68に処理を進め、第1のサイズのAF枠を初期の位置に配置する。すなわち、CPU131は、AF領域の中心がEVFエリア221の中心にくるような位置に、AF枠261を配置する。
【0154】
そして、ステップS69において、カメラ制御部210は、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整する。
【0155】
そして、フォーカス調整処理により合焦すると、CPU131は、処理をステップS70に進め、AF枠の位置、およびフォーカス処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261を所定の時間点滅させる。
【0156】
CPU131は、ステップS65およびS66の場合と同様に、ステップS71において、合焦した時点で、カメラ制御部210を制御して、レンズ部201のレンズ位置を固定させ、ステップS72において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。そして、CPU131は、処理をステップS73に進める。
【0157】
ステップS67において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS68乃至S72の処理を省略し、ステップS73に処理を進める。
【0158】
ステップS73において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図18のステップS61に戻し、それ以降の処理を繰り返す。
【0159】
また、ステップS73において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS74において終了処理を行った後、ワンショットAF処理を終了する。
【0160】
以上のようなワンショットAFモードにより、いわゆる「置きピン」の撮影においても、ユーザは、容易に、より好適なAF処理を行った静止画像を得ることができる。
【0161】
以上においては、AF処理について説明したが、露光調整(AE処理)時に、狭い領域に対して測光処理を行うスポット測光の際に、撮影画枠の中心だけでなく、上述したAF領域のようにユーザがその位置を指定することができるようにしてもよい。
【0162】
ユーザが、図12に示される設定画面301において、アンカーをスポット測光に位置させて指定すると、LCD28には、図12に示される設定画面301に重畳して、図20に示されるような、設定内容選択画面が表示される。
【0163】
図20において、設定画面301の設定一覧表示エリア302の、ユーザが選択した項目スポット測光以外の項目は、暗く表示される。ユーザが選択した項目351の右側には、対応する設定の一覧が表示された設定内容選択画面352が表示され、スポット測光に対応する設定として、「切」および「入」の2つのモードが表示される。現在設定されている「切」には、マークが表示されており、現在選択されている「入」には、アンカーが表示されている。
【0164】
ユーザは、図20に示される設定内容選択画面352に表示されている一覧の中から、「入」の部分をタップしたり、ジョグダイヤル25を回転させてアンカーを移動させ、押下したりすることで、スポット測光モードを指示することができる。
【0165】
通常のAE処理は、図21Aに示されるように、EVFエリア221(撮影画枠)のほぼ全域であるAE領域361を対象として行われる。図20において、ユーザがスポット測光モードを設定すると、AE領域361は、図21Bに示されるように、図21Aの場合より狭くなり、AE領域の中心を示すAE処理は、この狭いAE領域361を対象として行われる。
【0166】
また、スポット測光モード時は、EVFエリア221に、AE領域361の中心を示すスポット測光用ポインタ260が表示される。
【0167】
なお、この初期状態の場合(ユーザがAE領域361の位置を指定していない場合)、AE領域361は、その中心がEVFエリア221(撮影画枠)の中心に位置するように配置される。
【0168】
このとき、ユーザが図10のソフトキャプチャボタン227を操作したり、メカキャプチャボタン23を押下(全押し)したりすると、カメラ制御部210は、このAE領域を対象として、AE処理等の調整処理を行った後、画像のキャプチャ処理を行う。なお、メカキャプチャボタン23を半押しした場合は、AE処理等の調整処理のみを行う。また、AE処理が完了した時点で、スポット測光用ポインタ260が点滅するようにしてもよいし、所定の確認音が鳴るようにしてもよい。
【0169】
これによりユーザは、ソフトキャプチャボタン227またはメカキャプチャボタン23を操作するだけで、撮影画枠の中心付近のみで露光量が調整された画像(例えば、中央の被写体を浮き上がらせるなどの効果を施した画像)を得ることができる。
【0170】
また、このAE枠361の位置は、EVFエリア221内であれば、ユーザが任意に指定することができる。すなわち、ユーザが、図21Cに示されるように、タッチペン35等を用いて、EVFエリア221上を1回タップすると、CPU131は、タッチパネル36より供給された位置情報に基づいて、ユーザがタップした位置がAE領域361の中心となるように、スポット測光用ポインタ260を移動させ、そのAE領域361を対象としたAE処理をカメラ部22に実行させる。
【0171】
AE領域361を初期状態(図21Aに示される状態)に戻したい場合、ユーザは、EVFエリア221上において、ダブルタップを行う。CPU131は、タッチパネル36より供給された、ユーザがダブルタップを行ったことを示す情報に基づいて、AE領域を初期化するとともに、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を初期状態に戻し、カメラ制御部210を制御して、AE処理を実行させる。
【0172】
なお、図21Dに示されるように、上述した常時AFモードまたはワンショットAFモードにおいて、ユーザがAF枠261を移動させた際に、スポット測光用ポインタ260がAF領域の中心に位置するように、AE領域361も同様に移動させるようにしてもよい。
【0173】
さらに、図示は省略するが、図14Dにの場合と同様に、EVFエリア221に所定の間隔で、複数のグリッド線を設定しておき、ユーザが、EVFエリア221上を1回タップすると、CPU131が、ユーザがタップした位置の位置情報をタッチパネル36より取得し、最も近い位置のグリッド線の交点を算出し、その交点の座標がAE領域361の中心となるようにスポット測光用ポインタ260を移動させ、カメラ制御部210にAE処理を実行させるようにしてもよい。
【0174】
なお、以上において、AE領域361の範囲の広さは、通常時のAE領域361の広さが、スポット測光時の広さよりも広ければ、どのような広さであってもよい。また、AE領域361およびスポット測光用ポインタ260は、EVFエリア221に表示するようにしてもよいし、表示しないようにしてもよい。
【0175】
次に、上述したスポット測光モードにおけるAE処理について、具体的に説明する。ユーザが、図20の設定画面301において、スポット測光項目351で「入」を選択すると、スポット測光モードに移行し、AE領域が、図21Aの状態から、図21Bの状態に変化する。そして、PDA1は、スポットAE処理を開始する。
【0176】
図22および図23のフローチャートを参照して、スポット測光モードにおけるスポットAE処理について説明する。図21Bを参照して上述したように、スポット測光モードの初期状態(ユーザがAE領域361の位置を指定していない状態)において、EVFエリア221には、狭い範囲のAE領域が、その中心がEVFエリア221の中心に位置するように、設定されており、EVFエリア221の中心にスポット測光用ポインタ260が表示されている。
【0177】
CPU131は、ステップS91において、タッチパネル36を制御し、図21Cに示されるように、ユーザによりAE領域の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0178】
タッチパネル36よりタップされた位置の位置情報が供給され、AE領域361の位置が指定されたと判定した場合、CPU131は、ステップS92に処理を進め、供給された位置情報に基づいて、スポット測光用ポインタ260を指定された位置に配置する。すなわち、CPU131は、AE領域361を、ユーザに指定された位置が中心となるように設定する。
【0179】
そして、ステップS93において、カメラ制御部210は、CPU131より供給されたAE領域の位置情報に基づいて、設定されたAE領域361について露出を調整し、AE処理を行う。
【0180】
そして、AE処理が完了すると、CPU131は、処理をステップS94に進め、スポット測光用ポインタ260の位置、およびAE処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS95に進める。
【0181】
ステップS91において、タッチパネル36より位置情報が供給されておらず、AE領域361の位置が指定されていないと判定した場合、CPU131は、ステップS92乃至S94の処理を省略し、ステップS95に処理を進める。
【0182】
ステップS95において、タッチパネル36を制御し、ユーザによりAE領域361の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0183】
タッチパネル36よりダブルタップの情報が供給され、AE領域361の初期化が指示されたと判定した場合、CPU131は、ステップS96に処理を進め、スポット測光用ポインタ260を初期の位置に配置する。すなわち、CPU131は、AE領域の中心がEVFエリア221の中心にくるような位置に、スポット測光用ポインタ260を配置する。
【0184】
そして、ステップS97において、カメラ制御部210は、CPU131に供給されたAE領域361の位置情報に基づいて、設定されたAE領域361について露出を調整し、AE処理を行う。
【0185】
そして、AE処理が終了すると、CPU131は、処理をステップS98に進め、スポット測光用ポインタの位置、およびAE処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理を図23のステップS99に進める。
【0186】
ステップS95において、ユーザにより、AE領域361の初期化が指示されていないと判定した場合、CPU131は、ステップS96乃至S98の処理を省略し、図23のステップS99に処理を進める。
【0187】
図23のステップS99において、CPU131は、タッチパネル36および入力部137を監視し、ユーザにより、メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたかを判定する。
【0188】
メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたと判定した場合、CPU131は、ステップS100において、AE領域361について、AE処理を実行する。
【0189】
そして、AE処理が終了すると、CPU131は、処理をステップS101に進め、スポット測光用ポインタ260の位置、およびAE処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS102に進める。
【0190】
ステップS99において、メカキャプチャボタン23が半押し操作されておらず、かつ、メイン画面220上のソフトキャプチャボタン227が操作れていないと判定した場合、CPU131は、ステップS100およびS101の処理を省略し、ステップS102に処理を進める。
【0191】
ステップS102において、CPU131は、ユーザの指示等に基づいて、スポットAE処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図22のステップS91に戻し、それ以降の処理を繰り返す。
【0192】
また、ステップS102において、スポットAE処理を終了すると判定した場合、CPU131は、ステップS103において終了処理を行った後、スポットAE処理を終了する。
【0193】
以上のようなスポット測光モードにより、ユーザは、容易に、撮影画枠内の任意の位置を対象とするスポットAE処理を行った静止画像を得ることができる。
【0194】
次に、図21Dに示されるように、スポット測光用ポインタ260を、常にAE枠261の中心に位置させるように配置する場合のAF処理およびAE処理について説明する。
【0195】
最初に、上述した場合の、常時AFモードにおいて実行される常時AF処理について、図24および図25のフローチャートを参照して説明する。この場合も、上述した常時AFモードの場合と同様に、初期状態(ユーザがAF枠261の位置を指定していない状態)において、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように配置されている。また、スポット測光モードである場合、図21Bに示されるように、EVFエリア221の中心にスポット測光用ポインタ260が配置されている。
【0196】
CPU131は、ステップS121において、タッチパネル36を制御し、図21Dに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0197】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS122に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0198】
そして、ステップS123において、CPU131は、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS124において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS125に進める。
【0199】
また、ステップS123において、スポット測光モードではないと判定した場合、CPU131は、ステップS124の処理を省略し、ステップS125に処理を進める。
【0200】
ステップS125において、カメラ制御部210は、CPU131より供給されたAF領域およびAE領域361の位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、配置されたAE領域361を対象として露出を調整する。
【0201】
そして、フォーカス調整および露出調整が終了すると、CPU131は、処理をステップS126に進め、AF枠261およびスポット測光用ポインタ260の位置、並びに調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS127に進める。
【0202】
ステップS121において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS122乃至S126の処理を省略し、ステップS127に処理を進める。
【0203】
ステップS127において、CPU131は、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0204】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS128に処理を進め、第1のサイズのAF枠261を初期の位置に配置する。
【0205】
そして、CPU131は、ステップS129において、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS130において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS131に進める。
【0206】
また、ステップS129において、スポット測光モードではないと判定した場合、CPU131は、ステップS130の処理を省略し、ステップS131に処理を進める。
【0207】
ステップS131において、カメラ制御部210は、CPU131より供給されたAF枠261およびスポット測光用ポインタ260の位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象とした露出の調整を行う。
【0208】
そして、それらの調整処理が終了すると、CPU131は、処理をステップS132に進め、AF枠261およびスポット測光用ポインタ260の位置、並びに調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理を図25のステップS133に進める。
【0209】
ステップS127において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS128乃至S132の処理を省略し、図25のステップS133に処理を進める。
【0210】
図25のステップS133において、CPU131は、タッチパネル36および入力部137を監視し、ユーザにより、メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたかを判定する。
【0211】
メカキャプチャボタン23が半押し操作された、若しくは、メイン画面220上のソフトキャプチャボタン227が操作れたと判定した場合、CPU131は、ステップS134において、AF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象とした露出の調整を行う。
【0212】
そして、調整処理が終了すると、CPU131は、処理をステップS135に進め、AF枠261およびスポット測光用ポインタ260の位置、並びに調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。点滅が終了するとCPU131は、処理をステップS136に進める。
【0213】
ステップS133において、メカキャプチャボタン23が半押し操作されておらず、かつ、メイン画面220上のソフトキャプチャボタン227が操作れていないと判定した場合、CPU131は、ステップS134およびS135の処理を省略し、ステップS136に処理を進める。
【0214】
ステップS136において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図24のステップS121に戻し、それ以降の処理を繰り返す。
【0215】
また、ステップS136において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS137において終了処理を行った後、常時AF処理を終了する。
【0216】
以上のような常時AFモードにより、どのような画像構成であっても、ユーザは、容易に、より好適なAF処理、および、より効果的なAE処理を行った静止画像を得ることができる。
【0217】
次に、図26および図27のフローチャートを参照して、上述したような場合の、ワンショットAFモードにおけるAF処理であるワンショットAF処理について説明する。上述したように、ワンショットAFモードの初期状態(ユーザがAF枠261の位置を指定していない状態)においても、常時AFモードの場合と同様に、図21Bに示されるように、EVFエリア221には、広めのAF領域の範囲を示す第1のサイズのAF枠261が、その中心がEVFエリア221の中心に位置するように、設けられている。また、スポット測光モードである場合、図21Bに示されるように、EVFエリア221の中心にスポット測光用ポインタ260が配置されている。
【0218】
CPU131は、ステップS151において、タッチパネル36を制御し、図21Dに示されるように、ユーザによりAF枠261の位置が指定されたか否かを判定する。ユーザがLCD28のEVFエリア221上を1回タップすると、タッチパネル36は、それを検出し、CPU131にその位置情報を供給する。
【0219】
タッチパネル36よりタップされた位置の位置情報が供給され、AF枠261の位置が指定されたと判定した場合、CPU131は、ステップS152に処理を進め、供給された位置情報に基づいて、第1のサイズより小さい第2のサイズのAF枠を指定された位置に配置する。
【0220】
ステップS153において、CPU131は、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS154において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS155に進める。
【0221】
また、ステップS153において、スポット測光モードではないと判定した場合、CPU131は、ステップS154の処理を省略し、ステップS155に処理を進める。
【0222】
ステップS155において、CPU133は、AF枠261の位置情報をカメラ部22のカメラ制御部210に供給し、カメラ制御部210は、その位置情報に基づいて、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象としてAE処理を行い、露出の調整を行う。
【0223】
そして、調整処理が終了すると、CPU131は、処理をステップS156に進め、AF枠261およびスポット測光用ポインタ260の位置、および調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。
【0224】
CPU131は、ステップS157において、調整処理が終了した時点で、カメラ制御部210を制御して、レンズ部201の絞りおよびレンズ位置を固定させ、露出およびフォーカスを固定する。さらにCPU131は、ステップS158において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。
【0225】
半押し処理を無効にしたCPU131は、処理を図27のステップS159に進める。
【0226】
図26のステップS151において、タッチパネル36より位置情報が供給されておらず、AF枠261の位置が指定されていないと判定した場合、CPU131は、ステップS152乃至S158の処理を省略し、図27のステップS159に処理を進める。
【0227】
図27のステップS159において、CPU131は、タッチパネル36を制御し、ユーザによりAF枠261の初期化が指示されたか否かを判定する。ユーザがLCD28のEVFエリア221上をダブルタップすると、タッチパネル36は、それを検出し、CPU131にその情報を供給する。
【0228】
タッチパネル36よりダブルタップの情報が供給され、AF枠261の初期化が指示されたと判定した場合、CPU131は、ステップS160に処理を進め、第1のサイズのAF枠を初期の位置に配置する。
【0229】
CPU131は、ステップS161において、AEのモードがスポット測光モードであるか否かを判定し、スポット測光モードであると判定した場合、ステップS162において、AE領域361の中心がAF領域の中心と同じ位置になるように、スポット測光用ポインタ260を配置する。スポット測光用ポインタ260を配置したCPU131は、処理をステップS163に進める。
【0230】
また、ステップS161において、スポット測光モードではないと判定した場合、CPU131は、ステップS162の処理を省略し、ステップS163に処理を進める。
【0231】
そして、ステップS163において、カメラ制御部210は、配置されたAF枠261に囲まれたAF領域について、TTLコントラスト検出方式により、フォーカスを調整するとともに、AE領域361を対象としてAE処理を行い、露出を調整する。
【0232】
調整処理が終了すると、CPU131は、処理をステップS164に進め、AF枠261およびスポット測光用ポインタ260の位置、および調整処理の終了を通知するように、表示制御部136を制御して、LCD28に表示されているAF枠261およびスポット測光用ポインタ260を所定の時間点滅させる。
【0233】
CPU131は、ステップS157およびS158の場合と同様に、ステップS165において、調整処理が終了した時点で、カメラ制御部210を制御して、レンズ部201の絞りおよびレンズ位置を固定させ、露出およびフォーカス位置を固定し、ステップS166において、メカキャプチャボタン23およびソフトキャプチャボタン227の操作による半押し処理を無効にする。そして、CPU131は、処理をステップS167に進める。
【0234】
ステップS159において、ユーザにより、AF枠261の初期化が指示されていないと判定した場合、CPU131は、ステップS160乃至S166の処理を省略し、ステップS167に処理を進める。
【0235】
ステップS167において、CPU131は、ユーザの指示等に基づいて、フォーカス処理を終了するか否かを判定する。終了しないと判定した場合、CPU131は、処理を図26のステップS151に戻し、それ以降の処理を繰り返す。
【0236】
また、ステップS167において、フォーカス処理を終了すると判定した場合、CPU131は、ステップS168において終了処理を行った後、ワンショットAF処理を終了する。
【0237】
以上のようなワンショットAFモードにより、いわゆる「置きピン」の撮影においても、ユーザは、容易に、より好適なAF処理、および、より効果的なAE処理を行った静止画像を得ることができる。
【0238】
以上において、AF処理は、TTLコントラスト検出方式を用いて行うように説明したが、AF処理の方法はこれ以外であってもよく、例えば、赤外線や超音波を出力することにより被写体までの距離を測定する各種のアクティブ方式や、撮影レンズを通った光を二つに分け、そのズレの量と方向を検出してピント位置を検出するTTL位相差検出方式等であってもよい。
【0239】
また、AF処理およびAE処理等の調整処理の終了を、AF枠261およびスポット測光用ポインタ260を点滅させることでユーザに通知するように説明したが、これに限らず、他のインジケータを用いるようにしてもよいし、確認音を出力するようにしてもよいし、さらに、複数の方法を組み合わせるようにしてもよい。
【0240】
さらに、確認音は、例えば、フォーカスモードが切り替えられた時や静止画像がキャプチャされた時などのように、その他の処理が行われる毎に出力されるようにしてもよい。その際、確認音が対応する処理によって確認音の内容を変更するようにしてもよい。
【0241】
なお、ユーザによるAF領域やAE領域の位置の指定は、各領域の中心であるように説明したが、これに限らず、例えば、領域の右上端の座標等、領域のどの位置を指定するようにしてもよい。さらに、ユーザが指定した座標が領域の外に位置するように、AF領域やAE領域を移動するようにしてもよい。
【0242】
また、ユーザによるAF領域やAE領域の位置の指定は、ユーザがEVFエリア221上をダブルタップした場合に、初期化されるように説明したが、これに限らず、ユーザが、所定の時間より長時間EVFエリア221上をタップした場合に初期化されるようにしてもよいし、静止画像がキャプチャされた場合に初期化されるようにしてもよいし、これらのうち、いずれかの場合に初期化されるようにしてもよい。
【0243】
以上においては、撮像機能付きPDAを用いて説明したが、これに限らず、例えば、デジタルスチルカメラや撮像機能を有する携帯型電話機等のように、AF機能およびAE機能を含む撮像機能を備え、さらに、得られた画像を表示するディスプレイを備える電子機器であれば何でもよい。
【0244】
従って、上述した例のように、ディスプレイにタッチパネルが重畳されていなくても、例えば、十字キー等のような、AF枠261やスポット測光用ポインタの位置を自在に移動させることのできる入力部を備えた電子機器であればよいが、特に、ディスプレイにタッチパネルが重畳された、撮像機能を有するPDAやノート型パーソナルコンピュータ等の場合、AF枠261やスポット測光用ポインタの操作をより容易に行うことができる。
【0245】
また、以上においては、カメラ22やLCD28等は、1台のPDAとして構成されるように説明したが、これに限らず、上述したPDA1の各部が別体で構成されるようにしてもよい。
【0246】
また、上述した例においては、スロット64に装着されるメモリは、メモリカード143であったが、スロット64が対応できる記録媒体であれば限定されない。例えば、図示はしないが、その他の半導体メモリ、磁気ディスク、光ディスク、または光磁気ディスク等でもよい。
【0247】
なお、以上の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムがPDA1に、ネットワークや記録媒体からインストールされる。ただし、記録媒体は、PDA1に直接装着される場合のみならず、必要に応じて他の装置に装着される場合もある。この場合、他の装置とPDA1が相互に通信を行うことで、プログラムがPDA1にインストールされる。
【0248】
この記録媒体は、図8に示されるように、装置本体とは別に、ユーザにプログラムを供給するために配布される、プログラムが記憶されているメモリスティック143といった半導体メモリのみならず、図示はしないが、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read only Memory),DVD(Digital Versatile Disk)を含む)、もしくは光磁気ディスク(MD(Mini-Disk)を含む)などよりなるパッケージメディアにより構成されることができる。さらに、装置本体に予め組み込まれた状態でユーザに供給される、プログラムが記憶されているROM132や、EEPROMやハードディスクとしての記憶部139などで構成される。
【0249】
なお、以上においては、各フローチャートに示される処理は、図8のCPU131がソフトウェアにより実行するようにしたが、各処理を実行するハードウェアを用意するようにして、ハードウェアにより実行されるようにすることも、もちろん可能である。
【0250】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0251】
【発明の効果】
以上のように、本発明によれば、被写体を撮像することができる。特に、より好適な自動合焦を行うことができる。
【図面の簡単な説明】
【図1】本発明を適用したPDAの正面の構成例を表す外観図である。
【図2】図1のPDAの裏面の構成例を表す外観図である。
【図3】図1のPDAの表示部の回動および開閉操作を説明する斜視図である。
【図4】図1のPDAの表示部の回動および開閉操作を説明する斜視図である。
【図5】図1のPDAの表示部の回動および開閉操作を説明する斜視図である。
【図6】図1のPDAの使用状態を示す図である。
【図7】図1のPDAの使用状態を示す図である。
【図8】図1のPDAの内部の構成例を示すブロック図である。
【図9】図24のPDAのカメラ部の内部の構成例を示すブロック図である。
【図10】静止画撮影モード時のメイン画面の様子を示す模式図である。
【図11】図10のEVFエリアの表示例を示す模式図である。
【図12】設定画面の構成例を示す模式図である。
【図13】設定画面の他の構成例を示す模式図である。
【図14】 AF枠の表示例を示す模式図である。
【図15】図1のPDAの撮像処理を説明するフローチャートである。
【図16】図1のPDAの常時AF処理について説明するフローチャートである。
【図17】図1のPDAの常時AF処理について説明する、図16に続くフローチャートである。
【図18】図1のPDAのワンショットAF処理について説明するフローチャートである。
【図19】図1のPDAのワンショットAF処理について説明する、図18に続くフローチャートである。
【図20】設定画面の、さらに他の構成例を示す模式図である。
【図21】スポット測光用ポインタの表示例を示す模式図である。
【図22】図1のPDAのスポットAE処理について説明するフローチャートである。
【図23】図1のPDAのスポットAE処理について説明する、図22に続くフローチャートである。
【図24】図1のPDAの常時AF処理の他の例について説明するフローチャートである。
【図25】図1のPDAの常時AF処理の他の例について説明する、図24に続くフローチャートである。
【図26】図1のPDAのワンショットAF処理の他の例について説明するフローチャートである。
【図27】図1のPDAのワンショットAF処理の他の例について説明する、図26に続くフローチャートである。
【符号の説明】
22 カメラ, 23 メカキャプチャボタン, 28 LCD, 131 CPU, 136 表示制御部, 201 レンズ部, 202 CCD, 210 カメラ制御部, 211 レンズ部駆動回路, 221 EVFエリア, 227 ソフトキャプチャボタン, 260 スポット測光用ポインタ, 261 AF枠, 361 AE領域
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus, method, and program, and more particularly, to an imaging apparatus, method, and program capable of performing more suitable automatic focusing.
[0002]
[Prior art]
In recent years, small electronic devices having an imaging function represented by a digital still camera, a PDA (Personal Digital Assistants) having an imaging function, and the like have become widespread, and the enhancement of these imaging functions has been advanced.
[0003]
For example, these image pickup apparatuses are usually provided with a display such as an LCD (Liquid Crystal Display) and can display an image captured through a lens, and a user can view the displayed image by viewing the displayed image. The subject can be imaged while checking the composition.
[0004]
Also, by superimposing the touch panel on the display, the user not only confirms the composition, but also operates an autofocus function (hereinafter referred to as AF (Auto Focus)) by operating the touch panel superimposed on the display. There are also imaging devices capable of adjusting an automatic exposure function (hereinafter referred to as AE (Auto Exposure)) and the like.
[0005]
For example, when the user indicates on the display the subject of the captured image displayed on the display provided in the digital still camera, the digital still camera detects the position by the touch panel superimposed on the display, and the user Is focused on the subject at the position indicated by (see, for example, Patent Document 1).
[0006]
[Patent Document 1]
Japanese Patent Laid-Open No. 11-355617 (page 5-7, FIG. 5-7)
[0007]
[Problems to be solved by the invention]
However, in the above method, when the user operates the capture button to capture a still image, AF processing is performed and the subject is focused.
[0008]
Therefore, when shooting a so-called “place pin”, which is a method of capturing a still image with the focus position fixed in advance, the user sets the focus mode to the manual focus mode and sets the focal length to be measured in advance. Or, the capture button is operated so-called “half-press” to execute only AF processing, and in this “half-press” state, it is necessary to wait until the shooting timing, which requires complicated work. There was a problem.
[0009]
In particular, in PDAs and the like having an imaging function, a capture button of software may be displayed on the display, and in many cases, only a so-called `` full press '' operation is prepared for such a capture button of software, It is difficult for the user to take a so-called “place pin” by operating the capture button of the software.
[0010]
The present invention has been made in view of such a situation, and is capable of performing more suitable automatic focusing.
[0011]
[Means for Solving the Problems]
An imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and captures an image of the subject. User Receiving means for accepting designation of the position of the first area within the imaging range, and a position for setting the first area to an arbitrary position within the imaging range based on the designation accepted by the accepting means The setting means and the first instruction input for adjusting the focal length of the imaging by the imaging means, or the second instruction input for recording the subject image obtained by the imaging means after adjusting the focal distance are received. When the first instruction input or the second instruction input is received by the input means and the input means, and when the position of the first region is set by the position setting means, the focal length is adjusted, and the first Focusing means for focusing on a subject included in the area, and after the subject is focused by the focusing means when the position of the first area is set, the first instruction input or the first input by the input means Two fingers And a prohibiting unit that prohibits focusing on the subject by the focusing unit even when an input is accepted, and the position setting unit sets the size of the first region when setting the position of the first region, It is characterized in that it is set smaller than when the designation is not accepted by the accepting means.
[0012]
Above The position setting unit can set the position of the first region so that the center of the first region is positioned at the center of the imaging range when the designation is not received by the receiving unit.
[0013]
The position setting means can set the position of the first area so that the center of the first area is located at the coordinates specified by the user when the designation is accepted by the accepting means. .
[0014]
Obtained by imaging the subject with the imaging means image Display means is further provided, and the receiving means is constituted by a touch panel superimposed on the display means, and the user is displayed by the display means. image It is possible to detect coordinates input by the first method while confirming and accept as designation.
[0015]
The first method may be a method in which the user taps the touch panel once.
[0016]
Initialization means for initializing the setting of the first area and returning the setting of the state in which the designation has been accepted by the accepting means to the setting of the state in which the designation has not been accepted is further provided. The instruction for initializing the setting of the first area input by the method 2 is further received, and the initializing unit initializes the setting of the first area based on the instruction received by the receiving means. can do.
[0017]
The second method may be a method in which the user taps the touch panel twice within a predetermined time.
[0018]
The second method may be a method of tapping the touch panel so that the user contacts for a predetermined time or longer.
[0019]
When the focusing means focuses on the subject included in the first area, image The outer frame of the first area can be displayed blinking a predetermined number of times.
[0020]
The image processing apparatus further includes an exposure adjustment unit that adjusts an exposure for a predetermined second area within the imaging range, and the position setting unit performs imaging based on a designation that the center of the second area is received by the reception unit. The position of the second region can be further set so as to be positioned at the center of the first region set at an arbitrary position within the range.
[0021]
The imaging method of the present invention includes a capture control step for controlling capture of an image of a subject imaged in the imaging unit, and designation of a position of a predetermined first region within the imaging range of the imaging unit, which is input by a user. Based on the accepted designation controlled by the acceptance control step that controls the acceptance and the process of the acceptance control step, Make the first area smaller than the case where the designation is not accepted at any position within the imaging range. Position setting step to be set and first instruction input for adjusting the focal length of imaging by the imaging unit, or a second instruction for recording the subject image obtained by the imaging unit after adjusting the focal length An input control step for receiving an input, and when the first instruction input or the second instruction input is received as controlled by the process of the input control step, and the position of the first area is determined by the process of the position setting step. When set, the focal length is adjusted to focus on the subject included in the first area, and when the position of the first area is set, the focus step is processed to focus on the subject. A step of prohibiting focusing on the subject by the processing of the focusing step even after the first instruction input or the second instruction input is received by the control of the input control step after being focused And wherein the door.
[0022]
The program of the present invention includes a capture control step for controlling capture of an image of a subject imaged in the imaging unit, and designation of a position of a predetermined first area within the imaging range of the imaging unit, which is input by a user. Based on the accepted designation controlled by the acceptance control step that controls the acceptance and the process of the acceptance control step, Make the first area smaller than the case where the designation is not accepted at any position within the imaging range. Position setting step to be set and first instruction input for adjusting the focal length of imaging by the imaging unit, or a second instruction for recording the subject image obtained by the imaging unit after adjusting the focal length An input control step for receiving an input, and when the first instruction input or the second instruction input is received as controlled by the process of the input control step, and the position of the first area is determined by the process of the position setting step. When set, the focal length is adjusted to focus on the subject included in the first area, and when the position of the first area is set, the focus step is processed to focus on the subject. A step of prohibiting focusing on the subject by the processing of the focusing step even after the first instruction input or the second instruction input is received by the control of the input control step after being focused Characterized in that to realize the management on the computer.
[0023]
In the imaging apparatus, method, and program of the present invention, the subject is imaged, the subject image is captured, and the designation of the position of the first region within the imaging range that is input by the user is accepted. On the basis of, The first area is smaller than the case where the designation is not accepted at any position within the imaging range. The first instruction input that is set and adjusts the focal length of the imaging or the second instruction input that records the obtained subject image after adjusting the focal distance is received, and the first instruction input Alternatively, when the second instruction input is accepted and when the position of the first area is set, the focal length is adjusted, and the subject included in the first area is focused, and the first area is After the subject is focused when the position is set, focusing on the subject is prohibited even if the first instruction input or the second instruction input is accepted.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram illustrating an example of a front configuration of a PDA to which the present invention is applied.
[0025]
As shown in FIG. 1, the PDA 1 is divided into a display portion 11 and a main body portion 13 with a central hinge portion 12 as a boundary, and is formed to be foldable via the hinge portion 12.
[0026]
In other words, as shown in FIG. 3 to be described later, the display unit 11 is rotated about a shaft 12-1 (virtual) and can be opened and closed with respect to the main body unit 13. Further, the display unit 11 is rotatable with respect to the main body unit 13 about an axis 11-6 (virtual one) substantially perpendicular to the axis 12-1. That is, the display unit 11 is rotated in parallel with a surface 11-3 (a surface on the lower side in FIG. 3 perpendicular to the surface 11-1 on which the LCD 28 is provided) facing the hinge unit 12. Yes.
[0027]
Returning to FIG. 1, an LCD (Liquid Crystal Display) 28 and a transparent pressure-sensitive touch panel 36 laminated on the surface of the LCD 28 are provided on almost the entire surface 11-1 of the display unit 11. That is, when the touch pen 35 is placed at an arbitrary position on the LCD 28, the coordinates are detected by the touch panel 36, and predetermined processing corresponding to the detected coordinates is performed.
[0028]
In addition, a character input area 29 for inputting characters is provided in a predetermined area of the touch panel 36 (lower area of the LCD 28 in the figure), and various soft buttons and character input are provided in the character input area 29. Area etc. are displayed. When the user operates the touch pen 35 and writes those special characters on the character input area, the special characters are input. That is, the locus of movement of the touch pen 35 is detected by the touch panel 36, and characters corresponding to the locus are input.
[0029]
Further, when the user operates the touch pen 35 and presses the soft button 43, a soft keyboard, which is a GUI (Graphical User Interface) displaying a keyboard key layout, is displayed in the character input area 29. When the user operates the touch pen 35 and presses an arbitrary key on the soft keyboard, a character (or symbol or the like) corresponding to the pressed key is input. That is, the coordinates where the touch pen 35 is arranged are detected by the touch panel 36, the key corresponding to the coordinates is recognized, and the character (or symbol or the like) assigned to the recognized key is input.
[0030]
Thus, the user can input characters easily and quickly using the touch pen 35 and the character input area 29 as software. Since the touch panel 36 is stacked over the entire display surface of the LCD 28, the position of the character input area 29 with respect to the LCD 28 is not limited to the position shown in FIG. 1, but is displayed as described later, for example. When the image is turned upside down, the character input area 29 is arranged at the top in FIG. 1 and displayed upside down. Even in such a case, the user can input characters as in the above-described example.
[0031]
On the right side of the figure, a power button 31 for turning on or off the PDA 1 is displayed on the hinge portion 12, and a battery (not shown) built in the PDA 1 is being charged on the left side of the hinge portion 12 when charging. LED (Light Emitting Diode) 30 that turns on and turns off when charging is completed, and a camera unit 22 composed of a CCD (Charge Coupled Device) is further adjacent to the left, and the camera unit 22 images a subject at the left end. Mechanical capture buttons 23 that are sometimes operated are provided. The camera unit 22 is fixed to a portion of the hinge unit 12 that rotates with the display unit 11 with respect to the main body unit 13, and the user opens and closes the display unit 11 with respect to the main body unit 13 as described later. Thus, the camera unit 22 can be rotated.
[0032]
That is, when the user captures an image of an object, the application software has a camera function (function of capturing an image of the object by the camera unit 22 and recording the image of the imaged object) by pressing the mechanical capture button 23 once. And the display unit 11 is rotated so that the imaging direction of the camera unit 22 is directed toward the subject. At this time, as will be described later, an image captured by the camera unit 22 (an image of the subject) is displayed on the LCD 28, so that the user confirms the position of the camera unit 22 while checking the LCD 28, and After performing various setting processes, the mechanical capture button 23 that operates as a shutter button is pressed again. As a result, an image captured by the camera unit 22 at the time when the mechanical capture button 23 is pressed is stored in the memory of the PDA 1 (RAM 133 in FIG. 8 to be described later).
[0033]
Note that the mechanical capture button 23 has two methods of “full press” for pressing to the end of the stroke and “half press” for pressing to a predetermined position in the middle of the stroke. For example, when the user “half-presses” the mechanical capture button 23, the PDA 1 performs AF processing, AE processing, etc. of the image captured by the camera unit 22, and the user “full-presses” the mechanical capture button 23 from that state. Then, the PDA 1 captures an image captured from the camera unit 22. As described above, the mechanical capture button 23 can change the corresponding processing depending on the pressing method (depth).
[0034]
If the user does not press the mechanical capture button 23 and performs “full press”, the PDA 1 performs a process corresponding to “half press” and then executes a process corresponding to “full press”. That is, in the case described above, when the user “fully presses”, the PDA 1 captures an image captured from the camera unit 22 after performing an AF process, an AE process, or the like of the image captured by the camera unit 22.
[0035]
On the surface 13-1 facing the display unit 11 when the main body unit 13 is folded, a button 32 on which symbols representing application software installed in the PDA 1 are printed is provided in the upper part of the figure. When the user presses the button 32 with his / her finger, the corresponding application software is activated.
[0036]
A scroll button 33 for scrolling the image displayed on the LCD 28 is provided at the center of the area where the button 32 on the surface 13-1 is arranged. Further, a keyboard 34 for inputting characters (including symbols and the like) is provided below the button 32 on the surface 13-1.
[0037]
A headphone jack for connecting a remote controller or an external headphone to the surface (side surface) 13-2 perpendicular to the surface 13-1 of the main body 13 and outputting sound to the connected headphone is shown above. 24, and a jog dial 25 that can be pressed and rotated slightly protrudes from the surface 13-2, and below that is for canceling the previous operation. A back button 26 is provided, and further below that, a hold switch 27 is provided for prohibiting the execution of a function corresponding to the other button being pressed by mistake.
[0038]
A connector 67 for connecting an accessory device is provided at the center of a surface (lower end surface in the drawing) 13-4 perpendicular to the surface 13-1 of the main body 13.
[0039]
FIG. 2 shows a configuration example of the back surface of the PDA 1. As shown in FIG. 2, the upper left portion of the hinge portion 12 in the drawing is a slot 64 in which a predetermined memory card or a function expansion module that can be inserted and removed is inserted, and lights when data in the memory card is read / written. And an infrared port 62 for communicating with other devices by infrared rays.
[0040]
For example, a memory card stores a flash memory element, which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory), which is a nonvolatile memory that can be electrically rewritten and erased, in a small and thin plastic case. Yes, it is possible to write and read various information (data) such as images, sounds and music.
[0041]
In addition, the memory card uses a unique serial protocol that ensures compatibility with the devices used even when the specifications of the built-in flash memory change due to an increase in capacity, etc., and a maximum writing speed of 1.5 [MB / S In addition to realizing high-speed performance of a maximum reading speed of 2.45 [MB / S], a high reliability may be ensured by providing an erroneous erasure prevention switch.
[0042]
Accordingly, since the PDA 1 can insert such a memory card, data can be shared with other devices via the memory card.
[0043]
A reset button 65 for resetting the PDA 1 is provided on the left side of the central portion of the surface 13-3 on the opposite side of the surface 13-1 of the main body 13 and a sound is output below the reset button 65. A speaker 66 is provided.
[0044]
As described above, the connector 67 is provided in the central portion of the surface (lower end surface in the drawing) 13-4 perpendicular to the surfaces 13-1 and 13-3 of the main body portion 13 in the drawing. On the left side, a storage port 68 for storing the touch pen 35 is provided.
[0045]
Next, opening / closing and turning operations of the display unit 11 will be described in detail below with reference to the drawings.
[0046]
As FIG. 3 shows, the user can rotate the display part 11 centering on the axis | shaft 11-6. Further, as shown in FIG. 4, the user turns the display unit 11 about 180 degrees around the axis 11-6 and then turns around the axis 12-1 and is shown in FIG. 5. As described above, the main body 13 can be closed. That is, the user can use the PDA 1 not only in the state shown in FIG. 1 but also in the state shown in FIG.
[0047]
For example, it is assumed that the letter “F” as shown in FIG. That is, the upper direction of the letter “F” is displayed on the surface 11-4 side (upward direction in FIG. 3) of the display unit.
[0048]
At this time, when the display unit 11 is rotated from a predetermined reference position, the PDA 1 detects a rotation angle about the axis 11-6 of the display unit 11, and the display unit 11 detects the rotation angle. Predetermined within a rotatable range (in this example, when the rotation angle when the display unit 11 is arranged as shown in FIG. 1 is 0 degree, the range is 0 degree or more and 180 degrees or less). Is included in the range (in this example, 0 degree or more and less than 180 degrees), the character “F” is displayed on the LCD 28 so that the upper direction of the image (character “F”) is the surface 11-4 side.
[0049]
On the other hand, when the rotation angle of the PDA 1 is out of the range (in this example, 180 degrees), the upward direction of the letter “F” is changed to the surface (end surface) opposite to the surface (end surface) 11-4. ) The character “F” is displayed on the LCD 28 so as to be on the 11-3 side. In other words, when the rotation angle of the display unit 11 deviates from the predetermined range, the PDA 1 displays an image when the rotation angle is included in the range (for example, the letter “F whose upper direction is the surface 11-4 side”. ”), An image obtained by inverting the top, bottom, left, and right (for example, the letter“ F ”whose upper direction is the surface 11-3 side opposite to the surface 11-3) is displayed on the LCD.
[0050]
Specifically, in the state shown in FIG. 3, since the rotation angle of the display unit 11 is less than 180 degrees (because it is included in the predetermined range described above), the letter “F” has an upward direction. It is displayed on the LCD 28 so as to be on the surface 11-4 side (upward in FIG. 3).
[0051]
On the other hand, in the state shown in FIGS. 4 and 5, the rotation angle of the display unit 11 is 180 degrees (because it deviates from the predetermined range described above). -4 is displayed on the LCD 28 so as to be on the surface 11-3 side (downward in FIG. 4).
[0052]
Thus, the PDA 1 can display an image in a natural direction for the user regardless of the rotation and open / closed state of the display unit 11.
[0053]
Further, the user turns the display unit 11 around the shaft 12-1 and closes the main body unit 13 not only in the state shown in FIG. 4 but also in the state shown in FIG. be able to. That is, although the illustration is omitted, the user can protect the PDA 1 (particularly the LCD 28) by keeping the PDA 1 from being exposed to the outside as shown in FIG. 5 when carrying the PDA 1. it can.
[0054]
Further, by rotating the display unit 11 as described above, the user can change the orientation of the camera unit 22, that is, the shooting direction.
[0055]
For example, as shown in FIG. 6, when another person 101 located on the opposite side of the user of PDA 1 is the subject (when shooting in the direction opposite to the user as viewed from PDA 1), the user places PDA 1 in FIG. With the state shown (the display unit 11 is closed with respect to the main body unit 13), the shooting direction of the camera unit 22 is opposite to the user of the PDA 1 (that is, the subject is the subject) with the LCD 28 facing the user. In the direction of others 101). Thereby, the user can image the other person 101 who is the subject located on the opposite side of the PDA 1 while confirming the captured image captured from the camera unit 22 displayed on the LCD 28 of the PDA 1.
[0056]
On the other hand, as shown in FIG. 7, when the user 102 of the PDA 1 sets himself as a subject (when shooting the direction of the user 102 as viewed from the PDA 1), the user 102 displays the PDA 1 in the state shown in FIG. When the display unit 11 is opened with respect to the main body unit 13), the shooting direction of the camera unit 22 is set in the direction of the user 102 (that is, the direction of the subject himself / herself) with the LCD 28 facing the user 102. ). As a result, the user 102 can take an image of himself / herself, which is a subject located on the same side of the PDA 1, while checking the captured image captured from the camera unit 22 displayed on the LCD 28 of the PDA 1.
[0057]
As described above, the user can set the direction of the camera unit 22 with respect to the PDA 1, that is, the shooting direction, always confirm the captured image displayed on the LCD 28, and perform adjustment work using the touch panel 36. However, it is possible to perform shooting work.
[0058]
FIG. 8 is a block diagram showing an internal configuration example of the PDA 1.
[0059]
A CPU (Central Processing Unit) 131 executes various processes according to a program stored in a ROM (Read Only Memory) 132 or a program loaded from a storage unit 139 to a RAM (Random Access Memory) 133.
[0060]
The RAM 133 also appropriately stores data necessary for the CPU 131 to execute various processes.
[0061]
The CPU 131, ROM 132, and RAM 133 are connected to each other via a bus 134. The bus 134 is also connected with a display control unit 136 that controls an image to be displayed on the LCD 28.
[0062]
In addition to the camera unit 22 and the LCD 28 described above, a VRAM 138 is connected to the display control unit 136 based on the control of the CPU 131. The display control unit 136 stores the image captured by the camera unit 22 in the VRAM 138, and stores the image stored in the VRAM 138 and other memory (RAM 133, storage unit 139, memory card 143 connected to the slot 64). The image stored in () is displayed on the LCD 28.
[0063]
An input / output interface 135 is also connected to the bus 134.
[0064]
The input / output interface 135 is mounted with the keyboard 34, the various buttons 22, 32, 33, the input unit 137 including the jog dial 25, the touch panel 36, the infrared communication port 62, the memory card 143, or the function expansion module 121. Slot 64, a battery (not shown) built in PDA 1, a connector 67 to which cradle 91 or the like serving as a relay device for communication with other external device 152 is connected, and remote controller 101 or headphones 153. Is connected to a headphone jack 24 as an audio output unit.
[0065]
The coordinates detected by the touch panel 36 are provided to the CPU 131 via the input / output interface 135 and the bus 134, and the CPU 131 acquires predetermined information corresponding to the provided coordinates.
[0066]
For example, as described later, when the user taps an arbitrary position on the captured image displayed on the LCD 28 at the time of shooting, the touch panel 36 detects the coordinates of the position tapped by the user and inputs the coordinate information. This is provided to the CPU 131 via the output interface 135 and the bus 134. When the CPU 131 confirms the position on the captured image based on the provided coordinate information, the CPU 131 controls each unit to execute a corresponding process such as moving an AF frame of a predetermined size to the position.
[0067]
The input / output interface 135 is also connected to a storage unit 139 including an EEPROM or a hard disk as necessary. A computer program read from a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like that is appropriately attached to the external device 152 is wirelessly transmitted via the infrared port 62 or wirelessly via a wireless LAN module (function expansion module) 121. The data is supplied to the PDA 1 as necessary by means of communication or wired communication via the cradle 91 and installed in the storage unit 139. Alternatively, a computer program read from the memory card 143 that is appropriately inserted in the slot 64 is also installed in the storage unit 139 as necessary.
[0068]
Furthermore, the input / output interface 135 is an LCD that is turned on when the display unit 11 is closed with respect to the main body unit 13 and is turned off when the display unit 11 is open with respect to the main body unit 13. An open / close switch 144 and an LCD rotation switch 145 that is turned on when the display unit 11 is rotated by a predetermined rotation angle or more are provided.
[0069]
In other words, in this example, the CPU 131 opens / closes the main body 13 of the display unit 11 based on the on / off state of the LCD open / close switch 144 and the LCD rotation switch 145 (hereinafter, LCD open / close state). And the rotation state is recognized.
[0070]
The camera unit 22 is configured as shown in FIG. Light from a subject not shown is a complementary color filter in which yellow (Ye), cyan (Cy), magenta (Mg), and green (G) color filters are arranged in a mosaic pattern on the front surface through a lens unit 201. Is incident on a CCD 202 constituted by an image pickup device using a CCD (Charge Coupled Device) or the like and photoelectrically converted.
[0071]
The CCD 202 outputs a video signal photoelectrically converted in the light receiving unit, and supplies it to an AGC (Automatic Gain Control) circuit 203. The AGC circuit 203 adjusts the gain of the video signal, and supplies the video signal with the adjusted gain to a CDS circuit (Correlated Double Sampling circuit) 204. The CDS circuit 204 performs correlated double sampling on the input video signal to remove noise, and then supplies it to an A / D (Analog / Digital) conversion circuit 205.
[0072]
The A / D conversion circuit 205 converts an input analog signal into a digital signal at a predetermined sampling frequency, and supplies the digital signal to a DSP (Digital Signal Processor) 206 that processes the captured image data.
[0073]
The DSP 206 uses a program and data installed in an EEPROM (Electrically Erasable and Programmable Read only Memory) 207 and supplies it using a built-in RAM 206A constituted by a semiconductor memory such as a built-in SDRAM (Synchronous Dynamic Random Access Memory). The generated video signal is held to generate image data of a predetermined format, and the generated image data is subjected to various digital processes such as image quality adjustment and compression processing. Then, the DSP 206 supplies the generated image data to the display control unit 136 in FIG.
[0074]
Further, the DSP 206 supplies information for controlling the lens unit 201 to the A / D conversion circuit 205 to the camera control unit 210 during digital processing of the image data.
[0075]
The camera control unit 210 controls the lens position, aperture, or mechanical shutter of the lens unit 201 via the lens unit drive circuit 211 based on the information supplied from the DSP 206 and the control information supplied from the CPU 131 in FIG. In addition, the electrical operation of the CCD 202 is controlled via the CCD drive circuit 212, and the operation timings of the AGC circuit 203, the CDS circuit 204, and the A / D conversion circuit 205 are controlled.
[0076]
The lens unit drive circuit 211 is configured by a motor or the like, and adjusts the focal position by moving the lens position of the lens unit 201 based on a control signal supplied from the camera control unit 210, and opens and closes the aperture and mechanical shutter. Adjust the exposure amount. The CCD drive circuit 212 generates a signal for driving the CCD 202 based on the timing signal supplied from the camera control unit 210 and adjusts the image capture timing and the like.
[0077]
For example, the camera control unit 210 performs autofocus processing based on a TTL (Through The Lens) contrast detection method based on a control signal supplied from the CPU 131. When the AF area is designated by the CPU 131, the camera control unit 210 detects the contrast of the designated AF area in the photographic image frame from the captured image signal supplied from the DSP 206, and the lens unit driving circuit 211 is detected. Then, the lens of the lens 201 is moved, and the lens position is adjusted so that the subject existing in the region is in focus (the contrast is the highest).
[0078]
When the user activates the camera application, each unit is controlled by the CPU 131 that has executed the camera application, and a transition is made to a still image capturing mode for capturing a still image using the camera unit 22. At that time, the CPU 131 displays a GUI as shown in FIG.
[0079]
In FIG. 10, a main screen 220 is a GUI for accepting various operations in the still image shooting mode, and activates an EVF area 221 for displaying captured images and captured captured images, and a moving image shooting mode application. A moving image shooting application call button 222, an icon area 223 for displaying various icons, a setting screen calling button 224 for displaying a setting screen which is a GUI for performing various settings, and a GUI relating to the size and image quality of a captured image The size / image quality switching button 225 for displaying the image, the EV (Exposure Value) correction slider 226 for adjusting the exposure amount of the image to be captured, the soft capture button 227 for capturing a still image from the CCD 202, and the image data obtained by imaging Select album category to select a destination folder Column 228, custom button 229 for executing the function set on the setting screen, flash mode switching button 230 for switching the flash mode, zoom button 231 for adjusting the zoom of the photographed image, and image data obtained by imaging Simple view areas 232 to 234 for displaying thumbnail images, a rotation button 235 for rotating the display of captured images displayed in the EVF area 221 by 90 degrees, a delete button 236 for deleting image data obtained by imaging, and The title bar area 237 displays various character data such as image data titles.
[0080]
FIG. 11 is a diagram showing a detailed display example of the EVF area 221 in FIG. As shown in FIG. 11, an icon group for displaying various information is displayed in the EVF area 221 so as to be superimposed on the captured image. The flash mode icon 251 displays the currently set flash mode as necessary. The camera shake warning icon 252 lights up and warns when a camera shake occurs during shooting. The battery icon 253 When the remaining battery capacity is low and charging is required, the indicator lights up and the AF / AE lock indicator 254 lights up or flashes to indicate the AF or AE status, and photography is not possible. The notification icon 255 is lit when there is not enough free space in the memory for recording captured image data, and notifies that a new image cannot be captured. The shooting status mode icon 256 includes a night view mode, an indoor mode, Lights up according to the currently set mode, such as the distant view mode or the close-up mode, etc. Jitter speed icon 257 is lit during the manual setting, to display the shutter speed that is currently set.
[0081]
In addition, the EVF area 221 includes a manual focus gauge 258 that is displayed when the focal length is manually set, and a manual focus gauge pointer 259 that is a pointer indicating the current focal length. Is displayed.
[0082]
Further, the EVF area 221 displays a spot metering pointer 260 indicating the center of the area to be metered during spot metering, and an AF frame 261 indicating the range of the AF area. A user who performs shooting can move the position of the AF frame 261 or the spot metering pointer 260 by tapping on the EVF area 221 in the AF mode.
[0083]
These icons can be switched between display and non-display by setting by the user.
[0084]
In the PDA 1 as described above, three focus modes are prepared as will be described later, and the user operates the setting screen call button 224 (the setting screen call button 224 of the LCD 28) on the main screen 220 in FIG. By tapping the top etc.), a setting screen as shown in FIG. 12 is called and a plurality of prepared focus modes are switched.
[0085]
FIG. 12 is a diagram illustrating a configuration example of the setting screen 301 displayed on the LCD 28. In FIG. 12, a setting screen 301 displays various setting items and a setting list display area 302 indicating their current state, and items that cannot be displayed at once in the setting list display area 302. A scroll bar 303 for scrolling the display contents, a down scroll button 304 for scrolling items displayed in the setting list display area 302 in the lower direction in the figure, and an item displayed in the setting list display area 302 in the upper side in the figure. Up scroll button 305 for scrolling in the direction of the screen, the screen displayed on the LCD 28 is returned to the main screen 220, the return button 306, the setting screen 301, the captured image reflecting the setting is displayed, and the user confirms the effect EVF area 311 for this purpose.
[0086]
In the setting list display area 302, various items relating to shooting such as shooting mode, white balance, size / quality, spot metering, recording destination, self-timer, and focus mode are displayed. The user operates the scroll bar 303, the down scroll button 304, the up scroll button 305, or rotates the jog dial 25 to display items to be set in the setting list display area 302. Then, by tapping a portion where the item is displayed or rotating the jog dial 25, the anchor is moved to the item to be set.
[0087]
Then, the user instructs to change the item where the anchor is located by tapping a portion where the setting content on the right side of the item where the anchor is located is displayed or pressing the jog dial 25. For example, in FIG. 12, the anchor is positioned in the focus mode. In this state, when the part displayed as “always AF” is tapped or the jog dial 25 is pressed, the user sets the focus mode. Can be changed.
[0088]
When the user designates the anchor in the focus mode as shown in FIG. 12, the setting content selection as shown in FIG. 13 is superimposed on the setting screen 301 shown in FIG. A screen is displayed.
[0089]
In FIG. 13, items other than the item focus mode selected by the user in the setting list display area 302 of the setting screen 301 are displayed darkly. On the right side of the item 321 selected by the user, a setting content selection screen 322 displaying a list of corresponding settings is displayed. In FIG. 13, the setting content selection screen 322 displays three modes of “manual focus”, “always-on AF”, and “one-shot AF” as settings corresponding to the focus mode. Mark is displayed in the active mode (in the case of FIG. 13, “always AF”). In the setting content selection screen 322, an anchor is displayed in the currently selected mode (“one-shot AF” in FIG. 13).
[0090]
The user selects from the list displayed on the setting content selection screen 322 shown in FIG. 13 by tapping the mode portion to be selected or rotating the jog dial 25 to move the anchor and pressing it. Specify the mode and set the mode.
[0091]
Next, the focus “manual focus mode”, “always AF mode”, and “one-shot AF mode” will be described.
[0092]
The manual focus mode is a mode in which the user manually sets the focal length. At this time, as shown in FIG. 11, the manual focus gauge 258 and the manual focus gauge pointer 259 are displayed in the EVF area 221. The user moves the manual focus gauge pointer 259 to a desired position on the manual focus gauge 258 by tapping the target distance portion once or rotating the jog dial 25 according to the manual focus gauge 258. And set the focal length.
[0093]
The camera control unit 210 in FIG. 9 uses the lens unit driving circuit 211 to focus the lens position of the lens unit 201 so as to focus on the focal length specified by the user based on the control signal supplied from the CPU 131 in FIG. To control.
[0094]
When the user wants to return the manual focus gauge pointer 259 to the initial value (the initial position before the user moves the manual focus gauge pointer 259), the user continuously displays the LCD 28 twice during a predetermined short time. Tap (hereinafter referred to as double tap). When the CPU 131 acquires information indicating that the user has double-tapped from the touch panel 36, the CPU 131 controls the display control unit 136 to return the manual focus gauge pointer 259 displayed on the LCD 28 to the initial value.
[0095]
The constant AF mode is a mode in which the camera unit 22 performs AF processing on a subject in the AF area using a TTL contrast detection method. In the constant AF mode, the position of the AF area is arbitrarily determined by the user within the photographic image frame. The AF process is performed when the user moves the AF area, when the user taps on the soft capture button 227 on the main screen 220, or when the user “half-presses” the mechanical capture button 23 in FIG. Executed. Further, in the constant AF mode, as shown in FIG. 14A, an AF frame 261 indicating the range of the AF area is displayed in the EVF area 221.
[0096]
In an initial state (a state where the user has not moved the position of the AF area), the center of the AF frame 261 is arranged at the center of the EVF area 221. At this time, the AF area shown in the AF frame 261 is, for example, as shown in FIG. 14A in order to suppress a so-called “missing” in which a subject deviated from the center of the photographic image frame deviates from the AF area. Furthermore, the size of the EVF area 221 is 320 dots × 240 dots, whereas it is set relatively wide as 108 dots × 60 dots.
[0097]
At this time, when the user operates the soft capture button 227 of FIG. 10 or presses down (fully presses) the mechanical capture button 23, the camera control unit 210 is based on the position information of the AF frame 261 supplied from the CPU 131. Then, after performing adjustment processing such as AF processing by the TTL contrast detection method for the AF area surrounded by the AF frame 261, image capture processing is performed. When the mechanical capture button 23 is pressed halfway, only adjustment processing such as AF processing is performed. Accordingly, the user can obtain an image focused on the subject simply by moving the PDA 1 so that the subject is positioned near the center of the EVF area 221 and operating the soft capture button 227 or the mechanical capture button 23. .
[0098]
Further, the position of the AF frame 261 can be arbitrarily designated by the user as long as it is within the EVF area 221. That is, as shown in FIG. 14B, when the user taps the EVF area 221 once using the touch pen 35 or the like, the CPU 131 detects the position tapped by the user based on the position information supplied from the touch panel 36. The AF frame 261 is moved so that becomes the center of the AF area.
[0099]
In this case, since the user usually taps the subject to be focused on, the possibility of the so-called “missing” phenomenon is low. On the other hand, if the AF area is unnecessarily wide, the possibility of focusing on a subject different from the subject specified by the user in the AF area increases. Therefore, when the user designates the position of the AF frame 261 in this way, the AF area is as shown in FIG. 14A as shown in FIG. 14B (when the user does not designate the position of the AF frame 261). ) Is set to a narrower range (30 dots × 30 dots) than the AF area (108 dots × 60 dots).
[0100]
At this time, the camera control unit 210 performs AF processing based on the TTL contrast detection method on the AF area surrounded by the AF frame 261 based on the position information of the AF frame 261 supplied from the CPU 131. When in focus, the CPU 131 causes the AF frame 261 displayed in the EVF area 221 to blink for a predetermined time as shown in FIG. 14C in order to notify the user.
[0101]
Then, when the user operates the soft capture button 227 of FIG. 10 or presses the mechanical capture button 23 (full press), the camera control unit 210 is based on the position information of the AF frame 261 supplied from the CPU 131. Then, after performing autofocus processing by the TTL contrast detection method for the area surrounded by the AF frame 261, image capture processing is performed. Note that when the mechanism capture button 23 is half-pressed “half-press”, only the autofocus process is performed. As described above, the user can easily obtain an image focused on the subject regardless of where the subject is located in the EVF area 221.
[0102]
When the user wants to return the AF frame 261 (AF area) to the initial state (the state shown in FIG. 14A), the user performs a double tap on the EVF area 221. The CPU 131 controls the display control unit 136 based on the information supplied from the touch panel 36 and indicating that the user has double-tapped, and returns the AF frame 261 displayed on the LCD 28 to the initial state. The controller 210 is controlled to execute AF processing.
[0103]
As shown in FIG. 14D, the EVF area 221 may be provided with a plurality of vertical and horizontal grid lines, and the coordinates of the center of the AF frame 261 may be located at the intersection of those grid lines. . In FIG. 14D, vertical grid lines 331 to 338 and horizontal grid lines 341 to 345 in the figure are set in the EVF area 221 at predetermined intervals. When the user taps once on the EVF area 221, the CPU 131 acquires the position information of the position tapped by the user from the touch panel 36, calculates the intersection of the grid lines at the nearest position, and the coordinates of the intersection are the AF area. The AF frame 261 is moved so as to be at the center of the image, and the camera control unit 210 is caused to execute AF processing.
[0104]
By doing so, the position of the AF frame 261 can be limited to some extent, so that the user can move the AF frame 261 to the same position more accurately.
[0105]
In the example shown in FIG. 14D, the EVF area 221 has been described as having eight vertical grid lines in the drawing and five horizontal grid lines in the drawing. However, the grid lines provided in the EVF area 221 have been described. The number of can be any number. Further, the interval between the grid lines may be constant or may be different for each grid line. Further, each grid line may not be displayed on the LCD 28.
[0106]
In the above, the size of the EVF area 221 is 320 dots × 240 dots, the size of the AF area (AF frame 261) in the initial state is 108 dots × 60 dots, and the user sets the AF area (AF frame 261). ), The size of the AF area (AF frame 261) has been described as being 30 dots × 30 dots. However, these sizes are not limited to this, and any size is possible. May be.
[0107]
In addition, the AF frame 261 indicating the range of the AF area is not displayed on the LCD 28 in a normal state, and is set at a set position as shown in FIG. 14C when indicating the focus after the AF processing is performed. May blink for a predetermined time.
[0108]
Furthermore, although it has been described that the notification of in-focus is performed by blinking of the AF frame 261 as shown in FIG. 14C, the present invention is not limited to this. For example, another notification such as the AF / AE lock indicator 254 of FIG. It may be performed by an indicator.
[0109]
The one-shot AF mode is a mode in which the camera unit 22 performs AF processing on the subject in the AF area by the TTL contrast detection method, as in the normal AF mode. Also in the one-shot AF mode, as shown in FIG. 14A, an AF frame 261 indicating the range of the AF area is displayed in the EVF area 221, and the position of the AF area (AF frame 261) is within the captured image frame. It is arbitrarily determined by the user.
[0110]
However, in the one-shot AF mode, AF processing is performed only when the user moves the AF area, and when the user taps the soft capture button 227 on the main screen 220 or when the user captures the mechanical capture shown in FIG. It is not executed when the button 23 is “half-pressed”. That is, in the one-shot AF mode, regardless of whether the user operates the mechanical capture button 23 or the soft capture button 227, only the capture processing instruction is input, and the adjustment processing instruction such as AF is not input. As described above, the CPU 131 controls each unit.
[0111]
Since the configuration and operation of the size and position of the AF frame 261, the control method of the AF frame 261, and the like are the same as those in the above-described normal AF mode, description thereof is omitted.
[0112]
Conventionally, when shooting with a so-called `` place pin '' where the focal length after AF processing is fixed, the user presses the shutter button halfway to perform AF processing, then the half-pressed state And when it was time to shoot, it was necessary to perform complicated work such as instructing capture by fully pressing the shutter button from that state, but by setting the one-shot AF mode as described above, Since the AF process immediately before the capture can be omitted, the user can easily take the “place pin”.
[0113]
Next, processing related to shooting in the above-described constant AF mode will be specifically described.
[0114]
When the user operates the PDA 1 to instruct a still image shooting mode, the PDA 1 shifts to the still image shooting mode and starts an imaging process. The imaging process will be described with reference to the flowchart of FIG.
[0115]
First, the CPU 131 of the PDA 1 controls the camera control unit 210 of the camera unit 22 to activate the camera unit 22 and perform initialization processing of the camera unit 22, and stores it in the RAM 133, the storage unit 139, etc. in step S 2. The setting information related to the camera unit 22 is read, the read setting information is supplied to the camera control unit 210 of the camera unit 22, and the setting process of the camera unit 22 is performed. Further, in step S3, the CPU 131 controls the display control unit 136 to display a still image shooting mode GUI such as the main screen 220 shown in FIG.
[0116]
In step S <b> 4, the DSP 206 of the camera unit 22 supplies the captured image data input from the lens unit 201 and captured by the CCD 202 to the display control unit 136, and the display control unit 136 displays the captured image on the LCD 28. .
[0117]
In step S <b> 5, the CPU 131 controls each button of the touch panel 36 and the input unit 137 to determine whether a new input regarding the setting has been performed by the user and the current setting has been changed. When determining that the setting has been changed, the CPU 131 stores the new setting in the RAM 133, the storage unit 139, and the like, and advances the processing to step S7.
[0118]
If it is determined in step S5 that the setting has not been changed, the CPU 131 skips step S6 and proceeds to step S7.
[0119]
In step S <b> 7, the CPU 131 monitors the touch panel 36 and the input unit 137 and determines whether or not a user has instructed capture of a still image. If it is determined that the instruction has been issued, the CPU 131 instructs the camera control unit 210 of the camera unit 22 to capture an image, and the camera control unit 210 controls each unit of the camera unit 22 based on the instruction to obtain a still image. To capture.
[0120]
The DSP 206 performs image processing on the image data of the captured image, and then supplies the image data to the display control unit 136. In step S9, the display control unit 136 synthesizes the captured image with the EVF area 221 of the GUI. And displayed on the LCD 28. When the captured image is displayed, the CPU 131 advances the process to step S10.
[0121]
If it is determined in step S7 that capture is not instructed, the CPU 131 skips steps S8 and S9 and proceeds to step S10.
[0122]
In step S10, the CPU 131 determines whether or not to end the still image shooting mode. If it is determined to end, the imaging process ends.
[0123]
If it is determined not to end the still image shooting mode, the CPU 131 returns the process to step S4 and repeats the subsequent processes.
[0124]
As described above, the PDA 1 executes the imaging process in the still image shooting mode.
[0125]
Next, with reference to the flowcharts of FIGS. 16 and 17, the constant AF process that is the AF process in the constant AF mode will be described. As described above with reference to FIG. 14A, in the initial state of the constant AF mode (the state in which the user does not designate the position of the AF frame 261), the EVF area 221 shows the first AF area that indicates the range of the wider AF area. The size of the AF frame 261 is provided so that its center is located at the center of the EVF area 221.
[0126]
In step S21, the CPU 131 controls the touch panel 36 and determines whether or not the position of the AF frame 261 is designated by the user as shown in FIG. 14B. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the CPU 131 with the position information.
[0127]
When the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AF frame 261 is designated, the CPU 131 advances the process to step S22, and the first size based on the supplied position information. A smaller second size AF frame is placed at the specified position.
[0128]
Then, the CPU 131 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22 in step S23. Based on the position information, the camera control unit 210 adjusts the focus for the AF area surrounded by the arranged AF frame 261 by the TTL contrast detection method.
[0129]
When the focus is adjusted by the focus adjustment process, the CPU 131 advances the process to step S24, controls the display control unit 136 to notify the end of the AF process and the position of the AF frame, and is displayed on the LCD 28. The existing AF frame 261 blinks for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S25.
[0130]
In step S21, when it is determined that the position information is not supplied from the touch panel 36 and the position of the AF frame 261 is not designated, the CPU 131 skips steps S22 to S24 and proceeds to step S25. .
[0131]
In step S25, the touch panel 36 is controlled to determine whether or not the user has instructed initialization of the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the information to the CPU 131.
[0132]
When it is determined that the double tap information is supplied from the touch panel 36 and the initialization of the AF frame 261 is instructed, the CPU 131 advances the process to step S26 and arranges the first size AF frame at the initial position. That is, the CPU 131 arranges the AF frame 261 at a position where the center of the AF area comes to the center of the EVF area 221.
[0133]
Then, the CPU 131 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22 in step S27. Based on the position information, the camera control unit 210 adjusts the focus for the AF area surrounded by the arranged AF frame 261 by the TTL contrast detection method.
[0134]
When the focus is adjusted by the focus adjustment process, the CPU 131 advances the process to step S28, controls the display control unit 136 so as to notify the end of the AF frame and the end of the focus process, and is displayed on the LCD 28. The existing AF frame 261 blinks for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S29 in FIG.
[0135]
If it is determined in step S25 that the user has not instructed initialization of the AF frame 261, the CPU 131 skips steps S26 to S28 and proceeds to step S29 in FIG.
[0136]
In step S <b> 29, the CPU 131 monitors the touch panel 36 and the input unit 137 and determines whether the mechanical capture button 23 has been pressed halfway by the user or the soft capture button 227 on the main screen 220 has been operated.
[0137]
If it is determined that the mechanical capture button 23 has been pressed halfway or the soft capture button 227 on the main screen 220 has been operated, the CPU 131 determines the TTL contrast for the AF area surrounded by the AF frame 261 in step S30. Adjust the focus according to the detection method.
[0138]
When the focus is adjusted by the focus adjustment process, the CPU 131 advances the process to step S31, controls the display control unit 136 to notify the position of the AF frame and the end of the focus process, and is displayed on the LCD 28. The existing AF frame 261 blinks for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S32.
[0139]
If it is determined in step S29 that the mechanical capture button 23 has not been pressed halfway and the soft capture button 227 on the main screen 220 has not been operated, the CPU 131 omits steps S30 and S31. Then, the process proceeds to step S32.
[0140]
In step S32, the CPU 131 determines whether or not to end the focus process based on a user instruction or the like. If it is determined not to end, the CPU 131 returns the process to step S21 in FIG. 16 and repeats the subsequent processes.
[0141]
If it is determined in step S32 that the focus process is to be ended, the CPU 131 performs the end process in step S33 and then always ends the AF process.
[0142]
With the continuous AF mode as described above, the user can easily obtain a still image subjected to a more suitable AF process regardless of the image configuration.
[0143]
Next, the one-shot AF process which is an AF process in the one-shot AF mode will be described with reference to the flowcharts of FIGS. As described above, even in the initial state of the one-shot AF mode (the state in which the user does not designate the position of the AF frame 261), as in the case of the constant AF mode, as shown in FIG. 14A, the EVF area 221 Are provided with a first size AF frame 261 indicating the range of a wider AF area so that the center thereof is located at the center of the EVF area 221.
[0144]
In step S61, the CPU 131 controls the touch panel 36 to determine whether or not the position of the AF frame 261 has been designated by the user as shown in FIG. 14B. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the CPU 131 with the position information.
[0145]
When the position information of the tapped position is supplied from the touch panel 36 and the CPU 131 determines that the position of the AF frame 261 is designated, the CPU 131 advances the process to step S62, and the first size is based on the supplied position information. A smaller second size AF frame is placed at the specified position.
[0146]
In step S63, the CPU 131 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22, and the camera control unit 210 is surrounded by the arranged AF frame 261 based on the position information. For the selected AF area, adjust the focus using the TTL contrast detection method.
[0147]
When the focus is adjusted by the focus adjustment process, the CPU 131 advances the process to step S64, controls the display control unit 136 to notify the position of the AF frame and the end of the focus process, and is displayed on the LCD 28. The existing AF frame 261 blinks for a predetermined time.
[0148]
The CPU 131 controls the camera control unit 210 to fix the lens position of the lens unit 201 when focused in step S65. In step S66, the CPU 131 half-presses by operating the mechanical capture button 23 and the soft capture button 227. Disable processing.
[0149]
That is, the CPU 131 prevents the focus adjustment process from being performed even if the user presses the mechanical capture button 23 halfway, and when the user presses the mechanical capture button 23 fully and when the user presses the soft capture button 227. When is operated, only the still image is captured without performing the focus adjustment process.
[0150]
The CPU 131 having invalidated the half-press process advances the process to step S67 in FIG.
[0151]
In step S61 in FIG. 18, when it is determined that the position information is not supplied from the touch panel 36 and the position of the AF frame 261 is not designated, the CPU 131 omits the processes in steps S62 to S66, and performs the process in FIG. The process proceeds to step S67.
[0152]
In step S <b> 67 of FIG. 19, the CPU 131 controls the touch panel 36 and determines whether or not the user has instructed initialization of the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the information to the CPU 131.
[0153]
If it is determined that the double tap information is supplied from the touch panel 36 and the initialization of the AF frame 261 is instructed, the CPU 131 advances the process to step S68 to place the first size AF frame at the initial position. That is, the CPU 131 arranges the AF frame 261 at a position where the center of the AF area comes to the center of the EVF area 221.
[0154]
In step S69, the camera control unit 210 adjusts the focus for the AF area surrounded by the arranged AF frame 261 by the TTL contrast detection method.
[0155]
When the focus is adjusted by the focus adjustment process, the CPU 131 advances the process to step S70, controls the display control unit 136 so as to notify the end of the AF frame and the end of the focus process, and is displayed on the LCD 28. The existing AF frame 261 blinks for a predetermined time.
[0156]
As in the case of steps S65 and S66, the CPU 131 controls the camera control unit 210 to fix the lens position of the lens unit 201 at the time of focusing in step S71, and in step S72, the mechanical capture button 23 In addition, the half-press process by operating the soft capture button 227 is invalidated. Then, the CPU 131 advances the process to step S73.
[0157]
If it is determined in step S67 that the user has not instructed initialization of the AF frame 261, the CPU 131 skips steps S68 to S72 and proceeds to step S73.
[0158]
In step S73, the CPU 131 determines whether or not to end the focus process based on a user instruction or the like. If it is determined not to end, the CPU 131 returns the process to step S61 in FIG. 18 and repeats the subsequent processes.
[0159]
If it is determined in step S73 that the focus process is to be ended, the CPU 131 performs the end process in step S74 and then ends the one-shot AF process.
[0160]
With the above-described one-shot AF mode, the user can easily obtain a still image that has been subjected to a more suitable AF process even when shooting a so-called “place pin”.
[0161]
In the above, the AF process has been described, but not only the center of the shooting image frame but also the above-described AF area at the time of spot metering that performs photometry on a narrow area during exposure adjustment (AE process). The user may be able to specify the position.
[0162]
When the user designates the anchor by positioning it in spot metering on the setting screen 301 shown in FIG. 12, the setting is as shown in FIG. 20 superimposed on the setting screen 301 shown in FIG. The content selection screen is displayed.
[0163]
In FIG. 20, items other than the item spot metering selected by the user in the setting list display area 302 of the setting screen 301 are displayed darkly. A setting content selection screen 352 displaying a list of corresponding settings is displayed on the right side of the item 351 selected by the user, and two modes of “OFF” and “ON” are displayed as settings corresponding to spot metering. Is done. A mark is displayed on the currently set “OFF”, and an anchor is displayed on the currently selected “ON”.
[0164]
The user taps the “ON” portion from the list displayed on the setting content selection screen 352 shown in FIG. 20 or moves the anchor by rotating the jog dial 25 and pressing it. The spot metering mode can be instructed.
[0165]
As shown in FIG. 21A, the normal AE process is performed on an AE area 361 that is almost the entire area of the EVF area 221 (shooting image frame). In FIG. 20, when the user sets the spot metering mode, the AE area 361 becomes narrower than in the case of FIG. 21A, as shown in FIG. 21B, and the AE process indicating the center of the AE area includes the narrow AE area 361. It is done as a target.
[0166]
In the spot metering mode, a spot metering pointer 260 indicating the center of the AE area 361 is displayed in the EVF area 221.
[0167]
In this initial state (when the user does not specify the position of the AE area 361), the center of the AE area 361 is located at the center of the EVF area 221 (shooting image frame).
[0168]
At this time, when the user operates the soft capture button 227 of FIG. 10 or presses down (full press) the mechanical capture button 23, the camera control unit 210 performs adjustment processing such as AE processing on this AE area. After performing the above, an image capture process is performed. When the mechanical capture button 23 is pressed halfway, only adjustment processing such as AE processing is performed. Further, when the AE processing is completed, the spot photometry pointer 260 may blink, or a predetermined confirmation sound may be emitted.
[0169]
As a result, the user simply operates the soft capture button 227 or the mechanical capture button 23, and an effect is obtained in which the exposure amount is adjusted only near the center of the photographed image frame (for example, the subject in the center is raised). Image).
[0170]
Further, the position of the AE frame 361 can be arbitrarily designated by the user as long as it is within the EVF area 221. That is, as shown in FIG. 21C, when the user taps on the EVF area 221 once using the touch pen 35 or the like, the CPU 131 detects the position tapped by the user based on the position information supplied from the touch panel 36. Is moved to the center of the AE area 361, and the camera unit 22 is caused to execute AE processing for the AE area 361.
[0171]
When it is desired to return the AE region 361 to the initial state (the state shown in FIG. 21A), the user performs a double tap on the EVF area 221. The CPU 131 initializes the AE area based on the information supplied from the touch panel 36 and indicating that the user has double-tapped, and controls the display control unit 136 to perform spot photometry displayed on the LCD 28. The pointer 260 is returned to the initial state, and the camera control unit 210 is controlled to execute the AE process.
[0172]
As shown in FIG. 21D, when the user moves the AF frame 261 in the above-described constant AF mode or one-shot AF mode, the spot metering pointer 260 is positioned at the center of the AF area. The AE area 361 may be moved in the same manner.
[0173]
Furthermore, although illustration is omitted, as in the case of FIG. 14D, when a plurality of grid lines are set in the EVF area 221 at a predetermined interval and the user taps once on the EVF area 221, the CPU 131 However, the position information of the position tapped by the user is obtained from the touch panel 36, the intersection of the grid lines at the nearest position is calculated, and the spot photometry pointer 260 is moved so that the coordinates of the intersection are the center of the AE area 361. The AE process may be executed by the camera control unit 210.
[0174]
In the above, the area of the AE area 361 may be any area as long as the area of the normal AE area 361 is wider than the area at the time of spot metering. Further, the AE area 361 and the spot photometry pointer 260 may be displayed in the EVF area 221 or may not be displayed.
[0175]
Next, the AE process in the spot photometry mode described above will be specifically described. When the user selects “ON” in the spot metering item 351 on the setting screen 301 in FIG. 20, the mode shifts to the spot metering mode, and the AE area changes from the state in FIG. 21A to the state in FIG. 21B. Then, the PDA 1 starts spot AE processing.
[0176]
The spot AE process in the spot photometry mode will be described with reference to the flowcharts of FIGS. As described above with reference to FIG. 21B, in the initial state of the spot metering mode (the state in which the user does not designate the position of the AE region 361), the EVF area 221 has a narrow AE region at the center. The spot metering pointer 260 is displayed at the center of the EVF area 221. The spot photometry pointer 260 is displayed at the center of the EVF area 221.
[0177]
In step S91, the CPU 131 controls the touch panel 36 to determine whether or not the position of the AE area has been designated by the user as shown in FIG. 21C. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the CPU 131 with the position information.
[0178]
When the position information of the tapped position is supplied from the touch panel 36 and the CPU 131 determines that the position of the AE area 361 is designated, the CPU 131 proceeds to step S92, and based on the supplied position information, the spot photometry pointer 260 is placed at the specified position. That is, the CPU 131 sets the AE area 361 so that the position designated by the user is the center.
[0179]
In step S93, the camera control unit 210 adjusts the exposure of the set AE area 361 based on the position information of the AE area supplied from the CPU 131, and performs AE processing.
[0180]
When the AE process is completed, the CPU 131 advances the process to step S94, controls the display control unit 136 to notify the position of the spot metering pointer 260 and the end of the AE process, and is displayed on the LCD 28. The spot metering pointer 260 is blinked for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S95.
[0181]
In step S91, when it is determined that the position information is not supplied from the touch panel 36 and the position of the AE area 361 is not designated, the CPU 131 omits the processes of steps S92 to S94 and proceeds to step S95. .
[0182]
In step S95, the touch panel 36 is controlled to determine whether or not the user has instructed initialization of the AE area 361. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the information to the CPU 131.
[0183]
When it is determined that the double tap information is supplied from the touch panel 36 and the initialization of the AE area 361 is instructed, the CPU 131 advances the process to step S96 to place the spot photometry pointer 260 at the initial position. That is, the CPU 131 arranges the spot metering pointer 260 at a position where the center of the AE area is at the center of the EVF area 221.
[0184]
In step S97, the camera control unit 210 adjusts the exposure for the set AE area 361 based on the position information of the AE area 361 supplied to the CPU 131, and performs AE processing.
[0185]
When the AE process ends, the CPU 131 advances the process to step S98, controls the display control unit 136 to notify the position of the spot metering pointer and the end of the AE process, and is displayed on the LCD 28. The spot metering pointer 260 is blinked for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S99 in FIG.
[0186]
If it is determined in step S95 that the user has not instructed initialization of the AE area 361, the CPU 131 skips steps S96 to S98 and proceeds to step S99 in FIG.
[0187]
In step S99 in FIG. 23, the CPU 131 monitors the touch panel 36 and the input unit 137, and determines whether the mechanical capture button 23 is pressed halfway by the user or the soft capture button 227 on the main screen 220 is operated. judge.
[0188]
When it is determined that the mechanical capture button 23 has been pressed halfway or the soft capture button 227 on the main screen 220 has been operated, the CPU 131 executes AE processing for the AE area 361 in step S100.
[0189]
When the AE process ends, the CPU 131 advances the process to step S101, controls the display control unit 136 to notify the position of the spot photometry pointer 260 and the end of the AE process, and is displayed on the LCD 28. The spot metering pointer 260 is blinked for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S102.
[0190]
If it is determined in step S99 that the mechanical capture button 23 has not been pressed halfway and the soft capture button 227 on the main screen 220 has not been operated, the CPU 131 omits steps S100 and S101. Then, the process proceeds to step S102.
[0191]
In step S102, the CPU 131 determines whether or not to end the spot AE process based on a user instruction or the like. If it is determined not to end, the CPU 131 returns the processing to step S91 in FIG. 22 and repeats the subsequent processing.
[0192]
If it is determined in step S102 that the spot AE process is to be ended, the CPU 131 completes the spot AE process after performing the end process in step S103.
[0193]
With the spot photometry mode as described above, the user can easily obtain a still image that has been subjected to the spot AE process for an arbitrary position in the captured image frame.
[0194]
Next, as shown in FIG. 21D, AF processing and AE processing in the case where the spot photometry pointer 260 is always placed at the center of the AE frame 261 will be described.
[0195]
First, the constant AF process executed in the constant AF mode in the case described above will be described with reference to the flowcharts of FIGS. In this case as well, as in the case of the constant AF mode described above, in the initial state (the state where the user has not designated the position of the AF frame 261), the EVF area 221 shows the first AF area that indicates the range of the wider AF area. The size of the AF frame 261 is arranged so that its center is located at the center of the EVF area 221. In the spot metering mode, a spot metering pointer 260 is arranged at the center of the EVF area 221 as shown in FIG. 21B.
[0196]
In step S121, the CPU 131 controls the touch panel 36 to determine whether or not the position of the AF frame 261 has been designated by the user as shown in FIG. 21D. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the CPU 131 with the position information.
[0197]
When the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AF frame 261 is designated, the CPU 131 advances the process to step S122, and the first size is based on the supplied position information. A smaller second size AF frame is placed at the specified position.
[0198]
In step S123, the CPU 131 determines whether or not the AE mode is the spot photometry mode. If the CPU 131 determines that the AE mode is the spot photometry mode, in step S124, the center of the AE area 361 is the center of the AF area. The spot metering pointer 260 is arranged so as to be at the same position. The CPU 131 having the spot metering pointer 260 advances the process to step S125.
[0199]
If it is determined in step S123 that the mode is not the spot photometry mode, the CPU 131 omits the process of step S124 and advances the process to step S125.
[0200]
In step S <b> 125, the camera control unit 210 focuses on the AF area surrounded by the arranged AF frame 261 based on the position information of the AF area and the AE area 361 supplied from the CPU 131 by the TTL contrast detection method. At the same time, the exposure is adjusted for the arranged AE region 361.
[0201]
When the focus adjustment and the exposure adjustment are completed, the CPU 131 advances the process to step S126, and controls the display control unit 136 to notify the positions of the AF frame 261 and the spot metering pointer 260 and the end of the adjustment process. Then, the AF frame 261 and the spot photometry pointer 260 displayed on the LCD 28 are blinked for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S127.
[0202]
In step S121, when it is determined that the position information is not supplied from the touch panel 36 and the position of the AF frame 261 is not designated, the CPU 131 skips the processing of steps S122 to S126 and proceeds to step S127. .
[0203]
In step S127, the CPU 131 controls the touch panel 36 to determine whether or not the user has instructed initialization of the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the information to the CPU 131.
[0204]
When it is determined that the double tap information is supplied from the touch panel 36 and the initialization of the AF frame 261 is instructed, the CPU 131 advances the process to step S128 and arranges the first size AF frame 261 at the initial position. .
[0205]
In step S129, the CPU 131 determines whether or not the AE mode is the spot photometry mode. If the CPU 131 determines that the AE mode is the spot photometry mode, in step S130, the center of the AE area 361 is the center of the AF area. The spot metering pointer 260 is arranged so as to be at the same position. The CPU 131 on which the spot photometry pointer 260 is arranged advances the processing to step S131.
[0206]
If it is determined in step S129 that the mode is not the spot photometry mode, the CPU 131 omits the process of step S130 and advances the process to step S131.
[0207]
In step S131, the camera control unit 210 uses the TTL contrast detection method for the AF area surrounded by the arranged AF frame 261 based on the position information of the AF frame 261 and the spot metering pointer 260 supplied from the CPU 131. In addition to adjusting the focus, exposure adjustment for the AE region 361 is performed.
[0208]
When these adjustment processes are completed, the CPU 131 advances the process to step S132, and controls the display control unit 136 to notify the positions of the AF frame 261 and the spot metering pointer 260 and the end of the adjustment process. Then, the AF frame 261 and the spot photometry pointer 260 displayed on the LCD 28 are blinked for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S133 in FIG.
[0209]
If it is determined in step S127 that the user has not instructed the initialization of the AF frame 261, the CPU 131 skips steps S128 to S132 and proceeds to step S133 in FIG.
[0210]
In step S133 of FIG. 25, the CPU 131 monitors the touch panel 36 and the input unit 137, and determines whether the mechanical capture button 23 is pressed halfway by the user or the soft capture button 227 on the main screen 220 is operated. judge.
[0211]
If it is determined that the mechanical capture button 23 has been pressed halfway or the soft capture button 227 on the main screen 220 has been operated, the CPU 131 determines the TTL contrast for the AF area surrounded by the AF frame 261 in step S134. The focus is adjusted by the detection method, and the exposure for the AE region 361 is adjusted.
[0212]
When the adjustment process ends, the CPU 131 advances the process to step S135 to control the display control unit 136 so as to notify the position of the AF frame 261 and the spot metering pointer 260 and the end of the adjustment process, The AF frame 261 and the spot photometry pointer 260 displayed on the LCD 28 are blinked for a predetermined time. When the blinking ends, the CPU 131 advances the process to step S136.
[0213]
If it is determined in step S133 that the mechanical capture button 23 has not been pressed halfway and the soft capture button 227 on the main screen 220 has not been operated, the CPU 131 omits steps S134 and S135. Then, the process proceeds to step S136.
[0214]
In step S136, the CPU 131 determines whether or not to end the focus process based on a user instruction or the like. If it is determined not to end, the CPU 131 returns the processing to step S121 in FIG. 24 and repeats the subsequent processing.
[0215]
If it is determined in step S136 that the focus process is to be terminated, the CPU 131 performs the termination process in step S137 and then always terminates the AF process.
[0216]
With the continuous AF mode as described above, the user can easily obtain a still image that has been subjected to a more suitable AF process and a more effective AE process regardless of the image configuration.
[0217]
Next, the one-shot AF process, which is the AF process in the one-shot AF mode, in the above-described case will be described with reference to the flowcharts of FIGS. As described above, even in the initial state of the one-shot AF mode (the state where the user does not specify the position of the AF frame 261), as in the case of the constant AF mode, as shown in FIG. 21B, the EVF area 221 Are provided with a first size AF frame 261 indicating the range of a wider AF area so that the center thereof is located at the center of the EVF area 221. In the spot metering mode, a spot metering pointer 260 is arranged at the center of the EVF area 221 as shown in FIG. 21B.
[0218]
In step S151, the CPU 131 controls the touch panel 36 to determine whether or not the position of the AF frame 261 has been designated by the user as shown in FIG. 21D. When the user taps once on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the CPU 131 with the position information.
[0219]
When the position information of the tapped position is supplied from the touch panel 36 and it is determined that the position of the AF frame 261 is designated, the CPU 131 advances the process to step S152 and, based on the supplied position information, the first size. A smaller second size AF frame is placed at the specified position.
[0220]
In step S153, the CPU 131 determines whether or not the AE mode is the spot photometry mode. If it is determined that the AE mode is the spot photometry mode, in step S154, the center of the AE area 361 is the same position as the center of the AF area. The spot metering pointer 260 is arranged so that The CPU 131 having the spot metering pointer 260 advances the process to step S155.
[0221]
If it is determined in step S153 that the mode is not the spot photometry mode, the CPU 131 omits the process of step S154 and proceeds to step S155.
[0222]
In step S155, the CPU 133 supplies the position information of the AF frame 261 to the camera control unit 210 of the camera unit 22, and the camera control unit 210 performs AF surrounded by the arranged AF frame 261 based on the position information. For the area, the focus is adjusted by the TTL contrast detection method, and the AE process is performed on the AE area 361 to adjust the exposure.
[0223]
When the adjustment process ends, the CPU 131 advances the process to step S156, controls the display control unit 136 to notify the positions of the AF frame 261 and the spot photometry pointer 260, and the end of the adjustment process, The AF frame 261 and the spot metering pointer 260 displayed on the LCD 28 are blinked for a predetermined time.
[0224]
In step S157, when the adjustment process is completed, the CPU 131 controls the camera control unit 210 to fix the aperture and lens position of the lens unit 201, and to fix the exposure and focus. Further, in step S158, the CPU 131 invalidates the half-press process by operating the mechanical capture button 23 and the soft capture button 227.
[0225]
The CPU 131 having invalidated the half-press process advances the process to step S159 in FIG.
[0226]
In step S151 in FIG. 26, when it is determined that the position information is not supplied from the touch panel 36 and the position of the AF frame 261 is not designated, the CPU 131 omits the processes in steps S152 to S158 and performs the process in FIG. The process proceeds to step S159.
[0227]
In step S159 of FIG. 27, the CPU 131 controls the touch panel 36 to determine whether or not the user has instructed initialization of the AF frame 261. When the user double taps on the EVF area 221 of the LCD 28, the touch panel 36 detects this and supplies the information to the CPU 131.
[0228]
When it is determined that the double tap information is supplied from the touch panel 36 and the initialization of the AF frame 261 is instructed, the CPU 131 advances the process to step S160 and arranges the first size AF frame at the initial position.
[0229]
In step S161, the CPU 131 determines whether or not the AE mode is the spot photometry mode. If the CPU 131 determines that the AE mode is the spot photometry mode, in step S162, the center of the AE area 361 is the same position as the center of the AF area. The spot metering pointer 260 is arranged so that The CPU 131 having the spot metering pointer 260 advances the process to step S163.
[0230]
If it is determined in step S161 that the mode is not the spot photometry mode, the CPU 131 omits the process of step S162 and advances the process to step S163.
[0231]
In step S163, the camera control unit 210 adjusts the focus of the AF area surrounded by the arranged AF frame 261 by the TTL contrast detection method, performs AE processing on the AE area 361, and performs exposure. Adjust.
[0232]
When the adjustment process ends, the CPU 131 advances the process to step S164, controls the display control unit 136 to notify the position of the AF frame 261 and the spot metering pointer 260, and the end of the adjustment process, to the LCD 28. The displayed AF frame 261 and spot metering pointer 260 are blinked for a predetermined time.
[0233]
As in the case of steps S157 and S158, the CPU 131 controls the camera control unit 210 when the adjustment process is completed in step S165 to fix the aperture and lens position of the lens unit 201, and the exposure and focus positions. In step S166, the half-pressing process by operating the mechanical capture button 23 and the soft capture button 227 is invalidated. Then, the CPU 131 advances the process to step S167.
[0234]
If it is determined in step S159 that the user has not instructed initialization of the AF frame 261, the CPU 131 skips steps S160 to S166 and proceeds to step S167.
[0235]
In step S167, the CPU 131 determines whether to end the focus process based on a user instruction or the like. If it is determined not to end, the CPU 131 returns the process to step S151 in FIG. 26 and repeats the subsequent processes.
[0236]
If it is determined in step S167 that the focus process is to be ended, the CPU 131 performs the end process in step S168 and then ends the one-shot AF process.
[0237]
With the one-shot AF mode as described above, the user can easily obtain a still image that has been subjected to more suitable AF processing and more effective AE processing even in so-called “place pin” shooting. .
[0238]
In the above, it has been described that the AF processing is performed using the TTL contrast detection method, but the AF processing method may be other than this, for example, the distance to the subject by outputting infrared rays or ultrasonic waves. Various active methods for measurement, a TTL phase difference detection method for detecting the focus position by dividing the light passing through the photographing lens into two, and detecting the amount and direction of the deviation may be used.
[0239]
Further, the end of the adjustment process such as the AF process and the AE process has been described so as to notify the user by blinking the AF frame 261 and the spot metering pointer 260. However, the present invention is not limited thereto, and other indicators may be used. Alternatively, a confirmation sound may be output, or a plurality of methods may be combined.
[0240]
Furthermore, the confirmation sound may be output every time other processing is performed, for example, when the focus mode is switched or when a still image is captured. At that time, the content of the confirmation sound may be changed by processing corresponding to the confirmation sound.
[0241]
In addition, although the specification of the position of the AF area and the AE area by the user has been described as being the center of each area, the present invention is not limited to this. For example, the position of the area such as the coordinates of the upper right edge of the area should be specified It may be. Further, the AF area and the AE area may be moved so that the coordinates designated by the user are located outside the area.
[0242]
In addition, it has been described that the user designates the position of the AF area or the AE area when the user double-taps on the EVF area 221. However, the present invention is not limited to this. It may be initialized when tapping on the EVF area 221 for a long time, may be initialized when a still image is captured, or in any of these cases It may be initialized.
[0243]
In the above, description was made using a PDA with an imaging function, but the present invention is not limited to this, for example, with an imaging function including an AF function and an AE function, such as a digital still camera or a mobile phone having an imaging function, Further, any electronic device including a display for displaying the obtained image may be used.
[0244]
Accordingly, an input unit that can freely move the position of the AF frame 261 or the spot metering pointer, such as a cross key, for example, even if the touch panel is not superimposed on the display as in the above-described example. However, in particular, in the case of a PDA or notebook personal computer having an imaging function with a touch panel superimposed on the display, the AF frame 261 and the spot metering pointer can be operated more easily. Can do.
[0245]
In the above description, the camera 22, the LCD 28, and the like have been described as being configured as a single PDA. However, the present invention is not limited thereto, and each part of the PDA 1 described above may be configured separately.
[0246]
In the above-described example, the memory mounted in the slot 64 is the memory card 143. However, the memory card 143 is not limited as long as the recording medium can accommodate the slot 64. For example, although not shown, other semiconductor memories, magnetic disks, optical disks, magneto-optical disks, etc. may be used.
[0247]
The above processing can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software is installed in the PDA 1 from a network or a recording medium. However, the recording medium is not only directly attached to the PDA 1, but may be attached to another device as necessary. In this case, the program is installed in the PDA 1 when the other device and the PDA 1 communicate with each other.
[0248]
As shown in FIG. 8, this recording medium is distributed not only for the apparatus main body but also for the semiconductor memory such as the memory stick 143 in which the program is stored, which is distributed for supplying the program to the user, and is not shown. Includes, for example, a magnetic disk (including a floppy disk), an optical disk (including a CD-ROM (compact disk-read only memory), a DVD (digital versatile disk)), or a magneto-optical disk (MD (mini-disk)). ) Or the like. Furthermore, it is configured by a ROM 132 in which a program is stored and a storage unit 139 as an EEPROM or a hard disk, which are supplied to the user in a state of being incorporated in the apparatus main body in advance.
[0249]
In the above, the processing shown in each flowchart is executed by the CPU 131 in FIG. 8 by software. However, the processing is executed by hardware by preparing hardware for executing each processing. Of course, it is possible.
[0250]
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
[0251]
【The invention's effect】
As described above, according to the present invention, a subject can be imaged. In particular, more suitable automatic focusing can be performed.
[Brief description of the drawings]
FIG. 1 is an external view illustrating an example of a front configuration of a PDA to which the present invention is applied.
2 is an external view illustrating a configuration example of a back surface of the PDA in FIG. 1. FIG.
3 is a perspective view for explaining a rotation and opening / closing operation of a display unit of the PDA of FIG. 1; FIG.
4 is a perspective view for explaining the rotation and opening / closing operation of the display unit of the PDA of FIG. 1; FIG.
5 is a perspective view for explaining the rotation and opening / closing operation of the display unit of the PDA of FIG. 1; FIG.
6 is a diagram showing a usage state of the PDA of FIG. 1; FIG.
7 is a diagram showing a usage state of the PDA of FIG. 1. FIG.
8 is a block diagram showing an example of the internal configuration of the PDA shown in FIG. 1. FIG.
9 is a block diagram showing an example of the internal configuration of the camera unit of the PDA in FIG. 24. FIG.
FIG. 10 is a schematic diagram showing a state of a main screen in a still image shooting mode.
11 is a schematic diagram showing a display example of the EVF area in FIG.
FIG. 12 is a schematic diagram illustrating a configuration example of a setting screen.
FIG. 13 is a schematic diagram illustrating another configuration example of the setting screen.
FIG. 14 is a schematic diagram showing a display example of an AF frame.
FIG. 15 is a flowchart for describing imaging processing of the PDA in FIG. 1;
FIG. 16 is a flowchart for explaining continuous AF processing of the PDA of FIG. 1;
FIG. 17 is a flowchart following FIG. 16 for explaining the continuous AF processing of the PDA of FIG. 1;
18 is a flowchart illustrating one-shot AF processing of the PDA in FIG.
FIG. 19 is a flowchart following FIG. 18 for explaining the one-shot AF processing of the PDA of FIG. 1;
FIG. 20 is a schematic diagram illustrating still another configuration example of the setting screen.
FIG. 21 is a schematic diagram showing a display example of a spot photometry pointer.
22 is a flowchart illustrating spot AE processing of the PDA in FIG.
23 is a flowchart subsequent to FIG. 22 for explaining the spot AE processing of the PDA in FIG. 1;
FIG. 24 is a flowchart for explaining another example of the constant AF process of the PDA in FIG. 1;
25 is a flowchart subsequent to FIG. 24 for explaining another example of the constant AF processing of the PDA of FIG. 1;
FIG. 26 is a flowchart illustrating another example of the one-shot AF process of the PDA in FIG.
FIG. 27 is a flowchart following FIG. 26 for explaining another example of the one-shot AF process of the PDA of FIG.
[Explanation of symbols]
22 camera, 23 mechanical capture button, 28 LCD, 131 CPU, 136 display control unit, 201 lens unit, 202 CCD, 210 camera control unit, 211 lens unit drive circuit, 221 EVF area, 227 soft capture button, 260 for spot metering Pointer, 261 AF frame, 361 AE area

Claims (12)

被写体を撮像し、前記被写体の画像を取り込む撮像手段と、
ユーザにより入力される、撮像範囲内における第1の領域の位置の指定を受け付ける受け付け手段と、
前記受け付け手段により受け付けられた前記指定に基づいて、前記第1の領域を前記撮像範囲内の任意の位置に設定する位置設定手段と、
前記撮像手段による撮像の焦点距離を調整させる第1の指示入力、または、前記焦点距離を調整させた後、さらに前記撮像手段により得られた前記被写体の画像を記録させる第2の指示入力を受け付ける入力手段と、
前記入力手段により前記第1の指示入力または前記第2の指示入力が受け付けられたときと、前記位置設定手段により前記第1の領域の位置が設定されたときに、前記焦点距離を調整し、前記第1の領域に含まれる前記被写体に合焦させる合焦手段と、
前記第1の領域の位置が設定されたときに前記合焦手段により前記被写体に合焦された後は、前記入力手段により前記第1の指示入力または前記第2の指示入力が受け付けられても前記合焦手段による前記被写体への合焦を禁止する禁止手段と
を備え、
前記位置設定手段は、前記第1の領域の位置を設定する際に、前記第1の領域の大きさを、前記受け付け手段により前記指定が受け付けられていない場合より小さく設定する
ことを特徴とする撮像装置
Imaging means for imaging a subject and capturing an image of the subject;
Accepting means for accepting designation of the position of the first region within the imaging range, which is input by the user;
Position setting means for setting the first region at an arbitrary position within the imaging range based on the designation received by the receiving means;
A first instruction input for adjusting a focal length of imaging by the imaging unit or a second instruction input for recording an image of the subject obtained by the imaging unit after adjusting the focal distance is received. Input means;
When the first instruction input or the second instruction input is received by the input means, and when the position of the first region is set by the position setting means, the focal length is adjusted, Focusing means for focusing on the subject included in the first area;
After the focus is focused on the subject when the position of the first area is set, the first instruction input or the second instruction input may be received by the input means. And prohibiting means for prohibiting focusing on the subject by the focusing means,
The position setting means, when setting the position of the first area, sets the size of the first area smaller than the case where the designation is not accepted by the accepting means. Imaging device .
前記位置設定手段は、前記受け付け手段により前記指定が受け付けられていない場合、前記第1の領域の中心が前記撮像範囲の中心に位置するように、前記第1の領域の位置を設定する
ことを特徴とする請求項1に記載の撮像装置。
The position setting means sets the position of the first area so that the center of the first area is located at the center of the imaging range when the designation is not accepted by the accepting means. 2. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized.
前記位置設定手段は、前記受け付け手段により前記指定が受け付けられた場合、前記第1の領域の中心が、前記ユーザが指定した座標に位置するように、前記第1の領域の位置を設定する
ことを特徴とする請求項1に記載の撮像装置。
The position setting means sets the position of the first area so that the center of the first area is located at the coordinates specified by the user when the designation is accepted by the accepting means. 2. The imaging device according to claim 1, wherein:
前記撮像手段により前記被写体を撮像して得られた画像を表示する表示手段をさらに備え、
前記受け付け手段は、前記表示手段に重畳されたタッチパネルにより構成され、前記ユーザが前記表示手段により表示されている前記画像を確認しながら第1の方法で入力した座標を検出し、前記指定として受け付ける
ことを特徴とする請求項1に記載の撮像装置。
A display unit for displaying an image obtained by imaging the subject by the imaging unit;
The accepting means includes a touch panel superimposed on the display means, detects coordinates input by the first method while confirming the image displayed on the display means by the user, and accepts the designation as the designation. 2. The imaging device according to claim 1, wherein
前記第1の方法は、前記ユーザが前記タッチパネルを1回タップする方法である
ことを特徴とする請求項4に記載の撮像装置。
5. The imaging apparatus according to claim 4, wherein the first method is a method in which the user taps the touch panel once.
前記第1の領域の設定を初期化して、前記受け付け手段により前記指定が受け付けられた状態の設定から、前記指定が受け付けられていない状態の設定に戻す初期化手段をさらに備え、
前記受け付け手段は、前記ユーザが第2の方法で入力した、前記第1の領域の設定の初期化の指示をさらに受け付け、
前記初期化手段は、前記受け付け手段により受け付けられた前記指示に基づいて、前記第1の領域の設定を初期化する
ことを特徴とする請求項4に記載の撮像装置。
Initializing the setting of the first region, further comprising initialization means for returning from the setting of the state where the designation is accepted by the accepting means to the setting of the state where the designation is not accepted,
The accepting means further accepts an instruction to initialize the setting of the first area, which is input by the user in a second method;
5. The imaging apparatus according to claim 4, wherein the initialization unit initializes the setting of the first area based on the instruction received by the reception unit.
前記第2の方法は、前記ユーザが前記タッチパネルを所定の時間内に2回タップする方法である
ことを特徴とする請求項6に記載の撮像装置。
7. The imaging apparatus according to claim 6, wherein the second method is a method in which the user taps the touch panel twice within a predetermined time.
前記第2の方法は、前記ユーザが所定の時間以上接触するように前記タッチパネルをタップする方法である
ことを特徴とする請求項6に記載の撮像装置。
7. The imaging apparatus according to claim 6, wherein the second method is a method of tapping the touch panel so that the user contacts for a predetermined time or longer.
前記表示手段は、前記合焦手段により前記第1の領域に含まれる前記被写体が合焦された場合、前記画像に重畳して前記第1の領域の外枠を所定の回数点滅表示する
ことを特徴とする請求項4に記載の撮像装置。
The display means, when the subject included in the first area is focused by the focusing means, displays the outer frame of the first area blinking a predetermined number of times in a superimposed manner on the image. 5. The imaging apparatus according to claim 4, wherein the imaging apparatus is characterized.
前記撮像範囲内の所定の第2の領域を対象として露出を調整する露出調整手段をさらに備え、
前記位置設定手段は、前記第2の領域の中心が、前記受け付け手段により受け付けられた前記指定に基づいて、前記撮像範囲内の任意の位置に設定した前記第1の領域の中心に位置するように、前記第2の領域の位置をさらに設定する
ことを特徴とする請求項1に記載の撮像装置。
Exposure adjustment means for adjusting the exposure for a predetermined second region within the imaging range;
The position setting means is arranged such that the center of the second area is positioned at the center of the first area set at an arbitrary position within the imaging range based on the designation received by the receiving means. 2. The imaging apparatus according to claim 1, wherein the position of the second region is further set.
被写体を撮像する撮像部を有する撮像装置の撮像方法において、
前記撮像部において撮像された前記被写体の画像の取り込みを制御する取り込み制御ステップと、
ユーザにより入力される、前記撮像部の撮像範囲内における所定の第1の領域の位置の指定の受け付けを制御する受け付け制御ステップと、
前記受け付け制御ステップの処理により制御され、受け付けられた前記指定に基づいて、前記第1の領域を、前記撮像範囲内の任意の位置に、前記指定が受け付けられていない場合よりも小さく設定する位置設定ステップと、
前記撮像部による撮像の焦点距離を調整させる第1の指示入力、または、前記焦点距離を調整させた後、さらに前記撮像部により得られた前記被写体の画像を記録させる第2の指示入力を受け付けさせる入力制御ステップと、
前記入力制御ステップの処理により制御されて、前記第1の指示入力または前記第2の指示入力が受け付けられたときと、前記位置設定ステップの処理により前記第1の領域の位置が設定されたときに、前記焦点距離を調整し、前記第1の領域に含まれる前記被写体に合焦させる合焦ステップと、
前記第1の領域の位置が設定されたときに前記合焦ステップの処理により前記被写体に合焦された後は、前記入力制御ステップの制御により前記第1の指示入力または前記第2の指示入力が受け付けられても前記合焦ステップの処理による前記被写体への合焦を禁止する禁止ステップと
を含むことを特徴とする撮像方法。
In an imaging method of an imaging apparatus having an imaging unit that images a subject,
A capture control step for controlling capture of the image of the subject imaged by the imaging unit;
An acceptance control step for controlling acceptance of designation of a position of a predetermined first region within an imaging range of the imaging unit, which is input by a user;
A position that is controlled by the process of the acceptance control step and sets the first area at an arbitrary position within the imaging range smaller than the case where the designation is not accepted, based on the accepted designation. Configuration steps;
A first instruction input for adjusting a focal length of imaging by the imaging unit or a second instruction input for recording an image of the subject obtained by the imaging unit after adjusting the focal distance is received. An input control step to
Controlled by the process of the input control step, when the first instruction input or the second instruction input is accepted, and when the position of the first region is set by the process of the position setting step And adjusting the focal length to focus on the subject included in the first area; and
After the subject is focused by the process of the focusing step when the position of the first area is set, the first instruction input or the second instruction input is controlled by the control of the input control step. And a prohibiting step of prohibiting focusing on the subject by the processing of the focusing step even if accepted.
撮像部を用いて被写体を撮像する処理をコンピュータに行わせるプログラムであって、
前記撮像部において撮像された前記被写体の画像の取り込みを制御する取り込み制御ステップと、
ユーザにより入力される、前記撮像部の撮像範囲内における所定の第1の領域の位置の指定の受け付けを制御する受け付け制御ステップと、
前記受け付け制御ステップの処理により制御され、受け付けられた前記指定に基づいて、前記第1の領域を、前記撮像範囲内の任意の位置に、前記指定が受け付けられていない場合よりも小さく設定する位置設定ステップと、
前記撮像部による撮像の焦点距離を調整させる第1の指示入力、または、前記焦点距離を調整させた後、さらに前記撮像部により得られた前記被写体の画像を記録させる第2の指示入力を受け付けさせる入力制御ステップと、
前記入力制御ステップの処理により制御されて、前記第1の指示入力または前記第2の指示入力が受け付けられたときと、前記位置設定ステップの処理により前記第1の領域の位置が設定されたときに、前記焦点距離を調整し、前記第1の領域に含まれる前記被写体に合焦させる合焦ステップと、
前記第1の領域の位置が設定されたときに前記合焦ステップの処理により前記被写体に合焦された後は、前記入力制御ステップの制御により前記第1の指示入力または前記第2の指示入力が受け付けられても前記合焦ステップの処理による前記被写体への合焦を禁止する禁止ステップと
を含む処理をコンピュータに実行させるためのプログラム。
A program for causing a computer to perform a process of imaging a subject using an imaging unit,
A capture control step for controlling capture of the image of the subject imaged by the imaging unit;
An acceptance control step for controlling acceptance of designation of a position of a predetermined first region within an imaging range of the imaging unit, which is input by a user;
A position that is controlled by the process of the acceptance control step and sets the first area at an arbitrary position within the imaging range smaller than the case where the designation is not accepted, based on the accepted designation. Configuration steps;
A first instruction input for adjusting a focal length of imaging by the imaging unit or a second instruction input for recording an image of the subject obtained by the imaging unit after adjusting the focal distance is received. An input control step to
Controlled by the process of the input control step, when the first instruction input or the second instruction input is accepted, and when the position of the first region is set by the process of the position setting step And adjusting the focal length to focus on the subject included in the first area; and
After the subject is focused by the process of the focusing step when the position of the first region is set, the first instruction input or the second instruction input is controlled by the input control step. A program for causing a computer to execute a process including a prohibiting step of prohibiting focusing on the subject by the process of the focusing step even if accepted.
JP2002376101A 2002-12-26 2002-12-26 Imaging apparatus and method, and program Expired - Fee Related JP4368106B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002376101A JP4368106B2 (en) 2002-12-26 2002-12-26 Imaging apparatus and method, and program
US10/743,760 US7551223B2 (en) 2002-12-26 2003-12-24 Apparatus, method, and computer program for imaging and automatic focusing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002376101A JP4368106B2 (en) 2002-12-26 2002-12-26 Imaging apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2004208122A JP2004208122A (en) 2004-07-22
JP4368106B2 true JP4368106B2 (en) 2009-11-18

Family

ID=32813647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002376101A Expired - Fee Related JP4368106B2 (en) 2002-12-26 2002-12-26 Imaging apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4368106B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006191302A (en) 2005-01-05 2006-07-20 Toshiba Corp Electronic camera device and its operation guiding method
JP4929630B2 (en) * 2005-07-06 2012-05-09 ソニー株式会社 Imaging apparatus, control method, and program
JP4684057B2 (en) * 2005-09-16 2011-05-18 三洋電機株式会社 Electronic camera
KR101140211B1 (en) 2006-11-17 2012-05-07 엘지전자 주식회사 Mobile Communication Terminal and Focusing Method Using the Same
JP5178678B2 (en) 2009-09-30 2013-04-10 キヤノン株式会社 Imaging system and lens device
JP6199534B2 (en) * 2011-04-26 2017-09-20 京セラ株式会社 Electronic device and control method thereof
JP5848561B2 (en) * 2011-09-20 2016-01-27 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP6930131B2 (en) * 2017-02-24 2021-09-01 日本電気株式会社 Terminal equipment, processing methods and programs

Also Published As

Publication number Publication date
JP2004208122A (en) 2004-07-22

Similar Documents

Publication Publication Date Title
JP4561767B2 (en) Imaging apparatus and method, and program
US7551223B2 (en) Apparatus, method, and computer program for imaging and automatic focusing
JP4284998B2 (en) Imaging apparatus and method, and program
JP6765956B2 (en) Imaging control device and its control method
JP6748582B2 (en) Imaging device, control method thereof, program, and recording medium
JP5765594B2 (en) Imaging apparatus and method, and program
US10715719B2 (en) Image capturing apparatus and control method thereof
JP6833505B2 (en) Imaging control device and its control method
JP6833507B2 (en) Imaging control device and its control method
JP6806572B2 (en) Imaging control device, imaging device, control method, program, and storage medium
JP2014075716A (en) Imaging device, control method of imaging device, program, and recording medium
JP3969304B2 (en) Imaging apparatus and method, and program
JP4368106B2 (en) Imaging apparatus and method, and program
JP2014123888A (en) Imaging apparatus and control method of the same
JP6995605B2 (en) Electronic devices, control methods for electronic devices, programs and storage media
JP6918605B2 (en) Imaging control device, control method, program, and storage medium
JP5984887B2 (en) Zoom control device and control method thereof
JP6986918B2 (en) Electronic devices, control methods, programs, and storage media
JP2010271723A (en) Device and method and program
US11418703B2 (en) Electronic equipment to perform functions based on different touches to a touch detecting face
US11375115B2 (en) Image capturing apparatus, control method thereof, and recording medium thereof
JP2017174028A (en) Movable image display device
JP2017174029A (en) Image display device
JP2007097152A (en) Photographing apparatus
JP2020197976A (en) Electronic apparatus, control method for electronic apparatus, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061030

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061116

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090825

R151 Written notification of patent or utility model registration

Ref document number: 4368106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120904

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130904

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees