JP6104022B2 - Imaging apparatus, control method thereof, and program - Google Patents

Imaging apparatus, control method thereof, and program Download PDF

Info

Publication number
JP6104022B2
JP6104022B2 JP2013081336A JP2013081336A JP6104022B2 JP 6104022 B2 JP6104022 B2 JP 6104022B2 JP 2013081336 A JP2013081336 A JP 2013081336A JP 2013081336 A JP2013081336 A JP 2013081336A JP 6104022 B2 JP6104022 B2 JP 6104022B2
Authority
JP
Japan
Prior art keywords
display
enlarged
image
waveform
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013081336A
Other languages
Japanese (ja)
Other versions
JP2014204390A (en
Inventor
くる美 森
くる美 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013081336A priority Critical patent/JP6104022B2/en
Publication of JP2014204390A publication Critical patent/JP2014204390A/en
Application granted granted Critical
Publication of JP6104022B2 publication Critical patent/JP6104022B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、撮像映像のエッジ成分に基づく波形画像を表示する補助表示機能を有する撮像装置、その制御方法及びプログラムに関する。   The present invention relates to an imaging apparatus having an auxiliary display function for displaying a waveform image based on an edge component of a captured video, a control method thereof, and a program.

自動焦点検出(Auto Focus:以下、AFと記す)技術の進歩に伴い、スチルカメラやビデオカメラ等の撮像装置での焦点検出は主にAFが用いられている。   With the advancement of automatic focus detection (Auto Focus: hereinafter referred to as AF) technology, AF is mainly used for focus detection in an imaging apparatus such as a still camera or a video camera.

その一方で、マクロ撮影のようにフォーカスを厳密に合わせる必要がある場合や、意図的にぼけた映像を撮影する場合、AFでは合焦しづらい条件下にある場合等においては、手動による焦点調節(Manual Focus:以下、MFと記す)での撮影が行われることも多い。特にMF操作を行う場合、操作性や合焦精度は光学ファインダや表示装置(電子ビューファインダ(EVF))の解像度に大きく左右される。しかしながら、光学ファインダや表示装置の大型化や高解像度化は、撮像装置の大型化や高価格化につながる。そのため、全ての撮像装置において、容易かつ精度の高いMF操作を実現するのに十分な光学ファインダや表示装置が搭載されているとは言えない状況にある。   On the other hand, manual focus adjustment is necessary when it is necessary to focus precisely as in macro shooting, when shooting intentionally blurred images, or when AF is difficult to focus on. (Manual Focus: hereinafter referred to as MF) is often taken. In particular, when performing the MF operation, the operability and the focusing accuracy greatly depend on the resolution of the optical viewfinder and the display device (electronic viewfinder (EVF)). However, increasing the size and resolution of the optical viewfinder and display device leads to an increase in size and cost of the imaging device. Therefore, it cannot be said that all of the imaging devices are equipped with sufficient optical viewfinder and display device to realize easy and highly accurate MF operation.

そこで、撮影者が合焦度合い(合焦状態)をよりわかりやすく把握できるよう、様々な補助表示機能が実現されている。例えば撮像映像のうち合焦しているエッジ部分の強調表示(ピーキング)や、合焦状態確認のための部分拡大表示等がある。
また、特許文献1には、図形表示可能なビューファインダを備えた撮像装置であって、撮像信号から抽出した高域成分のヒストグラムをビューファインダに2次元グラフ表示する撮像装置ことが開示されている。
また、特許文献2には、撮像映像の所定方向におけるエッジ成分を抽出し、抽出したエッジ成分のレベルと、抽出された位置とを表す波形表示画像を生成し、撮像映像とともに、波形表示画像を表示する撮像装置が開示されている。
Therefore, various auxiliary display functions are realized so that the photographer can easily understand the degree of focus (in-focus state). For example, there are highlighting (peaking) of an in-focus edge portion in the captured image, partial enlargement display for confirming the in-focus state, and the like.
Further, Patent Document 1 discloses an imaging apparatus that includes a viewfinder that can display graphics, and that displays a high-frequency component histogram extracted from an imaging signal in a two-dimensional graph on the viewfinder. .
In Patent Document 2, an edge component in a predetermined direction of a captured image is extracted, a waveform display image representing the level of the extracted edge component and the extracted position is generated, and the waveform display image is displayed together with the captured image. An imaging device for display is disclosed.

特許第4089675号公報Japanese Patent No. 4089675 特開2010−243923号公報JP 2010-243923 A

しかしながら、ヒストグラムや波形表示画像を常時表示していると、肝心の撮影中映像の一部を覆ってしまうため、画角確認が困難になることがある点で問題があった。そのため、通常撮影中はヒストグラムや波形表示画像の表示をOFFし、フォーカスを確認する場面になるとわざわざONする作業が必要となり、その操作が煩雑であった。   However, when the histogram and the waveform display image are always displayed, a part of the important image being captured is covered, and there is a problem in that it is difficult to check the angle of view. Therefore, during normal shooting, the display of the histogram and the waveform display image is turned off, and it is necessary to turn it on when the focus is confirmed. This operation is complicated.

本発明は上記のような点に鑑みてなされたものであり、撮影中映像の邪魔になることなく、かつフォーカスを合わせるタイミングでエッジ成分に基づく波形画像が表示されるようにすることを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to display a waveform image based on an edge component at the timing of focusing without interfering with an image being shot. To do.

本発明の撮像装置は、撮像映像を表示部に表示する表示制御手段と、前記撮像映像の一部を前記表示部に拡大表示する拡大表示手段と、前記撮像映像のエッジ成分に基づく波形画像を生成し、前記表示部に表示する波形画像生成表示手段とを備え、前記拡大表示手段による撮像映像の拡大表示に連動して、前記波形画像生成表示手段が波形画像を生成、表示するモードを有し、前記拡大表示手段による撮像映像の拡大表示が解除され、通常の撮像映像の表示に戻った後、所定の時間の間、前記表示制御手段は、それまで拡大表示されていた領域を明示するとともに、前記波形画像生成表示手段は、それまで拡大表示されていた領域のエッジ成分に基づく波形画像と、前記領域外のエッジ成分に基づく波形画像とを視覚的に判別可能なように生成、表示することを特徴とする。 An imaging apparatus according to the present invention includes a display control unit that displays a captured image on a display unit, an enlarged display unit that displays an enlarged portion of the captured image on the display unit, and a waveform image based on an edge component of the captured image. Waveform image generation and display means for generating and displaying on the display unit, the waveform image generation and display means having a mode for generating and displaying the waveform image in conjunction with the enlarged display of the captured image by the enlarged display means. Then, after the enlarged display of the captured image by the enlarged display means is canceled and the display returns to the normal captured image display, the display control means clearly indicates the area that has been enlarged and displayed so far for a predetermined time. At the same time, the waveform image generation and display means generates a waveform image based on the edge component of the region that has been enlarged and displayed so that a waveform image based on the edge component outside the region can be visually discriminated. , And displaying.

本発明によれば、撮像映像の拡大表示に連動して、エッジ成分に基づく波形画像を生成、表示するモードを有するので、このモードにおいては、撮影中映像の邪魔になることなく、かつフォーカスを合わせるタイミングでエッジ成分に基づく波形画像が表示される。   According to the present invention, since the waveform image based on the edge component is generated and displayed in conjunction with the enlarged display of the captured image, in this mode, the focus can be adjusted without disturbing the image being captured. A waveform image based on the edge component is displayed at the timing of matching.

第1の実施形態に係るハイビジョンデジタルビデオカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the high-vision digital video camera which concerns on 1st Embodiment. ビデオ制御部における撮像映像からのエッジ成分抽出及びその波形画像の生成及び表示制御、拡大表示用画像の生成及び表示制御に係る構成を示す図である。It is a figure which shows the structure which concerns on edge component extraction from the picked-up image in a video control part, the production | generation and display control of the waveform image, and the production | generation and display control of the image for an enlarged display. 通常のエッジモニタ表示設定になっているときの表示例を示す図である。It is a figure which shows the example of a display when it is set to normal edge monitor display setting. 拡大表示に連動させるエッジモニタ表示設定になっているときの表示例を示す図である。It is a figure which shows the example of a display when it is set to the edge monitor display setting linked with an enlarged display. 第1の実施形態において拡大表示を実行するときの処理を示すフローチャートである。It is a flowchart which shows a process when performing enlarged display in 1st Embodiment. 第2の実施形態に係るハイビジョンデジタルビデオカメラのビデオ制御部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the video control part of the high-vision digital video camera which concerns on 2nd Embodiment. 第2の実施形態において拡大表示を解除し、通常画面表示を実行するときの処理を示すフローチャートである。It is a flowchart which shows a process when canceling | expanding a display and performing a normal screen display in 2nd Embodiment.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。
<第1の実施形態>
第1の実施形態に係る撮像装置の一例として、マニュアルフォーカス機能を備えたハイビジョンデジタルビデオカメラ(以下、ビデオカメラという)について説明する。
図1は、第1の実施形態に係るビデオカメラの構成を示すブロック図である。
レンズ部101は、被写体像を撮像素子102の撮像面上に結像する光学系を構成し、ズーム機能、焦点調節機能、及び絞り調節機能を備える。
撮像素子102は、多数の光電変換素子が2次元的に配列された構成を有し、レンズ部101によって結像された被写体光学像を画素単位の映像信号に変換する。撮像素子102は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサや、CCD(Charged Coupled Device)イメージセンサであってよい。撮像素子102は、光電変換素子による電荷蓄積時間を調整することによる電子シャッター機能を備える。
撮像素子駆動部103は、カメラ信号処理部106が制御するタイミングに従って撮像素子102を駆動制御する。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
<First Embodiment>
As an example of the imaging apparatus according to the first embodiment, a high-definition digital video camera (hereinafter referred to as a video camera) having a manual focus function will be described.
FIG. 1 is a block diagram showing the configuration of the video camera according to the first embodiment.
The lens unit 101 constitutes an optical system that forms a subject image on the imaging surface of the image sensor 102, and includes a zoom function, a focus adjustment function, and an aperture adjustment function.
The image sensor 102 has a configuration in which a large number of photoelectric conversion elements are two-dimensionally arranged, and converts the subject optical image formed by the lens unit 101 into a video signal in units of pixels. The image sensor 102 may be, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charged Coupled Device) image sensor. The image sensor 102 has an electronic shutter function by adjusting the charge accumulation time by the photoelectric conversion element.
The image sensor driving unit 103 drives and controls the image sensor 102 according to the timing controlled by the camera signal processing unit 106.

CDS/AGC部104は、撮像素子102からのアナログ映像信号を相関二重サンプリング(CDS)してノイズを削減し、システム制御部111の制御に従って信号レベルのゲイン制御(AGC)を行う。
A/D(Analog to Digital)変換部105は、CDS/AGC部104からのアナログ映像信号をデジタル映像信号に変換し、カメラ信号処理部106に供給する。
The CDS / AGC unit 104 performs correlated double sampling (CDS) on the analog video signal from the image sensor 102 to reduce noise, and performs signal level gain control (AGC) according to the control of the system control unit 111.
An A / D (Analog to Digital) conversion unit 105 converts an analog video signal from the CDS / AGC unit 104 into a digital video signal and supplies the digital video signal to the camera signal processing unit 106.

カメラ信号処理部106は、A/D(Analog to Digital)変換部105からのデジタル映像信号に信号処理を施す。
第1記憶部107は、カメラ信号処理用の記憶部であり、撮像映像を信号処理する際のフレームメモリ等としてカメラ信号処理部106が使用する。
The camera signal processing unit 106 performs signal processing on the digital video signal from the A / D (Analog to Digital) conversion unit 105.
The first storage unit 107 is a storage unit for camera signal processing, and is used by the camera signal processing unit 106 as a frame memory or the like for signal processing of captured images.

レンズ駆動部108は、システム制御部111の制御に従ってレンズ部101のモータやアクチュエータ等を駆動し、ズーム倍率やフォーカス調整、露出調整を行う。レンズ駆動部108の制御は、システム制御部111がカメラ信号処理部106での信号処理結果に基づいて行う。例えばAF制御時には、カメラ信号処理部106が求めたAF評価値に基づいてシステム制御部111がレンズ駆動部108を制御し、レンズ部101のフォーカス調整用レンズを駆動制御することで、レンズ部101を被写体に合焦させる。手動でレンズ部101の焦点調節を行うマニュアルフォーカスモードが設定されている場合、システム制御部111は撮影者による焦点調節操作を検出する。具体的に、システム制御部111は、入力操作部113に含まれる、焦点距離の調整用スイッチやレバー、又はレンズ部101の鏡筒外周に設けられたフォーカスリングの操作を検出する。そして、システム制御部111は、検出した操作に応じた焦点の移動方向と移動量に従ってレンズ駆動部108を制御し、レンズ部101の焦点距離を変更させる。なお、撮影者が操作するスイッチやレバー等によって機械的にレンズ部101の焦点距離が変更可能である場合には、システム制御部111やレンズ駆動部108が介在する必要はない。   The lens driving unit 108 drives the motor and actuator of the lens unit 101 according to the control of the system control unit 111, and performs zoom magnification, focus adjustment, and exposure adjustment. The lens driving unit 108 is controlled by the system control unit 111 based on the signal processing result in the camera signal processing unit 106. For example, at the time of AF control, the system control unit 111 controls the lens driving unit 108 based on the AF evaluation value obtained by the camera signal processing unit 106, and drives and controls the focus adjustment lens of the lens unit 101. To focus on the subject. When the manual focus mode for manually adjusting the focus of the lens unit 101 is set, the system control unit 111 detects the focus adjustment operation by the photographer. Specifically, the system control unit 111 detects an operation of a focus ring adjustment switch or lever included in the input operation unit 113 or a focus ring provided on the outer periphery of the lens barrel of the lens unit 101. Then, the system control unit 111 controls the lens driving unit 108 according to the moving direction and moving amount of the focal point corresponding to the detected operation, and changes the focal length of the lens unit 101. If the focal length of the lens unit 101 can be mechanically changed by a switch or lever operated by the photographer, the system control unit 111 and the lens driving unit 108 do not need to be interposed.

システム制御部111は、例えばCPUであってよく、例えば第3記憶部116に記憶されたプログラムを実行することにより、後述するマニュアルフォーカス時の補助表示処理を含む、ビデオカメラの動作全般を制御する。
第3記憶部116は、システム制御用の記憶部であり、例えばROMやRAMを含み、システム制御部111が実行するプログラムや各種設定、初期値等を記憶する。また、第3記憶部116は、システム制御部111のワークエリアとしても用いられる。
The system control unit 111 may be, for example, a CPU, and controls the overall operation of the video camera including an auxiliary display process during manual focus, which will be described later, by executing a program stored in the third storage unit 116, for example. .
The third storage unit 116 is a storage unit for system control, and includes, for example, a ROM and a RAM, and stores programs executed by the system control unit 111, various settings, initial values, and the like. The third storage unit 116 is also used as a work area for the system control unit 111.

入力操作部113は、撮影者がビデオカメラに指示を与えるためのユーザインタフェースであり、キー、ボタン、タッチパネル等の入力デバイスを備える。入力操作部113は、拡大表示ON/OFFボタン、ゼブラパターンやピーキング表示ON/OFF、マニュアル・フォーカス・アシスト機能表示ON/OFF等、各種機能の選択ボタンや決定ボタンを含む。また、入力操作部113は、静止画撮影用のシャッターボタン、MFリング、ズームスイッチ、絞り調整ダイヤル等も含む。
計時部114は、リアルタイムクロック(RTC)とバックアップ電池を備え、システム制御部111からの要求に応じて、日時情報を返信する。
The input operation unit 113 is a user interface for a photographer to give an instruction to the video camera, and includes input devices such as keys, buttons, and a touch panel. The input operation unit 113 includes selection buttons and decision buttons for various functions such as an enlarged display ON / OFF button, a zebra pattern and peaking display ON / OFF, and a manual focus / assist function display ON / OFF. The input operation unit 113 also includes a shutter button for still image shooting, an MF ring, a zoom switch, an aperture adjustment dial, and the like.
The time measuring unit 114 includes a real time clock (RTC) and a backup battery, and returns date information in response to a request from the system control unit 111.

ビデオ制御部115は、第1表示部122及び第2表示部123に対する色相、彩度、明度の調整を含む表示制御、及び記録/再生部120の制御等を行う。ビデオ制御部115は、第1表示部122及び第2表示部123を含む各映像出力系に対する映像信号の解像度変換や、ゼブラパターンやピーキング信号の生成及び重畳表示制御、撮像映像からのエッジ成分抽出及びその波形画像の生成及び重畳表示制御、拡大表示用画像の生成及び表示制御等を行う。また、ビデオ制御部115は、撮影情報やユーザ設定メニュー等のOSD(On Screen Display)表示制御も行う。
第2記憶部112は、ビデオ制御用の記憶部であり、ビデオ制御部115がビデオベースバンド信号に関する信号処理を行う際のフレームメモリ、ワークメモリ等として使用する。また、拡大表示を行う指示が入力操作部113を介してシステム制御部111に入力されると、システム制御部111は拡大表示を行う。
The video control unit 115 performs display control including adjustment of hue, saturation, and brightness for the first display unit 122 and the second display unit 123, control of the recording / reproducing unit 120, and the like. The video control unit 115 performs resolution conversion of video signals for each video output system including the first display unit 122 and the second display unit 123, generation of zebra patterns and peaking signals, superimposed display control, and edge component extraction from the captured video. The waveform image is generated and superimposed display is controlled, and the enlarged display image is generated and displayed. The video control unit 115 also performs OSD (On Screen Display) display control such as shooting information and user setting menus.
The second storage unit 112 is a storage unit for video control, and is used as a frame memory, a work memory, or the like when the video control unit 115 performs signal processing related to the video baseband signal. Further, when an instruction to perform enlarged display is input to the system control unit 111 via the input operation unit 113, the system control unit 111 performs enlarged display.

コーデック(CODEC)部117は、動画像等の符号化/復号化処理を行う画像コーデックを行う。符号化/復号化の形式はMPEG(Moving Picture Experts Group)−2方式を始め、他の形式や静止画向けのJPEG2000やPNG形式等であってよい。コーデック部117は、ビデオ制御部115に接続されており、ビデオ制御部115からの命令に応じて映像信号の符号化/復号化を実行する。
第4記憶部119は、コーデック用の記憶部であり、コーデック部117が映像信号の符号化/復号化を実行する際に用いる。
A codec (CODEC) unit 117 performs an image codec that performs encoding / decoding processing of a moving image or the like. The encoding / decoding format may be the MPEG (Moving Picture Experts Group) -2 system, other formats, JPEG2000 for still images, PNG format, or the like. The codec unit 117 is connected to the video control unit 115, and executes encoding / decoding of a video signal in accordance with a command from the video control unit 115.
The fourth storage unit 119 is a codec storage unit, and is used when the codec unit 117 performs encoding / decoding of a video signal.

記録/再生部120は、ビデオ制御部115とコーデック部117により符号化処理され、記録フォーマットとして処理された記録データを記録媒体121に対して記録したり、読み出したりする。
第1表示部122及び第2表示部123は、情報を表示する。本実施形態において、第2表示部123は第1表示部122よりも小型であり、ファインダ内に設けられているものとする。一方、第1表示部122は、例えば筐体の側面等に開閉可能に設けられる比較的大型の表示装置である。これら第1表示部122及び第2表示部123には、撮像素子102からの入力映像や拡大映像に加え、フォーカス枠表示等の補助表示が表示される。撮像素子102からの入力映像を順次表示することで、第1表示部122及び第2表示部123は電子ビューファインダ(EVF)として機能する。補助表示には、ゼブラパターン表示を始め、ピーキング表示や撮像映像のエッジ成分に基づく波形画像表示といったマニュアルフォーカスの補助表示も含まれる。
The recording / reproducing unit 120 records or reads recording data, which is encoded by the video control unit 115 and the codec unit 117 and processed as a recording format, to the recording medium 121.
The first display unit 122 and the second display unit 123 display information. In the present embodiment, the second display unit 123 is smaller than the first display unit 122 and is provided in the viewfinder. On the other hand, the first display unit 122 is a relatively large display device that can be opened and closed on the side surface of the housing, for example. The first display unit 122 and the second display unit 123 display an auxiliary display such as a focus frame display in addition to an input image and an enlarged image from the image sensor 102. By sequentially displaying the input video from the image sensor 102, the first display unit 122 and the second display unit 123 function as an electronic viewfinder (EVF). The auxiliary display includes a manual focus auxiliary display such as a zebra pattern display, a peaking display, and a waveform image display based on an edge component of a captured image.

なお、ここでは便宜上、第1〜第4記憶部107、112、116、119がそれぞれカメラ信号処理用、システム制御用、ビデオ制御用、コーデック用として個別に設けられているものとして記載するが、物理的には同じ記憶媒体で実現されてもよい。第1〜第4記憶部107、112、116、119は、典型的には読み書き可能な半導体メモリによって構成されるが、他の記憶媒体で構成されてもよい。   Here, for convenience, it is described that the first to fourth storage units 107, 112, 116, and 119 are individually provided for camera signal processing, system control, video control, and codec, Physically, it may be realized by the same storage medium. The first to fourth storage units 107, 112, 116, and 119 are typically configured by readable and writable semiconductor memories, but may be configured by other storage media.

ここで、第1の実施形態における撮像映像のエッジ成分に基づく波形画像表示の概要について説明する。撮像映像のエッジ成分に基づく波形画像表示は、エッジモニタ機能とも呼ばれている。
図3は、通常のエッジモニタ表示設定になっているときの第1表示部122の表示例を示す。
図3に示すように、通常撮影中に、撮像映像が全画面表示され、画面下部に、撮像映像から抽出されたエッジ成分に基づく波形画像301が重畳表示される。波形画像301は、撮像映像の水平方向におけるエッジ成分を抽出し、抽出したエッジ成分のレベルと、抽出された位置とを表す。波形画像301を見易くするために、波形画像301の背景にバックグラウンドカラー(半透過の黒等)302を表示するようにしても良い。その際には、撮像映像にバックグラウンドカラー302を重畳し、次いで、そのバックグラウンドカラー302の上に波形画像301を重畳するようにすると波形画像301の視認性を向上することができる。
Here, an outline of waveform image display based on the edge component of the captured image in the first embodiment will be described. The waveform image display based on the edge component of the captured image is also called an edge monitor function.
FIG. 3 shows a display example of the first display unit 122 when the normal edge monitor display setting is set.
As shown in FIG. 3, during normal shooting, the captured image is displayed on the full screen, and a waveform image 301 based on the edge component extracted from the captured image is superimposed and displayed at the bottom of the screen. The waveform image 301 extracts the edge component in the horizontal direction of the captured video, and represents the level of the extracted edge component and the extracted position. In order to make the waveform image 301 easy to see, a background color (semi-transparent black or the like) 302 may be displayed on the background of the waveform image 301. In that case, the visibility of the waveform image 301 can be improved by superimposing the background color 302 on the captured video and then superimposing the waveform image 301 on the background color 302.

図4(a)、(b)は、拡大表示に連動させるエッジモニタ表示になっているときの第1表示部122の表示例を示す。
図4(a)に示すように、通常撮影中に、撮像映像が全画面表示され、エッジモニタはOFFされている。これにより、エッジモニタが邪魔になって撮影中映像の視認性が低下するのを回避することができ、画角確認等が阻害されることがない。
図4(a)の状態で、ユーザがフォーカス調整を実行する、又は拡大表示を実行する入力が入力操作部113より入力すると、図4(b)に示すように、撮像映像の中央部が拡大表示される。そして、この拡大表示に連動して、画面下部に、拡大された映像から抽出されたエッジ成分に基づく波形画像401が重畳表示される。これにより、フォーカス調整がより容易になる。なお、バックグラウンドカラー402についてはバックグラウンドカラー302と同様である。
図4(b)の状態で、フォーカス調整入力が一定時間なかった、又は拡大表示を解除する入力が入力操作部113より入力されると、図4(b)の画面でエッジモニタがOFFされる、又は図4(a)の画面に戻る。
以上のように、エッジモニタが邪魔になって撮影中映像の視認性が低下するのを回避することができ、拡大表示に連動してエッジモニタの閲覧を行うことができる。
なお、通常撮影中にもエッジモニタを表示させたい場合(図3を参照)、別途メニュー設定や入力操作部からの入力に応じて表示させることは可能である。
4A and 4B show display examples of the first display unit 122 when the edge monitor display is linked to the enlarged display.
As shown in FIG. 4A, during normal shooting, the captured image is displayed in full screen and the edge monitor is turned off. As a result, it is possible to prevent the edge monitor from interfering with the decrease in the visibility of the image being shot, and the view angle confirmation and the like are not hindered.
In the state of FIG. 4A, when the user inputs focus adjustment or enlargement display input from the input operation unit 113, the center portion of the captured image is enlarged as shown in FIG. 4B. Is displayed. In conjunction with this enlarged display, a waveform image 401 based on the edge component extracted from the enlarged video is superimposed and displayed at the bottom of the screen. Thereby, focus adjustment becomes easier. The background color 402 is the same as the background color 302.
In the state of FIG. 4B, when there is no focus adjustment input for a certain time or an input for canceling the enlarged display is input from the input operation unit 113, the edge monitor is turned off on the screen of FIG. Or return to the screen of FIG.
As described above, it is possible to prevent the edge monitor from interfering with the decrease in the visibility of the image being shot, and the edge monitor can be viewed in conjunction with the enlarged display.
If it is desired to display the edge monitor even during normal shooting (see FIG. 3), it is possible to display the edge monitor according to menu settings or input from the input operation unit.

以下、図2を参照して、ビデオ制御部115における撮像映像からのエッジ成分抽出及びその波形画像の生成及び表示制御、拡大表示用画像の生成及び表示制御に係る構成について説明する。図2に示す構成により、図3、図4で説明したエッジモニタ表示が可能となる。
拡大表示処理回路201は、システム制御部111からの処理指示信号に応じて、入力される撮像映像の拡大処理を実行する。
Hereinafter, a configuration related to edge component extraction from a captured image, generation and display control of a waveform image thereof, and generation and display control of an enlarged display image in the video control unit 115 will be described with reference to FIG. With the configuration shown in FIG. 2, the edge monitor display described in FIGS. 3 and 4 can be performed.
The enlarged display processing circuit 201 executes an enlarged process of the input captured video in response to a processing instruction signal from the system control unit 111.

前処理部202は、エッジ抽出回路203と、メモリコントローラA 204と、波形制御部205とを含む。
エッジ抽出回路203は、撮像映像からエッジ信号を抽出する。
メモリコントローラA 204は、映像信号のフィールド(又はフレーム)毎に、バンクメモリ部206の波形保存メモリBank1 207と波形保存メモリBank2 208とのバンク切り替え制御を行うとともに、メモリアクセスのための制御を行う。メモリコントローラA 204は、映像信号の現座標情報と、エッジ抽出回路203で抽出したエッジ情報の振幅を、それぞれ直交座標系における情報として考え、メモリアクセスのためのアドレスを生成する。
例えば、図4に示すような波形画像を水平方向に表示する場合、メモリのアドレス空間を、映像信号の水平座標を横軸に、エッジ情報の振幅(レベル)を縦軸とした2次元空間とみなしてアクセス制御を行う。ここでのアクセス処理は、初めに該当アドレスのデータを読み出し、後述する波形制御部205において処理されたデータを、再びメモリコントローラA 204を通じて、同一アドレスに書き戻す処理である。
波形制御部205は、メモリコントローラA 204が波形保存メモリBank1 207から読み出したデータに対して、エッジ抽出回路203で抽出したエッジ情報のデータに任意のゲインを乗じたものを加算して、再びメモリコントローラA 204に返す。波形制御部205がエッジ情報のデータに乗じるゲインをシステム制御部111から制御することで、頻度によるデータの増加割合を制御することができ、視認性を制御することが可能となる。
The preprocessing unit 202 includes an edge extraction circuit 203, a memory controller A 204, and a waveform control unit 205.
The edge extraction circuit 203 extracts an edge signal from the captured video.
The memory controller A 204 performs bank switching control between the waveform storage memory Bank1 207 and the waveform storage memory Bank2 208 of the bank memory unit 206 for each field (or frame) of the video signal, and performs control for memory access. . The memory controller A 204 considers the current coordinate information of the video signal and the amplitude of the edge information extracted by the edge extraction circuit 203 as information in the orthogonal coordinate system, and generates an address for memory access.
For example, when a waveform image as shown in FIG. 4 is displayed in the horizontal direction, the memory address space is a two-dimensional space with the horizontal coordinate of the video signal as the horizontal axis and the amplitude (level) of the edge information as the vertical axis. Consider access control. Here, the access process is a process of first reading the data at the corresponding address and writing the data processed in the waveform control unit 205 described later back to the same address through the memory controller A 204 again.
The waveform control unit 205 adds the data read by the memory controller A 204 from the waveform storage memory Bank 1 207 to the edge information data extracted by the edge extraction circuit 203 and multiplied by an arbitrary gain, and again stores the data in the memory. Return to controller A 204. By controlling the gain by which the waveform control unit 205 multiplies the data of the edge information from the system control unit 111, it is possible to control the rate of increase of the data depending on the frequency and to control the visibility.

これらの処理及び後述する後処理部209の画像合成回路210での合成処理により、アクセス頻度が高いアドレスのデータ値、即ち同一レベルの頻度が大きい場合に表示輝度が大きく(明るく)なるように制御することができる。なお、各アドレスの初期値は、例えば最低輝度に対応する値であり、最初にアクセスされた際に所定値を書き込み、2度目のアクセスからは、上述した読み出し及び書き戻しを行うことができる。また、頻度制御を行う効果としては、エッジではない単発的なノイズ成分が、エッジであるかのように表示、認識されること等を防止できる。   Control is performed so that the display brightness is increased (brighter) when the data value of the frequently accessed address, that is, when the frequency of the same level is large, by these processes and the composition process in the image composition circuit 210 of the post-processing unit 209 described later. can do. Note that the initial value of each address is, for example, a value corresponding to the lowest luminance, and a predetermined value is written when accessed for the first time, and the above-described reading and writing back can be performed from the second access. As an effect of performing frequency control, it is possible to prevent a single noise component that is not an edge from being displayed and recognized as if it were an edge.

1フィールド(又は1フレーム)での処理が終了した後、後処理部209のメモリコントローラB 211によって各アドレスのデータ(及びフラグ情報)を読み出し、読み出したアドレスとデータに基づいて、波形画像が生成される。本実施形態において、図3に示すような水平表示のときは、メモリのアドレス空間を、映像信号の水平座標を横軸に、エッジ情報の振幅(レベル)を縦軸とした2次元空間とみなしてアクセス制御を行う。そのため、撮像映像の映像内に対応したエッジ成分、即ち合焦状態を視覚的に把握することができる。
また、上述のアクセス制御により、アクセス頻度の高いアドレスには大きなデータが書き込まれる。つまり、抽出方向における同一座標(位置)で同一レベルのエッジ成分が抽出された回数が多いほど、当該同一レベルを表す指標の輝度が高く(明るく)表示されることになる。また、エッジ成分の抽出方向(本実施形態では水平又は垂直方向)における同一座標で異なるレベルのエッジ成分が異なる頻度で抽出された場合、その位置に対応した指標の輝度は一定でなく、検出されたレベルに対応する位置で変化する。さらに、フラグ情報に基づき、指定領域に対応するエッジ成分については他の領域についてのエッジ成分とは表示方法を異ならせるので、どの領域に対応したエッジ成分であるのかを容易に把握することができる。
After processing in one field (or one frame) is completed, the data (and flag information) of each address is read by the memory controller B 211 of the post-processing unit 209, and a waveform image is generated based on the read address and data. Is done. In this embodiment, in the case of horizontal display as shown in FIG. 3, the memory address space is regarded as a two-dimensional space with the horizontal coordinate of the video signal as the horizontal axis and the amplitude (level) of the edge information as the vertical axis. Access control. Therefore, it is possible to visually grasp the edge component corresponding to the captured image, that is, the in-focus state.
In addition, by the above-described access control, large data is written to an address with a high access frequency. In other words, as the number of times edge components of the same level are extracted at the same coordinates (position) in the extraction direction, the luminance of the index representing the same level is displayed higher (brighter). Further, when edge components of different levels are extracted at different frequencies in the same coordinate in the edge component extraction direction (horizontal or vertical direction in the present embodiment), the brightness of the index corresponding to the position is not constant and is detected. It changes at the position corresponding to the level. Furthermore, since the edge component corresponding to the designated region is displayed differently from the edge component for other regions based on the flag information, it is possible to easily grasp which region corresponds to the edge component. .

バンクメモリ部206は、波形保存メモリBank1 207と、波形保存メモリBank2 208とを含む。
波形保存メモリBank1 207と波形保存メモリBank2 208とは等価であり、映像信号のフィールド(又はフレーム)毎に、メモリコントローラA 204とメモリコントローラB 211のいずれかからアクセスされるように切り替えられている。
ここでは、波形保存メモリBank1 207がメモリコントローラA 204からアクセスされているときには、別バンクの波形保存メモリBank2 208がメモリコントローラB 211からアクセスされるように制御しているものとする。そして、次の映像フィールド(又はフレーム)では、メモリコントローラと波形保存メモリとのアクセス関係が入れ替わる。
The bank memory unit 206 includes a waveform storage memory Bank 1 207 and a waveform storage memory Bank 2 208.
The waveform storage memory Bank1 207 and the waveform storage memory Bank2 208 are equivalent, and are switched to be accessed from either the memory controller A 204 or the memory controller B 211 for each field (or frame) of the video signal. .
Here, it is assumed that when the waveform storage memory Bank1 207 is accessed from the memory controller A 204, the waveform storage memory Bank2 208 of another bank is controlled to be accessed from the memory controller B 211. In the next video field (or frame), the access relationship between the memory controller and the waveform storage memory is switched.

後処理部209は、画像合成回路210と、メモリコントローラB 211とを含む。
画像合成回路210は、映像信号と、メモリコントローラB 211によってバンクメモリ部206から読み出したエッジ情報に基づく波形画像とを合成し、第1表示部122に表示する。上述のように、画像合成回路210は、読み出されたエッジ情報がフラグ情報を有している場合には、フラグ情報を有さないエッジ成分と視覚的に判別できるように表示する。
メモリコントローラB 211は、メモリコントローラA 204により波形保存メモリBank1 207又は波形保存メモリBank2 208に書き込まれたエッジ情報を読み出し、画像合成回路210に供給する。
画像合成回路210は、エッジ情報とフラグ情報から、上述したように、エッジ成分のレベルと抽出された位置とを表す波形画像を生成し、撮像映像と位置合わせして合成して第1表示部122に表示する。
The post-processing unit 209 includes an image composition circuit 210 and a memory controller B 211.
The image synthesis circuit 210 synthesizes the video signal and the waveform image based on the edge information read from the bank memory unit 206 by the memory controller B 211 and displays the synthesized image on the first display unit 122. As described above, when the read edge information has flag information, the image composition circuit 210 displays the edge component so that it can be visually discriminated from the edge component having no flag information.
The memory controller B 211 reads the edge information written in the waveform storage memory Bank 1 207 or the waveform storage memory Bank 2 208 by the memory controller A 204 and supplies it to the image synthesis circuit 210.
As described above, the image composition circuit 210 generates a waveform image representing the level of the edge component and the extracted position from the edge information and the flag information, and aligns and synthesizes the captured image with the first display unit. 122.

システム制御部111は、詳細な接続配線は記載していないが、ビデオ制御部115内の各種制御、例えばエッジ抽出回路203で抽出するエッジ成分の中心周波数やゲインコントロール、波形制御部205でのゲイン制御を行う。また、システム制御部111は、画像合成回路210でのエッジ成分に基づく波形表示画像の合成有無や映像信号に対する合成位置制御、指定領域とそれ以外の領域に対応する波形表示方法の制御等も行う。   The system control unit 111 does not describe detailed connection wiring, but various controls in the video control unit 115, for example, the center frequency and gain control of the edge component extracted by the edge extraction circuit 203, and the gain in the waveform control unit 205 Take control. In addition, the system control unit 111 performs the presence / absence of the synthesis of the waveform display image based on the edge component in the image synthesis circuit 210, the synthesis position control for the video signal, the control of the waveform display method corresponding to the designated area and other areas, and the like. .

図5は、ユーザがフォーカス調整を実行する、又は拡大表示を実行する入力が入力操作部113より入力して拡大表示するときの画面表示処理を示すフローチャートである。
撮像映像の拡大表示処理を実行する(ステップS501)とともに、拡大表示に連動させるエッジモニタ表示設定となっているか否かを判別する(ステップS502)。
ステップS502において設定がONとなっていれば、エッジモニタ表示処理を実行する(ステップS504)。
ステップS502において設定がONとなっていなければ、元々、通常のエッジモニタ表示設定となっていたか否かを判別する(ステップS503)。
ステップS503において通常のエッジモニタ表示設定となっていれば、エッジモニタ表示処理を実行する(ステップS504)。ステップS503において通常のエッジモニタ表示設定となっていなければ、エッジモニタ表示を行わずに、本処理を終了する。
この拡大表示処理は、ユーザからの拡大表示実行の指示に応じて一定時間毎に呼び出され、撮像映像やエッジモニタのリアルタイムでの視認を確保する。
FIG. 5 is a flowchart showing screen display processing when an input for the user to perform focus adjustment or to perform enlarged display is input from the input operation unit 113 and enlarged display is performed.
A magnified display process of the captured image is executed (step S501), and it is determined whether or not the edge monitor display setting is linked to the enlarged display (step S502).
If the setting is ON in step S502, an edge monitor display process is executed (step S504).
If the setting is not ON in step S502, it is determined whether or not the normal edge monitor display setting was originally set (step S503).
If the normal edge monitor display setting is set in step S503, an edge monitor display process is executed (step S504). If the normal edge monitor display setting is not set in step S503, this processing is terminated without performing edge monitor display.
This enlargement display process is called at regular time intervals in accordance with an instruction to execute enlargement display from the user, and ensures that the captured image and the edge monitor are viewed in real time.

<第2の実施形態>
第2の実施形態に係る撮像装置の一例として、マニュアルフォーカス機能を備えたハイビジョンデジタルビデオカメラ(以下、ビデオカメラという)について説明する。ビデオカメラの構成は、図1に示した第1の実施形態に係るビデオカメラの構成と同様であり、ここではその説明を省略する。
<Second Embodiment>
A high-definition digital video camera (hereinafter referred to as a video camera) having a manual focus function will be described as an example of an imaging apparatus according to the second embodiment. The configuration of the video camera is the same as the configuration of the video camera according to the first embodiment shown in FIG. 1, and the description thereof is omitted here.

ここで、第2の実施形態における撮像映像のエッジ成分に基づく波形画像表示の概要について説明する。
図3は、通常のエッジモニタ表示設定になっているときの第1表示部122の表示例を示す。図3については第1の実施形態で説明したので、ここではその説明を省略する。
Here, an outline of waveform image display based on the edge component of the captured image in the second embodiment will be described.
FIG. 3 shows a display example of the first display unit 122 when the normal edge monitor display setting is set. Since FIG. 3 has been described in the first embodiment, the description thereof is omitted here.

図4(a)〜(c)は、拡大表示に連動させるエッジモニタ表示設定になっているときの第1表示部122の表示例を示す。
図4(a)に示すように、通常撮影中に、撮像映像が全画面表示され、エッジモニタはOFFされている。これにより、エッジモニタが邪魔になって撮影中映像の視認性が低下するのを回避することができ、画角確認等が阻害されることがない。
図4(a)の状態で、ユーザがフォーカス調整を実行する、又は拡大表示を実行する入力が入力操作部113より入力すると、図4(b)に示すように、撮像映像の中央部が拡大表示される。そして、この拡大表示に連動して、画面下部に、拡大された画像で抽出されたエッジ成分に基づく波形画像401が重畳表示される。これにより、フォーカスの調整がより容易になる。
図4(b)の状態で、フォーカス調整入力が一定時間なかった、又は拡大表示を解除する入力が入力操作部113より入力されると、図4(c)の画面に遷移する。図4(c)の画面では、撮像映像が全画面表示されるとともに、前回拡大表示された領域404が明示される。そして、画面下部に、領域404外で抽出されたエッジ成分に基づく波形画像403が重畳表示される。また、画面下部に、領域404内で抽出されたエッジ成分に基づく波形画像405が重畳表示される。波形画像405は、視覚的に判別可能なように波形画像403と異なる色で表示される。なお、バックグラウンドカラー406についてはバックグラウンドカラー302、402と同様である。これにより、フォーカスの調整を実行した結果を認識し易くすることができる。
図4(c)の状態で一定時間経過すると、図4(a)の画面に戻る。これにより、エッジモニタが邪魔になって撮影中映像の視認性が低下するのを回避することができ、画角確認等が阻害されることがない。
FIGS. 4A to 4C show display examples of the first display unit 122 when the edge monitor display setting linked to the enlarged display is set.
As shown in FIG. 4A, during normal shooting, the captured image is displayed in full screen and the edge monitor is turned off. As a result, it is possible to prevent the edge monitor from interfering with the decrease in the visibility of the image being shot, and the view angle confirmation and the like are not hindered.
In the state of FIG. 4A, when the user inputs focus adjustment or enlargement display input from the input operation unit 113, the center portion of the captured image is enlarged as shown in FIG. 4B. Is displayed. In conjunction with this enlarged display, a waveform image 401 based on the edge component extracted from the enlarged image is superimposed and displayed at the bottom of the screen. This makes it easier to adjust the focus.
In the state of FIG. 4B, when there is no focus adjustment input for a certain time or an input for canceling the enlarged display is input from the input operation unit 113, the screen transitions to the screen of FIG. In the screen of FIG. 4C, the captured image is displayed on the full screen, and the region 404 that has been enlarged and displayed last time is clearly shown. Then, a waveform image 403 based on the edge component extracted outside the area 404 is superimposed and displayed at the bottom of the screen. In addition, a waveform image 405 based on the edge component extracted in the region 404 is superimposed and displayed at the bottom of the screen. The waveform image 405 is displayed in a different color from the waveform image 403 so that it can be visually discriminated. The background color 406 is the same as the background colors 302 and 402. As a result, it is possible to easily recognize the result of the focus adjustment.
When a predetermined time elapses in the state of FIG. 4C, the screen returns to the screen of FIG. As a result, it is possible to prevent the edge monitor from interfering with the decrease in the visibility of the image being shot, and the view angle confirmation and the like are not hindered.

以下、図6を参照して、ビデオ制御部115における撮像映像からのエッジ成分抽出及びその波形画像の生成及び表示制御、拡大表示用画像の生成及び表示制御に係る構成について説明する。第2の実施形態では、図2に示した第1の実施形態におけるビデオ制御部115の構成に対して、領域指定回路214が追加されている。以下では、第1の実施形態との相違点を中心に説明し、第1の実施形態との共通点についての説明は省略する。
領域指定回路214は、撮像映像のうち、システム制御部111を通じて指定された領域の情報を、領域指定信号によってメモリコントローラA 204に通知する。システム制御部111から領域指定回路214に指定可能な領域の大きさ、数及び位置に特に制限はない。
ここでは、例えば図4(c)に示すように、拡大表示の実施(図4(b)を参照)後に、拡大表示されていない通常撮影中の表示に戻ったときに、前回拡大表示された領域404が指定されるものとする。
Hereinafter, a configuration related to edge component extraction from a captured image, generation and display control of a waveform image thereof, and generation and display control of an enlarged display image in the video control unit 115 will be described with reference to FIG. In the second embodiment, an area designation circuit 214 is added to the configuration of the video control unit 115 in the first embodiment shown in FIG. Below, it demonstrates centering around difference with 1st Embodiment, and abbreviate | omits description about a common point with 1st Embodiment.
The area designating circuit 214 notifies the memory controller A 204 of the information of the area designated through the system control unit 111 in the captured video by the area designating signal. There are no particular restrictions on the size, number, and position of the areas that can be specified from the system control unit 111 to the area specifying circuit 214.
Here, as shown in FIG. 4C, for example, after the enlarged display is performed (refer to FIG. 4B), when the display returns to the normal shooting display that is not enlarged, the previous enlarged display was performed. Assume that an area 404 is specified.

また、メモリコントローラA 204は、領域指定回路214から領域指定信号により指定された領域については、抽出されたエッジ成分にフラグ情報を付加して波形保存メモリに書き込む。そして、メモリコントローラB 211でフラグ情報も含めて読み出し、画像合成回路210は、フラグ情報に基づいて、指定領域に対するエッジ情報の表示方法(例えば表示色)を指定領域外についてのエッジ情報と異ならせる制御を行う。
1フィールド(又は1フレーム)での処理が終了した後、メモリコントローラB 211によって各アドレスのデータ(及びフラグ情報)を読み出し、読み出したアドレスとデータ、並びにフラグ情報に基づいて、波形画像が生成される。本実施形態において、図3に示すような水平表示のときは、メモリのアドレス空間を、映像信号の水平座標を横軸に、エッジ情報の振幅(レベル)を縦軸とした2次元空間とみなしてアクセス制御を行う。そのため、撮像映像の映像内に対応したエッジ成分、即ち合焦状態を視覚的に把握することができる。
Further, the memory controller A 204 adds the flag information to the extracted edge component and writes it to the waveform storage memory for the area specified by the area specifying signal from the area specifying circuit 214. Then, the memory controller B 211 reads out the flag information including the flag information, and the image composition circuit 210 makes the edge information display method (for example, display color) for the designated area different from the edge information outside the designated area based on the flag information. Take control.
After the processing in one field (or one frame) is completed, the data (and flag information) of each address is read by the memory controller B 211, and a waveform image is generated based on the read address and data, and flag information. The In this embodiment, in the case of horizontal display as shown in FIG. 3, the memory address space is regarded as a two-dimensional space with the horizontal coordinate of the video signal as the horizontal axis and the amplitude (level) of the edge information as the vertical axis. Access control. Therefore, it is possible to visually grasp the edge component corresponding to the captured image, that is, the in-focus state.

図4(c)は、指定領域404内で抽出されたエッジ成分に基づく波形画像405を、指定領域404外で抽出されたエッジ成分に基づく波形画像403と異なる色で表示している様子を模式的に表している。指定領域404の波形画像405の表示色は、システム制御部111から指定可能としてよい。また、指定領域404と他の領域とにまたがる波形画像403、405は水平方向に対して同位置に表示されることになるが、レベルが異なる部分については視認可能で、レベルが同一な部分については、システム制御部111からの制御に従った優先順位により画像合成回路210で合成して表示することができる。   FIG. 4C schematically shows a state in which the waveform image 405 based on the edge component extracted in the designated area 404 is displayed in a color different from that of the waveform image 403 based on the edge component extracted outside the designated area 404. It expresses. The display color of the waveform image 405 in the designated area 404 may be designated from the system control unit 111. Further, the waveform images 403 and 405 extending over the designated area 404 and other areas are displayed at the same position in the horizontal direction. However, the parts having different levels are visible and the parts having the same level are visible. Can be combined and displayed by the image combining circuit 210 according to the priority order in accordance with the control from the system control unit 111.

第2の実施形態でも、ユーザがフォーカス調整を実行する、又は拡大表示を実行する入力が入力操作部113より入力して拡大表示するときの画面表示処理は、図5のフローチャートと同様である。第1の実施形態と異なる点は、ステップS502において設定がONとなっており、ステップS504に進んで、エッジモニタ表示処理を実行するときに、タイマにタイマ値Tを設定する。   Also in the second embodiment, the screen display process when the user performs focus adjustment or input for executing enlarged display is input from the input operation unit 113 for enlarged display is the same as the flowchart of FIG. The difference from the first embodiment is that the setting is ON in step S502, and the process proceeds to step S504 to set the timer value T to the timer when executing the edge monitor display process.

図7は、フォーカス調整入力が一定時間なかった、又は拡大表示を解除する入力が入力操作部113より入力して拡大表示を解除し、通常画面表示を実行するときの画面表示処理を示すフローチャートである。
撮像映像をそのままの画角にて処理を行い(ステップS701)、タイマ値T=0となっているか否かを判別する(ステップS702)。
ステップS702においてタイマ値T=0となっていなければ、図4(c)に示すように、撮像映像を全画面表示するとともに、前回拡大表示された領域404を表示し、さらにエッジ成分に基づく波形画像403、405を重畳表示する(ステップS703)。その後、タイマ値を減算し(ステップS705)、本処理を終了する。
ステップS702においてタイマ値T=0となっていれば、通常のエッジモニタ表示設定となっているか否かを判別する(ステップS704)。
ステップS704において通常のエッジモニタ表示設定となっていれば、エッジモニタ表示処理を実行する(ステップS706)。ステップS704において通常のエッジモニタ表示設定となっていなければ、エッジモニタ表示を行わずに、本処理を終了する。
この通常画面表示処理は、通常の撮像映像を表示するモードが保持されている間一定時間毎に呼び出され、撮像映像やエッジモニタのリアルタイムでの視認を確保する。
FIG. 7 is a flowchart showing a screen display process when there is no focus adjustment input for a certain period of time, or when an input for canceling the enlarged display is input from the input operation unit 113 to cancel the enlarged display and to execute the normal screen display. is there.
The captured image is processed at the angle of view as it is (step S701), and it is determined whether or not the timer value T = 0 (step S702).
If the timer value T is not 0 in step S702, as shown in FIG. 4 (c), the captured image is displayed on the full screen, the region 404 previously enlarged is displayed, and the waveform based on the edge component is further displayed. The images 403 and 405 are superimposed and displayed (step S703). Thereafter, the timer value is subtracted (step S705), and this process ends.
If the timer value T = 0 in step S702, it is determined whether or not the normal edge monitor display setting is set (step S704).
If the normal edge monitor display setting is set in step S704, an edge monitor display process is executed (step S706). If the normal edge monitor display setting is not set in step S704, the present process is terminated without performing the edge monitor display.
This normal screen display process is called at regular intervals while a mode for displaying a normal captured image is held, and ensures real-time visual recognition of the captured image and the edge monitor.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
本発明は、焦点調節を行うフォーカス機能を有する撮像手段により撮像された映像を表示部に表示する撮像装置であれば適用可能である。このような撮像装置には、上述した実施形態のビデオカメラ以外に、例えばデジタルスチルカメラ、カメラ付き携帯情報端末、カメラ付き携帯電話等が含まれる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.
The present invention is applicable to any imaging device that displays an image captured by an imaging unit having a focus function for performing focus adjustment on a display unit. Such an image pickup apparatus includes, for example, a digital still camera, a camera-equipped portable information terminal, a camera-equipped mobile phone, and the like in addition to the video camera of the above-described embodiment.
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

101:レンズ部、102:撮像素子、103:撮像素子駆動部、104:CDS/AGC部、105:A/D変換部、106:カメラ信号処理部、107:第1記憶部、108:レンズ駆動部、111:システム制御部、112:第2記憶部、113:入力操作部、114:計時部、115:ビデオ制御部、116:第3記憶部、117:コーデック部、119:第4記憶部、120:記録/再生部、121:記録媒体、122:第1表示部、123:第2表示部   101: Lens unit, 102: Image sensor, 103: Image sensor drive unit, 104: CDS / AGC unit, 105: A / D conversion unit, 106: Camera signal processing unit, 107: First storage unit, 108: Lens drive 111: System control unit 112: Second storage unit 113: Input operation unit 114: Timekeeping unit 115: Video control unit 116: Third storage unit 117: Codec unit 119: Fourth storage unit 120: Recording / playback unit 121: Recording medium 122: First display unit 123: Second display unit

Claims (4)

撮像映像を表示部に表示する表示制御手段と、
前記撮像映像の一部を前記表示部に拡大表示する拡大表示手段と、
前記撮像映像のエッジ成分に基づく波形画像を生成し、前記表示部に表示する波形画像生成表示手段とを備え、
前記拡大表示手段による撮像映像の拡大表示に連動して、前記波形画像生成表示手段が波形画像を生成、表示するモードを有し、
前記拡大表示手段による撮像映像の拡大表示が解除され、通常の撮像映像の表示に戻った後、所定の時間の間、前記表示制御手段は、それまで拡大表示されていた領域を明示するとともに、前記波形画像生成表示手段は、それまで拡大表示されていた領域のエッジ成分に基づく波形画像と、前記領域外のエッジ成分に基づく波形画像とを視覚的に判別可能なように生成、表示することを特徴とする撮像装置。
Display control means for displaying captured images on a display unit;
An enlarged display means for enlarging and displaying a part of the captured image on the display unit;
A waveform image generation and display means for generating a waveform image based on an edge component of the captured video and displaying the waveform image on the display unit;
In conjunction with the enlarged display of the captured image by the enlarged display means, generates a waveform image the waveform image generating display means, have a mode for displaying,
After the enlarged display of the captured image by the enlarged display means is canceled and the display returns to the display of the normal captured image, the display control means clearly shows the area that has been enlarged and displayed for a predetermined time, The waveform image generation and display means generates and displays a waveform image based on the edge component of the area that has been enlarged and displayed so that a waveform image based on the edge component outside the area can be visually discriminated. An imaging apparatus characterized by the above.
前記波形画像生成表示手段は、前記所定の時間が経過すると、エッジ成分に基づく波形画像の表示を停止することを特徴とする請求項1に記載の撮像装置。The imaging apparatus according to claim 1, wherein the waveform image generation display unit stops displaying a waveform image based on an edge component when the predetermined time has elapsed. 撮像映像を表示部に表示する表示制御手段と、
前記撮像映像の一部を前記表示部に拡大表示する拡大表示手段と、
前記撮像映像のエッジ成分に基づく波形画像を生成し、前記表示部に表示する波形画像生成表示手段とを備えた撮像装置の制御方法であって、
前記拡大表示手段による撮像映像の拡大表示に連動して、前記波形画像生成表示手段が波形画像を生成、表示するステップと、
前記拡大表示手段による撮像映像の拡大表示が解除され、通常の撮像映像の表示に戻った後、所定の時間の間、前記表示制御手段は、それまで拡大表示されていた領域を明示するとともに、前記波形画像生成表示手段は、それまで拡大表示されていた領域のエッジ成分に基づく波形画像と、前記領域外のエッジ成分に基づく波形画像とを視覚的に判別可能なように生成、表示するステップとを有することを特徴とする撮像装置の制御方法。
Display control means for displaying captured images on a display unit;
An enlarged display means for enlarging and displaying a part of the captured image on the display unit;
A method of controlling an imaging apparatus comprising waveform image generation and display means for generating a waveform image based on an edge component of the captured image and displaying the waveform image on the display unit,
The waveform image generation and display means generates and displays a waveform image in conjunction with the enlarged display of the captured image by the enlarged display means ;
After the enlarged display of the captured image by the enlarged display means is canceled and the display returns to the display of the normal captured image, the display control means clearly shows the area that has been enlarged and displayed for a predetermined time, The waveform image generation and display means generates and displays a waveform image based on the edge component of the region that has been enlarged and displayed so that a waveform image based on the edge component outside the region can be visually discriminated. And a control method for the imaging apparatus.
撮像映像を表示部に表示する表示制御手段と、
前記撮像映像の一部を前記表示部に拡大表示する拡大表示手段と、
前記撮像映像のエッジ成分に基づく波形画像を生成し、前記表示部に表示する波形画像生成表示手段としてコンピュータを機能させ、
前記拡大表示手段による撮像映像の拡大表示に連動して、前記波形画像生成表示手段が波形画像を生成、表示するモードを有し、
前記拡大表示手段による撮像映像の拡大表示が解除され、通常の撮像映像の表示に戻った後、所定の時間の間、前記表示制御手段は、それまで拡大表示されていた領域を明示するとともに、前記波形画像生成表示手段は、それまで拡大表示されていた領域のエッジ成分に基づく波形画像と、前記領域外のエッジ成分に基づく波形画像とを視覚的に判別可能なように生成、表示することを特徴とするプログラム。
Display control means for displaying captured images on a display unit;
An enlarged display means for enlarging and displaying a part of the captured image on the display unit;
Generate a waveform image based on an edge component of the captured video, and cause a computer to function as a waveform image generation display unit that displays on the display unit,
In conjunction with the enlarged display of the captured image by the enlarged display means, generates a waveform image the waveform image generating display means, have a mode for displaying,
After the enlarged display of the captured image by the enlarged display means is canceled and the display returns to the display of the normal captured image, the display control means clearly shows the area that has been enlarged and displayed for a predetermined time, The waveform image generation and display means generates and displays a waveform image based on the edge component of the area that has been enlarged and displayed so that a waveform image based on the edge component outside the area can be visually discriminated. A program characterized by
JP2013081336A 2013-04-09 2013-04-09 Imaging apparatus, control method thereof, and program Active JP6104022B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013081336A JP6104022B2 (en) 2013-04-09 2013-04-09 Imaging apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013081336A JP6104022B2 (en) 2013-04-09 2013-04-09 Imaging apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2014204390A JP2014204390A (en) 2014-10-27
JP6104022B2 true JP6104022B2 (en) 2017-03-29

Family

ID=52354444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013081336A Active JP6104022B2 (en) 2013-04-09 2013-04-09 Imaging apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6104022B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4050385B2 (en) * 1998-05-21 2008-02-20 オリンパス株式会社 Electronic imaging device
JP3530908B2 (en) * 2002-02-18 2004-05-24 ミノルタ株式会社 Digital camera and image display device
JP4534205B2 (en) * 2005-07-21 2010-09-01 セイコーエプソン株式会社 Image display device
JP5340042B2 (en) * 2009-06-05 2013-11-13 キヤノン株式会社 Imaging apparatus and control method thereof

Also Published As

Publication number Publication date
JP2014204390A (en) 2014-10-27

Similar Documents

Publication Publication Date Title
JP4654887B2 (en) Imaging device
JP5381486B2 (en) Imaging apparatus and method
JP4655135B2 (en) Imaging apparatus, imaging area display method, and imaging area display program
US8421897B2 (en) Image capturing apparatus and control method therefor
JP5995637B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2005284155A (en) Manual focusing device and focusing assist program
JP4605217B2 (en) Imaging apparatus and program thereof
JP6261205B2 (en) Image processing device
JP2007199311A (en) Image display device and imaging apparatus
JP4792929B2 (en) Digital camera
JP2011040896A (en) Image capturing apparatus and method of controlling the same
JP5950755B2 (en) Image processing apparatus, control method, program, and storage medium
JP4788172B2 (en) Imaging apparatus and program
EP3125523A1 (en) Image processing apparatus, image processing method and image capture apparatus
JP2016167767A (en) Imaging apparatus, synthetic imaging method and synthetic imaging program
JP5479190B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
KR101960508B1 (en) Display apparatus and method
JP6104022B2 (en) Imaging apparatus, control method thereof, and program
JP5340042B2 (en) Imaging apparatus and control method thereof
JP5390913B2 (en) Imaging apparatus and control method thereof
JP5832078B2 (en) Imaging apparatus and control method thereof
JP5417920B2 (en) Image processing apparatus, image processing method, electronic camera, and image processing program
JP5404238B2 (en) Imaging device
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
KR101923185B1 (en) Display apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R151 Written notification of patent or utility model registration

Ref document number: 6104022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151