JP2019023934A - Tracking device, camera, tracking method, and tracking program - Google Patents

Tracking device, camera, tracking method, and tracking program Download PDF

Info

Publication number
JP2019023934A
JP2019023934A JP2018210242A JP2018210242A JP2019023934A JP 2019023934 A JP2019023934 A JP 2019023934A JP 2018210242 A JP2018210242 A JP 2018210242A JP 2018210242 A JP2018210242 A JP 2018210242A JP 2019023934 A JP2019023934 A JP 2019023934A
Authority
JP
Japan
Prior art keywords
similarity
tracking
image
reliability
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2018210242A
Other languages
Japanese (ja)
Inventor
浩史 金藤
Hiroshi Kinto
浩史 金藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018210242A priority Critical patent/JP2019023934A/en
Publication of JP2019023934A publication Critical patent/JP2019023934A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To make it possible to take appropriate action according to reliability of tracking.SOLUTION: A tracking device 100: comprises: an image acquisition unit 103 that repeatedly acquires images; an object reference information acquisition unit 104 that acquires object reference information on a tracking object included in the images; a surroundings reference information acquisition unit 104a that acquires surroundings reference information on the surroundings of the tracking object; a first similarity calculation unit 104a that calculates, for the images acquired in time series by the image acquisition unit 103, first similarity between a target image set in the images and the object reference information and detects a tracking object candidate image on the basis of the first similarity; a second similarity calculation unit 104a that calculates second similarity from the tracking object candidate image and surroundings reference information; and a reliability determination unit that determines reliability of the tracking object candidate image detected by the first similarity calculation unit 104a on the basis of the second similarity.SELECTED DRAWING: Figure 1

Description

本発明は、追尾装置、カメラ、追尾方法および追尾プログラムに関する。   The present invention relates to a tracking device, a camera, a tracking method, and a tracking program.

時系列に入力されるフレーム画像内で被写体を追尾する追尾装置において、正規化相関という演算手法を用いてテンプレート画像とターゲット画像間の類似度を算出して被写体を追尾する技術が知られている(特許文献1参照)。   In a tracking device that tracks a subject in a frame image input in time series, a technique for tracking the subject by calculating the similarity between the template image and the target image using a calculation method called normalized correlation is known. (See Patent Document 1).

日本国特許第3768073号公報Japanese Patent No. 3768073

しかしながら、従来の追尾装置では、例えば追尾対象が遮蔽物で遮蔽されるような信頼性低下を検出することができず、追尾が困難になるという問題がある。   However, the conventional tracking device has a problem that, for example, it is difficult to detect a decrease in reliability such that the tracking target is shielded by a shielding object, and tracking becomes difficult.

本発明による追尾装置は、画像を繰り返し取得する画像取得部と、画像に含まれる追尾対象に関する対象基準情報を取得する対象基準情報取得部と、追尾対象の周囲に関する周囲基準情報を取得する周囲基準情報取得部と、画像取得部によって時系列に取得される画像に対して、画像内に設定したターゲット画像と対象基準情報との第1の類似度を算出し、第1の類似度に基づき追尾対象候補画像を検出する第1の類似度算出部と、追尾対象候補画像と周囲基準情報より第2の類似度を算出する第2の類似度算出部と、第2の類似度に基づき、追尾対象候補画像の信頼性を判定する信頼性判定部と、を備える。
本発明によるカメラは、上記追尾装置を搭載する。
本発明による追尾方法は、画像を繰り返し取得し、画像に含まれる追尾対象に関する対象基準情報を取得し、追尾対象の周囲に関する周囲基準情報を取得し、時系列に取得される画像に対して、画像内に設定したターゲット画像と対象基準情報との第1の類似度を算出し、第1の類似度に基づき追尾対象候補画像を検出し、検出した追尾対象候補画像と周囲基準情報より第2の類似度を算出し、算出された第2の類似度に基づき、検出した追尾対象候補画像の信頼性を判定する。
A tracking device according to the present invention includes an image acquisition unit that repeatedly acquires an image, a target reference information acquisition unit that acquires target reference information related to a tracking target included in the image, and a peripheral reference that acquires ambient reference information about the periphery of the tracking target A first similarity between a target image set in the image and target reference information is calculated for the images acquired in time series by the information acquisition unit and the image acquisition unit, and tracking is performed based on the first similarity Based on the first similarity calculation unit that detects the target candidate image, the second similarity calculation unit that calculates the second similarity from the tracking target candidate image and the surrounding reference information, and the tracking based on the second similarity A reliability determination unit that determines the reliability of the target candidate image.
The camera according to the present invention is equipped with the tracking device.
The tracking method according to the present invention repeatedly acquires an image, acquires target reference information related to the tracking target included in the image, acquires ambient reference information about the periphery of the tracking target, and for images acquired in time series, A first similarity between the target image set in the image and the target reference information is calculated, a tracking target candidate image is detected based on the first similarity, and a second is determined from the detected tracking target candidate image and the surrounding reference information. And the reliability of the detected tracking target candidate image is determined based on the calculated second similarity.

本発明によれば、追尾の信頼性に応じて適切に対処し得る。   According to the present invention, it is possible to appropriately cope with tracking reliability.

本発明の一実施の形態による追尾装置を搭載するカメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of the camera carrying the tracking device by one embodiment of the invention. 演算部によって実行される被写体追尾処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the subject tracking process performed by a calculating part. 被写体ロスト時の追尾処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the tracking process at the time of a subject lost. 初期フレーム処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an initial frame process. 時系列のフレーム画像を例示する図である。It is a figure which illustrates a time-sequential frame image. 時系列のフレーム画像を例示する図である。It is a figure which illustrates a time-sequential frame image. 時系列のフレーム画像を例示する図である。It is a figure which illustrates a time-sequential frame image. 更新処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an update process. カメラに対する追尾プログラムの供給を説明する図である。It is a figure explaining supply of the tracking program with respect to a camera.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による追尾装置を搭載するカメラの構成を例示するブロック図である。図1において、カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106と、を備える。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of a camera equipped with a tracking device according to an embodiment of the present invention. In FIG. 1, the camera 100 includes an operation member 101, a lens 102, an image sensor 103, a control device 104, a memory card slot 105, and a monitor 106.

操作部材101は、使用者によって操作される種々の入力部材、例えば電源スイッチ、レリーズボタン、ズームボタン、十字キー、などを含む。レンズ102は、複数の光学レンズ群から構成され、撮像素子103の撮像面に被写体像を結像させる。図1では、光学レンズ群を代表する1枚のレンズを図示している。   The operation member 101 includes various input members operated by the user, such as a power switch, a release button, a zoom button, a cross key, and the like. The lens 102 includes a plurality of optical lens groups, and forms a subject image on the imaging surface of the imaging element 103. FIG. 1 illustrates one lens that represents the optical lens group.

撮像素子103は、例えばCMOSイメージセンサによって構成され、レンズ102により結像された被写体像を撮像する。撮像された画像のデータは、制御装置104へ出力される。制御装置104は、画像データに所定の画像処理を施す。   The image sensor 103 is configured by a CMOS image sensor, for example, and captures a subject image formed by the lens 102. Data of the captured image is output to the control device 104. The control device 104 performs predetermined image processing on the image data.

メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットである。制御装置104から出力された画像データは、メモリカードスロット105に挿入されているメモリカードに記録される。   The memory card slot 105 is a slot for inserting a memory card as a storage medium. The image data output from the control device 104 is recorded on a memory card inserted in the memory card slot 105.

モニタ106は、例えばカメラ100の背面に搭載されたタッチ操作液晶パネルによって構成される。モニタ106には、撮像素子103によって所定の間隔で時系列に取得されたモニタ用画像(ライブビュー画像)や、メモリカードに記憶されている画像データに基づく再生画像や、カメラ100を設定するための設定メニュー画面などが表示可能に構成される。   The monitor 106 is configured by a touch operation liquid crystal panel mounted on the back surface of the camera 100, for example. The monitor 106 is used to set a monitor image (live view image) acquired in time series at predetermined intervals by the image sensor 103, a reproduced image based on image data stored in a memory card, and the camera 100. The setting menu screen can be displayed.

制御装置104は、CPU、メモリ、およびその他の周囲回路により構成され、後述する演算部104aを機能的に備える。なお、制御装置104を構成するメモリには、プログラムを格納するメモリ、ワークメモリ、バッファメモリとして使用されるメモリが含まれる。   The control device 104 includes a CPU, a memory, and other peripheral circuits, and functionally includes a calculation unit 104a described later. Note that the memory constituting the control device 104 includes a memory for storing a program, a work memory, and a memory used as a buffer memory.

<フローチャートの説明>
図2および図3は、制御装置104内の演算部104aによって実行される被写体追尾処理の流れを説明するフローチャートである。制御装置104は、図2、図3の処理を行う追尾プログラムを、例えば、撮像素子103によって時系列に取得された画像データが撮像素子103から逐次出力される場合に起動させる。演算部104aは、撮像素子103から所定のフレームレートで読み出された時系列のフレーム画像について、各フレーム画像における追尾対象の位置を特定する。
<Description of flowchart>
2 and 3 are flowcharts for explaining the flow of subject tracking processing executed by the calculation unit 104a in the control device 104. FIG. The control device 104 activates the tracking program that performs the processes of FIGS. 2 and 3 when, for example, image data acquired in time series by the image sensor 103 is sequentially output from the image sensor 103. The computing unit 104a identifies the position of the tracking target in each frame image for the time-series frame images read from the image sensor 103 at a predetermined frame rate.

図2のステップS10において、演算部104aは、初期設定を行うための初期フレーム処理を行う。図4は、初期フレーム処理の詳細を説明するフローチャートである。演算部104aは、ステップS10−1において第1フレーム目のフレーム画像情報を入力する。演算部104aは、例えばフレーム画像がRGB表色系で表されている場合に、次式(1)〜(3)を用いて、色相(Hue)、彩度(Saturation)、明度(Value)の3成分から成る画像に変換する。   In step S10 of FIG. 2, the calculation unit 104a performs initial frame processing for performing initial setting. FIG. 4 is a flowchart for explaining the details of the initial frame processing. The computing unit 104a inputs the frame image information of the first frame in step S10-1. For example, when the frame image is expressed in the RGB color system, the calculation unit 104a uses the following expressions (1) to (3) to calculate the hue (Hue), saturation (Saturation), and brightness (Value). Convert to a 3 component image.

ここで、RGB成分の3つの値のうち、最大のものをMAX、最小のものをMINとする。

Figure 2019023934

ただし、H<0の時、H=H+360である。 Here, among the three values of the RGB components, the maximum value is MAX, and the minimum value is MIN.
Figure 2019023934

However, when H <0, H = H + 360.

なお、次式(4)〜(6)または次式(7)〜(9)を用いて、輝度成分(Y成分)からなる輝度画像と、色差成分(Cb成分、Cr成分)からなる色差画像とに変換してもよい。

Figure 2019023934
In addition, the luminance image which consists of a luminance component (Y component) and the color difference image which consists of a color difference component (Cb component, Cr component) using following Formula (4)-(6) or following Formula (7)-(9). It may be converted into
Figure 2019023934

Y= 0.2990R +0.5870G + 0.1140B ・・・・・・・・・・(4)
Cb = −0.1687R −0.3313G + 0.5000B + 128 ・・・・・・・(5)
Cr = 0.5000R − 0.4187G − 0.0813B + 128 ・・・・・・・(6)
Y = 0.2990R + 0.5870G + 0.1140B (4)
Cb = -0.1687R -0.3313G + 0.5000B + 128 (5)
Cr = 0.5000R − 0.4187G − 0.0813B + 128 (6)

Y= 0.25R +0.50G + 0.25B ・・・・・・・・・・・・・(7)
Cb = −0.25R − 0.50G + 0.75B + 128 ・・・・・・・・・・(8)
Cr = 0.75R − 0.50G − 0.25B + 128 ・・・・・・・・・・(9)
Y = 0.25R + 0.50G + 0.25B (7)
Cb = -0.25R-0.50G + 0.75B + 128 (8)
Cr = 0.75R-0.50G-0.25B + 128 (9)

ステップS10−2において、演算部104aは、ユーザーによって追尾対象として指定された矩形領域を被写体領域とする。具体的には、ユーザーがモニタ106の画面上で追尾対象とする所望の被写体位置をタッチ操作すると、演算部104aがタッチ位置を含む所定の矩形範囲を被写体領域とする。演算部104aは、例えば追尾演算に用いる座標系において、被写体領域の左上の座標を被写体位置座標とする。   In step S10-2, the calculation unit 104a sets the rectangular area designated as the tracking target by the user as the subject area. Specifically, when the user performs a touch operation on a desired subject position to be tracked on the screen of the monitor 106, the calculation unit 104a sets a predetermined rectangular range including the touch position as a subject area. For example, in the coordinate system used for the tracking calculation, the calculation unit 104a sets the upper left coordinate of the subject area as the subject position coordinate.

ステップS10−3において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を初期テンプレート画像として取得する。ステップS10−4において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を合成テンプレート画像として取得する。   In step S10-3, the calculation unit 104a acquires the image of the subject area determined in step S10-2 from the frame image information input in step S10-1 as an initial template image. In step S10-4, the calculation unit 104a acquires the image of the subject area determined in step S10-2 from the frame image information input in step S10-1 as a combined template image.

ステップS10−5において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を非更新型対象テンプレート画像として取得する。ステップS10−6において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を更新型対象テンプレート画像として取得する。   In step S10-5, the computing unit 104a acquires the image of the subject area determined in step S10-2 from the frame image information input in step S10-1, as a non-update-type target template image. In step S10-6, the calculation unit 104a acquires the image of the subject area determined in step S10-2 from the frame image information input in step S10-1 as an update target template image.

以上説明したように初期フレーム処理においては、初期テンプレート画像、合成テンプレート画像、非更新型対象テンプレート画像、および更新型対象テンプレート画像が共通となる。本実施形態では、初期テンプレート画像および合成テンプレート画像を追尾演算において用いるとともに、非更新型対象テンプレート画像および更新型対象テンプレート画像を上記追尾演算結果に対する信頼性判定処理に用いる。非更新型対象テンプレート画像と更新型対象テンプレート画像とが対象テンプレート画像群を構成する。   As described above, in the initial frame processing, the initial template image, the combined template image, the non-update type target template image, and the update type target template image are common. In the present embodiment, the initial template image and the synthesized template image are used in the tracking calculation, and the non-update type target template image and the update type target template image are used in the reliability determination process for the tracking calculation result. The non-update type target template image and the update type target template image constitute a target template image group.

ステップS10−7において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域に隣接する複数の領域を、周囲テンプレート画像群として取得する。図5〜図7は、時系列のフレーム画像を例示する図であり、サーキットを駆けるオートバイ(追尾対象)を流し撮りしたものである。図5に示すように、フレーム画像において被写体領域40の上に隣接する領域51、被写体領域40の下に隣接する領域52、被写体領域40の左に隣接する領域53、被写体領域40の右に隣接する領域54が、周囲テンプレート画像群を構成する。   In step S10-7, the calculation unit 104a acquires a plurality of areas adjacent to the subject area determined in step S10-2 from the frame image information input in step S10-1 as a surrounding template image group. FIG. 5 to FIG. 7 are diagrams illustrating time-series frame images, which are panning shots of motorcycles (tracking targets) running on a circuit. As shown in FIG. 5, in the frame image, an area 51 adjacent above the subject area 40, an area 52 adjacent below the subject area 40, an area 53 adjacent to the left of the subject area 40, and adjacent to the right of the subject area 40 The area 54 to be configured constitutes a surrounding template image group.

図4のステップS10−8において、演算部104aは、ロストフラグをOFFに設定し、図2のステップS20へ進む。ロストフラグは、追尾対象を見失った場合(フレーム画像において追尾対象を検出できなかった場合)にON とし、追尾対象を見失っていない場合(フレーム画像において追尾対象を検出できた場合)にOFF とするフラグである。   In step S10-8 in FIG. 4, the calculation unit 104a sets the lost flag to OFF, and proceeds to step S20 in FIG. The lost flag is set to ON when the tracking target is lost (when the tracking target cannot be detected in the frame image), and is OFF when the tracking target is not lost (when the tracking target is detected in the frame image). Flag.

図2のステップS20において、演算部104aは、第2フレーム目以降のフレーム画像情報を入力してステップS30へ進む。処理内容は、第1フレーム目(ステップS10−1)の場合と同様である。   In step S20 of FIG. 2, the calculation unit 104a inputs frame image information for the second and subsequent frames, and proceeds to step S30. The processing content is the same as in the case of the first frame (step S10-1).

ステップS30において、演算部104aは、ロストフラグがOFF か否かを判定する。演算部104aは、ロストフラグがOFFに設定されている場合にステップS30を肯定判定してステップS40へ進み、ロストフラグがONに設定されている場合にステップS30を否定判定してステップS35の被写体ロスト時の追尾処理へ進む。被写体ロスト時の追尾処理については後述する。   In step S30, the arithmetic unit 104a determines whether or not the lost flag is OFF. When the lost flag is set to OFF, the calculation unit 104a makes an affirmative determination in step S30 and proceeds to step S40. Proceed to tracking process when lost. The tracking process when the subject is lost will be described later.

<追尾対象を見失っていない場合の追尾演算>
ステップS40において、演算部104aは、初期テンプレート画像と合成テンプレート画像とを用いて、検索エリアの類似度マップを上記色相H、彩度S、明度Vの各プレーンで作成する。検索エリアは、入力したフレーム画像情報のうち追尾対象を検索する範囲をいう。類似度マップ作成には、例えば、次式(10)〜(12)に示すように、ターゲット画像とテンプレート画像の絶対差分和SAD(Sum of Absolute Difference)を使用する。ターゲット画像は、テンプレート画像のサイズと同サイズの検索エリア内の画像である。
<Tracking calculation when the tracking target is not lost>
In step S40, the calculation unit 104a uses the initial template image and the synthesized template image to create a similarity map of the search area with the hue H, saturation S, and brightness V planes. The search area refers to a range in which the tracking target is searched in the input frame image information. For creating the similarity map, for example, as shown in the following equations (10) to (12), a sum of absolute differences SAD (Sum of Absolute Difference) between the target image and the template image is used. The target image is an image in the search area having the same size as the size of the template image.

SAD = Σ|Hターゲット画像−Hテンプレート画像| ・・・・・・・・(10)
SAD = Σ|Sターゲット画像−Sテンプレート画像| ・・・・・・・・(11)
SAD = Σ|Vターゲット画像−Vテンプレート画像| ・・・・・・・・(12)
SAD H = Σ | H target image− H template image | (10)
SAD S = Σ | S target image− S template image | (11)
SAD V = Σ | V target image− V template image | (12)

ステップS50において、演算部104aは、ステップS40において作成したH、S、V各プレーンの類似度マップに、被写体位置からの距離に応じて係数を乗算する。係数は、次式(13)より算出する。
Kyori(x, y) = Kyori + K(|x−M| + |y−M|) ・・・・・(13)
なお、式(13)において、(x,y) は類似度マップの二次元座標値、Mは前フレームにおける被写体位置のx座標、Mは前フレームにおける被写体位置のy座標である。また、本例ではKyori = 1.0、K = 0.05としている。このように距離に応じた重み付けを行うのは、前フレームにおける被写体位置に近い位置を優遇するためである。
In step S50, the calculation unit 104a multiplies the similarity map of the H, S, and V planes created in step S40 by a coefficient according to the distance from the subject position. The coefficient is calculated from the following equation (13).
Kyori (x, y) = Kyori 0 + K (| x−M x | + | y−M y |) (13)
In the equation (13), a (x, y) is the two-dimensional coordinate values of the similarity map, M x is the x-coordinate of the object position in the previous frame, M y is the y coordinate of the object position in the previous frame. In this example, Kyori 0 = 1.0 and K = 0.05. The reason why the weighting according to the distance is performed is to give a preferential treatment to a position close to the subject position in the previous frame.

ステップS60において、演算部104aは、H、S、V各プレーンの類似度マップを次式(14)により統合する。
N= TempHeight×TempWidth×255
MapHSV = 1/N(GainH×DistMapH + GainS×DistMapS + GainV×DistMapV)
・・・・・(14)
In step S60, the calculation unit 104a integrates the similarity maps of the H, S, and V planes according to the following equation (14).
N = TempHeight × TempWidth × 255
MapHSV = 1 / N (GainH x DistMapH + GainS x DistMapS + GainV x DistMapV)
(14)

なお、式(14)において、TempHeightはテンプレート画像の縦幅、TempWidthはテンプレート画像の横幅、DistMapHは距離重み係数を乗算したHプレーンの類似度マップ、DistMapSは距離重み係数を乗算したSプレーンの類似度マップ、DistMapVは距離重み係数を乗算したVプレーンの類似度マップである。また、本例ではGainH = 1.5、GainS = 1.5、GainV = 0.1としている。   In Equation (14), TempHeight is the vertical width of the template image, TempWidth is the horizontal width of the template image, DistMapH is the similarity map of the H plane multiplied by the distance weight coefficient, and DistMapS is the similarity of the S plane multiplied by the distance weight coefficient. The degree map, DistMapV, is a V-plane similarity map multiplied by a distance weight coefficient. In this example, GainH = 1.5, GainS = 1.5, and GainV = 0.1.

演算部104aはさらに、統合した2つの類似度マップ(初期テンプレート画像に関する類似度マップ、合成テンプレート画像に関する類似度マップ)の中から類似度が最大(本実施形態においては絶対差分和SADが最小)となるxy座標をマッチング位置として選出し、このマッチング位置を左上座標としたテンプレート画像のサイズと同じ矩形領域を被写体候補領域として取得する。   The computing unit 104a further has the maximum similarity among the two integrated similarity maps (similarity map related to the initial template image and similarity map related to the combined template image) (in this embodiment, the absolute difference sum SAD is minimum). Is selected as a matching position, and a rectangular area having the same size as the template image with the matching position as an upper left coordinate is acquired as a subject candidate area.

<被写体候補領域に対する信頼性判定>
ステップS70において、演算部104aは、次式(15)、(16)により、ステップS60において取得した被写体候補領域の、対象テンプレート画像群と周囲テンプレート画像群とに対する類似度を算出する。

Figure 2019023934

S= 0.5×(NCC + 1) ・・・・・・・・・・・・・・・(16)
Object(i,j)は、被写体候補領域に対応し、Template(i,j)は、対象テンプレート画像群と周囲テンプレート画像群とに対応する。式(15)は正規化相互相関(NCC)の算出式であり、類似度が高いほど1に近づき、類似度が低いほど−1に近づく。式(16)は、類似度が高いほど1に近づき、類似度が低いほど0に近づくように式(15)の結果を変形したものである。 <Reliability determination for subject candidate area>
In step S70, the calculation unit 104a calculates the similarity between the subject template image group acquired in step S60 and the target template image group and the surrounding template image group by the following equations (15) and (16).
Figure 2019023934

S = 0.5 × (NCC + 1) (16)
Object (i, j) corresponds to the subject candidate region, and Template (i, j) corresponds to the target template image group and the surrounding template image group. Formula (15) is a calculation formula for normalized cross correlation (NCC), and approaches 1 as the degree of similarity increases, and approaches -1 as the degree of similarity decreases. Expression (16) is obtained by modifying the result of Expression (15) so that it approaches 1 as the degree of similarity increases and approaches 0 as the degree of similarity decreases.

演算部104aはさらに、対象テンプレート画像群の中で類似度が最大になった値をSmaxP、周囲テンプレート画像群の中で類似度が最大になった値をSmaxNとし、次式(17)より相対類似度Sを算出する。

Figure 2019023934
Calculation unit 104a further values similarity is the highest among the target template images S maxP, the value of similarity is maximized in the surrounding template images and S maxN, the following equation (17) Then, the relative similarity Sr is calculated.
Figure 2019023934

図6において、画面内に遮蔽物60となり得るポールが存在する。サーキットを駆けるオートバイ(追尾対象)は遮蔽物60に接近し、次フレームである図7において、オートバイ(追尾対象)が遮蔽物60に隠れてしまう。図6のフレーム画像において、被写体領域40の上に隣接する領域51、被写体領域40の下に隣接する領域52、被写体領域40の左に隣接する領域53、被写体領域40の右に隣接する領域54が、周囲テンプレート画像群を構成する。   In FIG. 6, there is a pole that can be a shielding object 60 in the screen. The motorcycle (tracking target) running on the circuit approaches the shield 60, and the motorcycle (tracking target) is hidden by the shield 60 in FIG. In the frame image of FIG. 6, a region 51 adjacent above the subject region 40, a region 52 adjacent below the subject region 40, a region 53 adjacent to the left of the subject region 40, and a region 54 adjacent to the right of the subject region 40. Constitutes a surrounding template image group.

オートバイ(追尾対象)が遮蔽物60に隠れた遮蔽状態になると、オートバイと遮蔽物60の色が似ている場合、図7のように被写体候補領域41が遮蔽物60の上に設定されてしまう事がある。このような場合、被写体候補領域41の、対象テンプレート画像群に対する類似度は比較的高い値となってしまう。しかしながら、本実施形態では1フレーム前の図6において遮蔽物60を含む領域54が、周囲テンプレート画像として取得されている。このため、被写体候補領域41の、周囲テンプレート画像群(本例では領域54)に対する類似度は、対象テンプレート画像群に対する類似度よりも高くなる。したがって、相対類似度Sの値が小さくなり、遮蔽状態を正しく判定できる。式(17)によれば、遮蔽状態でない場合に相対類似度Sの値が1に近づき、遮蔽状態の場合に相対類似度Sの値が小さくなる。 When the motorcycle (tracking target) is in a shielding state hidden by the shield 60, the subject candidate area 41 is set on the shield 60 as shown in FIG. There is a thing. In such a case, the similarity of the subject candidate area 41 to the target template image group is a relatively high value. However, in the present embodiment, the region 54 including the shielding object 60 in FIG. 6 one frame before is acquired as a surrounding template image. For this reason, the similarity of the subject candidate area 41 to the surrounding template image group (area 54 in this example) is higher than the similarity to the target template image group. Therefore, the value of the relative similarity S r becomes smaller, it can be determined blocking state correctly. According to equation (17), the value of the relative similarity S r if not shielded state approaches 1, the value of the relative similarity S r in the case of the shielding state is smaller.

ステップS80において、演算部104aは、ステップS70において算出した相対類似度Sが、所定の「判定閾値1」以上か否かを判定する。演算部104aは、相対類似度Sが「判定閾値1」以上の場合にステップS80を肯定判定してステップS90へ進み、「判定閾値1」未満の場合にステップS80を否定判定してステップS140へ進む。なお、本実施形態では、「判定閾値1」=0.4960としている。ステップS80を肯定判定する場合は、S60において選出した被写体候補領域の信頼性が高い。ステップS80を否定判定する場合は、S60において選出した被写体候補領域の信頼性が低い。 In step S80, arithmetic operation unit 104a, the relative similarity S r calculated in step S70 it is determined whether or not a predetermined "determination threshold value 1" or more. Calculating unit 104a, the relative similarity S r is an affirmative decision in step S80 if the above "determination threshold value 1", the flow proceeds to step S90, and a negative decision in step S80 if less than "determination threshold value 1" step S140 Proceed to In the present embodiment, “determination threshold 1” = 0.4960. When affirmative determination is made in step S80, the subject candidate area selected in S60 has high reliability. When a negative determination is made in step S80, the reliability of the subject candidate area selected in S60 is low.

ステップS90において、演算部104aは、ステップS60において選出したマッチング位置を新たな被写体位置として採用し、被写体候補領域を新たな被写体領域として採用する。   In step S90, the calculation unit 104a employs the matching position selected in step S60 as a new subject position, and employs the subject candidate area as a new subject area.

ステップS100において、演算部104aは合成テンプレート画像の更新処理を行う。図8は、更新処理の詳細を説明するフローチャートである。図8のステップS100−1において、演算部104aは、ステップS60においてマッチング位置を選出した類似度マップが、初期テンプレート画像による類似度マップであるか、合成テンプレート画像による類似度マップであるかを判定する。演算部104aは、合成テンプレート画像による類似度マップであると判断した場合はステップS100−2へ進み、初期テンプレート画像による類似度マップである場合にはステップS100−3へ進む。   In step S100, the calculation unit 104a performs a process for updating the composite template image. FIG. 8 is a flowchart illustrating details of the update process. In step S100-1 of FIG. 8, the calculation unit 104a determines whether the similarity map for which the matching position has been selected in step S60 is a similarity map based on the initial template image or a similarity map based on the combined template image. To do. The calculation unit 104a proceeds to step S100-2 when determining that the map is a similarity map based on a composite template image, and proceeds to step S100-3 when the map is a similarity map based on an initial template image.

ステップS100−2において、演算部104aは、ステップS90において採用した新たな被写体領域の画素値に重み係数Aを乗じた画像と、初期テンプレート画像の画素値に重み係数B(ただしA≧B、かつA+B=1)を乗じた画像とを加算し、加算後の画像を合成テンプレート画像として更新して図2のステップS110へ進む。   In step S100-2, the calculation unit 104a calculates the image obtained by multiplying the pixel value of the new subject area adopted in step S90 by the weighting factor A, and the pixel value of the initial template image to the weighting factor B (where A ≧ B, and The image multiplied by A + B = 1) is added, the added image is updated as a composite template image, and the process proceeds to step S110 in FIG.

ステップS100−3において、演算部104aは、ステップS90において採用した新たな被写体領域の画素値に上記重み係数Bを乗じた画像と、初期テンプレート画像の画素値に上記重み係数Aを乗じた画像とを加算し、加算後の画像を合成テンプレート画像として更新して図2のステップS110へ進む。   In step S100-3, the calculation unit 104a includes an image obtained by multiplying the pixel value of the new subject area adopted in step S90 by the weight coefficient B, and an image obtained by multiplying the pixel value of the initial template image by the weight coefficient A. Are added, the image after the addition is updated as a composite template image, and the process proceeds to step S110 in FIG.

図2のステップS110において、演算部104aは、更新型対象テンプレート画像の更新処理を行う。新たな更新型対象テンプレート画像は、非更新型対象テンプレート画像の画素値に重み係数Cを乗じた画像と、ステップS90において採用した新たな被写体領域の画素値に重み係数Dを乗じた画像とを加算して作成する。これにより、現在の被写体の形状を反映し、かつ、初期状態から大きく離れ過ぎない、更新型対象テンプレート画像を取得することができる。なお、C≧D、かつC+D=1である。   In step S110 in FIG. 2, the calculation unit 104a performs an update process of the update target template image. The new update-type target template image includes an image obtained by multiplying the pixel value of the non-update-type target template image by the weight coefficient C, and an image obtained by multiplying the pixel value of the new subject area adopted in step S90 by the weight coefficient D. Add to create. As a result, an update-type target template image that reflects the current shape of the subject and that is not too far from the initial state can be acquired. Note that C ≧ D and C + D = 1.

ステップS120において、演算部104aは、ステップS90において採用した新たな被写体領域に隣接する複数の領域を新たな周囲テンプレート画像群として更新する。ステップS130において、演算部104aは、全てのフレーム画像に対する処理が完了したか否かを判定する。演算部104aは、全フレーム画像に対して処理を行った場合にステップS130を肯定判定して図2による処理を終了する。演算部104aは、全フレーム画像に対して処理を行っていない場合にはステップS130を否定判定し、ステップS20へ戻る。ステップS20へ戻る場合は、新たなフレーム画像情報を入力し、上述した処理を繰り返す。   In step S120, the calculation unit 104a updates a plurality of areas adjacent to the new subject area adopted in step S90 as a new surrounding template image group. In step S130, the calculation unit 104a determines whether or not processing for all frame images has been completed. The arithmetic unit 104a makes an affirmative determination in step S130 when the process has been performed on all frame images, and ends the process of FIG. The arithmetic unit 104a makes a negative determination in step S130 if the process has not been performed on all frame images, and returns to step S20. When returning to step S20, new frame image information is input, and the above-described processing is repeated.

ステップS80を否定判定して進むステップS140において、演算部104aは、フレーム画像内に追尾対象はいないと判定し、ロストフラグをONに設定してステップS130へ進む。   In step S140, which proceeds after making a negative determination in step S80, the calculation unit 104a determines that there is no tracking target in the frame image, sets the lost flag to ON, and proceeds to step S130.

<追尾対象を見失った場合の追尾演算>
図3は、被写体ロスト時の追尾処理を説明するフローチャートである。図3のステップS150において、演算部104aは、ステップS40の場合と同様に、初期テンプレート画像と合成テンプレート画像を用いて、検索エリアの類似度マップを上記色相H、彩度S、明度Vの各プレーンで作成する。ただし、検索エリアを、ロストフラグがOFFの時(追尾対象を見失っていない場合)よりも広く設定する。これにより、追尾対象がロスト(遮蔽状態)した座標から離れた位置に出現する場合も、検索エリア内に追尾対象を捉えることができる。
<Tracking calculation when the tracking target is lost>
FIG. 3 is a flowchart for explaining the tracking process when the subject is lost. In step S150 of FIG. 3, the calculation unit 104a uses the initial template image and the synthesized template image to convert the similarity map of the search area to each of the hue H, saturation S, and brightness V as in step S40. Create in plain. However, the search area is set wider than when the lost flag is OFF (when the tracking target is not lost). Thereby, even when the tracking target appears at a position away from the lost (shielded) coordinates, the tracking target can be captured in the search area.

ステップS160において、演算部104aは、ステップS50の場合と同様に、ステップS150において作成したH、S、V各プレーンの類似度マップに、被写体位置からの距離に応じて係数を乗算する。ただし、上式(13)のKの値は、ロストフラグがOFFの時よりも小さい値に設定する。これにより、被写体がロストした座標から離れた位置に出現する場合の絶対差分和SADが小さくなり、被写体候補領域として選出することができる。なお、本実施形態では、K = 0.02としている。   In step S160, as in step S50, the calculation unit 104a multiplies the similarity map of each of the H, S, and V planes created in step S150 by a coefficient according to the distance from the subject position. However, the value of K in the above equation (13) is set to a smaller value than when the lost flag is OFF. As a result, the absolute difference sum SAD when the subject appears at a position away from the lost coordinates becomes small, and can be selected as the subject candidate region. In the present embodiment, K = 0.02.

ステップS170において、演算部104aは、ステップS60の場合と同様に、H、S、V各プレーンの類似度マップを上式(14)により統合し、統合した2つの類似度マップの中から類似度が最大(本実施形態においては絶対差分和SADが最小)となるxy座標をマッチング位置として選出する。そして、選出したマッチング位置を左上座標としたテンプレート画像のサイズと同じ矩形領域を被写体候補領域として取得する。   In step S170, as in step S60, the calculation unit 104a integrates the similarity maps of the H, S, and V planes according to the above equation (14), and calculates the similarity from the two integrated similarity maps. Is selected as the matching position at the xy coordinate where the maximum is (the absolute difference sum SAD is minimum in the present embodiment). Then, a rectangular area having the same size as the template image with the selected matching position as the upper left coordinate is acquired as a subject candidate area.

ステップS180において、演算部104aは、ステップS70の場合と同様に、式(15)〜(17)によって相対類似度Sを算出する。 In step S180, the arithmetic unit 104a, as in the case of step S70, the calculating the relative similarity S r by equation (15) to (17).

ステップS190において、演算部104aは、ステップS180において算出した相対類似度Sが、所定の「判定閾値2」以上か否かを判定する。演算部104aは、相対類似度Sが「判定閾値2」以上の場合にステップS190を肯定判定してステップS200へ進み、「判定閾値2」未満の場合にステップS190を否定判定してステップS130へ進む。なお、本実施形態では、「判定閾値2」に、「判定閾値1」よりも大きい値(=0.4990)を使用する。ステップS190を肯定判定する場合は、S170において選出した被写体候補領域の信頼性が高い。ステップS190を否定判定する場合は、S170において選出した被写体候補領域の信頼性が低い。 In step S190, the arithmetic unit 104a relative similarity S r calculated in step S180 it is determined whether or not a predetermined "determination threshold value 2" or more. If the relative similarity S r is equal to or greater than “determination threshold 2”, the calculation unit 104a makes an affirmative determination in step S190 and proceeds to step S200. If the relative similarity S r is less than “determination threshold 2”, the operation unit 104a makes a negative determination in step S190. Proceed to In the present embodiment, a value (= 0.4990) larger than “determination threshold 1” is used for “determination threshold 2”. When the determination in step S190 is affirmative, the subject candidate area selected in S170 has high reliability. When a negative determination is made in step S190, the reliability of the subject candidate area selected in S170 is low.

ステップS200において、演算部104aは、ステップS170において選出したマッチング位置を新たな被写体位置として採用し、被写体候補領域を新たな被写体領域として採用する。   In step S200, the calculation unit 104a employs the matching position selected in step S170 as a new subject position, and employs the subject candidate area as a new subject area.

ステップS210において、演算部104aは、ステップS100の場合と同様に、合成テンプレート画像の更新処理を行う。ステップS220において、演算部104aは、ステップS110の場合と同様に、更新型対象テンプレート画像の更新処理を行う。ステップS230において、演算部104aは、ステップS120の場合と同様に、周囲テンプレート画像群の更新処理を行う。   In step S210, the arithmetic unit 104a performs a process of updating the composite template image, as in the case of step S100. In step S220, the calculation unit 104a performs an update process of the update-type target template image as in the case of step S110. In step S230, the calculation unit 104a performs a process of updating the surrounding template image group as in the case of step S120.

ステップS240において、演算部104aは、フレーム内に追尾対象が戻ってきた(遮蔽状態を脱した)と判断し、ロストフラグをOFFに設定して図2のステップS130へ進む。   In step S240, the calculation unit 104a determines that the tracking target has returned within the frame (has escaped the shielding state), sets the lost flag to OFF, and proceeds to step S130 in FIG.

上述した実施形態によれば、次の作用効果が得られる。
(1)カメラ100は、フレーム画像を繰り返し取得する撮像素子103と、上記フレーム画像に含まれる追尾対象に関するテンプレート画像(初期テンプレート画像、合成テンプレート画像、対象テンプレート画像群)を取得する演算部104aと、追尾対象の周囲に関する周囲テンプレート画像群を取得する演算部104aと、演算部104aによって時系列に取得されるフレーム画像に対して、フレーム画像内に設定したターゲット画像とテンプレート画像との第1の類似度(SAD)を算出し、第1の類似度に基づき被写体候補領域41を検出する第1の類似度算出部(演算部104a)と、第1の類似度算出部(演算部104a)によって検出された被写体候補領域41と周囲テンプレート画像群より第2の類似度(NCC)を算出する第2の類似度算出部(演算部104a)と、第2の類似度算出部(演算部104a)によって算出された第2の類似度(NCC)に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する演算部104aと、を備える。これにより、判定した信頼性に応じて適切な対処が可能になる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The camera 100 repeatedly acquires a frame image, the image sensor 103, and a calculation unit 104a that acquires a template image (initial template image, composite template image, target template image group) related to the tracking target included in the frame image. The calculation unit 104a that acquires a surrounding template image group related to the periphery of the tracking target, and the first target image and template image set in the frame image with respect to the frame image acquired in time series by the calculation unit 104a A first similarity calculation unit (calculation unit 104a) that calculates a similarity (SAD) and detects the subject candidate region 41 based on the first similarity, and a first similarity calculation unit (calculation unit 104a). The second similarity (NCC) is calculated from the detected subject candidate area 41 and the surrounding template image group. Based on the second similarity (NCC) calculated by the second similarity calculation unit (calculation unit 104a) and the second similarity calculation unit (calculation unit 104a). A calculation unit 104a that determines the reliability of the subject candidate area 41 detected by the calculation unit 104a). As a result, appropriate measures can be taken according to the determined reliability.

(2)被写体候補領域41の信頼性が所定値より高い場合にフレーム画像における被写体候補領域41の位置を追尾対象の位置とし、信頼性が所定値より低い場合に被写体が画像中にいないと判定することにより、追尾対象を適切に追尾することができる。 (2) When the reliability of the subject candidate area 41 is higher than a predetermined value, the position of the subject candidate area 41 in the frame image is set as the tracking target position, and when the reliability is lower than the predetermined value, it is determined that the subject is not in the image. By doing so, it is possible to appropriately track the tracking target.

(3)被写体候補領域41の信頼性が所定値より高い場合、追尾対象の位置を特定して次のフレーム画像に対する処理へ進み、信頼性が所定値より低い場合、被写体がいないと判定したまま次のフレーム画像に対する処理へ進むので、追尾処理を適切に行うことができる。 (3) When the reliability of the subject candidate area 41 is higher than the predetermined value, the position of the tracking target is specified and the process proceeds to the next frame image. When the reliability is lower than the predetermined value, it is determined that there is no subject. Since the process proceeds to the process for the next frame image, the tracking process can be appropriately performed.

(4)第2の類似度算出部(演算部104a)は、第1の類似度算出部(演算部104a)によって検出された被写体候補領域41とテンプレート画像(対象テンプレート画像群)との第3の類似度(NCC)を算出し、演算部104aは、第3の類似度(NCC)と第2の類似度(NCC)とに基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定するので、第1の類似度算出部(演算部104a)が算出した類似度(SAD)と同種の類似度のみで信頼性判定する場合に比べて、多面的に信頼性を判定できる。 (4) The second similarity calculation unit (calculation unit 104a) is a third unit between the subject candidate area 41 and the template image (target template image group) detected by the first similarity calculation unit (calculation unit 104a). The similarity (NCC) is calculated, and the calculation unit 104a is detected by the first similarity calculation unit (calculation unit 104a) based on the third similarity (NCC) and the second similarity (NCC). Since the reliability of the subject candidate area 41 is determined, compared to the case where the reliability determination is performed only by using the similarity of the same type as the similarity (SAD) calculated by the first similarity calculation unit (calculation unit 104a). Reliability can be determined.

(5)第1の類似度算出部(演算部104a)が第1の類似度(SAD)を算出するための類似度演算と、第2の類似度算出部(演算部104a)が第2の類似度(NCC)および第3の類似度(NCC)を算出するための類似度演算とを互いに異ならせたので、同種の類似度演算のみで信頼性判定する場合に比べて、多面的に信頼性を判定できる。また、演算部104aは、第3の類似度(NCC)を、第3の類似度(NCC)と第2の類似度(NCC)との加算値で除算した値に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する。これにより、追尾対象が遮蔽物60に隠れる遮蔽状態か否かの判別が容易になる。 (5) The similarity calculation for the first similarity calculation unit (calculation unit 104a) to calculate the first similarity (SAD) and the second similarity calculation unit (calculation unit 104a) are the second Since the similarity calculation for calculating the similarity (NCC) and the third similarity (NCC) is made different from each other, it is more reliable than the case of determining reliability by using only the same kind of similarity calculation. Can determine gender. The computing unit 104a also calculates the first similarity based on the value obtained by dividing the third similarity (NCC) by the added value of the third similarity (NCC) and the second similarity (NCC). The reliability of the subject candidate area 41 detected by the calculation unit (calculation unit 104a) is determined. Thereby, it becomes easy to determine whether or not the tracking target is in a shielding state hidden by the shielding object 60.

(6)演算部104aは、第3の類似度(NCC)を、第3の類似度(NCC)と第2の類似度(NCC)との加算値で除算した値が、閾値よりも大きい場合に信頼性が高いと判定し、閾値よりも小さい場合に信頼性が低いと判定する。具体的には、遮蔽状態でない場合に信頼性が高く、遮蔽状態の場合に信頼性が低いと判定し得るので、信頼性判定を適切に行える。 (6) When the arithmetic unit 104a divides the third similarity (NCC) by the added value of the third similarity (NCC) and the second similarity (NCC) is greater than the threshold value It is determined that the reliability is high, and it is determined that the reliability is low when the reliability is lower than the threshold. Specifically, since it can be determined that the reliability is high when not in the shielding state and the reliability is low when in the shielding state, the reliability determination can be performed appropriately.

(7)第1の類似度算出部(演算部104a)は、フレーム画像内において第1の類似度(SAD)に基づき被写体候補領域41を検出する検索エリアを、演算部104aにより信頼性が高いと判定した場合よりも信頼性が低いと判定した場合に広くする。これにより、例えば、追尾対象が遮蔽状態になった座標位置から離れた座標位置に出現する場合に、追尾対象を検索エリア内に捉える可能性を高めることができる。 (7) The first similarity calculation unit (calculation unit 104a) uses the calculation unit 104a to increase the reliability of the search area for detecting the subject candidate area 41 based on the first similarity (SAD) in the frame image. If it is determined that the reliability is lower than that determined. Thereby, for example, when the tracking target appears at a coordinate position away from the coordinate position in the shielding state, the possibility of capturing the tracking target in the search area can be increased.

(8)演算部104aは、追尾対象の左右および上下それぞれの位置に関して複数の周囲テンプレート画像群を取得し、第2の類似度算出部(演算部104a)は、被写体候補領域41と複数の周囲テンプレート画像群51−54の各々との間で第2の類似度(NCC)を複数通り算出し、演算部104aは、複数通りの第2の類似度(NCC)のうち最も類似性が高い第2の類似度に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する。一般に、追尾対象が遮蔽物60に隠れる遮蔽状態になる前のフレーム画像においては、追尾対象の左右上下のいずれかに遮蔽物60が含まれる。このため、左右上下方向に対する複数通りの第2の類似度(NCC)のうち最も類似性が高い第2の類似度を用いることで、信頼性が低下する遮蔽状態を適切に判定できる。 (8) The calculation unit 104a acquires a plurality of surrounding template image groups for the left and right and top and bottom positions of the tracking target, and the second similarity calculation unit (the calculation unit 104a) includes the subject candidate area 41 and the plurality of surroundings. The plurality of second similarity degrees (NCC) are calculated with each of the template image groups 51 to 54, and the calculation unit 104a has the highest similarity among the plurality of second similarity degrees (NCC). Based on the similarity of 2, the reliability of the subject candidate area 41 detected by the first similarity calculation unit (calculation unit 104a) is determined. In general, in the frame image before the tracking target is hidden by the shielding object 60, the shielding object 60 is included in any of the left, right, upper, and lower sides of the tracking target. For this reason, by using the second similarity having the highest similarity among the plurality of second similarities (NCC) with respect to the left and right and up and down directions, it is possible to appropriately determine the shielding state in which the reliability is lowered.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
上述した実施形態では、カメラ100を例に追尾装置を説明したが、カメラ100に対して追尾プログラムを後から供給してもよい。カメラ100への追尾プログラムの供給は、例えば図9に例示するように、プログラムを格納したパーソナルコンピュータ205から赤外線通信や近距離無線通信によってカメラ100へ送信することができる。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
In the embodiment described above, the tracking device has been described by taking the camera 100 as an example, but a tracking program may be supplied to the camera 100 later. The supply of the tracking program to the camera 100 can be transmitted from the personal computer 205 storing the program to the camera 100 by infrared communication or short-range wireless communication as exemplified in FIG.

パーソナルコンピュータ205に対するプログラムの供給は、プログラムを格納したCD−ROMなどの記憶媒体204をパーソナルコンピュータ205にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ205へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。   The program may be supplied to the personal computer 205 by setting a storage medium 204 such as a CD-ROM storing the program in the personal computer 205, or to the personal computer 205 by a method via the communication line 201 such as a network. You may load. When passing through the communication line 201, the program is stored in the storage device 203 of the server 202 connected to the communication line.

また、プログラムを格納したメモリカードなどの記憶媒体204Bをカメラ100にセットしてもよい。このように、追尾プログラムは、記憶媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給できる。   Further, a storage medium 204B such as a memory card storing the program may be set in the camera 100. As described above, the tracking program can be supplied as various types of computer program products such as provision via a storage medium or a communication line.

(変形例2)
上述した説明では、被写体候補領域の検出のための追尾演算において、ターゲット画像とテンプレート画像(初期テンプレート画像、合成テンプレート画像)との間の類似度判定に絶対差分和(SAD)を用いるとともに、検出した被写体候補領域41の信頼性判定を行う演算において、被写体候補領域41とテンプレート画像(対象テンプレート画像群、周囲テンプレート画像群)との間の類似度判定に正規化相互相関(NCC)を用いた。追尾演算と信頼性判定の演算とで異なる類似度判定を行う代わりに、追尾演算と信頼性判定の演算とで同じ類似度判定(絶対差分和(SAD)または正規化相互相関(NCC)に揃える)を行うように構成してもよい。
(Modification 2)
In the above description, in the tracking calculation for detecting the subject candidate area, the absolute difference sum (SAD) is used for determining the similarity between the target image and the template image (initial template image, composite template image), and detection is performed. In the calculation for determining the reliability of the subject candidate area 41, normalized cross-correlation (NCC) is used for similarity determination between the subject candidate area 41 and the template image (target template image group, surrounding template image group). . Instead of performing different similarity determinations in the tracking calculation and the reliability determination calculation, the tracking calculation and the reliability determination calculation have the same similarity determination (absolute difference sum (SAD) or normalized cross correlation (NCC)). ) May be configured.

(変形例3)
ターゲット画像とテンプレート画像との間の類似度判定に用いる初期テンプレート画像および合成テンプレート画像のサイズと、被写体候補領域41とテンプレート画像との間の類似度判定に用いる対象テンプレート画像群および周囲テンプレート画像群のサイズとを同じにする例を説明したが、これらのテンプレート画像のサイズは必ずしも同じにしなくてもよい。例えば、対象テンプレート画像群および周囲テンプレート画像群のサイズを、初期テンプレート画像および合成テンプレート画像のサイズより小さくしてもよい。
(Modification 3)
Size of initial template image and composite template image used for similarity determination between target image and template image, target template image group and surrounding template image group used for similarity determination between subject candidate region 41 and template image Although an example in which the size of the template images is the same has been described, the sizes of these template images are not necessarily the same. For example, the size of the target template image group and the surrounding template image group may be smaller than the sizes of the initial template image and the synthesized template image.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

40…被写体領域
41…被写体候補領域
51〜54…周囲テンプレート画像群
60…遮蔽物
100…カメラ
103…撮像素子
104…制御装置
104a…演算部
201…通信回線
202…サーバー
204、204B…記憶媒体
205…パーソナルコンピュータ
40 ... Subject area 41 ... Subject candidate areas 51-54 ... Ambient template image group 60 ... Shielding object 100 ... Camera 103 ... Image sensor 104 ... Control device 104a ... Calculation unit 201 ... Communication line 202 ... Servers 204, 204B ... Storage medium 205 …Personal computer

Claims (11)

画像を繰り返し取得する画像取得部と、
前記画像に含まれる追尾対象に関する対象基準情報を取得する対象基準情報取得部と、
前記追尾対象の周囲に関する周囲基準情報を取得する周囲基準情報取得部と、
前記画像取得部によって時系列に取得される前記画像に対して、前記画像内に設定したターゲット画像と前記対象基準情報との第1の類似度を算出し、前記第1の類似度に基づき追尾対象候補画像を検出する第1の類似度算出部と、
前記追尾対象候補画像と前記周囲基準情報より第2の類似度を算出する第2の類似度算出部と、
前記第2の類似度に基づき、前記追尾対象候補画像の信頼性を判定する信頼性判定部と、
を備えることを特徴とする追尾装置。
An image acquisition unit that repeatedly acquires images;
A target criterion information acquisition unit that acquires target criterion information related to the tracking target included in the image;
A surrounding reference information acquisition unit for acquiring surrounding reference information about the periphery of the tracking target;
A first similarity between the target image set in the image and the target reference information is calculated for the image acquired in time series by the image acquisition unit, and tracking is performed based on the first similarity. A first similarity calculation unit for detecting a target candidate image;
A second similarity calculation unit that calculates a second similarity from the tracking target candidate image and the surrounding reference information;
A reliability determination unit that determines the reliability of the tracking target candidate image based on the second similarity;
A tracking device comprising:
請求項1に記載の追尾装置において、
前記信頼性が所定値より高い場合に前記画像における前記追尾対象候補画像の位置を前記追尾対象の位置とし、前記信頼性が前記所定値より低い場合、被写体が画像中にいないと判定する、
ことを特徴とする追尾装置。
The tracking device according to claim 1,
When the reliability is higher than a predetermined value, the position of the tracking target candidate image in the image is set as the position of the tracking target, and when the reliability is lower than the predetermined value, it is determined that the subject is not in the image.
A tracking device characterized by that.
請求項2に記載の追尾装置において、
前記信頼性が所定値より高い場合、前記追尾対象の位置を特定して次の画像に対する処理へ進み、前記信頼性が前記所定値より低い場合、前記被写体がいないと判定したまま次の画像に対する処理へ進む、
ことを特徴とする追尾装置。
The tracking device according to claim 2,
When the reliability is higher than a predetermined value, the position of the tracking target is specified and the process proceeds to the next image. When the reliability is lower than the predetermined value, it is determined that there is no subject and the next image is determined. Proceed to processing,
A tracking device characterized by that.
請求項2または3に記載の追尾装置において、
前記第2の類似度算出部は、前記追尾対象候補画像と前記対象基準情報との第3の類似度を算出し、
前記信頼性判定部は、前記第3の類似度と前記第2の類似度とに基づき、前記追尾対象候補画像の信頼性を判定することを特徴とする追尾装置。
The tracking device according to claim 2 or 3,
The second similarity calculation unit calculates a third similarity between the tracking target candidate image and the target reference information;
The tracking device according to claim 1, wherein the reliability determination unit determines the reliability of the tracking target candidate image based on the third similarity and the second similarity.
請求項4に記載の追尾装置において、
前記第1の類似度算出部が前記第1の類似度を算出するための類似度演算と、前記第2の類似度算出部が前記第2の類似度および前記第3の類似度を算出するための類似度演算とは互いに異なり、
前記信頼性判定部は、前記第3の類似度を、前記第3の類似度と前記第2の類似度との加算値で除算した値に基づき、前記追尾対象候補画像の信頼性を判定することを特徴とする追尾装置。
The tracking device according to claim 4,
A similarity calculation for the first similarity calculation unit to calculate the first similarity, and a second similarity calculation unit to calculate the second similarity and the third similarity. Is different from the similarity calculation for
The reliability determination unit determines the reliability of the tracking target candidate image based on a value obtained by dividing the third similarity by an addition value of the third similarity and the second similarity. A tracking device characterized by that.
請求項5に記載の追尾装置において、
前記信頼性判定部は、前記除算した値が閾値より大きい場合に信頼性が高いと判定し、前記除算した値が前記閾値より小さい場合に信頼性が低いと判定することを特長とする追尾装置。
The tracking device according to claim 5,
The reliability determination unit determines that the reliability is high when the divided value is larger than a threshold value, and determines that the reliability is low when the divided value is smaller than the threshold value. .
請求項6に記載の追尾装置において、
前記第1の類似度算出部は、前記画像内において前記第1の類似度に基づき前記追尾対象候補画像を検出する範囲を、前記信頼性判定部により前記信頼性が高いと判定された場合よりも前記信頼性が低いと判定された場合に広くすることを特長とする追尾装置。
The tracking device according to claim 6,
The first similarity calculation unit is configured to detect a range in which the tracking target candidate image is detected based on the first similarity in the image, when the reliability determination unit determines that the reliability is high. The tracking device is characterized in that it is widened when it is determined that the reliability is low.
請求項1〜7のいずれか一項に記載の追尾装置において、
前記周囲基準情報取得部は、前記追尾対象の左右および上下それぞれの位置に関して複数の周囲基準情報を取得し、
第2の類似度算出部は、前記追尾対象候補画像と前記複数の周囲基準情報の各々との間で前記第2の類似度を複数通り算出し、
前記信頼性判定部は、前記複数通りの第2の類似度のうち最も類似性が高い第2の類似度に基づき、前記追尾対象候補画像の信頼性を判定することを特徴とする追尾装置。
In the tracking device according to any one of claims 1 to 7,
The surrounding reference information acquisition unit acquires a plurality of surrounding reference information regarding the left and right and top and bottom positions of the tracking target,
A second similarity calculating unit calculates a plurality of the second similarities between the tracking target candidate image and each of the plurality of surrounding reference information;
The tracking device according to claim 1, wherein the reliability determination unit determines the reliability of the tracking target candidate image based on a second similarity having the highest similarity among the plurality of second similarities.
請求項1〜8のいずれか一項に記載の追尾装置を搭載することを特徴とするカメラ。   A camera comprising the tracking device according to claim 1. 画像を繰り返し取得し、
前記画像に含まれる追尾対象に関する対象基準情報を取得し、
前記追尾対象の周囲に関する周囲基準情報を取得し、
時系列に取得される前記画像に対して、前記画像内に設定したターゲット画像と前記対象基準情報との第1の類似度を算出し、前記第1の類似度に基づき追尾対象候補画像を検出し、
前記検出した前記追尾対象候補画像と前記周囲基準情報より第2の類似度を算出し、
前記算出した前記第2の類似度に基づき、前記検出した前記追尾対象候補画像の信頼性を判定する、
ことを特徴とする追尾方法。
Acquire images repeatedly,
Obtaining target reference information regarding the tracking target included in the image,
Obtaining ambient reference information about the periphery of the tracking target;
A first similarity between the target image set in the image and the target reference information is calculated for the images acquired in time series, and a tracking target candidate image is detected based on the first similarity. And
A second similarity is calculated from the detected tracking target candidate image and the surrounding reference information,
Determining reliability of the detected tracking target candidate image based on the calculated second similarity;
The tracking method characterized by this.
画像を繰り返し取得する処理と、
前記画像に含まれる追尾対象に関する対象基準情報を取得する処理と、
前記追尾対象の周囲に関する周囲基準情報を取得する処理と、
時系列に取得される前記画像に対して、前記画像内に設定したターゲット画像と前記対象基準情報との第1の類似度を算出し、前記第1の類似度に基づき追尾対象候補画像を検出する処理と、
前記検出した前記追尾対象候補画像と前記周囲基準情報より第2の類似度を算出する処理と、
前記算出した前記第2の類似度に基づき、前記検出した前記追尾対象候補画像の信頼性を判定する処理と、
をコンピュータに実行させることを特徴とする追尾プログラム。
A process of repeatedly acquiring images,
Processing for acquiring target reference information related to the tracking target included in the image;
Processing for obtaining ambient reference information about the periphery of the tracking target;
A first similarity between the target image set in the image and the target reference information is calculated for the images acquired in time series, and a tracking target candidate image is detected based on the first similarity. Processing to
A process of calculating a second similarity from the detected tracking target candidate image and the surrounding reference information;
A process of determining the reliability of the detected tracking target candidate image based on the calculated second similarity;
A tracking program that causes a computer to execute.
JP2018210242A 2018-11-08 2018-11-08 Tracking device, camera, tracking method, and tracking program Ceased JP2019023934A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018210242A JP2019023934A (en) 2018-11-08 2018-11-08 Tracking device, camera, tracking method, and tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018210242A JP2019023934A (en) 2018-11-08 2018-11-08 Tracking device, camera, tracking method, and tracking program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014112680A Division JP6432163B2 (en) 2014-05-30 2014-05-30 Tracking device, camera, tracking method, and tracking program

Publications (1)

Publication Number Publication Date
JP2019023934A true JP2019023934A (en) 2019-02-14

Family

ID=65368567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018210242A Ceased JP2019023934A (en) 2018-11-08 2018-11-08 Tracking device, camera, tracking method, and tracking program

Country Status (1)

Country Link
JP (1) JP2019023934A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339884A (en) * 2020-02-19 2020-06-26 浙江大华技术股份有限公司 Image recognition method and related equipment and device
CN111723616A (en) * 2019-03-20 2020-09-29 杭州海康威视系统技术有限公司 Method and device for measuring personnel relevance

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723616A (en) * 2019-03-20 2020-09-29 杭州海康威视系统技术有限公司 Method and device for measuring personnel relevance
CN111723616B (en) * 2019-03-20 2023-06-02 杭州海康威视系统技术有限公司 Personnel correlation measurement method and device
CN111339884A (en) * 2020-02-19 2020-06-26 浙江大华技术股份有限公司 Image recognition method and related equipment and device

Similar Documents

Publication Publication Date Title
US8089515B2 (en) Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
CN110998659B (en) Image processing system, image processing method, and program
US10043313B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
JP6620888B2 (en) Smoke detection apparatus, method and image processing apparatus
US10313657B2 (en) Depth map generation apparatus, method and non-transitory computer-readable medium therefor
JP6407225B2 (en) Image processing apparatus, image processing method, image processing system, and program
CN108712606A (en) Reminding method, device, storage medium and mobile terminal
CN105744152A (en) Object Tracking Apparatus, Control Method Therefor And Storage Medium
US11430204B2 (en) Information processing device, information processing method, and program
JP6608311B2 (en) Image evaluation apparatus and image evaluation program
JP2019023934A (en) Tracking device, camera, tracking method, and tracking program
JP6798609B2 (en) Video analysis device, video analysis method and program
JPWO2015198592A1 (en) Information processing apparatus, information processing method, and information processing program
JP6719945B2 (en) Information processing apparatus, information processing method, information processing system, and program
JP6432163B2 (en) Tracking device, camera, tracking method, and tracking program
US11615583B2 (en) Scene crop via adaptive view-depth discontinuity
JP2019021333A (en) Image processing device, image processing method and program
JP2011135227A (en) Object tracking device and control method thereof
CN111277752B (en) Prompting method and device, storage medium and electronic equipment
CN114694137A (en) Image detection method, three-dimensional imaging method and equipment
CN115623313A (en) Image processing method, image processing apparatus, electronic device, and storage medium
KR20180012638A (en) Method and apparatus for detecting object in vision recognition with aggregate channel features
JP2022099120A (en) Subject tracking device and control method for the same
JP6953184B2 (en) Image processing device and image processing method
KR102203884B1 (en) Imaging apparatus and controlling method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20200630