JP2019023934A - Tracking device, camera, tracking method, and tracking program - Google Patents
Tracking device, camera, tracking method, and tracking program Download PDFInfo
- Publication number
- JP2019023934A JP2019023934A JP2018210242A JP2018210242A JP2019023934A JP 2019023934 A JP2019023934 A JP 2019023934A JP 2018210242 A JP2018210242 A JP 2018210242A JP 2018210242 A JP2018210242 A JP 2018210242A JP 2019023934 A JP2019023934 A JP 2019023934A
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- tracking
- image
- reliability
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、追尾装置、カメラ、追尾方法および追尾プログラムに関する。 The present invention relates to a tracking device, a camera, a tracking method, and a tracking program.
時系列に入力されるフレーム画像内で被写体を追尾する追尾装置において、正規化相関という演算手法を用いてテンプレート画像とターゲット画像間の類似度を算出して被写体を追尾する技術が知られている(特許文献1参照)。 In a tracking device that tracks a subject in a frame image input in time series, a technique for tracking the subject by calculating the similarity between the template image and the target image using a calculation method called normalized correlation is known. (See Patent Document 1).
しかしながら、従来の追尾装置では、例えば追尾対象が遮蔽物で遮蔽されるような信頼性低下を検出することができず、追尾が困難になるという問題がある。 However, the conventional tracking device has a problem that, for example, it is difficult to detect a decrease in reliability such that the tracking target is shielded by a shielding object, and tracking becomes difficult.
本発明による追尾装置は、画像を繰り返し取得する画像取得部と、画像に含まれる追尾対象に関する対象基準情報を取得する対象基準情報取得部と、追尾対象の周囲に関する周囲基準情報を取得する周囲基準情報取得部と、画像取得部によって時系列に取得される画像に対して、画像内に設定したターゲット画像と対象基準情報との第1の類似度を算出し、第1の類似度に基づき追尾対象候補画像を検出する第1の類似度算出部と、追尾対象候補画像と周囲基準情報より第2の類似度を算出する第2の類似度算出部と、第2の類似度に基づき、追尾対象候補画像の信頼性を判定する信頼性判定部と、を備える。
本発明によるカメラは、上記追尾装置を搭載する。
本発明による追尾方法は、画像を繰り返し取得し、画像に含まれる追尾対象に関する対象基準情報を取得し、追尾対象の周囲に関する周囲基準情報を取得し、時系列に取得される画像に対して、画像内に設定したターゲット画像と対象基準情報との第1の類似度を算出し、第1の類似度に基づき追尾対象候補画像を検出し、検出した追尾対象候補画像と周囲基準情報より第2の類似度を算出し、算出された第2の類似度に基づき、検出した追尾対象候補画像の信頼性を判定する。
A tracking device according to the present invention includes an image acquisition unit that repeatedly acquires an image, a target reference information acquisition unit that acquires target reference information related to a tracking target included in the image, and a peripheral reference that acquires ambient reference information about the periphery of the tracking target A first similarity between a target image set in the image and target reference information is calculated for the images acquired in time series by the information acquisition unit and the image acquisition unit, and tracking is performed based on the first similarity Based on the first similarity calculation unit that detects the target candidate image, the second similarity calculation unit that calculates the second similarity from the tracking target candidate image and the surrounding reference information, and the tracking based on the second similarity A reliability determination unit that determines the reliability of the target candidate image.
The camera according to the present invention is equipped with the tracking device.
The tracking method according to the present invention repeatedly acquires an image, acquires target reference information related to the tracking target included in the image, acquires ambient reference information about the periphery of the tracking target, and for images acquired in time series, A first similarity between the target image set in the image and the target reference information is calculated, a tracking target candidate image is detected based on the first similarity, and a second is determined from the detected tracking target candidate image and the surrounding reference information. And the reliability of the detected tracking target candidate image is determined based on the calculated second similarity.
本発明によれば、追尾の信頼性に応じて適切に対処し得る。 According to the present invention, it is possible to appropriately cope with tracking reliability.
以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による追尾装置を搭載するカメラの構成を例示するブロック図である。図1において、カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106と、を備える。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of a camera equipped with a tracking device according to an embodiment of the present invention. In FIG. 1, the
操作部材101は、使用者によって操作される種々の入力部材、例えば電源スイッチ、レリーズボタン、ズームボタン、十字キー、などを含む。レンズ102は、複数の光学レンズ群から構成され、撮像素子103の撮像面に被写体像を結像させる。図1では、光学レンズ群を代表する1枚のレンズを図示している。
The
撮像素子103は、例えばCMOSイメージセンサによって構成され、レンズ102により結像された被写体像を撮像する。撮像された画像のデータは、制御装置104へ出力される。制御装置104は、画像データに所定の画像処理を施す。
The
メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットである。制御装置104から出力された画像データは、メモリカードスロット105に挿入されているメモリカードに記録される。
The
モニタ106は、例えばカメラ100の背面に搭載されたタッチ操作液晶パネルによって構成される。モニタ106には、撮像素子103によって所定の間隔で時系列に取得されたモニタ用画像(ライブビュー画像)や、メモリカードに記憶されている画像データに基づく再生画像や、カメラ100を設定するための設定メニュー画面などが表示可能に構成される。
The
制御装置104は、CPU、メモリ、およびその他の周囲回路により構成され、後述する演算部104aを機能的に備える。なお、制御装置104を構成するメモリには、プログラムを格納するメモリ、ワークメモリ、バッファメモリとして使用されるメモリが含まれる。
The
<フローチャートの説明>
図2および図3は、制御装置104内の演算部104aによって実行される被写体追尾処理の流れを説明するフローチャートである。制御装置104は、図2、図3の処理を行う追尾プログラムを、例えば、撮像素子103によって時系列に取得された画像データが撮像素子103から逐次出力される場合に起動させる。演算部104aは、撮像素子103から所定のフレームレートで読み出された時系列のフレーム画像について、各フレーム画像における追尾対象の位置を特定する。
<Description of flowchart>
2 and 3 are flowcharts for explaining the flow of subject tracking processing executed by the
図2のステップS10において、演算部104aは、初期設定を行うための初期フレーム処理を行う。図4は、初期フレーム処理の詳細を説明するフローチャートである。演算部104aは、ステップS10−1において第1フレーム目のフレーム画像情報を入力する。演算部104aは、例えばフレーム画像がRGB表色系で表されている場合に、次式(1)〜(3)を用いて、色相(Hue)、彩度(Saturation)、明度(Value)の3成分から成る画像に変換する。
In step S10 of FIG. 2, the
ここで、RGB成分の3つの値のうち、最大のものをMAX、最小のものをMINとする。
ただし、H<0の時、H=H+360である。
Here, among the three values of the RGB components, the maximum value is MAX, and the minimum value is MIN.
However, when H <0, H = H + 360.
なお、次式(4)〜(6)または次式(7)〜(9)を用いて、輝度成分(Y成分)からなる輝度画像と、色差成分(Cb成分、Cr成分)からなる色差画像とに変換してもよい。
Y= 0.2990R +0.5870G + 0.1140B ・・・・・・・・・・(4)
Cb = −0.1687R −0.3313G + 0.5000B + 128 ・・・・・・・(5)
Cr = 0.5000R − 0.4187G − 0.0813B + 128 ・・・・・・・(6)
Y = 0.2990R + 0.5870G + 0.1140B (4)
Cb = -0.1687R -0.3313G + 0.5000B + 128 (5)
Cr = 0.5000R − 0.4187G − 0.0813B + 128 (6)
Y= 0.25R +0.50G + 0.25B ・・・・・・・・・・・・・(7)
Cb = −0.25R − 0.50G + 0.75B + 128 ・・・・・・・・・・(8)
Cr = 0.75R − 0.50G − 0.25B + 128 ・・・・・・・・・・(9)
Y = 0.25R + 0.50G + 0.25B (7)
Cb = -0.25R-0.50G + 0.75B + 128 (8)
Cr = 0.75R-0.50G-0.25B + 128 (9)
ステップS10−2において、演算部104aは、ユーザーによって追尾対象として指定された矩形領域を被写体領域とする。具体的には、ユーザーがモニタ106の画面上で追尾対象とする所望の被写体位置をタッチ操作すると、演算部104aがタッチ位置を含む所定の矩形範囲を被写体領域とする。演算部104aは、例えば追尾演算に用いる座標系において、被写体領域の左上の座標を被写体位置座標とする。
In step S10-2, the
ステップS10−3において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を初期テンプレート画像として取得する。ステップS10−4において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を合成テンプレート画像として取得する。
In step S10-3, the
ステップS10−5において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を非更新型対象テンプレート画像として取得する。ステップS10−6において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域の画像を更新型対象テンプレート画像として取得する。
In step S10-5, the
以上説明したように初期フレーム処理においては、初期テンプレート画像、合成テンプレート画像、非更新型対象テンプレート画像、および更新型対象テンプレート画像が共通となる。本実施形態では、初期テンプレート画像および合成テンプレート画像を追尾演算において用いるとともに、非更新型対象テンプレート画像および更新型対象テンプレート画像を上記追尾演算結果に対する信頼性判定処理に用いる。非更新型対象テンプレート画像と更新型対象テンプレート画像とが対象テンプレート画像群を構成する。 As described above, in the initial frame processing, the initial template image, the combined template image, the non-update type target template image, and the update type target template image are common. In the present embodiment, the initial template image and the synthesized template image are used in the tracking calculation, and the non-update type target template image and the update type target template image are used in the reliability determination process for the tracking calculation result. The non-update type target template image and the update type target template image constitute a target template image group.
ステップS10−7において、演算部104aは、ステップS10−1において入力したフレーム画像情報のうち、ステップS10−2において決定した被写体領域に隣接する複数の領域を、周囲テンプレート画像群として取得する。図5〜図7は、時系列のフレーム画像を例示する図であり、サーキットを駆けるオートバイ(追尾対象)を流し撮りしたものである。図5に示すように、フレーム画像において被写体領域40の上に隣接する領域51、被写体領域40の下に隣接する領域52、被写体領域40の左に隣接する領域53、被写体領域40の右に隣接する領域54が、周囲テンプレート画像群を構成する。
In step S10-7, the
図4のステップS10−8において、演算部104aは、ロストフラグをOFFに設定し、図2のステップS20へ進む。ロストフラグは、追尾対象を見失った場合(フレーム画像において追尾対象を検出できなかった場合)にON とし、追尾対象を見失っていない場合(フレーム画像において追尾対象を検出できた場合)にOFF とするフラグである。
In step S10-8 in FIG. 4, the
図2のステップS20において、演算部104aは、第2フレーム目以降のフレーム画像情報を入力してステップS30へ進む。処理内容は、第1フレーム目(ステップS10−1)の場合と同様である。
In step S20 of FIG. 2, the
ステップS30において、演算部104aは、ロストフラグがOFF か否かを判定する。演算部104aは、ロストフラグがOFFに設定されている場合にステップS30を肯定判定してステップS40へ進み、ロストフラグがONに設定されている場合にステップS30を否定判定してステップS35の被写体ロスト時の追尾処理へ進む。被写体ロスト時の追尾処理については後述する。
In step S30, the
<追尾対象を見失っていない場合の追尾演算>
ステップS40において、演算部104aは、初期テンプレート画像と合成テンプレート画像とを用いて、検索エリアの類似度マップを上記色相H、彩度S、明度Vの各プレーンで作成する。検索エリアは、入力したフレーム画像情報のうち追尾対象を検索する範囲をいう。類似度マップ作成には、例えば、次式(10)〜(12)に示すように、ターゲット画像とテンプレート画像の絶対差分和SAD(Sum of Absolute Difference)を使用する。ターゲット画像は、テンプレート画像のサイズと同サイズの検索エリア内の画像である。
<Tracking calculation when the tracking target is not lost>
In step S40, the
SADH = Σ|Hターゲット画像−Hテンプレート画像| ・・・・・・・・(10)
SADS = Σ|Sターゲット画像−Sテンプレート画像| ・・・・・・・・(11)
SADV = Σ|Vターゲット画像−Vテンプレート画像| ・・・・・・・・(12)
SAD H = Σ | H target image− H template image | (10)
SAD S = Σ | S target image− S template image | (11)
SAD V = Σ | V target image− V template image | (12)
ステップS50において、演算部104aは、ステップS40において作成したH、S、V各プレーンの類似度マップに、被写体位置からの距離に応じて係数を乗算する。係数は、次式(13)より算出する。
Kyori(x, y) = Kyori0 + K(|x−Mx| + |y−My|) ・・・・・(13)
なお、式(13)において、(x,y) は類似度マップの二次元座標値、Mxは前フレームにおける被写体位置のx座標、Myは前フレームにおける被写体位置のy座標である。また、本例ではKyori0 = 1.0、K = 0.05としている。このように距離に応じた重み付けを行うのは、前フレームにおける被写体位置に近い位置を優遇するためである。
In step S50, the
Kyori (x, y) = Kyori 0 + K (| x−M x | + | y−M y |) (13)
In the equation (13), a (x, y) is the two-dimensional coordinate values of the similarity map, M x is the x-coordinate of the object position in the previous frame, M y is the y coordinate of the object position in the previous frame. In this example, Kyori 0 = 1.0 and K = 0.05. The reason why the weighting according to the distance is performed is to give a preferential treatment to a position close to the subject position in the previous frame.
ステップS60において、演算部104aは、H、S、V各プレーンの類似度マップを次式(14)により統合する。
N= TempHeight×TempWidth×255
MapHSV = 1/N(GainH×DistMapH + GainS×DistMapS + GainV×DistMapV)
・・・・・(14)
In step S60, the
N = TempHeight × TempWidth × 255
MapHSV = 1 / N (GainH x DistMapH + GainS x DistMapS + GainV x DistMapV)
(14)
なお、式(14)において、TempHeightはテンプレート画像の縦幅、TempWidthはテンプレート画像の横幅、DistMapHは距離重み係数を乗算したHプレーンの類似度マップ、DistMapSは距離重み係数を乗算したSプレーンの類似度マップ、DistMapVは距離重み係数を乗算したVプレーンの類似度マップである。また、本例ではGainH = 1.5、GainS = 1.5、GainV = 0.1としている。 In Equation (14), TempHeight is the vertical width of the template image, TempWidth is the horizontal width of the template image, DistMapH is the similarity map of the H plane multiplied by the distance weight coefficient, and DistMapS is the similarity of the S plane multiplied by the distance weight coefficient. The degree map, DistMapV, is a V-plane similarity map multiplied by a distance weight coefficient. In this example, GainH = 1.5, GainS = 1.5, and GainV = 0.1.
演算部104aはさらに、統合した2つの類似度マップ(初期テンプレート画像に関する類似度マップ、合成テンプレート画像に関する類似度マップ)の中から類似度が最大(本実施形態においては絶対差分和SADが最小)となるxy座標をマッチング位置として選出し、このマッチング位置を左上座標としたテンプレート画像のサイズと同じ矩形領域を被写体候補領域として取得する。
The
<被写体候補領域に対する信頼性判定>
ステップS70において、演算部104aは、次式(15)、(16)により、ステップS60において取得した被写体候補領域の、対象テンプレート画像群と周囲テンプレート画像群とに対する類似度を算出する。
S= 0.5×(NCC + 1) ・・・・・・・・・・・・・・・(16)
Object(i,j)は、被写体候補領域に対応し、Template(i,j)は、対象テンプレート画像群と周囲テンプレート画像群とに対応する。式(15)は正規化相互相関(NCC)の算出式であり、類似度が高いほど1に近づき、類似度が低いほど−1に近づく。式(16)は、類似度が高いほど1に近づき、類似度が低いほど0に近づくように式(15)の結果を変形したものである。
<Reliability determination for subject candidate area>
In step S70, the
S = 0.5 × (NCC + 1) (16)
Object (i, j) corresponds to the subject candidate region, and Template (i, j) corresponds to the target template image group and the surrounding template image group. Formula (15) is a calculation formula for normalized cross correlation (NCC), and approaches 1 as the degree of similarity increases, and approaches -1 as the degree of similarity decreases. Expression (16) is obtained by modifying the result of Expression (15) so that it approaches 1 as the degree of similarity increases and approaches 0 as the degree of similarity decreases.
演算部104aはさらに、対象テンプレート画像群の中で類似度が最大になった値をSmaxP、周囲テンプレート画像群の中で類似度が最大になった値をSmaxNとし、次式(17)より相対類似度Srを算出する。
図6において、画面内に遮蔽物60となり得るポールが存在する。サーキットを駆けるオートバイ(追尾対象)は遮蔽物60に接近し、次フレームである図7において、オートバイ(追尾対象)が遮蔽物60に隠れてしまう。図6のフレーム画像において、被写体領域40の上に隣接する領域51、被写体領域40の下に隣接する領域52、被写体領域40の左に隣接する領域53、被写体領域40の右に隣接する領域54が、周囲テンプレート画像群を構成する。
In FIG. 6, there is a pole that can be a shielding
オートバイ(追尾対象)が遮蔽物60に隠れた遮蔽状態になると、オートバイと遮蔽物60の色が似ている場合、図7のように被写体候補領域41が遮蔽物60の上に設定されてしまう事がある。このような場合、被写体候補領域41の、対象テンプレート画像群に対する類似度は比較的高い値となってしまう。しかしながら、本実施形態では1フレーム前の図6において遮蔽物60を含む領域54が、周囲テンプレート画像として取得されている。このため、被写体候補領域41の、周囲テンプレート画像群(本例では領域54)に対する類似度は、対象テンプレート画像群に対する類似度よりも高くなる。したがって、相対類似度Srの値が小さくなり、遮蔽状態を正しく判定できる。式(17)によれば、遮蔽状態でない場合に相対類似度Srの値が1に近づき、遮蔽状態の場合に相対類似度Srの値が小さくなる。
When the motorcycle (tracking target) is in a shielding state hidden by the
ステップS80において、演算部104aは、ステップS70において算出した相対類似度Srが、所定の「判定閾値1」以上か否かを判定する。演算部104aは、相対類似度Srが「判定閾値1」以上の場合にステップS80を肯定判定してステップS90へ進み、「判定閾値1」未満の場合にステップS80を否定判定してステップS140へ進む。なお、本実施形態では、「判定閾値1」=0.4960としている。ステップS80を肯定判定する場合は、S60において選出した被写体候補領域の信頼性が高い。ステップS80を否定判定する場合は、S60において選出した被写体候補領域の信頼性が低い。
In step S80,
ステップS90において、演算部104aは、ステップS60において選出したマッチング位置を新たな被写体位置として採用し、被写体候補領域を新たな被写体領域として採用する。
In step S90, the
ステップS100において、演算部104aは合成テンプレート画像の更新処理を行う。図8は、更新処理の詳細を説明するフローチャートである。図8のステップS100−1において、演算部104aは、ステップS60においてマッチング位置を選出した類似度マップが、初期テンプレート画像による類似度マップであるか、合成テンプレート画像による類似度マップであるかを判定する。演算部104aは、合成テンプレート画像による類似度マップであると判断した場合はステップS100−2へ進み、初期テンプレート画像による類似度マップである場合にはステップS100−3へ進む。
In step S100, the
ステップS100−2において、演算部104aは、ステップS90において採用した新たな被写体領域の画素値に重み係数Aを乗じた画像と、初期テンプレート画像の画素値に重み係数B(ただしA≧B、かつA+B=1)を乗じた画像とを加算し、加算後の画像を合成テンプレート画像として更新して図2のステップS110へ進む。
In step S100-2, the
ステップS100−3において、演算部104aは、ステップS90において採用した新たな被写体領域の画素値に上記重み係数Bを乗じた画像と、初期テンプレート画像の画素値に上記重み係数Aを乗じた画像とを加算し、加算後の画像を合成テンプレート画像として更新して図2のステップS110へ進む。
In step S100-3, the
図2のステップS110において、演算部104aは、更新型対象テンプレート画像の更新処理を行う。新たな更新型対象テンプレート画像は、非更新型対象テンプレート画像の画素値に重み係数Cを乗じた画像と、ステップS90において採用した新たな被写体領域の画素値に重み係数Dを乗じた画像とを加算して作成する。これにより、現在の被写体の形状を反映し、かつ、初期状態から大きく離れ過ぎない、更新型対象テンプレート画像を取得することができる。なお、C≧D、かつC+D=1である。
In step S110 in FIG. 2, the
ステップS120において、演算部104aは、ステップS90において採用した新たな被写体領域に隣接する複数の領域を新たな周囲テンプレート画像群として更新する。ステップS130において、演算部104aは、全てのフレーム画像に対する処理が完了したか否かを判定する。演算部104aは、全フレーム画像に対して処理を行った場合にステップS130を肯定判定して図2による処理を終了する。演算部104aは、全フレーム画像に対して処理を行っていない場合にはステップS130を否定判定し、ステップS20へ戻る。ステップS20へ戻る場合は、新たなフレーム画像情報を入力し、上述した処理を繰り返す。
In step S120, the
ステップS80を否定判定して進むステップS140において、演算部104aは、フレーム画像内に追尾対象はいないと判定し、ロストフラグをONに設定してステップS130へ進む。
In step S140, which proceeds after making a negative determination in step S80, the
<追尾対象を見失った場合の追尾演算>
図3は、被写体ロスト時の追尾処理を説明するフローチャートである。図3のステップS150において、演算部104aは、ステップS40の場合と同様に、初期テンプレート画像と合成テンプレート画像を用いて、検索エリアの類似度マップを上記色相H、彩度S、明度Vの各プレーンで作成する。ただし、検索エリアを、ロストフラグがOFFの時(追尾対象を見失っていない場合)よりも広く設定する。これにより、追尾対象がロスト(遮蔽状態)した座標から離れた位置に出現する場合も、検索エリア内に追尾対象を捉えることができる。
<Tracking calculation when the tracking target is lost>
FIG. 3 is a flowchart for explaining the tracking process when the subject is lost. In step S150 of FIG. 3, the
ステップS160において、演算部104aは、ステップS50の場合と同様に、ステップS150において作成したH、S、V各プレーンの類似度マップに、被写体位置からの距離に応じて係数を乗算する。ただし、上式(13)のKの値は、ロストフラグがOFFの時よりも小さい値に設定する。これにより、被写体がロストした座標から離れた位置に出現する場合の絶対差分和SADが小さくなり、被写体候補領域として選出することができる。なお、本実施形態では、K = 0.02としている。
In step S160, as in step S50, the
ステップS170において、演算部104aは、ステップS60の場合と同様に、H、S、V各プレーンの類似度マップを上式(14)により統合し、統合した2つの類似度マップの中から類似度が最大(本実施形態においては絶対差分和SADが最小)となるxy座標をマッチング位置として選出する。そして、選出したマッチング位置を左上座標としたテンプレート画像のサイズと同じ矩形領域を被写体候補領域として取得する。
In step S170, as in step S60, the
ステップS180において、演算部104aは、ステップS70の場合と同様に、式(15)〜(17)によって相対類似度Srを算出する。
In step S180, the
ステップS190において、演算部104aは、ステップS180において算出した相対類似度Srが、所定の「判定閾値2」以上か否かを判定する。演算部104aは、相対類似度Srが「判定閾値2」以上の場合にステップS190を肯定判定してステップS200へ進み、「判定閾値2」未満の場合にステップS190を否定判定してステップS130へ進む。なお、本実施形態では、「判定閾値2」に、「判定閾値1」よりも大きい値(=0.4990)を使用する。ステップS190を肯定判定する場合は、S170において選出した被写体候補領域の信頼性が高い。ステップS190を否定判定する場合は、S170において選出した被写体候補領域の信頼性が低い。
In step S190, the
ステップS200において、演算部104aは、ステップS170において選出したマッチング位置を新たな被写体位置として採用し、被写体候補領域を新たな被写体領域として採用する。
In step S200, the
ステップS210において、演算部104aは、ステップS100の場合と同様に、合成テンプレート画像の更新処理を行う。ステップS220において、演算部104aは、ステップS110の場合と同様に、更新型対象テンプレート画像の更新処理を行う。ステップS230において、演算部104aは、ステップS120の場合と同様に、周囲テンプレート画像群の更新処理を行う。
In step S210, the
ステップS240において、演算部104aは、フレーム内に追尾対象が戻ってきた(遮蔽状態を脱した)と判断し、ロストフラグをOFFに設定して図2のステップS130へ進む。
In step S240, the
上述した実施形態によれば、次の作用効果が得られる。
(1)カメラ100は、フレーム画像を繰り返し取得する撮像素子103と、上記フレーム画像に含まれる追尾対象に関するテンプレート画像(初期テンプレート画像、合成テンプレート画像、対象テンプレート画像群)を取得する演算部104aと、追尾対象の周囲に関する周囲テンプレート画像群を取得する演算部104aと、演算部104aによって時系列に取得されるフレーム画像に対して、フレーム画像内に設定したターゲット画像とテンプレート画像との第1の類似度(SAD)を算出し、第1の類似度に基づき被写体候補領域41を検出する第1の類似度算出部(演算部104a)と、第1の類似度算出部(演算部104a)によって検出された被写体候補領域41と周囲テンプレート画像群より第2の類似度(NCC)を算出する第2の類似度算出部(演算部104a)と、第2の類似度算出部(演算部104a)によって算出された第2の類似度(NCC)に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する演算部104aと、を備える。これにより、判定した信頼性に応じて適切な対処が可能になる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The
(2)被写体候補領域41の信頼性が所定値より高い場合にフレーム画像における被写体候補領域41の位置を追尾対象の位置とし、信頼性が所定値より低い場合に被写体が画像中にいないと判定することにより、追尾対象を適切に追尾することができる。
(2) When the reliability of the
(3)被写体候補領域41の信頼性が所定値より高い場合、追尾対象の位置を特定して次のフレーム画像に対する処理へ進み、信頼性が所定値より低い場合、被写体がいないと判定したまま次のフレーム画像に対する処理へ進むので、追尾処理を適切に行うことができる。
(3) When the reliability of the
(4)第2の類似度算出部(演算部104a)は、第1の類似度算出部(演算部104a)によって検出された被写体候補領域41とテンプレート画像(対象テンプレート画像群)との第3の類似度(NCC)を算出し、演算部104aは、第3の類似度(NCC)と第2の類似度(NCC)とに基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定するので、第1の類似度算出部(演算部104a)が算出した類似度(SAD)と同種の類似度のみで信頼性判定する場合に比べて、多面的に信頼性を判定できる。
(4) The second similarity calculation unit (
(5)第1の類似度算出部(演算部104a)が第1の類似度(SAD)を算出するための類似度演算と、第2の類似度算出部(演算部104a)が第2の類似度(NCC)および第3の類似度(NCC)を算出するための類似度演算とを互いに異ならせたので、同種の類似度演算のみで信頼性判定する場合に比べて、多面的に信頼性を判定できる。また、演算部104aは、第3の類似度(NCC)を、第3の類似度(NCC)と第2の類似度(NCC)との加算値で除算した値に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する。これにより、追尾対象が遮蔽物60に隠れる遮蔽状態か否かの判別が容易になる。
(5) The similarity calculation for the first similarity calculation unit (
(6)演算部104aは、第3の類似度(NCC)を、第3の類似度(NCC)と第2の類似度(NCC)との加算値で除算した値が、閾値よりも大きい場合に信頼性が高いと判定し、閾値よりも小さい場合に信頼性が低いと判定する。具体的には、遮蔽状態でない場合に信頼性が高く、遮蔽状態の場合に信頼性が低いと判定し得るので、信頼性判定を適切に行える。
(6) When the
(7)第1の類似度算出部(演算部104a)は、フレーム画像内において第1の類似度(SAD)に基づき被写体候補領域41を検出する検索エリアを、演算部104aにより信頼性が高いと判定した場合よりも信頼性が低いと判定した場合に広くする。これにより、例えば、追尾対象が遮蔽状態になった座標位置から離れた座標位置に出現する場合に、追尾対象を検索エリア内に捉える可能性を高めることができる。
(7) The first similarity calculation unit (
(8)演算部104aは、追尾対象の左右および上下それぞれの位置に関して複数の周囲テンプレート画像群を取得し、第2の類似度算出部(演算部104a)は、被写体候補領域41と複数の周囲テンプレート画像群51−54の各々との間で第2の類似度(NCC)を複数通り算出し、演算部104aは、複数通りの第2の類似度(NCC)のうち最も類似性が高い第2の類似度に基づき、第1の類似度算出部(演算部104a)により検出した被写体候補領域41の信頼性を判定する。一般に、追尾対象が遮蔽物60に隠れる遮蔽状態になる前のフレーム画像においては、追尾対象の左右上下のいずれかに遮蔽物60が含まれる。このため、左右上下方向に対する複数通りの第2の類似度(NCC)のうち最も類似性が高い第2の類似度を用いることで、信頼性が低下する遮蔽状態を適切に判定できる。
(8) The
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
上述した実施形態では、カメラ100を例に追尾装置を説明したが、カメラ100に対して追尾プログラムを後から供給してもよい。カメラ100への追尾プログラムの供給は、例えば図9に例示するように、プログラムを格納したパーソナルコンピュータ205から赤外線通信や近距離無線通信によってカメラ100へ送信することができる。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
In the embodiment described above, the tracking device has been described by taking the
パーソナルコンピュータ205に対するプログラムの供給は、プログラムを格納したCD−ROMなどの記憶媒体204をパーソナルコンピュータ205にセットして行ってもよいし、ネットワークなどの通信回線201を経由する方法でパーソナルコンピュータ205へローディングしてもよい。通信回線201を経由する場合は、当該通信回線に接続されたサーバー202のストレージ装置203などにプログラムを格納しておく。
The program may be supplied to the
また、プログラムを格納したメモリカードなどの記憶媒体204Bをカメラ100にセットしてもよい。このように、追尾プログラムは、記憶媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給できる。
Further, a
(変形例2)
上述した説明では、被写体候補領域の検出のための追尾演算において、ターゲット画像とテンプレート画像(初期テンプレート画像、合成テンプレート画像)との間の類似度判定に絶対差分和(SAD)を用いるとともに、検出した被写体候補領域41の信頼性判定を行う演算において、被写体候補領域41とテンプレート画像(対象テンプレート画像群、周囲テンプレート画像群)との間の類似度判定に正規化相互相関(NCC)を用いた。追尾演算と信頼性判定の演算とで異なる類似度判定を行う代わりに、追尾演算と信頼性判定の演算とで同じ類似度判定(絶対差分和(SAD)または正規化相互相関(NCC)に揃える)を行うように構成してもよい。
(Modification 2)
In the above description, in the tracking calculation for detecting the subject candidate area, the absolute difference sum (SAD) is used for determining the similarity between the target image and the template image (initial template image, composite template image), and detection is performed. In the calculation for determining the reliability of the
(変形例3)
ターゲット画像とテンプレート画像との間の類似度判定に用いる初期テンプレート画像および合成テンプレート画像のサイズと、被写体候補領域41とテンプレート画像との間の類似度判定に用いる対象テンプレート画像群および周囲テンプレート画像群のサイズとを同じにする例を説明したが、これらのテンプレート画像のサイズは必ずしも同じにしなくてもよい。例えば、対象テンプレート画像群および周囲テンプレート画像群のサイズを、初期テンプレート画像および合成テンプレート画像のサイズより小さくしてもよい。
(Modification 3)
Size of initial template image and composite template image used for similarity determination between target image and template image, target template image group and surrounding template image group used for similarity determination between
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.
40…被写体領域
41…被写体候補領域
51〜54…周囲テンプレート画像群
60…遮蔽物
100…カメラ
103…撮像素子
104…制御装置
104a…演算部
201…通信回線
202…サーバー
204、204B…記憶媒体
205…パーソナルコンピュータ
40 ...
Claims (11)
前記画像に含まれる追尾対象に関する対象基準情報を取得する対象基準情報取得部と、
前記追尾対象の周囲に関する周囲基準情報を取得する周囲基準情報取得部と、
前記画像取得部によって時系列に取得される前記画像に対して、前記画像内に設定したターゲット画像と前記対象基準情報との第1の類似度を算出し、前記第1の類似度に基づき追尾対象候補画像を検出する第1の類似度算出部と、
前記追尾対象候補画像と前記周囲基準情報より第2の類似度を算出する第2の類似度算出部と、
前記第2の類似度に基づき、前記追尾対象候補画像の信頼性を判定する信頼性判定部と、
を備えることを特徴とする追尾装置。 An image acquisition unit that repeatedly acquires images;
A target criterion information acquisition unit that acquires target criterion information related to the tracking target included in the image;
A surrounding reference information acquisition unit for acquiring surrounding reference information about the periphery of the tracking target;
A first similarity between the target image set in the image and the target reference information is calculated for the image acquired in time series by the image acquisition unit, and tracking is performed based on the first similarity. A first similarity calculation unit for detecting a target candidate image;
A second similarity calculation unit that calculates a second similarity from the tracking target candidate image and the surrounding reference information;
A reliability determination unit that determines the reliability of the tracking target candidate image based on the second similarity;
A tracking device comprising:
前記信頼性が所定値より高い場合に前記画像における前記追尾対象候補画像の位置を前記追尾対象の位置とし、前記信頼性が前記所定値より低い場合、被写体が画像中にいないと判定する、
ことを特徴とする追尾装置。 The tracking device according to claim 1,
When the reliability is higher than a predetermined value, the position of the tracking target candidate image in the image is set as the position of the tracking target, and when the reliability is lower than the predetermined value, it is determined that the subject is not in the image.
A tracking device characterized by that.
前記信頼性が所定値より高い場合、前記追尾対象の位置を特定して次の画像に対する処理へ進み、前記信頼性が前記所定値より低い場合、前記被写体がいないと判定したまま次の画像に対する処理へ進む、
ことを特徴とする追尾装置。 The tracking device according to claim 2,
When the reliability is higher than a predetermined value, the position of the tracking target is specified and the process proceeds to the next image. When the reliability is lower than the predetermined value, it is determined that there is no subject and the next image is determined. Proceed to processing,
A tracking device characterized by that.
前記第2の類似度算出部は、前記追尾対象候補画像と前記対象基準情報との第3の類似度を算出し、
前記信頼性判定部は、前記第3の類似度と前記第2の類似度とに基づき、前記追尾対象候補画像の信頼性を判定することを特徴とする追尾装置。 The tracking device according to claim 2 or 3,
The second similarity calculation unit calculates a third similarity between the tracking target candidate image and the target reference information;
The tracking device according to claim 1, wherein the reliability determination unit determines the reliability of the tracking target candidate image based on the third similarity and the second similarity.
前記第1の類似度算出部が前記第1の類似度を算出するための類似度演算と、前記第2の類似度算出部が前記第2の類似度および前記第3の類似度を算出するための類似度演算とは互いに異なり、
前記信頼性判定部は、前記第3の類似度を、前記第3の類似度と前記第2の類似度との加算値で除算した値に基づき、前記追尾対象候補画像の信頼性を判定することを特徴とする追尾装置。 The tracking device according to claim 4,
A similarity calculation for the first similarity calculation unit to calculate the first similarity, and a second similarity calculation unit to calculate the second similarity and the third similarity. Is different from the similarity calculation for
The reliability determination unit determines the reliability of the tracking target candidate image based on a value obtained by dividing the third similarity by an addition value of the third similarity and the second similarity. A tracking device characterized by that.
前記信頼性判定部は、前記除算した値が閾値より大きい場合に信頼性が高いと判定し、前記除算した値が前記閾値より小さい場合に信頼性が低いと判定することを特長とする追尾装置。 The tracking device according to claim 5,
The reliability determination unit determines that the reliability is high when the divided value is larger than a threshold value, and determines that the reliability is low when the divided value is smaller than the threshold value. .
前記第1の類似度算出部は、前記画像内において前記第1の類似度に基づき前記追尾対象候補画像を検出する範囲を、前記信頼性判定部により前記信頼性が高いと判定された場合よりも前記信頼性が低いと判定された場合に広くすることを特長とする追尾装置。 The tracking device according to claim 6,
The first similarity calculation unit is configured to detect a range in which the tracking target candidate image is detected based on the first similarity in the image, when the reliability determination unit determines that the reliability is high. The tracking device is characterized in that it is widened when it is determined that the reliability is low.
前記周囲基準情報取得部は、前記追尾対象の左右および上下それぞれの位置に関して複数の周囲基準情報を取得し、
第2の類似度算出部は、前記追尾対象候補画像と前記複数の周囲基準情報の各々との間で前記第2の類似度を複数通り算出し、
前記信頼性判定部は、前記複数通りの第2の類似度のうち最も類似性が高い第2の類似度に基づき、前記追尾対象候補画像の信頼性を判定することを特徴とする追尾装置。 In the tracking device according to any one of claims 1 to 7,
The surrounding reference information acquisition unit acquires a plurality of surrounding reference information regarding the left and right and top and bottom positions of the tracking target,
A second similarity calculating unit calculates a plurality of the second similarities between the tracking target candidate image and each of the plurality of surrounding reference information;
The tracking device according to claim 1, wherein the reliability determination unit determines the reliability of the tracking target candidate image based on a second similarity having the highest similarity among the plurality of second similarities.
前記画像に含まれる追尾対象に関する対象基準情報を取得し、
前記追尾対象の周囲に関する周囲基準情報を取得し、
時系列に取得される前記画像に対して、前記画像内に設定したターゲット画像と前記対象基準情報との第1の類似度を算出し、前記第1の類似度に基づき追尾対象候補画像を検出し、
前記検出した前記追尾対象候補画像と前記周囲基準情報より第2の類似度を算出し、
前記算出した前記第2の類似度に基づき、前記検出した前記追尾対象候補画像の信頼性を判定する、
ことを特徴とする追尾方法。 Acquire images repeatedly,
Obtaining target reference information regarding the tracking target included in the image,
Obtaining ambient reference information about the periphery of the tracking target;
A first similarity between the target image set in the image and the target reference information is calculated for the images acquired in time series, and a tracking target candidate image is detected based on the first similarity. And
A second similarity is calculated from the detected tracking target candidate image and the surrounding reference information,
Determining reliability of the detected tracking target candidate image based on the calculated second similarity;
The tracking method characterized by this.
前記画像に含まれる追尾対象に関する対象基準情報を取得する処理と、
前記追尾対象の周囲に関する周囲基準情報を取得する処理と、
時系列に取得される前記画像に対して、前記画像内に設定したターゲット画像と前記対象基準情報との第1の類似度を算出し、前記第1の類似度に基づき追尾対象候補画像を検出する処理と、
前記検出した前記追尾対象候補画像と前記周囲基準情報より第2の類似度を算出する処理と、
前記算出した前記第2の類似度に基づき、前記検出した前記追尾対象候補画像の信頼性を判定する処理と、
をコンピュータに実行させることを特徴とする追尾プログラム。
A process of repeatedly acquiring images,
Processing for acquiring target reference information related to the tracking target included in the image;
Processing for obtaining ambient reference information about the periphery of the tracking target;
A first similarity between the target image set in the image and the target reference information is calculated for the images acquired in time series, and a tracking target candidate image is detected based on the first similarity. Processing to
A process of calculating a second similarity from the detected tracking target candidate image and the surrounding reference information;
A process of determining the reliability of the detected tracking target candidate image based on the calculated second similarity;
A tracking program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018210242A JP2019023934A (en) | 2018-11-08 | 2018-11-08 | Tracking device, camera, tracking method, and tracking program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018210242A JP2019023934A (en) | 2018-11-08 | 2018-11-08 | Tracking device, camera, tracking method, and tracking program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014112680A Division JP6432163B2 (en) | 2014-05-30 | 2014-05-30 | Tracking device, camera, tracking method, and tracking program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019023934A true JP2019023934A (en) | 2019-02-14 |
Family
ID=65368567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018210242A Ceased JP2019023934A (en) | 2018-11-08 | 2018-11-08 | Tracking device, camera, tracking method, and tracking program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019023934A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339884A (en) * | 2020-02-19 | 2020-06-26 | 浙江大华技术股份有限公司 | Image recognition method and related equipment and device |
CN111723616A (en) * | 2019-03-20 | 2020-09-29 | 杭州海康威视系统技术有限公司 | Method and device for measuring personnel relevance |
-
2018
- 2018-11-08 JP JP2018210242A patent/JP2019023934A/en not_active Ceased
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723616A (en) * | 2019-03-20 | 2020-09-29 | 杭州海康威视系统技术有限公司 | Method and device for measuring personnel relevance |
CN111723616B (en) * | 2019-03-20 | 2023-06-02 | 杭州海康威视系统技术有限公司 | Personnel correlation measurement method and device |
CN111339884A (en) * | 2020-02-19 | 2020-06-26 | 浙江大华技术股份有限公司 | Image recognition method and related equipment and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8089515B2 (en) | Method and device for controlling auto focusing of a video camera by tracking a region-of-interest | |
CN110998659B (en) | Image processing system, image processing method, and program | |
US10043313B2 (en) | Information processing apparatus, information processing method, information processing system, and storage medium | |
JP6620888B2 (en) | Smoke detection apparatus, method and image processing apparatus | |
US10313657B2 (en) | Depth map generation apparatus, method and non-transitory computer-readable medium therefor | |
JP6407225B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
CN108712606A (en) | Reminding method, device, storage medium and mobile terminal | |
CN105744152A (en) | Object Tracking Apparatus, Control Method Therefor And Storage Medium | |
US11430204B2 (en) | Information processing device, information processing method, and program | |
JP6608311B2 (en) | Image evaluation apparatus and image evaluation program | |
JP2019023934A (en) | Tracking device, camera, tracking method, and tracking program | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
JPWO2015198592A1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP6719945B2 (en) | Information processing apparatus, information processing method, information processing system, and program | |
JP6432163B2 (en) | Tracking device, camera, tracking method, and tracking program | |
US11615583B2 (en) | Scene crop via adaptive view-depth discontinuity | |
JP2019021333A (en) | Image processing device, image processing method and program | |
JP2011135227A (en) | Object tracking device and control method thereof | |
CN111277752B (en) | Prompting method and device, storage medium and electronic equipment | |
CN114694137A (en) | Image detection method, three-dimensional imaging method and equipment | |
CN115623313A (en) | Image processing method, image processing apparatus, electronic device, and storage medium | |
KR20180012638A (en) | Method and apparatus for detecting object in vision recognition with aggregate channel features | |
JP2022099120A (en) | Subject tracking device and control method for the same | |
JP6953184B2 (en) | Image processing device and image processing method | |
KR102203884B1 (en) | Imaging apparatus and controlling method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191212 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200212 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20200630 |