JP2008084076A - 画像処理装置、方法およびプログラム - Google Patents
画像処理装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2008084076A JP2008084076A JP2006264359A JP2006264359A JP2008084076A JP 2008084076 A JP2008084076 A JP 2008084076A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2008084076 A JP2008084076 A JP 2008084076A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- label
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
【課題】画像全体に亘って最適なラベル割り当てを行って画像処理を高精度に行うこと。
【解決手段】画像処理装置において、対象画像を複数の領域に分割する領域分割部112と、対象画像上の点と参照画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及びモデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、パラメトリックモデルとの適合度及び隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行するラベル割当部111とを備えた。
【選択図】 図1
【解決手段】画像処理装置において、対象画像を複数の領域に分割する領域分割部112と、対象画像上の点と参照画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及びモデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、パラメトリックモデルとの適合度及び隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行するラベル割当部111とを備えた。
【選択図】 図1
Description
本発明は、入力された画像に関する複数のパラメータモデルを導入して、入力された画像の領域ごとにパラメータモデルを割り当てて画像処理を行う画像処理装置、方法およびプログラムに関する。
画像の領域ごとに予め定められたパラメトリックモデルを適用し、画像処理を行う技術としては、例えば、非特許文献1の技術が知られている。非特許文献1の技術では、画像の動きを推定する問題に対して、2つの画像間の局所的な動きをオプティカルフローなどの手法で推定し、推定された局所的な動きの集合から複数のモデルパラメータをアフィン変換と最小二乗法の手法により抽出し、k-means法、watershed法などの手法により画像を複数の領域に分割して、分割された領域ごとに最適なパラメータを選択するラベリングを行う技術が開示されている。このような技術によれば、画像の領域ごとに適切な動きモデルが選択される。
P. E. Eren, Y. Altunbasak and M. Tekalp, "Region-based affine motion segmentation using color information", IEEE ICASSP1997, Vol. 4, pp. 3005 - 3008, 1997
このような従来技術では、ラベリングは領域ごとにモデルパラメータの適合度のみを用いた最尤推定がおこなわれ、ラベリングが動き推定の結果の精度に大きな影響を与える。このため、サンプリング数が多いサイズの大きい領域では高精度となる一方、サイズの小さい領域に関してはサンプリング数が少なくなるので、最適なラベリングを行うことができず、動き推定の精度が低くなるという問題がある。
本発明は、上記に鑑みてなされたものであって、画像全体に亘って最適なラベル割り当てを行って、パラメータモデルを適用した画像処理を高精度に行うことができる画像処理装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、第1の画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、を備えたことを特徴とする。
また、本発明は、動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り
当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、を備えたことを特徴とする。
本発明は、上記画像処理装置に対応する画像処理方法およびプログラムである。
当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、を備えたことを特徴とする。
本発明は、上記画像処理装置に対応する画像処理方法およびプログラムである。
本発明によれば、画像全体に亘って最適なラベル割り当てを行って、画像処理を高精度に行うことができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法およびプログラムの最良な実施の形態を詳細に説明する。
(実施の形態1)
図1は、実施の形態1にかかる動き推定装置の機能的構成を示すブロック図である。実施の形態1にかかる動き推定装置は、対象画像と参照画像の各点の動きを推定するものであり、図1に示すように、局所動き推定部101と、モデル生成部107と、領域分割部112と、ラベル割当部111と、画像処理部113と、フレームメモリ106と、メモリ103とを主に備えている。
図1は、実施の形態1にかかる動き推定装置の機能的構成を示すブロック図である。実施の形態1にかかる動き推定装置は、対象画像と参照画像の各点の動きを推定するものであり、図1に示すように、局所動き推定部101と、モデル生成部107と、領域分割部112と、ラベル割当部111と、画像処理部113と、フレームメモリ106と、メモリ103とを主に備えている。
局所動き推定部101は、対象画像と参照画像から、ブロックマッチングの手法により2つ画像間の動き推定を行って、各点の動きベクトルを求める処理部である。
モデル生成部107は、局所動き推定の結果から、対象画像上の点と参照画像上の点とを対応付けるためパラメトリックモデルを生成するものである。パラメトリックモデルは、パラメトリックモデルを規定する複数のモデルパラメータ及びモデルを識別するためのモデル識別ラベルを含み、このモデル識別ラベルによりラベル付けされている。本実施の形態では、パラメトリックモデルは、モデルパラメータにより、モデル識別ラベルの領域における第1の画像における各点の第2の画像上との点の動きベクトルを求めるためのモデルである。モデル生成部107は、モデル定義部108と、クラスタリング処理部109と、パラメータ推定部110とを備えている。
モデル定義部108は、上記パラメトリックモデルを定義し生成してメモリ103に保存する処理部である。
クラスタリング処理部109は、局所動き推定部101で求めた対象画像上の各点の動きベクトルを分類して(クラスタリングして)、ラベル割り当ての初期値を付与する処理部である。
パラメータ推定部110は、モデル識別ラベルごとに、同一のモデル識別ラベル内において、パラメトリックモデルによって定められる動きベクトルと各点の局所動き推定部101によって求めた動きベクトルとの誤差から求められる誤差エネルギーを最小にするモデルパラメータを最小二乗法によって推定する処理部である。
領域分割部112は、対象画像のフレームを画素値に基づいた領域に分割する(クラスタリングする)処理部である。領域分割部112は、さらに分割された各領域に領域(クラスタ)を識別するための領域ラベルを割り当てる。
ラベル割当部111は、複数のパラメトリックモデルの中から、パラメトリックモデルとの適合度及び隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す
評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域分割部112によって分割された領域(クラスタ)内の画素に割り当てるラベル割り当てを行う処理部である。
具体的には、ラベル割当部111は、分割された領域(クラスタ)内の画素に対して、対象画像の画素と参照画像の画素と各画素の動きベクトルに基づいた尤度エネルギーU1と正則化エネルギーU2とに基づいた上記評価関数が最小にするパラメトリックモデルを選択してラベル割り当ての処理を行っている。また、ラベル割当部111は、このようなラベル割り当ての処理を、複数の領域(クラスタ)のうち画素数が多い(クラスタサイズの大きい)ものから順に領域を選択して評価関数の値を計算して実行している。
画像処理部113は、各画素に割り当てられたモデル識別ラベルに対応するパラメトリックモデルに基づいて、対象画像と参照との対応関係を求めて動き推定を行い、その結果を動き推定結果として出力する処理部である。
なお、上記各部の詳細については後述する。
評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域分割部112によって分割された領域(クラスタ)内の画素に割り当てるラベル割り当てを行う処理部である。
具体的には、ラベル割当部111は、分割された領域(クラスタ)内の画素に対して、対象画像の画素と参照画像の画素と各画素の動きベクトルに基づいた尤度エネルギーU1と正則化エネルギーU2とに基づいた上記評価関数が最小にするパラメトリックモデルを選択してラベル割り当ての処理を行っている。また、ラベル割当部111は、このようなラベル割り当ての処理を、複数の領域(クラスタ)のうち画素数が多い(クラスタサイズの大きい)ものから順に領域を選択して評価関数の値を計算して実行している。
画像処理部113は、各画素に割り当てられたモデル識別ラベルに対応するパラメトリックモデルに基づいて、対象画像と参照との対応関係を求めて動き推定を行い、その結果を動き推定結果として出力する処理部である。
なお、上記各部の詳細については後述する。
フレームメモリ106は、入力された対象画像と参照画像と保存する記憶媒体である。メモリは、各部で求めた計算結果やパラメータ、モデル定義部107で生成したパラメトリックモデル等を保存する記憶媒体である。
次に、各部の詳細について説明する。本実施の形態では、処理対象の2枚の画像を対象画像、参照画像とし、対象画像から参照画像への動きを求めている。
対象画像、参照画像の点n∈Λ2の画素値をそれぞれg1(n),g2(n)とする。
局所動き推定部101では、対象画像と参照画像から、ブロックマッチングの手法を用いて以下のように2つの画像間の動きを推定している。ここで、本実施の形態では、ブロックマッチングの手法を採用しているが、これに限定されるものではなく、例えば、オプティカルフロー推定、勾配法、ベイジアンメソッドなどの各手法を用いて動き推定を行ってもよい。
ブロックマッチングでは、対象画像を(1)式であらかじめ設定された矩形領域のブロックに分割する。
次に、モデル定義部108の詳細について説明する。モデル定義部108は、パラメトリックモデルを規定してメモリ103に保存する。パラメトリックモデルは、推定したい動きの数だけ用意される。各パラメトリックモデルは、推定したい動きの数分の任意の数のモデル識別ラベルα∈L⊂Zによって、一意に識別される。点nのラベルをz(n)∈Lとし、モデル識別ラベルαが割り当てられている領域の集合、すなわち各動き領域Nαを(4)式で示す。
モデル定義部108は、(5)、(6)、(7)式で定義されるパラメトリックモデル、若しくは、(5)、(8)、(9)式で定義されるパラメトリックモデルを生成してメモリ103に保存している。
次に、パラメータ推定部110の詳細について説明する。パラメトリックモデルによって定まる動きベクトルは、(10)式で示されるので、これと(5)式を用いると、パラメトリックモデルによって定まる動きベクトルは(11)式で示される。
次に、クラスタリング処理部109の詳細について説明する。局所動き推定処理を終了した時点では、ラベル割り当て処理が行われていないため、モデルパラメータの推定を行うことができない。最初にモデルパラメータの推定処理を行う場合には、モデルパラメータの推定処理の実行前に、クラスタリング処理部109によって、局所動き推定部101によって求めた動きベクトルd(n)をクラスタリングすることによりラベル割り当ての初期値として付与している。ここで、動きクラスタリング処理としては、輝度等の画素値に基づいて画像をk−Means法によって複数個にクラスタリングを行って画像を分割し、そのクラスタリング結果によって複数個のモデルパラメータを求め、求めたモデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのラベルを求める。
次に、領域分割部112の詳細について説明する。領域分割部112では、例えばk−means法やwatershed法等の手法を用いて、対象画像のフレームを画素値の情報に基づいた領域に分割する。
すなわち、領域分割部112は、対象画像g1を画素値に応じてk個に分割(クラスタリング)する。そして、各領域(クラスタ)に各領域を一意に識別するための領域ラベルw(n)∈K⊂Zを割り当てる。このとき、各領域(クラスタ)は、(22)式で表される。
ここで、対象画像g1(n)、参照画像g2(n)、動きベクトルd(n)が与えられた場合のモデル識別ラベルz(n)の確率密度関数は(23)式で与えられる。
ここで、非特許文献1の技術では、(31)式を尤度エネルギーU1のみで解法しており、正則化エネルギーの項U2がないため、ラベル割り当ての精度が安定しない。
本実施の形態では、ラベル割当部111によって正則化エネルギーの項U2を考慮した(31)式を解法することにより、安定した精度でラベル割り当てを行うことができる。
次に、ラベル割当部111による(31)式の解法について説明する。すなわち、ラベル割当部111は、(32)式を解法して各領域(クラスタ)KKに対して、λU1+U2が最小となるモデル識別ラベルαを求める。
リーク(自画素と隣接画素の対)と内部のクリークに着目すると正則化エネルギーU2は(33)式のように変形することができる。
図2は、一辺rの正方形クラスタ、4周辺クリークを示す模式図である。図2のクラスタにおけるC1の数を数えると以下のようになる。
頂点では2クリーク。頂点は4個。
辺上の点では3クリーク。辺上の点は4(r−2)個。
内部の点では4クリーク。内部の点は(r−2)2個。
それぞれ点の数を考慮すれば(34)式を導くことができる。
辺上の点では3クリーク。辺上の点は4(r−2)個。
内部の点では4クリーク。内部の点は(r−2)2個。
それぞれ点の数を考慮すれば(34)式を導くことができる。
頂点では2クリーク。頂点は4個。
辺上の点では1クリーク。辺上の点は4(r−2)個
内部の点では0クリーク。内部の点は(r−2)2個
従って、(35)式が導かれる。
辺上の点では1クリーク。辺上の点は4(r−2)個
内部の点では0クリーク。内部の点は(r−2)2個
従って、(35)式が導かれる。
このことから、辺rが大きくなると正則化エネルギーU2に対するC2の影響が下がりC1が支配的になることが分かり、つまり領域のラベルをどのように選択しても正則化エネルギーU2は大きく変化しなくなることがわかる。従って、辺rが大きいときには、全体エネルギーに対して相対的に正則化エネルギーU2の与える影響は小さくなり、正則化エネルギーU2の影響が大きくなり、エネルギー最小化問題はU1に対する最尤推定の結果に近くなる。
一方、辺rが大きいときには大数の法則から、最尤エネルギーU1のラベル選択に対する精度は高くなる。よって辺rが大きいときには最尤エネルギーU1に対する最尤推定で
十分であるということが言える。
十分であるということが言える。
なお、図3では正方形の領域で例を示しているが、これに限定されるものではなく、正方形以外の領域に対しても同様である。これは、領域が大きくなるほど、外周が占める割合が同様に急激に低下するためである。
ただし、領域が例えばゴマ塩状で非常に数が多い場合には上述したとおりにならない可能性が高いが、これは領域の作り方で回避することができる。
図4は、辺rが大きい領域では正則化エネルギーU2を考慮せず、辺rが小さい領域では正則化エネルギーU2を考慮することを示す模式図である。図4に示すように、辺rの小さい領域である境界の領域で正則化エネルギーU2を考慮していることがわかる。
具体的には、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化して、領域が大きい順、すなわち領域内の画素数が大きい順に、領域(クラスタ)Kを選択する。そして、(38)式により尤度エネルギーを算出し、(39)式により正則化エネルギーを算出し、(37)式によりラベル値を算出して、算出したラベル値でモデル識別ラベルz(n)を(40)式のように更新する。かかる算出処理およびモデル識別ラベルの更新をすべての領域について繰り返すことにより、モデル識別ラベルの割り当てを行っている。
ここで、同一サイズの領域(すなわち、画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択することとしている。
次に、このように構成された実施の形態1にかかる動き推定装置による動き推定処理について説明する。図5は、実施の形態1にかかる動き推定処理の手順を示すフローチャートである。
まず、カウント回数Lを1に初期化し(ステップS11)、(2)、(3)式により局所動き推定処理を行う(ステップS12)。
局所動き推定処理が完了したら、モデル定義部108によりパラメトリックモデルを定義する(ステップS13)。そして、クラスタリング処理部109によって動きクラスタリング処理を行い(ステップS14)、対象画像上の各点の動きベクトルをクラスタリングしてラベル割り当ての初期値を求める。
次に、パラメータ推定部110によるモデルパラメータ推定処理を行い(ステップS15)、各ラベルの領域に対するモデルパラメータを推定する。そして、領域分割部112によって、領域分割処理を行い(ステップS16)、対象画像のフレームを画素値に基づいた領域にクラスタリングし、各領域に領域ラベルを割り当てる。
次いで、ラベル割当部111によって、ラベル割り当て処理を行い(ステップS17)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS18)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS19)。
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS19:No)、ステップS15からS18までの処理を繰り返す。
一方、ステップS19において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS19:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、画像処理部113によって、最適なパラメトリックモデルにより動き推定を行って動き推定結果を出力する(ステップS20)。
次に、ステップS14における動きクラスタリング処理について説明する。図6は、動きクラスタリング処理の手順を示すフローチャートである。
まず、クラスタリング処理部109は、輝度等の画素値に基づいて、対象画像をk−Means法によって複数個にクラスタリングを行って画像を分割しモデル識別ラベルを求める(ステップS21)。
そして、そのクラスタリング結果によるモデル識別ラベルに基づき、初期モデルパラメータを推定し、複数個の初期モデルパラメータを求める(ステップS22)。次に、求めた初期モデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのモデル識別ラベルαを求める(ステップS23)。ここで、モデル識別ラベルαは、複数個の初期モデルパラメータに対応して複数個求められる。かかる動きクラスタリング処理は、図5に示すように、局所的な動的マッチング処理が完了した直後に1回だけ実行される。
次に、ステップS15におけるモデルパラメータ推定処理について説明する。図7は、モデルパラメータ推定処理の手順を示すフローチャートである。
まず、パラメータ推定部110は、クラスタリング処理部109によって求めたモデル識別ラベルαに対して、全ての格子点nに対して、(19)式によりAを、(20)式によりbを計算する(ステップS31)。そして、(21)式を特異値分解法(もしくはLU法)による数値解析により解法処理を行う(ステップS32)。そして、全てのモデル識別ラベルαに対して、上記ステップS31およびS32の処理を繰り返して実行する(
ステップS33)。
ステップS33)。
次に、ステップS17におけるラベル割り当て処理について説明する。図8は、ラベル割り当て処理の手順を示すフローチャートである。
まず、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化する(ステップS41)。そして、領域が大きい順、すなわち領域内の画素数が大きい順に、領域Kを選択する(ステップS42)。このとき、同一サイズの領域(画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択する。
そして、(38)式により尤度エネルギーを算出し(ステップS43)、(39)式により正則化エネルギーを算出する(ステップS44)。そして、(37)式により最尤推定を行ってラベル値を算出する(ステップS45)。そして、算出したラベル値でモデル識別ラベルz(n)を(40)式により更新する(ステップS46)。
次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS47)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS47:No)、次にサイズの大きい領域(すなわち、次に画素数の大きい領域)を選択して(ステップS48)、ステップS43からS46までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。
図9は対象画像の例、図10は参照画像の例、図11は、領域分割の結果を示す。また、図12は、図9の対象画像、図10の参照画像を用いた場合の比較例としての従来の手法によるラベル割り当て処理結果を示す。図13は、図9の対象画像、図10の参照画像を用いた場合の実施の形態1のラベル割り当て処理結果を示す。
図12と図13を比較すればわかるように、実施の形態1による動き推定結果の方が、比較例に比べて高精度にラベル割り当てが行われていることがわかる。
このように実施の形態1にかかる動き推定装置100では、(36)〜(39)式により最尤推定を行うことにより、領域が大きいときには最尤推定そのものを求め、領域が小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なモデル識別ラベルの割り当てを行って、最適なパラメトリックモデルを適用した動き推定処理を高精度に行うことができる。
(実施の形態2)
実施の形態1では、動き推定処理の過程で、パラメトリックモデルを定義し、モデルパラメータを推定してパラメトリックモデルを生成して動き推定処理を行っていたが、この実施の形態2では、本発明の画像処理装置を背景差分を行う動領域検出装置に適用している。
実施の形態1では、動き推定処理の過程で、パラメトリックモデルを定義し、モデルパラメータを推定してパラメトリックモデルを生成して動き推定処理を行っていたが、この実施の形態2では、本発明の画像処理装置を背景差分を行う動領域検出装置に適用している。
背景差分法は、あらかじめ撮影された背景画像に対して、動領域が含まれる対象画像との間の差分を取ることにより、動領域を検出するものである。
図14は、実施の形態2にかかる動領域検出装置1400の機能的構成を示すブロック図である。本実施の形態にかかる動領域検出装置は、あらかじめ撮影された動きのない画像である背景画像を用いて入力された対象画像から動きのある領域である動領域を検出するものであり、図14に示すように、領域分割部1412と、ラベル割当部1411と、動領域検出部1401と、フレームメモリ106と、メモリ103とを主に備えている。
本実施の形態の領域分割部1412は、実施の形態1と同様に、対象画像を複数の領域に分割する。
ラベル割当部1411は、領域分割部112によって分割された領域(クラスタ)に領域種別ラベルを割り当てる処理部である。ここで、領域種別ラベルは、各領域が背景領域であるか動領域であるかを識別するためのラベルであり、本実施の形態では、背景領域の旨を示す領域種別ラベルαをα=0、動領域の旨を示す領域種別ラベルαをα=1としている。ただし、領域種別ラベルの値はこれに限定されるものはない。
より具体的には、ラベル割当部1411は、対象画像の点nの画素値と背景画像の点nの画素の差分値d(n)が予め定められた閾値T以下の場合に、分割された領域に背景領域の領域種別ラベルを割り当てており、この際に、領域の周囲の全ての領域が背景領域を示す領域種別ラベルが割り当てられている場合には閾値Tを増加し、領域の周囲の全ての領域が動領域を示す領域種別ラベルが割り当てられている場合には閾値Tを減少している。そして、ラベル割当部1411は、このような領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行している。
以下、ラベル割当部1411によるラベル割り当て処理の詳細について説明する。対象画像の点nの画素値をg1(n)、背景画像の点nの画素値をg2(n)とする。このとき、背景領域の差分値d(n)は、(41)式で表される。そして、ノイズがガウス分布N(0,σ2)に従うとすると、背景領域の差分値d(n)もガウス分布に従う。
任意の領域の周囲がすべて背景領域であり領域種別ラベルα=0とラベル割り当てされている場合には、この領域も背景領域になると考えた方がラベル割り当てはより安定すると考えられる。一方、任意の領域の周囲がすべて動領域であり領域種別ラベルα=1とラベル割り当てされている場合には、この領域も動領域になると考えた方がラベル割り当てはより安定すると考えられる。以下ではこの概念を定式化する。
判定対象とする領域の周囲の領域が背景領域と判定されている場合には、任意の定数η>0に対して、(46)式を満たすようにすることによって、対象とする領域も背景領域と判定しやすくなる。すなわち、(46)式により、閾値Tの値が増加するので、(42)式により、判定対象の領域の画素の差分値d(n)が背景領域と判定される可能性が高くなる。
(k)≦σとすると、(49)式のように設計することができる。
一方、判定対象の領域に隣接する領域の領域種別ラベルがすべて動領域(α=1)の場合には、N(α=1)=B(k)、N(α=0)=0でが成立するため、γ(k)=−σとなる。さらに、領域の隣接する領域において背景領域と動領域とが同数の場合には、N(α=0)=N(α=1)が成立するため、γ(k)=0となる。
従って、各領域に割り当てる領域種別ラベルをz(n)で示すと、実施の形態2にかかるラベル割当部1411は、(50)式により各領域に割り当てる領域種別ラベルz(n)を初期化し、領域の画素数が大きい順に以下の処理を行う。境界領域の数B(k)、判定対象の領域に隣接する領域の領域種別ラベルが背景領域である数N(α=0)、判定対象の領域に隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出し、(51)式によりγ(k)を算出し、(52)式の計算を行って、(53)式によりラベル値を求める。そして、(54)式により、求めたラベル値で領域に割り当てる領域種別ラベルz(n)を更新する。
次に、以上のように構成された実施の形態2にかかる動領域検出処理について説明する。図15は、実施の形態2の動領域検出処理の手順を示すフローチャートである。
まず、カウント回数Lを1に初期化する(ステップS51)。そして、領域分割部1412によって、領域分割処理を行い(ステップS52)、対象画像のフレームを画素値に基づいた領域に分割(クラスタリング)する。
次いで、ラベル割当部1411によって、分割された領域に領域種別ラベルを割り当てるラベル割り当て処理を行う(ステップS53)。そして、カウント回数Lを1増加して(ステップS54)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS55)。
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS55:No)、ステップS52からS54までの処理を繰り返す。
一方、ステップS55において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS55:Yes)、領域に領域種別ラベルが割り当てられたことになり、動領域検出部1401によって、領域種別ラベルが0である領域を動領域として検出して(ステップS56)、検出結果を出力する。
次に、ステップS53によるラベル割り当て処理について説明する。図16は、実施の形態2にかかるラベル割り当て処理の手順を示すフローチャートである。
まず、ラベル割当部1411は、(50)式のように、領域に割り当てる領域種別ラベルz(n)を−1に初期化する(ステップS61)。そして、領域が大きい順、すなわち領域の画素数が大きい順に、領域Kを選択する(ステップS62)。このとき、同一画素数の領域が複数存在する場合には、領域の境界における画素数が小さい順にクラスタを選択する。
そして、境界領域の数B(k)、クラスタの隣接ラベルが背景領域である数N(α=0)、判定対象の領域の隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出する(ステップS63)。次に、(51)式によりγ(k)を算出し(ステップS64)、(52)式により平均差分値を算出する(ステップS65)。そして、(53)式によりラベル値を求めて(ステップS66)、(54)式により、求めたラベル値で領域種別ラベルz(n)を更新する(ステップS67)。
次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS68)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS68:No)、次に画素数が大きい領域を選択して(ステップS69)、ステップS63からS47までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。
このように実施の形態2にかかる動領域検出装置では、(51)〜(53)式により背景領域か動領域かを識別する領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行しているので、ノイズなどによらず、画像の領域毎に安定して背景領域と動領域のラベル割り当てをおこなうことが可能となり、画像全体に亘って最適なラベル割り当てをして画像処理を高精度に行うことができる。
(実施の形態3)
実施の形態3は、本発明の画像処理装置をステレオマッチング装置に適用したものである。
実施の形態3は、本発明の画像処理装置をステレオマッチング装置に適用したものである。
図17は、実施の形態3にかかるステレオマッチング装置1700の機能的構成図である。本実施の形態にかかるステレオマッチング装置1700は、左目用の第1視差画像と右目用の第2視差画像を入力し、2枚の視差画像を撮影し画像間の対応点から空間の奥行きを推定するものである。
本実施の形態にかかるステレオマッチング装置1700は、図17に示すように、領域分割部112と、ラベル割当部111と、対応点推定部1701と、フレームメモリ106と、メモリ103とを主に備えている。
本実施の形態では、メモリ103に予め複数のパラメトリックモデルが記憶されている。本実施の形態では、(55)式に示すパラメトリックモデルを予め記憶し、ラベル割当部111では、(55)式のパラメトリックモデルを用いてラベル割り当てを行っている点が実施の形態1と異なり、その他の処理については実施の形態と同様である。
ステレオマッチングにおける空間の奥行きを推定するために、視差画像間の対応点(動き)を推定する。この場合、対応点の関係は左右の平行移動のみで近似できる場合が多い。例えば、左右の平行移動が0〜16の範囲で行われると予めわかっている場合には、平行移動量を{0,・・・,16}の範囲で設定することができる。本実施の形態では、モデルパラメータおよびモデル識別ラベルであるαを平行移動量として{0,・・・,16}の範囲で設定している。
対応点推定部1701は、ラベル割り当て処理の結果に基づいて視差画像間の対応点(動き)を推定する処理部である。
次に、以上のように構成された本実施の形態にかかるステレオマッチング処理について説明する。図18は、実施の形態3にかかるステレオマッチング処理の手順を示すフローチャートである。
まず、カウント回数Lを1に初期化する(ステップS71)。そして、領域分割部11
2によって、領域分割処理を行い(ステップS72)、第1視差画像のフレームを画素値に基づいた領域に分割(クラスタリング)し、各領域に領域ラベルを割り当てる。
2によって、領域分割処理を行い(ステップS72)、第1視差画像のフレームを画素値に基づいた領域に分割(クラスタリング)し、各領域に領域ラベルを割り当てる。
次いで、ラベル割り当て部111によって、ラベル割り当て処理を行い(ステップS73)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS74)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS75)。
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS75:No)、ステップS72からS74までの処理を繰り返す。
一方、ステップS75において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS75:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、最適なパラメトリックモデルにより対応点を検出して(ステップS76)、対応点推定部1701によって空間の奥行きを推定する。
ここで、ステップS73におけるラベル割り当て処理については、(55)式のパラメトリックモデルを使用して実施の形態1と同様に行われる。
このように実施の形態3にかかるステレオマッチング装置1700では、(55)式のパラメトリックモデルを用い、(36)〜(39)式により最尤推定を行うことにより、クラスタが大きいときには最尤推定そのものを求め、クラスタが小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なラベル割り当てを行って、高精度に対応点を推定することでき、高精度に奥行きを推定可能となり、パラメトリックモデルを適用したステレオマッチング処理を高精度に行うことができる。
実施の形態1〜3の各装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)をインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、ROM等に予め組み込んで提供するように構成してもよい。
本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、上述した各部(局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から〜プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部が主記憶装置上に生成されるようになっている。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
100 動き推定装置
101 局所動き推定部
103 メモリ
106 フレームメモリ
107 モデル生成部
108 モデル定義部
109 クラスタリング処理部
110 パラメータ推定部
111,1411 ラベル割当部
112,1412 領域分割部
113 画像処理部
1400 動領域検出装置
1401 動領域検出部
1700 ステレオマッチング装置
1701 対応点推定部
101 局所動き推定部
103 メモリ
106 フレームメモリ
107 モデル生成部
108 モデル定義部
109 クラスタリング処理部
110 パラメータ推定部
111,1411 ラベル割当部
112,1412 領域分割部
113 画像処理部
1400 動領域検出装置
1401 動領域検出部
1700 ステレオマッチング装置
1701 対応点推定部
Claims (14)
- 第1の画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、
を備えたことを特徴とする画像処理装置。 - 前記第1の画像の特徴に基づいて前記パラメトリックモデルを生成するモデル生成部を更に備えたことを特徴とする請求項1に記載の画像処理装置。
- 前記モデル生成部は、
前記パラメトリックモデルを定義するモデル定義部と、
前記第1の画像における各点の前記第2の画像上の対応点を分類して、分類した前記対応点ごとに、前記ラベル割り当ての初期値を付与するクラスタリング処理部と、
前記モデル識別ラベルごとに、前記第1の画像上の各点と当該各点に対応する第2の画像上の対応点を最小の誤差で表すことのできる前記モデルパラメータを最小二乗法によって推定するパラメータ推定部と、
を更に備えたことを特徴とする請求項2に記載の画像処理装置。 - 前記モデル定義部は、前記第1の画像から前記第2の画像への平面から平面への幾何変換を定義することにより前記パラメトリックモデルを定義すること特徴とする請求項3に記載の画像処理装置。
- 前記第1の画像と前記第2の画像の間の動き推定を行って、各点の対応点から前記第1の画像における各点の前記第2の画像上との点の動きベクトルを求める局所動き推定部をさらに備え、
前記パラメトリックモデルは、前記モデル識別ラベルの領域における第1の画像における各点の前記第2の画像上との点の動きベクトルを求めるためのモデルであり、
前記クラスタリング処理部は、前記局所動き推定部で求められた動きベクトルを分類して、分類した前記動きベクトルごとに前記ラベル割り当ての初期値を付与し、
前記パラメータ推定部は、前記モデル識別ラベルごとに、前記パラメトリックモデルによって定められる前記動きベクトルと前記局所動き推定部によって求められた前記動きベクトルとに基づいて、前記モデルパラメータを推定し、
前記画像処理部は、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像の前記第2の画像に対する動きを推定することを特徴とする請求項4に記載の画像処理装置。 - 前記ラベル割当部は、前記画素数が同一の前記領域が複数存在する場合には、前記領域の境界における画素数が小さい順に前記ラベル割り当ての処理を実行することを特徴とする請求項1に記載の画像処理装置。
- 前記パラメトリックモデルを記憶する記憶部をさらに備え、
前記モデルパラメータはあらかじめ問題に応じて設定されていることを特徴とする請求
項1に記載の画像処理装置。 - 前記パラメトリックモデルは、前記第1の画像としての第1視差画像上の点に対して前記第2の画像としての第2視差画像上の点を求めるためのモデルであり、前記第1視差画像の点と当該点に対応する前記第2視差画像の点の水平移動量を前記モデルパラメータおよび前記モデル識別ラベルとして含むことを特徴とする請求項1に記載の画像処理装置。
- 動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、
を備えたことを特徴とする画像処理装置。 - 前記ラベル割当部は、前記対象画像の画素と前記背景画像の画素の差分値が予め定められた閾値以下の場合に、前記領域に前記背景領域の前記領域種別ラベルを割り当て、前記領域の周囲の全ての領域が前記背景領域を示す前記領域種別ラベルが割り当てられている場合には前記閾値を増加し、前記領域の周囲の全ての領域が前記動領域を示す前記領域種別ラベルが割り当てられている場合には前記閾値を増加することを特徴とする請求項9に記載の画像処理装置。
- 第1の画像を、それぞれが複数の画素を含む複数の領域に分割する工程と、
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める工程と、
を含むことを特徴とする画像処理方法。 - 動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する工程と、
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する工程と、
を含むことを特徴とする画像処理方法。 - 第1の画像を、それぞれが複数の画素を含む複数の領域に分割する手順と、
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のう
ち画素数が多いものから順に実行する手順と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める手順と、
をコンピュータに実行させる画像処理プログラム。 - 動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する手順と、
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する手順と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する手順と、
をコンピュータに実行させる画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006264359A JP2008084076A (ja) | 2006-09-28 | 2006-09-28 | 画像処理装置、方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006264359A JP2008084076A (ja) | 2006-09-28 | 2006-09-28 | 画像処理装置、方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008084076A true JP2008084076A (ja) | 2008-04-10 |
Family
ID=39354881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006264359A Pending JP2008084076A (ja) | 2006-09-28 | 2006-09-28 | 画像処理装置、方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008084076A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010277296A (ja) * | 2009-05-28 | 2010-12-09 | Secom Co Ltd | 対象物検知装置 |
JP2010277431A (ja) * | 2009-05-29 | 2010-12-09 | Secom Co Ltd | 対象物検出装置 |
WO2013073167A1 (ja) * | 2011-11-17 | 2013-05-23 | パナソニック株式会社 | 画像処理装置、撮像装置および画像処理方法 |
JP2017174414A (ja) * | 2016-03-22 | 2017-09-28 | 株式会社東芝 | 画像の調整 |
CN110490027A (zh) * | 2018-05-15 | 2019-11-22 | 触景无限科技(北京)有限公司 | 一种用于人脸识别的人脸特征提取训练方法及系统 |
KR20200075094A (ko) * | 2018-12-10 | 2020-06-26 | 울산과학기술원 | 객체 분류기 생성 장치 및 방법 |
-
2006
- 2006-09-28 JP JP2006264359A patent/JP2008084076A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010277296A (ja) * | 2009-05-28 | 2010-12-09 | Secom Co Ltd | 対象物検知装置 |
JP2010277431A (ja) * | 2009-05-29 | 2010-12-09 | Secom Co Ltd | 対象物検出装置 |
WO2013073167A1 (ja) * | 2011-11-17 | 2013-05-23 | パナソニック株式会社 | 画像処理装置、撮像装置および画像処理方法 |
CN103493093A (zh) * | 2011-11-17 | 2014-01-01 | 松下电器产业株式会社 | 图像处理装置、摄像装置及图像处理方法 |
JPWO2013073167A1 (ja) * | 2011-11-17 | 2015-04-02 | パナソニックIpマネジメント株式会社 | 画像処理装置、撮像装置および画像処理方法 |
US9153066B2 (en) | 2011-11-17 | 2015-10-06 | Panasonic Intellectual Property Management Co. Ltd. | Image processing device, imaging device, and image processing method |
JP2017174414A (ja) * | 2016-03-22 | 2017-09-28 | 株式会社東芝 | 画像の調整 |
CN110490027A (zh) * | 2018-05-15 | 2019-11-22 | 触景无限科技(北京)有限公司 | 一种用于人脸识别的人脸特征提取训练方法及系统 |
CN110490027B (zh) * | 2018-05-15 | 2023-06-16 | 触景无限科技(北京)有限公司 | 人脸特征提取训练方法及系统 |
KR20200075094A (ko) * | 2018-12-10 | 2020-06-26 | 울산과학기술원 | 객체 분류기 생성 장치 및 방법 |
KR102180054B1 (ko) * | 2018-12-10 | 2020-11-17 | 울산과학기술원 | 객체 분류기 생성 장치 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8948448B2 (en) | Method and apparatus for trajectory estimation, and method for segmentation | |
JP4740657B2 (ja) | カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス | |
US8605795B2 (en) | Video editing methods and systems | |
JP2011034178A (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
US20060193535A1 (en) | Image matching method and image interpolation method using the same | |
JP2020516427A (ja) | 腫瘍進行のrecist評価 | |
CN105513070A (zh) | 一种基于前景背景优化的rgb-d显著物体检测方法 | |
JP2016095849A (ja) | 前景画像分割方法及び装置、プログラム、並びに記録媒体 | |
CN107369131B (zh) | 图像的显著性检测方法、装置、存储介质和处理器 | |
CN109598735A (zh) | 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备 | |
JP2012032370A (ja) | 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体 | |
JP6100300B2 (ja) | 階層グラフに基づく画像マッティングおよび前景推定の方法およびシステム | |
JP2010218051A (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
US20160117573A1 (en) | Method and apparatus for extracting feature correspondences from multiple images | |
JP2008084076A (ja) | 画像処理装置、方法およびプログラム | |
CN111931603B (zh) | 基于竞合网络的双流卷积网络的人体动作识别系统及方法 | |
US7522749B2 (en) | Simultaneous optical flow estimation and image segmentation | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN110930413A (zh) | 一种基于弱监督多核分类优化合并的图像分割方法 | |
JP3716455B2 (ja) | 領域抽出方法及び領域抽出装置 | |
US10580127B2 (en) | Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium | |
JP5896661B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
US8478032B2 (en) | Segmenting an image | |
Jiang et al. | An optimized higher order CRF for automated labeling and segmentation of video objects | |
JP2012118923A (ja) | 領域分割装置及び領域分割方法 |