JP2008084076A - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP2008084076A
JP2008084076A JP2006264359A JP2006264359A JP2008084076A JP 2008084076 A JP2008084076 A JP 2008084076A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2008084076 A JP2008084076 A JP 2008084076A
Authority
JP
Japan
Prior art keywords
image
model
label
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006264359A
Other languages
English (en)
Inventor
Sunao Mishima
直 三島
Takeshi Ito
伊藤  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006264359A priority Critical patent/JP2008084076A/ja
Publication of JP2008084076A publication Critical patent/JP2008084076A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像全体に亘って最適なラベル割り当てを行って画像処理を高精度に行うこと。
【解決手段】画像処理装置において、対象画像を複数の領域に分割する領域分割部112と、対象画像上の点と参照画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及びモデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、パラメトリックモデルとの適合度及び隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行するラベル割当部111とを備えた。
【選択図】 図1

Description

本発明は、入力された画像に関する複数のパラメータモデルを導入して、入力された画像の領域ごとにパラメータモデルを割り当てて画像処理を行う画像処理装置、方法およびプログラムに関する。
画像の領域ごとに予め定められたパラメトリックモデルを適用し、画像処理を行う技術としては、例えば、非特許文献1の技術が知られている。非特許文献1の技術では、画像の動きを推定する問題に対して、2つの画像間の局所的な動きをオプティカルフローなどの手法で推定し、推定された局所的な動きの集合から複数のモデルパラメータをアフィン変換と最小二乗法の手法により抽出し、k-means法、watershed法などの手法により画像を複数の領域に分割して、分割された領域ごとに最適なパラメータを選択するラベリングを行う技術が開示されている。このような技術によれば、画像の領域ごとに適切な動きモデルが選択される。
P. E. Eren, Y. Altunbasak and M. Tekalp, "Region-based affine motion segmentation using color information", IEEE ICASSP1997, Vol. 4, pp. 3005 - 3008, 1997
このような従来技術では、ラベリングは領域ごとにモデルパラメータの適合度のみを用いた最尤推定がおこなわれ、ラベリングが動き推定の結果の精度に大きな影響を与える。このため、サンプリング数が多いサイズの大きい領域では高精度となる一方、サイズの小さい領域に関してはサンプリング数が少なくなるので、最適なラベリングを行うことができず、動き推定の精度が低くなるという問題がある。
本発明は、上記に鑑みてなされたものであって、画像全体に亘って最適なラベル割り当てを行って、パラメータモデルを適用した画像処理を高精度に行うことができる画像処理装置、方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、第1の画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、を備えたことを特徴とする。
また、本発明は、動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り
当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、を備えたことを特徴とする。
本発明は、上記画像処理装置に対応する画像処理方法およびプログラムである。
本発明によれば、画像全体に亘って最適なラベル割り当てを行って、画像処理を高精度に行うことができるという効果を奏する。
以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法およびプログラムの最良な実施の形態を詳細に説明する。
(実施の形態1)
図1は、実施の形態1にかかる動き推定装置の機能的構成を示すブロック図である。実施の形態1にかかる動き推定装置は、対象画像と参照画像の各点の動きを推定するものであり、図1に示すように、局所動き推定部101と、モデル生成部107と、領域分割部112と、ラベル割当部111と、画像処理部113と、フレームメモリ106と、メモリ103とを主に備えている。
局所動き推定部101は、対象画像と参照画像から、ブロックマッチングの手法により2つ画像間の動き推定を行って、各点の動きベクトルを求める処理部である。
モデル生成部107は、局所動き推定の結果から、対象画像上の点と参照画像上の点とを対応付けるためパラメトリックモデルを生成するものである。パラメトリックモデルは、パラメトリックモデルを規定する複数のモデルパラメータ及びモデルを識別するためのモデル識別ラベルを含み、このモデル識別ラベルによりラベル付けされている。本実施の形態では、パラメトリックモデルは、モデルパラメータにより、モデル識別ラベルの領域における第1の画像における各点の第2の画像上との点の動きベクトルを求めるためのモデルである。モデル生成部107は、モデル定義部108と、クラスタリング処理部109と、パラメータ推定部110とを備えている。
モデル定義部108は、上記パラメトリックモデルを定義し生成してメモリ103に保存する処理部である。
クラスタリング処理部109は、局所動き推定部101で求めた対象画像上の各点の動きベクトルを分類して(クラスタリングして)、ラベル割り当ての初期値を付与する処理部である。
パラメータ推定部110は、モデル識別ラベルごとに、同一のモデル識別ラベル内において、パラメトリックモデルによって定められる動きベクトルと各点の局所動き推定部101によって求めた動きベクトルとの誤差から求められる誤差エネルギーを最小にするモデルパラメータを最小二乗法によって推定する処理部である。
領域分割部112は、対象画像のフレームを画素値に基づいた領域に分割する(クラスタリングする)処理部である。領域分割部112は、さらに分割された各領域に領域(クラスタ)を識別するための領域ラベルを割り当てる。
ラベル割当部111は、複数のパラメトリックモデルの中から、パラメトリックモデルとの適合度及び隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す
評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域分割部112によって分割された領域(クラスタ)内の画素に割り当てるラベル割り当てを行う処理部である。
具体的には、ラベル割当部111は、分割された領域(クラスタ)内の画素に対して、対象画像の画素と参照画像の画素と各画素の動きベクトルに基づいた尤度エネルギーU1と正則化エネルギーU2とに基づいた上記評価関数が最小にするパラメトリックモデルを選択してラベル割り当ての処理を行っている。また、ラベル割当部111は、このようなラベル割り当ての処理を、複数の領域(クラスタ)のうち画素数が多い(クラスタサイズの大きい)ものから順に領域を選択して評価関数の値を計算して実行している。
画像処理部113は、各画素に割り当てられたモデル識別ラベルに対応するパラメトリックモデルに基づいて、対象画像と参照との対応関係を求めて動き推定を行い、その結果を動き推定結果として出力する処理部である。
なお、上記各部の詳細については後述する。
フレームメモリ106は、入力された対象画像と参照画像と保存する記憶媒体である。メモリは、各部で求めた計算結果やパラメータ、モデル定義部107で生成したパラメトリックモデル等を保存する記憶媒体である。
次に、各部の詳細について説明する。本実施の形態では、処理対象の2枚の画像を対象画像、参照画像とし、対象画像から参照画像への動きを求めている。
対象画像、参照画像の点n∈Λ2の画素値をそれぞれg1(n),g2(n)とする。
局所動き推定部101では、対象画像と参照画像から、ブロックマッチングの手法を用いて以下のように2つの画像間の動きを推定している。ここで、本実施の形態では、ブロックマッチングの手法を採用しているが、これに限定されるものではなく、例えば、オプティカルフロー推定、勾配法、ベイジアンメソッドなどの各手法を用いて動き推定を行ってもよい。
ブロックマッチングでは、対象画像を(1)式であらかじめ設定された矩形領域のブロックに分割する。
動き探索の領域をW∈R2とすると、差分二乗和基準(SSD:Sum of Squared Difference)に従ったブロックマッチングアルゴリズムは(2)式で示される。
d(i)が動きベクトル、すなわちブロックiの動きである。ブロックマッチングではブロック内は同一の動きベクトルを有すると仮定され、各画素の動きベクトルは、(3)式で表すことができる。
局所動き推定部101は、(2)、(3)式により動きベクトルを求める処理を行っている。
次に、モデル定義部108の詳細について説明する。モデル定義部108は、パラメトリックモデルを規定してメモリ103に保存する。パラメトリックモデルは、推定したい動きの数だけ用意される。各パラメトリックモデルは、推定したい動きの数分の任意の数のモデル識別ラベルα∈L⊂Zによって、一意に識別される。点nのラベルをz(n)∈Lとし、モデル識別ラベルαが割り当てられている領域の集合、すなわち各動き領域Nαを(4)式で示す。
そして、モデル識別ラベルαが割り当てられた動き領域ごとのパラメトリックモデルを(5)式で定義する。
モデルパラメータaαは、対象画像から参照画像への平面から平面への幾何変換を定義したパラメータなど種々の形式を採用することができる。例えば、モデルパラメータaαとして、アファインモデルを用いた場合には(6)、(7)式、2次形式モデルを用いた場合には(8)、(9)式で示される。
この他、モデルパラメータとして、回転変換モデル、ユークリッド変換モデル、相似変換モデル、射影変換モデル、Lie変換モデルなどを用いてもよい。
モデル定義部108は、(5)、(6)、(7)式で定義されるパラメトリックモデル、若しくは、(5)、(8)、(9)式で定義されるパラメトリックモデルを生成してメモリ103に保存している。
次に、パラメータ推定部110の詳細について説明する。パラメトリックモデルによって定まる動きベクトルは、(10)式で示されるので、これと(5)式を用いると、パラメトリックモデルによって定まる動きベクトルは(11)式で示される。
一方、パラメトリックモデルによって得られる各点の動きベクトルと局所動き推定部101で求めた各点の動きベクトルの誤差を(12)式で定義すると、誤差エネルギーは(13)式で表される。従って、各動きベクトルの定義式(10)、(11)式により、誤差エネルギーは(14)式のようになり、結局(15)式で示されることになる。
一方、モデル識別ラベルα領域内の誤差は、(16)式で示され、このモデル識別ラベルα領域内の誤差が(17)式に示すように最小になるようにモデルパラメータが推定される。
本実施の形態では、モデルパラメータと得られた動きベクトルの誤差がガウス分布に従っていると仮定して、最適なモデルパラメータは最小二乗法を使用した数値解析によって求めている。すなわち、最小二乗法における正規方程式は、(18)、(19)、(20)式に示されるため、モデルパラメータは(21)式で示される。
かかる(21)式は連立一次方程式であり、このため、パラメータ推定部110では、モデルパラメータを(21)式により特異値分解法で求めている。なお、モデルパラメータを、LU分解などの他の手法で求めてもよい。
次に、クラスタリング処理部109の詳細について説明する。局所動き推定処理を終了した時点では、ラベル割り当て処理が行われていないため、モデルパラメータの推定を行うことができない。最初にモデルパラメータの推定処理を行う場合には、モデルパラメータの推定処理の実行前に、クラスタリング処理部109によって、局所動き推定部101によって求めた動きベクトルd(n)をクラスタリングすることによりラベル割り当ての初期値として付与している。ここで、動きクラスタリング処理としては、輝度等の画素値に基づいて画像をk−Means法によって複数個にクラスタリングを行って画像を分割し、そのクラスタリング結果によって複数個のモデルパラメータを求め、求めたモデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのラベルを求める。
次に、領域分割部112の詳細について説明する。領域分割部112では、例えばk−means法やwatershed法等の手法を用いて、対象画像のフレームを画素値の情報に基づいた領域に分割する。
すなわち、領域分割部112は、対象画像g1を画素値に応じてk個に分割(クラスタリング)する。そして、各領域(クラスタ)に各領域を一意に識別するための領域ラベルw(n)∈K⊂Zを割り当てる。このとき、各領域(クラスタ)は、(22)式で表される。
次に、ラベル割当部111の詳細について説明する。ラベル割当部111では、領域分割部112でクラスタリングされた各領域に対して割り当てるパラメトリックモデルを決定している。
ここで、対象画像g1(n)、参照画像g2(n)、動きベクトルd(n)が与えられた場合のモデル識別ラベルz(n)の確率密度関数は(23)式で与えられる。
ベイズの定理を用いると、(23)式は、(24)式と等価となる。
ここで、zとg1、dが独立であると仮定すると、(24)式は、(25)式と等価となる。
(25)式において、p(g2|z,g1,d)は尤度関数といい、モデル識別ラベルzの画像に対する適合度を表す。p(z)は事前密度といい、モデル識別ラベルzの形状としてふさわしいかどうかの事前知識を表す。パラメトリックモデルに従った画素値の差分がガウス分布に従うと仮定すると尤度関数は(26)、(27)式のように定義することができる。
また、ラベルの事前密度は(28)、(29)式のように定義することができる。
N(n)は点nの近傍を示し、モデル識別ラベルが同一のところでは低いエネルギーとなる密度関数である。この定式化の下で尤もらしいモデル識別ラベルzは、(30)式で示すMAP推定問題(Maximum a posteriori probability)の解である。
(30)式の両辺のlogをとり、マイナス(−)を乗算すると、(31)式のエネルギー最小化問題に帰着する。
(31)式において、温度パラメータT、ノイズの標準偏差σをまとめてハイパーパラメータλとして記述している。U1はパラメトリックモデルとの適合度を示す尤度エネルギー、U2は隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す正則化エネルギーであり、(31)式は、尤度エネルギーU1と正則化エネルギーU2とからなる評価関数を示している。
ここで、非特許文献1の技術では、(31)式を尤度エネルギーU1のみで解法しており、正則化エネルギーの項U2がないため、ラベル割り当ての精度が安定しない。
本実施の形態では、ラベル割当部111によって正則化エネルギーの項U2を考慮した(31)式を解法することにより、安定した精度でラベル割り当てを行うことができる。
次に、ラベル割当部111による(31)式の解法について説明する。すなわち、ラベル割当部111は、(32)式を解法して各領域(クラスタ)KKに対して、λU1+U2が最小となるモデル識別ラベルαを求める。
ただし、ただし正則化エネルギーU2には隣接するラベルのエネルギーが含まれるため、(32)式のままでは計算することができない。ここで、領域(クラスタ)の境界のク
リーク(自画素と隣接画素の対)と内部のクリークに着目すると正則化エネルギーU2は(33)式のように変形することができる。
これにより、同一領域に含まれる点で構成されるクリークC1と、異なる領域同士の点で構成されるクリークC2に分けることができる。このとき各領域にどのモデル識別ラベルを選択したとしてもC1のクリークポテンシャルは変化しない。すなわち、この場合C2のクリークポテンシャルがエネルギーに影響を及ぼすことになる。
図2は、一辺rの正方形クラスタ、4周辺クリークを示す模式図である。図2のクラスタにおけるC1の数を数えると以下のようになる。
頂点では2クリーク。頂点は4個。
辺上の点では3クリーク。辺上の点は4(r−2)個。
内部の点では4クリーク。内部の点は(r−2)2個。
それぞれ点の数を考慮すれば(34)式を導くことができる。
また、図2の領域(クラスタ)におけるC2の数を数えると以下のようになる。
頂点では2クリーク。頂点は4個。
辺上の点では1クリーク。辺上の点は4(r−2)個
内部の点では0クリーク。内部の点は(r−2)2
従って、(35)式が導かれる。
図3は、同一領域に含まれる点で構成されるクリークC1、異なる点で構成されるクリークC2の各個数を、領域内の全クリーク数に対する割合で示したグラフである。図3からわかるように、辺rの大きさが大きくなるに従い、C2の影響が下がりC1の占める割合が増加している。
このことから、辺rが大きくなると正則化エネルギーU2に対するC2の影響が下がりC1が支配的になることが分かり、つまり領域のラベルをどのように選択しても正則化エネルギーU2は大きく変化しなくなることがわかる。従って、辺rが大きいときには、全体エネルギーに対して相対的に正則化エネルギーU2の与える影響は小さくなり、正則化エネルギーU2の影響が大きくなり、エネルギー最小化問題はU1に対する最尤推定の結果に近くなる。
一方、辺rが大きいときには大数の法則から、最尤エネルギーU1のラベル選択に対する精度は高くなる。よって辺rが大きいときには最尤エネルギーU1に対する最尤推定で
十分であるということが言える。
なお、図3では正方形の領域で例を示しているが、これに限定されるものではなく、正方形以外の領域に対しても同様である。これは、領域が大きくなるほど、外周が占める割合が同様に急激に低下するためである。
ただし、領域が例えばゴマ塩状で非常に数が多い場合には上述したとおりにならない可能性が高いが、これは領域の作り方で回避することができる。
図4は、辺rが大きい領域では正則化エネルギーU2を考慮せず、辺rが小さい領域では正則化エネルギーU2を考慮することを示す模式図である。図4に示すように、辺rの小さい領域である境界の領域で正則化エネルギーU2を考慮していることがわかる。
具体的には、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化して、領域が大きい順、すなわち領域内の画素数が大きい順に、領域(クラスタ)Kを選択する。そして、(38)式により尤度エネルギーを算出し、(39)式により正則化エネルギーを算出し、(37)式によりラベル値を算出して、算出したラベル値でモデル識別ラベルz(n)を(40)式のように更新する。かかる算出処理およびモデル識別ラベルの更新をすべての領域について繰り返すことにより、モデル識別ラベルの割り当てを行っている。
ここで、(38)式により、領域が大きいときには(37)式は最尤推定そのものとして働き、領域が小さくなってくると徐々に事前密度が影響を及ぼしてくるようになっている。
ここで、同一サイズの領域(すなわち、画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択することとしている。
次に、このように構成された実施の形態1にかかる動き推定装置による動き推定処理について説明する。図5は、実施の形態1にかかる動き推定処理の手順を示すフローチャートである。
まず、カウント回数Lを1に初期化し(ステップS11)、(2)、(3)式により局所動き推定処理を行う(ステップS12)。
局所動き推定処理が完了したら、モデル定義部108によりパラメトリックモデルを定義する(ステップS13)。そして、クラスタリング処理部109によって動きクラスタリング処理を行い(ステップS14)、対象画像上の各点の動きベクトルをクラスタリングしてラベル割り当ての初期値を求める。
次に、パラメータ推定部110によるモデルパラメータ推定処理を行い(ステップS15)、各ラベルの領域に対するモデルパラメータを推定する。そして、領域分割部112によって、領域分割処理を行い(ステップS16)、対象画像のフレームを画素値に基づいた領域にクラスタリングし、各領域に領域ラベルを割り当てる。
次いで、ラベル割当部111によって、ラベル割り当て処理を行い(ステップS17)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS18)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS19)。
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS19:No)、ステップS15からS18までの処理を繰り返す。
一方、ステップS19において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS19:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、画像処理部113によって、最適なパラメトリックモデルにより動き推定を行って動き推定結果を出力する(ステップS20)。
次に、ステップS14における動きクラスタリング処理について説明する。図6は、動きクラスタリング処理の手順を示すフローチャートである。
まず、クラスタリング処理部109は、輝度等の画素値に基づいて、対象画像をk−Means法によって複数個にクラスタリングを行って画像を分割しモデル識別ラベルを求める(ステップS21)。
そして、そのクラスタリング結果によるモデル識別ラベルに基づき、初期モデルパラメータを推定し、複数個の初期モデルパラメータを求める(ステップS22)。次に、求めた初期モデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのモデル識別ラベルαを求める(ステップS23)。ここで、モデル識別ラベルαは、複数個の初期モデルパラメータに対応して複数個求められる。かかる動きクラスタリング処理は、図5に示すように、局所的な動的マッチング処理が完了した直後に1回だけ実行される。
次に、ステップS15におけるモデルパラメータ推定処理について説明する。図7は、モデルパラメータ推定処理の手順を示すフローチャートである。
まず、パラメータ推定部110は、クラスタリング処理部109によって求めたモデル識別ラベルαに対して、全ての格子点nに対して、(19)式によりAを、(20)式によりbを計算する(ステップS31)。そして、(21)式を特異値分解法(もしくはLU法)による数値解析により解法処理を行う(ステップS32)。そして、全てのモデル識別ラベルαに対して、上記ステップS31およびS32の処理を繰り返して実行する(
ステップS33)。
次に、ステップS17におけるラベル割り当て処理について説明する。図8は、ラベル割り当て処理の手順を示すフローチャートである。
まず、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化する(ステップS41)。そして、領域が大きい順、すなわち領域内の画素数が大きい順に、領域Kを選択する(ステップS42)。このとき、同一サイズの領域(画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択する。
そして、(38)式により尤度エネルギーを算出し(ステップS43)、(39)式により正則化エネルギーを算出する(ステップS44)。そして、(37)式により最尤推定を行ってラベル値を算出する(ステップS45)。そして、算出したラベル値でモデル識別ラベルz(n)を(40)式により更新する(ステップS46)。
次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS47)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS47:No)、次にサイズの大きい領域(すなわち、次に画素数の大きい領域)を選択して(ステップS48)、ステップS43からS46までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。
図9は対象画像の例、図10は参照画像の例、図11は、領域分割の結果を示す。また、図12は、図9の対象画像、図10の参照画像を用いた場合の比較例としての従来の手法によるラベル割り当て処理結果を示す。図13は、図9の対象画像、図10の参照画像を用いた場合の実施の形態1のラベル割り当て処理結果を示す。
図12と図13を比較すればわかるように、実施の形態1による動き推定結果の方が、比較例に比べて高精度にラベル割り当てが行われていることがわかる。
このように実施の形態1にかかる動き推定装置100では、(36)〜(39)式により最尤推定を行うことにより、領域が大きいときには最尤推定そのものを求め、領域が小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なモデル識別ラベルの割り当てを行って、最適なパラメトリックモデルを適用した動き推定処理を高精度に行うことができる。
(実施の形態2)
実施の形態1では、動き推定処理の過程で、パラメトリックモデルを定義し、モデルパラメータを推定してパラメトリックモデルを生成して動き推定処理を行っていたが、この実施の形態2では、本発明の画像処理装置を背景差分を行う動領域検出装置に適用している。
背景差分法は、あらかじめ撮影された背景画像に対して、動領域が含まれる対象画像との間の差分を取ることにより、動領域を検出するものである。
図14は、実施の形態2にかかる動領域検出装置1400の機能的構成を示すブロック図である。本実施の形態にかかる動領域検出装置は、あらかじめ撮影された動きのない画像である背景画像を用いて入力された対象画像から動きのある領域である動領域を検出するものであり、図14に示すように、領域分割部1412と、ラベル割当部1411と、動領域検出部1401と、フレームメモリ106と、メモリ103とを主に備えている。
本実施の形態の領域分割部1412は、実施の形態1と同様に、対象画像を複数の領域に分割する。
ラベル割当部1411は、領域分割部112によって分割された領域(クラスタ)に領域種別ラベルを割り当てる処理部である。ここで、領域種別ラベルは、各領域が背景領域であるか動領域であるかを識別するためのラベルであり、本実施の形態では、背景領域の旨を示す領域種別ラベルαをα=0、動領域の旨を示す領域種別ラベルαをα=1としている。ただし、領域種別ラベルの値はこれに限定されるものはない。
より具体的には、ラベル割当部1411は、対象画像の点nの画素値と背景画像の点nの画素の差分値d(n)が予め定められた閾値T以下の場合に、分割された領域に背景領域の領域種別ラベルを割り当てており、この際に、領域の周囲の全ての領域が背景領域を示す領域種別ラベルが割り当てられている場合には閾値Tを増加し、領域の周囲の全ての領域が動領域を示す領域種別ラベルが割り当てられている場合には閾値Tを減少している。そして、ラベル割当部1411は、このような領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行している。
以下、ラベル割当部1411によるラベル割り当て処理の詳細について説明する。対象画像の点nの画素値をg1(n)、背景画像の点nの画素値をg2(n)とする。このとき、背景領域の差分値d(n)は、(41)式で表される。そして、ノイズがガウス分布N(0,σ2)に従うとすると、背景領域の差分値d(n)もガウス分布に従う。
これに対し、動領域の差分値は上記ガウス分布には従わない。点nが(42)式を満たせば、閾値T=1.96σ(σは定数)のときに95%の確率で背景領域であると考えられる。一方、点nが(42)式を満たさない場合には、動領域であると考えられる。
領域Kk内の平均差分値を(43)式で定義する。
ここで、N(k)は、領域内の画素数である。領域Kkが背景領域に属する場合には、中心極限定理より平均差分値は(44)式のガウス分布に従う。すなわち、精度が(45)式で示す倍率だけ向上することになる。従って、面積の大きい領域はそれだけラベリング精度が高くなることがわかる。
しかし、面積の小さい領域はそれほど精度が向上しない。そこで本実施の形態では、実施の形態1と同様に空間的な拘束条件を導入したラベル割り当て処理を行う。なお、本実施の形態では、実施の形態1と異なる手法のラベル割り当て処理を行う。
任意の領域の周囲がすべて背景領域であり領域種別ラベルα=0とラベル割り当てされている場合には、この領域も背景領域になると考えた方がラベル割り当てはより安定すると考えられる。一方、任意の領域の周囲がすべて動領域であり領域種別ラベルα=1とラベル割り当てされている場合には、この領域も動領域になると考えた方がラベル割り当てはより安定すると考えられる。以下ではこの概念を定式化する。
判定対象とする領域の周囲の領域が背景領域と判定されている場合には、任意の定数η>0に対して、(46)式を満たすようにすることによって、対象とする領域も背景領域と判定しやすくなる。すなわち、(46)式により、閾値Tの値が増加するので、(42)式により、判定対象の領域の画素の差分値d(n)が背景領域と判定される可能性が高くなる。
同様に、対象とする領域の周囲の領域が動領域と判定されている場合には、任意の定数β>0に対して、(47)式を満たすようにすることによって、対象とする領域も動領域と判定しやすくなる。すなわち、(46)式により、閾値Tの値が減少するので、(42)式により、判定対象の領域の画素の差分値d(n)が動領域と判定される可能性が高くなる。
ここで、η,βは、判定の対象とする領域の周囲の領域の状況によって決定されるべきである。従って、(46)、(47)式をまとめ、領域Kkに対する閾値Tを定義すると(48)式のようになる。
ここで、γ(k)は、領域Kkの周囲の領域に背景領域が多ければγ(k)>0、動領域が多ければγ(k)<0となるように定める。例えば、γ(k)の値の範囲を−σ≦γ
(k)≦σとすると、(49)式のように設計することができる。
判定対象の領域に隣接する領域の領域種別ラベルがすべて背景領域(α=0)の場合には、N(α=0)=B(k)、N(α=1)=0が成立するため、γ(k)=σとなる。
一方、判定対象の領域に隣接する領域の領域種別ラベルがすべて動領域(α=1)の場合には、N(α=1)=B(k)、N(α=0)=0でが成立するため、γ(k)=−σとなる。さらに、領域の隣接する領域において背景領域と動領域とが同数の場合には、N(α=0)=N(α=1)が成立するため、γ(k)=0となる。
従って、各領域に割り当てる領域種別ラベルをz(n)で示すと、実施の形態2にかかるラベル割当部1411は、(50)式により各領域に割り当てる領域種別ラベルz(n)を初期化し、領域の画素数が大きい順に以下の処理を行う。境界領域の数B(k)、判定対象の領域に隣接する領域の領域種別ラベルが背景領域である数N(α=0)、判定対象の領域に隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出し、(51)式によりγ(k)を算出し、(52)式の計算を行って、(53)式によりラベル値を求める。そして、(54)式により、求めたラベル値で領域に割り当てる領域種別ラベルz(n)を更新する。
動領域検出部1401は、ラベル割当部1411の結果、すなわち各領域に割り当てられた領域種別ラベルz(n)によって、対象画像の各領域の中から領域種別ラベルz(n)=0である動領域を検出する処理部である。
次に、以上のように構成された実施の形態2にかかる動領域検出処理について説明する。図15は、実施の形態2の動領域検出処理の手順を示すフローチャートである。
まず、カウント回数Lを1に初期化する(ステップS51)。そして、領域分割部1412によって、領域分割処理を行い(ステップS52)、対象画像のフレームを画素値に基づいた領域に分割(クラスタリング)する。
次いで、ラベル割当部1411によって、分割された領域に領域種別ラベルを割り当てるラベル割り当て処理を行う(ステップS53)。そして、カウント回数Lを1増加して(ステップS54)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS55)。
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS55:No)、ステップS52からS54までの処理を繰り返す。
一方、ステップS55において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS55:Yes)、領域に領域種別ラベルが割り当てられたことになり、動領域検出部1401によって、領域種別ラベルが0である領域を動領域として検出して(ステップS56)、検出結果を出力する。
次に、ステップS53によるラベル割り当て処理について説明する。図16は、実施の形態2にかかるラベル割り当て処理の手順を示すフローチャートである。
まず、ラベル割当部1411は、(50)式のように、領域に割り当てる領域種別ラベルz(n)を−1に初期化する(ステップS61)。そして、領域が大きい順、すなわち領域の画素数が大きい順に、領域Kを選択する(ステップS62)。このとき、同一画素数の領域が複数存在する場合には、領域の境界における画素数が小さい順にクラスタを選択する。
そして、境界領域の数B(k)、クラスタの隣接ラベルが背景領域である数N(α=0)、判定対象の領域の隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出する(ステップS63)。次に、(51)式によりγ(k)を算出し(ステップS64)、(52)式により平均差分値を算出する(ステップS65)。そして、(53)式によりラベル値を求めて(ステップS66)、(54)式により、求めたラベル値で領域種別ラベルz(n)を更新する(ステップS67)。
次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS68)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS68:No)、次に画素数が大きい領域を選択して(ステップS69)、ステップS63からS47までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。
このように実施の形態2にかかる動領域検出装置では、(51)〜(53)式により背景領域か動領域かを識別する領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行しているので、ノイズなどによらず、画像の領域毎に安定して背景領域と動領域のラベル割り当てをおこなうことが可能となり、画像全体に亘って最適なラベル割り当てをして画像処理を高精度に行うことができる。
(実施の形態3)
実施の形態3は、本発明の画像処理装置をステレオマッチング装置に適用したものである。
図17は、実施の形態3にかかるステレオマッチング装置1700の機能的構成図である。本実施の形態にかかるステレオマッチング装置1700は、左目用の第1視差画像と右目用の第2視差画像を入力し、2枚の視差画像を撮影し画像間の対応点から空間の奥行きを推定するものである。
本実施の形態にかかるステレオマッチング装置1700は、図17に示すように、領域分割部112と、ラベル割当部111と、対応点推定部1701と、フレームメモリ106と、メモリ103とを主に備えている。
本実施の形態では、メモリ103に予め複数のパラメトリックモデルが記憶されている。本実施の形態では、(55)式に示すパラメトリックモデルを予め記憶し、ラベル割当部111では、(55)式のパラメトリックモデルを用いてラベル割り当てを行っている点が実施の形態1と異なり、その他の処理については実施の形態と同様である。
ここで、n1は第1視差画像上の点の座標、n2は第2視差画像上の点の座標である。また、αはモデルパラメータであるとともに、パラメトリックモデルを識別するためのモデル識別ラベルである。すなわち、本実施の形態では、モデルパラメータとモデル識別ラベルとを同一のαとしている。
ステレオマッチングにおける空間の奥行きを推定するために、視差画像間の対応点(動き)を推定する。この場合、対応点の関係は左右の平行移動のみで近似できる場合が多い。例えば、左右の平行移動が0〜16の範囲で行われると予めわかっている場合には、平行移動量を{0,・・・,16}の範囲で設定することができる。本実施の形態では、モデルパラメータおよびモデル識別ラベルであるαを平行移動量として{0,・・・,16}の範囲で設定している。
対応点推定部1701は、ラベル割り当て処理の結果に基づいて視差画像間の対応点(動き)を推定する処理部である。
次に、以上のように構成された本実施の形態にかかるステレオマッチング処理について説明する。図18は、実施の形態3にかかるステレオマッチング処理の手順を示すフローチャートである。
まず、カウント回数Lを1に初期化する(ステップS71)。そして、領域分割部11
2によって、領域分割処理を行い(ステップS72)、第1視差画像のフレームを画素値に基づいた領域に分割(クラスタリング)し、各領域に領域ラベルを割り当てる。
次いで、ラベル割り当て部111によって、ラベル割り当て処理を行い(ステップS73)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS74)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS75)。
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS75:No)、ステップS72からS74までの処理を繰り返す。
一方、ステップS75において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS75:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、最適なパラメトリックモデルにより対応点を検出して(ステップS76)、対応点推定部1701によって空間の奥行きを推定する。
ここで、ステップS73におけるラベル割り当て処理については、(55)式のパラメトリックモデルを使用して実施の形態1と同様に行われる。
このように実施の形態3にかかるステレオマッチング装置1700では、(55)式のパラメトリックモデルを用い、(36)〜(39)式により最尤推定を行うことにより、クラスタが大きいときには最尤推定そのものを求め、クラスタが小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なラベル割り当てを行って、高精度に対応点を推定することでき、高精度に奥行きを推定可能となり、パラメトリックモデルを適用したステレオマッチング処理を高精度に行うことができる。
実施の形態1〜3の各装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)をインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、ROM等に予め組み込んで提供するように構成してもよい。
本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、上述した各部(局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から〜プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部が主記憶装置上に生成されるようになっている。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
実施の形態1にかかる動き推定装置の機能的構成を示すブロック図である。 一辺rの正方形クラスタ、4周辺クリークを示す模式図である。 クラスタの内部、境界のクリークの各個数とクラスタ内の全クリーク数に対する割合で示したグラフである。 クラスタと正則化エネルギーの関係を示す模式図である。 実施の形態1にかかる動き推定処理の手順を示すフローチャートである。 動きクラスタリング処理の手順を示すフローチャートである。 モデルパラメータ推定処理の手順を示すフローチャートである。 ラベル割り当て処理の手順を示すフローチャートである。 対象画像の例を示す説明図である。 参照画像の例を示す説明図である。 領域分割の結果を示す説明図である。 比較例としての従来の手法によるラベル割り当て処理結果を示す説明図である。 実施の形態1のラベル割り当て処理結果を示す説明図である。 実施の形態2にかかる動領域検出装置1400の機能的構成図である。 実施の形態2の動領域検出処理の手順を示すフローチャートである。 実施の形態2にかかるラベル割り当て処理の手順を示すフローチャートである。 実施の形態3にかかるステレオマッチング装置の機能的構成図である。 実施の形態3にかかるステレオマッチング処理の手順を示すフローチャートである。
符号の説明
100 動き推定装置
101 局所動き推定部
103 メモリ
106 フレームメモリ
107 モデル生成部
108 モデル定義部
109 クラスタリング処理部
110 パラメータ推定部
111,1411 ラベル割当部
112,1412 領域分割部
113 画像処理部
1400 動領域検出装置
1401 動領域検出部
1700 ステレオマッチング装置
1701 対応点推定部

Claims (14)

  1. 第1の画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、
    前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
    各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、
    を備えたことを特徴とする画像処理装置。
  2. 前記第1の画像の特徴に基づいて前記パラメトリックモデルを生成するモデル生成部を更に備えたことを特徴とする請求項1に記載の画像処理装置。
  3. 前記モデル生成部は、
    前記パラメトリックモデルを定義するモデル定義部と、
    前記第1の画像における各点の前記第2の画像上の対応点を分類して、分類した前記対応点ごとに、前記ラベル割り当ての初期値を付与するクラスタリング処理部と、
    前記モデル識別ラベルごとに、前記第1の画像上の各点と当該各点に対応する第2の画像上の対応点を最小の誤差で表すことのできる前記モデルパラメータを最小二乗法によって推定するパラメータ推定部と、
    を更に備えたことを特徴とする請求項2に記載の画像処理装置。
  4. 前記モデル定義部は、前記第1の画像から前記第2の画像への平面から平面への幾何変換を定義することにより前記パラメトリックモデルを定義すること特徴とする請求項3に記載の画像処理装置。
  5. 前記第1の画像と前記第2の画像の間の動き推定を行って、各点の対応点から前記第1の画像における各点の前記第2の画像上との点の動きベクトルを求める局所動き推定部をさらに備え、
    前記パラメトリックモデルは、前記モデル識別ラベルの領域における第1の画像における各点の前記第2の画像上との点の動きベクトルを求めるためのモデルであり、
    前記クラスタリング処理部は、前記局所動き推定部で求められた動きベクトルを分類して、分類した前記動きベクトルごとに前記ラベル割り当ての初期値を付与し、
    前記パラメータ推定部は、前記モデル識別ラベルごとに、前記パラメトリックモデルによって定められる前記動きベクトルと前記局所動き推定部によって求められた前記動きベクトルとに基づいて、前記モデルパラメータを推定し、
    前記画像処理部は、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像の前記第2の画像に対する動きを推定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記ラベル割当部は、前記画素数が同一の前記領域が複数存在する場合には、前記領域の境界における画素数が小さい順に前記ラベル割り当ての処理を実行することを特徴とする請求項1に記載の画像処理装置。
  7. 前記パラメトリックモデルを記憶する記憶部をさらに備え、
    前記モデルパラメータはあらかじめ問題に応じて設定されていることを特徴とする請求
    項1に記載の画像処理装置。
  8. 前記パラメトリックモデルは、前記第1の画像としての第1視差画像上の点に対して前記第2の画像としての第2視差画像上の点を求めるためのモデルであり、前記第1視差画像の点と当該点に対応する前記第2視差画像の点の水平移動量を前記モデルパラメータおよび前記モデル識別ラベルとして含むことを特徴とする請求項1に記載の画像処理装置。
  9. 動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、
    背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
    各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、
    を備えたことを特徴とする画像処理装置。
  10. 前記ラベル割当部は、前記対象画像の画素と前記背景画像の画素の差分値が予め定められた閾値以下の場合に、前記領域に前記背景領域の前記領域種別ラベルを割り当て、前記領域の周囲の全ての領域が前記背景領域を示す前記領域種別ラベルが割り当てられている場合には前記閾値を増加し、前記領域の周囲の全ての領域が前記動領域を示す前記領域種別ラベルが割り当てられている場合には前記閾値を増加することを特徴とする請求項9に記載の画像処理装置。
  11. 第1の画像を、それぞれが複数の画素を含む複数の領域に分割する工程と、
    前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
    各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める工程と、
    を含むことを特徴とする画像処理方法。
  12. 動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する工程と、
    背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
    各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する工程と、
    を含むことを特徴とする画像処理方法。
  13. 第1の画像を、それぞれが複数の画素を含む複数の領域に分割する手順と、
    前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のう
    ち画素数が多いものから順に実行する手順と、
    各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める手順と、
    をコンピュータに実行させる画像処理プログラム。
  14. 動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する手順と、
    背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する手順と、
    各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する手順と、
    をコンピュータに実行させる画像処理プログラム。
JP2006264359A 2006-09-28 2006-09-28 画像処理装置、方法およびプログラム Pending JP2008084076A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006264359A JP2008084076A (ja) 2006-09-28 2006-09-28 画像処理装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006264359A JP2008084076A (ja) 2006-09-28 2006-09-28 画像処理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2008084076A true JP2008084076A (ja) 2008-04-10

Family

ID=39354881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006264359A Pending JP2008084076A (ja) 2006-09-28 2006-09-28 画像処理装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2008084076A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277296A (ja) * 2009-05-28 2010-12-09 Secom Co Ltd 対象物検知装置
JP2010277431A (ja) * 2009-05-29 2010-12-09 Secom Co Ltd 対象物検出装置
WO2013073167A1 (ja) * 2011-11-17 2013-05-23 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
JP2017174414A (ja) * 2016-03-22 2017-09-28 株式会社東芝 画像の調整
CN110490027A (zh) * 2018-05-15 2019-11-22 触景无限科技(北京)有限公司 一种用于人脸识别的人脸特征提取训练方法及系统
KR20200075094A (ko) * 2018-12-10 2020-06-26 울산과학기술원 객체 분류기 생성 장치 및 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277296A (ja) * 2009-05-28 2010-12-09 Secom Co Ltd 対象物検知装置
JP2010277431A (ja) * 2009-05-29 2010-12-09 Secom Co Ltd 対象物検出装置
WO2013073167A1 (ja) * 2011-11-17 2013-05-23 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
CN103493093A (zh) * 2011-11-17 2014-01-01 松下电器产业株式会社 图像处理装置、摄像装置及图像处理方法
JPWO2013073167A1 (ja) * 2011-11-17 2015-04-02 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置および画像処理方法
US9153066B2 (en) 2011-11-17 2015-10-06 Panasonic Intellectual Property Management Co. Ltd. Image processing device, imaging device, and image processing method
JP2017174414A (ja) * 2016-03-22 2017-09-28 株式会社東芝 画像の調整
CN110490027A (zh) * 2018-05-15 2019-11-22 触景无限科技(北京)有限公司 一种用于人脸识别的人脸特征提取训练方法及系统
CN110490027B (zh) * 2018-05-15 2023-06-16 触景无限科技(北京)有限公司 人脸特征提取训练方法及系统
KR20200075094A (ko) * 2018-12-10 2020-06-26 울산과학기술원 객체 분류기 생성 장치 및 방법
KR102180054B1 (ko) * 2018-12-10 2020-11-17 울산과학기술원 객체 분류기 생성 장치 및 방법

Similar Documents

Publication Publication Date Title
US8948448B2 (en) Method and apparatus for trajectory estimation, and method for segmentation
JP4740657B2 (ja) カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス
US8605795B2 (en) Video editing methods and systems
JP2011034178A (ja) 画像処理装置および画像処理方法、並びにプログラム
US20060193535A1 (en) Image matching method and image interpolation method using the same
JP2020516427A (ja) 腫瘍進行のrecist評価
CN105513070A (zh) 一种基于前景背景优化的rgb-d显著物体检测方法
JP2016095849A (ja) 前景画像分割方法及び装置、プログラム、並びに記録媒体
CN107369131B (zh) 图像的显著性检测方法、装置、存储介质和处理器
CN109598735A (zh) 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备
JP2012032370A (ja) 欠陥検出方法、欠陥検出装置、学習方法、プログラム、及び記録媒体
JP6100300B2 (ja) 階層グラフに基づく画像マッティングおよび前景推定の方法およびシステム
JP2010218051A (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
US20160117573A1 (en) Method and apparatus for extracting feature correspondences from multiple images
JP2008084076A (ja) 画像処理装置、方法およびプログラム
CN111931603B (zh) 基于竞合网络的双流卷积网络的人体动作识别系统及方法
US7522749B2 (en) Simultaneous optical flow estimation and image segmentation
CN106157330A (zh) 一种基于目标联合外观模型的视觉跟踪方法
CN110930413A (zh) 一种基于弱监督多核分类优化合并的图像分割方法
JP3716455B2 (ja) 領域抽出方法及び領域抽出装置
US10580127B2 (en) Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium
JP5896661B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
US8478032B2 (en) Segmenting an image
Jiang et al. An optimized higher order CRF for automated labeling and segmentation of video objects
JP2012118923A (ja) 領域分割装置及び領域分割方法