JP4482779B2 - Image processing apparatus, image processing method, and recording medium - Google Patents
Image processing apparatus, image processing method, and recording medium Download PDFInfo
- Publication number
- JP4482779B2 JP4482779B2 JP2000274767A JP2000274767A JP4482779B2 JP 4482779 B2 JP4482779 B2 JP 4482779B2 JP 2000274767 A JP2000274767 A JP 2000274767A JP 2000274767 A JP2000274767 A JP 2000274767A JP 4482779 B2 JP4482779 B2 JP 4482779B2
- Authority
- JP
- Japan
- Prior art keywords
- screen
- image
- object extraction
- history
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置および画像処理方法、並びに記録媒体に関し、特に、例えば、容易な操作で、的確なオブジェクト抽出を行うことができるようにする画像処理装置および画像処理方法、並びに記録媒体に関する。
【0002】
【従来の技術】
画像から、いわゆる前景等となっている物体の部分であるオブジェクトを抽出する方法としては、様々な手法が提案されている。
【0003】
即ち、例えば、特開平10−269369号公報には、あるフレームについて、オブジェクトの輪郭を検出することにより、オブジェクトを抽出し、その次のフレームについては、前のフレームのオブジェクトの周辺を探索して、オブジェクトの輪郭を検出し、さらに、その検出結果に基づいて、オブジェクトを抽出することを繰り返す方法が記載されている。
【0004】
【発明が解決しようとする課題】
しかしながら、注目している注目フレームからの輪郭の検出を、その前のフレームのオブジェクトの周辺に制限して行うと、注目フレームにおいて、オブジェクトが大きく変形した場合や移動した場合に、そのオブジェクトの輪郭の検出を誤る可能性が高くなり、的確なオブジェクト抽出が困難となる。
【0005】
一方、例えば、ユーザに、各フレームごとに、オブジェクトの輪郭を指定してもらい、その指定された輪郭に基づいて、オブジェクトを抽出するのでは、ユーザの操作負担が大になる。
【0006】
本発明は、このような状況に鑑みてなされたものであり、容易な操作で、的確なオブジェクト抽出を行うことができるようにするものである。
【0007】
【課題を解決するための手段】
本発明の一側面の画像処理装置、又は、記録媒体は、画像から所定のオブジェクトを抽出する画像処理装置であって、注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出手段と、前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択手段と、前記選択手段において選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映手段と、前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出に用いられた処理の内容である処理履歴と、ユーザからの入力に基づいて、注目画面からオブジェクトを抽出する処理の内容を決定する決定手段と、前記処理履歴を記憶する処理履歴記憶手段とを備え、前記複数の処理は、異なる閾値を用いた処理であり、前記履歴情報は、前記オブジェクトを構成する画素ごとの、前記オブジェクトの抽出に用いられた閾値を含み、前記決定手段は、前記ユーザが入力した前記注目画面の所定の点を、前記注目画面と前記注目画面より時間的に前に処理された前画面との間の動きベクトルによって補正することにより、前記注目画面の所定の点に対応する、前記前画面の点を求め、前記前画面についての前記処理履歴に基づいて、前記注目画面の所定の点に対応する、前記前画面の点の画素がオブジェクトとして抽出されたときに用いられた所定の閾値を取得し、前記所定の閾値と、前記所定の閾値を用いた所定の演算により求められる値とを、前記注目画面の所定の点を含むオブジェクトを抽出する複数の処理に用いられる閾値に決定する画像処理装置、又は、画像処理装置として、コンピュータを機能させるためのプログラムが記録されている記録媒体である。
【0008】
本発明の一側面の画像処理方法は、画像から所定のオブジェクトを抽出する画像処理方法であって、注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出ステップと、前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択ステップと、前記選択ステップにおいて選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映ステップと、前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出に用いられた処理の内容である処理履歴と、ユーザからの入力に基づいて、注目画面からオブジェクトを抽出する処理の内容を決定する決定ステップと、前記処理履歴を記憶する処理履歴記憶ステップとを備え、前記複数の処理は、異なる閾値を用いた処理であり、前記履歴情報は、前記オブジェクトを構成する画素ごとの、前記オブジェクトの抽出に用いられた閾値を含み、前記決定ステップでは、前記ユーザが入力した前記注目画面の所定の点を、前記注目画面と前記注目画面より時間的に前に処理された前画面との間の動きベクトルによって補正することにより、前記注目画面の所定の点に対応する、前記前画面の点を求め、前記前画面についての前記処理履歴に基づいて、前記注目画面の所定の点に対応する、前記前画面の点の画素がオブジェクトとして抽出されたときに用いられた所定の閾値を取得し、前記所定の閾値と、前記所定の閾値を用いた所定の演算により求められる値とを、前記注目画面の所定の点を含むオブジェクトを抽出する複数の処理に用いられる閾値に決定する画像処理方法である。
【0010】
本発明の一側面においては、注目している注目画面の画像から、複数の処理によってオブジェクトが抽出され、前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものが、ユーザからの入力に基づいて選択されて、その選択されたオブジェクト抽出結果が、最終的なオブジェクト抽出結果に反映される。また、前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出に用いられた処理の内容である処理履歴と、ユーザからの入力に基づいて、注目画面からオブジェクトを抽出する処理の内容が決定される一方、前記処理履歴が記憶される。なお、前記複数の処理は、異なる閾値を用いた処理であり、前記履歴情報には、前記オブジェクトを構成する画素ごとの、前記オブジェクトの抽出に用いられた閾値が含まれる。この場合に、前記ユーザが入力した前記注目画面の所定の点を、前記注目画面と前記注目画面より時間的に前に処理された前画面との間の動きベクトルによって補正することにより、前記注目画面の所定の点に対応する、前記前画面の点が求められ、前記前画面についての前記処理履歴に基づいて、前記注目画面の所定の点に対応する、前記前画面の点の画素がオブジェクトとして抽出されたときに用いられた所定の閾値が取得される。そして、前記所定の閾値と、前記所定の閾値を用いた所定の演算により求められる値とが、前記注目画面の所定の点を含むオブジェクトを抽出する複数の処理に用いられる閾値に決定される。
【0011】
【発明の実施の形態】
図1は、本発明を適用した画像処理装置の一実施の形態のハードウェア構成例を示している。
【0012】
この画像処理装置は、コンピュータをベースに構成されており、コンピュータには、後述するようなオブジェクト抽出を行うための一連の処理を実行するプログラム(以下、適宜、オブジェクト抽出処理プログラムという)がインストールされている。
【0013】
なお、画像処理装置は、このように、コンピュータにプログラムを実行させることによって構成する他、それ専用のハードウェアにより構成することも可能である。
【0014】
ここで、オブジェクト抽出処理プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録される。
【0015】
あるいはまた、オブジェクト抽出処理プログラムは、フロッピーディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体111に、一時的あるいは永続的に格納(記録)される。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。
【0016】
なお、オブジェクト抽出処理プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるオブジェクト抽出処理プログラムを、通信部108で受信し、内蔵するハードディスク105にインストールすることができる。
【0017】
コンピュータは、CPU(Central Processing Unit)102を内蔵している。CPU102には、バス101を介して、入出力インタフェース110が接続されており、CPU102は、入出力インタフェース110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)103に格納されているオブジェクト抽出処理プログラムを実行する。あるいは、また、CPU102は、ハードディスク105に格納されているオブジェクト抽出処理プログラム、衛星若しくはネットワークから転送され、通信部108で受信されてハードディスク105にインストールされたオブジェクト抽出処理プログラム、またはドライブ109に装着されたリムーバブル記録媒体111から読み出されてハードディスク105にインストールされたオブジェクト抽出処理プログラムを、RAM(Random Access Memory)104にロードして実行する。これにより、CPU102は、後述するようなフローチャートにしたがった処理、あるいは後述するブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
【0018】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0019】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0020】
図2は、図1の画像処理装置の機能的構成例を示している。なお、この機能的構成は、図1のCPU102がオブジェクト抽出処理プログラムを実行することによって実現される。
【0021】
ストレージ1は、オブジェクトを抽出する対象の動画の画像データを記憶する。また、ストレージ1は、処理制御部7から供給される、後述するような各フレームの履歴情報等も記憶する。
【0022】
注目フレーム処理部2は、ストレージ1に記憶された画像データの所定のフレームを注目フレームとして、その注目フレームの画像データを読み出し、処理制御部7からの制御にしたがい、注目フレームに関する処理を行う。
【0023】
即ち、注目フレーム処理部2は、注目フレームバッファ21、背景バッファ22、オブジェクトバッファ23、およびセレクタ24等から構成されている。注目フレームバッファ21は、ストレージ1から読み出された注目フレームの画像データを記憶する。背景バッファ22は、注目フレームバッファ21に記憶された注目フレームの画像のうち、後述するオブジェクトバッファ23に記憶された部分以外の残りを、背景画像として記憶する。オブジェクトバッファ23は、後述するオブジェクト抽出部3で抽出される注目フレームのオブジェクトを記憶する。セレクタ24は、注目フレームバッファ21に記憶された注目フレーム、背景バッファ22に記憶された背景画像、またはオブジェクトバッファ23に記憶されたオブジェクトのうちのいずれか1つを選択し、表示部5に供給する。
【0024】
オブジェクト抽出部3は、処理制御部7の制御にしたがい、注目フレームバッファ21に記憶された注目フレームから、複数の処理によってオブジェクトを抽出する。
【0025】
即ち、オブジェクト抽出部3は、境界検出部31、切り出し部32、および結果処理部33等から構成されている。境界検出部31は、注目フレームバッファ21に記憶された注目フレームの画像の境界部分を検出し、その境界部分と、境界部分でない部分(以下、適宜、非境界部分という)とを表す2値で構成される、複数種類(ここでは、例えば、3種類)の境界画像を作成する。切り出し部32は、境界検出部31において作成された3つの境界画像を参照し、注目フレームバッファ21に記憶された注目フレームから、オブジェクトを構成する領域を切り出す。さらに、切り出し部32は、3つの出力バッファ32A乃至32Cを有しており、3種類の境界画像を参照して切り出した領域を、出力バッファ32A乃至32Cにそれぞれ記憶させる。結果処理部33は、切り出し部32が有する3つの出力バッファ32A乃至32Cに対応して、3つの結果バッファ33A乃至33Cを有しており、オブジェクトバッファ23に記憶されたオブジェクトの抽出結果に、出力バッファ32A乃至32Cの記憶内容それぞれを合成して、その3つの合成結果を、結果バッファ33A乃至33Cにそれぞれ記憶させる。さらに、結果処理部33は、ユーザがマウス9を操作することによって与えられる入力に基づいて、結果バッファ33A乃至33Cの記憶内容のうちのいずれかを選択し、オブジェクトバッファ23の記憶内容に反映させる。
【0026】
履歴管理部4は、処理制御部7の制御の下、履歴情報を管理する。
【0027】
即ち、履歴管理部4は、指定位置記憶部41、履歴画像記憶部42、およびパラメータテーブル記憶部43等から構成されている。指定位置記憶部41は、ユーザがマウス9を操作することにより入力した注目フレーム上の位置の座標の履歴を記憶する。履歴画像記憶部42は、オブジェクト抽出部42における処理の内容の履歴を表す履歴画像を記憶し、パラメータテーブル記憶部43は、その履歴画像を構成する画素値としてのIDに対応付けて、オブジェクト抽出部3における処理の内容を表すパラメータを記憶する。即ち、パラメータテーブル記憶部43は、オブジェクト抽出部3における処理の内容を表すパラメータを、ユニークなIDと対応付けて記憶する。そして、履歴画像記憶部42は、オブジェクトを構成する画素ごとに、オブジェクトを構成する画素として抽出するのに用いた処理の内容に対応するIDを記憶する。従って、オブジェクトを構成するある画素を、オブジェクトとして抽出するのに用いた処理の内容は、その画素の履歴画像における画素値としてのIDに対応付けられている、パラメータテーブル記憶部43のパラメータを参照することで認識することができる。
【0028】
ここで、履歴画像記憶部42には、上述のように、画素をオブジェクトとして抽出したときの処理の内容を表すパラメータに対応付けられているIDを、画素値として、そのような画素値で構成される画像が記憶されるため、その画像は、オブジェクト抽出に用いた処理の内容の履歴を表していることから、履歴画像と呼んでいる。また、以下、適宜、指定位置記憶部41、履歴画像記憶部42、およびパラメータテーブル記憶部43における記憶内容をまとめて、履歴情報という。
【0029】
なお、指定位置記憶部41、履歴画像記憶部42、およびパラメータテーブル記憶部43は、少なくとも2つのバンクを有しており、バンク切り替えによって、注目フレームと、その注目フレームの1フレーム前のフレーム(前フレーム)についての履歴情報を記憶することができるようになっている。
【0030】
表示部5は、セレクタ24が出力する画像(注目フレームの画像、背景画像、またはオブジェクト)と、結果処理部33の結果バッファ33A乃至33Cに記憶された画像を表示する。
【0031】
動き検出部6は、処理制御部7の制御の下、注目フレームの画像の、前フレームの画像を基準とする動きベクトルを検出し、処理制御部7に供給する。
【0032】
即ち、動き検出部6は、前フレームバッファ61を内蔵しており、ストレージ1から、前フレームの画像データを読み出し、前フレームバッファ61に記憶させる。そして、動き検出部6は、前フレームバッファ61に記憶された前フレームの画像データと、注目フレーム処理部2の注目フレームバッファ21に記憶された注目フレームの画像データとを対象としたブロックマッチング等を行うことにより、動きベクトルを検出して、処理制御部7に供給する。
【0033】
処理制御部7は、イベント検出部8から供給されるイベント情報等に基づき、注目フレーム処理部2、オブジェクト抽出部3、履歴管理部4、および動き検出部6を制御する。さらに、処理制御部7は、イベント検出部8から供給されるイベント情報や、履歴管理部4で管理されている履歴情報に基づいて、オブジェクト抽出部3における処理の内容を決定し、その決定結果に基づいて、オブジェクト抽出部3にオブジェクトを抽出させる。また、処理制御部7は、位置補正部71を内蔵しており、イベント検出部8からイベント情報として供給される注目フレームの画像上の位置の情報や、履歴管理部4の指定位置記憶部41に記憶された位置の情報等を、動き検出部6からの動きベクトルにしたがって補正する。この補正された位置の情報は、後述するように、オブジェクト抽出部3に供給され、オブジェクトの抽出に用いられる。あるいは、また、履歴管理部41に供給され、指定位置記憶部41で記憶される。
【0034】
イベント検出部8は、ユーザがマウス9を操作することにより発生するイベントを検出し、そのイベントの内容を表すイベント情報を、処理制御部7に供給する。
【0035】
マウス9は、表示部5に表示された画像上の位置を指定する場合や、所定のコマンドを装置に与える場合等に、ユーザによって操作される。
【0036】
次に、図3は、表示部5における画面の表示例を示している。
【0037】
オブジェクト抽出処理プログラムが実行されると、表示部5には、図3に示すような横と縦がそれぞれ2分割されたウインドウが表示される。
【0038】
この4分割されたウインドウにおいて、左上の画面は、基準画面とされており、右上、左下、右下の画面は、それぞれ結果画面#1,#2,#3とされている。
【0039】
基準画面には、セレクタ24が出力する画像が表示される。上述したように、セレクタ24は、注目フレームバッファ21に記憶された注目フレーム、背景バッファ22に記憶された背景画像、またはオブジェクトバッファ23に記憶されたオブジェクトのうちのいずれか1つを選択し、表示部5に供給するので、基準画面には、注目フレームの画像(原画像)、オブジェクト、または背景のうちのいずれかが表示される。表示部5に、上述のいずれの画像を表示させるかは、ユーザが、マウス9を操作することにより切り替えることができるようになっている。図3の実施の形態においては、背景バッファ22に記憶された背景画像、即ち、原画像から、オブジェクトバッファ23にオブジェクトとして取り込まれた画像を除いた画像が、基準画面に表示されている。なお、基準画面において斜線を付してある部分が、現在、オブジェクトバッファ23に取り込まれている部分を表している(以下、同様)。
【0040】
また、基準画面の左下には、チェンジディスプレイ(Change Display)ボタン201、ユースレコード(Use Record)ボタン202、デリートパートリィ(Delete Partly)ボタン203、およびアンドゥ(Undo)ボタン204が設けられている。
【0041】
チェンジディスプレイボタン201には、基準画面に表示させる画像を切り替えるときに操作される。即ち、セレクタ24は、チェンジディスプレイボタン201がマウス9でクリックされるごとに、注目フレームバッファ21、背景バッファ22、オブジェクトバッファ23の出力を、いわば巡回的に選択し、その結果、基準画面に表示される画像が、原画像、オブジェクト、背景の順に、巡回的に切り替えられる。
【0042】
ユースレコードボタン202は、注目フレームバッファ21に記憶された注目フレームからオブジェクトを抽出するのに、履歴管理部4に記憶されている履歴情報を利用するかどうかを設定するときに操作される。即ち、ユースレコードボタン202がマウス9でクリックされると、基準画面には、履歴情報の利用を許可するかどうか等を設定するためのプルダウンメニューが表示されるようになっている。なお、本実施の形態では、基本的に、履歴情報の利用が許可されているものとする。
【0043】
デリートパートリィボタン203は、オブジェクトバッファ23に、オブジェクトとして記憶された画像の一部を削除する(オブジェクトから背景に戻す)ときに操作される。即ち、ユーザがマウス9を操作することにより、基準画面に表示されたオブジェクトの所定の部分を範囲指定した後、デリートパートリィボタン203をマウス9でクリックすると、その範囲指定されたオブジェクトの所定の部分が、オブジェクトバッファ23から削除される。従って、デリートパートリィボタン203は、例えば、オブジェクトバッファ23に、背景の一部が、オブジェクトとして取り込まれた場合に、その背景部分を、オブジェクトから削除するような場合に使用される。
【0044】
アンドゥボタン204は、結果処理部33の結果バッファ33A乃至33Cから、オブジェクトバッファ23に、オブジェクトとして取り込まれた画像のうち、前回取り込まれた部分を削除するときに操作される。従って、アンドゥボタン204が操作されると、オブジェクトバッファ23に記憶された画像は、結果バッファ33A乃至33Cから画像が取り込まれる直前の状態に戻る。なお、オブジェクトバッファ23は、複数バンクを有しており、結果バッファ33A乃至33Cから画像が取り込まれる直前の状態を、少なくとも保持している。そして、アンドゥボタン204が操作された場合には、オブジェクトバッファ23は、直前に選択していたバンクへのバンク切り替えを行うことにより、セレクタ24に出力する画像を切り替える。
【0045】
結果画面#1乃至#3には、注目フレームから、異なる処理で抽出されたオブジェクトが記憶された結果バッファ33A乃至33Cの記憶内容、即ち、3つの異なる処理で行われたオブジェクト抽出の結果がそれぞれ表示される。また、結果画面#1乃至#3それぞれの左下には、ランクリザルト(Rank Result)ボタン206、グラブオール(Grab All)ボタン207、およびグラブパートリィ(Grab Partly)ボタン208が設けられている。
【0046】
ランクリザルトボタン206は、結果画面#1乃至#3に表示されたオブジェクト抽出結果の順位付けを行うときに操作される。即ち、結果画面#1乃至#3それぞれのランクリザルトボタン206を、ユーザがマウス9を操作することにより、オブジェクト抽出結果として好ましいと考える順番でクリックすると、そのクリック順に、結果画面#1乃至#3に表示されたオブジェクト抽出結果に対して、順位付けが行われる。そして、オブジェクト抽出部3では、その順位付けに基づいて、再度、オブジェクトの抽出が行われ、そのオブジェクト抽出結果が、結果画面#1乃至#3に表示される。
【0047】
グラブオールボタン207は、結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかを、オブジェクトバッファ23に反映する(取り込む)ときに操作される。即ち、ユーザがマウス9を操作することにより、結果画面#1乃至#3のうちの、好ましいと考えるオブジェクト抽出結果が表示されているもののグラブオールボタン207をクリックすると、その結果画面に表示されたオブジェクト抽出結果を記憶している結果バッファの記憶内容のすべてが選択され、オブジェクトバッファ23に反映される。
【0048】
グラブパートリィボタン208は、結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかの一部を、オブジェクトバッファ23に反映する(取り込む)ときに操作される。即ち、ユーザがマウス9を操作することにより、結果画面#1乃至#3のうちの、好ましいと考えるオブジェクト抽出結果の一部分を範囲指定した後、グラブパートリィボタン208をマウス9でクリックすると、その範囲指定されたオブジェクト抽出結果の一部分が選択され、オブジェクトバッファ23に反映される。
【0049】
次に、図4のフローチャートを参照して、図2の画像処理装置の処理の概要について説明する。
【0050】
ユーザがマウス9を操作することにより、何らかのイベントが生じると、イベント検出部8は、ステップS1において、そのイベントの内容を判定する。
【0051】
ステップS1において、イベントが、表示部5の基準画面に表示させる画像を切り替える「画面選択」を指示するものであると判定された場合、即ち、チェンジディスプレイボタン201(図3)がクリックされた場合、イベント検出部8は、「画面選択」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「画面選択」を表すイベント情報を受信すると、ステップS2に進み、注目フレーム処理部2のセレクタ24を制御し、処理を終了する。
【0052】
これにより、セレクタ24は、注目フレームバッファ21、背景バッファ22、またはオブジェクトバッファ23の出力の選択を切り替え、その結果、基準画面に表示される画像が、図5に示すように、注目フレームバッファ21に記憶された注目フレームの原画像、背景バッファ22に記憶された背景画像、またはオブジェクトバッファ23に記憶されたオブジェクトのうちのいずれかに切り替えられる。
【0053】
また、ステップS1において、イベントが、オブジェクトバッファ23に直前反映された画像を削除する「アンドゥ」を指示するものであると判定された場合、即ち、アンドゥボタン204がクリックされた場合、イベント検出部8は、「アンドゥ」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「アンドゥ」を表すイベント情報を受信すると、ステップS3に進み、注目フレーム処理部2のオブジェクトバッファ23を制御し、オブジェクトバッファ23に直前に反映されたオブジェクトの部分を削除させ、ステップS4に進む。
【0054】
ステップS4では、処理制御部7は、履歴管理部41を制御することにより、ステップS3でオブジェクトバッファ23から削除された画像に関する履歴情報を削除させ、処理を終了する。
【0055】
即ち、オブジェクトバッファ23に、オブジェクトとなる画像が反映された(取り込まれた)場合、後述するように、その反映された画像に関して、履歴管理部4で管理されている履歴情報が更新される。このため、オブジェクトバッファ23から画像が削除された場合には、その削除された画像に関する履歴情報が削除される。
【0056】
一方、ステップS1において、イベントが、オブジェクトバッファ23に反映された画像の一部分を削除する「部分削除」を指示するものであると判定された場合、即ち、所定の範囲が指定され、さらに、デリートパートリィボタン203がクリックされた場合、イベント検出部8は、「部分削除」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「部分削除」を表すイベント情報を受信すると、ステップS5に進み、注目フレーム処理部2のオブジェクトバッファ23を制御し、オブジェクトバッファ23にオブジェクトとして記憶された画像のうちの、範囲指定された部分を削除させ、ステップS4に進む。
【0057】
ステップS4では、処理制御部7は、履歴管理部41を制御することにより、ステップS5でオブジェクトバッファ23から削除された画像に関する履歴情報を削除させ、処理を終了する。
【0058】
従って、例えば、図6(A)に示すように、オブジェクトバッファ23に、人間の胴体部分を表すオブジェクトobj1が記憶されているとともに、背景バッファ22に、人間の頭部を表すオブジェクトobj2とともに、風景等の背景が記憶されている場合において、オブジェクト抽出部3において、人間の頭部を表すオブジェクトobj2が抽出され、オブジェクトバッファ23に反映されると、図6(B)に示すように、オブジェクトバッファ23の記憶内容は、オブジェクトobj1とobj2となり、背景バッファ22の記憶内容は、風景等の背景部分のみとなる。
【0059】
この場合に、ユーザが、マウス9で、アンドゥボタン204をクリックすると、図6(C)に示すように、オブジェクトバッファ23の記憶内容は、人間の頭部を表すオブジェクトobj2が反映される前の、人間の胴体部分を表すオブジェクトobj1だけが記憶されている状態に戻り、背景バッファ22の記憶内容も、人間の頭部を表すオブジェクトobj2とともに、風景等の背景が記憶されている状態に戻る。即ち、背景バッファ22およびオブジェクトバッファ23の記憶内容は、図6(A)に示した状態に戻る。
【0060】
また、ユーザが、マウス9を操作することにより、例えば、図6(B)に示すように、人間の頭部を表すオブジェクトobj2の一部を範囲指定し、さらに、デリートパートリィボタン203をクリックすると、図6(D)に示すように、オブジェクトバッファ23の記憶内容は、オブジェクトobj2のうちの、範囲指定された部分が削除された状態となり、背景バッファ22の記憶内容は、その範囲指定された部分が、風景等の背景部分に加えられた状態になる。
【0061】
一方、ステップS1において、イベントが、基準画面または結果画面#1乃至#3のうちのいずれかに表示された画像上の位置を指定する「位置指定」を表すものであると判定された場合、即ち、例えば、図7に示すように、ユーザがマウス9を操作することにより、基準画面に表示された原画像や背景画像におけるオブジェクトのある位置をクリックした場合、イベント検出部8は、「位置指定」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「位置指定」を表すイベント情報を受信すると、ステップS6に進み、マウス9でクリックされた位置等に基づいて、オブジェクト抽出部3に行わせる3つのオブジェクト抽出処理の内容を決定し、その3つのオブジェクト抽出処理によりオブジェクトの抽出を行うように、オブジェクト抽出部3を制御する。
【0062】
これにより、オブジェクト抽出部3は、ステップS7において、3つのオブジェクト抽出処理を行い、その結果得られる3つのオブジェクト抽出結果を、結果処理部33の結果バッファ33A乃至33Cに、それぞれ記憶させる。
【0063】
そして、ステップS8に進み、表示部5は、結果バッファ33A乃至33Cに記憶されたオブジェクト抽出結果を、結果画面#1乃至#3にそれぞれ表示し、処理を終了する。
【0064】
また、ステップS1において、イベントが、結果画面#1乃至#3それぞれに表示されたオブジェクト抽出結果の(良好さの)順位を指定する「順位指定」を表すものであると判定された場合、即ち、結果画面#1乃至#3それぞれに表示されたランクリザルトボタン206が、所定の順番でクリックされた場合、イベント検出部8は、「順位指定」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「順位指定」を表すイベント情報を受信すると、ステップS6に進み、「順位指定」によって指定された順位に基づいて、オブジェクト抽出部3に行わせる3つのオブジェクト抽出処理の内容を決定し、その3つのオブジェクト抽出処理によりオブジェクトの抽出を行うように、オブジェクト抽出部3を制御する。そして、以下、ステップS7,S8に順次進み、上述した場合と同様の処理が行われる。
【0065】
一方、ステップS1において、イベントが、結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかを選択し、その全部または一部を、オブジェクトバッファ23に反映する「全取得」または「部分取得」を表すものであると判定された場合、即ち、結果画面#1乃至#3のうちのいずれかのグラブオールボタン207がクリックされた場合、または結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかの一部が範囲指定され、さらに、グラブパートリィボタン208がクリックされた場合、イベント検出部8は、「全取得」または「部分取得」を表すイベント情報を、処理制御部7に供給し、処理制御部7は、「全取得」または「部分取得」を表すイベント情報を受信すると、ステップS9に進む。
【0066】
ステップS9では、処理制御部7が、オブジェクト抽出部3の結果処理部33を制御することにより、結果画面#1乃至#3のうちの、グラブオールボタン207がクリックされたものに対応する結果バッファに記憶されたオブジェクト抽出結果の全体を選択させ、オブジェクトバッファ23に反映させる(記憶させる)。あるいは、また、ステップS9では、処理制御部7が、オブジェクト抽出部3の結果処理部33を制御することにより、結果画面#1乃至#3のうちの、グラブパートリィボタン208がクリックされたものに対応する結果バッファに記憶されたオブジェクト抽出結果のうちの範囲指定された部分を選択させ、オブジェクトバッファ23に反映させる。
【0067】
従って、例えば、オブジェクトバッファ23の記憶内容が、図8(A)に示すようなものであり、ある結果画面#iに対応する結果バッファに記憶されたオブジェクト抽出結果が、図8(B)に示すようなものである場合において、結果画面#iに表示されたグラブオールボタン207が操作されたときには、オブジェクトバッファ23の記憶内容は、図8(C)に示すように、図8(B)に示した結果バッファに記憶されたオブジェクト抽出結果に更新(上書き)される。
【0068】
また、結果画面#iに表示されたオブジェクト抽出結果のうちの一部が、図8B)に長方形で囲んで示すように範囲指定され、さらに、結果画面#iに表示されたグラブパートリィボタン208が操作されたときには、オブジェクトバッファ23の記憶内容は、図8(D)に示すように、図8(A)に示したオブジェクトに、図8(B)に示した範囲指定された部分のオブジェクト抽出結果を加えた(合成した)ものに更新される。
【0069】
そして、ステップS10に進み、処理制御部7は、履歴管理部4を制御することにより、ステップS9でオブジェクトバッファ23に反映させた画像に関して、履歴情報を更新させ、処理を終了する。
【0070】
以上のように、3つのオブジェクト抽出処理によるオブジェクト抽出結果が結果画面#1乃至#3にそれぞれ表示され、ユーザが、結果画面#1乃至#3のうちのいずれかにおけるグラブオールボタン207またはグラブパートリィボタン208をクリックすると、その結果画面に表示されたオブジェクト抽出結果が、オブジェクトバッファ23に反映される。従って、ユーザは、結果画面#1乃至#3に表示された異なるオブジェクト抽出処理によるオブジェクト抽出結果を見て、良好なものを選択する操作をするだけで良く、さらに、オブジェクトバッファ23には、異なるオブジェクト抽出処理により得られたオブジェクト抽出結果のうち、ユーザが良好であると判断して選択したものが反映される。その結果、容易な操作で、的確なオブジェクト抽出を行うことができる。
【0071】
また、結果画面#1乃至#3には、それぞれ異なる処理によって抽出されたオブジェクトが表示されるが、ある処理によるオブジェクト抽出結果が、全体としては、それほど良好でなくても、その一部についてだけ見れば、良好な場合がある。この場合、その一部を範囲指定して、グラブパートリィボタン208をクリックすることにより、その良好に抽出されているオブジェクトの一部分を、オブジェクトバッファ23に反映させることができ、その結果、最終的には、オブジェクトバッファ23に、良好なオブジェクト抽出結果が記憶されることになる。
【0072】
一方、ステップS1において、イベントが、注目フレームからの最終的なオブジェクト抽出結果を、オブジェクトバッファ23に記憶された画像に確定する「確定」を表すものであると判定された場合、イベント検出部8は、「確定」を表すイベント情報を、処理制御部7に供給する。
【0073】
処理制御部7は、「確定」を表すイベント情報を受信すると、ステップS11に進み、注目フレーム処理部2から、オブジェクトバッファ23に記憶された注目フレームのオブジェクトを読み出すとともに、履歴管理部4から、注目フレームについての履歴情報を読み出し、ストレージ1に供給して記憶させる。そして、ステップS12に進み、処理制御部7は、ストレージ1に、注目フレームの次のフレームが記憶されているかどうかを判定し、記憶されていないと判定した場合、ステップS13およびS14をスキップして、処理を終了する。
【0074】
また、ステップS12において、ストレージ1に、注目フレームの次のフレームが記憶されていると判定された場合、ステップS13に進み、処理制御部7は、その、次のフレームを、新たに注目フレームとし、注目フレームバッファ21に供給して記憶させる。さらに、処理制御部7は、背景バッファ22、結果バッファ33A乃至33C、前フレームバッファ61の記憶内容をクリアして、ステップS14に進む。ステップS14では、処理制御部7の制御の下、ステップS13で注目フレームバッファ21に新たに記録された注目フレームについて、後述するような初期抽出処理が行われ、処理を終了する。
【0075】
次に、図2のオブジェクト抽出部3が行うオブジェクト抽出処理について説明する。
【0076】
本実施の形態では、オブジェクト抽出部3は、基本的に、注目フレームにおける境界部分を検出し、その境界部分で囲まれる領域を、オブジェクトとして抽出するようになっている。
【0077】
即ち、図9は、オブジェクト抽出部3の境界検出部31の構成例を示している。
【0078】
HSV分離部211は、注目フレームバッファ21に記憶された注目フレームを読み出し、その画素値を、H(色相),S(彩度),V(明度)の各成分に分離する。即ち、注目フレームの画素値が、例えば、RGB(Red, Green, Blue)で表現されている場合、HSV分離部211は、例えば、次式にしたがって、RGBの画素値を、HSVの画素値に変換する。
【0079】
V=max(R,G,B)
X=min(R,G,B)
S=(V−X)/V×255
H=(G−B)/(V−X)×60 但し、V=Rのとき
H=(B−R)/(V−X+2)×60 但し、V=Gのとき
H=(R−G)/(V−X+4)×60 但し、上記以外のとき
なお、ここでは、注目フレームの元の画素値であるR,G,Bの各成分が、例えば、8ビット(0乃至255の範囲の整数値)で表されるものとしてある。また、max()は、カッコ内の値の最大値を表し、min()は、カッコ内の値の最小値を表す。
【0080】
HSV分離部211は、HSVの各成分に変換した画素値のうち、H,S,V成分を、それぞれ、エッジ検出部212H,212S,212Vに供給する。
【0081】
エッジ検出部212H,212S,212Vは、HSV分離部211からのH,S,V成分で構成される画像(以下、適宜、それぞれを、Hプレーン、Sプレーン、Vプレーンという)それぞれを対象に、エッジ検出を行う。
【0082】
即ち、エッジ検出部212Hは、Hプレーンの画像に、ソーベルオペレータ(Sobel Operator)によるフィルタリングを行うことで、Hプレーンの画像からエッジを検出する。
【0083】
具体的には、Hプレーンの画像の左からx+1番目で、上からy+1番目の画素のH成分を、I(x,y)と表すとともに、その画素のソーベルオペレータによるフィルタリング結果をE(x,y)と表すと、エッジ検出部212Hは、次式で表される画素値E(x,y)で構成されるエッジ画像を求める。
【0084】
【0085】
エッジ検出部212Sと212Vでも、エッジ検出部212Hにおける場合と同様にして、SプレーンとVプレーンの画像について、エッジ画像が求められる。
【0086】
H,S,Vプレーンの画像から得られたエッジ画像は、エッジ検出部212H,212S,212Vから、二値化部213H,213S,213Vにそれぞれ供給される。二値化部213H,213S,213Vは、H,S,Vプレーンのエッジ画像を、所定の閾値と比較することで二値化し、その結果得られるH,S,Vプレーンの二値化画像(画素値が0か、または1の画像)を、細線化部214H,214S,214Vにそれぞれ供給する。
【0087】
細線化部214H,214S,214Vは、二値化部213H,213S,213Vから供給されるH,S,Vプレーンの二値化画像における境界部分の細線化を行い、その結果得られるH,S,Vプレーンの境界画像を、境界画像記憶部215H,215S,215Vにそれぞれ供給して記憶させる。
【0088】
次に、図10を参照して、図9の細線化部214Hにおいて、Hプレーンの二値化画像を対象に行われる細線化処理について説明する。
【0089】
細線化処理では、図10(A)のフローチャートに示すように、まず最初に、ステップS21において、所定のフラグvが0にリセットされ、ステップS22に進む。ステップS22では、Hプレーンの二値化画像を構成する画素が、ラスタスキャン順に参照され、ステップS23に進む。ステップS23では、Hプレーンの二値化画像を構成する画素のうち、ラスタスキャン順で、まだ参照されていない画素が存在するかどうかが判定され、まだ参照されていない画素が存在すると判定された場合、ラスタスキャン順で最初に検出される、まだ参照されていない画素を、注目画素として、ステップS24に進む。
【0090】
ステップS24では、注目画素の上下左右にそれぞれ隣接する4つの画素のうちの1以上の画素値が0であり、かつ注目画素の画素値cが所定の値a(0および1以外の値)に等しくないかどうかが判定される。ステップS24において、注目画素の上下左右にそれぞれ隣接する4つの画素のうちの1以上の画素値が0でないと判定されるか(従って、隣接する4つの画素の中に、画素値が0のものがない)、または注目画素の画素値cが所定の値aに等しいと判定された場合、ステップS22に戻り、以下、同様の処理を繰り返す。
【0091】
また、ステップS24において、注目画素の上下左右にそれぞれ隣接する4つの画素のうちの1以上の画素値が0であり、かつ注目画素の画素値cが所定の値aに等しくないと判定された場合、ステップS25に進み、フラグvに1がセットされ、ステップS26に進む。
【0092】
ステップS26では、図10(B)に示すような、注目画素cに隣接する8つの画素の画素値a1,a2,a3,a4,a5,a6,a7,a8の加算値(a1+a2+a3+a4+a5+a6+a7+a8が6以下であるかどうかが判定される。
【0093】
ステップS26において、注目画素cに隣接する8つの画素値の加算値が6以下でないと判定された場合、ステップS28に進み、注目画素の画素値cに、所定の値aがセットされ、ステップS22に戻る。
【0094】
また、ステップS26において、注目画素cに隣接する8つの画素値の加算値が6以下であると判定された場合、ステップS27に進み、次の条件式が成立するか否かが判定される。
【0095】
(a2+a4+a6+a8)-(a1&a2&a3)-(a4&a5&a6)-(a7&a8&a1)=1
但し、&は、論理積を表す。
【0096】
ステップS27において、条件式が成立しないと判定された場合、ステップS28に進み、上述したように、注目画素の画素値cに、所定の値aがセットされ、ステップS22に戻る。
【0097】
また、ステップS27において、条件式が成立すると判定された場合、ステップS29に進み、注目画素の画素値cが0とされ、ステップS22に戻る。
【0098】
一方、ステップS23において、Hプレーンの二値化画像を構成する画素のうち、ラスタスキャン順で、まだ参照されていない画素が存在しないと判定された場合、即ち、二値化画像を構成するすべての画素を注目画素として処理を行った場合、ステップS30に進み、フラグvが0であるかどうかが判定される。
【0099】
ステップS30において、フラグvが0でないと判定された場合、即ち、フラグvが1である場合、ステップS21に戻り、以下、同様の処理が繰り返される。また、ステップS30において、フラグvが0であると判定された場合、処理を終了する。
【0100】
その後、細線化部214Hは、上述の細線化処理の結果得られた画像を構成する画素のうち、画素値が所定の値cになっているものの画素値を1に変換し、その変換後の画像を、境界画像として、境界画像記憶部215Hに供給する。これにより、境界画像記憶部215Hには、Hプレーンの画像において境界部分が1で、非境界部分が0となっている境界画像が記憶される。
【0101】
細線化部214Sと214Vでも、細線化部214Hにおける場合と同様の処理が行われることにより、SとHプレーンの境界画像がそれぞれ求められる。
【0102】
ここで、図10で説明したような細線化の方法については、例えば、横井、鳥脇、福村、「標本化された2値図形のトポロジカルな性質について」、電子情報通信学会論文誌(D),J56−D,pp.662−669,1973等に、その詳細が開示されている。なお、細線化の方法は、上述した手法に限定されるものではない。
【0103】
図11は、境界画像の例を示している。
【0104】
図11(A)は、原画像を示しており、図11(B)は、図11(A)の原画像から得られたVプレーンの境界画像を示している。また、図11(C)は、図11(A)の原画像から得られたHプレーンの境界画像を示している。図11(B)と図11(C)を比較することにより、Vプレーンでは、比較的小さな凹または凸部分も、境界部分として検出されているのに対して、Hプレーンでは、比較的大きな凹または凸部分だけが、境界部分として検出されていることが分かる。このように、H,S,Vプレーンでは、境界部分として検出される凹または凸部分のレベルが異なる。
【0105】
ここで、図11(B)および図11(C)では、白抜きの部分(境界部分)が、境界画像において画素値が1になっている部分を表しており、黒塗りの部分が、境界画像において画素値が0になっている部分を表している。
【0106】
なお、境界検出部31では、上述のように、H,S,Vプレーンそれぞれについて、3つの境界画像が作成される他、いずれか1つのプレーンについて、二値化するときの閾値を3つ用いることにより、その3つの閾値にそれぞれ対応する3つの境界画像が作成される場合がある。以下、適宜、H,S,Vプレーンについて、3つの境界画像が作成される場合に用いられる閾値を、それぞれ、THH,THS,THVと表す。また、ある1つのプレーンについて3つの境界画像が作成される場合に用いられる3つの閾値を、以下、適宜、TH1,TH2,TH3と表す。
【0107】
次に、図12のフローチャートを参照して、図2の切り出し部32で行われる切り出し処理について説明する。なお、境界検出部31では、上述したように、3つの境界画像が得られるが、ここでは、そのうちの1つの境界画像に注目して、切り出し処理を説明する。また、以下、適宜、3つの出力バッファ32A乃至32Cのうちの、注目している境界画像(注目境界画像)に基づいて、注目フレームから切り出される画像が記憶されるものを、注目出力バッファという。
【0108】
切り出し処理では、注目出力バッファの記憶内容がクリアされた後、ステップS41において、ユーザが、マウス9を操作することにより指定した注目フレームの画像上の位置(指定位置)にある画素の画素値が、注目フレームバッファ21から読み出され、注目出力バッファに書き込まれる。即ち、オブジェクト抽出部3は、図4で説明したように、ユーザが「位置指定」または「順位指定」を行った場合に処理を行うが、ステップS41では、ユーザが直前に行った「位置指定」によって指定した注目フレーム上の位置にある画素の画素値が、注目出力バッファに書き込まれる。そして、ステップS42に進み、注目出力バッファに、未処理の画素(画素値)が記憶されているかどうかが判定される。
【0109】
ステップS42において、注目出力バッファに、未処理の画素が記憶されていると判定された場合、ステップS43に進み、注目出力バッファに記憶されている画素のうちの、未処理の画素の任意の1つが、注目画素とされ、ステップS44に進む。ステップS44では、注目画素の上、下、左、右、左上、左下、右上、右下にそれぞれ隣接する8画素の画素値が、境界画像から取得され、ステップS45に進む。
【0110】
ステップS45では、境界画像における、注目画素に隣接する8画素の画素値の中に、境界部分となっている境界画素(本実施の形態では、画素値が1になっている画素)が存在するかどうかが判定される。ステップS45において、注目画素に隣接する8画素の画素値の中に、境界画素が存在すると判定された場合、ステップS46をスキップして、ステップS42に戻り、以下、同様の処理が繰り返される。即ち、注目画素に隣接する8画素の画素値の中に、境界画素が存在する場合は、その8画素の画素値の注目出力バッファへの書き込みは行われない。
【0111】
また、ステップS45において、注目画素に隣接する8画素の画素値の中に、境界画素が存在しないと判定された場合、ステップS46に進み、その8画素の画素値が、注目フレームバッファ21から読み出され、注目出力バッファの対応するアドレスに記憶される。即ち、注目画素に隣接する8画素の画素値の中に、境界画素が存在しない場合は、その8画素が、ユーザがマウス9でクリックした位置(「位置指定」により指定した位置)を含むオブジェクトの内部の領域であるとして、その8画素の画素値が、注目出力バッファに書き込まれる。
【0112】
その後は、ステップS42に戻り、以下、同様の処理が繰り返される。
【0113】
なお、注目出力バッファに対して、ステップS46で画素値を書き込もうとしている画素に、画素値が、既に書き込まれている場合は、画素値が上書きされる。また、画素値が上書きされた画素が、既に、注目画素とされている場合には、その画素は、上書きが行われても、未処理の画素とはされず、処理済みの画素のままとされる。
【0114】
一方、ステップS42において、注目出力バッファに、未処理の画素が記憶されていないと判定された場合、処理を終了する。
【0115】
次に、図13を参照して、切り出し部32が行う切り出し処理について、さらに説明する。
【0116】
切り出し部32は、図13(A)に示すように、ユーザが、マウス9を操作することにより指定した注目フレームの画像上の位置(指定位置)にある画素の画素値を、注目フレームバッファ21から読み出し、出力バッファに書き込む。さらに、切り出し部32は、出力バッファに記憶されている画素のうちの、未処理の画素の任意の1つを、注目画素とし、その注目画素に隣接する8画素の画素値を、境界画像から取得する。そして、切り出し部32は、境界画像における、注目画素に隣接する8画素の画素値の中に、境界画素が存在しない場合には、その8画素の画素値を、注目フレームバッファ21から読み出し、出力バッファに書き込む。その結果、出力バッファには、図13(B)に示すように、ユーザがマウス9によって指定した位置にある画素(図13(B)において、●印で示す)を起点として、境界画素で囲まれる領域の内部を構成する画素の画素値が書き込まれていく。
【0117】
以上の処理が、出力バッファに記憶された画素の中に、未処理の画素がなくなるまで行われることにより、出力バッファには、注目フレームの画像のうちの、境界画素で囲まれる領域が記憶される。
【0118】
従って、以上のような切り出し処理によれば、ユーザが、オブジェクトであるとして指定した点を起点として、その起点を含む、境界部分で囲まれる注目フレームの領域が切り出されるので、オブジェクトを構成する領域を、精度良く切り出すことができる。即ち、オブジェクトを構成する領域の切り出しを、すべて自動で行う場合には、ある領域が、オブジェクトを構成するかどうかの判断が困難であり、その結果、オブジェクトを構成しない画素から、領域の切り出しが開始されることがある。これに対して、図12の切り出し処理では、ユーザが、オブジェクトであるとして指定した点を起点として、領域の切り出しが行われるので、必ず、オブジェクトを構成する領域の画素から、領域の切り出しが開始され、オブジェクトを構成する領域を、精度良く切り出すことができる。
【0119】
なお、図12の切り出し処理は、境界検出部31で得られる3つの境界画像それぞれに基づいて行われ、その3つの境界画像に基づいて得られる領域の切り出し結果は、それぞれ、出力バッファ32A乃至32Cに記憶される。そして、その出力バッファ32A乃至32Cの記憶内容が、結果バッファ33A乃至33Cにそれぞれ転送され、その結果、結果画面#1乃至#3には、それぞれ、異なる処理によって得られたオブジェクト抽出結果が表示される。
【0120】
次に、図14乃至図16を参照して、図2の履歴管理部4が管理する履歴情報について説明する。
【0121】
「部分取得」または「全取得」によって、結果バッファ33A乃至33Cのうちのいずれかに記憶されたオブジェクト抽出結果の全部または一部が、オブジェクトバッファ23に反映されると(書き込まれると)、履歴管理部4は、指定位置記憶部41に記憶された指定位置、履歴画像記憶部42に記憶された履歴画像、およびパラメータテーブル記憶部43のエントリを更新する。
【0122】
即ち、例えば、いま、人間の全身が表示された注目フレームから、その人間が表示された部分をオブジェクトとして抽出する場合において、その胴体部分と下半身部分の画像が、オブジェクトとして、既に抽出され、オブジェクトバッファ23に記憶されているとすると、履歴画像記憶部42には、例えば、図14(A)に示すように、胴体部分を抽出するのに用いた境界画像のプレーンと、その境界画像を得るのに用いた閾値に対応付けられたID1が画素値となっている胴体部分の画素、および下半身部分を抽出するのに用いた境界画像のプレーンと、その境界画像を得るのに用いた閾値に対応付けられたID2が画素値となっている下半身部分の画素からなる履歴画像が記憶されている。
【0123】
なお、図14(A)の実施の形態では、胴体部分を抽出するのに用いた境界画像のプレーンはHプレーンとなっており、そのHプレーンの境界画像を得るのに用いた閾値(境界画像を得るための二値化に用いられた閾値)は100となっている。また、下半身部分を抽出するのに用いた境界画像のプレーンはVプレーンとなっており、その境界画像を得るのに用いた閾値は80となっている。
【0124】
そして、この場合、パラメータテーブル記憶部43には、ID1と、Hプレーンおよび閾値100とが対応付けられて記憶されているとともに、ID2と、Vプレーンおよび閾値80とが対応付けられて記憶されている。
【0125】
ここで、オブジェクトバッファ23に記憶されたオブジェクトの抽出に用いられた境界画像のプレーンと、その境界画像を得るのに用いられた閾値とのセットを、以下、適宜、パラメータセットという。
【0126】
その後、ユーザが、人間の全身が表示された注目フレームにおける頭部の画素をマウス9でクリックして指定すると、オブジェクト抽出部3では、上述したようにして、3種類のオブジェクト抽出処理が行われ、その3種類のオブジェクト抽出処理による頭部のオブジェクト抽出結果が、図14(B)に示すように、結果バッファ33A乃至33Cにそれぞれ記憶されるとともに、その結果バッファ33A乃至33Cの記憶内容が、結果画面#1乃至#3にそれぞれ表示される。
【0127】
そして、ユーザが、結果画面#1乃至#3に表示された頭部のオブジェクト抽出結果を参照して、良好なものを「全取得」すると、結果画面#1乃至#3に表示された頭部のオブジェクト抽出結果のうち、「全取得」が指示されたものが選択され、図14(C)に示すように、オブジェクトバッファ23に反映される。
【0128】
この場合、履歴管理部4は、オブジェクトバッファ23に反映された頭部のオブジェクト抽出結果を得るのに用いた境界画像のプレーンと、その境界画像を得るのに用いた閾値のパラメータセットとを、ユニークなID3に対応付けて、パラメータテーブル記憶部43に登録する。
【0129】
さらに、履歴管理部4は、図14(D)に示すように、履歴画像記憶部42の頭部を構成する画素の画素値に、ID3を書き込み、これにより、履歴画像を更新する。ここで、図14(D)の実施の形態では、頭部を抽出するのに用いた境界画像のプレーンはSプレーンとなっており、その境界画像を得るのに用いた閾値は50となっている。
【0130】
また、履歴管理部4は、図14(E)に示すように、オブジェクトバッファ23に反映された頭部のオブジェクト抽出結果を得るときにユーザがクリックした注目フレーム上の点の位置(指定位置)を表す座標(x4,y4)を、指定位置記憶部41に追加する。ここで、図14(E)の実施の形態では、指定位置記憶部41には、既に、3つの指定位置の座標(x1,y1),(x2,y2),(x3,y3)が記憶されており、そこに、新たな座標(x4,y4)が追加されている。
【0131】
以上のような注目フレームについての履歴情報は、例えば、その次のフレームが新たに注目フレームとされた場合に、その新たな注目フレームからのオブジェクトの抽出に利用される。
【0132】
即ち、例えば、いま、注目フレームの1フレーム前のフレーム(前フレーム)について、図15(A)に示すような履歴画像を得ることができたとして、注目フレームのある点を、ユーザがマウス9によってクリックしたとする。この場合、処理制御部7は、動き検出部6を制御することにより、ユーザがマウス9でクリックした点である指定位置(x,y)の、前フレームを基準とする動きベクトル(vx,vy)を求めさせる。さらに、処理制御部7は、その内蔵する位置補正部71に、指定位置(x,y)を、動きベクトル(vx,vy)によって補正させることにより、指定位置(x,y)に対応する前フレーム上の位置(x’,y’)を求めさせる。即ち、この場合、位置補正部71は、例えば、式(x’,y’)=(x,y)−(vx,vy)によって、指定位置(x,y)に対応する前フレーム上の位置(x’,y’)を求める。
【0133】
その後、処理制御部7は、指定位置(x,y)に対応する前フレーム上の位置(x’,y’)におけるパラメータセットのIDを、履歴画像記憶部42に記憶された前フレームの履歴画像を参照することで取得し、さらに、そのIDに対応付けられたパラメータセットを、パラメータテーブル記憶部43を参照することで取得する。そして、処理制御部7は、上述のようにして取得したパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、指定位置(x,y)を起点とする領域の切り出しを行うことを決定し、その旨の決定情報を、オブジェクト抽出部3に供給する。
【0134】
これにより、オブジェクト抽出部3では、図15(B)に示すように、注目フレームを対象として、決定情報に対応するパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、指定位置(x,y)を起点とする領域の切り出しが行われ、これにより、3パターンのオブジェクトが抽出される。このようにして注目フレームから抽出された3パターンのオブジェクトは、図15(C)に示すように、結果バッファ33A乃至33Cにそれぞれ記憶され、結果画面#1乃至#3においてそれぞれ表示される。
【0135】
注目フレームからオブジェクトを抽出する場合に、ユーザにより入力された指定位置の部分のオブジェクト抽出は、前フレームの対応する部分のオブジェクト抽出と同様に行うことにより、良好なオブジェクト抽出を行うことができると予想されるから、上述のように、決定情報に対応するパラメータセットに基づく境界画像の作成、およびその境界画像からの、指定位置(x,y)を起点とする領域の切り出しを行うことにより、迅速に、良好なオブジェクト抽出結果を得ることが可能となる。
【0136】
即ち、オブジェクト抽出部3では、例えば、ユーザが、「位置指定」を行うと、その「位置指定」によって指定された位置を起点として、3つの処理によるオブジェクト抽出が行われるが、その3つの処理によるオブジェクト抽出結果のうちのいずれもが良好でないときには、ユーザによって「順位指定」が行われ、後述するように、パラメータセットを替えてのオブジェクト抽出が行われる。従って、上述のように、前フレームの履歴情報を利用しない場合には、ある程度良好なオブジェクト抽出結果を得るために、ユーザが、「順位指定」を何度が行わなければならないことがある。これに対して、前フレームの履歴情報を利用する場合には、ユーザが「順位指定」を行わなくても、注目フレームのオブジェクト上の幾つかの点を指定するという容易な操作だけで、良好なオブジェクト抽出結果を、即座に得ることができる可能性が高くなる。
【0137】
また、注目フレームからのオブジェクト抽出にあたって、前フレームについての履歴情報は、例えば、次のように利用することも可能である。
【0138】
即ち、例えば、いま、注目フレームの1フレーム前のフレーム(前フレーム)について、図16(A)に示すような履歴画像と、図16(B)に示すような3つの指定位置(x1,y1),(x2,y2),(x3,y3)を得ることができたとする。
【0139】
この場合、処理制御部7は、動き検出部6を制御することにより、前フレームの指定位置(x1,y1)を基準とする注目フレームの動きベクトル(vx,vy)を求めさせる。さらに、処理制御部7は、その内蔵する位置補正部71に、前フレームの指定位置(x1,y1)を、動きベクトル(vx,vy)によって補正させることにより、前フレームの指定位置(x,y)に対応する注目フレーム上の位置(x1’,y1’)を求めさせる。即ち、この場合、位置補正部71は、例えば、式(x1’,y1’)=(x1,y1)+(vx,vy)によって、前フレームの指定位置(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を求める。
【0140】
その後、処理制御部7は、前フレームの指定位置(x1,y1)におけるパラメータセットのIDを、履歴画像記憶部42に記憶された前フレームの履歴画像を参照することで取得し、さらに、そのIDに対応付けられたパラメータセットを、パラメータテーブル記憶部43を参照することで取得する。そして、処理制御部7は、上述のようにして取得したパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、前フレームの指定位置(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を起点とする領域の切り出しを行うことを決定し、その旨の決定情報を、オブジェクト抽出部3に供給する。
【0141】
これにより、オブジェクト抽出部3では、図16(C)に示すように、注目フレームを対象として、決定情報に対応するパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、位置(x1’,y1’)を起点とする領域の切り出しが行われることにより、3パターンのオブジェクトが抽出される。
【0142】
前フレームの3つの指定位置(x1,y1),(x2,y2),(x3,y3)のうちの残りの2つの指定位置(x2,y2)と(x3,y3)についても同様の処理が行われ、これにより、その2つの指定位置に対応する注目フレーム上の位置(x2’,y2’)と(x3’,y3’)それぞれを起点とする3パターンのオブジェクトが抽出される。
【0143】
このようにして、前フレームの各指定位置に対応する注目フレーム上の位置それぞれを起点として、注目フレームから抽出されたオブジェクトの各部は、その後合成され、その結果得られるオブジェクト抽出結果は、図16(D)に示すように、結果バッファに記憶され、結果画面において表示される。
【0144】
上述したように、注目フレームからのオブジェクトの抽出は、前フレームの対応する部分のオブジェクト抽出と同様に行うことにより、良好なオブジェクト抽出を行うことができると予想されるから、決定情報に対応するパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、前フレームの指定位置(x,y)に対応する注目フレームの位置を起点とする領域の切り出しを行うことにより、図15における場合と同様に、迅速に、良好なオブジェクト抽出結果を得ることが可能となる。
【0145】
さらに、図15における場合には、ユーザが、注目フレームのオブジェクト上の点を指定する必要があったが、図16における場合においては、ユーザが、そのような指定を行う必要がないので、ユーザの操作負担を、より軽減することができる。
【0146】
なお、図16で説明したように、ユーザが、注目フレームのオブジェクト上の点を指定する前に、前フレームについての履歴情報を利用して、注目フレームのオブジェクト抽出を行い、そのオブジェクト抽出結果を、結果画面#1乃至#3に表示するか否かは、例えば、上述した基準画面のユースレコードボタン202(図3)をクリックすることにより表示されるプルダウンメニューにおいて設定することができる。
【0147】
次に、図17のフローチャートを参照して、処理制御部7が図4のステップS6で行う、複数のオブジェクト抽出処理の内容を決定する処理について説明する。
【0148】
処理制御部7は、まず最初に、ステップS51において、イベント検出部8からのイベント情報が、「位置指定」を表すものであるか、または「順位指定」を表すものであるかを判定する。ステップS51において、イベント情報が、「位置指定」を表すものであると判定された場合、ステップS52に進み、処理制御部7は、前フレームの履歴情報が、履歴管理部4に記憶されているかどうかを判定する。
【0149】
ステップS52において、前フレームの履歴情報が、履歴管理部4に記憶されていると判定された場合、ステップS53に進み、処理制御部7は、例えば、図15で説明したように、前フレームの履歴情報に基づいて、注目フレームからオブジェクトを抽出する3つのオブジェクト抽出処理の内容を決定し、その旨の決定情報を、オブジェクト抽出部3に供給して、処理を終了する。
【0150】
また、ステップS52において、前フレームの履歴情報が、履歴管理部4に記憶されていないと判定された場合、即ち、例えば、注目フレームが、ストレージ1に記憶された動画のフレームの中で、最初に注目フレームとされたものである場合、ステップS54に進み、処理制御部7は、注目フレームからオブジェクトを抽出する3つのオブジェクト抽出処理の内容を、デフォルト値に決定し、その旨の決定情報を、オブジェクト抽出部3に供給して、処理を終了する。
【0151】
一方、ステップS51において、イベント情報が、「順位指定」を表すものであると判定された場合、ステップS55に進み、処理制御部7は、ユーザがマウス9を操作することにより行った順位付けに基づいて、注目フレームからオブジェクトを抽出する3つのオブジェクト抽出処理の内容を決定し、その旨の決定情報を、オブジェクト抽出部3に供給して、処理を終了する。
【0152】
次に、図18のフローチャートを参照して、図17のステップS53乃至S55における、オブジェクト抽出処理の内容の決定方法について、具体的に説明する。なお、イベント情報が「位置指定」を表すものである場合には、ユーザがマウス9をクリックすることにより、注目フレーム上のある位置を指定した場合であるが、そのユーザが指定した位置の座標は、イベント情報に含まれるものとする。また、イベント情報が「順位指定」を表すものである場合には、ユーザが、マウス9を操作することにより、3つの結果画面#1乃至#3に表示されたオブジェクト抽出結果に順位付けを行った場合であるが、そのオブジェクト抽出結果の順位(ここでは、第1位乃至第3位)も、イベント情報に含まれるものとする。
【0153】
図17のステップS53において、前フレームの履歴情報に基づいて、オブジェクト抽出処理の内容を決定する場合には、図18(A)のフローチャートに示すように、まず最初に、ステップS61において、処理制御部7は、前フレームの履歴情報を参照することにより、前フレームの最終的なオブジェクト抽出結果(オブジェクトバッファ23に最終的に記憶されたオブジェクト)が得られたときに用いられた境界画像のプレーンと同一のプレーンの境界画像を用いることを決定する。
【0154】
即ち、処理制御部7は、ユーザがマウス9によって指定した注目フレームの位置に対応する前フレームの位置の画素が、オブジェクトとして抽出されたときに用いられた境界画像のプレーンを、前フレームの履歴情報を参照することにより認識し、そのプレーンの境界画像を、境界検出部31で作成することを決定する。ここで、このようにして、注目フレームのオブジェクト抽出に用いることが決定された境界画像のプレーンを、以下、適宜、決定プレーンという。
【0155】
そして、ステップS62に進み、処理制御部7は、ユーザがマウス9によって指定した注目フレームの位置に対応する前フレームの位置の画素が、オブジェクトとして抽出されたときに境界画像を得るための二値化で用いられた閾値を、前フレームの履歴情報を参照することにより認識し、その閾値を、注目画像について、決定プレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3のうちの2番目の閾値TH2として決定する。ここで、このようにして決定された閾値TH2を、以下、適宜、決定閾値という。
【0156】
その後、処理制御部7は、ステップS63に進み、3つの閾値TH1乃至TH3のうちの決定閾値TH2以外の残りの2つの閾値TH1とTH3を、決定閾値TH2に基づき、例えば、式TH1=TH2−20と、TH3=TH2+20にしたがって決定し、決定プレーン、決定閾値TH2、決定閾値TH2に基づいて決定された閾値TH1とTH3を、決定情報として、オブジェクト抽出部3に供給して、処理を終了する。
【0157】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーンの画像についてエッジ検出を行うものにおいて、エッジ検出が行われる。そして、そのエッジ検出部に接続する二値化部において、決定閾値TH2、および決定閾値TH2を用いて決定された閾値TH1とTH3の3つの閾値を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0158】
以上のように、前フレームの履歴情報が存在する場合には、その履歴情報と、ユーザが指定した注目フレーム上の位置に基づいて、注目フレームについてのオブジェクト抽出処理の内容が決定されるので、注目フレームにおいて、前フレームと同じような特徴を有する部分については、前フレームにおける場合と同様の処理によって、オブジェクト抽出が行われる。従って、容易な操作で、的確なオブジェクト抽出を行うことが可能となる。
【0159】
次に、図18(B)のフローチャートを参照して、図17のステップS54において、オブジェクト抽出処理の内容をデフォルト値に決定する場合の処理制御部7の処理について説明する。
【0160】
この場合、まず最初に、ステップS71において、処理制御部7は、ユーザがマウス9でクリックした注目フレーム上の位置(指定位置)の画素付近の画素のV成分の平均値、即ち、例えば、指定位置の画素を含む横×縦が8×8画素のV成分の平均値が、50未満であるかどうかを判定する。
【0161】
ステップS71において、指定位置の画素を含む8×8画素のV成分の平均値が50未満であると判定された場合、ステップS72に進み、処理制御部7は、Vプレーンの境界画像を、境界検出部31で作成することを決定する。
【0162】
即ち、V成分が小さい領域については、HやSプレーンの境界画像を用いた場合には、Vプレーンの境界画像を用いた場合に比較して、領域の切り出しが不正確になることが経験的に認められるため、ステップS72では、上述のように、決定プレーンがVプレーンとされる。
【0163】
そして、ステップS73に進み、処理制御部7は、決定プレーンであるVプレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3を、デフォルト値である、例えば、40,100,180にそれぞれ決定し、決定プレーンがVプレーンである旨と、閾値TH1乃至TH3を、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0164】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーンであるVプレーンの画像についてエッジ検出を行うエッジ検出部212Vにおいて、エッジ検出が行われる。そして、エッジ検出部212Vに接続する二値化部213Vにおいて、閾値TH1乃至TH3としての40,100,180の3つの閾値を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0165】
一方、ステップS71において、指定位置の画素を含む8×8画素のV成分の平均値が50未満でないと判定された場合、ステップS74に進み、処理制御部7は、H,S,Vプレーンそれぞれの境界画像を、境界検出部31で作成することを決定する。
【0166】
即ち、V成分がある程度大きい領域については、その領域の特徴によって、正確に、領域を切り出すことのできる境界画像のプレーンが異なる。さらに、いまの場合、前フレームの履歴情報が存在しないため、いずれのプレーンの境界画像が領域の切り出しに適切であるかを予測することが困難である。そこで、ステップS74では、H,S,Vの3つのプレーンが、決定プレーンとされる。
【0167】
そして、ステップS75に進み、処理制御部7は、決定プレーンであるH,S,Vプレーンの境界画像をそれぞれ得るための二値化に用いる閾値THH,THS,THVを、例えば、いずれも、デフォルト値である100に決定し、決定プレーンがH,S,Vプレーンである旨と、閾値THH,THS,THVを、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0168】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vそれぞれにおいて、H,S,Vプレーンの画像について、エッジ検出が行われる。そして、エッジ検出部212H,212S,212Vに接続する二値化部213H,213S,213Vそれぞれにおいて、閾値THH,THS,THV(上述したように、ここでは、いずれも100)を用いて二値化が行われ、これにより、3つのH,S,Vプレーンの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成されたH,S,Vプレーンの境界画像それぞれについて、ユーザが指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0169】
次に、図18(C)のフローチャートを参照して、図17のステップS55において、指定順位に基づいて、オブジェクト抽出処理の内容を決定する場合の処理制御部7の処理について説明する。
【0170】
この場合、まず最初に、ステップS81において、処理制御部7は、順位付けが、H,S,Vの3つのプレーンの境界画像を用いて得られたオブジェクト抽出結果に対して行われたもの(以下、適宜、プレーンに対する順位付けという)であるか、または、ある1つのプレーンの境界画像であって、3つの異なる閾値による二値化により作成されたものを用いて得られたオブジェクト抽出結果に対して行われたもの(以下、適宜、閾値に対する順位付けという)であるかを判定する。
【0171】
ステップS81において、順位付けが、プレーンに対する順位付けであると判定された場合、ステップS82に進み、処理制御部7は、H,S,Vの3つのプレーンの境界画像を用いて得られたオブジェクト抽出結果に対する順位を認識し、第1位のオブジェクト抽出結果が得られたプレーンの境界画像を、境界検出部31で作成することを決定する。即ち、処理制御部7は、第1位のオブジェクト抽出結果が得られた境界画像のプレーンを、決定プレーンとする。
【0172】
そして、ステップS83に進み、処理制御部7は、決定プレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3を、デフォルト値である、例えば、40,100,180にそれぞれ決定し、決定プレーンが例えばVプレーンである旨と、閾値TH1乃至TH3を、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0173】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーン(第1位の順位付けが行われたオブジェクト抽出結果が得られた境界画像のプレーン)の画像についてエッジ検出を行うものにおいて、エッジ検出が行われる。そして、そのエッジ検出部に接続する二値化部において、閾値TH1乃至TH3としての40,100,180の3つの閾値を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが直前に指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0174】
一方、ステップS81において、順位付けが、閾値に対する順位付けであると判定された場合、ステップS84に進み、処理制御部7は、その順位付けが行われた注目フレームのオブジェクト抽出結果を得たときに用いられた境界画像のプレーンと同一のプレーンの境界画像を、境界検出部31で作成することを決定する。即ち、処理制御部7は、注目フレームについての前回のオブジェクト抽出結果を得たときに用いられた境界画像のプレーンを、決定プレーンとする。
【0175】
そして、ステップS85に進み、処理制御部7は、決定プレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3を、閾値に対する順位付けに基づいて決定する。即ち、処理制御部7は、前回のオブジェクト抽出結果を得たときに用いられた3つの閾値のうち、第1位に指定された閾値を、閾値TH1に決定する。さらに、処理制御部7は、前回のオブジェクト抽出結果を得たときに用いられた3つの閾値のうち、第1位に指定された閾値と第2位に指定された閾値の平均値を、閾値TH2に決定する。また、処理制御部7は、前回のオブジェクト抽出結果を得たときに用いられた3つの閾値のうち、第2位に指定された閾値を、閾値TH3に決定する。その後、処理制御部7は、決定プレーンと、閾値TH1乃至TH3を、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0176】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーン(前回のオブジェクト抽出結果を得たときに用いられた境界画像のプレーンと同一のプレーン)の画像についてエッジ検出を行うものにおいて、エッジ検出が行われる。そして、そのエッジ検出部に接続する二値化部において、前回用いられた閾値の順位付けに基づいて上述のように決定された3つの閾値TH1乃至TH3を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが直前に指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0177】
以上のようにして、オブジェクト抽出処理の内容を決定する場合においては、ユーザが、注目フレーム上のある位置を指定すると、前フレームの履歴情報が存在しない場合であって、指定位置付近のV成分の平均値が50以上である場合には、H,S,Vの3つのプレーンの境界画像から、3つのオブジェクト抽出結果が求められる(図18(B)におけるステップS71,S74,S75)。そして、その3つのオブジェクト抽出結果に対して、プレーンに対する順位付けが行われると、第1位の1つのプレーンの画像と、3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められる(図18(C)におけるステップS81乃至S83)。
【0178】
さらに、ユーザが、注目フレーム上のある位置を指定した場合に、前フレームの履歴情報が存在せず、かつ、指定位置付近のV成分の平均値が50未満であるときも、1つのプレーンであるVプレーンの画像と、デフォルトの3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められる(図18(B)におけるステップS71乃至S73)。
【0179】
また、ユーザが、注目フレーム上のある位置を指定した場合に、前フレームの履歴情報が存在するときも、その履歴情報に基づいて決定される1つのプレーンの画像と、履歴情報に基づいて決定される3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められる(図18(A))。
【0180】
以上のように、1つのプレーンの画像と、3つの閾値から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められた後に、その3つのオブジェクト抽出結果に対して順位付け(閾値に対する順位付け)が行われると、上述したように、その順位付けに基づいて、3つの閾値TH1乃至TH3が更新されていく(図18(C)におけるステップS81,S84,S85)。
【0181】
即ち、例えば、図19(A)に示すように、閾値TH1,TH2,TH3が、第1位、第2位、第3位に、それぞれ指定された場合には、次のオブジェクト抽出処理においては、図19(B)に示すように、閾値TH1は、前回の第1位の閾値に、閾値TH2は、前回の第1位と第2位の閾値の平均値に、閾値TH3は、前回の第2の閾値に、それぞれ決定される。さらに、このように決定された3つの閾値TH1乃至TH3を用いて得られる3つのオブジェクト抽出結果に対して順位付けが行われ、これにより、図19(B)に示すように、閾値TH1,TH2,TH3が、第3位、第1位、第2位に、それぞれ指定された場合には、次のオブジェクト抽出処理においては、図19(C)に示すように、やはり、閾値TH1は、前回の第1位の閾値に、閾値TH2は、前回の第1位と第2位の閾値の平均値に、閾値TH3は、前回の第2の閾値に、それぞれ決定される。そして、このように決定された3つの閾値TH1乃至TH3を用いて得られる3つのオブジェクト抽出結果に対して、再び、順位付けが行われ、これにより、図19(C)に示すように、閾値TH1,TH2,TH3が、第3位、第1位、第2位に、それぞれ指定された場合には、次のオブジェクト抽出処理においては、図19(D)に示すように、やはり、閾値TH1は、前回の第1位の閾値に、閾値TH2は、前回の第1位と第2位の閾値の平均値に、閾値TH3は、前回の第2の閾値に、それぞれ決定される。
【0182】
従って、順位付けを繰り返すことにより、閾値TH1,TH2,TH3は、注目フレームからオブジェクトを抽出するのに、より適した値に収束していくことになり、その結果、的確なオブジェクト抽出が可能となる。
【0183】
さらに、前フレームの履歴情報が存在する場合には、その履歴情報に基づいて、3つの閾値TH1乃至TH3が決定されることにより、その3つの閾値TH1乃至TH3は、注目フレームからオブジェクトを抽出するのにある程度適した値となることから、ユーザは、「順位指定」の操作を、それほどの回数行わなくても、即ち、最良の場合には、「順位指定」の操作を一度も行わなくても、注目フレームについて、良好なオブジェクト抽出結果を得ることが可能となる。
【0184】
なお、図18および図19の実施の形態では、履歴情報がない場合において、指定位置付近のV成分の平均値が50以上であるときには、H,S,Vの3つのプレーンの境界画像から、3つのオブジェクト抽出結果が求められ、その3つのオブジェクト抽出結果に対して、プレーンに対する順位付けが行われると、第1位の1つのプレーンの画像と、3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められ、その後に、閾値に対する順位付けが可能な状態となる。
【0185】
これに対して、履歴情報がない場合でも、指定位置付近のV成分の平均値が50未満であるときには、上述したように、経験則から、1つのプレーンであるVプレーンの画像と、3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められ、その後に、閾値に対する順位付けが可能な状態となる。従って、この場合、ユーザは、プレーンに対する順位付けを行う必要がなく、その分、ユーザの操作負担を軽減することができる。
【0186】
次に、図4のステップS14における初期抽出処理について説明する。
【0187】
初期抽出処理では、新たな注目フレームについて、ユーザが、オブジェクトの位置を指定する「位置指定」を行わなくても、前フレームから得られた最終的なオブジェクト抽出結果や履歴情報を利用して、複数(本実施の形態では、3つ)のオブジェクト抽出処理が行われ、そのオブジェクト抽出結果が、表示部5に表示される。
【0188】
即ち、図20は、新たな注目フレームについて、初期抽出処理が行われた直後の表示部5における画面の表示例を示している。
【0189】
図20の実施の形態において、基準画面には、新たな注目フレームの画像(原画像)が表示されており、結果画面#1乃至#3には、前フレームから得られた最終的なオブジェクト抽出結果や履歴情報を利用して行われた3つのオブジェクト抽出処理による3つのオブジェクト抽出結果が、それぞれ表示されている。
【0190】
なお、図20の実施の形態では、基準画面のアンドゥボタン204の下部に、リセットレコードボタン(Reset Record)205が新たに表示されているが、このリセットレコードボタン205は、前フレームの履歴情報を消去するときに操作される。即ち、リセットレコードボタン205を、マウス9によりクリックすると、履歴管理部4に記憶されている前フレームの履歴情報が使用不可になる。但し、リセットレコードボタン205を再度クリックすると、履歴情報は、使用可能な状態となる。
【0191】
結果画面#1乃至#3に表示される、新たな注目フレームについてのオブジェクト抽出結果は、オブジェクト抽出部3において、例えば、次のような第1乃至第3の初期抽出処理が行われることにより、それぞれ求められる。
【0192】
即ち、例えば、いま、前フレームについて、図21(A)に示すような履歴画像を得ることができていたとする。ここで、図21(A)の実施の形態は、人間の全身が表示された前フレームから、その人間が表示された部分がオブジェクトとして抽出された場合の履歴画像を示している。さらに、図21(A)の履歴情報は、人間の頭部の領域については、Sプレーンの画像と、二値化における閾値50を用いて、胴体部分の領域については、Hプレーンの画像と、二値化における閾値100を用いて、下半身部分の領域については、Vプレーンの画像と、二値化における閾値80を用いて、それぞれ、オブジェクト抽出が行われたことを表している。従って、図21の履歴画像において、人間の頭部の領域を構成するすべての画素、胴体部分の領域を構成するすべての画素、または下半身部分の領域を構成するすべての画素の画素値は、それぞれ同一のIDとなっている。
【0193】
第1の初期抽出処理では、例えば、処理制御部7が、まず、前フレームの履歴画像において同一のIDを画素値とする画素の集合でなる領域の重心を求める。従って、図21(A)の実施の形態では、人間の頭部の領域、胴体部分の領域、下半身部分の領域の重心がそれぞれ求められる。
【0194】
なお、ある領域の重心の座標を(X,Y)と表すと、重心(X,Y)は、例えば、次式にしたがって求められる。
【0195】
X=Σxk/N
Y=Σyk/N
但し、Nは、ある領域を構成する画素数を表し、Σは、変数kを1からNに変えてのサメーションを表す。また、(xk,yk)は、ある領域を構成するk番目の画素の座標を表す。
【0196】
人間の頭部の領域、胴体部分の領域、下半身部分の領域のそれぞれについて、例えば、図21(B)に示すように、重心(x1,y1),(x2,y2),(x3,y3)が求められると、処理制御部7は、動き検出部6を制御することにより、前フレームの重心(x1,y1)を基準とする注目フレームの動きベクトル(vx,vy)を求めさせる。さらに、処理制御部7は、その内蔵する位置補正部71に、前フレームの指定位置(x1,y1)を、動きベクトル(vx,vy)によって補正させることにより、前フレームの重心(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を求めさせる。即ち、この場合、位置補正部71は、例えば、式(x1’,y1’)=(x1,y1)+(vx,vy)によって、前フレームの重心(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を求める。
【0197】
その後、処理制御部7は、前フレームの重心(x1,y1)の画素の画素値であるIDを、履歴画像記憶部42に記憶された前フレームの履歴画像を参照することで取得し、さらに、そのIDに対応付けられたパラメータセットを、パラメータテーブル記憶部43を参照することで取得する。そして、処理制御部7は、上述のようにして取得したパラメータセットに基づく境界画像の作成、およびその3つの境界画像からの、前フレームの重心(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を起点とする領域の切り出しを行うことを決定し、その旨の決定情報を、オブジェクト抽出部3に供給する。
【0198】
処理制御部7は、図21(B)に示した3つの領域の重心(x1,y1),(x2,y2),(x3,y3)のうちの残りの2つの重心(x2,y2)と(x3,y3)についても、それぞれ同様の処理を行う。
【0199】
これにより、オブジェクト抽出部3では、図21(C)に示すように、注目フレームを対象として、決定情報に対応するパラメータセットに基づく境界画像の作成、およびその境界画像からの、前フレームの重心(x1,y1),(x2,y2),(x3,y3)に対応する注目フレーム上の位置(x1’,y1’),(x2’,y2’),(x3’,y3’)をそれぞれ起点とする領域の切り出しが行われ、オブジェクトが抽出される。このオブジェクト抽出結果は、図21(D)に示すように、結果バッファ33Aに記憶され、図20に示したように、結果画面#1において表示される。
【0200】
次に、第2の初期抽出処理では、オブジェクト抽出部3は、例えば、テンプレートマッチングを行うことによって、注目フレームからオブジェクトを抽出する。
【0201】
即ち、オブジェクト抽出部3は、注目フレーム処理部2を介して、ストレージ1から、前フレームの最終的なオブジェクト抽出結果と、注目フレームを読み出し、図22(A)に示すように、前フレームの最終的なオブジェクト抽出結果と、注目フレームとを重ねて、対応する画素の画素値(例えば、輝度)どうしの絶対値差分の総和を演算する。オブジェクト抽出部3は、このような絶対値差分の総和を、図22(B)に示すように、前フレームの最終的なオブジェクト抽出結果と、注目フレームとを重ね合わせる位置を、例えば、1画素ごとに変えて求め、絶対値差分の総和が最小になるときの、前フレームの最終的なオブジェクト抽出結果と、注目フレームとの位置関係を求める。さらに、オブジェクト抽出部3は、図22(C)に示すように、その位置関係において、前フレームの最終的なオブジェクト抽出結果との画素値どうしの絶対値差分が、例えば20以下になる画素を、注目フレームから検出し、その画素値を、注目フレームについてのオブジェクト抽出結果として、結果バッファ33Bに書き込む。このようにして結果バッファ33Bに書き込まれたオブジェクト抽出結果は、図20に示したように、結果画面#2において表示される。
【0202】
次に、第3の初期抽出処理では、オブジェクト抽出部3は、例えば、図16で説明した場合と同様にして、注目フレームからオブジェクトを抽出する。このオブジェクト抽出結果は、結果バッファ33Cに書き込まれ、図20に示したように、結果画面#3において表示される。
【0203】
以上の初期抽出処理は、注目フレームが新たなフレームに変更された後に、ユーザからの入力を特に待つことなく、いわば自動的に行われるため、「位置指定」や「順位指定」といったユーザの操作負担を軽減することができる。
【0204】
ところで、初期抽出処理によって得られた3つのオブジェクト抽出結果のうちのいずれかに対して、ユーザが、「全取得」または「部分取得」の操作を行い、これにより、その3つのオブジェクト抽出結果のうちのいずれかの全部または一部が、オブジェクトバッファ23に反映され、注目フレームの最終的なオブジェクト抽出結果とされた場合には、その最終的なオブジェクト抽出結果のうち、初期抽出処理によって得られた部分については、履歴情報が存在しないこととなり、次のフレームが注目フレームとされたときに、前フレームの履歴情報が存在せず、その結果、ユーザの操作負担が増加することがある。
【0205】
そこで、前フレームの履歴情報は、次のフレームの履歴情報に継承することが可能である。
【0206】
即ち、例えば、図23(A)に示すように、前フレームについて最終的なオブジェクト抽出結果が得られた後に、初期抽出処理が行われることにより、注目フレームのオブジェクト抽出結果が結果画面に表示され、そのオブジェクト抽出結果の一部が、ユーザによる「部分取得」操作によって、オブジェクトバッファ23に反映されたとする。
【0207】
この場合、処理制御部7は、オブジェクトバッファ23に反映されたオブジェクトの部分の動きベクトルを、動き検出部6を制御することにより求めさせ、図23(B)に示すように、その動きベクトルによって、前フレームの履歴画像の、オブジェクトバッファ23に反映された領域に対応する部分の位置を補正する。さらに、処理制御部7は、履歴管理部4を制御することにより、その補正後の履歴画像の部分を、注目フレームの履歴画像としてコピーさせる。
【0208】
また、処理制御部7は、注目フレームの履歴画像としてコピーした前フレームの履歴画像の範囲内に、ユーザがマウス9をクリックすることによって指定した前フレーム上の位置が存在するかどうかを、指定位置記憶部41を参照することにより判定し、存在する場合には、図23(C)に示すように、その位置(指定位置)を、図23(B)で説明した動きベクトルによって補正する。そして、処理制御部7は、履歴管理部4を制御することにより、その補正後の指定位置の座標を、注目フレームの指定位置の座標として、指定位置記憶部41に記憶させる。
【0209】
なお、このような履歴情報の継承は、上述の第1乃至第3の初期抽出処理のうちの、第1と第3の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合にのみ行い、第2の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合には行わないようにすることが可能である。
【0210】
即ち、第1と第3の初期抽出処理では、上述したように、前フレームの履歴情報に基づいて、注目フレームからのオブジェクト抽出が行われるため、そのオブジェクト抽出結果が、オブジェクトバッファ23に反映されるということは、注目フレームについて、前フレームの履歴情報を用いずにオブジェクト抽出を行ったとしても、前フレームと同様の処理によって得られたオブジェクト抽出結果が、最終的なオブジェクト抽出結果とされる可能性が高く、従って、前フレームと同様の履歴情報が作成される可能性が高い。
【0211】
これに対して、第2の初期抽出処理では、上述したように、テンプレートマッチングによって、注目フレームからオブジェクトが抽出されるため、そのオブジェクト抽出結果が、オブジェクトバッファ23に反映されたとしても、その反映された部分は、前フレームの履歴情報とは無関係に、注目フレームから抽出されたものであるから、前フレームの履歴情報を用いずにオブジェクト抽出を行ったときに、前フレームと同様の処理によって得られたオブジェクト抽出結果が、最終的なオブジェクト抽出結果とされる可能性が高いとはいえず、従って、前フレームと同様の履歴情報が作成される可能性が高いともいえない。
【0212】
このため、上述したように、履歴情報の継承は、第1と第3の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合にのみ行い、第2の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合には行わないようにすることができる。
【0213】
但し、履歴情報の継承は、第1乃至第3の初期抽出処理によって得られたオブジェクト抽出結果のうちのいずれが、オブジェクトバッファ23に反映された場合であっても行うようにすることが可能である。
【0214】
以上のように、複数の処理によって、複数のオブジェクト抽出結果を求め、その複数のオブジェクト抽出結果の中から、良好なものを、ユーザに判断してもらい、最終的なオブジェクト抽出結果に反映するようにしたので、容易な操作で、的確なオブジェクト抽出を行うことができる。
【0215】
さらに、前フレームの履歴情報が存在する場合には、その履歴情報と、ユーザにより入力された注目フレーム上の位置に基づいて、注目フレームのオブジェクト抽出を行うようにしたので、やはり、容易な操作で、的確なオブジェクト抽出を行うことができる。
【0216】
即ち、図2の画像処理装置では、ユーザが、注目フレームのオブジェクト上のある位置を指定すると、その位置を起点として、注目フレームの領域が、3つの処理によって切り出され(オブジェクト抽出され)、その結果得られる3つのオブジェクト抽出結果が表示される。さらに、ユーザが、必要に応じて、3つのオブジェクト抽出結果に対して順位を指定すると、その順位に基づく3つの処理によって、注目フレームの領域が再度切り出され、その結果得られる3つのオブジェクト抽出結果が表示される。そして、ユーザが、3つのオブジェクト抽出結果の中から、適切と思うものを指定すると、その指定されたオブジェクト抽出結果が、最終的なオブジェクト抽出結果に反映される。従って、ユーザが、オブジェクト上の位置の指定、必要な順位の指定、および適切なオブジェクト抽出結果の指定という負担の少ない操作を、必要な回数だけ繰り返すことにより、注目フレームから、的確に、オブジェクトを抽出することができる。
【0217】
さらに、次のフレームが注目フレームとされた場合には、その1フレーム前のフレーム(前フレーム)について作成された履歴情報を参照することにより、注目フレーム上のユーザ入力した位置の画素に対応する前フレームの画素をオブジェクトとして抽出するのに用いられたパラメータセットが認識され、そのパラメータセットに基づいて、3つのオブジェクト抽出処理の内容が決定される。従って、ユーザは、注目フレームのオブジェクト上の位置を指定するという負担の少ない操作を行うだけで、注目フレームから、良好なオブジェクト抽出結果を得ることができる。
【0218】
なお、本実施の形態では、ユーザに、注目フレームのオブジェクト上の位置を指定してもらうようにしたが、その他、例えば、注目フレームのオブジェクトの一部の範囲を指定してもらうようにすることも可能である。
【0219】
また、本実施の形態では、注目フレームのオブジェクト抽出を、前フレームのみの履歴情報に基づいて行うようにしたが、注目フレームのオブジェクト抽出は、その他、例えば、過去数フレームの履歴情報に対して重み付けをし、その重み付けされた履歴情報に基づいて行うことも可能である。また、本実施の形態では、時間順に、フレームを処理するものとして、前フレームの履歴情報を、注目フレームからのオブジェクト抽出に用いることとしたが、その他、例えば、時間の逆順に、フレームが処理される場合には、注目フレームからのオブジェクト抽出には、時間的に後行するフレームの履歴情報を用いることが可能である。
【0220】
さらに、本実施の形態では、動画の各フレームからオブジェクトを抽出するようにしたが、本発明は、静止画からのオブジェクト抽出にも適用可能である。
【0221】
また、本発明は、いわゆる前景となっている部分を抽出する場合の他、例えば、背景の一部の構成要素を抽出する場合にも適用可能である。
【0222】
さらに、本実施の形態で説明したオブジェクト抽出処理は例示であり、どのようなオブジェクト抽出処理を採用するかは、特に限定されるものではない。
【0223】
また、本発明は、放送システムや編集システム等の画像処理装置に広く適用可能である。
【発明の効果】
本発明の一側面によれば、容易な操作で、的確なオブジェクト抽出を行うことが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した画像処理装置の一実施の形態のハードウェア構成例を示すブロック図である。
【図2】図1の画像処理装置の機能的構成例を示すブロック図である。
【図3】表示部5における画面の表示例を示す図である。
【図4】図2の画像処理装置の処理を説明するフローチャートである。
【図5】基本画面における表示の切り替え説明するための図である。
【図6】「アンドゥ」と「部分削除」を説明するための図である。
【図7】ユーザが、オブジェクト上の点を指定する様子を示す図である。
【図8】「全取得」と「部分取得」を説明するための図である。
【図9】境界検出部31の構成例を示すブロック図である。
【図10】細線化処理を説明するための図である。
【図11】境界画像を示す図である。
【図12】切り出し部32の処理を説明するためのフローチャートである。
【図13】切り出し部32の処理を説明するための図である。
【図14】履歴情報の更新を説明するための図である。
【図15】履歴情報に基づくオブジェクト抽出を説明するための図である。
【図16】履歴情報に基づくオブジェクト抽出を説明するための図である。
【図17】処理制御部7の処理を説明するためのフローチャートである。
【図18】図17のステップS53乃至S55の処理のより詳細を説明するためのフローチャートである。
【図19】閾値の更新を説明するための図である。
【図20】表示部5における画面の表示例を示す図である。
【図21】第1の初期抽出処理を説明するための図である。
【図22】第2の初期抽出処理を説明するための図である。
【図23】履歴情報の継承を説明するための図である。
【符号の説明】
1 ストレージ, 2 注目フレーム処理部, 3 オブジェクト抽出部, 4 履歴管理部, 5 表示部, 6 動き検出部, 7 処理制御部, 8 イベント検出部, 9 マウス, 21 注目フレームバッファ, 22 背景バッファ, 23 オブジェクトバッファ, 24 セレクタ, 31 境界検出部, 32 切り出し部, 32A乃至32C 出力バッファ, 33 結果処理部, 33A乃至33C 結果バッファ, 41 指定位置記憶部, 42履歴画像記憶部, 43 パラメータテーブル記憶部, 61 前フレームバッファ, 71 位置補正部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体, 201 チェンジディスプレイボタン, 202 ユースレコードボタン, 203 デリートパートリィボタン,204 アンドゥボタン, 205 リセットレコードボタン, 206 ランクリザルトボタン, 207 グラブオールボタン, 208 グラブパートリィボタン, 211 HSV分離部, 212H,212S,212V エッジ検出部, 213H,213S,213V 二値化部, 214H,214S,214V 細線化部, 215H,215S,215V 境界画像記憶部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing device, an image processing method, and a recording medium, and more particularly, to an image processing device, an image processing method, and a recording medium that enable accurate object extraction, for example, with an easy operation. .
[0002]
[Prior art]
Various methods have been proposed as a method for extracting an object that is a part of an object that is a so-called foreground from an image.
[0003]
That is, for example, in Japanese Patent Application Laid-Open No. 10-269369, an object is extracted by detecting the outline of an object for a certain frame, and the periphery of the object of the previous frame is searched for the next frame. A method is described in which the contour of an object is detected, and the object is repeatedly extracted based on the detection result.
[0004]
[Problems to be solved by the invention]
However, if the detection of the contour from the target frame of interest is limited to the periphery of the object in the previous frame, the contour of the object will be detected when the object is greatly deformed or moved in the target frame. Is likely to be erroneously detected, and accurate object extraction becomes difficult.
[0005]
On the other hand, for example, if the user designates the contour of the object for each frame and the object is extracted based on the designated contour, the operation burden on the user becomes large.
[0006]
The present invention has been made in view of such circumstances, and makes it possible to perform accurate object extraction with an easy operation.
[0007]
[Means for Solving the Problems]
An image processing apparatus or a recording medium according to an aspect of the present invention is an image processing apparatus that extracts a predetermined object from an image, and an object that extracts an object by a plurality of processes from an image of a target screen of interest An extraction means; a selection means for selecting an object extraction result by the plurality of processes to be reflected in a final object extraction result based on an input from a user; and an object extraction result selected by the selection means. Based on the reflection means to be reflected in the final object extraction result, the processing history that is the content of the process used to extract the object reflected in the final object extraction result, and the input from the user Determination means for determining the content of processing for extracting an object from the screen, and storing the processing history A plurality of processes are processes using different threshold values, and the history information includes a threshold value used for extracting the object for each pixel constituting the object, The determination unit corrects the predetermined point of the attention screen input by the user by a motion vector between the attention screen and a previous screen processed before the attention screen. A point of the previous screen corresponding to a predetermined point on the screen is obtained, and based on the processing history for the previous screen, a pixel at the point on the previous screen corresponding to the predetermined point on the target screen is used as an object. A predetermined threshold value used at the time of extraction is acquired, and the predetermined threshold value and a value obtained by a predetermined calculation using the predetermined threshold value are included in a value including a predetermined point on the attention screen. Image processing apparatus for determining a threshold value used in a plurality of process for extracting the object, or, as an image processing apparatus, a recording medium having a program recorded for causing a computer to function.
[0008]
An image processing method according to one aspect of the present invention is an image processing method for extracting a predetermined object from an image, the object extracting step for extracting an object by a plurality of processes from an image of a target screen of interest, A selection step for selecting, based on an input from a user, an object extraction result by a plurality of processes to be reflected in the final object extraction result, and the object extraction result selected in the selection step is determined as a final object. Extracting objects from the screen of interest based on the reflection step to be reflected in the extraction result, the processing history that is the content of the processing used to extract the object reflected in the final object extraction result, and the input from the user A determination step for determining the content of the processing to be performed, and storing the processing history The plurality of processes are processes using different threshold values, and the history information includes a threshold value used for extraction of the object for each pixel constituting the object, In the determining step, the predetermined point of the attention screen input by the user is corrected by a motion vector between the attention screen and a previous screen processed temporally before the attention screen. A point of the previous screen corresponding to a predetermined point of the screen of interest is obtained, and a pixel of the point of the previous screen corresponding to the predetermined point of the screen of interest is an object based on the processing history for the previous screen A predetermined threshold value used when extracted as a predetermined value, and the predetermined threshold value and a value obtained by a predetermined calculation using the predetermined threshold value The image processing method of determining the threshold value used in a plurality of processes of extracting an object that contains the points.
[0010]
In one aspect of the present invention, an object is extracted by a plurality of processes from an image of a target screen of interest, and the object extraction result by the plurality of processes is reflected in a final object extraction result. The selected object extraction result is reflected in the final object extraction result. Further, the content of the process for extracting the object from the screen of interest is determined based on the processing history which is the content of the process used for extracting the object reflected in the final object extraction result and the input from the user. On the other hand, the processing history is stored. The plurality of processes are processes using different threshold values, and the history information includes a threshold value used for extraction of the object for each pixel constituting the object. In this case, the predetermined point of the attention screen input by the user is corrected by a motion vector between the attention screen and the previous screen processed before the attention screen. A point of the previous screen corresponding to a predetermined point of the screen is obtained, and a pixel of the point of the previous screen corresponding to the predetermined point of the screen of interest is an object based on the processing history for the previous screen The predetermined threshold value used when extracted as is acquired. Then, the predetermined threshold and a value obtained by a predetermined calculation using the predetermined threshold are determined as thresholds used for a plurality of processes for extracting an object including a predetermined point on the screen of interest.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a hardware configuration example of an embodiment of an image processing apparatus to which the present invention is applied.
[0012]
This image processing apparatus is configured on the basis of a computer, and a program for executing a series of processes for object extraction as will be described later (hereinafter referred to as an object extraction processing program as appropriate) is installed in the computer. ing.
[0013]
In addition, the image processing apparatus can be configured by causing a computer to execute a program as described above, or can be configured by dedicated hardware.
[0014]
Here, the object extraction processing program is recorded in advance in a
[0015]
Alternatively, the object extraction processing program is stored in a removable recording medium 111 such as a floppy disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto optical) disk, DVD (Digital Versatile Disc), magnetic disk, and semiconductor memory. Stored (recorded) temporarily or permanently. Such a removable recording medium 111 can be provided as so-called package software.
[0016]
Note that the object extraction processing program is installed on the computer from the removable recording medium 111 as described above, and is transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite. Network) and the Internet via a network such as the Internet, the computer may receive the object extraction processing program transferred in this way by the
[0017]
The computer includes a CPU (Central Processing Unit) 102. An input /
[0018]
Here, in the present specification, the processing steps for describing a program for causing the computer to perform various processes do not necessarily have to be processed in time series in the order described in the flowcharts, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).
[0019]
Further, the program may be processed by one computer or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
[0020]
FIG. 2 shows a functional configuration example of the image processing apparatus of FIG. This functional configuration is realized by the
[0021]
The
[0022]
The attention
[0023]
That is, the frame-of-
[0024]
The
[0025]
That is, the
[0026]
The
[0027]
That is, the
[0028]
Here, in the history
[0029]
The designated position storage unit 41, the history
[0030]
The display unit 5 displays the image output from the selector 24 (the image of the frame of interest, the background image, or the object) and the images stored in the result buffers 33A to 33C of the result processing unit 33.
[0031]
Under the control of the
[0032]
That is, the
[0033]
The
[0034]
The
[0035]
The mouse 9 is operated by the user when specifying a position on the image displayed on the display unit 5 or when giving a predetermined command to the apparatus.
[0036]
Next, FIG. 3 shows a display example of a screen on the display unit 5.
[0037]
When the object extraction processing program is executed, a window in which the horizontal and vertical directions are each divided into two as shown in FIG.
[0038]
In the four divided windows, the upper left screen is a reference screen, and the upper right, lower left, and lower right screens are
[0039]
An image output from the
[0040]
In the lower left of the reference screen, a
[0041]
The
[0042]
The
[0043]
The delete partly
[0044]
The undo
[0045]
In the result screens # 1 to # 3, the storage contents of the result buffers 33A to 33C in which objects extracted from the target frame by different processes are stored, that is, the results of object extraction performed by three different processes, respectively. Is displayed. Also, a
[0046]
The
[0047]
The grab-all
[0048]
The
[0049]
Next, an overview of the processing of the image processing apparatus of FIG. 2 will be described with reference to the flowchart of FIG.
[0050]
When some event occurs as a result of the user operating the mouse 9, the
[0051]
When it is determined in step S1 that the event is an instruction for “screen selection” for switching an image to be displayed on the reference screen of the display unit 5, that is, when the change display button 201 (FIG. 3) is clicked. The
[0052]
As a result, the
[0053]
When it is determined in step S1 that the event is an instruction for “undo” to delete the image reflected immediately before in the
[0054]
In step S4, the
[0055]
That is, when an object image is reflected (taken in) in the
[0056]
On the other hand, if it is determined in step S1 that the event is an instruction for “partial deletion” for deleting a part of the image reflected in the
[0057]
In step S4, the
[0058]
Therefore, for example, as shown in FIG. 6A, an object obj1 representing a human torso portion is stored in the
[0059]
In this case, when the user clicks the undo
[0060]
Further, when the user operates the mouse 9, for example, as shown in FIG. 6B, a range of a part of the object obj2 representing the human head is specified, and the delete partly
[0061]
On the other hand, if it is determined in step S1 that the event represents “position designation” that designates a position on the image displayed on either the reference screen or the result screens # 1 to # 3, That is, for example, as illustrated in FIG. 7, when the user operates the mouse 9 and clicks a position where an object is displayed in the original image or the background image displayed on the reference screen, the
[0062]
Accordingly, the
[0063]
In step S8, the display unit 5 displays the object extraction results stored in the result buffers 33A to 33C on the result screens # 1 to # 3, and ends the process.
[0064]
If it is determined in step S1 that the event represents “order designation” for designating the (goodness) order of the object extraction results displayed on the result screens # 1 to # 3, that is, When the
[0065]
On the other hand, in step S1, the event selects any one of the object extraction results displayed on the result screens # 1 to # 3, and reflects all or a part thereof in the
[0066]
In step S9, the
[0067]
Therefore, for example, the contents stored in the
[0068]
Further, a part of the object extraction result displayed on the result screen #i is designated as indicated by a rectangle in FIG. 8B), and the
[0069]
In step S10, the
[0070]
As described above, the object extraction results by the three object extraction processes are displayed on the result screens # 1 to # 3, respectively, and the user can select the grab all
[0071]
In addition, objects extracted by different processes are displayed on the result screens # 1 to # 3. Even if the object extraction result by a certain process is not so good as a whole, only a part thereof is displayed. If you look, it may be good. In this case, by specifying a part of the range and clicking the
[0072]
On the other hand, if it is determined in step S1 that the event represents “determined”, the final object extraction result from the frame of interest is confirmed in the image stored in the
[0073]
When the
[0074]
If it is determined in step S12 that the next frame of the target frame is stored in the
[0075]
Next, an object extraction process performed by the
[0076]
In the present embodiment, the
[0077]
That is, FIG. 9 shows a configuration example of the
[0078]
The
[0079]
V = max (R, G, B)
X = min (R, G, B)
S = (V−X) / V × 255
H = (GB) / (V−X) × 60 However, when V = R
H = (B−R) / (V−X + 2) × 60 However, when V = G
H = (R−G) / (V−X + 4) × 60 However, other than above
Here, the R, G, and B components that are the original pixel values of the frame of interest are represented by, for example, 8 bits (an integer value in the range of 0 to 255). Further, max () represents the maximum value in the parentheses, and min () represents the minimum value in the parentheses.
[0080]
The
[0081]
The
[0082]
That is, the
[0083]
Specifically, the H component of the x + 1th pixel from the left of the H plane image and the y + 1th pixel from the top is represented as I (x, y), and the filtering result of the pixel by the Sobel operator is represented by E (x , Y), the
[0084]
[0085]
In the
[0086]
The edge images obtained from the images of the H, S, and V planes are supplied from the
[0087]
The thinning
[0088]
Next, with reference to FIG. 10, the thinning process performed on the binarized image of the H plane in the thinning
[0089]
In the thinning process, as shown in the flowchart of FIG. 10A, first, in step S21, the predetermined flag v is reset to 0, and the process proceeds to step S22. In step S22, the pixels constituting the binary image of the H plane are referred to in raster scan order, and the process proceeds to step S23. In step S23, it is determined whether there is a pixel that has not been referred to in the raster scan order among the pixels that constitute the binary image of the H plane, and it has been determined that there is a pixel that has not been referred to yet. In this case, the pixel that is detected first in the raster scan order and has not been referred to is set as the target pixel, and the process proceeds to step S24.
[0090]
In step S24, one or more pixel values of four pixels adjacent to the target pixel in the vertical and horizontal directions are 0, and the pixel value c of the target pixel is a predetermined value a (a value other than 0 and 1). It is determined whether they are not equal. In step S24, whether or not one or more of the four pixels adjacent to the target pixel in the up, down, left, and right directions is determined to be non-zero (thus, among the four adjacent pixels, the pixel value is zero) Or if the pixel value c of the target pixel is determined to be equal to the predetermined value a, the process returns to step S22, and the same processing is repeated thereafter.
[0091]
In step S24, it is determined that one or more pixel values of four pixels adjacent to the target pixel in the vertical and horizontal directions are 0 and the pixel value c of the target pixel is not equal to the predetermined value a. If so, the process proceeds to step S25, 1 is set in the flag v, and the process proceeds to step S26.
[0092]
In step S26, as shown in FIG. 10B, the sum of the pixel values a1, a2, a3, a4, a5, a6, a7, a8 of the eight pixels adjacent to the target pixel c (a1 + a2 + a3 + a4 + a5 + a6 + a7 + a8 is 6 or less). It is determined whether it exists.
[0093]
If it is determined in step S26 that the added value of the eight pixel values adjacent to the target pixel c is not 6 or less, the process proceeds to step S28, where a predetermined value a is set as the pixel value c of the target pixel, and step S22. Return to.
[0094]
If it is determined in step S26 that the added value of the eight pixel values adjacent to the target pixel c is 6 or less, the process proceeds to step S27 to determine whether or not the following conditional expression is satisfied.
[0095]
(a2 + a4 + a6 + a8)-(a1 & a2 & a3)-(a4 & a5 & a6)-(a7 & a8 & a1) = 1
However, & represents a logical product.
[0096]
If it is determined in step S27 that the conditional expression is not satisfied, the process proceeds to step S28, and as described above, the predetermined value a is set to the pixel value c of the target pixel, and the process returns to step S22.
[0097]
If it is determined in step S27 that the conditional expression is satisfied, the process proceeds to step S29, the pixel value c of the target pixel is set to 0, and the process returns to step S22.
[0098]
On the other hand, if it is determined in step S23 that there are no unreferenced pixels in the raster scan order among the pixels constituting the H-plane binarized image, that is, all the pixels constituting the binarized image. When the process is performed with the target pixel as the target pixel, the process proceeds to step S30 to determine whether or not the flag v is zero.
[0099]
If it is determined in step S30 that the flag v is not 0, that is, if the flag v is 1, the process returns to step S21, and the same processing is repeated thereafter. If it is determined in step S30 that the flag v is 0, the process ends.
[0100]
Thereafter, the thinning
[0101]
The thinning
[0102]
Here, with respect to the thinning method as described in FIG. 10, for example, Yokoi, Toriwaki, Fukumura, “Topological properties of sampled binary figures”, IEICE Transactions (D), J56-D, pp. The details are disclosed in 662-669, 1973 and the like. Note that the thinning method is not limited to the above-described method.
[0103]
FIG. 11 shows an example of the boundary image.
[0104]
FIG. 11A shows an original image, and FIG. 11B shows a V-plane boundary image obtained from the original image of FIG. 11A. FIG. 11C shows an H-plane boundary image obtained from the original image of FIG. By comparing FIG. 11B and FIG. 11C, a relatively small concave or convex portion is detected as a boundary portion in the V plane, while a relatively large concave portion is detected in the H plane. Or it turns out that only a convex part is detected as a boundary part. Thus, in the H, S, and V planes, the levels of the concave or convex portions detected as the boundary portions are different.
[0105]
Here, in FIGS. 11B and 11C, a white portion (boundary portion) represents a portion having a pixel value of 1 in the boundary image, and a black portion represents the boundary. This represents a portion where the pixel value is 0 in the image.
[0106]
As described above, the
[0107]
Next, with reference to the flowchart of FIG. 12, the clipping process performed by the
[0108]
In the clipping process, after the stored contents of the attention output buffer are cleared, the pixel value of the pixel at the position (designated position) on the image of the attention frame designated by the user by operating the mouse 9 is determined in step S41. , Read from the
[0109]
If it is determined in step S42 that the unprocessed pixel is stored in the target output buffer, the process proceeds to step S43, and any one of the unprocessed pixels among the pixels stored in the target output buffer is determined. The pixel is the target pixel, and the process proceeds to step S44. In step S44, pixel values of 8 pixels adjacent to the target pixel above, below, left, right, upper left, lower left, upper right, and lower right are acquired from the boundary image, and the process proceeds to step S45.
[0110]
In step S45, a boundary pixel (a pixel having a pixel value of 1 in the present embodiment) that is a boundary portion exists among the pixel values of eight pixels adjacent to the target pixel in the boundary image. It is determined whether or not. If it is determined in step S45 that the boundary pixel is present in the pixel values of the eight pixels adjacent to the target pixel, step S46 is skipped, the process returns to step S42, and the same processing is repeated thereafter. That is, when a boundary pixel exists among the pixel values of 8 pixels adjacent to the target pixel, the pixel value of the 8 pixels is not written to the target output buffer.
[0111]
If it is determined in step S45 that no boundary pixel exists among the pixel values of the eight pixels adjacent to the target pixel, the process proceeds to step S46, and the pixel value of the eight pixels is read from the
[0112]
Thereafter, the process returns to step S42, and the same processing is repeated thereafter.
[0113]
Note that if the pixel value has already been written to the pixel to which the pixel value is to be written in step S46, the pixel value is overwritten in the target output buffer. In addition, when a pixel whose pixel value has been overwritten is already a pixel of interest, the pixel is not treated as an unprocessed pixel even if overwritten, but remains as a processed pixel. Is done.
[0114]
On the other hand, if it is determined in step S42 that no unprocessed pixel is stored in the target output buffer, the process ends.
[0115]
Next, the clipping process performed by the
[0116]
As illustrated in FIG. 13A, the
[0117]
By performing the above processing until there are no unprocessed pixels in the pixels stored in the output buffer, the region surrounded by the boundary pixels in the image of the frame of interest is stored in the output buffer. The
[0118]
Therefore, according to the clipping process as described above, since the point of interest specified by the user as an object is the starting point, the region of the frame of interest surrounded by the boundary portion including the starting point is cut out. Can be cut out with high accuracy. That is, when all of the areas constituting the object are automatically extracted, it is difficult to determine whether or not a certain area constitutes the object. As a result, the area is cut out from the pixels not constituting the object. May be started. On the other hand, in the cutout process in FIG. 12, since the region is cut out starting from the point designated by the user as an object, the cutout of the region is always started from the pixels of the region constituting the object. Thus, the area constituting the object can be accurately cut out.
[0119]
The cutout process in FIG. 12 is performed based on each of the three boundary images obtained by the
[0120]
Next, history information managed by the
[0121]
When all or part of the object extraction result stored in any of the result buffers 33A to 33C is reflected (written) in the
[0122]
That is, for example, in the case where a portion where the person is displayed is extracted as an object from the frame of interest where the whole body of the person is displayed, the image of the body part and the lower body part is already extracted as the object, If it is stored in the
[0123]
In the embodiment of FIG. 14A, the boundary image plane used to extract the body portion is an H plane, and the threshold value (boundary image) used to obtain the boundary image of the H plane is used. (The threshold value used for binarization for obtaining) is 100. The plane of the boundary image used for extracting the lower body part is a V plane, and the threshold used for obtaining the boundary image is 80.
[0124]
In this case, the parameter
[0125]
Here, the set of the boundary image plane used to extract the object stored in the
[0126]
Thereafter, when the user clicks and designates the head pixel in the frame of interest displaying the whole human body with the mouse 9, the
[0127]
Then, when the user refers to the head object extraction results displayed on the result screens # 1 to # 3 and “acquires all” favorable items, the heads displayed on the result screens # 1 to # 3 Among the object extraction results, those for which “acquire all” is instructed are selected and reflected in the
[0128]
In this case, the
[0129]
Further, as shown in FIG. 14D, the
[0130]
Further, as shown in FIG. 14E, the
[0131]
The history information about the attention frame as described above is used for extracting an object from the new attention frame, for example, when the next frame is newly set as the attention frame.
[0132]
That is, for example, assuming that a history image as shown in FIG. 15A can be obtained for a frame one frame prior to the frame of interest (previous frame), the user points the mouse 9 If you click on. In this case, the
[0133]
Thereafter, the
[0134]
Thereby, in the
[0135]
When extracting an object from the frame of interest, the object extraction at the designated position input by the user can be performed in the same manner as the object extraction at the corresponding part of the previous frame, so that a good object extraction can be performed. Since it is expected, as described above, by creating a boundary image based on the parameter set corresponding to the decision information and cutting out the region starting from the specified position (x, y) from the boundary image, A good object extraction result can be obtained quickly.
[0136]
That is, in the
[0137]
Further, when extracting an object from the frame of interest, the history information about the previous frame can be used as follows, for example.
[0138]
That is, for example, for the frame one frame before the target frame (previous frame), a history image as shown in FIG. 16A and three designated positions (x1, y1 as shown in FIG. 16B). ), (X2, y2), (x3, y3) can be obtained.
[0139]
In this case, the
[0140]
Thereafter, the
[0141]
As a result, the
[0142]
Similar processing is performed for the remaining two designated positions (x2, y2) and (x3, y3) among the three designated positions (x1, y1), (x2, y2), (x3, y3) of the previous frame. As a result, three patterns of objects starting from the positions (x2 ′, y2 ′) and (x3 ′, y3 ′) on the target frame corresponding to the two designated positions are extracted.
[0143]
In this way, starting from each position on the target frame corresponding to each designated position of the previous frame, each part of the object extracted from the target frame is then synthesized, and the object extraction result obtained as a result is shown in FIG. As shown in (D), it is stored in the result buffer and displayed on the result screen.
[0144]
As described above, it is expected that the object extraction from the target frame can be performed in the same manner as the object extraction of the corresponding part of the previous frame, so that it corresponds to the decision information. By creating three boundary images based on the parameter set and cutting out a region starting from the position of the target frame corresponding to the designated position (x, y) of the previous frame from the three boundary images, FIG. As in the case of 15, a good object extraction result can be obtained quickly.
[0145]
Further, in the case of FIG. 15, the user needs to designate a point on the object of the target frame. However, in the case of FIG. 16, the user does not need to make such designation. The operation burden can be further reduced.
[0146]
As described with reference to FIG. 16, before the user designates a point on the object of the target frame, the user extracts the object of the target frame using the history information about the previous frame, and displays the object extraction result. Whether to display on the result screens # 1 to # 3 can be set, for example, in the pull-down menu displayed by clicking the use record button 202 (FIG. 3) on the reference screen described above.
[0147]
Next, with reference to the flowchart of FIG. 17, the process which the
[0148]
First, in step S51, the
[0149]
In step S52, when it is determined that the history information of the previous frame is stored in the
[0150]
If it is determined in step S52 that the history information of the previous frame is not stored in the
[0151]
On the other hand, if it is determined in step S 51 that the event information represents “order designation”, the process proceeds to step
[0152]
Next, the method for determining the contents of the object extraction process in steps S53 to S55 in FIG. 17 will be specifically described with reference to the flowchart in FIG. If the event information represents “position specification”, the user clicks the mouse 9 to specify a position on the frame of interest. The coordinates of the position specified by the user Is included in the event information. If the event information represents “order designation”, the user operates the mouse 9 to rank the object extraction results displayed on the three
[0153]
In step S53 of FIG. 17, when determining the contents of the object extraction process based on the history information of the previous frame, first, in step S61, the process control is performed as shown in the flowchart of FIG. The
[0154]
In other words, the
[0155]
In step S62, the
[0156]
Thereafter, the
[0157]
In this case, the boundary detection unit 31 (FIG. 9) of the
[0158]
As described above, when the history information of the previous frame exists, the content of the object extraction process for the target frame is determined based on the history information and the position on the target frame specified by the user. For a portion having the same characteristics as the previous frame in the target frame, object extraction is performed by the same processing as in the previous frame. Therefore, accurate object extraction can be performed with an easy operation.
[0159]
Next, with reference to the flowchart of FIG. 18B, the process of the
[0160]
In this case, first, in step S71, the
[0161]
When it is determined in step S71 that the average value of the V components of 8 × 8 pixels including the pixel at the designated position is less than 50, the
[0162]
In other words, for regions with a small V component, it is empirical that segmentation of the region becomes inaccurate when the boundary image of the H or S plane is used compared to when the boundary image of the V plane is used. Therefore, in step S72, the determination plane is set as the V plane as described above.
[0163]
In step S73, the
[0164]
In this case, the edge detection unit 31 (FIG. 9) of the
[0165]
On the other hand, when it is determined in step S71 that the average value of the V components of 8 × 8 pixels including the pixel at the designated position is not less than 50, the process proceeds to step S74, and the
[0166]
That is, for a region having a somewhat large V component, the plane of the boundary image from which the region can be accurately cut out varies depending on the feature of the region. Furthermore, in this case, since there is no previous frame history information, it is difficult to predict which plane boundary image is appropriate for segmentation. Therefore, in step S74, the three planes H, S, and V are determined planes.
[0167]
In step S75, the
[0168]
In this case, the edge detection unit 31 (FIG. 9) of the
[0169]
Next, with reference to the flowchart of FIG. 18C, the process of the
[0170]
In this case, first, in step S81, the
[0171]
If it is determined in step S81 that the ranking is ranking for the plane, the process proceeds to step S82, and the
[0172]
In step S83, the
[0173]
In this case, the boundary detection unit 31 (FIG. 9) of the
[0174]
On the other hand, when it is determined in step S81 that the ranking is ranking with respect to the threshold value, the process proceeds to step S84, and the
[0175]
In step S85, the
[0176]
In this case, the boundary detection unit 31 (FIG. 9) of the
[0177]
As described above, when determining the contents of the object extraction process, if the user designates a certain position on the frame of interest, the history information of the previous frame does not exist and the V component near the designated position is present. When the average value of is equal to or greater than 50, three object extraction results are obtained from the boundary images of the three planes H, S, and V (steps S71, S74, and S75 in FIG. 18B). Then, when the planes are ranked with respect to the three object extraction results, three images are obtained from the first one plane image and the three boundary images created from the three threshold values TH1 to TH3. An object extraction result is obtained (steps S81 to S83 in FIG. 18C).
[0178]
Furthermore, when the user designates a certain position on the frame of interest, the history information of the previous frame does not exist and the average value of the V component near the designated position is less than 50. Three object extraction results are obtained from an image of a certain V plane and three boundary images created from the default three thresholds TH1 to TH3 (steps S71 to S73 in FIG. 18B).
[0179]
In addition, when the user designates a certain position on the frame of interest and the history information of the previous frame exists, it is determined based on one plane image determined based on the history information and the history information. Three object extraction results are obtained from the three boundary images created from the three threshold values TH1 to TH3 (FIG. 18A).
[0180]
As described above, after three object extraction results are obtained from an image of one plane and three boundary images created from three threshold values, the three object extraction results are ranked (with respect to the threshold values). When the ranking is performed, as described above, the three threshold values TH1 to TH3 are updated based on the ranking (steps S81, S84, and S85 in FIG. 18C).
[0181]
That is, for example, as shown in FIG. 19A, when the thresholds TH1, TH2, and TH3 are respectively designated as the first, second, and third positions, in the next object extraction process, As shown in FIG. 19B, the threshold value TH1 is the previous first threshold value, the threshold value TH2 is the average value of the previous first and second threshold values, and the threshold value TH3 is the previous threshold value. The second threshold is determined. Further, ranking is performed on the three object extraction results obtained using the three threshold values TH1 to TH3 determined in this way, and as a result, as shown in FIG. , TH3 are designated as the third place, the first place, and the second place, respectively, in the next object extraction process, as shown in FIG. The threshold TH2 is determined as the average value of the previous first and second thresholds, and the threshold TH3 is determined as the previous second threshold. Then, the three object extraction results obtained by using the three threshold values TH1 to TH3 determined in this way are ranked again, and as a result, as shown in FIG. When TH1, TH2, and TH3 are designated as the third, first, and second positions, respectively, in the next object extraction process, as shown in FIG. Are determined as the previous first threshold, the threshold TH2 is the average value of the previous first and second thresholds, and the threshold TH3 is determined as the previous second threshold.
[0182]
Therefore, by repeating the ranking, the threshold values TH1, TH2, and TH3 converge to values more suitable for extracting objects from the target frame, and as a result, accurate object extraction is possible. Become.
[0183]
Further, when there is history information of the previous frame, three threshold values TH1 to TH3 are determined based on the history information, so that the three threshold values TH1 to TH3 extract an object from the frame of interest. Therefore, the user does not perform the “order designation” operation so many times, that is, in the best case, the user does not perform the “order designation” operation once. However, it is possible to obtain a good object extraction result for the frame of interest.
[0184]
In the embodiment of FIGS. 18 and 19, when there is no history information and the average value of the V component near the designated position is 50 or more, the boundary image of the three planes H, S, and V When three object extraction results are obtained and the planes are ranked with respect to the three object extraction results, the image is generated from the image of the first one plane and the three threshold values TH1 to TH3. Three object extraction results are obtained from the two boundary images, and thereafter, the thresholds can be ranked.
[0185]
On the other hand, even when there is no history information, when the average value of the V component near the designated position is less than 50, as described above, from an empirical rule, an image of one plane and three Three object extraction results are obtained from the three boundary images created from the thresholds TH1 to TH3, and then the thresholds can be ranked. Therefore, in this case, the user does not need to rank the planes, and the operation burden on the user can be reduced accordingly.
[0186]
Next, the initial extraction process in step S14 of FIG. 4 will be described.
[0187]
In the initial extraction process, the user uses the final object extraction result and history information obtained from the previous frame without performing the “position specification” for specifying the position of the object for the new attention frame. A plurality of (three in this embodiment) object extraction processes are performed, and the object extraction results are displayed on the display unit 5.
[0188]
That is, FIG. 20 shows a display example of the screen on the display unit 5 immediately after the initial extraction process is performed for a new frame of interest.
[0189]
In the embodiment of FIG. 20, the reference screen displays a new image of the frame of interest (original image), and the result screens # 1 to # 3 show the final object extraction obtained from the previous frame. Three object extraction results by three object extraction processes performed using the results and history information are respectively displayed.
[0190]
In the embodiment of FIG. 20, a reset record button (Reset Record) 205 is newly displayed below the undo
[0191]
The object extraction result for the new frame of interest displayed on the result screens # 1 to # 3 is obtained by performing, for example, the following first to third initial extraction processes in the
[0192]
That is, for example, assume that a history image as shown in FIG. 21A can be obtained for the previous frame. Here, the embodiment of FIG. 21 (A) shows a history image in the case where the portion where the person is displayed is extracted as an object from the previous frame where the whole body of the person is displayed. Furthermore, the history information in FIG. 21A is obtained by using an S-plane image for the human head region and an H-plane image for the torso region using the
[0193]
In the first initial extraction process, for example, the
[0194]
If the coordinates of the center of gravity of a certain region are expressed as (X, Y), the center of gravity (X, Y) can be obtained, for example, according to the following equation.
[0195]
X = Σxk/ N
Y = Σyk/ N
However, N represents the number of pixels constituting a certain region, and Σ represents summation when the variable k is changed from 1 to N. Also, (xk, Yk) Represents the coordinates of the kth pixel constituting a certain area.
[0196]
For each of the human head region, body region, and lower body region, for example, as shown in FIG. 21B, the center of gravity (x1, y1), (x2, y2), (x3, y3) Is obtained, the
[0197]
Thereafter, the
[0198]
The
[0199]
Thereby, as shown in FIG. 21C, the
[0200]
Next, in the second initial extraction process, the
[0201]
That is, the
[0202]
Next, in the third initial extraction process, the
[0203]
Since the initial extraction process described above is automatically performed without waiting for user input after the frame of interest has been changed to a new frame, user operations such as “position designation” and “order designation” are performed. The burden can be reduced.
[0204]
By the way, for any one of the three object extraction results obtained by the initial extraction process, the user performs an operation of “acquire all” or “partial acquisition”. When all or a part of any of these is reflected in the
[0205]
Therefore, the history information of the previous frame can be inherited by the history information of the next frame.
[0206]
That is, for example, as shown in FIG. 23A, after the final object extraction result is obtained for the previous frame, the initial extraction process is performed, so that the object extraction result of the target frame is displayed on the result screen. Suppose that a part of the object extraction result is reflected in the
[0207]
In this case, the
[0208]
In addition, the
[0209]
Such inheritance of history information is reflected in the
[0210]
That is, in the first and third initial extraction processes, as described above, the object extraction from the frame of interest is performed based on the history information of the previous frame, so the object extraction result is reflected in the
[0211]
On the other hand, in the second initial extraction process, as described above, the object is extracted from the frame of interest by template matching. Therefore, even if the object extraction result is reflected in the
[0212]
For this reason, as described above, the history information is inherited only when the object extraction results obtained by the first and third initial extraction processes are reflected in the
[0213]
However, the history information can be inherited even if any of the object extraction results obtained by the first to third initial extraction processes is reflected in the
[0214]
As described above, a plurality of object extraction results are obtained by a plurality of processes, and a good one is judged from the plurality of object extraction results, and reflected in the final object extraction result. Therefore, accurate object extraction can be performed with an easy operation.
[0215]
Furthermore, when there is history information of the previous frame, the object extraction of the frame of interest is performed based on the history information and the position on the frame of interest input by the user. Thus, accurate object extraction can be performed.
[0216]
That is, in the image processing apparatus of FIG. 2, when the user designates a certain position on the object of the target frame, the region of the target frame is cut out by three processes (object extraction) starting from that position. Three object extraction results obtained as a result are displayed. Furthermore, when the user designates ranks for the three object extraction results as necessary, the region of the frame of interest is cut out again by three processes based on the ranks, and the three object extraction results obtained as a result Is displayed. When the user designates an appropriate one from the three object extraction results, the designated object extraction result is reflected in the final object extraction result. Therefore, the user repeats the less burdensome operations of specifying the position on the object, specifying the required order, and specifying the appropriate object extraction result as many times as necessary, so that the object can be accurately extracted from the frame of interest. Can be extracted.
[0217]
Further, when the next frame is set as the frame of interest, the history information created for the previous frame (previous frame) is referred to correspond to the pixel at the position input by the user on the frame of interest. The parameter set used to extract the pixels of the previous frame as an object is recognized, and the contents of the three object extraction processes are determined based on the parameter set. Therefore, the user can obtain a good object extraction result from the frame of interest simply by performing an operation with less burden of designating the position of the frame of interest on the object.
[0218]
In the present embodiment, the user specifies the position of the target frame on the object. However, for example, the user may specify a range of a part of the target frame object. Is also possible.
[0219]
In this embodiment, the object extraction of the target frame is performed based on the history information of only the previous frame. However, the object extraction of the target frame is performed on the history information of the past several frames, for example. It is also possible to perform weighting based on the weighted history information. In the present embodiment, the history information of the previous frame is used for object extraction from the frame of interest, assuming that the frames are processed in time order. However, for example, the frames are processed in reverse order of time. In this case, it is possible to use history information of a frame that follows in time for extracting an object from the frame of interest.
[0220]
Furthermore, in the present embodiment, an object is extracted from each frame of a moving image, but the present invention can also be applied to object extraction from a still image.
[0221]
In addition to extracting a so-called foreground portion, the present invention can also be applied to, for example, extracting some constituent elements of the background.
[0222]
Furthermore, the object extraction process described in the present embodiment is an exemplification, and what kind of object extraction process is adopted is not particularly limited.
[0223]
The present invention can be widely applied to image processing apparatuses such as broadcast systems and editing systems.
【The invention's effect】
Of the present inventionAccording to one aspect,Accurate object extraction can be performed with an easy operation.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a hardware configuration example of an embodiment of an image processing apparatus to which the present invention has been applied.
FIG. 2 is a block diagram illustrating a functional configuration example of the image processing apparatus in FIG. 1;
FIG. 3 is a diagram showing a display example of a screen on the display unit 5;
4 is a flowchart illustrating processing of the image processing apparatus in FIG.
FIG. 5 is a diagram for explaining switching of display on the basic screen.
FIG. 6 is a diagram for explaining “undo” and “partial deletion”;
FIG. 7 is a diagram showing how a user designates a point on an object.
FIG. 8 is a diagram for explaining “all acquisition” and “partial acquisition”;
9 is a block diagram illustrating a configuration example of a
FIG. 10 is a diagram for explaining thinning processing;
FIG. 11 is a diagram illustrating a boundary image.
12 is a flowchart for explaining processing of a
FIG. 13 is a diagram for explaining processing of the
FIG. 14 is a diagram for explaining update of history information;
FIG. 15 is a diagram for explaining object extraction based on history information;
FIG. 16 is a diagram for explaining object extraction based on history information;
FIG. 17 is a flowchart for explaining processing of the processing control unit;
18 is a flowchart for explaining more details of the processing in steps S53 to S55 in FIG.
FIG. 19 is a diagram for explaining threshold update;
20 is a diagram showing a display example of a screen on the display unit 5. FIG.
FIG. 21 is a diagram for explaining a first initial extraction process;
FIG. 22 is a diagram for explaining a second initial extraction process;
FIG. 23 is a diagram for explaining inheritance of history information;
[Explanation of symbols]
1 storage, 2 attention frame processing section, 3 object extraction section, 4 history management section, 5 display section, 6 motion detection section, 7 processing control section, 8 event detection section, 9 mouse, 21 attention frame buffer, 22 background buffer, 23 object buffer, 24 selector, 31 boundary detection unit, 32 cutout unit, 32A to 32C output buffer, 33 result processing unit, 33A to 33C result buffer, 41 designated position storage unit, 42 history image storage unit, 43 parameter table storage unit , 61 Previous frame buffer, 71 Position correction unit, 101 bus, 102 CPU, 103 ROM, 104 RAM, 105 hard disk, 106 output unit, 107 input unit, 108 communication unit, 109 drive, 110 I / O interface Ace, 111 Removable recording medium, 201 Change display button, 202 Use record button, 203 Delete partly button, 204 Undo button, 205 Reset record button, 206 Rank result button, 207 Grab all button, 208 Grab part button, 211 HSV Separation unit, 212H, 212S, 212V Edge detection unit, 213H, 213S, 213V Binarization unit, 214H, 214S, 214V Thinning unit, 215H, 215S, 215V Boundary image storage unit
Claims (6)
注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出手段と、
前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択手段と、
前記選択手段において選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映手段と、
前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出に用いられた処理の内容である処理履歴と、ユーザからの入力に基づいて、注目画面からオブジェクトを抽出する処理の内容を決定する決定手段と、
前記処理履歴を記憶する処理履歴記憶手段と
を備え、
前記複数の処理は、異なる閾値を用いた処理であり、
前記履歴情報は、前記オブジェクトを構成する画素ごとの、前記オブジェクトの抽出に用いられた閾値を含み、
前記決定手段は、
前記ユーザが入力した前記注目画面の所定の点を、前記注目画面と前記注目画面より時間的に前に処理された前画面との間の動きベクトルによって補正することにより、前記注目画面の所定の点に対応する、前記前画面の点を求め、
前記前画面についての前記処理履歴に基づいて、前記注目画面の所定の点に対応する、前記前画面の点の画素がオブジェクトとして抽出されたときに用いられた所定の閾値を取得し、
前記所定の閾値と、前記所定の閾値を用いた所定の演算により求められる値とを、前記注目画面の所定の点を含むオブジェクトを抽出する複数の処理に用いられる閾値に決定する
画像処理装置。An image processing apparatus for extracting a predetermined object from an image,
An object extracting means for extracting an object by a plurality of processes from an image of a focused screen of interest;
A selection means for selecting, based on an input from a user, an object to be reflected in a final object extraction result from the object extraction results by the plurality of processes;
Reflecting means for reflecting the object extraction result selected by the selection means in the final object extraction result;
Determination means for determining the content of the process for extracting the object from the screen of interest based on the processing history that is the content of the process used for extracting the object reflected in the final object extraction result and the input from the user When,
Processing history storage means for storing the processing history ,
The plurality of processes are processes using different thresholds,
The history information includes a threshold value used for extracting the object for each pixel constituting the object,
The determining means includes
By correcting a predetermined point of the attention screen input by the user by a motion vector between the attention screen and a previous screen processed before the attention screen, a predetermined point of the attention screen is obtained. Find the previous screen point corresponding to the point,
Based on the processing history for the previous screen, obtain a predetermined threshold used when a pixel of the point on the previous screen corresponding to the predetermined point on the screen of interest is extracted as an object;
The predetermined threshold value and a value obtained by a predetermined calculation using the predetermined threshold value are determined as threshold values used for a plurality of processes for extracting an object including the predetermined point on the target screen.
Images processing device.
請求項1に記載の画像処理装置。The process history storage means, from the target screen, object extracted based on the processing history for the previous screen, if said reflected in attention screen final object extraction result, for the front screen the threshold value of each pixel constituting the object included in the processing history, the focused screen and can be obtained by correcting the motion vector between the previous screen, the threshold for each pixel of the position moved by the motion vector amount and performs the inheritance of processing history to be copied as the processing history for the attention screen
The image processing apparatus according to claim 1 .
前記決定手段は、前記ユーザが前記注目画面の点を入力する前に、
前記前画面についての前記入力履歴に基づいて、前記前画面において、前記ユーザが入力した所定の点を、前記注目画面と前画面との間の動きベクトルによって補正することにより、前記前画面の所定の点に対応する、前記注目画面の点を求め、
前記前画面についての前記処理履歴に基づいて、前記前画面の所定の点の画素がオブジェクトとして抽出されたときに用いられた閾値を取得し、
前記前画面の所定の点の画素がオブジェクトとして抽出されたときに用いられた閾値を、前記前画面の所定の点に対応する、前記注目画面の点を含むオブジェクトを抽出する処理に用いられる閾値に決定する
請求項1に記載の画像処理装置。An input history storage means for storing an input history that is a history of coordinates of points input by the user when extracting the object reflected in the final object extraction result ;
The determination means, before the user inputs a point of the attention screen,
Based on the input history for the previous screen, a predetermined point input by the user on the previous screen is corrected by a motion vector between the attention screen and the previous screen, thereby obtaining a predetermined value for the previous screen. The point of the attention screen corresponding to the point of
Based on the processing history for the previous screen, obtain a threshold value used when a pixel at a predetermined point on the previous screen is extracted as an object,
The threshold value used when the pixel at the predetermined point on the previous screen is extracted as an object, and the threshold value used in the process of extracting the object including the point on the target screen corresponding to the predetermined point on the previous screen To decide
The image processing apparatus according to claim 1 .
請求項3に記載の画像処理装置。The input history storage means, when an object extracted from the attention screen based on the input history for the previous screen has been reflected in the final object extracted result of the attention window, the input history of the previous frame A point on the target screen corresponding to the predetermined point on the previous screen, obtained by correcting the predetermined point on the previous screen with a motion vector between the target screen and the previous screen, carry out the inheritance of the input history to be copied as the input history for the target screen
The image processing apparatus according to claim 3 .
注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出ステップと、
前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択ステップと、
前記選択ステップにおいて選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映ステップと、
前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出に用いられた処理の内容である処理履歴と、ユーザからの入力に基づいて、注目画面からオブジェクトを抽出する処理の内容を決定する決定ステップと、
前記処理履歴を記憶する処理履歴記憶ステップと
を備え、
前記複数の処理は、異なる閾値を用いた処理であり、
前記履歴情報は、前記オブジェクトを構成する画素ごとの、前記オブジェクトの抽出に用いられた閾値を含み、
前記決定ステップでは、
前記ユーザが入力した前記注目画面の所定の点を、前記注目画面と前記注目画面より時間的に前に処理された前画面との間の動きベクトルによって補正することにより、前記注目画面の所定の点に対応する、前記前画面の点を求め、
前記前画面についての前記処理履歴に基づいて、前記注目画面の所定の点に対応する、前記前画面の点の画素がオブジェクトとして抽出されたときに用いられた所定の閾値を取得し、
前記所定の閾値と、前記所定の閾値を用いた所定の演算により求められる値とを、前記注目画面の所定の点を含むオブジェクトを抽出する複数の処理に用いられる閾値に決定する
画像処理方法。An image processing method for extracting a predetermined object from an image,
An object extraction step of extracting an object by a plurality of processes from an image of an attention screen of interest;
A selection step of selecting what is reflected in the final object extraction result from the object extraction results by the plurality of processes based on an input from the user;
A reflecting step of reflecting the object extraction result selected in the selection step in a final object extraction result;
A determination step of determining the content of processing for extracting an object from the screen of interest based on the processing history that is the content of processing used for extracting the object reflected in the final object extraction result and the input from the user When,
A processing history storage step for storing the processing history ,
The plurality of processes are processes using different thresholds,
The history information includes a threshold value used for extracting the object for each pixel constituting the object,
In the determining step,
By correcting a predetermined point of the attention screen input by the user by a motion vector between the attention screen and a previous screen processed before the attention screen, a predetermined point of the attention screen is obtained. Find the previous screen point corresponding to the point,
Based on the processing history for the previous screen, obtain a predetermined threshold used when a pixel of the point on the previous screen corresponding to the predetermined point on the screen of interest is extracted as an object;
The predetermined threshold value and a value obtained by a predetermined calculation using the predetermined threshold value are determined as threshold values used for a plurality of processes for extracting an object including the predetermined point on the target screen.
Images processing method.
注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出手段と、
前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択手段と、
前記選択手段において選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映手段と、
前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出に用いられた処理の内容である処理履歴と、ユーザからの入力に基づいて、注目画面からオブジェクトを抽出する処理の内容を決定する決定手段と、
前記処理履歴を記憶する処理履歴記憶手段と
して、コンピュータを機能させるためのプログラムであり、
前記複数の処理は、異なる閾値を用いた処理であり、
前記履歴情報は、前記オブジェクトを構成する画素ごとの、前記オブジェクトの抽出に用いられた閾値を含み、
前記決定手段は、
前記ユーザが入力した前記注目画面の所定の点を、前記注目画面と前記注目画面より時間的に前に処理された前画面との間の動きベクトルによって補正することにより、前記注目画面の所定の点に対応する、前記前画面の点を求め、
前記前画面についての前記処理履歴に基づいて、前記注目画面の所定の点に対応する、前記前画面の点の画素がオブジェクトとして抽出されたときに用いられた所定の閾値を取得し、
前記所定の閾値と、前記所定の閾値を用いた所定の演算により求められる値とを、前記注目画面の所定の点を含むオブジェクトを抽出する複数の処理に用いられる閾値に決定する
プログラムが記録されている記録媒体。A recording medium on which a program for causing a computer to perform image processing for extracting a predetermined object from an image is recorded,
An object extracting means for extracting an object by a plurality of processes from an image of a focused screen of interest;
A selection means for selecting, based on an input from a user, an object to be reflected in a final object extraction result from the object extraction results by the plurality of processes;
Reflecting means for reflecting the object extraction result selected by the selection means in the final object extraction result;
Determination means for determining the content of the process for extracting the object from the screen of interest based on the processing history that is the content of the process used for extracting the object reflected in the final object extraction result and the input from the user When,
Processing history storage means for storing the processing history;
And a program to make the computer function,
The plurality of processes are processes using different thresholds,
The history information includes a threshold value used for extracting the object for each pixel constituting the object,
The determining means includes
By correcting a predetermined point of the attention screen input by the user by a motion vector between the attention screen and a previous screen processed before the attention screen, a predetermined point of the attention screen is obtained. Find the previous screen point corresponding to the point,
Based on the processing history for the previous screen, obtain a predetermined threshold used when a pixel of the point on the previous screen corresponding to the predetermined point on the screen of interest is extracted as an object;
The predetermined threshold value and a value obtained by a predetermined calculation using the predetermined threshold value are determined as threshold values used for a plurality of processes for extracting an object including the predetermined point on the target screen.
Record medium in which the program is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000274767A JP4482779B2 (en) | 2000-09-11 | 2000-09-11 | Image processing apparatus, image processing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000274767A JP4482779B2 (en) | 2000-09-11 | 2000-09-11 | Image processing apparatus, image processing method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002092612A JP2002092612A (en) | 2002-03-29 |
JP4482779B2 true JP4482779B2 (en) | 2010-06-16 |
Family
ID=18760478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000274767A Expired - Fee Related JP4482779B2 (en) | 2000-09-11 | 2000-09-11 | Image processing apparatus, image processing method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4482779B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4609936B2 (en) * | 2005-03-28 | 2011-01-12 | 株式会社Kddi研究所 | Object detection method |
CN112651896B (en) * | 2020-12-30 | 2024-08-16 | 成都星时代宇航科技有限公司 | Effective vector range determining method and device, electronic equipment and readable storage medium |
-
2000
- 2000-09-11 JP JP2000274767A patent/JP4482779B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002092612A (en) | 2002-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4482778B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP5538909B2 (en) | Detection apparatus and method | |
JP3690391B2 (en) | Image editing apparatus, image trimming method, and program | |
US20050220346A1 (en) | Red eye detection device, red eye detection method, and recording medium with red eye detection program | |
JP2001236497A (en) | Method for automatically forming cropped and zoomed deformation of photographic image | |
JPH11505051A (en) | Object Identification in Video Sequence | |
US20150036945A1 (en) | Reconstruction of Missing Regions Of Images | |
JP2011119974A (en) | Panoramic image synthesizer, panoramic image synthesis method, and program | |
US20220270232A1 (en) | Apparatus for adjusting parameter related to defect detection for image processing for image processing, method for information processing, and program | |
US10643096B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP4052128B2 (en) | Image trimming apparatus, image trimming method, and program | |
US6816633B1 (en) | Image retrieval apparatus and method | |
CN111986291A (en) | Automatic composition of content-aware sampling regions for content-aware filling | |
JP4482779B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JPH1185962A (en) | Picture position adjustment device and computer readable recording medium recording picture position adjustment program | |
WO2005055144A1 (en) | Person face jaw detection method, jaw detection system, and jaw detection program | |
KR102045753B1 (en) | Image editing processing apparatus that supports transparency processing of the background area of an image and operating method thereof | |
JP2000339452A (en) | Method and device for extracting picture and storage medium | |
JP2006133874A (en) | Method and apparatus for processing image | |
JP7459151B2 (en) | Information processing device, information processing system, information processing method, and program | |
JPH07121710A (en) | Method and device for image segmentation | |
JP2002208013A (en) | Device for extracting image area and method for the same | |
US20230169708A1 (en) | Image and video matting | |
JP3719247B2 (en) | Image editing apparatus, image trimming method, and program | |
JPH1145345A (en) | Picture processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100225 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100310 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |