JP7080614B2 - Image processing equipment, image processing system, image processing method, and program - Google Patents
Image processing equipment, image processing system, image processing method, and program Download PDFInfo
- Publication number
- JP7080614B2 JP7080614B2 JP2017191753A JP2017191753A JP7080614B2 JP 7080614 B2 JP7080614 B2 JP 7080614B2 JP 2017191753 A JP2017191753 A JP 2017191753A JP 2017191753 A JP2017191753 A JP 2017191753A JP 7080614 B2 JP7080614 B2 JP 7080614B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- image processing
- subject
- extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、撮影画像から特定の領域を抽出する技術に関するものである。 The present invention relates to a technique for extracting a specific region from a photographed image.
撮影画像内の所定のオブジェクト(被写体)を含む領域を、前景領域として当該撮影画像から抽出する前景背景分離という技術がある。この技術によれば、例えば、撮影画像に含まれる移動する人物の画像を自動で得ることができる。前景背景分離の方法としては、撮影画像と予め記憶されている背景画像との差分に基づいて前景領域を抽出する背景差分法や、連続して撮影された複数の撮影画像の差分に基づいて前景領域を抽出するフレーム間差分法がある。 There is a technique called foreground background separation that extracts a region including a predetermined object (subject) in a captured image as a foreground region from the captured image. According to this technique, for example, an image of a moving person included in a captured image can be automatically obtained. Background subtraction methods include background subtraction, which extracts the foreground area based on the difference between the captured image and the background image stored in advance, and the foreground, which is based on the difference between multiple captured images taken continuously. There is an interframe subtraction method that extracts areas.
特許文献1には、背景差分法において撮影環境の明るさの変化に応じて背景画像を更新することで、撮影画像からの移動物体の誤検出を防止することが記載されている。 Patent Document 1 describes that the background subtraction method updates a background image according to a change in the brightness of the shooting environment to prevent erroneous detection of a moving object from the shot image.
しかしながら、従来の技術では、複数の異なるタイミングでの撮影に基づく複数の画像の差分に基づいて、抽出すべき所定の被写体の領域とそれとは別の領域とが区別なく抽出されてしまう場合がある。例えば、撮影画像内に抽出すべき移動する物体と、表示内容が時間と共に変化するディスプレイとが含まれる場合に、移動する物体の領域とディスプレイの領域とが同様に抽出されてしまう。 However, in the conventional technique, a predetermined subject area to be extracted and another area may be extracted without distinction based on the difference between a plurality of images taken at different timings. .. For example, when a moving object to be extracted and a display whose display contents change with time are included in the captured image, the area of the moving object and the area of the display are similarly extracted.
本発明は上記の課題に鑑みてなされたものであり、複数の異なるタイミングでの撮影に基づく複数の画像の差分に基づいて、抽出すべき所定の被写体の領域とそれとは別の領域とが区別なく抽出されてしまうことを抑制することを目的とする。 The present invention has been made in view of the above problems, and a region of a predetermined subject to be extracted and a region different from the region of a predetermined subject to be extracted are distinguished based on the difference between a plurality of images based on shooting at a plurality of different timings. The purpose is to prevent it from being extracted without any problem.
上記の課題を解決するため、本発明に係る画像処理装置は、例えば以下の構成を有する。すなわち、撮影装置による撮影に基づく画像から所定の被写体に対応する被写体領域を抽出する画像処理装置であって、第1所定操作により指定される第1期間内における複数のタイミングでの前記撮影装置による撮影に基づく複数の画像の差分に基づいて、第2所定操作により指定される第2期間内における前記撮影装置による撮影に基づく抽出対象画像の内部の領域であって前記被写体領域の抽出の対象としない領域を特定する特定手段と、前記抽出対象画像と、前記抽出対象画像の撮影タイミングとは異なるタイミングでの前記撮影装置による撮影に基づく別の画像との差分に基づいて、前記抽出対象画像の内部の前記被写体領域を抽出する抽出手段であって、前記特定手段により特定される領域に含まれない画素により構成される前記被写体領域を抽出する抽出手段とを有する。 In order to solve the above problems, the image processing apparatus according to the present invention has, for example, the following configuration. That is, it is an image processing device that extracts a subject area corresponding to a predetermined subject from an image based on the image taken by the photographing device, and is based on the photographing device at a plurality of timings within a first period designated by the first predetermined operation. Based on the difference between a plurality of images based on shooting, the area inside the image to be extracted based on shooting by the shooting device within the second period specified by the second predetermined operation, and the target of extraction of the subject area. The extraction target image is based on the difference between the specific means for specifying a region not to be extracted and another image based on the imaging by the imaging device at a timing different from the imaging timing of the extraction target image. It is an extraction means for extracting the subject area inside, and has an extraction means for extracting the subject area composed of pixels not included in the area specified by the specific means.
本発明によれば、複数の異なるタイミングでの撮影に基づく複数の画像の差分に基づいて、抽出すべき所定の被写体とそれとは別の領域とが区別なく抽出されてしまうことを抑制することが可能となる。 According to the present invention, it is possible to suppress that a predetermined subject to be extracted and a region different from the predetermined subject are extracted without distinction based on the difference between a plurality of images taken at a plurality of different timings. It will be possible.
[システム構成]
図1(a)は、実施形態に係る画像処理システム10の概略構成を説明するための図である。画像処理システム10は、画像処理装置100、撮影装置110、及び画像処理サーバ120を有する。
[System configuration]
FIG. 1A is a diagram for explaining a schematic configuration of an
撮影装置110は、撮影を行うことで撮影画像を生成し、当該撮影画像を画像処理装置100に入力する。撮影装置110は例えば、撮影画像を入力するためのシリアルデジタルインタフェース(SDI)などの画像信号インターフェイスを備えるデジタルビデオカメラである。なお、本実施形態における撮影画像は、撮影後にフィルタ処理や解像度変換などの画像処理が行われた画像を含む。
The photographing
画像処理装置100は、撮影装置110から入力される撮影画像に対して画像処理を行い、撮影画像から前景領域を抽出することで、撮影画像を前景領域と背景領域に分離する。本実施形態ではこの処理を前景背景分離と呼ぶ。本実施形態において前景領域とは、撮影画像における所定のオブジェクト(被写体)に対応する被写体領域であり、背景領域とは当該所定の被写体に対応しない領域である。例えば画像処理装置100は、サッカーの試合が行われている競技場において撮影装置110が撮影した撮影画像を取得し、取得した撮影画像を、選手や審判、ボールなどの所定の被写体を含む前景領域と、フィールド面や客席などを含む背景領域とに分離する。そして画像処理装置100は、前景領域に基づく前景画像と背景領域に基づく背景画像とを、画像処理サーバ120に出力する。
The
画像処理装置100の詳細な構成については後述する。なお、撮影装置110による撮影対象はサッカーに限らず、ラグビーや相撲など他の競技であってもよいし、ステージでのライブなどであってもよい。また、画像処理装置100により前景領域として抽出される所定の被写体は、選手やボールに限らない。
The detailed configuration of the
画像処理サーバ120は、画像処理装置100から入力された画像に基づく画像処理を行う。例えば画像処理サーバ120は、ネットワークケーブルを介して画像処理装置100から前景画像と背景画像を取得し、表示用の画像を生成して表示部(不図示)に表示させる。
The
本実施形態において、画像処理システム10は、図1(a)に示すように複数の撮影装置110と複数の画像処理装置100を有する。複数の撮影装置110は、例えば撮影対象となる競技場などに設置され、それぞれ異なる方向から撮影を行う。複数の画像処理装置100は、それぞれが対応する撮影装置110から撮影画像を取得し、前景背景分離を行って前景画像と背景画像を画像処理サーバ120に出力する。すなわち、画像処理サーバ120は、複数の撮影装置による撮影画像それぞれに対する抽出処理により得られる複数の前景画像と複数の背景画像とを取得する。そして画像処理サーバ120は、前景領域として抽出された所定の被写体を含む仮想視点画像を生成する。なお、図1(a)においては画像処理システム10内に2台の撮影装置110が含まれるが、撮影装置110の数はこれに限定されず、3台以上であってもよい。
In the present embodiment, the
本実施形態における仮想視点画像は、仮想的な視点(仮想視点)から被写体を撮影した場合に得られる画像を表す。言い換えると、仮想視点画像は、指定された視点における視界を表す画像である。仮想視点は、例えば画像処理サーバ120のユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお本実施形態では、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム10は、静止画及び動画の何れについても処理可能である。
The virtual viewpoint image in the present embodiment represents an image obtained when a subject is photographed from a virtual viewpoint (virtual viewpoint). In other words, a virtual viewpoint image is an image that represents the field of view at a specified viewpoint. The virtual viewpoint may be designated, for example, by the user of the
仮想視点画像を生成するために画像処理サーバ120は、仮想視点の指定に応じた視点情報を取得する。また画像処理サーバ120は、撮影方向の異なる複数の撮影装置110に対応する複数の画像処理装置100から取得した複数の前景画像に基づいて、前景領域として抽出される所定の被写体の三次元モデルを生成する。三次元モデル生成には、例えばVisual Hullを用いる方法など、既知の方法が使用される。そして画像処理サーバ120は、取得した視点情報、三次元モデル、及び背景画像に基づいてレンダリングを行い、所定の被写体を含む仮想視点画像を生成する。
In order to generate the virtual viewpoint image, the
なお、画像処理サーバ120が仮想視点画像の生成する方法は、三次元モデルを用いる方法に限らず、他の方法であってもよい。例えば画像処理サーバ120は、取得した前景画像と背景画像をそれぞれ視点情報に基づいて射影変換し、変換後の前景画像と背景画像とを合成することで仮想視点画像を生成してもよい。また、画像処理サーバ120が行う処理は仮想視点画像などの画像生成に限らず、例えば取得した前景画像自体を表示させる処理であってもよいし、前景画像や背景画像、三次元モデルなどを対応付けて外部のデータベースに出力する処理であってもよい。
The method for generating the virtual viewpoint image by the
上記において図1(a)を用いて説明したように、本実施形態の画像処理システム10においては、複数の撮影装置110による撮影画像に対する前景背景分離を、複数の画像処理装置100に分散させて行う。これにより、画像処理サーバ120において一括して前景背景分離を行う場合と比べて、画像処理サーバ120の負荷を低減し、画像処理システム10全体としての処理に係る遅延を低減できる。なお、画像処理システム10の構成は上記で説明したものに限らない。例えば、単一の画像処理装置100が複数の撮影装置110から撮影画像を取得し、それぞれの撮影画像に対して前景背景分離を行ってもよい。また、画像処理装置100と画像処理サーバ120とが一体となって構成されていてもよいし、後述する画像処理装置100の構成要素が複数の装置に分かれていてもよい。
As described above with reference to FIG. 1A, in the
[装置構成]
図1(b)は、本実施形態に係る画像処理装置100のハードウェア構成について説明するための図である。なお、画像処理サーバ120の構成も画像処理装置100と同様である。画像処理装置100は、CPU111、RAM112、ROM113、入力部114、外部インターフェイス115、及び出力部116を有する。
[Device configuration]
FIG. 1B is a diagram for explaining a hardware configuration of the
CPU111は、RAM112やROM113に格納されているコンピュータプログラムやデータを用いて画像処理装置100の全体を制御する。なお、画像処理装置100がCPU111とは異なる専用の1又は複数のハードウェアやGPU(Graphics Processing Unit)を有し、CPU111による処理の少なくとも一部をGPUや専用のハードウェアが行ってもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。RAM112は、ROM113から読みだされたコンピュータプログラムやデータ、及び外部インターフェイス115を介して外部から供給されるデータなどを一時的に記憶する。ROM113は、変更を必要としないコンピュータプログラムやデータを保持する。
The CPU 111 controls the entire
入力部114は、例えば操作ボタン、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどで構成され、ユーザによる操作を受け付けて各種の指示をCPU111に入力する。外部インターフェイス115は、撮影装置110や画像処理サーバ120などの外部の装置と通信を行う。外部の装置との通信はLAN(Local Area Network)ケーブルやSDIケーブルなどを用いて有線で行われてもよいし、アンテナを介して無線で行われてもよい。出力部116は、例えば、ディスプレイなどの表示部やスピーカなどの音声出力部で構成され、ユーザが画像処理装置100を操作するためのGUI(Graphical User Interface)を表示したりガイド音声を出力したりする。
The input unit 114 is composed of, for example, an operation button, a jog dial, a touch panel, a keyboard, a mouse, and the like, and receives an operation by a user and inputs various instructions to the CPU 111. The
次に、図1(a)に示した画像処理装置100の機能構成の詳細について説明する。画像処理装置100は、前景背景分離部101(以降、分離部101)、変化領域検出部102(以降、検出部102)、及び通信部103を有する。画像処理装置100が有するこれらの各機能部は、CPU111がROM113に格納されたプログラムをRAM112に展開して実行することで実現される。なお、図1(a)に示す画像処理装置100の機能部の少なくとも一部を、CPU111とは異なる専用の1又は複数のハードウェアやGPUにより実現してもよい。
Next, the details of the functional configuration of the
分離部101は、撮影装置110から入力された撮影画像に対して前景背景分離を行い、前景画像と背景画像を通信部103に出力する。本実施形態において分離部101は、背景差分法を用いて撮影画像内の前景領域を抽出する。背景差分法においては、抽出すべき被写体が含まれる撮影画像と、予め記憶されており当該被写体が含まれない背景画像とを比較し、画素値の差が閾値より大きい領域を抽出する。例えば、抽出すべき選手が撮影範囲に含まれる試合中に撮影された撮影画像と、選手が撮影範囲内に存在しない試合前に撮影された背景画像とを比較することで、撮影画像内の選手に対応する領域が抽出される。なお、分離部101による前景背景分離の方法はこれに限らず、例えばフレーム間差分法が用いられてもよい。フレーム間差分法においては、同一の撮影装置により連続して撮影された複数の撮影画像の差分に基づく領域が抽出される。
The
ここで、分離部101が従来の背景差分法をそのまま使用した場合、抽出すべき被写体の領域だけを抽出することができない場合が考えられる。例えば、競技場におけるサッカーの試合を撮影した撮影画像から、選手が映っている領域を抽出したい場合を考える。図5(a)は抽出処理の対象となる撮影画像5000の例を示している。撮影画像5000には、選手5001とフィールド2001に加え、フィールド脇に設置された広告表示用のディスプレイ2002、ディスプレイ2003、及びディスプレイ2004が映っている。ディスプレイ2002-2004は、それぞれ時間経過に伴って変化する画像を表示する。
Here, when the
この場合に、図5(b)に示すような事前に撮影された撮影画像を背景画像5100として、撮影画像5000に対して背景差分法が実行されると、図5(c)に示すような差分領域画像5200が得られる。本実施形態における差分領域画像5200とは、具体的には、撮影画像5000内の画素のうち背景画像5100内の対応する画素との画素値の差分が閾値より大きい画素により構成される画像である。ただし、差分領域画像5200は撮影画像5000と背景画像5100との差分が閾値以上である領域の画像であればよく、1画素ごとに画素値の差を算出することにより特定されるものに限らない。例えば、撮影画像5000と背景画像5100との差分を複数の画素により構成されるブロックごとに算出してもよい。複数の画像における対応するブロックの差分は、ブロック内における画素値の平均値を用いて算出されてもよいし、ブロック内における画素値の最頻値などを用いて算出されてもよい。 In this case, when the background subtraction method is executed on the captured image 5000 with the captured image captured in advance as shown in FIG. 5 (b) as the background image 5100, as shown in FIG. 5 (c). A difference region image 5200 is obtained. The difference region image 5200 in the present embodiment is specifically an image composed of pixels in the captured image 5000 whose pixel value difference from the corresponding pixel in the background image 5100 is larger than the threshold value. .. However, the difference area image 5200 may be an image in a region where the difference between the captured image 5000 and the background image 5100 is equal to or greater than the threshold value, and is not limited to the one specified by calculating the difference in pixel values for each pixel. .. For example, the difference between the captured image 5000 and the background image 5100 may be calculated for each block composed of a plurality of pixels. The difference between the corresponding blocks in a plurality of images may be calculated by using the average value of the pixel values in the block, or may be calculated by using the mode value of the pixel values in the block or the like.
図5(c)に示すように、従来の背景差分法が実行された場合、選手5001に対応する領域と共に、ディスプレイ2002-2004の表示面に対応する領域も同様に抽出されてしまう。これらの領域が同様に抽出されてしまうと、抽出結果に基づいて画像処理サーバ120により生成される仮想視点画像の画質が低くなってしまう虞がある。例えば画像処理装置100が、複数の撮影装置により複数の方向からフィールド2001とその周辺を撮影した複数の撮影画像それぞれから差分領域画像を生成した場合に、選手5001はいずれの差分領域画像にも含まれる。一方、ディスプレイ2002-2004の表示面は、ディスプレイ2002-2004の裏側方向から撮影された撮影画像には含まれないため、その撮影画像から生成された差分領域画像にも含まれない。選手5001および表示面の両方を含む差分領域画像の画素と選手5001のみを含む差分領域画像の画素とを正確に対応付けるのは困難である。そのため、画像処理サーバ120がこれらの差分領域画像に基づいて選手5001の三次元モデルを生成しようとすると、モデルの精度が悪化してしまう。その結果、仮想視点画像の画質も低下してしまう。
As shown in FIG. 5C, when the conventional background subtraction method is executed, the area corresponding to the display surface of the display 2002-2004 is similarly extracted together with the area corresponding to the
そこで本実施形態における画像処理装置100は、図5(d)に示すような、選手5001に対応する領域を含み且つディスプレイ2002-2004の表示面に対応する領域を含まない前景画像5300を取得するために、検出部102を備える。検出部102は、撮影画像内の背景変化領域を検出する。背景変化領域とは、前景領域としての抽出の対象としない領域である。より具体的には、背景変化領域は、背景領域として識別すべき領域、すなわち前景領域として抽出されるべきでない領域でありながら、時間経過に伴って変化する領域である。上述の図5に示す例の場合、ディスプレイ2002-2004の表示面に対応する領域が背景変化領域である。ただしこれに限らず、背景変化領域に対応する被写体は、抽出すべき所定の被写体とは別の被写体であって時間経過に伴って変化する被写体であればよい。背景変化領域の検出方法については後述する。
Therefore, the
検出部102は、背景変化領域を検出すると、検出された領域を示す情報を分離部101に提供する。そして分離部101は、撮影装置110から取得した撮影画像に対して、検出部102から取得した情報を用いて前景背景分離を行うことで、抽出すべき被写体の領域を前景領域として抽出できる。分離部101による前景背景分離の詳細については後述する。
When the
通信部103は、分離部101から入力された前景画像及び背景画像を画像処理サーバ120へ送信する。通信部103は例えば、PCI Expressなどの高速シリアルインターフェイスを備えたLANカードなどにより構成される。
The
[背景変化領域の検出]
次に、背景変化領域の検出について説明する。図2(a)-(c)は、撮影装置110により撮影された撮影画像の例を示す。図2(a)は撮影装置110が時刻Tにおいて撮影した撮影画像2000であり、図2(b)は撮影装置110が時刻T+1において撮影した撮影画像2100であり、図2(c)は撮影装置110が時刻T+2において撮影した撮影画像2200である。
[Detection of background change area]
Next, the detection of the background change area will be described. 2 (a)-(c) show an example of the photographed image photographed by the photographing
撮影対象はサッカーの試合であり、撮影画像2000においてはフィールド2001及び広告表示用のディスプレイ2002―2004が撮影されている。フィールド2001内にはゴールエリアを示すライン2005が引かれている。撮影画像2000―2200は、スタジアムにおいて試合の準備が行われている場面など、撮影範囲内に選手などの人物がいない状況であって、撮影範囲内にディスプレイ2002-2004の表示面が含まれる状況において撮影された画像である。この撮影時において、広告表示のリハーサルが行われており、ディスプレイ2002―2004に表示される画像は変化する。
The subject to be photographed is a soccer game, and in the photographed image 2000, the
広告表示用のディスプレイ2002は時刻Tでは広告画像2012を表示しているのに対し、時刻T+1では広告画像2112を表示している。例えば、広告画像2112は、広告画像2012が縦にスクロールする画像効果とともに次の広告画像2212に変化している途中の画像である。広告画像2013及び2014に関しても同様に、それぞれ広告画像2113及び2114に変化している。なお、広告画像2113は広告画像2013が横にスクロールする画像効果と共に次の広告画像2213に変化している途中の画像である。
The
図3(a)は、撮影画像2000と撮影画像2200の画素値の差分の例を示している。例えば、時刻Tの撮影画像2000におけるディスプレイ2002の表示面に対応する画素の画素値(R,G,B)は(220、10、10)である。また、ディスプレイ2003の表示面に対応する画素の画素値(R,G,B)とディスプレイ2004の表示面に対応する画素の画素値(R,G,B)は、それぞれ(10、230、10)と(10、10、240)である。
FIG. 3A shows an example of the difference between the pixel values of the captured image 2000 and the captured image 2200. For example, the pixel values (R, G, B) of the pixels corresponding to the display surface of the
一方、時刻T+2の撮影画像2200におけるディスプレイ2002-2004の表示面に対応する画素の画素値はそれぞれ(10、230、10)、(10、10、240)、及び(220、10、10)である。なお、図3においては説明を簡単にするために、ディスプレイ2002-2004による表示画像はそれぞれ同時刻の表示面全体において一律同一の画素値であるものとしている。すなわち、単一の撮像画像におけるディスプレイ2002の表示面に対応する画素の画素値は一意に表される。ディスプレイ2003及びディスプレイ2004についても同様である。ただしこれに限らず、例えば図2に示すように表示面内の位置によって異なる画素値を有する表示画像であってもよい。また、撮影画像を表す色空間はRGBに限定されず、他の色空間でも良い。
On the other hand, the pixel values of the pixels corresponding to the display surface of the display 2002-2004 in the captured image 2200 at time T + 2 are (10, 230, 10), (10, 10, 240), and (220, 10, 10), respectively. be. In FIG. 3, for the sake of simplicity, the images displayed on the displays 2002-2004 are assumed to have the same pixel value on the entire display surface at the same time. That is, the pixel values of the pixels corresponding to the display surface of the
次に図4を用いて、検出部102が背景変化領域を検出する動作について説明する。図4に示す処理は、画像処理装置100が背景変化領域を検出するモードにおいて撮影装置110から撮影画像を取得したタイミングで開始される(S4010)。ただし、図4に示す処理の開始タイミングはこれに限らない。画像処理装置100のモードは例えばユーザによる操作に応じて設定される。具体的には、背景変化領域の検出を行うための画像の撮影期間がユーザによる所定操作に応じて指定されることで、画像処理装置100は背景変化領域を検出するモードに設定される。ここで指定される撮影期間は、例えば競技場における試合開始前のリハーサル中など、撮影装置110の撮影範囲内に選手などの所定の被写体が含まれない期間である。なお、ユーザは撮影期間の開始時と終了時にそれぞれ操作を行ってもよい。
Next, the operation of the
背景変化領域を検出するための画像の撮影期間がユーザの操作によって指定できることにより、背景変化領域の検出に適した任意の期間を設定することができる。例えば、前景として抽出すべき所定の被写体が含まれない撮影画像が背景変化領域の検出に用いられることで、抽出すべき被写体とそうでない被写体との両方が含まれる撮影画像が用いられる場合よりも、背景変化領域を精度よく特定できる。 Since the shooting period of the image for detecting the background change area can be specified by the user's operation, it is possible to set an arbitrary period suitable for detecting the background change area. For example, by using a captured image that does not include a predetermined subject to be extracted as the foreground for detecting a background change area, a captured image that includes both a subject to be extracted and a subject that is not to be extracted is used as compared to the case where a captured image is used. , The background change area can be specified accurately.
以下の説明において撮影装置110から画像処理装置100に入力される撮影画像は動画の各フレームであるものとするが、入力される撮影画像は複数の時点において撮影された複数の静止画であってもよい。なお、図4に示す処理は撮影装置110による撮影と並行してリアルタイムで行われてもよいし、蓄積された撮影画像に基づいて撮影後に行われてもよい。いずれの場合においても、フィールド2001内に選手5001がいない試合開始前など、撮影装置110の撮影範囲内に抽出すべき所定の被写体が含まれない状況において撮影された撮影画像に基づいて図4の処理が実行される。
In the following description, it is assumed that the captured image input from the photographing
図4に示す処理は、CPU111がROM113に格納されたプログラムをRAM112に展開して実行することで実現される。なお、図4に示す処理の少なくとも一部を、CPU111とは異なる専用の1又は複数のハードウェアやGPUにより実現してもよい。
The process shown in FIG. 4 is realized by the CPU 111 expanding the program stored in the
S4020において、検出部102は、背景変化領域を検出するモードにおいて撮影装置110から取得した動画のフレームから対象フレームを決定し、対象フレームと対象フレームより前の時点のフレームとの画素値の差分を算出する。例えば、検出部102は時刻Tに撮影された図2(a)に示す撮影画像2000と時刻T+2に撮影された図2(c)に示す撮影画像2200とを比較して、対応する画素の画素値の差分を算出する。この場合の対象フレームは撮影画像2200である。撮影画像2000におけるある画素の画素値を(R0、G0、B0)とし、撮影画像2200における対応する画素の画素値を(R1、G1,B1)としたとき、以下の式(1)により画素値の差分値δd(差の絶対値)が求められる。
δd=|R0-R1|+|G0-G1|+|B0-B1|…(1)
In S4020, the
δd = | R0-R1 | + | G0-G1 | + | B0-B1 | ... (1)
撮影画像2000と撮影画像2200から算出された各画素の差分値を図3(a)に示す。ディスプレイ2002の表示面に対応する画素の画素値は時刻Tにおいて(220,10,10)であり、時刻T+2では(10,230,10)となる。そのため、ディスプレイ2002の表示面に対応する画素の画素値の差分値δdは以下の計算により430となる。
δd=|220-10|+|10-230|+|10-10|=430…(2)
FIG. 3A shows the difference value of each pixel calculated from the captured image 2000 and the captured image 2200. The pixel value of the pixel corresponding to the display surface of the
δd = | 220-10 | + | 10-230 | + | 10-10 | = 430 ... (2)
検出部102は、対象フレームの全画素について上記の差分値を算出する。算出された差分値のうち、ディスプレイ2003、ディスプレイ2004、フィールド2001、及びライン2005に対応する画素それぞれの差分値は、例えば図3(a)に示す値となる。具体的には、ディスプレイ2003の表示面に対応する画素の差分値およびディスプレイ2004に対応する画素の差分値は、式(1)に示す演算によりそれぞれ450及び440となる。なお、ディスプレイ2002-2004による表示画像が表示面内の位置によって異なる画素値を有する場合は、表示面内の位置ごとに異なる差分値が算出されうる。
The
一方、フィールド2001に対応する画素およびライン2005に対応する画素については、動的に変化する表示面とは異なり、時刻Tの撮影画像2000と時刻T+2の撮影画像2200との間で画素値はほぼ変化しない。具体的には、図3(a)に示すように、フィールド2001に対応する画素の時刻Tにおける画素値は(180、230、30)となり、時刻T+2における画素値は(178,228,28)となる。そのため、フィールド2001に対応する画素の画素値の差分値δdは以下の計算により6となる。
δd=|180-178|+|230-228|+|30-28|=6…(3)
On the other hand, for the pixels corresponding to the
δd = | 180-178 | + | 230-228 | + | 30-28 | = 6 ... (3)
ライン2005に対応する画素についても、同様の計算により差分値δdは3となる。対象フレームの全画素に対して差分値の算出が行われると、S4030に遷移する。なお、本実施形態では対象フレームの全画素に対して差分値の算出が行われるものとするが、これに限らない。例えば、背景変化領域の候補となる範囲が予め設定されている場合やユーザにより指定される場合などには、検出部102は、その設定された範囲や指定された範囲に含まれる画素に対してのみ差分値の算出を行ってもよい。
For the pixels corresponding to the
S4030において、検出部102は、複数の対象フレームについて算出された差分値δdを積算する。ここでは検出部102が図4のフローにおいてS4030の処理を行うのが初回なので、前述のS4010で算出された画素差分値δdが積算値として記憶される。
In S4030, the
S4040において、検出部102は、所定数の対象フレームについての差分値δdの積算が完了したか判断する。本実施形態では検出部102が積算の対象とするフレームの数を100とする。積算対象のフレームの数は例えばユーザによる操作に基づいて設定される。ただしこれに限らず、積算対象のフレームの数は、例えば撮影画像の時間経過に伴う変化量などに応じて自動で設定されてもよい。所定数の対象フレームについての差分値δdの積算が完了していないと判断された場合、検出部102は、差分値を算出したフレームより後の時点のフレームに対象フレームを変更し、S4020に戻る。
In S4040, the
例えば、検出部102は、時刻T+2において撮影された撮影画像2200と時刻T+4において撮影された撮影画像との画素値の差分を算出する。ここでは説明を簡単にするために、時刻T+2と時刻T+4との間の画素値の差分が、前述の時刻Tと時刻T+2との間の画素値の差分と同じ値であるものとする。すなわち、ディスプレイ2002、ディスプレイ2003、及びディスプレイ2004の表示面に対応する画素の時刻T+2と時刻T+4との間における画素値の差分値δdはそれぞれ430、450、及び440となる。また、フィールド2001およびライン2005に対応する画素の画素値の差分値δdはそれぞれ6および3となる。そして検出部102は、算出した差分値をS4030において記憶済みの積算値に加算する。
For example, the
検出部102は、S4020における差分値の算出と、S4030における積算値への加算を、所定のフレーム数である100フレーム分繰り返す。そして100フレーム分の差分値が積算された結果、ディスプレイ2002、ディスプレイ2003、及びディスプレイ2004の表示面に対応する画素の差分値δdの積算値はそれぞれ43000、45000,44000となる。また、フィールド2001およびライン2005に対応する画素の差分値δdの積算値はそれぞれ600および300となる。
The
検出部102が算出した差分値δdの積算値の例を、図3(b)を用いて説明する。図3(b)は、図2(b)の撮影画像2100における線分2105上の画素についての積算値を示している。横軸は撮影画像の水平方向の画素位置を表しており、縦軸は積算値を表している。
An example of the integrated value of the difference value δd calculated by the
ディスプレイ2002の表示面に対応する画素の水平方向の座標値は300~750となり、これらの画素の差分値δdの積算値は43000となっている。一方、ディスプレイ2002-2004の表示面に対応しない画素(水平方向の座標値が0~299、751~899、及び1351~1499の画素)の差分値δdの積算値は600となっている。
The horizontal coordinate values of the pixels corresponding to the display surface of the
S4040において、所定数の対象フレームについての差分値δdの積算が完了したと判断された場合、S4050に遷移する。S4050において、検出部102は、積算値が閾値以上であるか各画素について評価を行う。例えば図3(b)に示すような積算値が得られた場合に、閾値3101の値を30000として評価が行われる。閾値3101はユーザの操作に応じて設定されてもよいし、積算値の平均などに基づいて自動で設定されてもよい。
When it is determined in S4040 that the integration of the difference values δd for a predetermined number of target frames is completed, the process transitions to S4050. In S4050, the
前述のように、ディスプレイ2002の表示面に対応する画素の差分値δdの積算値は43000となっているため、閾値3101の値である30000以上である。同様に、ディスプレイ2003及びディスプレイ2004の表示面に対応する画素の積算値も30000以上である。そして検出部102は、積算値が閾値3101以上である画素を、背景変化領域として検出する。その結果、ディスプレイ2002-2004の表示面に対応する領域を含む背景変化領域が検出される。一方、ディスプレイ2002-2004以外の領域、すなわちフィールド2001に対応する領域やライン2005に対応する領域は、積算値が閾値3101未満となるため、背景変化領域に含まれない。
As described above, since the integrated value of the difference value δd of the pixels corresponding to the display surface of the
S4050における検出処理が終わると、S4100において図4に示す処理が終了する。以上のように、検出部102は、ユーザによる所定操作により指定される期間内(例えば撮影装置110の撮影範囲内に抽出すべき所定の被写体が含まれない期間内)における複数の異なるタイミングにおいて複数の撮影画像を撮影する。そして、撮影した複数の撮影画像における対応する画素の画素値の差分を算出する。そして検出部102は、撮影装置110により撮影される撮影画像における画素位置であって、算出された差分が閾値以上である画素の画素位置を、前景領域の抽出の対象としない背景変化領域の画素位置として特定する。
When the detection process in S4050 is completed, the process shown in FIG. 4 is completed in S4100. As described above, the
なお、本実施形態では画像処理装置100が複数の画像の差分に基づいて背景変化領域の画素位置を特定する場合を中心に説明するが、特定方法はこれに限らない。例えば、画像処理装置100は、ユーザによる操作に応じて背景変化領域の画素位置を特定してもよい。
In the present embodiment, the case where the
図3(c)は検出された背景変化領域を示しており、ディスプレイ2002―2004の表示面に対応する領域が背景変化領域2301-2303として検出されている。なお、本実施形態において検出部102は、撮影タイミングの異なる複数の撮影画像における対応する画素の画素値の差分として差分値δdの積算値を算出し、背景変化領域を検出するものとした。具体的には、検出部102は、同一の撮影装置による時間的に連続する複数の撮影画像の撮影期間における画素値の変化量が閾値以上である画素位置を、前景領域の抽出の対象としない画素位置として特定するものとした。このような方法を用いることで、例えばディスプレイ2002-2004の表示画像が徐々に変化する場合や、表示画像が周期的に切り替わるような場合など、様々な場合において背景変化領域を検出できる。
FIG. 3C shows the detected background change region, and the region corresponding to the display surface of the display 2002-2004 is detected as the background change region 2301-2303. In the present embodiment, the
ただしこれに限らず、検出部102は、背景差分法によって背景変化領域を検出してもよい。例えば、ディスプレイ2002-2004に画像が表示されていない状況における撮影画像を背景画像とする。そして検出部102は、ディスプレイ2002-2004に画像が表示されている状況における撮影画像の画素のうち、背景画像の対応する画素との画素値の差が閾値以上である画素により構成される領域を、背景変化領域として検出してもよい。このような方法によっても、図4で説明した方法と同様の背景変化領域が検出できる。
However, the present invention is not limited to this, and the
また、背景変化領域としてディスプレイ2002-2004に対応する領域を検出する方法としては、その他にも様々な方法を用いることができる。例えば画像処理装置100は、ディスプレイ2002-2004の位置及び形状の少なくとも何れかに関する情報を取得し、取得した情報に基づいて背景変化領域を特定してもよい。ディスプレイ2002-2004の位置及び形状の少なくとも何れかに関する情報としては、具体的には、ディスプレイを表す画像やディスプレイに表示される画像、ディスプレイの3次元モデル、ユーザによる操作に応じた情報などが挙げられる。
In addition, various other methods can be used as a method for detecting the area corresponding to the display 2002-2004 as the background change area. For example, the
例えば、画像処理装置100は、ディスプレイ2002-2004を表す画像を取得し、取得した画像と撮影画像とを照合することで背景変化領域を検出してもよい。また画像処理装置100は、ディスプレイ2002-2004に表示されるマーカーを撮影画像から検出することで、背景変化領域を検出してもよい。また画像処理装置100は、ディスプレイ2002-2004を含む競技場の3次元モデルなどの設計情報を参照してディスプレイ2002-2004の位置を特定することで背景変化領域を検出してもよい。また画像処理装置100は、ディスプレイ2002-2004の位置や形状をユーザに指定させるための画像を表示し、ユーザによる指定操作に基づいてディスプレイ2002-2004の位置や形状を特定することで、背景変化領域を検出してもよい。さらに画像処理装置100は、撮影画像の画素の輝度情報に基づいて背景変化領域を検出してもよい。なお、ディスプレイ2002-2004とは異なる被写体に対応する領域を背景変化領域として特定する場合も、上記と同様の種々の方法を用いることができる。
For example, the
[前景背景分離]
次に、分離部101による前景背景分離について説明する。図5(a)は、撮影装置110が撮影し分離部101に入力される撮影画像5000の例を示す。撮影画像5000は、前述の背景変化領域情報を検出するために撮影された撮影画像とは異なり、スタジアムにおいて試合が行われている場面などにおいて撮影された画像である。そのため、撮影画像5000は、撮影範囲内のフィールド2001上に選手5001がいる状況であって、撮影範囲内にディスプレイ2002-2004の表示面が含まれる状況において撮影された画像である。なお、ディスプレイ2002―2004に表示される画像は、リハーサル時と同様に変化をしている。分離部101は、撮影画像5000に含まれる選手5001の領域を前景背景分離により抽出する。
[Foreground background separation]
Next, the foreground background separation by the
図6を用いて、分離部101による前景背景分離の動作について説明する。図6に示す処理は、画像処理装置100が前景背景分離を行うモードにおいて撮影装置110から撮影画像を取得したタイミングで開始される(S6010)。ただし、図6に示す処理の開始タイミングはこれに限らない。画像処理装置100のモードは例えばユーザによる操作に応じて設定される。具体的には、被写体領域を検出するための前景背景分離の対象となる画像の撮影期間がユーザによる所定操作に応じて指定されることで、画像処理装置100は前景背景分離を行うモードに設定される。ここで指定される撮影期間は、例えば競技場における試合中など、撮影装置110の撮影範囲内に選手などの所定の被写体が含まれる期間である。なお、前景背景分離のための撮影期間は、図4で説明した背景変化領域の検出のための撮影期間を指定する操作とは異なる操作により指定されるものとするが、これに限らず、同じ操作が何回目に行われたかに応じてモードが変更されてもよい。
The operation of the foreground background separation by the
図6に示す処理は撮影装置110による撮影と並行してリアルタイムで行われてもよいし、蓄積された撮影画像に基づいて撮影後に行われてもよい。いずれの場合においても、フィールド2001内に選手5001がいる試合中など、撮影装置110の撮影範囲内に抽出すべき所定の被写体が含まれる状況において撮影された撮影画像に基づいて図6の処理が実行される。
The process shown in FIG. 6 may be performed in real time in parallel with the image taken by the photographing
図6に示す処理は、CPU111がROM113に格納されたプログラムをRAM112に展開して実行することで実現される。なお、図6に示す処理の少なくとも一部を、CPU111とは異なる専用の1又は複数のハードウェアやGPUにより実現してもよい。
The process shown in FIG. 6 is realized by the CPU 111 expanding the program stored in the
S6020において、分離部101は、前景背景分離を行うモードにおいて撮影装置110から取得した動画のフレームから対象フレームを決定し、対象フレームである撮影画像5000と背景画像5100との差分を算出する。対象フレームは、前景領域の抽出の対象となる画像(抽出対象画像)であり、図6のフローにおいてS6020が初めて実行される場合には例えば取得した動画の最初のフレームに決定される。背景画像5100は、抽出対象画像としての撮影画像5000とは異なるタイミングでの撮影装置110による撮影に基づく画像であって予め記憶されており、抽出すべき所定の被写体を含まない画像である。
In S6020, the
S6020の処理が実行されるのが初回である場合には、例えば試合前のリハーサル中に撮影された図5(b)に示すような撮影画像が背景画像5100として用いられる。すなわちこの場合、図4で説明した背景変化領域を検出するための撮影期間における撮影装置110による撮影に基づく画像が背景画像となる。そして、背景差分法を用いて撮影画像5000と背景画像5100の差分を算出することにより、図5(c)に示すような差分領域画像5200が得られる。差分領域画像5200は具体的には、撮影画像5000内の画素のうち、背景画像5100内の対応する画素との画素値の差分(差の絶対値)が閾値以上である画素により構成される画像である。差分領域画像5200には、前景領域として抽出すべき選手5001の他に、ディスプレイ2002―2004の表示面に表示される広告画像2212―2214が含まれる。
When the process of S6020 is executed for the first time, for example, a captured image as shown in FIG. 5 (b) captured during the pre-match rehearsal is used as the background image 5100. That is, in this case, the image based on the shooting by the
S6030において、分離部101は、図4を用いて説明した処理において検出された背景変化領域を示す情報を検出部102から取得する。前述のように、検出された背景変化領域は例えば図3(c)に示す背景変化領域2301-2303のようになり、これらはディスプレイ2002―2004の表示面に対応する。
In S6030, the
S6040において、分離部101は、差分領域画像5200から背景変化領域2301-2303と重なる領域を除外することで、図5(d)に示すような前景画像5300を生成する。すなわち、分離部101は、差分領域画像5200に含まれる画素のうち背景変化領域として特定された画素位置とは異なる画素により構成される領域を、前景領域として抽出する。前景画像5300にはディスプレイ2002-2004の表示面に表示される広告画像2212-2214が含まれず、選手5001のみが含まれる。
In S6040, the
S6050において、分離部101は、差分領域画像5200内の背景変化領域に含まれる画素の画素値を、記憶済みの背景画像5100に上書きする。すなわち、分離部101は、差分領域画像5200内の画素のうち、前景領域として抽出される領域に含まれない画素に基づいて、背景画像5100を更新する。背景画像5100が更新されることで、図5(e)に示すような新たな背景画像5400が得られる。ここで得られる背景画像5400は、前景背景分離のための撮影期間内における撮影装置110による撮影に基づく画像となる。そして、図6のフローにおいてS6020の処理が再度行われる場合には、新たな対象フレームと更新された背景画像5400との差分が算出される。この際の差分の算出には、フレーム間差分法が用いられてもよい。
In S6050, the
なお、設置されたディスプレイ2002-2004の表示面のように、背景変化領域として検出される領域が固定されている場合、分離部101は背景画像5100を更新しなくてもよい。また、ディスプレイ2002―2004に表示される画像の画像データが取得可能な場合には、差分領域画像を用いる代わりに当該画像データを用いて背景画像5100を更新してもよい。
When the area detected as the background change area is fixed, such as the display surface of the installed display 2002-2004, the
S6060において、分離部101は、S6040において抽出された前景領域の画像(前景画像5300)と、S6050において生成された背景画像5400とを、分離して画像処理サーバ120に出力する。前景画像5300と背景画像5400とを分離された識別可能な画像として取得することにより、画像処理サーバ120は、所定の被写体の三次元モデルと背景の三次元モデルをそれぞれ生成して仮想視点画像を生成することができる。
In S6060, the
S6060の処理が終了すると、S6070に遷移し、分離部101は前景背景分離を行うモードにおいて撮影装置110から取得した動画の全フレームについてS6020―S6060の処理が完了したか判断する。全フレームについての処理が完了していないと判断された場合、分離部101は、対象フレームを次のフレームに変更し、S6020に戻る。一方、全フレームについて処理が完了したと判断された場合、S6500において図6の処理が終了する。
When the processing of S6060 is completed, the process transitions to S6070, and the
なお、図6を用いた上記の説明においては、分離部101が、撮影画像5000内の画素のうち背景画像5100内の対応する画素との画素値の差分が閾値以上である画素により構成される領域から、背景変化領域を除くことで、前景領域を抽出するものとした。ただしこれに限らず、分離部101は、撮影画像5000の部分画像であって背景変化領域に含まれない画素により構成される部分画像と、背景画像5100内の当該部分画像に対応する領域との差分を判定することで、前景領域を抽出してもよい。この方法によれば、画素値の差分を算出する対象となる画素の数が少なくなるため、画像処理装置100の処理負荷を低減することができる。いずれの方法においても、撮影画像5000と背景画像5100との差分に基づいて、背景変化領域に含まれない画素により構成される前景領域が撮影画像5000から抽出される。
In the above description using FIG. 6, the
また、本実施形態においては、前景領域を抽出する処理の対象となる撮影画像5000よりも前に撮影装置110により撮影された複数の撮影画像の差分に基づいて背景変化領域が特定される場合を中心に説明した。ただしこれに限らず、例えば、試合中に撮影された撮影画像5000からの前景領域の抽出処理が試合後に行われるような場合には、試合後に撮影された複数の撮影画像の差分に基づいて背景変化領域が特定されてもよい。
Further, in the present embodiment, there is a case where the background change area is specified based on the difference between a plurality of captured images captured by the
以上説明したように、本実施形態に係る画像処理装置100は、撮影装置110による撮影に基づく画像から所定の被写体に対応する被写体領域(前景領域)を抽出する。具体的には、画像処理装置100は、第1所定操作により指定される第1期間内における複数のタイミングでの撮影に基づく複数の画像の差分に基づいて、抽出対象画像の内部における被写体領域の抽出の対象としない領域(背景変化領域)を特定する。ここで抽出対象画像は、上記の第1所定操作とは異なる第2所定操作により指定される第2期間内における撮影装置110による撮影に基づく画像である。そして画像処理装置100は、抽出対象画像と、抽出対象画像の撮影タイミングとは異なるタイミングでの撮影装置110による撮影に基づく別の画像との差分に基づいて、抽出対象画像の内部の被写体領域を抽出する。このようにして抽出される被写体領域は、抽出対象としない領域として特定された領域に含まれない画素により構成される。
As described above, the
このような構成によれば、複数の画像の差分となる領域のうちの特定の領域を抽出することができる。例えば、撮影画像内に移動する所定の被写体と動画像を表示するディスプレイとが含まれる場合に、画像処理装置100は所定の被写体の領域だけを抽出することができる。そのため、画像処理装置100から抽出結果を取得する画像処理サーバ120は、所定の被写体の形状を正確に特定することができ、当該被写体を含む高画質な仮想視点画像を生成することができる。
According to such a configuration, it is possible to extract a specific region among the regions that are the differences between a plurality of images. For example, when a predetermined subject moving in the captured image and a display displaying a moving image are included, the
なお、本実施形態においては、撮影画像内のディスプレイ2002-2004の表示面に対応する領域が背景変化領域として検出され、前景領域として選手5001に対応する領域が抽出される場合を中心に説明した。ただし、背景変化領域や前景領域はこれらに限定されない。例えば、前景領域としてボールなどの被写体が抽出されてもよい。また、背景変化領域として、プロジェクタにより画像が投影される表示面や、観客が移動する観客席などが検出されてもよい。具体的には、試合開始前の観客が移動している間に撮影された撮影画像から背景変化領域として観客席を検出することで、試合中に撮影された撮影画像から観客席が前景領域として抽出されないようにしてもよい。
In the present embodiment, the case where the region corresponding to the display surface of the display 2002-2004 in the captured image is detected as the background change region and the region corresponding to the
また、本実施形態においては、画像処理装置100が動画の各フレームについて前景画像と背景画像とを生成し出力する場合について説明した。ただしこれに限らず、例えば画像処理サーバ120が背景画像を予め記憶している場合や背景画像を用いない画像処理を行う場合などには、画像処理装置100は背景画像を出力せず前景画像のみを出力してもよい。また、画像処理装置100は背景画像を前景画像よりも低いフレームレートで出力してもよいし、背景画像を前景画像よりも低い解像度で出力してもよい。これにより、画像処理装置100、画像処理サーバ120、及び画像処理装置100と画像処理サーバ120との間の通信経路の負荷を低減することができる。特に本実施形態によれば、抽出すべき所定の被写体の領域だけを前景領域として抽出することができるため、高画質な前景画像のデータ量を削減でき、その結果、前景画像のデータ量と背景画像のデータ量の合計を小さくすることができる。
Further, in the present embodiment, a case where the
また、本実施形態においては、撮影画像の画素のうち背景変化領域として特定された画素位置の画素が前景領域として抽出されないようにして、前景背景分離が行われる場合を中心に説明した。ただし、例えば撮影画像においてディスプレイ2002-2004の表示面の一部が選手5001により遮蔽されている場合など、特定された画素位置に抽出すべき所定の被写体に対応する画素が含まれる場合が考えられる。このような場合においては、特定された画素位置に含まれる画素のうち、所定の被写体に対応しない画素のみを、抽出の対象から除外してもよい。具体的には、差分領域画像から人物の形状の領域を検出し、検出された領域に含まれる画素は除外せず、それ以外の画素のうち特定された画素位置に含まれる画素を差分領域画像から除外するなどの方法を採用してもよい。このような方法によれば、撮影画像内の特定された画素位置に抽出すべき所定の被写体に対応する画素が含まれる場合においても、当該所定の被写体の画像抽出することができる。
Further, in the present embodiment, the case where the foreground background separation is performed so as not to extract the pixel at the pixel position specified as the background change region among the pixels of the captured image as the foreground region has been mainly described. However, it is conceivable that a pixel corresponding to a predetermined subject to be extracted may be included in the specified pixel position, for example, when a part of the display surface of the display 2002-2004 is shielded by the
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a recording medium readable by a computer.
10 画像処理システム
100 画像処理装置
110 撮影装置
120 画像処理サーバ
10
Claims (16)
第1所定操作により指定される第1期間内における複数のタイミングでの前記撮影装置による撮影に基づく複数の画像の差分に基づいて、第2所定操作により指定される第2期間内における前記撮影装置による撮影に基づく抽出対象画像の内部の領域であって前記被写体領域の抽出の対象としない領域を特定する特定手段と、
前記抽出対象画像と、前記抽出対象画像の撮影タイミングとは異なるタイミングでの前記撮影装置による撮影に基づく別の画像との差分に基づいて、前記抽出対象画像の内部の前記被写体領域を抽出する抽出手段であって、前記特定手段により特定される領域に含まれない画素により構成される前記被写体領域を抽出する抽出手段とを有することを特徴とする画像処理装置。 An image processing device that extracts a subject area corresponding to a predetermined subject from an image based on the image taken by the photographing device.
The imaging device within the second period designated by the second predetermined operation based on the difference between a plurality of images based on the imaging by the imaging device at a plurality of timings within the first period designated by the first predetermined operation. A specific means for specifying an area inside the image to be extracted based on the image taken by the image, which is not the target of extraction of the subject area, and a specific means.
Extraction to extract the subject area inside the extraction target image based on the difference between the extraction target image and another image based on the shooting by the shooting device at a timing different from the shooting timing of the extraction target image. An image processing apparatus comprising: means for extracting the subject area composed of pixels not included in the area specified by the specific means.
前記抽出手段は、前記抽出対象画像の画素のうち、前記別の画像における対応する画素との画素値の差分が第2閾値以上である画素であって且つ前記特定手段により特定される領域に含まれない画素により構成される領域を、前記被写体領域として抽出することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 The specifying means specifies a region inside the extraction target image at a pixel position where the difference between the pixel values of the corresponding pixels in the plurality of images is equal to or greater than the first threshold value as a region that is not the target of extraction of the subject region. death,
The extraction means is included in a region of the pixels of the extraction target image whose pixel value difference from the corresponding pixel in the other image is equal to or larger than the second threshold value and is specified by the specific means. The image processing apparatus according to any one of claims 1 to 4, wherein an area composed of non-pixels is extracted as the subject area.
前記特定手段により特定される領域は、前記別の被写体としての表示装置の表示面に対応する領域であることを特徴とする請求項7に記載の画像処理装置。 The subject area extracted by the extraction means is an area corresponding to a person as a predetermined subject.
The image processing apparatus according to claim 7, wherein the area specified by the specific means is an area corresponding to the display surface of the display device as another subject.
前記抽出手段は、背景差分法を用いて前記被写体領域を抽出することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The other image is an image based on the image taken by the photographing apparatus within the first period.
The image processing apparatus according to any one of claims 1 to 8, wherein the extraction means extracts the subject area by using a background subtraction method.
前記抽出手段により抽出される前記被写体領域の画像と、前記撮影装置とは異なる方向から撮影を行う別の撮影装置による撮影に基づく画像から抽出される前記所定の被写体に対応する領域の画像とに基づいて、前記所定の被写体を含む仮想視点画像を生成する画像生成手段とを有することを特徴とする画像処理システム。 The image processing apparatus according to any one of claims 1 to 10.
The image of the subject area extracted by the extraction means and the image of the area corresponding to the predetermined subject extracted from the image taken by another photographing device that photographs from a direction different from that of the photographing device. Based on this, an image processing system comprising an image generation means for generating a virtual viewpoint image including the predetermined subject.
前記抽出手段により抽出される前記被写体領域の画像と、前記別の撮影装置による撮影に基づく画像から抽出される前記所定の被写体に対応する領域の画像とに基づいて、前記所定の被写体の三次元モデルを生成するモデル生成手段とを有し、
前記画像生成手段は、前記取得手段により取得される視点情報と前記モデル生成手段により生成される三次元モデルとに基づいて、前記所定の被写体を含む仮想視点画像を生成することを特徴とする請求項11に記載の画像処理システム。 An acquisition means for acquiring viewpoint information according to the designation of the virtual viewpoint related to the generation of the virtual viewpoint image, and
Three-dimensional of the predetermined subject based on the image of the subject area extracted by the extraction means and the image of the area corresponding to the predetermined subject extracted from the image based on the image taken by the other photographing device. It has a model generation means to generate a model, and has
The image generation means is characterized in that it generates a virtual viewpoint image including the predetermined subject based on the viewpoint information acquired by the acquisition means and the three-dimensional model generated by the model generation means. Item 11. The image processing system according to item 11.
第1所定操作により指定される第1期間内における複数のタイミングでの前記撮影装置による撮影に基づく複数の画像の差分に基づいて、第2所定操作により指定される第2期間内における前記撮影装置による撮影に基づく抽出対象画像の内部の領域であって前記被写体領域の抽出の対象としない領域を特定する特定工程と、
前記抽出対象画像と、前記抽出対象画像の撮影タイミングとは異なるタイミングでの前記撮影装置による撮影に基づく別の画像との差分に基づいて、前記抽出対象画像の内部の前記被写体領域を抽出する抽出手段であって、前記特定工程において特定される領域に含まれない画素により構成される前記被写体領域を抽出する抽出工程とを有することを特徴とする画像処理方法。 It is an image processing method executed by a system that extracts a subject area corresponding to a predetermined subject from an image based on an image taken by a photographing device.
The imaging device within the second period designated by the second predetermined operation based on the difference between a plurality of images based on the imaging by the imaging device at a plurality of timings within the first period designated by the first predetermined operation. A specific step of specifying an area inside the image to be extracted based on the image taken by the photographer and not the area to be extracted of the subject area.
Extraction to extract the subject area inside the extraction target image based on the difference between the extraction target image and another image based on the shooting by the shooting device at a timing different from the shooting timing of the extraction target image. An image processing method comprising a means, which comprises an extraction step of extracting the subject region composed of pixels not included in the region specified in the specific step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017191753A JP7080614B2 (en) | 2017-09-29 | 2017-09-29 | Image processing equipment, image processing system, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017191753A JP7080614B2 (en) | 2017-09-29 | 2017-09-29 | Image processing equipment, image processing system, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019067129A JP2019067129A (en) | 2019-04-25 |
JP7080614B2 true JP7080614B2 (en) | 2022-06-06 |
Family
ID=66340718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017191753A Active JP7080614B2 (en) | 2017-09-29 | 2017-09-29 | Image processing equipment, image processing system, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7080614B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6944201B2 (en) * | 2019-05-07 | 2021-10-06 | 株式会社Hacarus | Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs |
JP7446756B2 (en) * | 2019-10-02 | 2024-03-11 | キヤノン株式会社 | Image processing device, image processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013152669A (en) | 2012-01-26 | 2013-08-08 | Secom Co Ltd | Image monitoring device |
WO2016139868A1 (en) | 2015-03-04 | 2016-09-09 | ノ-リツプレシジョン株式会社 | Image analysis device, image analysis method, and image analysis program |
WO2017029841A1 (en) | 2015-08-18 | 2017-02-23 | ノーリツプレシジョン株式会社 | Image analyzing device, image analyzing method, and image analyzing program |
JP2017098906A (en) | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | Image processing apparatus, image processing method and computer program |
-
2017
- 2017-09-29 JP JP2017191753A patent/JP7080614B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013152669A (en) | 2012-01-26 | 2013-08-08 | Secom Co Ltd | Image monitoring device |
WO2016139868A1 (en) | 2015-03-04 | 2016-09-09 | ノ-リツプレシジョン株式会社 | Image analysis device, image analysis method, and image analysis program |
WO2017029841A1 (en) | 2015-08-18 | 2017-02-23 | ノーリツプレシジョン株式会社 | Image analyzing device, image analyzing method, and image analyzing program |
JP2017098906A (en) | 2015-11-27 | 2017-06-01 | 日本電信電話株式会社 | Image processing apparatus, image processing method and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP2019067129A (en) | 2019-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10496878B2 (en) | Information processing apparatus, method and computer program product | |
US11024036B2 (en) | Extracting an object region from an extraction target image including a display surface | |
JP2019067427A (en) | Image processing apparatus, image processing method, and program | |
JP6419128B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
US11734931B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2018180655A (en) | Image processing device, image generation method, and program | |
JP7023696B2 (en) | Information processing equipment, information processing methods and programs | |
JP5762600B1 (en) | Information processing apparatus and information processing method | |
US9773523B2 (en) | Apparatus, method and computer program | |
US20160381290A1 (en) | Apparatus, method and computer program | |
CN106210699B (en) | Information processing unit, the control method of information processing unit and image processing system | |
JP7080614B2 (en) | Image processing equipment, image processing system, image processing method, and program | |
US11468258B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6812181B2 (en) | Image processing device, image processing method, and program | |
TW201827788A (en) | Sensing device for calculating information on position of moving object and sensing method using the same | |
JP2022016929A (en) | Information processing device, information processing method, and program | |
JP2020135290A (en) | Image generation device, image generation method, image generation system, and program | |
JP6632134B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2020187529A (en) | Image processing apparatus, image processing system, control method, and program | |
JP7182915B2 (en) | Image generation device, image generation method, and program | |
JP7271095B2 (en) | Image generation device, image generation method, and program | |
US20210136344A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20230177851A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US11928831B2 (en) | Information processing apparatus, shape data generation method, and storage medium | |
JP7581019B2 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220525 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7080614 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |