JP2003304444A - Apparatus and method for compositing image - Google Patents
Apparatus and method for compositing imageInfo
- Publication number
- JP2003304444A JP2003304444A JP2002104908A JP2002104908A JP2003304444A JP 2003304444 A JP2003304444 A JP 2003304444A JP 2002104908 A JP2002104908 A JP 2002104908A JP 2002104908 A JP2002104908 A JP 2002104908A JP 2003304444 A JP2003304444 A JP 2003304444A
- Authority
- JP
- Japan
- Prior art keywords
- image
- synthesizing
- extracted
- reference image
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像合成を行なう
画像合成装置及び画像合成方法に関するものであり、例
えば、テレビジョン番組制作、映画制作等において用い
られる画像合成に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus and an image synthesizing method for synthesizing images, and more particularly to image synthesizing used in television program production, movie production and the like.
【0002】[0002]
【従来の技術】従来より、スポーツ中継放送等では、被
写体である選手の動きを視聴者に分かりやすく表現する
ため、スローモーション再生が多用されている。また、
選手の動きをストロボ写真のように表現し、その静止画
像を背景画像上で順次上書きすることにより合成してい
くマルチモーションと呼ばれる技術も利用されている。2. Description of the Related Art Conventionally, slow-motion reproduction has been widely used in sports broadcasting and the like in order to express the movement of a player who is a subject in a manner easily understandable to a viewer. Also,
A technique called multi-motion is also used, in which the movement of the player is expressed like a stroboscopic photograph, and the still images are sequentially overwritten on the background image to synthesize them.
【0003】[0003]
【発明が解決しようとする課題】スポーツ中継におい
て、速い選手の動きをゆっくりと表現するスローモーシ
ョン再生は、視聴者にとって分かりやすく効果的であ
る。その一方で、動きが遅くなることで、選手が動いた
軌跡やフォームの移行が捉えにくいという欠点があっ
た。In sports broadcasting, slow-motion reproduction that slowly expresses the movement of a fast player is easy and effective for the viewer. On the other hand, there is a drawback in that it is difficult to capture the trajectory of the player and the transition of the form due to the slow movement.
【0004】マルチモーションは、静止した選手の画像
を次々に重ね合わせて合成していくため、残像効果で動
きの経緯が分かりやすいという利点がある。しかしなが
ら、時間経緯に従って順次画像を重ね合わせているた
め、野球やゴルフのスイング等を表示する場合、被写体
の位置に大きな移動がないため、ヒッティングポイント
等の注目シーンがあっても上書きされてしまい、この注
目シーンが見えなくなってしまうという欠点があった。
また、マルチモーションによる表示は、平面的で立体感
を視聴者に与えることができないといった視覚表現上の
欠点もあった。[0004] Multi-motion has an advantage that the process of movement can be easily understood by the afterimage effect because the images of still players are superimposed and synthesized one after another. However, because images are sequentially superimposed according to the time and history, when displaying a baseball or golf swing, etc., there is no significant movement in the position of the subject, so even if there is a scene of interest such as a hitting point, it will be overwritten. , There was a drawback that you could not see this attention scene.
In addition, the display by multi-motion has a drawback in terms of visual expression that it is flat and cannot give a stereoscopic effect to the viewer.
【0005】本発明は、このような問題点を解決するた
めになされたもので、奥行方向への動作を伴う被写体の
動きを効果的に表現することができる画像合成装置及び
画像合成方法を提供することを目的とする。The present invention has been made to solve such a problem, and provides an image synthesizing apparatus and an image synthesizing method capable of effectively expressing a motion of a subject accompanied by a motion in the depth direction. The purpose is to do.
【0006】[0006]
【課題を解決するための手段】本発明にかかる画像合成
装置は、奥行方向への動きを伴う被写体の画像合成を行
なう画像合成装置であって、画像データを記憶する画像
メモリと、前記画像メモリより画像データを読み出し、
被写体の画像を抽出する画像抽出手段と、前記画像メモ
リに記憶された画像データ及び/又は前記画像抽出手段
により抽出された抽出画像に基づき画像合成を行なう画
像合成手段と、基準画像を決定する基準画像決定手段と
を備え、前記画像合成手段は、基準画像決定手段によっ
て決定された基準画像の前の画像に対しては順次上方に
抽出画像が重ねられる上重ね処理を行い、前記基準画像
の後の画像に対しては順次下方に抽出画像が重ねられる
下重ね処理を行なうものである。このような構成によ
り、基準画像が一番上に表示されるため、注目シーンを
基準画像に選択すれば、注目シーンが上書きされずに最
後まで残るとともに、その経過を効果的に確認すること
ができる。An image synthesizing apparatus according to the present invention is an image synthesizing apparatus for synthesizing an image of a subject accompanied by a movement in a depth direction, the image memory storing image data, and the image memory. Read more image data,
Image extracting means for extracting an image of a subject, image combining means for performing image combination based on the image data stored in the image memory and / or the extracted image extracted by the image extracting means, and a reference for determining a reference image Image determining means, and the image synthesizing means performs an overlay process in which an extracted image is sequentially superimposed on an image before the reference image determined by the reference image determining means, and after the reference image. The image is subjected to a lower superposition process in which the extracted images are sequentially superposed downward. With such a configuration, since the reference image is displayed on the top, if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can.
【0007】好ましい実施の形態では、前記下重ね処理
は、上重ね処理によって生成された第1の合成画像と前
記基準画像の後の画像を合成するとともに、この合成画
像に対して、第1の合成画像の被写体を抽出した合成画
像を上書きにすることにより実現するものである。In a preferred embodiment, the lower superimposing process combines the first composite image generated by the upper superimposing process with an image after the reference image, and the first composite image is combined with the first composite image. This is realized by overwriting the composite image obtained by extracting the subject of the composite image.
【0008】また、前記下重ね処理は、前記基準画像の
後の画像の被写体を抽出した画像から上重ね処理によっ
て生成された第1の合成画像の被写体を抽出した画像の
部分を取り除くことにより生成した第2の合成画像を前
記第1の合成画像に合成することにより実現するように
してもよい。Further, the lower overlay processing is performed by removing a portion of the image obtained by extracting the subject of the first composite image generated by the upper overlay processing from the image obtained by extracting the subject of the image after the reference image. It may be realized by synthesizing the second synthesized image described above with the first synthesized image.
【0009】さらに、また、前記下重ね処理は、上重ね
処理によって生成された第1の合成画像の被写体の抽出
範囲を抽出しないように、前記画像抽出手段によって基
準画像の後の画像の被写体を抽出した抽出画像を前記第
1の合成画像に合成することにより実現するようにして
もよい。Furthermore, in the lower superimposing process, the object of the image after the reference image is extracted by the image extracting means so that the extraction range of the object of the first composite image generated by the upper superimposing process is not extracted. It may be realized by combining the extracted image thus extracted with the first combined image.
【0010】また、前記基準画像決定手段は、入力手段
によって入力された基準画像を特定するための情報に基
づいて基準画像を決定するようにしてもよい。The reference image determining means may determine the reference image based on the information for specifying the reference image input by the input means.
【0011】前記基準画像決定手段は、音声検出手段に
よって検出された音声情報に基づいて基準画像を決定す
るようにしてもよい。このような構成により基準画像を
自動的に決定することができ、合成処理が容易に行なう
ことができる。The reference image determining means may determine the reference image based on the voice information detected by the voice detecting means. With such a configuration, the reference image can be automatically determined, and the combining process can be easily performed.
【0012】また、前記基準画像決定手段は、位置検出
手段によって検出された被写体の全部又は一部の位置情
報に基づいて基準画像を決定するようにしてもよい。こ
のような構成により基準画像を自動的に決定することが
でき、合成処理が容易に行なうことができる。また、こ
のような手段によれば、被写体の全部又は一部が最も撮
影位置に近い状態を特定する画像を基準画像として選択
することも自動的にできる。The reference image determining means may determine the reference image based on the position information of all or part of the subject detected by the position detecting means. With such a configuration, the reference image can be automatically determined, and the combining process can be easily performed. Further, according to such means, it is possible to automatically select, as the reference image, an image that specifies the state in which all or part of the subject is closest to the shooting position.
【0013】さらに、基準画像決定手段は、奥行検出手
段によって検出された被写体の全部又は一部の位置情報
に基づいて基準画像を決定するようにしてもよい。この
ような構成により基準画像を自動的に決定することがで
き、合成処理が容易に行なうことができる。また、この
ような手段によれば、被写体の全部又は一部が最も撮影
位置に近い状態を特定する画像を基準画像として選択す
ることも自動的にできる。Further, the reference image determining means may determine the reference image based on the position information of all or a part of the subject detected by the depth detecting means. With such a configuration, the reference image can be automatically determined, and the combining process can be easily performed. Further, according to such means, it is possible to automatically select, as the reference image, an image that specifies the state in which all or part of the subject is closest to the shooting position.
【0014】特に、前記基準画像決定手段は、被写体の
全部又は一部が最も撮影位置に近い状態を特定する画像
を基準画像として選択することが望ましい。このような
構成によって、表示される画像が視覚的に立体になるた
め、迫力のある表現効果が得られる。In particular, it is preferable that the reference image determining means selects, as the reference image, an image that specifies the state in which all or part of the subject is closest to the photographing position. With such a configuration, the displayed image is visually three-dimensional, and thus a powerful expression effect can be obtained.
【0015】本発明にかかる他の画像合成装置は、奥行
方向への動きを伴う被写体の画像合成を行なう画像合成
装置であって、画像データを記憶する画像メモリと、前
記画像メモリより画像データを読み出し、被写体の画像
を抽出する画像抽出手段と、前記画像メモリに記憶され
た画像データ及び/又は前記画像抽出手段により抽出さ
れた抽出画像に基づき画像合成を行なう画像合成手段
と、基準画像を決定する基準画像決定手段とを備え、前
記画像合成手段は、基準画像決定手段によって決定され
た基準画像の前の画像に対しては順次下方に抽出画像が
重ねられる下重ね処理を行い、前記基準画像の後の画像
に対しては、順次上方に抽出画像が重ねられる上重ね処
理を行なうものである。このような構成により、基準画
像が一番上に表示されるため、注目シーンを基準画像に
選択すれば、注目シーンが上書きされずに最後まで残る
とともに、その経過を効果的に確認することができる。
特に、注目シーンが奥にある場合には、有効な処理であ
る。Another image synthesizing apparatus according to the present invention is an image synthesizing apparatus for synthesizing an image of a subject that moves in the depth direction, and stores an image memory for storing image data and image data from the image memory. An image extracting means for reading out and extracting an image of the subject, an image synthesizing means for synthesizing an image based on the image data stored in the image memory and / or the extracted image extracted by the image extracting means, and a reference image are determined. And a reference image determining means for performing the lower overlay processing in which the extracted images are sequentially overlaid on the image before the reference image determined by the reference image determining means. The subsequent image is subjected to an overlay process in which the extracted images are sequentially overlaid. With such a configuration, since the reference image is displayed on the top, if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can.
In particular, this is an effective process when the attention scene is at the back.
【0016】他方、本発明にかかる画像合成方法は、奥
行方向への動きを伴う被写体の画像合成を行なう画像合
成方法であって、基準画像を決定するステップと、決定
された基準画像の前の画像に対して、順次上方に抽出画
像が重ねられる上重ね処理を行なうステップと、前記基
準画像の後の画像に対して、順次下方に抽出画像が重ね
られる下重ね処理を行なうステップを有するものであ
る。このような方法により、基準画像が一番上に表示さ
れるため、注目シーンを基準画像に選択すれば、注目シ
ーンが上書きされずに最後まで残るとともに、その経過
を効果的に確認することができる。On the other hand, the image synthesizing method according to the present invention is an image synthesizing method for synthesizing an image of a subject that moves in the depth direction, and includes a step of determining a reference image and a step of determining the reference image before the determined reference image. The method has a step of performing an upper superimposing process of sequentially superimposing the extracted images on the upper side of the image, and a step of performing a lower superimposing process of sequentially superimposing the extracted images on the lower side of the image after the reference image. is there. With such a method, the reference image is displayed at the top, so if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can.
【0017】本発明にかかる他の画像合成方法は、奥行
方向への動きを伴う被写体の画像合成を行なう画像合成
方法であって、基準画像を決定するステップと、前記基
準画像の前の画像に対して、順次下方に抽出画像が重ね
られる下重ね処理を行なうステップと、決定された基準
画像の後の画像に対して、順次上方に抽出画像が重ねら
れる上重ね処理を行なうステップとを有するものであ
る。このような方法により、基準画像が一番上に表示さ
れるため、注目シーンを基準画像に選択すれば、注目シ
ーンが上書きされずに最後まで残るとともに、その経過
を効果的に確認することができる。特に、注目シーンが
奥にある場合には、有効な処理である。Another image synthesizing method according to the present invention is an image synthesizing method for synthesizing an image of a subject that moves in the depth direction, which comprises a step of determining a reference image and an image before the reference image. On the other hand, the method has a step of performing a lower superimposing process in which the extracted images are sequentially superposed downward, and a step of performing an upper superimposing process in which the extracted images are sequentially superposed on an image after the determined reference image. Is. With such a method, the reference image is displayed at the top, so if the attention scene is selected as the reference image, the attention scene remains without being overwritten and the progress can be effectively confirmed. it can. In particular, this is an effective process when the attention scene is at the back.
【0018】本発明にかかる画像合成プログラムは、奥
行方向への動きを伴う被写体の画像合成を行なう画像合
成プログラムであって、コンピュータに対して、基準画
像を決定するステップと、決定された基準画像の前の画
像に対して、順次上方に抽出画像が重ねられる上重ね処
理を行なうステップと、前記基準画像の後の画像に対し
て、順次下方に抽出画像が重ねられる下重ね処理を行な
うステップを実行させるものである。このようなプログ
ラムをコンピュータにより実行することにより、基準画
像が一番上に表示されるため、注目シーンを基準画像に
選択すれば、注目シーンが上書きされずに最後まで残る
とともに、その経過を効果的に確認することができる。An image synthesizing program according to the present invention is an image synthesizing program for synthesizing an image of a subject with movement in the depth direction, and a step of determining a reference image to a computer, and the determined reference image. A step of performing an upper superimposing process in which the extracted images are sequentially superposed on the previous image, and a step of performing a lower superimposing process in which the extracted images are sequentially superposed on the subsequent image of the reference image. It is what is executed. By executing such a program on the computer, the reference image is displayed at the top, so if you select the scene of interest as the reference image, the scene of interest will not be overwritten and will remain until the end, and the process will be effective. Can be confirmed.
【0019】本発明にかかる他の画像合成プログラム
は、奥行方向への動きを伴う被写体の画像合成を行なう
画像合成プログラムであって、コンピュータに対して、
基準画像を決定するステップと、前記基準画像の前の画
像に対して、順次下方に抽出画像が重ねられる下重ね処
理を行なうステップと、決定された基準画像の後の画像
に対して、順次上方に抽出画像が重ねられる上重ね処理
を行なうステップを実行させるものである。このような
プログラムをコンピュータにより実行することにより、
基準画像が一番上に表示されるため、注目シーンを基準
画像に選択すれば、注目シーンが上書きされずに最後ま
で残るとともに、その経過を効果的に確認することがで
きる。特に、注目シーンが奥にある場合には、有効な処
理である。Another image synthesizing program according to the present invention is an image synthesizing program for synthesizing an image of a subject accompanied by a movement in the depth direction.
A step of determining a reference image, a step of performing a superimposing process of sequentially superimposing an extracted image on a lower side of an image before the reference image, and a step of sequentially increasing an upper side of an image after the determined reference image. The step of performing the superimposing process in which the extracted images are superposed on is executed. By executing such a program on a computer,
Since the reference image is displayed at the top, if the attention scene is selected as the reference image, the attention scene remains to the end without being overwritten, and its progress can be effectively confirmed. In particular, this is an effective process when the attention scene is at the back.
【0020】[0020]
【発明の実施の形態】発明の実施の形態1.図1に、本
発明の実施の形態1にかかる画像合成装置の構成を示
す。この画像合成装置100は、撮影用カメラ1とケー
ブルや無線回線によって接続されている。BEST MODE FOR CARRYING OUT THE INVENTION Embodiment 1 of the Invention FIG. 1 shows the configuration of an image composition apparatus according to the first embodiment of the present invention. The image synthesizing apparatus 100 is connected to the photographing camera 1 by a cable or a wireless line.
【0021】撮影用カメラ1は、動きのある被写体を撮
影し、画像データ信号を生成する。この例では、主とし
て奥行方向、即ち撮影用カメラ1から被写体を結ぶ線上
であって両者が離れる方向への動きがある被写体の撮影
に用いられる。例えば、野球の打者のスイング動作、投
手の投球動作、ゴルフのスイング動作、サッカーのシュ
ート動作、フィギュアスケートの回転動作、柔道の投げ
技の動作、カーレースでの車のコーナリング動作であ
る。撮影用カメラ1は、生成した画像データ信号をケー
ブルを介して画像合成装置100に入力する。尚、撮影
用カメラ1から画像データ信号を一旦磁気テープ等の記
憶媒体に格納し、画像合成装置100においてこの記憶
媒体より画像データ信号を読み出すようにしてもよい。The photographing camera 1 photographs a moving subject and generates an image data signal. In this example, it is mainly used for photographing a subject having a movement in the depth direction, that is, on a line connecting the subject from the photographing camera 1 and in a direction in which they are separated from each other. For example, a swinging motion of a baseball batter, a pitching motion of a pitcher, a swinging motion of golf, a shooting motion of soccer, a rotating motion of figure skating, a throwing motion of judo, and a cornering motion of a car in a car race. The photographing camera 1 inputs the generated image data signal to the image synthesizing apparatus 100 via a cable. The image data signal from the photographing camera 1 may be temporarily stored in a storage medium such as a magnetic tape, and the image synthesizing apparatus 100 may read the image data signal from this storage medium.
【0022】画像合成装置100は、例えば、CPU、
ROM、RAM、ハードディスク、ディスプレイ、キー
ボード等を有する専用コンピュータによってハードウエ
ア上構成される。また、いわゆる汎用コンピュータに応
用プログラムをインストールすることによってこの画像
合成装置100を構成することも可能である。さらに、
画像合成装置100は、バッファメモリを備え、適宜、
背景あり合成画像5、背景なし合成画像6、抽出画像7
を格納する。The image synthesizing apparatus 100 includes, for example, a CPU,
The hardware is configured by a dedicated computer having a ROM, a RAM, a hard disk, a display, a keyboard, and the like. It is also possible to configure the image synthesizing device 100 by installing an application program in a so-called general-purpose computer. further,
The image synthesizing apparatus 100 includes a buffer memory,
Composite image 5 with background, composite image 6 without background, extracted image 7
To store.
【0023】画像合成装置100は、図1に示されるよ
うに、画像メモリ2、画像抽出部3、画像合成部4を備
えている。The image synthesizing apparatus 100, as shown in FIG. 1, includes an image memory 2, an image extracting section 3, and an image synthesizing section 4.
【0024】画像メモリ2は、撮影用カメラ1より入力
された画像データ信号を蓄積する記憶手段である。この
画像メモリ2には、本発明にかかる画像合成処理の対象
となる画像データがフレーム毎に時刻情報と関連付けら
れて蓄積される。この画像データのフレーム数は、画像
合成処理を行なう被写体の動作の速さ、動作時間に応じ
て適宜選択される。The image memory 2 is a storage means for accumulating image data signals input from the photographing camera 1. In the image memory 2, the image data to be subjected to the image composition processing according to the present invention is stored frame by frame in association with time information. The number of frames of this image data is appropriately selected according to the speed and the operation time of the subject to be image-synthesized.
【0025】画像抽出部3は、画像メモリ2より画像デ
ータを入力し、被写体の画像を抽出し、背景画像と分離
する処理を行なう。例えば、野球の打者のスイング動作
に関する画像であれば、被写体となる打者の部分のみが
抽出される。画像抽出部3による画像情報の抽出は、画
面上でオペレータが抽出画像を指定することによって実
現でき、また、次の方法によって自動的に生成すること
も可能である。The image extracting section 3 inputs image data from the image memory 2, extracts an image of a subject, and separates it from a background image. For example, in the case of an image of a swing motion of a baseball batter, only the part of the batter that is the subject is extracted. The extraction of the image information by the image extraction unit 3 can be realized by the operator designating the extracted image on the screen, or can be automatically generated by the following method.
【0026】(1)背景との差分をとり、画像処理を施
す。(1) Image processing is performed by calculating the difference from the background.
【0027】(2)検出器を用いて抽出対象の位置を検
出して映像内の特定部分を抽出する。(2) The position of the extraction target is detected by using the detector to extract the specific portion in the image.
【0028】(3)色情報を用いて、特定の色以外の部
分を抽出する。(3) A portion other than a specific color is extracted using the color information.
【0029】画像抽出部3によって抽出された画像は、
抽出画像7としてバッファメモリに格納される。The image extracted by the image extraction unit 3 is
The extracted image 7 is stored in the buffer memory.
【0030】画像合成部4は、画像メモリ2に格納され
た画像データや、画像抽出部3によって生成された抽出
画像データを入力し、画像合成処理を行なう。例えば、
画像合成部4は、画像メモリ2より入力された画像に対
して、画像抽出部3より入力された抽出画像7を重ね合
わせる処理を行い、背景のある合成画像5を生成する。
また、画像合成部4は、画像抽出部3より入力された複
数の抽出画像を重ね合わせる処理を行い、背景のない合
成画像6を生成することも可能である。The image synthesizing unit 4 inputs the image data stored in the image memory 2 and the extracted image data generated by the image extracting unit 3, and performs an image synthesizing process. For example,
The image synthesizing unit 4 performs a process of superposing the extracted image 7 input from the image extracting unit 3 on the image input from the image memory 2 to generate a synthetic image 5 with a background.
Further, the image synthesizing unit 4 can also perform a process of superimposing a plurality of extracted images input from the image extracting unit 3 to generate a synthetic image 6 having no background.
【0031】ここで、合成された画像Aよりも後ろにあ
る画像Bを合成する方法の一例について説明する。ま
ず、背景がある合成画像Aに画像Bの抽出画像を重ね合
わせる。その後、重ね合わせた合成画像に対して、さら
に背景のない合成画像Aを重ね合わせる。このような合
成処理によって、画像Bが画像Aの下に位置するように
表示させることができる。Here, an example of a method of synthesizing the image B located after the synthesized image A will be described. First, the extracted image of the image B is superposed on the synthetic image A having the background. After that, the composite image A having no background is further superposed on the superposed composite image. By such a combining process, the image B can be displayed so as to be located below the image A.
【0032】図2に本発明の実施の形態1にかかる画像
合成装置の画像合成処理を説明するために、合成前の画
像と合成後の画像を示す。画像2a〜2fが合成前の画
像であり、画像20が合成後の画像である。FIG. 2 shows an image before combining and an image after combining in order to explain the image combining processing of the image combining apparatus according to the first embodiment of the present invention. Images 2a to 2f are images before combining, and image 20 is an image after combining.
【0033】画像2a〜2fは、野球の打者のスイング
動作を一定時間おきに撮影した画像を簡略的に表示した
ものである。画像2aを最初として時系列的に並べてあ
り、最後が画像2fである。各画像の背景は斜線で示
す。本発明においては、基準となる画像を決定し、その
基準画像よりも時間的に前の画像及び基準画像に対する
合成処理と、基準画像よりも時間的に後の画像に対する
合成処理を変えている点に特徴を有する。この発明の実
施の形態1では、基準画像よりも時間的に前の画像及び
基準画像に関しては、被写体について上重ね処理を行
い、基準画像よりも時間的に後の画像に関しては、被写
体について下重ね処理を行なう。基準画像の決定につい
ては、さまざまな方法があり、発明の実施の形態4以降
において詳述する。Images 2a to 2f are images in which swing motions of a baseball batter are photographed at regular intervals and are simply displayed. The image 2a is arranged in time series starting from the first, and the last is the image 2f. The background of each image is shaded. In the present invention, a reference image is determined, and a combining process for an image and a reference image temporally earlier than the reference image and a combining process for an image temporally later than the reference image are changed. It is characterized by In the first embodiment of the present invention, an image and a reference image temporally before the reference image are subjected to an overlay process on the subject, and an image temporally after the reference image is overlayed on the subject. Perform processing. There are various methods for determining the reference image, which will be described in detail in the fourth and subsequent embodiments of the invention.
【0034】図2に示す例では、ヒッティングポイント
を示す注目シーンである画像2cを基準画像としてい
る。尚、基準画像を選択するにあたっては、このように
他の画像により上書きされることを防止したい画像を優
先的に選択する場合、最も撮影カメラ1に近い、手前に
被写体或いは被写体に一部(バット等)が位置する画像
を選択する場合等、種々の場合がある。In the example shown in FIG. 2, the image 2c which is the scene of interest showing the hitting point is used as the reference image. In selecting the reference image, when preferentially selecting an image that is desired to be prevented from being overwritten by another image in this way, the subject or a part of the subject (bat There are various cases such as the case of selecting an image in which () etc. are located.
【0035】この発明の実施の形態1では、基準画像2
cよりも前の画像2a、画像2b及び基準画像2cの被
写体については上重ね処理を行なう。さらに具体的に
は、画像2aの打者(バットを含む、以下同じ)の画像
に対して、画像2bの打者の画像が上になるように重ね
られる。さらに、この合成画像に対して画像2cの打者
の画像が上になるように重ねられる。その後、基準画像
2cよりも後の画像2d、画像2e、画像2fの被写体
については下重ね処理を行なう。さらに具体的には、画
像2a〜2cが上重ねされた合成画像に対して、画像2
dの打者の画像が下になるように重ねられる。さらに、
その合成画像に対して、画像2eの打者の画像が下にな
るように重ねられる。最後に、その合成画像に対して、
画像2fの打者の画像が下になるように重ねられる。こ
のようにして生成された合成画像が画像20である。In the first embodiment of the present invention, the reference image 2
The superimposing process is performed on the subjects of the image 2a, the image 2b, and the reference image 2c before c. More specifically, the image of the batter of image 2a (including the bat, the same applies hereinafter) is overlaid so that the image of the batter of image 2b is on top. Further, the image of the batter of the image 2c is overlaid on this composite image so that it is on the top. Then, the subject of the image 2d, the image 2e, and the image 2f after the reference image 2c is subjected to the lower superposition processing. More specifically, the image 2 is added to the composite image on which the images 2a to 2c are overlaid.
The images of the batters in d are overlaid so that they face down. further,
The image of the batter of the image 2e is superimposed on the composite image so that the image is on the bottom. Finally, for that composite image,
The image of the batter in the image 2f is overlaid so as to face downward. The composite image generated in this way is the image 20.
【0036】画像20は、注目シーンがある基準画像が
一番上に表示されるため、注目シーンが上書きされずに
最後まで残るとともに、その経過を確認することができ
る。この注目シーンが、撮影用カメラ側である場合に
は、表示される画像が視覚的に立体になるため、迫力の
ある表現効果が得られる。In the image 20, the reference image having the target scene is displayed at the top, so that the target scene remains without being overwritten and the progress can be confirmed. When the scene of interest is on the side of the camera for shooting, the displayed image is visually three-dimensional, so that a powerful expression effect can be obtained.
【0037】続いて、図3を用いて、画像の合成処理に
ついて具体的に説明する。画像例は、図2に示すものと
同じである。Next, the image synthesizing process will be specifically described with reference to FIG. The image example is the same as that shown in FIG.
【0038】まず、画像メモリ2より画像2a、2b、
2cを読み出し、画像合成部4によって、画像2a、2
b、2cが順に上重ねされるように合成し、画像21を
生成する。この合成方法については、従来のマルチモー
ションにおいて行っていた周知の手法であるため説明を
省略する。次に、画像抽出部3によって画像メモリ2か
ら画像2dを読み出し、被写体の画像のみ抽出し、抽出
画像22を生成する。この抽出画像22は、背景のない
画像となる。First, the images 2a, 2b,
2c is read out and the images 2a, 2
An image 21 is generated by synthesizing b and 2c so that they are superposed in order. Since this synthesizing method is a well-known method that has been performed in the conventional multi-motion, description thereof will be omitted. Next, the image extracting unit 3 reads the image 2d from the image memory 2, extracts only the image of the subject, and generates the extracted image 22. The extracted image 22 is an image without a background.
【0039】次に、合成画像21と画像22とを合成処
理23を行い、画像24を得る。また、画像抽出部3
は、合成画像21より被写体の画像のみを抽出し抽出画
像25を生成する。この抽出画像25は、背景のない画
像となる。そして、合成画像24と抽出画像25とを合
成処理することによって、合成画像27を生成する。同
様にして、この合成画像27に対して画像2e、画像2
fを合成処理することによって、図2に示す合成画像2
0を得ることができる。Next, the composite image 21 and the image 22 are subjected to a composition process 23 to obtain an image 24. In addition, the image extraction unit 3
Generates an extracted image 25 by extracting only the image of the subject from the composite image 21. This extracted image 25 is an image without a background. Then, the combined image 24 and the extracted image 25 are combined to generate a combined image 27. Similarly, for this composite image 27, image 2e and image 2
By performing a synthesis process on f, the synthesized image 2 shown in FIG.
You can get 0.
【0040】発明の実施の形態2.図4に、本発明の実
施の形態2にかかる画像合成装置の構成を示す。撮影用
カメラ31は、図1に示す撮影用カメラ1と、画像メモ
リ32は、図1に示す画像メモリ2と、画像抽出部33
は、図1に示す画像抽出部3と、画像合成部34は、図
1に示す画像合成部4とそれぞれ同等の機能を有するも
のである。Second Embodiment of the Invention FIG. 4 shows the configuration of the image composition apparatus according to the second embodiment of the present invention. The photographing camera 31 is the photographing camera 1 shown in FIG. 1, the image memory 32 is the image memory 2 shown in FIG.
The image extracting unit 3 shown in FIG. 1 and the image synthesizing unit 34 have the same functions as the image synthesizing unit 4 shown in FIG. 1, respectively.
【0041】この発明の実施の形態2にかかる画像合成
装置100は、図4に示されるように、抽出領域メモリ
36を備えている。The image synthesizing apparatus 100 according to the second embodiment of the present invention includes an extraction area memory 36 as shown in FIG.
【0042】この発明の実施の形態2にかかる画像合成
部34は、特に画像抽出部33によって抽出された抽出
画像37を、画像メモリ32に格納された画像データに
重ね合わせて、背景のある合成画像35を生成する。ま
た、画像合成部34は、抽出領域メモリ36に、画像抽
出部33によって抽出された画像の範囲を示す情報を適
宜取り込んで保存する。The image synthesizing unit 34 according to the second embodiment of the present invention superimposes the extracted image 37 extracted by the image extracting unit 33 on the image data stored in the image memory 32 to synthesize the image with the background. The image 35 is generated. Further, the image synthesizing unit 34 appropriately fetches and stores information indicating the range of the image extracted by the image extracting unit 33 in the extraction area memory 36.
【0043】ここで、合成された画像Aよりも後ろにあ
る画像Bを合成する方法の一例について説明する。ま
ず、画像Bの抽出画像37より、抽出領域メモリ36に
格納された合成画像Aの抽出画像の範囲部分を取り除
く。そして、この画像に対して、合成画像Aを重ね合わ
せる。このような合成処理によって、画像Bが画像Aの
下に位置するように表示させることができる。Here, an example of a method of synthesizing the image B located after the synthesized image A will be described. First, the range portion of the extracted image of the composite image A stored in the extraction area memory 36 is removed from the extracted image 37 of the image B. Then, the composite image A is superimposed on this image. By such a combining process, the image B can be displayed so as to be located below the image A.
【0044】続いて、図5を用いて、本発明の実施の形
態2にかかる画像の合成処理について具体的に説明す
る。画像例は、図2に示すものと同じである。Next, with reference to FIG. 5, the image combining processing according to the second embodiment of the present invention will be specifically described. The image example is the same as that shown in FIG.
【0045】まず、画像メモリ32より画像2a、2
b、2cを読み出し、画像合成部34によって、画像2
a、2b、2cが順に上重ねされるように合成し、画像
41を生成する。次に、画像抽出部33によってこの画
像41より、被写体の画像のみ抽出し、抽出画像44を
生成し、抽出領域メモリ36に格納する。この抽出画像
44は、背景のない画像となる。First, the images 2a and 2 are read from the image memory 32.
b, 2c are read out, and the image combining unit 34
An image 41 is generated by synthesizing a, 2b, and 2c so that they are sequentially overlaid. Next, the image extracting unit 33 extracts only the image of the subject from the image 41, generates the extracted image 44, and stores it in the extraction area memory 36. The extracted image 44 is an image without a background.
【0046】また、画像メモリ32より画像2dを読み
出し、画像抽出部33によって被写体の画像のみ抽出
し、抽出画像43を生成し、抽出領域メモリ36に格納
する。この抽出画像43は、背景のない画像となる。Further, the image 2d is read out from the image memory 32, only the image of the subject is extracted by the image extracting section 33, the extracted image 43 is generated and stored in the extraction area memory 36. The extracted image 43 is an image without a background.
【0047】次に、抽出領域メモリ36から、抽出画像
43及び抽出画像44を読み出し、画像合成部34によ
って、抽出画像43から抽出画像44を取り除く処理を
行なう。この処理によって、画像46を得る。続いて、
この画像46と、画像41を合成することによって、合
成画像42を得る。同様にして、この合成画像42に対
して画像2e、画像2fを合成処理することによって、
図2に示す合成画像20を得ることができる。Next, the extraction image 43 and the extraction image 44 are read from the extraction area memory 36, and the image synthesizing unit 34 performs a process of removing the extraction image 44 from the extraction image 43. An image 46 is obtained by this processing. continue,
By combining the image 46 and the image 41, a combined image 42 is obtained. Similarly, by synthesizing the image 2e and the image 2f with respect to the synthetic image 42,
The composite image 20 shown in FIG. 2 can be obtained.
【0048】発明の実施の形態3.図6に、本発明の実
施の形態3にかかる画像合成装置の構成を示す。撮影用
カメラ51は、図1に示す撮影用カメラ1と、画像メモ
リ52は、図1に示す画像メモリ2と、画像抽出部53
は、図1に示す画像抽出部3と、画像合成部54は、図
1に示す画像合成部4と同等の機能を有するものであ
る。Third Embodiment of the Invention FIG. 6 shows the configuration of an image synthesizing apparatus according to the third embodiment of the present invention. The photographing camera 51 is the photographing camera 1 shown in FIG. 1, the image memory 52 is the image memory 2 shown in FIG.
The image extracting section 3 and the image synthesizing section 54 shown in FIG. 1 have the same functions as the image synthesizing section 4 shown in FIG.
【0049】この発明の実施の形態3にかかる画像合成
装置100は、図6に示されるように、抽出領域メモリ
56を備えている。The image synthesizing apparatus 100 according to the third embodiment of the present invention includes an extraction area memory 56 as shown in FIG.
【0050】この発明の実施の形態3にかかる画像合成
部54は、特に画像抽出部53によって抽出された抽出
画像57を、画像メモリ52に格納された画像データに
重ね合わせて、背景のある合成画像55を生成する。ま
た、画像合成部54は、抽出領域メモリ56に、画像抽
出部53によって抽出された画像の範囲を示す情報を適
宜取り込んで保存する。The image synthesizing unit 54 according to the third embodiment of the present invention superimposes the extracted image 57 extracted by the image extracting unit 53 on the image data stored in the image memory 52 to synthesize the image with the background. The image 55 is generated. Further, the image synthesizing unit 54 appropriately fetches and stores information indicating the range of the image extracted by the image extracting unit 53 in the extraction area memory 56.
【0051】ここで、合成された画像Aよりも後ろにあ
る画像Bを合成する方法の一例について説明する。ま
ず、画像抽出部53により画像Bの抽出画像を生成する
に際して、抽出領域メモリ56に格納された合成画像A
の抽出範囲は、抽出しないように処理する。そして、こ
の画像に対して、合成画像Aを重ね合わせる。このよう
な合成処理によって、画像Bが画像Aの下に位置するよ
うに表示させることができる。Here, an example of a method of synthesizing the image B that is behind the synthesized image A will be described. First, when the image extraction unit 53 generates an extracted image of the image B, the composite image A stored in the extraction area memory 56
The extraction range of is processed so as not to be extracted. Then, the composite image A is superimposed on this image. By such a combining process, the image B can be displayed so as to be located below the image A.
【0052】続いて、図7を用いて、本発明の実施の形
態3にかかる画像の合成処理について具体的に説明す
る。画像例は、図2に示すものと同じである。Next, the image synthesizing process according to the third embodiment of the present invention will be specifically described with reference to FIG. The image example is the same as that shown in FIG.
【0053】まず、画像メモリ52より画像2a、2
b、2cを読み出し、画像合成部54によって、画像2
a、2b、2cが順に上重ねされるように合成し、画像
61を生成する。次に、画像抽出部53によってこの画
像61より、被写体の画像のみ抽出し、抽出画像62を
生成し、その抽出範囲の情報を抽出領域メモリ56に格
納する。First, the images 2a and 2 are read from the image memory 52.
b, 2c are read out, and the image combining unit 54
An image 61 is generated by synthesizing a, 2b, and 2c so that they are sequentially overlaid. Next, the image extracting unit 53 extracts only the image of the subject from the image 61, generates the extracted image 62, and stores the information of the extraction range in the extraction area memory 56.
【0054】また、画像メモリ52より画像2dを読み
出し、画像抽出部53によって被写体の画像のみ抽出す
るが、このとき抽出領域メモリ56に格納された抽出画
像62の抽出範囲の情報に基づき、この範囲の画像は抽
出しないように処理する。このようにして、抽出画像6
5を生成する。この抽出画像65は、背景のない画像と
なる。Further, the image 2d is read from the image memory 52, and only the image of the subject is extracted by the image extracting section 53. At this time, based on the extraction range information of the extracted image 62 stored in the extraction area memory 56, this range is extracted. Image is processed so as not to be extracted. In this way, the extracted image 6
5 is generated. This extracted image 65 is an image without a background.
【0055】次に、画像合成部54によって、抽出画像
65と合成画像61を合成66することによって、合成
画像67を得る。同様にして、この合成画像67に対し
て画像2e、画像2fを合成処理することによって、図
2に示す合成画像20を得ることができる。Next, the image combining section 54 combines 66 the extracted image 65 and the combined image 61 to obtain a combined image 67. Similarly, the composite image 20 shown in FIG. 2 can be obtained by combining the composite image 67 with the images 2e and 2f.
【0056】発明の実施の形態4.発明の実施の形態4
は、基準画像の決定の処理に関するものである。図8に
示されるように、発明の実施の形態4では、画像合成装
置72に基準画像決定装置73が接続されている。この
基準画像決定装置73は、画像合成装置72内に組み込
まれる構成であってもよい。即ち、基準画像決定装置7
3は、画像合成装置72の一機能として実現することが
できる。Fourth Embodiment of the Invention Fourth Embodiment of the Invention
Relates to the process of determining the reference image. As shown in FIG. 8, in the fourth embodiment of the invention, the reference image determination device 73 is connected to the image synthesis device 72. The reference image determining device 73 may be incorporated in the image synthesizing device 72. That is, the reference image determination device 7
3 can be realized as one function of the image synthesizing device 72.
【0057】ここで、撮影用カメラ71は、図1に示す
撮影用カメラ1に相当するものであり、画像合成装置7
2は、図1に示す画像合成装置100に相当する。The photographing camera 71 corresponds to the photographing camera 1 shown in FIG.
2 corresponds to the image compositing apparatus 100 shown in FIG.
【0058】基準画像決定装置73には、キーボード7
4、マイク75及びカメラ76を接続することができ
る。この発明の実施の形態4における基準画像決定装置
73は、さまざまな態様により基準画像を決定すること
ができるものとして説明するが、これに限らず、態様の
うちの一つ又は任意の組み合わせにより基準画像を決定
することができるものとしてもよい。The reference image determining device 73 includes a keyboard 7
4, the microphone 75 and the camera 76 can be connected. The reference image determining device 73 according to the fourth embodiment of the present invention is described as being capable of determining the reference image according to various modes, but the present invention is not limited to this, and the reference image can be determined according to one or any combination of modes. The image may be determined.
【0059】基準画像決定装置73は、画像合成装置7
2と別体で構成される場合にあっては、CPU、RO
M、RAM等の制御回路、メモリ、ディスプレイ等によ
って構成される。そのメモリには、基準画像を決定する
ためのアルゴリズム、処理を行なうためのソフトウェア
プログラムがインストールされる。The reference image determining device 73 is the image synthesizing device 7
If it is configured separately from 2, CPU, RO
It is composed of a control circuit such as M and RAM, a memory, a display and the like. An algorithm for determining a reference image and a software program for performing processing are installed in the memory.
【0060】キーボード74は、基準画像の決定をオペ
レータが直接画面上の画像を確認しながら入力するため
の入力手段として用いられる。この入力手段としては、
キーボード74以外にも、例えば、マウスやタッチパッ
ド等のポインティングデバイスが含まれる。このとき、
基準画像決定装置73は、キーボード74等の入力手段
からの入力信号に基づき、基準画像を特定する情報を抽
出し、画像合成装置72に対して出力する。The keyboard 74 is used as an input means for the operator to directly input the determination of the reference image while checking the image on the screen. As this input means,
In addition to the keyboard 74, for example, a pointing device such as a mouse or a touch pad is included. At this time,
The reference image determination device 73 extracts information specifying the reference image based on an input signal from an input unit such as a keyboard 74 and outputs the information to the image synthesis device 72.
【0061】マイク75は、被写体の動作に伴って発生
する音声を検出する音声検出手段として用いられる。例
えば、野球の打者のスイングの動作であれば、ボールが
バットに衝突する際に生じる打球音を検出する。このと
き、基準画像決定装置73は、マイク75により検出さ
れた音声情報を入力し、まず、音声情報より特定すべき
音、例えば打球音を抽出する。この音の抽出にあたって
は、例えば、予め特定すべき音の強度や周波数のデータ
を設定しておき、そのデータと入力した音声情報を比較
することによって実現可能である。音声情報より特定す
べき音が抽出された場合には、この音が検出された時刻
情報を生成する。この時刻情報に基づき、画像合成装置
72の画像メモリから音が検出された時刻又はそれより
も一定時間前又は後に撮影された画像を基準画像として
決定する。時刻情報に基づいて基準画像を特定するため
のアルゴリズムは、オペレータによって予め設定するこ
とができるよう構成されている。The microphone 75 is used as a voice detecting means for detecting a voice generated by the motion of the subject. For example, in the case of a swing motion of a baseball batter, a hitting sound generated when the ball collides with a bat is detected. At this time, the reference image determination device 73 inputs the voice information detected by the microphone 75, and first extracts a sound to be specified, for example, a hitting sound from the voice information. The extraction of the sound can be realized by, for example, setting the data of the strength and frequency of the sound to be specified in advance and comparing the data with the input voice information. When the sound to be specified is extracted from the voice information, the time information when the sound is detected is generated. Based on this time information, the time when the sound is detected from the image memory of the image synthesizing device 72, or an image captured before or after a certain period of time after that is determined as the reference image. The algorithm for specifying the reference image based on the time information is configured to be preset by the operator.
【0062】カメラ76は、撮影用カメラ81とは別の
位置に設けられたカメラであって、被写体の動作を撮影
することによって、基準画像の時刻情報を導出するため
のカメラである。例えば、野球の打者のスイング動作の
場合、ドーム球場の天井に取り付けられたカメラが該当
する。このカメラは、上方から打者を撮影することがで
きるため、バットの位置を明確に撮影することができ
る。そして、バットがヒッティングポイントの領域を通
過する時刻情報を検出する。この時刻情報に基づき、基
準画像を決定する。時刻情報に基づいて基準画像を特定
するためのアルゴリズムは、オペレータによって予め設
定することができるよう構成されている。The camera 76 is a camera provided at a position different from the photographing camera 81, and is a camera for deriving the time information of the reference image by photographing the motion of the subject. For example, in the case of a swing motion of a baseball batter, a camera attached to the ceiling of the dome stadium is applicable. Since this camera can photograph the batter from above, the position of the bat can be clearly photographed. Then, the time information when the bat passes through the area of the hitting point is detected. The reference image is determined based on this time information. The algorithm for specifying the reference image based on the time information is configured to be preset by the operator.
【0063】発明の実施の形態5.本発明の実施の形態
5では、図9に示されるように、画像合成装置82に位
置検出センサ83が接続されている。ここで、撮影用カ
メラ81は、図1に示す撮影用カメラ1に相当するもの
であり、画像合成装置82は、図1に示す画像合成装置
100に相当する。Fifth Embodiment of the Invention In the fifth embodiment of the present invention, as shown in FIG. 9, the position detection sensor 83 is connected to the image synthesizing device 82. Here, the photographing camera 81 corresponds to the photographing camera 1 shown in FIG. 1, and the image synthesizing device 82 corresponds to the image synthesizing device 100 shown in FIG.
【0064】この位置検出センサ83は、動作する被写
体の位置情報を取得する。画像合成装置82は、当該位
置検出センサ83より被写体の位置情報を取得し、被写
体の位置と合成画像が矛盾しないように抽出画像を重ね
合わせる順序を決定する。位置検出センサ83は、例え
ば光センサであり、予め定められた位置に設置される。
例えば、ゴルフのスイング動作を撮影する場合には、ゴ
ルフクラブがボールに当たる位置に設置される。位置検
出センサ83の検出信号に基づき、ゴルフクラブがボー
ルに当たる位置を通過する時刻情報を得ることができ
る。この時刻情報に基づき、基準画像を決定する。時刻
情報に基づいて基準画像を特定するためのアルゴリズム
は、オペレータによって予め設定することができるよう
構成されている。The position detection sensor 83 acquires position information of a moving subject. The image composition device 82 acquires the position information of the subject from the position detection sensor 83, and determines the order in which the extracted images are superimposed so that the position of the subject and the composite image do not conflict. The position detection sensor 83 is, for example, an optical sensor and is installed at a predetermined position.
For example, when shooting a golf swing motion, a golf club is installed at a position where it hits the ball. Based on the detection signal of the position detection sensor 83, it is possible to obtain time information when the golf club passes the position where the golf club hits the ball. The reference image is determined based on this time information. The algorithm for specifying the reference image based on the time information is configured to be preset by the operator.
【0065】発明の実施の形態6.本発明の実施の形態
6では、図10に示されるように、画像合成装置92に
奥行検出装置93が接続されている。この奥行検出装置
93は、画像合成装置92内に設けてもよい。ここで、
撮影用カメラ91は、図1に示す撮影用カメラ1に相当
するものであり、画像合成装置92は、図1に示す画像
合成装置100に相当する。Sixth Embodiment of the Invention In the sixth embodiment of the present invention, as shown in FIG. 10, a depth detection device 93 is connected to the image synthesizing device 92. The depth detecting device 93 may be provided in the image synthesizing device 92. here,
The photographing camera 91 corresponds to the photographing camera 1 shown in FIG. 1, and the image synthesizing device 92 corresponds to the image synthesizing device 100 shown in FIG.
【0066】この奥行検出装置93は、動作する被写体
の特定箇所の奥行方向、即ち撮影用カメラ91と当該被
写体を結ぶ線方向の位置情報を取得する。例えば、野球
の打者のスイング動作の場合には、バットの先端部分の
位置情報である。この位置情報の検出は、例えば、Colo
r Digiclops(ポイントグレイ社製)の3次元画像撮影
装置を利用することができる。The depth detection device 93 obtains position information in a depth direction of a specific portion of an operating subject, that is, in a line direction connecting the photographing camera 91 and the subject. For example, in the case of a swinging motion of a baseball batter, the position information is the tip portion of the bat. This positional information can be detected by, for example, Colo.
r Digiclops (manufactured by Point Gray) 3D image capturing device can be used.
【0067】画像合成装置92は、奥行検出装置93に
より検出された奥行方向の位置情報に基づいて、特定箇
所と撮影用カメラ91が最も近くに位置する時刻情報を
検出し、この位置に特定箇所が位置した状態を撮影した
画像を基準画像とする。そして、この基準画像が一番上
に表示されるように上記各発明の実施の形態で述べたよ
うな手法により画像合成する。The image synthesizing device 92 detects, based on the position information in the depth direction detected by the depth detecting device 93, the time information at which the specific location and the photographing camera 91 are located closest to each other, and the specific location at this position. The image in which the position is located is taken as the reference image. Then, the images are combined by the method as described in the above embodiments of the invention so that the reference image is displayed at the top.
【0068】尚、被写体の一部が奥行方向に動作するの
ではなく、被写体の全部が奥行方向に動作する場合に
は、その被写体の全部の奥行方向の位置情報を検出し、
この位置情報に基づき、基準画像を決定してもよい。具
体的には、被写体の全部が撮影用カメラ91に最も近い
状態を撮影した画像を基準画像とする。そして、この基
準画像が一番上に表示されるように上記各発明の実施の
形態で述べたような手法により画像合成する。When a part of the subject does not move in the depth direction but all of the subject moves in the depth direction, the position information of the entire subject in the depth direction is detected,
The reference image may be determined based on this position information. Specifically, an image in which all of the subjects are closest to the camera 91 is used as a reference image. Then, the images are combined by the method as described in the above embodiments of the invention so that the reference image is displayed at the top.
【0069】このようにして、被写体の特定箇所又は全
体が最も撮影用カメラに近い場所に位置した状態を撮影
した画像を基準画像とし、この基準画像が一番上に表示
されるように画像合成することによって、被写体を立体
的に表示することが可能となる。In this way, the photographed image of the specific portion of the subject or the state in which the whole of the subject is positioned closest to the photographing camera is used as the reference image, and the reference image is displayed at the top. By doing so, the subject can be displayed three-dimensionally.
【0070】尚、撮影用カメラ91と奥行検出装置93
を単一のカメラによって実現してもよい。Incidentally, the photographing camera 91 and the depth detecting device 93
May be implemented by a single camera.
【0071】発明の実施の形態7.本発明の実施の形態
7にかかる画像合成装置には、発明の実施の形態6と同
様に、図10で示されるような奥行検出装置93が画像
合成装置92に接続されている。この奥行検出装置93
は、画像合成装置92内に設けてもよい。本発明の実施
の形態7では、特に、奥行検出装置93によって検出さ
れた被写体の動作をさらに分析し、動作開始時及び動作
終了時の特定箇所の位置と基準時の特定箇所の位置を比
較することによって、合成処理を変更するようにしてい
る。Seventh Embodiment of the Invention In the image synthesizing device according to the seventh embodiment of the present invention, a depth detecting device 93 as shown in FIG. 10 is connected to the image synthesizing device 92 as in the sixth embodiment of the present invention. This depth detection device 93
May be provided in the image synthesizing device 92. In the seventh embodiment of the present invention, in particular, the motion of the subject detected by the depth detection device 93 is further analyzed, and the position of the specific position at the start and end of the motion is compared with the position of the specific position at the reference time. By doing so, the composition process is changed.
【0072】図11に本発明の実施の形態7にかかる画
像合成装置の処理フローを示す。まず、被写体を撮影用
カメラ91によって撮影する(S101)。次に、画像
合成装置は、撮影用カメラ91から画像データを入力
し、画像メモリに格納する(S102)。この画像メモ
リに格納された画像データに基づき、基準画像を決定す
る(S103)。基準画像の決定は、発明の実施の形態
6において説明したような奥行検出装置93を用いて自
動決定してもよく、発明の実施の形態4、5において説
明したような手法によって決定してもよい。FIG. 11 shows a processing flow of the image synthesizing apparatus according to the seventh embodiment of the present invention. First, the subject is photographed by the photographing camera 91 (S101). Next, the image synthesizing device inputs image data from the photographing camera 91 and stores it in the image memory (S102). A reference image is determined based on the image data stored in this image memory (S103). The reference image may be automatically determined using the depth detection device 93 described in the sixth embodiment of the invention, or may be determined by the method described in the fourth and fifth embodiments of the invention. Good.
【0073】次に動作開始時及び動作終了時における特
定箇所の位置は、基準画像を撮像した基準時における特
定箇所の位置よりも奥かどうか、即ち撮影用カメラ91
よりも離れた位置にあるかどうかを、奥行検出装置93
の出力信号に基づき判定する(S104)。Next, whether the position of the specific portion at the start of the operation and at the end of the operation is deeper than the position of the specific portion at the reference time when the reference image is picked up, that is, the photographing camera 91.
Depth detection device 93
(S104).
【0074】判定の結果、動作開始時及び動作終了時に
おける特定箇所の位置は、基準画像を撮像した基準時に
おける特定箇所の位置よりも奥にあると判断された場合
には、基準画像までは、上重ね処理をし、基準画像の後
は下重ね処理を行なう(S105)。As a result of the determination, if it is determined that the position of the specific portion at the start and end of the operation is behind the position of the specific portion at the reference time when the reference image is captured, up to the reference image. , And upper overlay processing, and after the reference image, lower overlay processing is performed (S105).
【0075】判定の結果、動作開始時及び動作終了時に
おける特定箇所の位置は、基準画像を撮像した基準時に
おける特定箇所の位置よりも奥でないと判断された場合
には、基準画像までは、下重ね処理をし、基準画像の後
は上重ね処理を行なう(S106)。As a result of the determination, when it is determined that the position of the specific portion at the start and end of the operation is not deeper than the position of the specific portion at the reference time when the reference image is captured, up to the reference image, Lower overlay processing is performed, and after the reference image, upper overlay processing is performed (S106).
【0076】例えば、野球の打者のスイング動作の場
合、図2に示した場合のように正面から撮影した場合に
は、特定箇所をバットとすると、ステップS105を行
なうことになる。他方、打者の背後から撮影した場合に
は、ステップS106を行なうことになる。For example, in the case of a swinging motion of a baseball batter, in the case of shooting from the front as in the case shown in FIG. 2, if a specific portion is a bat, step S105 is performed. On the other hand, when the image is taken from behind the batter, step S106 is performed.
【0077】尚、この例では、奥行検出装置93によっ
て、自動的に判別する場合を説明したが、ステップS1
05の処理かステップS106の処理のいずれかをキー
ボード等に用いてオペレータが設定することができるよ
うにしてもよい。In this example, the case where the depth detection device 93 automatically determines is explained, but step S1
The operator may be able to set either the processing of 05 or the processing of step S106 using a keyboard or the like.
【0078】その他の実施の形態.尚、上述の画像合成
装置は、必ずしも単一のコンピュータによって構成され
る必要はなく、複数のコンピュータによって構成されて
もよい。また、画像合成装置と撮影用カメラ、さらには
基準画像決定装置を単一の機器により構成してもよい。
例えば、動画を撮影する、家庭用又は業務用のカメラ中
に画像合成装置や基準画像決定装置を組み込んでもよ
い。また、家庭用のデジタルビデオ再生装置やゲーム機
器に画像合成装置を組み込んでもよい。いわゆるバッテ
ィングセンタ、ゴルフ練習場、ゲームセンタ等に、この
画像合成装置を撮影用カメラとともに設置するとよい。Other Embodiments. It should be noted that the image synthesizing apparatus described above does not necessarily have to be configured by a single computer, but may be configured by a plurality of computers. Further, the image synthesizing device, the photographing camera, and the reference image determining device may be configured by a single device.
For example, the image synthesizing device or the reference image determining device may be incorporated in a home or business camera that captures a moving image. Further, the image synthesizing device may be incorporated in a home digital video reproducing device or a game machine. It is advisable to install this image synthesizing device together with a photographing camera in a so-called batting center, golf driving range, game center, or the like.
【0079】また、画像合成装置をインタネットサーバ
上に備え、インターネットを介してクライアントコンピ
ュータから画像データを送信し、この画像合成装置によ
って、本発明にかかる画像合成処理を行い、合成画像を
クライアントコンピュータに送信するようにしてもよ
い。このとき、基準画像はクライアントコンピュータに
よって指定するとよい。Further, an image synthesizing device is provided on the Internet server, image data is transmitted from the client computer via the Internet, and the image synthesizing device according to the present invention performs the image synthesizing process according to the present invention. You may make it transmit. At this time, the reference image may be designated by the client computer.
【0080】基準画像を決定する例をいくつか説明した
が、必ずしも基準画像自体でなくとも、基準画像と関連
性のある情報を決定してもよい。例えば、基準時刻を決
定することによって間接的に基準画像を決定することも
できる。Although some examples of determining the reference image have been described, it is not always necessary to determine the reference image itself, and information related to the reference image may be determined. For example, the reference image can be indirectly determined by determining the reference time.
【0081】上述の例では、最終的に得られる画像上で
は、背景画像が組み込まれていたが、組み込む必要は必
ずしもない。また、撮影時の背景画像でなくとも他の画
像を組み込んでもよい。In the above example, the background image is incorporated in the finally obtained image, but it is not always necessary to incorporate it. Further, other images may be incorporated instead of the background image at the time of shooting.
【0082】一旦、本発明にかかる画像合成装置によっ
て作成した合成画像を表示させ、その画面上の被写体の
うち基準画像としたい被写体をポインタなどによって指
定することによって基準画像を容易に変更するものであ
ってもよい。It is possible to easily change the reference image by displaying the synthesized image created by the image synthesizing device according to the present invention and designating the subject to be the reference image among the subjects on the screen with a pointer or the like. It may be.
【0083】上述の例において、画像合成装置を汎用の
コンピュータで構成した場合には、汎用コンピュータを
画像合成装置として機能させるための応用プログラムが
インストールされる。この応用プログラムは、様々な種
類の記憶媒体に格納することが可能であり、また、通信
媒体を介して伝達されることが可能である。ここで、記
憶媒体には、例えば、フレキシブルディスク、ハードデ
ィスク、磁気ディスク、光磁気ディスク、CD−RO
M、DVD、ROMカートリッジ、バッテリバックアッ
プ付きRAMメモリカートリッジ、フラッシュメモリカ
ートリッジ、不揮発性RAMカートリッジ等を含む。ま
た、通信媒体には、電話回線等の有線通信媒体、マイク
ロ波回線等の無線通信媒体等を含み、インターネットも
含まれる。In the above example, when the image synthesizing device is constituted by a general-purpose computer, an application program for causing the general-purpose computer to function as the image synthesizing device is installed. This application program can be stored in various types of storage media, and can be transmitted via a communication medium. Here, the storage medium is, for example, a flexible disk, a hard disk, a magnetic disk, a magneto-optical disk, or a CD-RO.
M, DVD, ROM cartridge, RAM memory cartridge with battery backup, flash memory cartridge, non-volatile RAM cartridge, etc. are included. The communication medium includes a wired communication medium such as a telephone line, a wireless communication medium such as a microwave line, and the Internet.
【0084】[0084]
【発明の効果】本発明によれば、奥行方向への動作を伴
う被写体の動きを効果的に表現することができる画像合
成装置及び画像合成方法を提供することができる。As described above, according to the present invention, it is possible to provide an image synthesizing apparatus and an image synthesizing method capable of effectively expressing a motion of a subject accompanied by a motion in the depth direction.
【図1】本発明にかかる画像合成装置の構成を示すブロ
ック図である。FIG. 1 is a block diagram showing a configuration of an image synthesizing apparatus according to the present invention.
【図2】合成前の画像と合成後の画像を示す図である。FIG. 2 is a diagram showing an image before composition and an image after composition.
【図3】本発明にかかる画像合成装置による合成処理を
示す図である。FIG. 3 is a diagram showing a synthesizing process by the image synthesizing apparatus according to the present invention.
【図4】本発明にかかる画像合成装置の構成を示すブロ
ック図である。FIG. 4 is a block diagram showing a configuration of an image synthesizing apparatus according to the present invention.
【図5】本発明にかかる画像合成装置による合成処理を
示す図である。FIG. 5 is a diagram showing a synthesizing process by the image synthesizing apparatus according to the present invention.
【図6】本発明にかかる画像合成装置の構成を示すブロ
ック図である。FIG. 6 is a block diagram showing a configuration of an image synthesizing apparatus according to the present invention.
【図7】本発明にかかる画像合成装置による合成処理を
示す図である。FIG. 7 is a diagram showing a compositing process by the image compositing apparatus according to the present invention.
【図8】本発明にかかる画像合成装置の構成を示すブロ
ック図である。FIG. 8 is a block diagram showing a configuration of an image synthesizing apparatus according to the present invention.
【図9】本発明にかかる画像合成装置の構成を示すブロ
ック図である。FIG. 9 is a block diagram showing a configuration of an image synthesizing apparatus according to the present invention.
【図10】本発明にかかる画像合成装置の構成を示すブ
ロック図である。FIG. 10 is a block diagram showing a configuration of an image synthesizing apparatus according to the present invention.
【図11】本発明にかかる画像合成装置による合成処理
を示すフローチャートである。FIG. 11 is a flowchart showing a compositing process by the image compositing apparatus according to the present invention.
1 撮影用カメラ 100 画像合成装置 2 画像メモリ 3 画像抽出部 4 画像合成部 73 基準画像決定装置 1 Camera for photographing 100 Image synthesizer 2 image memory 3 image extractor 4 image synthesizer 73 Reference image determination device
───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡本 浩幸 山梨県甲府市下飯田1−4−6ワンズコア 2階 株式会社インク内 (72)発明者 加藤 大一郎 東京都渋谷区神南二丁目2番1号 日本放 送協会 放送センター内 (72)発明者 増田 裕康 東京都渋谷区神南二丁目2番1号 日本放 送協会 放送センター内 (72)発明者 池田 真 東京都渋谷区神南二丁目2番1号 日本放 送協会 放送センター内 (72)発明者 岩井 豊 東京都渋谷区神南二丁目2番1号 日本放 送協会 放送センター内 (72)発明者 橋本 賢一 東京都渋谷区神南二丁目2番1号 日本放 送協会 放送センター内 (72)発明者 玉木 宏幸 東京都渋谷区神南二丁目2番1号 日本放 送協会 放送センター内 Fターム(参考) 5B057 AA20 BA02 BA11 CA12 CA16 CB12 CB16 CC01 CE08 5C023 AA06 AA10 AA16 BA01 BA11 CA01 DA04 EA03 ─────────────────────────────────────────────────── ─── Continued front page (72) Inventor Hiroyuki Okamoto 1-4-6 Shimoida, Kofu City, Yamanashi Prefecture 2nd floor, Inc., Inc. (72) Inventor Daiichiro Kato 2-2-1 Jinnan 2-chome, Shibuya-ku, Tokyo Sending Association Broadcast Center (72) Inventor Hiroyasu Masuda 2-2-1 Jinnan 2-chome, Shibuya-ku, Tokyo Sending Association Broadcast Center (72) Inventor Makoto Ikeda 2-2-1 Jinnan 2-chome, Shibuya-ku, Tokyo Sending Association Broadcast Center (72) Inventor Yutaka Iwai 2-2-1 Jinnan 2-chome, Shibuya-ku, Tokyo Sending Association Broadcast Center (72) Inventor Kenichi Hashimoto 2-2-1 Jinnan 2-chome, Shibuya-ku, Tokyo Sending Association Broadcast Center (72) Inventor Hiroyuki Tamaki 2-2-1 Jinnan 2-chome, Shibuya-ku, Tokyo Sending Association Broadcast Center F term (reference) 5B057 AA20 BA02 BA11 CA12 CA16 CB12 CB16 CC01 CE08 5C023 AA06 AA10 AA16 BA01 BA11 CA01 DA04 EA03
Claims (14)
を行なう画像合成装置であって、 画像データを記憶する画像メモリと、 前記画像メモリより画像データを読み出し、被写体の画
像を抽出する画像抽出手段と、 前記画像メモリに記憶された画像データ及び/又は前記
画像抽出手段により抽出された抽出画像に基づき画像合
成を行なう画像合成手段と、 基準画像を決定する基準画像決定手段とを備え、 前記画像合成手段は、基準画像決定手段によって決定さ
れた基準画像の前の画像に対しては順次上方に抽出画像
が重ねられる上重ね処理を行い、前記基準画像の後の画
像に対しては順次下方に抽出画像が重ねられる下重ね処
理を行なう画像合成装置。1. An image synthesizing device for synthesizing an image of a subject with movement in the depth direction, comprising: an image memory for storing image data; and an image for reading the image data from the image memory and extracting an image of the subject. An extracting unit, an image combining unit that performs image combining based on the image data stored in the image memory and / or the extracted image extracted by the image extracting unit; and a reference image determining unit that determines a reference image, The image synthesizing unit performs an upper superimposing process in which the extracted image is sequentially superposed on the image before the reference image determined by the reference image determining unit, and sequentially on the images after the reference image. An image synthesizing device that performs lower overlay processing in which extracted images are overlaid below.
成された第1の合成画像と前記基準画像の後の画像を合
成するとともに、この合成画像に対して、第1の合成画
像の被写体を抽出した合成画像を上書きにすることによ
り実現することを特徴とする請求項1記載の画像合成装
置。2. The lower superimposing process combines the first composite image generated by the upper superimposing process with an image after the reference image, and the subject of the first composite image is compared with the composite image. The image synthesizing apparatus according to claim 1, which is realized by overwriting the extracted synthetic image.
像の被写体を抽出した画像から上重ね処理によって生成
された第1の合成画像の被写体を抽出した画像の部分を
取り除くことにより生成した第2の合成画像を前記第1
の合成画像に合成することにより実現することを特徴と
する請求項1記載の画像合成装置。3. The lower superposition processing is generated by removing a portion of the image obtained by extracting the subject of the first composite image generated by the upper superposition processing from the image obtained by extracting the subject of the image after the reference image. The second composite image is
The image synthesizing apparatus according to claim 1, wherein the image synthesizing device is realized by synthesizing the image into the synthetic image.
成された第1の合成画像の被写体の抽出範囲を抽出しな
いように、前記画像抽出手段によって基準画像の後の画
像の被写体を抽出した抽出画像を前記第1の合成画像に
合成することにより実現することを特徴とする請求項1
記載の画像合成装置。4. The subject of the image after the reference image is extracted by the image extracting means in the lower superimposing process so that the subject extraction range of the first composite image generated by the upper superimposing process is not extracted. The method is realized by synthesizing an extracted image with the first synthetic image.
The image synthesizing apparatus described.
て入力された基準画像を特定するための情報に基づいて
基準画像を決定することを特徴とする請求項1、2、3
又は4記載の画像合成装置。5. The reference image determining means determines the reference image based on the information for specifying the reference image input by the input means.
Alternatively, the image synthesizing apparatus according to item 4.
よって検出された音声情報に基づいて基準画像を決定す
ることを特徴とする請求項1、2、3又は4記載の画像
合成装置。6. The image synthesizing apparatus according to claim 1, wherein the reference image determining means determines the reference image based on the voice information detected by the voice detecting means.
よって検出された被写体の全部又は一部の位置情報に基
づいて基準画像を決定することを特徴とする請求項1、
2、3又は4記載の画像合成装置。7. The reference image determining means determines the reference image based on the position information of all or a part of the subject detected by the position detecting means.
The image synthesizing device according to 2, 3, or 4.
よって検出された被写体の全部又は一部の位置情報に基
づいて基準画像を決定することを特徴とする請求項1、
2、3又は4記載の画像合成装置。8. The reference image determining means determines the reference image based on position information of all or a part of the subject detected by the depth detecting means.
The image synthesizing device according to 2, 3, or 4.
は一部が最も撮影位置に近い状態を特定する画像を基準
画像として選択することを特徴とする請求項1、2、3
又は4記載の画像合成装置。9. The reference image determining means selects, as a reference image, an image that specifies a state in which all or part of a subject is closest to a shooting position.
Alternatively, the image synthesizing apparatus according to item 4.
成を行なう画像合成装置であって、 画像データを記憶する画像メモリと、 前記画像メモリより画像データを読み出し、被写体の画
像を抽出する画像抽出手段と、 前記画像メモリに記憶された画像データ及び/又は前記
画像抽出手段により抽出された抽出画像に基づき画像合
成を行なう画像合成手段と、 基準画像を決定する基準画像決定手段とを備え、 前記画像合成手段は、基準画像決定手段によって決定さ
れた基準画像の前の画像に対しては順次下方に抽出画像
が重ねられる下重ね処理を行い、前記基準画像の後の画
像に対しては、順次上方に抽出画像が重ねられる上重ね
処理を行なう画像合成装置。10. An image synthesizing device for synthesizing an image of a subject accompanied by movement in the depth direction, comprising: an image memory for storing image data; and an image for reading the image data from the image memory and extracting an image of the subject. An extracting unit, an image combining unit that performs image combining based on the image data stored in the image memory and / or the extracted image extracted by the image extracting unit; and a reference image determining unit that determines a reference image, The image synthesizing unit performs a lower superimposing process in which the extracted images are sequentially superposed downward on the image before the reference image determined by the reference image determining unit, and for the image after the reference image, An image synthesizing device that performs an overlay process in which extracted images are sequentially overlaid.
成を行なう画像合成方法であって、 基準画像を決定するステップと、 決定された基準画像の前の画像に対して、順次上方に抽
出画像が重ねられる上重ね処理を行なうステップと、 前記基準画像の後の画像に対して、順次下方に抽出画像
が重ねられる下重ね処理を行なうステップを有する画像
合成方法。11. An image synthesizing method for synthesizing an image of a subject accompanied by a movement in the depth direction, which comprises a step of determining a reference image, and a step of sequentially extracting the reference image before the determined reference image upward. An image synthesizing method comprising: a step of performing an upper superimposing process in which images are superposed, and a step of performing a lower superimposing process in which extracted images are sequentially superposed on an image after the reference image.
成を行なう画像合成方法であって、 基準画像を決定するステップと、 前記基準画像の前の画像に対して、順次下方に抽出画像
が重ねられる下重ね処理を行なうステップと、 決定された基準画像の後の画像に対して、順次上方に抽
出画像が重ねられる上重ね処理を行なうステップとを有
する画像合成方法。12. An image synthesizing method for synthesizing an image of a subject with movement in the depth direction, the method comprising: determining a reference image; and extracting images sequentially below the image before the reference image. An image synthesizing method comprising: a step of performing a superimposing lower superimposing process; and a step of performing an upper superimposing process of sequentially superimposing an extracted image on an image after a determined reference image.
成を行なう画像合成プログラムであって、この画像合成
プログラムは、コンピュータに対して、 基準画像を決定するステップと、 決定された基準画像の前の画像に対して、順次上方に抽
出画像が重ねられる上重ね処理を行なうステップと、 前記基準画像の後の画像に対して、順次下方に抽出画像
が重ねられる下重ね処理を行なうステップを実行させる
画像合成プログラム。13. An image synthesizing program for synthesizing an image of a subject accompanied by movement in the depth direction, the image synthesizing program causing a computer to determine a reference image, and determining the reference image. Performing an upper superimposing process in which the extracted image is sequentially superposed on the previous image, and a lower superimposing process in which the extracted image is sequentially superposed in the lower image on the subsequent image of the reference image. Image synthesis program to let you.
成を行なう画像合成プログラムであって、この画像合成
プログラムは、コンピュータに対して、 基準画像を決定するステップと、 前記基準画像の前の画像に対して、順次下方に抽出画像
が重ねられる下重ね処理を行なうステップと、 決定された基準画像の後の画像に対して、順次上方に抽
出画像が重ねられる上重ね処理を行なうステップを実行
させる画像合成プログラム。14. An image synthesizing program for synthesizing an image of a subject with movement in the depth direction, the image synthesizing program causing a computer to determine a reference image; Executes a step of performing a lower overlay process in which the extracted images are sequentially overlaid on the lower image, and a step of performing an upper overlay process in which the extracted images are sequentially overlaid on the image after the determined reference image. Image synthesis program to let you.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002104908A JP3929811B2 (en) | 2002-04-08 | 2002-04-08 | Image composition apparatus and image composition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002104908A JP3929811B2 (en) | 2002-04-08 | 2002-04-08 | Image composition apparatus and image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003304444A true JP2003304444A (en) | 2003-10-24 |
JP3929811B2 JP3929811B2 (en) | 2007-06-13 |
Family
ID=29389866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002104908A Expired - Lifetime JP3929811B2 (en) | 2002-04-08 | 2002-04-08 | Image composition apparatus and image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3929811B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006087063A (en) * | 2004-09-17 | 2006-03-30 | Ulead Systems Inc | Multiple exposure image composite system and multiple exposure image composite method |
JP2006203443A (en) * | 2005-01-19 | 2006-08-03 | Inc Corp | Image synthesizer and synthesization program |
JP2008187678A (en) * | 2007-01-31 | 2008-08-14 | Nippon Hoso Kyokai <Nhk> | Video generating apparatus and video generating program |
JP2010045727A (en) * | 2008-08-18 | 2010-02-25 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2010103878A (en) * | 2008-10-27 | 2010-05-06 | Sony Corp | Image processing apparatus, image processing method, and program |
CN102075680A (en) * | 2009-11-20 | 2011-05-25 | 索尼公司 | Image processing apparatus, image processing method and program |
JP2011109558A (en) * | 2009-11-20 | 2011-06-02 | Sony Corp | Image capturing apparatus, image processing apparatus, control method thereof and program |
WO2011074446A1 (en) * | 2009-12-16 | 2011-06-23 | ソニー株式会社 | Display control device, display control method, and program |
CN104735385A (en) * | 2015-03-31 | 2015-06-24 | 小米科技有限责任公司 | Playing control method and device and electronic equipment |
JP2016163089A (en) * | 2015-02-27 | 2016-09-05 | 株式会社Jvcケンウッド | Image connection device, image connection method, and image connection program |
-
2002
- 2002-04-08 JP JP2002104908A patent/JP3929811B2/en not_active Expired - Lifetime
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006087063A (en) * | 2004-09-17 | 2006-03-30 | Ulead Systems Inc | Multiple exposure image composite system and multiple exposure image composite method |
JP2006203443A (en) * | 2005-01-19 | 2006-08-03 | Inc Corp | Image synthesizer and synthesization program |
JP2008187678A (en) * | 2007-01-31 | 2008-08-14 | Nippon Hoso Kyokai <Nhk> | Video generating apparatus and video generating program |
JP2010045727A (en) * | 2008-08-18 | 2010-02-25 | Sony Corp | Image processing apparatus, image processing method, and program |
US9955038B2 (en) | 2008-08-18 | 2018-04-24 | Sony Corporation | Image processing apparatus, image processing method, and program |
JP4591576B2 (en) * | 2008-08-18 | 2010-12-01 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
KR101612551B1 (en) * | 2008-08-18 | 2016-04-14 | 소니 주식회사 | Image processing apparatus, image processing method, and recording medium |
US9165389B2 (en) | 2008-08-18 | 2015-10-20 | Sony Corporation | Image processing apparatus, image processing method, and program |
US9106872B2 (en) | 2008-10-27 | 2015-08-11 | Sony Corporation | Image processing apparatus, image processing method, and program |
JP4623201B2 (en) * | 2008-10-27 | 2011-02-02 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2010103878A (en) * | 2008-10-27 | 2010-05-06 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2011109558A (en) * | 2009-11-20 | 2011-06-02 | Sony Corp | Image capturing apparatus, image processing apparatus, control method thereof and program |
CN102075680B (en) * | 2009-11-20 | 2014-06-04 | 索尼公司 | Image processing apparatus, image processing method and program |
US8896626B2 (en) | 2009-11-20 | 2014-11-25 | Sony Corporation | Image capturing apparatus, image processing apparatus, control method thereof and program |
CN102075680A (en) * | 2009-11-20 | 2011-05-25 | 索尼公司 | Image processing apparatus, image processing method and program |
WO2011074446A1 (en) * | 2009-12-16 | 2011-06-23 | ソニー株式会社 | Display control device, display control method, and program |
CN102656548A (en) * | 2009-12-16 | 2012-09-05 | 索尼公司 | Display control device, display control method, and program |
US9851894B2 (en) | 2009-12-16 | 2017-12-26 | Sony Corporation | Display control device, display control method, and program |
JP2011130046A (en) * | 2009-12-16 | 2011-06-30 | Sony Corp | Display control device, display control method, and program |
JP2016163089A (en) * | 2015-02-27 | 2016-09-05 | 株式会社Jvcケンウッド | Image connection device, image connection method, and image connection program |
CN104735385A (en) * | 2015-03-31 | 2015-06-24 | 小米科技有限责任公司 | Playing control method and device and electronic equipment |
EP3076664A1 (en) * | 2015-03-31 | 2016-10-05 | Xiaomi Inc. | Method and device for controlling playing and electronic equipment |
US10217487B2 (en) | 2015-03-31 | 2019-02-26 | Xiaomi Inc. | Method and device for controlling playback |
Also Published As
Publication number | Publication date |
---|---|
JP3929811B2 (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10721439B1 (en) | Systems and methods for directing content generation using a first-person point-of-view device | |
JP4557035B2 (en) | Information processing apparatus, information processing method, program, and recording medium | |
JP4685465B2 (en) | Monitoring and recording device | |
US20120106869A1 (en) | Image processing apparatus, image processing method, and program | |
JP4289326B2 (en) | Information processing apparatus and method, photographing apparatus, and program | |
US8421871B2 (en) | Method and apparatus for image pickup and image processing | |
EP3060317B1 (en) | Information processing device, recording medium, and information processing method | |
JP4674725B2 (en) | Moving object measuring apparatus, moving object measuring system, and moving object measuring method | |
US20070064975A1 (en) | Moving object measuring apparatus, moving object measuring system, and moving object measurement | |
JP2009505553A (en) | System and method for managing the insertion of visual effects into a video stream | |
JP2010187374A (en) | Summary video-generating apparatus and summary video generating method | |
JP2003304444A (en) | Apparatus and method for compositing image | |
CN107506108B (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
JPH06105231A (en) | Picture synthesis device | |
JP2020013470A (en) | Information processing device, information processing method, and program | |
JP2009169334A (en) | Image processing apparatus and method, program, and recording medium | |
JP2005286378A (en) | Moving picture reproduction system and moving picture reproduction method | |
JP7295053B2 (en) | Scene extraction method, device and program | |
JP2003141505A (en) | Image synthesizing device and program | |
EP4460017A1 (en) | Information processing device, image processing method, and program | |
JP2020067716A (en) | Information processing apparatus, control method and program | |
JP7530206B2 (en) | Information processing device, information processing method, and program | |
EP4443392A1 (en) | Image production system, image production method, and program | |
JP5665380B2 (en) | Image processing apparatus, image processing apparatus control method, program, and recording medium | |
KR101911528B1 (en) | Method and system for generating motion data of moving object in viedo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040827 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070307 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3929811 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110316 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140316 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |