JP2006279917A - Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system - Google Patents
Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system Download PDFInfo
- Publication number
- JP2006279917A JP2006279917A JP2005306267A JP2005306267A JP2006279917A JP 2006279917 A JP2006279917 A JP 2006279917A JP 2005306267 A JP2005306267 A JP 2005306267A JP 2005306267 A JP2005306267 A JP 2005306267A JP 2006279917 A JP2006279917 A JP 2006279917A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- motion vector
- moving image
- interpolation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Television Systems (AREA)
Abstract
Description
この発明は、電子情報化された動画像の品質改善、特に、動画像の時間解像度(フレーム数/秒)の改善を可能とする動画像符号化装置、動画像復号装置及び動画像伝送システムに関するものである。 The present invention relates to a moving image encoding device, a moving image decoding device, and a moving image transmission system that can improve the quality of electronically converted moving images, in particular, the time resolution (number of frames / second) of moving images. Is.
従来、MPEGやITU−T H.26x等の国際標準映像符号化方式では、映像信号の各フレームについて、輝度信号16×16画素とそれに対応する色差信号8×8画素分をまとめたブロックデータ(以下、マクロブロック)を単位として、動き補償技術及び直交変換/変換係数量子化技術に基づいて圧縮する方法が採用されている。 Conventionally, MPEG and ITU-TH. In an international standard video coding system such as 26x, for each frame of a video signal, block data (hereinafter referred to as a macroblock) in which a luminance signal of 16 × 16 pixels and a corresponding color difference signal of 8 × 8 pixels are collected is used as a unit. A compression method based on a motion compensation technique and an orthogonal transform / transform coefficient quantization technique is employed.
動き補償技術とは、ビデオフレーム間に存在する高い相関を利用してマクロブロック毎に時間方向の信号の冗長度を削減する技術であり、過去に符号化済みの画像を参照画像としてメモリ内に蓄積しておき、参照画像中の所定の探索範囲内で、動き補償予測の対象となっている現マクロブロックと最も差分電力の小さいブロック領域を探索して、現マクロブロックの空間位置と探索結果ブロックの空間位置とのずれを動きベクトルとして符号化する技術である。 Motion compensation technology is a technology that reduces the redundancy of signals in the time direction for each macroblock using high correlation existing between video frames. In the memory, a previously encoded image is used as a reference image. Accumulated and searched within the predetermined search range in the reference image for the current macroblock that is subject to motion compensation prediction and the block area with the smallest difference power, the spatial position of the current macroblock and the search result This is a technique for encoding a deviation from the spatial position of a block as a motion vector.
上記動きベクトルは、ビデオフレーム間の各ブロックにおける局所的な動きを表していることが多く、その動きベクトル情報を利用して補間フレームを生成する研究がなされている。最も単純なモデルでは、例えば、時間的に隣接するビデオフレーム同士の丁度中間位置に補間フレームを生成する場合、動きベクトルの値を半分にした値を補間フレームの動きベクトルとして採用し、前後のフレームから動き補償するという方法がある。これはビデオフレーム間の動きがリニアであることを仮定した場合のモデルであり、ビデオフレームの間隔が短いほど、また動きベクトルが小さい程その仮定が成り立つため、ある程度の補間フレームを生成することが可能である。 In many cases, the motion vector represents a local motion in each block between video frames, and research on generating an interpolation frame using the motion vector information has been made. In the simplest model, for example, when an interpolated frame is generated at an exactly middle position between temporally adjacent video frames, a value obtained by halving the value of the motion vector is used as the motion vector of the interpolated frame, There is a method of motion compensation. This model is based on the assumption that the motion between video frames is linear. The shorter the interval between video frames and the smaller the motion vector, the more the assumption is made. Is possible.
上記動きベクトルは、ビデオフレーム間の各ブロックにおける局所的な動きを表していることが多いものの、実際は最も差分電力の小さいブロック領域を探索して求められるものであり、局所的な動きを表さないこともある。そのような場合、補間フレームに乱れが発生し、非常に目立つことが多いため、そのような「動きを表していないベクトル」を如何に判定し、如何に処理するかが問題となっている。 Although the motion vector often represents local motion in each block between video frames, it is actually obtained by searching for a block region with the smallest differential power, and represents local motion. Sometimes not. In such a case, the interpolated frame is disturbed and often very conspicuous. Therefore, it is a problem how to determine such a “vector not representing motion” and how to process it.
上記動きベクトルの推定問題に関して、ベクトルの信頼性を判定するのに、フレーム内のイントラマクロブロックの割合や、隣接マクロブロックに対するベクトル同士の差や、フレーム内におけるベクトル差が大きいマクロブロックの個数や、フレーム内の動きベクトルの分散値等を用い、それら全ての閾値処理を行うことで、比較的少ない演算量でベクトルの信頼性の判定を行っている。演算量が少ないところは利点として強調できるものの、映像の内容により適切な閾値は各々敏感に変化する性質があるため、そのような固定値の閾値をもつ処理は、ロバストな設計が困難であった(例えば、非特許文献1参照)。 Regarding the motion vector estimation problem, to determine the reliability of a vector, the ratio of intra macroblocks in a frame, the difference between vectors with respect to adjacent macroblocks, the number of macroblocks with a large vector difference in a frame, By using the variance value of the motion vector in the frame and performing all the threshold processing, the reliability of the vector is determined with a relatively small amount of calculation. Where the amount of computation is small, it can be emphasized as an advantage, but since the appropriate threshold value changes sensitively depending on the content of the video, it is difficult to design robustly for such processing with a fixed value threshold value. (For example, refer nonpatent literature 1).
従来のフレーム補間処理は、以上のように行われていたので、動画像の時間解像度改善の問題に対し、少ない演算量で、ロバストにフレーム補間処理を行うことは困難であった。 Since the conventional frame interpolation processing has been performed as described above, it has been difficult to perform the frame interpolation processing robustly with a small amount of calculation with respect to the problem of improving the temporal resolution of moving images.
この発明は上記のような課題を解消するためになされたもので、動きベクトル推定のために必要な情報を入力ストリーム(動画像符号化データ)から取り出すことで、改めて多くの演算を行わず、更に閾値処理を少なくしてもロバストにフレーム補間処理を行うことが出来る動画像符号化装置、動画像復号装置及び動画像伝送システムを得ることを目的とする。 The present invention has been made to solve the above-described problems. By extracting information necessary for motion vector estimation from an input stream (moving image encoded data), many operations are not performed again. It is another object of the present invention to obtain a moving image encoding device, a moving image decoding device, and a moving image transmission system that can perform frame interpolation processing robustly even if threshold processing is reduced.
この発明に係る動画像復号装置は、動画像符号化データを解析してブロック単位の符号化シンボルを抽出する解析手段と、前記符号化シンボルを用いて動画像の各フレームを復元して出力する復号手段と、前記符号化シンボルに基づいて、補間フレームの生成方法と補間フレームの動きベクトルとを推定して、前記補間フレームを生成する画像生成部と、前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを所定のタイミングで切り替える切替器とを備えている。 The moving picture decoding apparatus according to the present invention analyzes moving picture coded data and extracts coding symbols in units of blocks, and restores and outputs each frame of the moving picture using the coded symbols. A decoding unit, an image generation unit that estimates an interpolation frame generation method and a motion vector of the interpolation frame based on the encoded symbol, and generates the interpolation frame; and a moving image output from the decoding unit; A switching unit that switches an output of the interpolation frame from the image generation unit at a predetermined timing.
この発明によれば、少ない処理で効率的かつロバストなフレーム補間処理を実現することができる。 According to the present invention, an efficient and robust frame interpolation process can be realized with a small number of processes.
実施の形態1.
以下、この発明の実施の形態1について説明する。実施の形態1では、映像の各フレームを用い、時間的に各フレームの間に存在する補間フレームを生成する動画像復号装置について説明する。動画像復号装置内部では、動画像符号化データを入力として、同データを復号/伸張した後、復号されたフレームを用いたフレーム補間処理を施して補間フレームを生成し、元からある映像の各フレームに生成された補間フレームを合わせた形で再生画像を得る処理を行っている。以下、このような処理に該当する画像生成処理を「フレーム補間処理」と呼ぶ。
実施の形態1に係る動画像復号装置の特徴は、補間フレームを生成するための各種情報を動画像符号化データから取り出すことが可能であり、改めて演算を必要としない点にある。図1は、実施の形態1に係る動画像復号装置の構成図である。図1において、動画像復号装置28は、可変長復号部2、逆量子化部7、逆直交変換部8、動き補償部10、フレームメモリ11、切替器9、加算部13、補間画像生成部17、動きベクトル保存用メモリ18、符号化モード情報保存用メモリ19、予測残差絶対値和保存用メモリ20、切替器24を有している。
The feature of the moving picture decoding apparatus according to the first embodiment is that various information for generating an interpolation frame can be extracted from the moving picture encoded data, and no calculation is required again. FIG. 1 is a configuration diagram of a moving picture decoding apparatus according to
次に、図1の動画像復号装置28の動作について説明する。図1の動画像復号装置28では、外部から動画像符号化データ1を受け取ると、可変長復号部2(解析手段)にてエントロピー復号処理が行われ、動きベクトル3、符号化モード情報4、直交変換係数データ5、量子化ステップパラメータ6等が抽出される。これらの抽出データを“符号化シンボル”とする。
直交変換係数データ5、量子化ステップパラメータ6は、それぞれ逆直交変換部8、逆量子化部7(両者を併せて復号部とする)によって復号される。
Next, the operation of the
The orthogonal transform coefficient data 5 and the
また、切替器9は、符号化モード情報4が動き予測モードを示している場合は、動き補償部10において、動きベクトル3と符号化モード情報4に基づいて、フレームメモリ11中の参照画像から予測画像12を生成して出力する一方、イントラモードを示している場合は、“0”を出力する。
In addition, when the
動き予測モードでは、逆直交変換部8の出力は、動き補償予測結果の予測誤差信号であるので、動きベクトル3を用いて参照画像から符号化側(動画像符号化装置)で生成したものと同じ予測画像12を生成し、加算部13において逆直交変換部8の出力15と加算することで復号画像14を再現する。
イントラモードでは、参照画像を全く利用せずにフレーム内符号化される。また、この場合は前述のように切替器9の出力が“0”であるため、逆直交変換部8の出力15がそのまま復号画像14となる。
復号画像14は、以降のフレームの予測画像生成に用いられるため、フレームメモリ11に格納される。復号画像14はまた、切替器24のスイッチが上側にある時は、動画像復号装置28の外部へ出力27される。
In the motion prediction mode, since the output of the inverse
In the intra mode, intra-frame encoding is performed without using any reference image. In this case, since the output of the
The decoded
それと同時に、動きベクトル3を動きベクトル保存用メモリ18へ保存し、符号化モード情報4を符号化モード情報保存用メモリ19へ保存し、逆直行変換部8の出力15の絶対値和を取得して予測残差絶対値和保存メモリ20へ保存し、補間画像生成部17におけるフレーム補間処理に備える。
At the same time, the motion vector 3 is stored in the motion
フレーム補間処理を行う時は、所定のタイミング26により切替器24のスイッチを下側へ切り替え、直後に補間画像生成部17が動作する。フレーム補間処理が終わったところで補間フレームの画像出力25を行い、切替器24のスイッチを上側に戻すことにより、動画像符号化装置から外部へ出力27される。
When performing the frame interpolation process, the switch of the
図2は、実施の形態1において、通常フレーム同士の時間的な中間位置に、補間フレームの生成を行う場合を示す図である。所定のタイミング26とは、例えば、図2に示すような補間フレームの生成を行う場合、動画像復号装置28の上位制御部が生成する補間フレームの表示時刻に基づくタイミングを用いる。
FIG. 2 is a diagram illustrating a case where an interpolation frame is generated at a temporally intermediate position between normal frames in the first embodiment. For example, when the interpolation frame as shown in FIG. 2 is generated, the
次に、補間画像生成部17について詳細に説明する。図3は、図1の補間画像生成部17の内部構成図である。図3に示すように、補間画像生成部17は、動きベクトル推定部301と補間画像生成部302を有している。動きベクトル推定部301は、動きベクトル推定コア部305を備えている。補間画像生成部17は、フレームをブロック分割し、ブロック単位で処理を行う。実施の形態1では、ブロックを8×8ピクセルとして説明を行う。
Next, the interpolation
図4は、図3の補間画像生成部17の処理フローを示したフローチャートである。
図4は、補間対象ブロックxをフレーム補間処理する場合を示している。図4において、tは時間を、f(x,t)はFrame tのブロックxの画素値を示す。df(x,t)はブロックxの推定動きベクトルMV(forward)、db(x,t)は同推定動きベクトルMV(backward)、m(x,t+1)は時刻“t+1”の補間対象直後フレームにおけるブロックxの符号化モードを示す。補間画像生成部17は、フレーム内全てのブロックに関して図4の処理を行い、補間フレームを生成する。
FIG. 4 is a flowchart showing a processing flow of the interpolated
FIG. 4 shows a case where the interpolation target block x is subjected to frame interpolation processing. In FIG. 4, t indicates time, and f (x, t) indicates the pixel value of the block x of Frame t. d f (x, t) is an estimated motion vector MV (forward) of block x, d b (x, t) is the estimated motion vector MV (backward), and m (x, t + 1) is an interpolation target at time “t + 1”. The encoding mode of the block x in the immediately following frame is shown. The interpolated
以下、図3の動きベクトル推定部301の動作について説明する。所定のタイミング26により、図4の処理フローが開始される。処理フローが開始されると、動きベクトル推定部301は符号化モード情報保存用メモリ19からの出力22で計算対象ブロックの符号化モード情報を取得する。ステップST101で、符号化モードm(x,t+1)が“skipped”であるかどうかをチェックする。
Hereinafter, the operation of the motion
図5は、図4のステップST102における、「片方向補間」を示す図である。図4のステップST101で“skipped”の場合、補間対象ブロックxの動きは極小であるため、次の補間画像生成部302にて図5に示すような「片方向補間」を実施する。従って、動きベクトル推定部301は、補間画像生成部302に対して、「片方向補間」の出力303、及び「動きベクトル(0,0)」の出力304を行う。
FIG. 5 is a diagram showing “one-way interpolation” in step ST102 of FIG. In the case of “skipped” in step ST101 of FIG. 4, since the motion of the interpolation target block x is minimal, the next interpolation
図6は、図4のステップST104における、「両方向補間」を示す図である。図4のステップST101で“skipped”ではない場合、次の補間画像生成部302にて図6に示すような両方向補間を実施する。従って、動きベクトル推定部301は、補間画像生成部302に対して、「両方向補間」の出力303を行う。そして、動きベクトル推定コア部305にて、補間対象ブロックの動きベクトル値を推定し、補間画像生成部302に対して、「推定された動きベクトル値」の出力304を行う。動きベクトル推定コア部305における、動きベクトルの推定処理(ステップST103)については後述する。
FIG. 6 is a diagram showing “bidirectional interpolation” in step ST104 of FIG. If it is not “skipped” in step ST101 of FIG. 4, the next interpolation
以下、補間画像生成部302の動作について説明する。補間画像生成部302には、動きベクトル推定部301からの出力303で、「片方向補間」または「両方向補間」が入力される。また、出力304で動きベクトル値が入力される。出力303の入力データにより、補間画像生成部302の動作は以下の2種類に場合分けされる。
Hereinafter, the operation of the interpolation
先ず、出力303が「片方向補間」の場合について説明する。Frame tの補間対象ブロックxに関し、図5に示す「片方向補間」を実施する。図5は、符号化されたFrame t−1及びFrame t+1に対し、Frame tを補間する場合の例である。「片方向補間」の場合は、出力304による動きベクトルが(0,0)であるため、図5に示すように、Frame t+1の符号化画像において、ブロックxと同じ位置のブロックの画像データを用いて補間を行う。
First, the case where the
次に、出力303が「両方向補間」の場合について説明する。Frame tの補間対象ブロックxに関し、図6に示す「両方向補間」を実施する。図6は、符号化されたFrame t−1及びFrame t+1に対し、時間的に中間位置にあるFrame tを補間する場合の例である。ブロックxに関し補間する式は、数式1で与えられる。
動きベクトルdf(x,t)及びdb(x,t)は、出力304により入力された動きベクトルを用いる。「両方向補間」は、Frame t−1とFrame t+1の両方からFrame tに対して補間を行う。Frame t−1は、補間対象ブロックと同位置からdf(x,t)ずれた場所を補間に用いる。Frame t+1は、Frame tが時間的に中間位置にあることを利用すると、“db(x,t)=−df(x,t)”が成り立つため、補間対象ブロックから−df(x,t)ずれた場所を補間に用いる。
As the motion vectors d f (x, t) and d b (x, t), the motion vectors input by the
以上より、図6において、補間対象ブロックを求めるための式は、数式1に“db(x,t)=−df(x,t)”を代入することで、数式2のようになる。
以下、動きベクトル推定コア部305の動作について説明する。図7は、図3の動きベクトル推定コア部305の動作を示した図である。動きベクトル推定コア部305は、前述の通り、動きベクトル推定部301にて、計算対象ブロックの符号化モードが“skipped”ではない場合に動作し、補間フレーム上での動きベクトルの推定を行う(図4のステップST103参照)。
具体的には、図7のFrame t+1における領域“R”で示すような、補間対象ブロックxと同じ位置のブロック(計算対象ブロック)と、その周囲の8ブロックに関し、動きベクトル保存用メモリ18からの出力21で復号画像上の動きベクトルを参照する。また、符号化モード情報保存用メモリ19からの出力22で符号化モード情報を参照し、予測残差絶対値和保存用メモリ20からの出力23で予測残差絶対値和を参照する。
図7のように、符号化ベクトル(動きベクトル)をd(x+vi,t+1),0≦i≦8,(v4=0)、予測残差をe(x+vi,t+1),0≦i≦8,(v4=0)とした時、数式3の演算を行うことで、補間フレーム上での補間対象ブロックxにおける、Frame t−1に対する動きベクトルdf(x,t)の推定を行う。
Specifically, with respect to the block (calculation target block) at the same position as the interpolation target block x and the surrounding eight blocks, as indicated by the region “R” in Frame t + 1 in FIG. The motion vector on the decoded image is referred to by the
As shown in FIG. 7, the encoded vector (motion vector) is d (x + v i , t + 1), 0 ≦ i ≦ 8, (v 4 = 0), and the prediction residual is e (x + v i , t + 1), 0 ≦ i. When ≦ 8, (v 4 = 0), the motion vector d f (x, t) is estimated for Frame t−1 in the interpolation target block x on the interpolation frame by performing the calculation of Equation 3. Do.
予測残差絶対値和の逆数で動きベクトルを重み付けすることで、予測残差絶対値和の小さいブロックにおける動きベクトルに強い重みが与えられる。予測残差絶対値和が小さい程、動きベクトル自体の信頼性が高く、予測残差絶対値和が大きい程ベクトル自体の信頼性が低いという性質に基づく手法である。 By weighting the motion vector with the reciprocal of the prediction residual absolute value sum, a strong weight is given to the motion vector in the block having the small prediction residual absolute value sum. This is a method based on the property that the smaller the prediction residual absolute value sum is, the higher the reliability of the motion vector itself is, and the larger the prediction residual absolute value sum is, the lower the reliability of the vector itself is.
また、実施の形態1では、図2のような時間的に丁度中間位置のフレームを補間する場合の例であるため、α=1/2となり、また、Frame t+1に対する動きベクトルdb(x,t)は、“db(x,t)=−df(x,t)”で与えられる。 Further, since the first embodiment is an example of interpolating a frame at just an intermediate position in time as shown in FIG. 2, α = 1/2, and the motion vector d b (x, t) is given by “d b (x, t) = − d f (x, t)”.
但し、図7の領域Rで示す9つの計算対象ブロックのうち、イントラブロックは上記演算から除外する。“skipped”のブロックは、符号化ベクトル(0,0)、予測残差をある固定値Aとして上記演算を実施する。また、インターのブロックでも、DCT係数がなく、予測残差絶対値和が“0”になる場合は、ある固定値Bとして上記演算を実施する。9つの計算対象ブロック全てがイントラブロックであった場合は、例外的に、“df(x,t)=(0,0)”とする。 However, among the nine calculation target blocks indicated by the region R in FIG. 7, the intra block is excluded from the calculation. The “skipped” block performs the above operation with the encoded vector (0, 0) and the prediction residual as a fixed value A. Further, even in the inter block, when there is no DCT coefficient and the sum of the absolute values of the prediction residuals is “0”, the above calculation is performed as a certain fixed value B. If all nine calculation target blocks are intra blocks, exceptionally, “d f (x, t) = (0, 0)”.
上記のように動きベクトル推定コア部305で推定されたベクトルdf(x,t)及びdb(x,t)を、補間画像生成部302に出力する。
The vectors d f (x, t) and d b (x, t) estimated by the motion vector
以上のようなフレーム補間処理を行うことにより、動きベクトル推定のために必要な情報を入力ストリーム(動画像符号化データ1)から取り出すことが可能であり、改めて演算を必要としない点、閾値処理がほとんどなくロバストに機能する点が、利点として挙げられる。 By performing the frame interpolation processing as described above, it is possible to extract information necessary for motion vector estimation from the input stream (moving image encoded data 1), and there is no need for another calculation. The advantage is that it works robustly with almost no noise.
図8は、実施の形態1における任意の時刻におけるフレーム補間の様子を示した図である。実施の形態1では、図2のような時間的に丁度中間位置にあるフレームを補間する例で説明を行ってきたが、例えば図8のような補間を行い、コマ数を4倍にするといったことも可能である。図8に示すような相対値αの値を用い、時間的に任意の場所に補間フレームを生成することが可能である(スケーリング)。図8のような相対時間値0<α<1を定義した場合、図7のdf(x,t)の推定式(数式3)において、α倍しているところを(α―1)倍とすると、db(x,t)をその向きまで考慮した形で求めることが可能となる。
FIG. 8 is a diagram showing a state of frame interpolation at an arbitrary time in the first embodiment. In the first embodiment, description has been made with an example in which a frame at an intermediate position in time is interpolated as shown in FIG. 2, but for example, interpolation as shown in FIG. 8 is performed to increase the number of frames four times. It is also possible. By using the value of the relative value α as shown in FIG. 8, it is possible to generate an interpolation frame at an arbitrary place in time (scaling). When the
実施の形態1の動画像復号装置を用いたアプリケーション事例としては、携帯カメラ動画、DVDレコーダ高圧縮モードといったものが挙げられる。携帯カメラ動画やDVDレコーダの高圧縮モードでは、コマ数を落とした形でデータ保存をしておき、再生する際に、実施の形態1の手法を用いてフレーム補間処理を行いながら再生することで、時間解像度の高い映像を閲覧することが可能となる。 Examples of applications using the moving picture decoding apparatus according to the first embodiment include portable camera moving images and DVD recorder high compression mode. In the high-compression mode of portable camera videos and DVD recorders, data is stored in a reduced number of frames and played back while performing frame interpolation processing using the method of the first embodiment. It is possible to view a video with a high time resolution.
図9は、従来の動画像復号装置と実施の形態1に係る動画像復号装置の比較例を示した図である。30fpsの同じ映像ソースを入力する例を用いて比較を行っている。上側は従来の動画像復号装置を用いた動画像出力の例であり、下側が実施の形態1に係る動画像復号装置を用いた動画像出力の例を示している。従来例では、15fpsにて符号化し、動画像復号装置に対して符号化データの出力を行うと、動画像復号装置では15fpsの符号化データが蓄積され、15fpsにて再生が行われる。 FIG. 9 is a diagram showing a comparative example between the conventional video decoding device and the video decoding device according to the first embodiment. Comparison is made using an example in which the same video source of 30 fps is input. The upper side shows an example of moving picture output using the conventional moving picture decoding apparatus, and the lower side shows an example of moving picture output using the moving picture decoding apparatus according to the first embodiment. In the conventional example, when encoding is performed at 15 fps and the encoded data is output to the moving image decoding apparatus, 15 fps encoded data is accumulated in the moving image decoding apparatus, and reproduction is performed at 15 fps.
それに対して、実施の形態1では、動画像復号装置28に対して出力を行うことを想定した動画像出力の例であり、動画像符号化装置で符号化する段階で、動画像復号装置28にてフレーム補間を行うことを想定し、より高圧縮で符号化するためコマを落として7.5fpsで符号化を行い、出力を行う。動画像復号装置28では、7.5fpsの符号化データが蓄積される。これにより、従来例と比較して伝送量や蓄積量が半分ですむ上、フレーム補間処理を行い、例えば4倍にコマを増やすことで30fpsの再生が可能となる。
On the other hand, the first embodiment is an example of moving image output that is assumed to be output to the moving
以上のように、この実施の形態1によれば、動画像復号装置28を用いると、従来と比較して伝送量や蓄積量を削減することが可能であり、更に時間解像度の高い動画を再生し閲覧することが可能となる。
As described above, according to the first embodiment, when the moving
また、実施の形態1はMPEG−2の片フィールド補間へも適用可能である。例えば片フィールドのみを符号化データとして保存し、残りの片フィールドを実施の形態1の手法を用いて補間を行うことで適用可能となる。以下に、図10を用いて説明する。 The first embodiment is also applicable to MPEG-2 single field interpolation. For example, only one field can be stored as encoded data, and the remaining one field can be applied by performing interpolation using the method of the first embodiment. This will be described below with reference to FIG.
図10は、実施の形態1に係る動画像符号化装置及び動画像復号装置を、MPEG−2の片フィールド補間に適用した例を示す図である。図10は、あるインターレース動画像の出力を行う場合の例であり、動画像符号化装置1201に入力する前段階でField抽出を行い、Top Fieldのみを動画像符号化装置1201に入力し、順次符号化し出力を行う。動画像復号装置28では、Top Fieldの復号データからBottom Fieldを補間し、再生を行う。
FIG. 10 is a diagram illustrating an example in which the moving picture encoding apparatus and moving picture decoding apparatus according to
また一方で、MPEG−4等の動画像符号化において、両方向予測による動き補償を利用するピクチャタイプの予測画像生成において、MPEG−4等で規定されている予測画像生成方式により生成された予測画像ではなく、実施の形態1により生成される補間フレームを予測画像として用いることで、圧縮率が向上できる。 On the other hand, in motion picture coding such as MPEG-4, a predicted picture generated by a predicted picture generation method defined in MPEG-4 or the like in picture-type predicted picture generation using motion compensation by bidirectional prediction. Instead, the compression rate can be improved by using the interpolated frame generated in the first embodiment as a predicted image.
実施の形態2.
以下、この発明の実施の形態2について説明する。実施の形態2では、動きベクトル推定コア部305(図3参照)が実施の形態1と別処理を行う。その他の構成は実施の形態1と同様であるので説明を省略する。図11は、実施の形態2に係る動画像復号装置の動きベクトル推定コア部305の動作を示した図である。
The second embodiment of the present invention will be described below. In the second embodiment, the motion vector estimation core unit 305 (see FIG. 3) performs processing different from that of the first embodiment. Since other configurations are the same as those of the first embodiment, description thereof is omitted. FIG. 11 is a diagram illustrating an operation of the motion vector
下記の演算を行うことで、補間フレーム上での補間対象ブロックxにおける、Frame t−1に対する動きベクトルdf(x,t)の推定を行う。
ここで、φi(m)、φi(n)はそれぞれ数式6で表される。また、gi(m)、gi(n)はそれぞれ、数式7で表される。h(x)は実施の形態2では、x-1に依存する非線形関数とし、gi(m)、gi(n)は分散の逆数の意味を持つ。
この時、σd(m)、σd(n)は図11における領域Rの分散の各成分を表しており、数式8のようになる。また、図2のように時間的に丁度中間位置のフレームを補間する場合は、α=1/2となる。
実施の形態2は、実施の形態1と比較すると、領域Rのベクトルに関して、分散値の逆数をブロックxと同位置の計算対象ブロックのみに強く重み付けすることで、領域Rの動きベクトルの分散が小さい場合に、計算対象ブロックのベクトルが強く重み付けされる。 Compared with the first embodiment, the second embodiment strongly weights only the calculation target block at the same position as the block x with respect to the vector of the region R, thereby reducing the variance of the motion vector of the region R. When it is small, the vector of the calculation target block is strongly weighted.
実施の形態1では、領域Rのベクトルが全体的に小さい場合、領域Rのある特定の予測残差絶対値和が小さなブロックに対する重みが必要以上に大き過ぎ、そのような予測残差絶対値和が小さいブロックの動きベクトルはほとんどの場合(0,0)である。その結果、必要以上に推定動きベクトルがゼロベクトルとなるブロックが多発する場合がある。従って、実施の形態2では、分散値を使うアルゴリズムを導入している。 In the first embodiment, when the vector of the region R is generally small, a certain prediction residual absolute value sum in the region R is too large for a small block, and such a prediction residual absolute value sum is larger than necessary. In most cases, the motion vector of a small block is (0, 0). As a result, there are cases where there are many blocks where the estimated motion vector is zero vector more than necessary. Therefore, in the second embodiment, an algorithm using a variance value is introduced.
以上のように、この実施の形態2によれば、分散値を使うアルゴリズムの導入により、実施の形態1と比較して、元々の動き量が少ないために分散の小さい動きベクトルを有する領域であっても、必要以上にゼロベクトルに落とすことなく、その分散の度合いを推定動きベクトルに適切に反映させる効果がある。 As described above, according to the second embodiment, the introduction of an algorithm using a variance value is a region having a motion vector with a small variance because the original motion amount is smaller than that in the first embodiment. However, there is an effect of appropriately reflecting the degree of dispersion in the estimated motion vector without dropping it to the zero vector more than necessary.
実施の形態3.
以下、この発明の実施の形態3について説明する。図12は、実施の形態3に係る動画像符号化装置から動画像復号装置へのデータ出力を示す図である。実施の形態3に係る動画像符号化装置1201は、実施の形態1、2に係る動画像復号装置28が行うフレーム補間処理に対して補助を行う(以下、補間アシスト)。具体的には、動画像符号化装置1201が、通常の符号化データ1に加えて、フレーム補間処理を補助するための付加情報を出力する。この付加情報を生成する部分を付加情報生成部と呼ぶ。
Embodiment 3 FIG.
The third embodiment of the present invention will be described below. FIG. 12 is a diagram illustrating data output from the video encoding device to the video decoding device according to Embodiment 3. The
第1の補間アシスト(フレーム補間処理における参照画像種別の出力)について説明する。動画像符号化装置1201は、動画像復号装置28におけるフレーム補間処理に際して、「時間的に前方のフレームのみを参照して補間する方法」、「時間的に後方のフレームのみを参照して補間する方法」、「前後両方のフレームを参照して補間する方法」の3種類の補間方法のうち、最適な補間方法に関する情報(最適な参照画像を示す情報)を、フレーム内の全てのブロックに関して個別に生成し、付加情報として出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、付加情報の前等に付加する。その付加情報を示すビット列を、例えば算術符号化等を用いて圧縮した形で動画像復号装置28へ出力する。
The first interpolation assist (output of the reference image type in the frame interpolation process) will be described. In the frame interpolation process in the moving
図13は、実施の形態3に係る動画像符号化装置の構成図である。なお、動画像符号化装置1301は、図12の動画像符号化装置1201に相当する。図13において、動画像符号化装置1301は、動画像符号化部1302、切替器1304、最適参照画像判定部1305、ビット列生成部1306を備えている。また、動画像符号化部1302は、メモリ1303を備える。最適参照画像判定部1305及びビット列生成部1306が付加情報生成部である。
FIG. 13 is a configuration diagram of a video encoding apparatus according to Embodiment 3. Note that the moving
次に、動画像符号化装置1301の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ出力1を行う。一方、最適参照画像判定部1305にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、上記3種類の補間方法による補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、ブロック毎にどの補間方法が最適かを判定する。その判定結果を出力1309としてビット列生成部1306へ入力し、同時に出力1308で切替器1304のスイッチを下側に切り替える。ビット列生成部1306では、最適参照画像判定部1305からの出力1309で上記判定結果のデータを受け取り、そのデータに関して算術符号化等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。
Next, the operation of the moving
以上のように、この実施の形態3によれば、動画像符号化装置1301には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成し、入力画像との比較を行うことで最適な補間方法を判定することが可能であり、このような第1の補間アシストで最適な補間方法を動画像復号装置28に出力することにより、フレーム補間処理された動画像の画質向上が期待できる効果がある。
As described above, according to the third embodiment, since the moving
実施の形態4.
以下、この発明の実施の形態4について説明する。実施の形態4では、図12の動画像符号化装置1201が、第2の補間アシスト(予測残差の出力)を行う。符号化する際の動きベクトルがばらばらである場合に、動画像復号装置28において通常のフレーム補間処理を行うと、画質の低いブロックを含む補間フレームが生成されてしまう。
The fourth embodiment of the present invention will be described below. In the fourth embodiment, the moving
実施の形態4では、上記の場合、動画像符号化装置1201が通常の動画像符号化データに加えて、補間フレーム上の該当ブロックにおける予測残差を出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、予測残差データの前等に付加する。動画像復号装置28は、先ず、フレーム単位で予測残差の出力の有無を判断する。予測残差データを出力する時は、該当ブロック位置と予測残差を符号化データの付加情報として出力する。その付加情報を示すビット列は、例えばMPEG−4で用いられているDCTや量子化、VLC(可変長符号化)等を用い、圧縮した形で動画像復号装置28へ出力する。
In
図14は、実施の形態4に係る動画像符号化装置の構成図である。なお、図14の動画像符号化装置1401は、図12の動画像符号化装置1201に相当する。図14において、動画像符号化装置1401は、動画像符号化部1302、切替器1304、予測残差伝送判定部1405、ビット列生成部1406を備えている。また、動画像符号化部1302は、メモリ1303を備える。予測残差伝送判定部1405及びビット列生成部1406が付加情報生成部である。
FIG. 14 is a configuration diagram of a video encoding apparatus according to
次に、動画像符号化装置1401の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。一方、予測残差伝送判定部1405にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、ブロック毎に予測残差を送る必要があるかどうかを判定する。その結果、1ブロックでも予測残差を送る必要があれば、出力1309でビット列生成部1406にブロック位置と予測残差を伝え、同時に出力1308経由で切替器1304のスイッチを下側に切り替える。ビット列生成部1406では、出力1309で予測残差伝送判定部1405からのデータ(ブロック位置と予測残差)を受け取り、そのデータに関して適切な圧縮等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。
Next, the operation of the moving
以上のように、この実施の形態4によれば、動画像符号化装置には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成して入力画像との比較を行うことで、著しく画質の低いブロックを含む補間フレームを調べることが可能であり、このような第2の補間アシストで補間フレーム上の該当ブロックにおける予測残差を動画像復号装置28へ出力することにより、フレーム補間処理されたフレームの画質向上が期待できる効果がある。
As described above, according to the fourth embodiment, since there is an input image in the moving image encoding apparatus, an interpolation frame is provisionally generated using the encoded data and compared with the input image. Thus, it is possible to examine an interpolation frame including a block with remarkably low image quality, and by outputting the prediction residual in the corresponding block on the interpolation frame to the moving
実施の形態5.
以下、この発明の実施の形態5について説明する。実施の形態5では、図12の動画像符号化装置1201が、第3の補間アシスト(補間フレーム上の動きベクトルの出力)を行う。符号化する際の動きベクトルがばらばらで、動画像復号装置1において実施の形態1や実施の形態2に示すような通常の動きベクトル推定コア部305の処理(図4のステップST103)を行うと、画質の低いブロックを含む補間フレームになってしまう。特にイントラブロックの場合は、元々符号化データの中に動きベクトル自体が存在しないため、そのような状態になり易い。
Embodiment 5. FIG.
The fifth embodiment of the present invention will be described below. In the fifth embodiment, the moving
実施の形態5では、上記の場合、動画像符号化装置1201が、通常の符号化データに加え、補間フレーム上の該当ブロックにおける動きベクトルも付加情報として出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、動きベクトルデータの前等に付加する。動画像復号装置28は、先ずフレーム単位で動きベクトルの出力の有無を判断する。動きベクトルデータを出力する時は、該当ブロック位置と動きベクトルを付加情報として出力する。
In the fifth embodiment, in the above case, the moving
図15は、実施の形態5に係る動画像符号化装置の構成図である。なお、図15の動画像符号化装置1501は、図12の動画像符号化装置1201に相当する。図15において、動画像符号化装置1501は、動画像符号化部1302、切替器1304、動きベクトル伝送判定部1505、ビット列生成部1506を備えている。また、動画像符号化部1302は、メモリ1303を備える。動きベクトル伝送判定部1505及びビット列生成部1506が付加情報生成部である。
FIG. 15 is a configuration diagram of a video encoding apparatus according to Embodiment 5. Note that the moving
次に、動画像符号化装置1501の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。一方、動きベクトル伝送判定部1505にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、著しく画質が落ちていないかどうか判定する。画質の落ちているブロックがあれば補間フレーム上の動きベクトルの変更により画質が改善されるかどうか判定を行うことで、動きベクトルを送る必要があるかどうかを判定する。その結果、1ブロックでも動きベクトルを送る必要があれば、出力1309でビット列生成部1506にブロック位置と伝送すべき動きベクトル値を伝え、同時に出力1308経由で切替器1304のスイッチを下側に切り替える。ビット列生成部1506では、1309経由で動きベクトル伝送判定部1505からのデータを受け、そのデータに関して適切な圧縮等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。
Next, the operation of the moving
以上のように、この実施の形態5によれば、動画像符号化装置には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成して入力画像との比較を行うことで、通常の動きベクトル推定コア部の処理では著しく画質の低いブロックを含む補間フレームを調べることが可能であるため、このような第3の補間アシストで補間フレーム上の該当ブロックにおける補間フレーム上の最適な動きベクトルを出力することにより、フレーム補間処理されたフレームの画質向上が期待できる効果がある。 As described above, according to the fifth embodiment, since the moving image encoding apparatus has an input image, an interpolation frame is temporarily generated using the encoded data and compared with the input image. Therefore, since the normal motion vector estimation core unit process can examine an interpolation frame including a block with extremely low image quality, the third interpolation assist can be used to check the interpolation frame in the corresponding block on the interpolation frame. By outputting the optimal motion vector, it is possible to expect an improvement in the image quality of the frame subjected to the frame interpolation process.
実施の形態6.
以下、この発明の実施の形態6について説明する。実施の形態6では、図12の動画像符号化装置1201が、第4の補間アシスト(予測残差絶対値和の出力)を行う。実映像を対象とした符号化においては、一般的に予測残差絶対値和がゼロになることはほとんどない。しかし、DCT係数なしのブロックがあった場合、動画像復号装置28において、そのブロックにおける予測残差絶対値和はゼロとなってしまう。
The sixth embodiment of the present invention will be described below. In the sixth embodiment, the moving
実施の形態6では、上記の場合、動画像符号化装置1201が、通常の符号化データに加え、該当ブロックのみ予測残差絶対値和も出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、予測残差絶対値和データの前等に付加する。動画像復号装置28は、先ずフレーム単位で予測残差絶対値和の出力の有無を判断する。予測残差絶対値和データを出力する時は、該当ブロック位置と予測残差絶対値和を付加情報として出力する。その付加情報を示すビット列は、例えば算術符号化等で圧縮し、ごく短い符号に変換した形で動画像復号装置28へ出力する。
In the sixth embodiment, in the above case, the moving
図16は、実施の形態6に係る動画像符号化装置の構成図である。なお、図16の動画像符号化装置1601は、図12の動画像符号化装置1201に相当する。図16において、動画像符号化装置1601は、動画像符号化部1302、切替器1304、予測残差絶対値和伝送判定部1605、ビット列生成部1606を備えている。また、動画像符号化部1302は、メモリ1303を備える。予測残差絶対値和伝送判定部1605、ビット列生成部1506が付加情報生成部である。
FIG. 16 is a configuration diagram of a video encoding apparatus according to
次に、動画像符号化装置1601の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。一方、予測残差絶対値和伝送判定部1605にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、著しく画質が落ちていないかどうか判定する。画質の落ちているブロックがあれば補間フレーム上の予測残差絶対値和の補正により画質が改善されるかどうか判定を行うことで、予測残差絶対値和を送る必要があるかどうかを判定する。その結果、1ブロックでも予測残差絶対値和を送る必要があれば、出力1309でビット列生成部1606にブロック位置と出力すべき動きベクトル値を伝え、同時に出力1308で切替機1304のスイッチを下側に切り替える。ビット列生成部1606では、出力1309で予測残差絶対値和伝送判定部1605からのデータを受け取り、そのデータに関して適切な圧縮等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。
Next, the operation of the moving
以上のように、この実施の形態6によれば、動画像符号化装置1601には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成して入力画像との比較を行うことで、通常の動きベクトル推定コア部の処理では著しく画質の低いブロックを含む補間フレームを調べることが可能であるため、このような第4の補間アシストで補間フレーム上の該当ブロックにおける予測残差絶対値和を出力することにより、フレーム補間処理されたフレームの画質向上が期待できる効果がある。
As described above, according to the sixth embodiment, since the moving
なお、上記実施の形態3〜6に示した第1〜第4の補間アシストを行う場合、付加情報の種別を示す種別フラグを付加情報の前等に付加することで、付加情報種別を出力する手段とする。 When the first to fourth interpolation assists described in the third to sixth embodiments are performed, the additional information type is output by adding a type flag indicating the type of additional information to the front of the additional information. Means.
実施の形態7.
以下、この発明の実施の形態7について説明する。実施の形態7では、図12の動画像符号化装置1201が第5の補間アシスト(符号化画像上の動きベクトルの制限)を行う。動画像符号化装置1201は、符号化する際、フレーム外を参照する動きベクトルを使用しないようにする。
Embodiment 7 FIG.
The seventh embodiment of the present invention will be described below. In the seventh embodiment, the moving
図17は、実施の形態7に係る動画像符号化装置の構成図である。なお、図17の動画像符号化装置1701は、図12の動画像符号化装置1201に相当する。図17における動画像符号化装置1701は、動画像符号化部1702を備えている。また、動画像符号化部1702は動き探索部1703を備える。
FIG. 17 is a configuration diagram of a video encoding apparatus according to Embodiment 7. Note that the
次に、動画像符号化部1701の動作について説明する。動画像符号化装置1701は、動画像符号化部1702への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。動画像符号化部1702における符号化処理において、動き探索部1703は、フレーム外を参照する動きベクトルを発生させないような動き探索を行い、動画像符号化データ1の生成を行う。
Next, the operation of the moving
以上のように、この実施の形態7によれば、フレーム外を参照する動きベクトルを使用しないように符号化を行うことにより、フレーム補間処理における参照画像が、少なくとも前後どちらかは確保できるという効果がある。 As described above, according to the seventh embodiment, it is possible to secure at least one of the reference images in the frame interpolation process by performing encoding so as not to use the motion vector that refers to the outside of the frame. There is.
実施の形態8.
以下、この発明の実施の形態8について説明する。実施の形態8では、実施の形態1及び実施の形態2における動きベクトル推定コア部305の別処理について述べる。その他の構成は実施の形態1と同様であるので説明を省略する。図18、図19にそれぞれ詳細を記載した。
The eighth embodiment of the present invention will be described below. In the eighth embodiment, another process of the motion vector
先ず、実施の形態1における動きベクトル推定コア部305の処理と別処理(実施の形態8における処理)について述べる。図18は、実施の形態8におけるMVDを用いた重み推定の説明図1である。
図18において、補間画像(補間フレーム)上での処理該当ブロックxにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態1で示した数式3と同様である。数式3における重みφiの計算式が実施の形態1(数式4)とは異なり、下記の数式9のような計算式で計算を行う。
In FIG. 18, the calculation formula of the reference vector d f (x, t) with respect to Frame t−1 in the processing target block x on the interpolation image (interpolation frame) is the same as Formula 3 shown in the first embodiment. is there. The calculation formula of the weight φ i in Formula 3 is different from that in Embodiment 1 (Formula 4), and the calculation is performed by the calculation formula as
数式9の分母は数式4の分母と同様であり、viにおける予測残差絶対値和を表す。分子の部分p(ki)が数式4の分子と異なる部分であり、p(x)はx-1に依存するような非線形関数であり、kiはMVD(Motion Vector Difference:動きベクトル差分値)のベクトルの大きさである。p(ki)の部分は全体としてはMVDの大きさの逆数を表す。
The denominator of
p(x)はx-1に依存するような非線形関数であるが、実際の応用においては割り算の演算量が大きい場合もあるので、xとp(x)とを1対1に対応させたテーブルをルックアップすることで、xからp(x)を算出することも考えられる。 p (x) is a non-linear function that depends on x −1 , but in actual applications, the amount of division may be large, so x and p (x) are made to correspond one-to-one. It is also conceivable to calculate p (x) from x by looking up the table.
MVDの大きさはベクトルの孤立度を表し、MVDが大きいほど孤立度が大きい可能性が高いので、重みφiの計算式(数式9)にMVDの大きさの逆数を取り入れることにより、孤立したベクトルの重みを小さくできる効果がある。孤立したベクトルは信頼性が低い確率が高いという推定が根拠である。孤立したベクトルの重みを小さくすることにより、ベクトルの推定精度を向上させる効果がある。 The magnitude of the MVD represents the degree of isolation of the vector, and the higher the MVD, the higher the possibility of the degree of isolation. Therefore, by incorporating the reciprocal of the size of the MVD in the calculation formula (equation 9) of the weight φ i This has the effect of reducing the vector weight. The reason is that the isolated vector has a high probability of low reliability. By reducing the weight of an isolated vector, there is an effect of improving the vector estimation accuracy.
また、MVDは、例えばMPEG−4の場合は、符号化データに記述された値をそのまま用いることが可能であるため、演算量が少なくて済むという効果もある。 In the case of MPEG-4, for example, the value described in the encoded data can be used as it is in the case of MVD, so that the amount of calculation can be reduced.
ここまでが実施の形態1における動きベクトル推定コア部305の別の処理についての記述である。
次に実施の形態2における動きベクトル推定コア部305の別処理(実施の形態8の処理)について述べる。図19は、実施の形態8におけるMVDを用いた重み推定の説明図2である。
This is the description of the other processing of the motion vector
Next, another process (the process of the eighth embodiment) of the motion vector
図19において、補間画像上での処理該当ブロックxにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態2で示した数式5と同様である。更に、数式5における重みφi(m),φi(n)の計算式も、実施の形態2で示した数式6と同様である。数式6におけるgi(m),gi(n)の計算式が実施の形態2(数式7)とは異なり、下記の数式10のように行う。
数式10におけるh(σd(m)),h(σd(n))は実施の形態2と同じ意味であり、分散の逆数に依存するファクタである。p(ki)は、数式9と同じ意味であり、MVDの大きさの逆数に依存するファクタである。実際の応用においては割り算の演算量が大きい場合もあるので、xとh(x)とを1対1に対応させたテーブルをルックアップすることで、xからh(x)を算出することも考えられるし、iの値に応じてテーブルを切り替える等して、同様に直接gi(x)自体をテーブルルックアップすることも考えられる。
In
実施の形態2に更にMVDのファクタを加味することにより、実施の形態1にMVDのファクタを加味するよりも更に参照ベクトルdf(x,t)の推定精度を向上させる効果がある。 By adding the MVD factor to the second embodiment, there is an effect of improving the estimation accuracy of the reference vector d f (x, t) more than adding the MVD factor to the first embodiment.
以上のように、この実施の形態8によれば、実施の形態1または実施の形態2に対してMVDのファクタを加味することにより、参照ベクトルdf(x,t)の推定精度を更に向上させることができる。
また、MVDについては、採用する標準規格によっては符号化データ内の数値をそのまま利用できるため、演算量が減少するという効果がある。
As described above, according to the eighth embodiment, the estimation accuracy of the reference vector d f (x, t) is further improved by adding the MVD factor to the first or second embodiment. Can be made.
Also, for MVD, depending on the standard adopted, the numerical value in the encoded data can be used as it is, which has the effect of reducing the amount of calculation.
実施の形態9.
以下、この発明の実施の形態9について説明する。実施の形態9では、実施の形態1及び実施の形態2における動きベクトル推定コア部305の別の処理について述べる。その他の構成は実施の形態1と同様であるので説明を省略する。図20、図21にそれぞれ詳細を記載した。
The ninth embodiment of the present invention will be described below. In the ninth embodiment, another process of the motion vector
先ず、実施の形態1における動きベクトル推定コア部305の別の処理について述べる。図20は、実施の形態9におけるラプラシアン値を用いた重み推定の説明図1である。
図20において、補間画像上での処理該当ブロックにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態1で示した数式3と同様である。数式3における重みφiの計算式が実施の形態1(数式4)とは異なり、下記の数式11のような計算式で計算を行う。
In FIG. 20, the calculation formula of the reference vector d f (x, t) with respect to Frame t−1 in the processing corresponding block on the interpolated image is the same as Formula 3 shown in the first embodiment. The calculation formula of the weight φ i in Formula 3 is different from that in Embodiment 1 (Formula 4), and the calculation is performed by the calculation formula as
数式11の分母は数式4の分母と同様であり、viにおける予測残差絶対値和を表す。分子の部分z(li)が数式4の分子と異なる部分であり、z(x)はx-1に依存するような非線形関数であり、liは以下の数式12で表される、ラプラシアン値の大きさである。z(li)の部分は全体としてはラプラシアン値の大きさの逆数を表す。
z(x)はx-1に依存するような非線形関数であるが、実際の応用においては割り算の演算量が大きい場合もあるので、xとz(x)とを1対1に対応させたテーブルをルックアップすることで、xからz(x)を算出することも考えられる。 Although z (x) is a non-linear function that depends on x −1 , in some practical applications, the amount of division may be large, so x and z (x) are made to correspond one-to-one. It is also conceivable to calculate z (x) from x by looking up the table.
ラプラシアン値の大きさはベクトルの孤立度を表し、ラプラシアン値が大きいほど孤立度が大きいので、このように重みφiの計算式にラプラシアン値の大きさの逆数を取り入れることにより、孤立したベクトルの重みを小さくできる効果がある。孤立したベクトルは信頼性が低い確率が高いという推定が根拠である。孤立したベクトルの重みを小さくすることにより、ベクトルの推定精度を向上させる効果がある。 The size of the Laplacian value represents the isolation of the vector, since a large isolated degree higher the Laplacian value, by incorporating the size inverse of the Laplacian value to the formula of the thus weighted phi i, the isolated vector There is an effect of reducing the weight. The reason is that the isolated vector has a high probability of low reliability. By reducing the weight of an isolated vector, there is an effect of improving the vector estimation accuracy.
また、実施の形態8におけるMVDと実施の形態9におけるラプラシアン値の違いとしては、ラプラシアン値は演算量がMVDより大きくなってしまうが、ラプラシアン値の方がMVDより推定精度向上が大きい効果がある。 The difference between the MVD in the eighth embodiment and the Laplacian value in the ninth embodiment is that the Laplacian value has a larger calculation amount than the MVD, but the Laplacian value has an effect that the estimation accuracy is improved more than the MVD. .
ラプラシアン値の各成分であるli(m),li(n)の計算方法に関しては、図22に詳細を記述した。図22は、実施の形態9におけるラプラシアン値の算出方法の説明図である。図22の領域Rにおける中心ブロックのラプラシアン値であるl4(m),l4(n)に関し、それぞれ数式13のように計算を行う。
そして、画像内全ての領域Rに関し、この数式13の計算を行うことにより、全てのブロックのラプラシアン値を算出することで、任意のRにおけるli(m),li(n)(0≦i≦8)を算出できる。
Then, with respect to all the regions R in the image, the Laplacian values of all the blocks are calculated by performing the calculation of
ここまでが実施の形態1における動きベクトル推定コア部305の別の処理についての記述である。
次に実施の形態2における動きベクトル推定コア部305の別の処理について述べる。図21は、実施の形態9におけるラプラシアン値を用いた重み推定の説明図1である。
This is the description of the other processing of the motion vector
Next, another process of the motion vector
図21において、補間画像上での処理該当ブロックにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態2で示した数式5と同様である。更に、数式5における重みφi(m),φi(n)の計算式も、実施の形態2で示した数式6と同様である。数式6におけるgi(m),gi(n)の計算式が実施の形態2(数式7)とは異なり、下記の数式14や数式15のように行う。
数式14は分散を用いない場合であり、数式15は分散を用いる場合である。数式15におけるh(σd(m)),h(σd(n))は実施の形態2と同じ意味であり、分散の逆数に依存するファクタである。z(|li(m)|),z(|li(n)|)は、数式13のz(li)と同じ意味であり、ラプラシアン値の大きさの逆数に依存するファクタである。実際の応用においては割り算の演算量が大きい場合もあるので、xとh(x)とを1対1に対応させたテーブルをルックアップすることで、xからh(x)を算出することも考えられるし、iの値に応じてテーブルを切り替える等して、同様に直接gi(x)自体をテーブルルックアップすることも考えられる。
実施の形態2で示した分散も利用する方法に対し、更にラプラシアン値のファクタを加味する数式15のような計算を行うことにより、実施の形態1のように分散を利用しない方法に対しラプラシアン値のファクタを加味するよりも更に参照ベクトルdf(x,t)の推定精度を向上させる効果がある。
In contrast to the method that also uses the variance shown in the second embodiment, the Laplacian value is compared to the method that does not use the variance as in the first embodiment by performing a calculation like
その他にも、各ブロックの複雑度により重み付け演算する方法も考えられる。ブロックの複雑度が高いほどベクトルの信頼性が大きいことに基づく方法である。複雑度は例えば、画素の輝度値の分散値とし、複雑度が大きいほど重みを重くする方法である。 In addition, a method of performing a weighting operation according to the complexity of each block is also conceivable. This is based on the fact that the higher the block complexity, the greater the reliability of the vector. For example, the complexity is a dispersion value of the luminance value of the pixel, and the weight is increased as the complexity increases.
以上のように、この実施の形態9によれば、実施の形態1または実施の形態2に対してラプラシアン値のファクタを加味することにより、参照ベクトルdf(x,t)の推定精度を更に向上させることができる。 As described above, according to the ninth embodiment, the estimation accuracy of the reference vector d f (x, t) is further increased by adding the factor of the Laplacian value to the first or second embodiment. Can be improved.
実施の形態10.
以下、この発明の実施の形態10について説明する。実施の形態10では、実施の形態1、実施の形態2、実施の形態8、実施の形態9で計算された輝度ベクトル推定結果を用いて色差ベクトル推定を行う手法について述べる。図23に詳細を記載した。図23は、実施の形態10における色差ベクトルの推定の説明図である。
The tenth embodiment of the present invention will be described below. In the tenth embodiment, a method of performing color difference vector estimation using the luminance vector estimation results calculated in the first embodiment, the second embodiment, the eighth embodiment, and the ninth embodiment will be described. Details are shown in FIG. FIG. 23 is an explanatory diagram of estimation of a color difference vector in the tenth embodiment.
図23において、実施の形態1、実施の形態2、実施の形態8、実施の形態9で得られた、あるマクロブロックにおける、各ブロックの輝度ベクトルの推定結果をそれぞれdf1〜df4とし、その結果を用いて当該マクロブロックの色差ベクトルdfcを数式16のように計算する。
以上のように、この実施の形態10によれば、輝度ベクトルの推定結果から色差ベクトルの推定を行うことにより、補間画像をカラー化することが可能となる効果がある。 As described above, according to the tenth embodiment, it is possible to colorize an interpolation image by estimating a color difference vector from a luminance vector estimation result.
実施の形態11.
以下、この発明の実施の形態11について説明する。実施の形態11では、実施の形態1における図4のステップST104における別の処理について述べる。その他の構成は実施の形態1と同様であるので説明を省略する。図24に詳細を記載した。図24は、実施の形態11における量子化係数値による補間重み付けの説明図である。
The eleventh embodiment of the present invention will be described below. In the eleventh embodiment, another process in step ST104 of FIG. 4 in the first embodiment will be described. Since other configurations are the same as those of the first embodiment, description thereof is omitted. Details are shown in FIG. FIG. 24 is an explanatory diagram of interpolation weighting using quantization coefficient values in the eleventh embodiment.
実施の形態1におけるステップST104の処理は、数式1や数式2で示される単純加算平均であったが、本実施の形態においては、復号画像における全マクロブロックの量子化係数の平均値を用いて重み付け加算する。Frame t−1における量子化係数の平均値をq(t−1)、Frame t+1における量子化係数の平均値をq(t+1)とし、数式17のように、を求めるための重み付け計算を行う。
以上のように、この実施の形態11によれば、数式17のように重み付けの計算を行うことで、量子化係数の小さい画像、つまり画質のよい復号画像により大きな重みがかかるため、補間フレームとしても画質が向上する効果がある。
As described above, according to the eleventh embodiment, by performing the weighting calculation as in
実施の形態12.
以下、この発明の実施の形態12について説明する。実施の形態12では、補間フレームにおける端のブロックの処理に関して記述を行う。図25に概要を記載する。図25は、実施の形態12における端に位置するブロックの処理方法の説明図である。
The twelfth embodiment of the present invention will be described below. In the twelfth embodiment, description will be made regarding processing of an end block in an interpolation frame. An overview is shown in FIG. FIG. 25 is an explanatory diagram of a method for processing a block located at an end according to the twelfth embodiment.
端のブロックは、推定された輝度ベクトル次第であるが、両方向補間を行うと片方のベクトルが画面外を指すことが多く、それが画質低下の原因になることがある。
片方のベクトルが画面外を指した場合は、画面内を指す推定ベクトルのみを用いて片方向補間を行う方法が考えられるが、画面内を指すベクトルが存在しない場合もある。
The end block depends on the estimated luminance vector. However, when bi-directional interpolation is performed, one of the vectors often points outside the screen, which may cause deterioration in image quality.
When one of the vectors points outside the screen, a method of performing one-way interpolation using only the estimated vector pointing inside the screen is conceivable, but there may be a case where no vector pointing inside the screen exists.
そこで、図25に示すように、画面の端に位置するブロックの補間は行わず、表示直前の段階にて黒で埋める方法、或いは、端に位置するブロックそのものを表示しないようにする方法が考えられる。また、端に位置するブロックを表示しないようにした上で、ある所定の色で枠線を引く等の手段も考えられる。 Therefore, as shown in FIG. 25, there is a method in which the block located at the edge of the screen is not interpolated and is filled with black immediately before display, or the block located at the edge itself is not displayed. It is done. In addition, it is possible to consider a method of drawing a frame line with a certain predetermined color after the block located at the end is not displayed.
以上のように、この実施の形態12によれば、図25のように端に位置するブロックを処理することで、実質的な解像度は小さくなるものの、画質は向上する効果がある。 As described above, according to the twelfth embodiment, processing the block located at the end as shown in FIG. 25 has an effect of improving the image quality although the substantial resolution is reduced.
実施の形態13.
以下、この発明の実施の形態13について説明する。実施の形態13では、補間フレームを作成するか否かを予め動画像符号化データの情報から判断する方法と、補間しない場合の処理について記述する。図26、図27、図28に詳細を記述した。
The thirteenth embodiment of the present invention will be described below. In the thirteenth embodiment, a method for determining in advance whether or not to create an interpolation frame from information of moving image encoded data and a process when no interpolation is performed will be described. Details are described in FIGS. 26, 27, and 28.
図26は、実施の形態13における補間画像を生成する場合としない場合の説明図である。図26は、動画像符号化データ(入力ストリーム)の情報から判断して、補間画像を生成する場合と生成しない場合とを示している。 FIG. 26 is an explanatory diagram of the case where the interpolation image is generated and not generated in the thirteenth embodiment. FIG. 26 shows a case where an interpolated image is generated and a case where it is not generated based on information of moving image encoded data (input stream).
補間すると判断された場合は、図26の左側に示す通り、実施の形態1、2、8、9のようなベクトル推定を行い、補間フレームの作成を行い、補間フレームの表示を行う。 When it is determined that the interpolation is performed, vector estimation as in the first, second, eighth, and ninth embodiments is performed as shown on the left side of FIG. 26, an interpolation frame is created, and the interpolation frame is displayed.
一方、補間しないと判断された場合は、図26の右側に示す通り、補間フレームを作成せず、Frame t−1の画像をそのままFrame tとして表示するか、或いは、Frame t−1の画像をそのまま表示しておき、Frame t+1まで表示を更新しない等の方法がある。
On the other hand, if it is determined not to interpolate, as shown on the right side of FIG. 26, the interpolated frame is not created and the frame t-1 image is displayed as it is as Frame t, or the frame t-1 image is displayed. There is a method of displaying as it is and not updating the display until
図27は、実施の形態13における補間画像を生成しない場合の判断材料の説明図である。図27は、補間画像を生成しない場合の条件を示している。例えば、左の図にあるように、ベクトルの分散が大きい領域Rが画像内に一つでも存在する場合は、補間フレームのその領域付近の画質が著しく低下する可能性があり、補間を行わないと判断する。 FIG. 27 is an explanatory diagram of determination materials when an interpolation image is not generated in the thirteenth embodiment. FIG. 27 shows conditions when an interpolation image is not generated. For example, as shown in the figure on the left, if there is even one region R with a large vector variance in the image, the image quality in the vicinity of that region of the interpolation frame may be significantly reduced, and no interpolation is performed. Judge.
また、予測差分絶対値和が大きいブロックが存在する場合は、符号化側で動き探索(ME)を行っているにもかかわらず予測差分絶対値和が大きいということになり、それはつまり該領域に似た画像が該領域近傍にないということになるので、該領域における画質が著しく低下する可能性があるため、補間を行わないと判断する。 In addition, when there is a block having a large prediction difference absolute value sum, the prediction difference absolute value sum is large even though motion search (ME) is performed on the encoding side. Since there is no similar image in the vicinity of the area, the image quality in the area may be significantly deteriorated. Therefore, it is determined that no interpolation is performed.
また別の例としては、例えばシーンチェンジのような、復号画像内にイントラMBが多い場合や、Frame t+1がI−VOP(Video Object Plane)である場合等に補間を行わないと判断する。 As another example, for example, when there are many intra MBs in the decoded image, such as a scene change, or when Frame t + 1 is I-VOP (Video Object Plane), it is determined that no interpolation is performed.
図28は、実施の形態13における、補間制御部を構成要素として追加した動画像復号装置のブロック図である。図28のブロック図は、図1に示した動画像復号装置のブロック図に補間制御部11201が追加された動画像復号装置である。図27のような補間するか補間しないかの判断を、動きベクトル保存用メモリ18や符号化モード情報保存メモリ19や、予測残差絶対値和保存メモリ20を参照しながら補間制御部11201で行い、タイミング26を制御して切り替え器24の制御を行う。
FIG. 28 is a block diagram of a moving picture decoding apparatus in which an interpolation control unit is added as a constituent element in the thirteenth embodiment. The block diagram of FIG. 28 is a video decoding device in which an
以上のように、この実施の形態13によれば、補間するか否かの判断をその都度行うことにより、補間しないと判断された場合には、補間を行った場合に著しく画質が低下する可能性のある補間フレームを表示しないので、結果としてトータルの画質を向上させる効果がある。 As described above, according to the thirteenth embodiment, by determining each time whether or not to interpolate, if it is determined not to interpolate, the image quality can be significantly lowered when interpolation is performed. As a result, there is an effect that the total image quality is improved.
実施の形態14.
以下、この発明の実施の形態14について説明する。実施の形態14では、可変フレームレートの動画像符号化データにおける補間方法を記述する。図29に概要を記載した。図29は、実施の形態14における可変フレームレートの動画像符号化データにおける補間方法の説明図である。
The fourteenth embodiment of the present invention will be described below. In the fourteenth embodiment, an interpolation method for variable frame rate moving image encoded data is described. An outline is shown in FIG. FIG. 29 is an explanatory diagram of an interpolation method for variable frame rate moving image encoded data according to the fourteenth embodiment.
一般の符号化装置の動作として、伝送帯域の制限等からデータ量を帯域に納めるために、可変フレームレートの動画像符号化データを作成することはよくあることである。そのような可変フレームレートの動画像符号化データに対して補間を行う方法として、予め図29で示すAの値(表示レート情報)を符号化側から復号側へ送出しておく方法がある。
また、Aの値を符号化側と復号側を含めた全体システムとして予め決めておくことで、動画像符号化装置側と動画像復号装置側で共に既知としておき、その上で復号側はA fpsになるよう補間をするという方法がある。
或いは、Aの値を符号化側と復号側で共有する別の方法としては、例えば動画像符号化データの中にあるuser_data等の領域にAの値を格納し、符号化側から復号側へAの値を送出するという方法もある。
動画像符号化装置側では、必要に応じて、実際に符号化を行うフレーム画像を選択する符号化画像選択手段を備える。
動画像復号装置側では、必要に応じて、動画像符号化装置側からの表示レート情報を復号する表示レート復号手段を備えるものとする。
As an operation of a general encoding device, it is common to create moving image encoded data having a variable frame rate in order to fit the data amount in a band due to a limitation of a transmission band. As a method of performing interpolation for such variable frame rate moving image encoded data, there is a method in which the value A (display rate information) shown in FIG. 29 is sent from the encoding side to the decoding side in advance.
Also, by predetermining the value of A as the entire system including the encoding side and the decoding side, both the moving image encoding device side and the moving image decoding device side are known, and then the decoding side determines that A There is a method of performing interpolation so as to be fps.
Alternatively, as another method for sharing the value of A between the encoding side and the decoding side, for example, the value of A is stored in an area such as user_data in the moving image encoded data, and the encoding side transfers to the decoding side. There is also a method of sending the value of A.
The moving image encoding apparatus side includes an encoded image selection unit that selects a frame image to be actually encoded as necessary.
The moving picture decoding apparatus side includes display rate decoding means for decoding display rate information from the moving picture encoding apparatus side as necessary.
Aの値は、符号化側で例えば通常のカメラ等を用いた場合、カメラから動画像符号化装置へ入力される全ての画像が符号化画像の候補となる場合であれば、A=30となる。
また、例えば、もともと最大フレームレートをフレーム間隔固定の10fpsとするシステムであれば、A=10ということも考えられる。
For example, when a normal camera is used on the encoding side, the value of A is A = 30 if all images input from the camera to the moving image encoding apparatus are candidates for the encoded image. Become.
Also, for example, if the system originally has a maximum frame rate of 10 fps with a fixed frame interval, A = 10 may be considered.
補間方法としては実施の形態1の図8にて説明した形で、αの値を変化させて用いることで補間を行うことが可能である。 As an interpolation method, it is possible to perform interpolation by changing the value of α in the form described in FIG. 8 of the first embodiment.
以上のように、この実施の形態14によれば、可変フレームレートの動画像符号化データを固定フレームレートに補間することにより、単純にフレームの間を1枚補間するという方式と比較して、動きがより滑らかになるという効果がある。 As described above, according to the fourteenth embodiment, by interpolating variable frame rate moving image encoded data to a fixed frame rate, compared to a method of simply interpolating between frames, There is an effect that the movement becomes smoother.
1 動画像符号化データ、2 可変長復号部、3 動きベクトル、4 符号化モード情報、5 直交変換係数データ、6 量子化ステップパラメータ、7 逆量子化部、8 逆直交変換部、9 切替器、10 動き補償部、11 フレームメモリ、12 予測画像、13 加算部、14 復号画像、15 出力、16 出力、17 補間画像生成部、18 動きベクトル保存用メモリ、19 符号化モード情報保存用メモリ、20 予測残差絶対値和保存用メモリ、21 出力、22 出力、23 出力、24 切替器、25 画像出力、26 タイミング、27 出力、28 動画像復号装置、301 動きベクトル推定部、302 補間画像生成部、303 出力、304 出力、305 動きベクトル推定コア部、1301 動画像符号化装置、1302 動画像符号化部、1303 メモリ、1304 切替器、1305 最適参照画像判定部、1306 ビット列生成部、1307 入力、1308 出力、1309 出力、1401 動画像符号化装置、1405 予測残差伝送判定部、1406 ビット列生成部、1501 動画像符号化装置、1505 動きベクトル伝送判定部、1506 ビット列生成部、1601 動画像符号化装置、1605 予測残差絶対値和伝送判定部、1606 ビット列生成部、1701 動画像符号化装置、1702 動画像符号化部、1703 動き探索部、11201 補間制御部。
DESCRIPTION OF SYMBOLS 1 Video coding data, 2 Variable length decoding part, 3 Motion vector, 4 Coding mode information, 5 Orthogonal transformation coefficient data, 6 Quantization step parameter, 7 Inverse quantization part, 8 Inverse orthogonal transformation part, 9 Switch 10 motion compensation unit, 11 frame memory, 12 predicted image, 13 addition unit, 14 decoded image, 15 output, 16 output, 17 interpolated image generation unit, 18 motion vector storage memory, 19 encoding mode information storage memory, 20 Prediction residual absolute value sum storage memory, 21 output, 22 output, 23 output, 24 switch, 25 image output, 26 timing, 27 output, 28 video decoding device, 301 motion vector estimation unit, 302 interpolated image generation Unit, 303 output, 304 output, 305 motion vector estimation core unit, 1301 moving image encoding device, 1302 moving image encoding unit, 1303 1304 switching unit, 1305 optimal reference image determination unit, 1306 bit string generation unit, 1307 input, 1308 output, 1309 output, 1401 moving image encoding device, 1405 prediction residual transmission determination unit, 1406 bit string generation unit, 1501 moving image Coding apparatus, 1505 motion vector transmission determination unit, 1506 bit string generation unit, 1601 video encoding apparatus, 1605 prediction residual absolute value sum transmission determination unit, 1606 bit string generation unit, 1701 video encoding apparatus, 1702 video code Conversion unit, 1703 motion search unit, 11201 interpolation control unit.
Claims (22)
前記符号化シンボルを用いて動画像の各フレームを復元して出力する復号手段と、
前記符号化シンボルに基づいて、補間フレームの生成方法と補間フレームの動きベクトルとを推定して、前記補間フレームを生成する画像生成部と、
前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを所定の規則で切り替える切替器とを備えた動画像復号装置。 Analysis means for analyzing moving image encoded data and extracting encoded symbols in units of blocks;
Decoding means for restoring and outputting each frame of the moving image using the encoded symbol;
An image generation unit that generates an interpolation frame by estimating an interpolation frame generation method and an interpolation frame motion vector based on the encoded symbol;
A moving picture decoding apparatus comprising: a switching unit that switches a moving picture output from the decoding unit and an interpolation frame output from the image generation unit according to a predetermined rule.
前記画像生成部が、
前記符号化モード情報に従って、前記復号手段から得られる動画像フレームのうち少なくとも1つ以上の動画像フレームを参照画像として選択する第1のステップと、
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、予測残差の逆数を重みに用い、動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行なう第2のステップと、
前記参照ベクトルにより、前記参照画像の参照位置にある画素を用いて前記補間フレームを生成する第3のステップとを備えることを特徴とする請求項1記載の動画像復号装置。 The encoded symbol includes a motion vector, encoding mode information, and a prediction residual;
The image generator
A first step of selecting at least one moving image frame as a reference image from among the moving image frames obtained from the decoding unit according to the encoding mode information;
In the calculation target block on the reference image and its neighboring blocks, the reciprocal of the prediction residual is used as a weight, the weighted average calculation for each component of the motion vector is performed, and scaling is performed according to the temporal position of the interpolation frame. Performing a second step of estimating a motion vector of the interpolated frame indicating a reference position of the reference image;
The moving image decoding apparatus according to claim 1, further comprising: a third step of generating the interpolation frame using a pixel at a reference position of the reference image based on the reference vector.
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、動きベクトルの分散値を計算し、前記計算対象ブロックに関しては予測残差の逆数と前記分散値の逆数との積を重みに用い、前記周辺のブロックに関しては前記予測残差の逆数を重みに用い、前記動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行なうことを特徴とする請求項2記載の動画像復号装置。 In the second step,
A variance value of a motion vector is calculated in the calculation target block on the reference image and its neighboring blocks, and for the calculation target block, a product of the reciprocal of the prediction residual and the reciprocal of the variance value is used as a weight, For the neighboring blocks, the inverse of the prediction residual is used as a weight, weighted average calculation is performed for each component of the motion vector, and scaling is performed according to the temporal position of the interpolated frame, so that the reference image 3. The moving picture decoding apparatus according to claim 2, wherein a motion vector of the interpolation frame indicating a reference position is estimated.
前記符号化モード情報を保存する符号化モード情報保存用メモリと、
前記予測残差を保存する予測残差絶対値和保存用メモリとを備えることを特徴とする請求項2または請求項3記載の動画像復号装置。 A motion vector storage memory for storing the motion vector;
A memory for storing encoding mode information for storing the encoding mode information;
4. The moving picture decoding apparatus according to claim 2, further comprising a prediction residual absolute value sum storage memory for storing the prediction residual.
前記画像生成部を補助するための情報を含むデータを解析する第2の解析手段と、
前記符号化シンボルを用いて動画像の各フレームを復元して出力する復号手段と、
前記符号化シンボルに基づいて、補間フレームの生成方法と補間フレームの動きベクトルとを推定して、前記補間フレームを生成する画像生成部と、
前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを所定の規則で切り替える切替器とを備えた動画像復号装置。 First analysis means for analyzing moving image encoded data and extracting encoded symbols in units of blocks;
Second analysis means for analyzing data including information for assisting the image generation unit;
Decoding means for restoring and outputting each frame of the moving image using the encoded symbol;
An image generation unit that generates an interpolation frame by estimating an interpolation frame generation method and an interpolation frame motion vector based on the encoded symbol;
A moving picture decoding apparatus comprising: a switching unit that switches a moving picture output from the decoding unit and an interpolation frame output from the image generation unit according to a predetermined rule.
入力画像と仮生成した補間フレームとをブロック毎に比較し、フレーム補間処理を補助するための付加情報を生成する付加情報生成部とを備え、
前記動画像符号化データと前記付加情報とを出力することを特徴とする動画像符号化装置。 A moving image encoding unit that encodes a moving image to generate moving image encoded data;
An additional information generating unit that compares the input image and the temporarily generated interpolation frame for each block and generates additional information for assisting the frame interpolation processing;
A moving picture coding apparatus that outputs the moving picture coded data and the additional information.
請求項6記載の動画像符号化装置とを備え、
前記動画像符号化装置は前記動画像符号化データに前記画像生成部を補助するための情報を付加して出力し、前記動画像復号装置は前記動画像符号化データと前記付加情報とを入力して前記第2の解析手段で前記付加情報を解析することにより、相互に連携した画像生成処理を行なうことを特徴とする動画像伝送システム。 A video decoding device according to claim 5;
A moving image encoding device according to claim 6,
The moving image encoding apparatus outputs the moving image encoded data with information for assisting the image generating unit added thereto, and the moving image decoding apparatus inputs the moving image encoded data and the additional information. Then, the second information analyzing unit analyzes the additional information to perform image generation processing in cooperation with each other.
前記第2のステップにおいて、
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、動きベクトル差分値の逆数と予測残差の逆数との積を重みに用い、前記動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行うことを特徴とする請求項2記載の動画像復号装置。 The encoded symbol includes a motion vector difference value;
In the second step,
In the calculation target block on the reference image and the peripheral blocks, the product of the reciprocal of the motion vector difference value and the reciprocal of the prediction residual is used as a weight, and the weighted addition average calculation for each component of the motion vector is performed. 3. The moving picture decoding apparatus according to claim 2, wherein the motion vector of the interpolation frame indicating the reference position of the reference image is estimated by performing scaling according to the temporal position of the interpolation frame.
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、算出した動きベクトルのラプラシアン値の逆数と予測残差の逆数との積を重みに用い、前記動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行うことを特徴とする請求項2記載の動画像復号装置。 In the second step,
In the calculation target block on the reference image and its neighboring blocks, the product of the reciprocal of the calculated Laplacian value of the motion vector and the reciprocal of the prediction residual is used as a weight, and the weighted average calculation for each component of the motion vector is performed. 3. The moving picture decoding apparatus according to claim 2, wherein a motion vector of the interpolation frame indicating a reference position of the reference image is estimated by performing scaling according to a temporal position of the interpolation frame. .
前記参照画像の量子化係数の平均値を計算し、前記参照ベクトルにより、前記参照画像の参照位置にある画素を用い、前記量子化係数の平均値にて前記画素の重み付け加算を行うことにより、前記補間フレームを生成することを特徴とする請求項2記載の動画像復号装置。 In the third step,
By calculating the average value of the quantization coefficient of the reference image, using the pixel at the reference position of the reference image by the reference vector, and performing weighted addition of the pixel by the average value of the quantization coefficient, The moving image decoding apparatus according to claim 2, wherein the interpolation frame is generated.
前記参照ベクトルにより、前記参照画像の参照位置にある画素を用いて前記補間フレームを計算し、計算した補間フレームの端に位置するブロック全てに関してある特定の色で塗りつぶしたものを補間フレームとして生成することを特徴とする請求項2記載の動画像復号装置。 In the third step,
Based on the reference vector, the interpolation frame is calculated using the pixels at the reference position of the reference image, and all the blocks located at the end of the calculated interpolation frame are filled with a specific color and are generated as the interpolation frame. The moving picture decoding apparatus according to claim 2.
前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを切り替えることを特徴とする請求項1記載の動画像復号装置。 The predetermined rule is a rule depending on a predetermined time interval,
2. The moving image decoding apparatus according to claim 1, wherein the moving image output from the decoding unit and the output of the interpolation frame from the image generation unit are switched.
前記符号化シンボルを用いて、前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力との切り替えを決定する補間制御部を備えることを特徴とする請求項1記載の動画像復号装置。 The predetermined rule is a rule depending on the encoded symbol,
The moving image according to claim 1, further comprising an interpolation control unit that determines switching between output of a moving image from the decoding unit and output of an interpolation frame from the image generation unit using the encoded symbol. Image decoding device.
前記符号化画像選択手段にて選択されたフレーム画像に関してのみ、動画像符号化データを生成し、前記動画像符号化データに前記入力動画像信号の表示レート情報を多重化して送出することを特徴とする動画像符号化装置。 Encoded image selection means for selecting a frame image to be actually encoded for each frame image of a moving image input according to a predetermined display rate,
Only for the frame image selected by the encoded image selection means, moving image encoded data is generated, and display rate information of the input moving image signal is multiplexed and transmitted to the moving image encoded data. A video encoding device.
前記表示レート復号手段で復号された前記表示レート情報に基づいて、前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを切り替えることを特徴とする請求項1記載の動画像復号装置。
Display rate decoding means for decoding display rate information included in the moving image encoded data,
The output of the moving image from the said decoding means and the output of the interpolation frame from the said image generation part are switched based on the said display rate information decoded by the said display rate decoding means. Video decoding device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005306267A JP2006279917A (en) | 2005-03-04 | 2005-10-20 | Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005061056 | 2005-03-04 | ||
JP2005306267A JP2006279917A (en) | 2005-03-04 | 2005-10-20 | Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006279917A true JP2006279917A (en) | 2006-10-12 |
Family
ID=37214115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005306267A Pending JP2006279917A (en) | 2005-03-04 | 2005-10-20 | Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006279917A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008193691A (en) * | 2007-02-02 | 2008-08-21 | Samsung Electronics Co Ltd | Apparatus and method of up-converting frame rate of restored frame |
WO2008120330A1 (en) * | 2007-03-28 | 2008-10-09 | Pioneer Corporation | Image processing apparatus, image processing method, image processing program, and recording medium |
JP2009200985A (en) * | 2008-02-25 | 2009-09-03 | Hitachi Ltd | Video processing apparatus |
US7991050B2 (en) | 2008-05-30 | 2011-08-02 | Kabushiki Kaisha Toshiba | Moving picture decoding apparatus and moving picture decoding method |
US8218632B2 (en) | 2006-09-20 | 2012-07-10 | Mitsubishi Electric Corporation | Frame interpolation apparatus and frame interpolation method |
US8395700B2 (en) | 2006-12-27 | 2013-03-12 | Sharp Kabushiki Kaisha | Image displaying device and method, and image processing device and method |
JP2014027600A (en) * | 2012-07-30 | 2014-02-06 | Oki Electric Ind Co Ltd | Moving image decoding apparatus and program, and moving image encoding system |
US8768103B2 (en) | 2007-03-19 | 2014-07-01 | Hitachi Consumer Electronics Co., Ltd. | Video processing apparatus and video display apparatus |
KR101443701B1 (en) | 2010-11-22 | 2014-09-29 | 한국전자통신연구원 | Adaptive motion search range determining apparatus and method |
JP2017085598A (en) * | 2016-12-08 | 2017-05-18 | 株式会社東芝 | Image processing apparatus, image processing method, image processing program, and stereoscopic image display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003333540A (en) * | 2002-05-13 | 2003-11-21 | Hitachi Ltd | Frame rate converting apparatus, video display apparatus using the same, and a television broadcast receiving apparatus |
JP2005006275A (en) * | 2002-11-22 | 2005-01-06 | Matsushita Electric Ind Co Ltd | Device, method, and program for generating interpolation frame |
JP2005012798A (en) * | 2003-06-16 | 2005-01-13 | Samsung Electronics Co Ltd | Motion vector generation apparatus and method |
-
2005
- 2005-10-20 JP JP2005306267A patent/JP2006279917A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003333540A (en) * | 2002-05-13 | 2003-11-21 | Hitachi Ltd | Frame rate converting apparatus, video display apparatus using the same, and a television broadcast receiving apparatus |
JP2005006275A (en) * | 2002-11-22 | 2005-01-06 | Matsushita Electric Ind Co Ltd | Device, method, and program for generating interpolation frame |
JP2005012798A (en) * | 2003-06-16 | 2005-01-13 | Samsung Electronics Co Ltd | Motion vector generation apparatus and method |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8218632B2 (en) | 2006-09-20 | 2012-07-10 | Mitsubishi Electric Corporation | Frame interpolation apparatus and frame interpolation method |
US8395700B2 (en) | 2006-12-27 | 2013-03-12 | Sharp Kabushiki Kaisha | Image displaying device and method, and image processing device and method |
JP2008193691A (en) * | 2007-02-02 | 2008-08-21 | Samsung Electronics Co Ltd | Apparatus and method of up-converting frame rate of restored frame |
US8768103B2 (en) | 2007-03-19 | 2014-07-01 | Hitachi Consumer Electronics Co., Ltd. | Video processing apparatus and video display apparatus |
WO2008120330A1 (en) * | 2007-03-28 | 2008-10-09 | Pioneer Corporation | Image processing apparatus, image processing method, image processing program, and recording medium |
JP5038400B2 (en) * | 2007-03-28 | 2012-10-03 | パイオニア株式会社 | Image processing apparatus, image processing method, image processing program, and recording medium |
JP2009200985A (en) * | 2008-02-25 | 2009-09-03 | Hitachi Ltd | Video processing apparatus |
US7991050B2 (en) | 2008-05-30 | 2011-08-02 | Kabushiki Kaisha Toshiba | Moving picture decoding apparatus and moving picture decoding method |
KR101443701B1 (en) | 2010-11-22 | 2014-09-29 | 한국전자통신연구원 | Adaptive motion search range determining apparatus and method |
JP2014027600A (en) * | 2012-07-30 | 2014-02-06 | Oki Electric Ind Co Ltd | Moving image decoding apparatus and program, and moving image encoding system |
JP2017085598A (en) * | 2016-12-08 | 2017-05-18 | 株式会社東芝 | Image processing apparatus, image processing method, image processing program, and stereoscopic image display device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108848376B (en) | Video encoding method, video decoding method, video encoding device, video decoding device and computer equipment | |
JP4542447B2 (en) | Image encoding / decoding device, encoding / decoding program, and encoding / decoding method | |
US7379501B2 (en) | Differential coding of interpolation filters | |
CN108924553B (en) | Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium | |
US20030112864A1 (en) | Method for sub-pixel value interpolation | |
KR101442608B1 (en) | Method and apparatus for encoding/decoding image efficiently | |
JPH11112973A (en) | Device and method for converting video signal | |
JPH09154137A (en) | Method and apparatus for compressing video information usingmovement-dependent estimation | |
KR20060088461A (en) | Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal | |
CN108848377B (en) | Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium | |
KR20060027779A (en) | Method and apparatus for encoding/decoding video signal using temporal and spatial correlations between macro blocks | |
KR20060027778A (en) | Method and apparatus for encoding/decoding video signal using base layer | |
JP2006279917A (en) | Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system | |
US8767831B2 (en) | Method and system for motion compensated picture rate up-conversion using information extracted from a compressed video stream | |
US20060067403A1 (en) | Information processing device and information processing method | |
JP5742049B2 (en) | Color moving picture coding method and color moving picture coding apparatus | |
Ratnottar et al. | Comparative study of motion estimation & motion compensation for video compression | |
JP6222756B2 (en) | Decryption method | |
JP4909592B2 (en) | Moving picture reproduction method, apparatus, and program | |
KR20060069227A (en) | Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal | |
JP3289695B2 (en) | Video encoding method and apparatus | |
KR20060059770A (en) | Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal | |
JP4061505B2 (en) | Image coding apparatus and method | |
JP5913474B2 (en) | Decryption method | |
JP5236088B2 (en) | Image encoding / decoding device, encoding / decoding program, and encoding / decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071003 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080625 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110517 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110906 |