JP2006279917A - Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system - Google Patents

Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system Download PDF

Info

Publication number
JP2006279917A
JP2006279917A JP2005306267A JP2005306267A JP2006279917A JP 2006279917 A JP2006279917 A JP 2006279917A JP 2005306267 A JP2005306267 A JP 2005306267A JP 2005306267 A JP2005306267 A JP 2005306267A JP 2006279917 A JP2006279917 A JP 2006279917A
Authority
JP
Japan
Prior art keywords
image
frame
motion vector
moving image
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005306267A
Other languages
Japanese (ja)
Inventor
Yuichi Izuhara
優一 出原
Shunichi Sekiguchi
俊一 関口
Kazuo Sugimoto
和夫 杉本
Kotaro Asai
光太郎 浅井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005306267A priority Critical patent/JP2006279917A/en
Publication of JP2006279917A publication Critical patent/JP2006279917A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a dynamic image encoding device and a dynamic image decoding device, capable of robustly performing a frame interpolation process, without conducting much calculations anew, and further, where the threshold process is reduced, by taking out information necessary for estimating a motion vector from input stream. <P>SOLUTION: The dynamic image decoding device 28 comprises a variable length decoding unit 2, dequantization unit 7, inverse orthogonal conversion unit 8, motion compensation unit 10, frame memory 11, switch 9, adder unit 13, frame interpolation processing unit 17, memory for storing motion vector 18, memory for storing encoding mode information 19, memory for storing the sum of the absolute value of estimated residue 20 and another switch 24. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、電子情報化された動画像の品質改善、特に、動画像の時間解像度(フレーム数/秒)の改善を可能とする動画像符号化装置、動画像復号装置及び動画像伝送システムに関するものである。   The present invention relates to a moving image encoding device, a moving image decoding device, and a moving image transmission system that can improve the quality of electronically converted moving images, in particular, the time resolution (number of frames / second) of moving images. Is.

従来、MPEGやITU−T H.26x等の国際標準映像符号化方式では、映像信号の各フレームについて、輝度信号16×16画素とそれに対応する色差信号8×8画素分をまとめたブロックデータ(以下、マクロブロック)を単位として、動き補償技術及び直交変換/変換係数量子化技術に基づいて圧縮する方法が採用されている。   Conventionally, MPEG and ITU-TH. In an international standard video coding system such as 26x, for each frame of a video signal, block data (hereinafter referred to as a macroblock) in which a luminance signal of 16 × 16 pixels and a corresponding color difference signal of 8 × 8 pixels are collected is used as a unit. A compression method based on a motion compensation technique and an orthogonal transform / transform coefficient quantization technique is employed.

動き補償技術とは、ビデオフレーム間に存在する高い相関を利用してマクロブロック毎に時間方向の信号の冗長度を削減する技術であり、過去に符号化済みの画像を参照画像としてメモリ内に蓄積しておき、参照画像中の所定の探索範囲内で、動き補償予測の対象となっている現マクロブロックと最も差分電力の小さいブロック領域を探索して、現マクロブロックの空間位置と探索結果ブロックの空間位置とのずれを動きベクトルとして符号化する技術である。   Motion compensation technology is a technology that reduces the redundancy of signals in the time direction for each macroblock using high correlation existing between video frames. In the memory, a previously encoded image is used as a reference image. Accumulated and searched within the predetermined search range in the reference image for the current macroblock that is subject to motion compensation prediction and the block area with the smallest difference power, the spatial position of the current macroblock and the search result This is a technique for encoding a deviation from the spatial position of a block as a motion vector.

上記動きベクトルは、ビデオフレーム間の各ブロックにおける局所的な動きを表していることが多く、その動きベクトル情報を利用して補間フレームを生成する研究がなされている。最も単純なモデルでは、例えば、時間的に隣接するビデオフレーム同士の丁度中間位置に補間フレームを生成する場合、動きベクトルの値を半分にした値を補間フレームの動きベクトルとして採用し、前後のフレームから動き補償するという方法がある。これはビデオフレーム間の動きがリニアであることを仮定した場合のモデルであり、ビデオフレームの間隔が短いほど、また動きベクトルが小さい程その仮定が成り立つため、ある程度の補間フレームを生成することが可能である。   In many cases, the motion vector represents a local motion in each block between video frames, and research on generating an interpolation frame using the motion vector information has been made. In the simplest model, for example, when an interpolated frame is generated at an exactly middle position between temporally adjacent video frames, a value obtained by halving the value of the motion vector is used as the motion vector of the interpolated frame, There is a method of motion compensation. This model is based on the assumption that the motion between video frames is linear. The shorter the interval between video frames and the smaller the motion vector, the more the assumption is made. Is possible.

上記動きベクトルは、ビデオフレーム間の各ブロックにおける局所的な動きを表していることが多いものの、実際は最も差分電力の小さいブロック領域を探索して求められるものであり、局所的な動きを表さないこともある。そのような場合、補間フレームに乱れが発生し、非常に目立つことが多いため、そのような「動きを表していないベクトル」を如何に判定し、如何に処理するかが問題となっている。   Although the motion vector often represents local motion in each block between video frames, it is actually obtained by searching for a block region with the smallest differential power, and represents local motion. Sometimes not. In such a case, the interpolated frame is disturbed and often very conspicuous. Therefore, it is a problem how to determine such a “vector not representing motion” and how to process it.

上記動きベクトルの推定問題に関して、ベクトルの信頼性を判定するのに、フレーム内のイントラマクロブロックの割合や、隣接マクロブロックに対するベクトル同士の差や、フレーム内におけるベクトル差が大きいマクロブロックの個数や、フレーム内の動きベクトルの分散値等を用い、それら全ての閾値処理を行うことで、比較的少ない演算量でベクトルの信頼性の判定を行っている。演算量が少ないところは利点として強調できるものの、映像の内容により適切な閾値は各々敏感に変化する性質があるため、そのような固定値の閾値をもつ処理は、ロバストな設計が困難であった(例えば、非特許文献1参照)。   Regarding the motion vector estimation problem, to determine the reliability of a vector, the ratio of intra macroblocks in a frame, the difference between vectors with respect to adjacent macroblocks, the number of macroblocks with a large vector difference in a frame, By using the variance value of the motion vector in the frame and performing all the threshold processing, the reliability of the vector is determined with a relatively small amount of calculation. Where the amount of computation is small, it can be emphasized as an advantage, but since the appropriate threshold value changes sensitively depending on the content of the video, it is difficult to design robustly for such processing with a fixed value threshold value. (For example, refer nonpatent literature 1).

H.Sasai,S.Kondoh and S.Kadono,“Frame−rate Up−conversion using Reliable Analysis of Transmitted Motion Information”. IEEE International Conference on Acoustic,Speech and Signal Processing (ICASSP) 2004,ITT−L1.5,May 2004.H. Sasai, S .; Kondoh and S.M. Kadono, “Frame-rate Up-conversion using Reliable Analysis of Transmitted Motion Information”. IEEE International Conference on Acoustic, Speech and Signal Processing (ICASSP) 2004, ITT-L1.5, May 2004.

従来のフレーム補間処理は、以上のように行われていたので、動画像の時間解像度改善の問題に対し、少ない演算量で、ロバストにフレーム補間処理を行うことは困難であった。   Since the conventional frame interpolation processing has been performed as described above, it has been difficult to perform the frame interpolation processing robustly with a small amount of calculation with respect to the problem of improving the temporal resolution of moving images.

この発明は上記のような課題を解消するためになされたもので、動きベクトル推定のために必要な情報を入力ストリーム(動画像符号化データ)から取り出すことで、改めて多くの演算を行わず、更に閾値処理を少なくしてもロバストにフレーム補間処理を行うことが出来る動画像符号化装置、動画像復号装置及び動画像伝送システムを得ることを目的とする。   The present invention has been made to solve the above-described problems. By extracting information necessary for motion vector estimation from an input stream (moving image encoded data), many operations are not performed again. It is another object of the present invention to obtain a moving image encoding device, a moving image decoding device, and a moving image transmission system that can perform frame interpolation processing robustly even if threshold processing is reduced.

この発明に係る動画像復号装置は、動画像符号化データを解析してブロック単位の符号化シンボルを抽出する解析手段と、前記符号化シンボルを用いて動画像の各フレームを復元して出力する復号手段と、前記符号化シンボルに基づいて、補間フレームの生成方法と補間フレームの動きベクトルとを推定して、前記補間フレームを生成する画像生成部と、前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを所定のタイミングで切り替える切替器とを備えている。   The moving picture decoding apparatus according to the present invention analyzes moving picture coded data and extracts coding symbols in units of blocks, and restores and outputs each frame of the moving picture using the coded symbols. A decoding unit, an image generation unit that estimates an interpolation frame generation method and a motion vector of the interpolation frame based on the encoded symbol, and generates the interpolation frame; and a moving image output from the decoding unit; A switching unit that switches an output of the interpolation frame from the image generation unit at a predetermined timing.

この発明によれば、少ない処理で効率的かつロバストなフレーム補間処理を実現することができる。   According to the present invention, an efficient and robust frame interpolation process can be realized with a small number of processes.

実施の形態1.
以下、この発明の実施の形態1について説明する。実施の形態1では、映像の各フレームを用い、時間的に各フレームの間に存在する補間フレームを生成する動画像復号装置について説明する。動画像復号装置内部では、動画像符号化データを入力として、同データを復号/伸張した後、復号されたフレームを用いたフレーム補間処理を施して補間フレームを生成し、元からある映像の各フレームに生成された補間フレームを合わせた形で再生画像を得る処理を行っている。以下、このような処理に該当する画像生成処理を「フレーム補間処理」と呼ぶ。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below. In the first embodiment, a video decoding device that uses each frame of video and generates an interpolated frame that temporally exists between each frame will be described. Inside the moving picture decoding apparatus, the moving picture encoded data is input, and the data is decoded / decompressed, and then subjected to frame interpolation processing using the decoded frame to generate an interpolated frame. A process for obtaining a reproduced image in a form in which the generated interpolation frame is combined with the frame is performed. Hereinafter, an image generation process corresponding to such a process is referred to as a “frame interpolation process”.

実施の形態1に係る動画像復号装置の特徴は、補間フレームを生成するための各種情報を動画像符号化データから取り出すことが可能であり、改めて演算を必要としない点にある。図1は、実施の形態1に係る動画像復号装置の構成図である。図1において、動画像復号装置28は、可変長復号部2、逆量子化部7、逆直交変換部8、動き補償部10、フレームメモリ11、切替器9、加算部13、補間画像生成部17、動きベクトル保存用メモリ18、符号化モード情報保存用メモリ19、予測残差絶対値和保存用メモリ20、切替器24を有している。   The feature of the moving picture decoding apparatus according to the first embodiment is that various information for generating an interpolation frame can be extracted from the moving picture encoded data, and no calculation is required again. FIG. 1 is a configuration diagram of a moving picture decoding apparatus according to Embodiment 1. In FIG. 1, a video decoding device 28 includes a variable length decoding unit 2, an inverse quantization unit 7, an inverse orthogonal transform unit 8, a motion compensation unit 10, a frame memory 11, a switch 9, an addition unit 13, and an interpolation image generation unit. 17, a motion vector storage memory 18, a coding mode information storage memory 19, a prediction residual absolute value sum storage memory 20, and a switch 24.

次に、図1の動画像復号装置28の動作について説明する。図1の動画像復号装置28では、外部から動画像符号化データ1を受け取ると、可変長復号部2(解析手段)にてエントロピー復号処理が行われ、動きベクトル3、符号化モード情報4、直交変換係数データ5、量子化ステップパラメータ6等が抽出される。これらの抽出データを“符号化シンボル”とする。
直交変換係数データ5、量子化ステップパラメータ6は、それぞれ逆直交変換部8、逆量子化部7(両者を併せて復号部とする)によって復号される。
Next, the operation of the video decoding device 28 in FIG. 1 will be described. In the video decoding device 28 of FIG. 1, when the video encoded data 1 is received from the outside, entropy decoding processing is performed by the variable length decoding unit 2 (analyzing means), and the motion vector 3, encoding mode information 4, Orthogonal transform coefficient data 5, quantization step parameter 6, etc. are extracted. These extracted data are referred to as “coded symbols”.
The orthogonal transform coefficient data 5 and the quantization step parameter 6 are decoded by an inverse orthogonal transform unit 8 and an inverse quantization unit 7 (both are used as a decoding unit).

また、切替器9は、符号化モード情報4が動き予測モードを示している場合は、動き補償部10において、動きベクトル3と符号化モード情報4に基づいて、フレームメモリ11中の参照画像から予測画像12を生成して出力する一方、イントラモードを示している場合は、“0”を出力する。   In addition, when the coding mode information 4 indicates the motion prediction mode, the switch 9 uses the motion compensation unit 10 based on the motion vector 3 and the coding mode information 4 from the reference image in the frame memory 11. While the predicted image 12 is generated and output, “0” is output when the intra mode is indicated.

動き予測モードでは、逆直交変換部8の出力は、動き補償予測結果の予測誤差信号であるので、動きベクトル3を用いて参照画像から符号化側(動画像符号化装置)で生成したものと同じ予測画像12を生成し、加算部13において逆直交変換部8の出力15と加算することで復号画像14を再現する。
イントラモードでは、参照画像を全く利用せずにフレーム内符号化される。また、この場合は前述のように切替器9の出力が“0”であるため、逆直交変換部8の出力15がそのまま復号画像14となる。
復号画像14は、以降のフレームの予測画像生成に用いられるため、フレームメモリ11に格納される。復号画像14はまた、切替器24のスイッチが上側にある時は、動画像復号装置28の外部へ出力27される。
In the motion prediction mode, since the output of the inverse orthogonal transform unit 8 is a prediction error signal of the motion compensation prediction result, it is generated on the encoding side (moving image encoding device) from the reference image using the motion vector 3. The same predicted image 12 is generated and added to the output 15 of the inverse orthogonal transform unit 8 in the adding unit 13 to reproduce the decoded image 14.
In the intra mode, intra-frame encoding is performed without using any reference image. In this case, since the output of the switch 9 is “0” as described above, the output 15 of the inverse orthogonal transform unit 8 becomes the decoded image 14 as it is.
The decoded image 14 is stored in the frame memory 11 to be used for generating predicted images of subsequent frames. The decoded image 14 is also output 27 to the outside of the video decoding device 28 when the switch of the switch 24 is on the upper side.

それと同時に、動きベクトル3を動きベクトル保存用メモリ18へ保存し、符号化モード情報4を符号化モード情報保存用メモリ19へ保存し、逆直行変換部8の出力15の絶対値和を取得して予測残差絶対値和保存メモリ20へ保存し、補間画像生成部17におけるフレーム補間処理に備える。   At the same time, the motion vector 3 is stored in the motion vector storage memory 18, the encoding mode information 4 is stored in the encoding mode information storage memory 19, and the absolute value sum of the output 15 of the inverse orthogonal transform unit 8 is acquired. Are stored in the prediction residual absolute value sum storage memory 20 to prepare for frame interpolation processing in the interpolated image generation unit 17.

フレーム補間処理を行う時は、所定のタイミング26により切替器24のスイッチを下側へ切り替え、直後に補間画像生成部17が動作する。フレーム補間処理が終わったところで補間フレームの画像出力25を行い、切替器24のスイッチを上側に戻すことにより、動画像符号化装置から外部へ出力27される。   When performing the frame interpolation process, the switch of the switch 24 is switched to the lower side at a predetermined timing 26, and the interpolated image generation unit 17 operates immediately after. When the frame interpolation processing is completed, the image output 25 of the interpolation frame is performed, and the switch of the switch 24 is returned to the upper side, so that the output 27 is output 27 from the moving image encoding device.

図2は、実施の形態1において、通常フレーム同士の時間的な中間位置に、補間フレームの生成を行う場合を示す図である。所定のタイミング26とは、例えば、図2に示すような補間フレームの生成を行う場合、動画像復号装置28の上位制御部が生成する補間フレームの表示時刻に基づくタイミングを用いる。   FIG. 2 is a diagram illustrating a case where an interpolation frame is generated at a temporally intermediate position between normal frames in the first embodiment. For example, when the interpolation frame as shown in FIG. 2 is generated, the predetermined timing 26 is a timing based on the display time of the interpolation frame generated by the upper control unit of the video decoding device 28.

次に、補間画像生成部17について詳細に説明する。図3は、図1の補間画像生成部17の内部構成図である。図3に示すように、補間画像生成部17は、動きベクトル推定部301と補間画像生成部302を有している。動きベクトル推定部301は、動きベクトル推定コア部305を備えている。補間画像生成部17は、フレームをブロック分割し、ブロック単位で処理を行う。実施の形態1では、ブロックを8×8ピクセルとして説明を行う。   Next, the interpolation image generation unit 17 will be described in detail. FIG. 3 is an internal configuration diagram of the interpolated image generation unit 17 of FIG. As illustrated in FIG. 3, the interpolation image generation unit 17 includes a motion vector estimation unit 301 and an interpolation image generation unit 302. The motion vector estimation unit 301 includes a motion vector estimation core unit 305. The interpolation image generation unit 17 divides the frame into blocks and performs processing in units of blocks. In the first embodiment, description will be made assuming that the block is 8 × 8 pixels.

図4は、図3の補間画像生成部17の処理フローを示したフローチャートである。
図4は、補間対象ブロックxをフレーム補間処理する場合を示している。図4において、tは時間を、f(x,t)はFrame tのブロックxの画素値を示す。df(x,t)はブロックxの推定動きベクトルMV(forward)、db(x,t)は同推定動きベクトルMV(backward)、m(x,t+1)は時刻“t+1”の補間対象直後フレームにおけるブロックxの符号化モードを示す。補間画像生成部17は、フレーム内全てのブロックに関して図4の処理を行い、補間フレームを生成する。
FIG. 4 is a flowchart showing a processing flow of the interpolated image generation unit 17 of FIG.
FIG. 4 shows a case where the interpolation target block x is subjected to frame interpolation processing. In FIG. 4, t indicates time, and f (x, t) indicates the pixel value of the block x of Frame t. d f (x, t) is an estimated motion vector MV (forward) of block x, d b (x, t) is the estimated motion vector MV (backward), and m (x, t + 1) is an interpolation target at time “t + 1”. The encoding mode of the block x in the immediately following frame is shown. The interpolated image generation unit 17 performs the process of FIG. 4 for all the blocks in the frame to generate an interpolated frame.

以下、図3の動きベクトル推定部301の動作について説明する。所定のタイミング26により、図4の処理フローが開始される。処理フローが開始されると、動きベクトル推定部301は符号化モード情報保存用メモリ19からの出力22で計算対象ブロックの符号化モード情報を取得する。ステップST101で、符号化モードm(x,t+1)が“skipped”であるかどうかをチェックする。   Hereinafter, the operation of the motion vector estimation unit 301 in FIG. 3 will be described. The processing flow in FIG. 4 is started at a predetermined timing 26. When the processing flow is started, the motion vector estimation unit 301 acquires the encoding mode information of the calculation target block from the output 22 from the encoding mode information storage memory 19. In step ST101, it is checked whether or not the encoding mode m (x, t + 1) is “skipped”.

図5は、図4のステップST102における、「片方向補間」を示す図である。図4のステップST101で“skipped”の場合、補間対象ブロックxの動きは極小であるため、次の補間画像生成部302にて図5に示すような「片方向補間」を実施する。従って、動きベクトル推定部301は、補間画像生成部302に対して、「片方向補間」の出力303、及び「動きベクトル(0,0)」の出力304を行う。   FIG. 5 is a diagram showing “one-way interpolation” in step ST102 of FIG. In the case of “skipped” in step ST101 of FIG. 4, since the motion of the interpolation target block x is minimal, the next interpolation image generation unit 302 performs “one-way interpolation” as shown in FIG. Accordingly, the motion vector estimation unit 301 outputs an output 303 of “one-way interpolation” and an output 304 of “motion vector (0, 0)” to the interpolation image generation unit 302.

図6は、図4のステップST104における、「両方向補間」を示す図である。図4のステップST101で“skipped”ではない場合、次の補間画像生成部302にて図6に示すような両方向補間を実施する。従って、動きベクトル推定部301は、補間画像生成部302に対して、「両方向補間」の出力303を行う。そして、動きベクトル推定コア部305にて、補間対象ブロックの動きベクトル値を推定し、補間画像生成部302に対して、「推定された動きベクトル値」の出力304を行う。動きベクトル推定コア部305における、動きベクトルの推定処理(ステップST103)については後述する。   FIG. 6 is a diagram showing “bidirectional interpolation” in step ST104 of FIG. If it is not “skipped” in step ST101 of FIG. 4, the next interpolation image generation unit 302 performs bi-directional interpolation as shown in FIG. Therefore, the motion vector estimation unit 301 outputs an output 303 of “bidirectional interpolation” to the interpolation image generation unit 302. Then, the motion vector estimation core unit 305 estimates the motion vector value of the interpolation target block, and outputs an “estimated motion vector value” 304 to the interpolation image generation unit 302. The motion vector estimation processing (step ST103) in the motion vector estimation core unit 305 will be described later.

以下、補間画像生成部302の動作について説明する。補間画像生成部302には、動きベクトル推定部301からの出力303で、「片方向補間」または「両方向補間」が入力される。また、出力304で動きベクトル値が入力される。出力303の入力データにより、補間画像生成部302の動作は以下の2種類に場合分けされる。   Hereinafter, the operation of the interpolation image generation unit 302 will be described. The interpolation image generation unit 302 receives “one-way interpolation” or “two-way interpolation” as an output 303 from the motion vector estimation unit 301. In addition, a motion vector value is input at the output 304. Depending on the input data of the output 303, the operation of the interpolation image generation unit 302 is classified into the following two types.

先ず、出力303が「片方向補間」の場合について説明する。Frame tの補間対象ブロックxに関し、図5に示す「片方向補間」を実施する。図5は、符号化されたFrame t−1及びFrame t+1に対し、Frame tを補間する場合の例である。「片方向補間」の場合は、出力304による動きベクトルが(0,0)であるため、図5に示すように、Frame t+1の符号化画像において、ブロックxと同じ位置のブロックの画像データを用いて補間を行う。   First, the case where the output 303 is “one-way interpolation” will be described. The “one-way interpolation” shown in FIG. 5 is performed on the interpolation target block x of Frame t. FIG. 5 shows an example in which Frame t is interpolated with respect to encoded Frame t−1 and Frame t + 1. In the case of “one-way interpolation”, since the motion vector based on the output 304 is (0, 0), as shown in FIG. 5, in the encoded image of Frame t + 1, the image data of the block at the same position as the block x is obtained. To interpolate.

次に、出力303が「両方向補間」の場合について説明する。Frame tの補間対象ブロックxに関し、図6に示す「両方向補間」を実施する。図6は、符号化されたFrame t−1及びFrame t+1に対し、時間的に中間位置にあるFrame tを補間する場合の例である。ブロックxに関し補間する式は、数式1で与えられる。

Figure 2006279917
Next, the case where the output 303 is “bidirectional interpolation” will be described. For the interpolation target block x of Frame t, “bidirectional interpolation” shown in FIG. 6 is performed. FIG. 6 shows an example in which Frame t at an intermediate position in time is interpolated with respect to encoded Frame t−1 and Frame t + 1. The equation for interpolating the block x is given by Equation 1.
Figure 2006279917

動きベクトルdf(x,t)及びdb(x,t)は、出力304により入力された動きベクトルを用いる。「両方向補間」は、Frame t−1とFrame t+1の両方からFrame tに対して補間を行う。Frame t−1は、補間対象ブロックと同位置からdf(x,t)ずれた場所を補間に用いる。Frame t+1は、Frame tが時間的に中間位置にあることを利用すると、“db(x,t)=−df(x,t)”が成り立つため、補間対象ブロックから−df(x,t)ずれた場所を補間に用いる。 As the motion vectors d f (x, t) and d b (x, t), the motion vectors input by the output 304 are used. “Bidirectional interpolation” interpolates Frame t from both Frame t−1 and Frame t + 1. Frame t−1 uses a location shifted by d f (x, t) from the same position as the interpolation target block for interpolation. For Frame t + 1, since “d b (x, t) = − d f (x, t)” is established using the fact that Frame t is at an intermediate position in time, −d f (x , T) The shifted location is used for interpolation.

以上より、図6において、補間対象ブロックを求めるための式は、数式1に“db(x,t)=−df(x,t)”を代入することで、数式2のようになる。

Figure 2006279917
As described above, in FIG. 6, the equation for obtaining the interpolation target block is represented by Equation 2 by substituting “d b (x, t) = − d f (x, t)” into Equation 1. .
Figure 2006279917

以下、動きベクトル推定コア部305の動作について説明する。図7は、図3の動きベクトル推定コア部305の動作を示した図である。動きベクトル推定コア部305は、前述の通り、動きベクトル推定部301にて、計算対象ブロックの符号化モードが“skipped”ではない場合に動作し、補間フレーム上での動きベクトルの推定を行う(図4のステップST103参照)。
具体的には、図7のFrame t+1における領域“R”で示すような、補間対象ブロックxと同じ位置のブロック(計算対象ブロック)と、その周囲の8ブロックに関し、動きベクトル保存用メモリ18からの出力21で復号画像上の動きベクトルを参照する。また、符号化モード情報保存用メモリ19からの出力22で符号化モード情報を参照し、予測残差絶対値和保存用メモリ20からの出力23で予測残差絶対値和を参照する。
図7のように、符号化ベクトル(動きベクトル)をd(x+vi,t+1),0≦i≦8,(v4=0)、予測残差をe(x+vi,t+1),0≦i≦8,(v4=0)とした時、数式3の演算を行うことで、補間フレーム上での補間対象ブロックxにおける、Frame t−1に対する動きベクトルdf(x,t)の推定を行う。

Figure 2006279917
Hereinafter, the operation of the motion vector estimation core unit 305 will be described. FIG. 7 is a diagram illustrating the operation of the motion vector estimation core unit 305 of FIG. As described above, the motion vector estimation core unit 305 operates when the motion vector estimation unit 301 is not “skipped” in the encoding mode of the calculation target block, and estimates a motion vector on an interpolation frame ( (See step ST103 in FIG. 4).
Specifically, with respect to the block (calculation target block) at the same position as the interpolation target block x and the surrounding eight blocks, as indicated by the region “R” in Frame t + 1 in FIG. The motion vector on the decoded image is referred to by the output 21. Further, the encoding mode information is referred to by the output 22 from the encoding mode information storage memory 19, and the prediction residual absolute value sum is referred to by the output 23 from the prediction residual absolute value sum storage memory 20.
As shown in FIG. 7, the encoded vector (motion vector) is d (x + v i , t + 1), 0 ≦ i ≦ 8, (v 4 = 0), and the prediction residual is e (x + v i , t + 1), 0 ≦ i. When ≦ 8, (v 4 = 0), the motion vector d f (x, t) is estimated for Frame t−1 in the interpolation target block x on the interpolation frame by performing the calculation of Equation 3. Do.
Figure 2006279917

Figure 2006279917
であり、数式4の分母は、viにおける予測残差絶対値和である。
Figure 2006279917
And the denominator of Equation 4 is the predicted residual absolute value sum at v i .

予測残差絶対値和の逆数で動きベクトルを重み付けすることで、予測残差絶対値和の小さいブロックにおける動きベクトルに強い重みが与えられる。予測残差絶対値和が小さい程、動きベクトル自体の信頼性が高く、予測残差絶対値和が大きい程ベクトル自体の信頼性が低いという性質に基づく手法である。   By weighting the motion vector with the reciprocal of the prediction residual absolute value sum, a strong weight is given to the motion vector in the block having the small prediction residual absolute value sum. This is a method based on the property that the smaller the prediction residual absolute value sum is, the higher the reliability of the motion vector itself is, and the larger the prediction residual absolute value sum is, the lower the reliability of the vector itself is.

また、実施の形態1では、図2のような時間的に丁度中間位置のフレームを補間する場合の例であるため、α=1/2となり、また、Frame t+1に対する動きベクトルdb(x,t)は、“db(x,t)=−df(x,t)”で与えられる。 Further, since the first embodiment is an example of interpolating a frame at just an intermediate position in time as shown in FIG. 2, α = 1/2, and the motion vector d b (x, t) is given by “d b (x, t) = − d f (x, t)”.

但し、図7の領域Rで示す9つの計算対象ブロックのうち、イントラブロックは上記演算から除外する。“skipped”のブロックは、符号化ベクトル(0,0)、予測残差をある固定値Aとして上記演算を実施する。また、インターのブロックでも、DCT係数がなく、予測残差絶対値和が“0”になる場合は、ある固定値Bとして上記演算を実施する。9つの計算対象ブロック全てがイントラブロックであった場合は、例外的に、“df(x,t)=(0,0)”とする。 However, among the nine calculation target blocks indicated by the region R in FIG. 7, the intra block is excluded from the calculation. The “skipped” block performs the above operation with the encoded vector (0, 0) and the prediction residual as a fixed value A. Further, even in the inter block, when there is no DCT coefficient and the sum of the absolute values of the prediction residuals is “0”, the above calculation is performed as a certain fixed value B. If all nine calculation target blocks are intra blocks, exceptionally, “d f (x, t) = (0, 0)”.

上記のように動きベクトル推定コア部305で推定されたベクトルdf(x,t)及びdb(x,t)を、補間画像生成部302に出力する。 The vectors d f (x, t) and d b (x, t) estimated by the motion vector estimation core unit 305 as described above are output to the interpolated image generation unit 302.

以上のようなフレーム補間処理を行うことにより、動きベクトル推定のために必要な情報を入力ストリーム(動画像符号化データ1)から取り出すことが可能であり、改めて演算を必要としない点、閾値処理がほとんどなくロバストに機能する点が、利点として挙げられる。   By performing the frame interpolation processing as described above, it is possible to extract information necessary for motion vector estimation from the input stream (moving image encoded data 1), and there is no need for another calculation. The advantage is that it works robustly with almost no noise.

図8は、実施の形態1における任意の時刻におけるフレーム補間の様子を示した図である。実施の形態1では、図2のような時間的に丁度中間位置にあるフレームを補間する例で説明を行ってきたが、例えば図8のような補間を行い、コマ数を4倍にするといったことも可能である。図8に示すような相対値αの値を用い、時間的に任意の場所に補間フレームを生成することが可能である(スケーリング)。図8のような相対時間値0<α<1を定義した場合、図7のdf(x,t)の推定式(数式3)において、α倍しているところを(α―1)倍とすると、db(x,t)をその向きまで考慮した形で求めることが可能となる。 FIG. 8 is a diagram showing a state of frame interpolation at an arbitrary time in the first embodiment. In the first embodiment, description has been made with an example in which a frame at an intermediate position in time is interpolated as shown in FIG. 2, but for example, interpolation as shown in FIG. 8 is performed to increase the number of frames four times. It is also possible. By using the value of the relative value α as shown in FIG. 8, it is possible to generate an interpolation frame at an arbitrary place in time (scaling). When the relative time value 0 <α <1 is defined as shown in FIG. 8, in the estimation formula (Formula 3) of d f (x, t) in FIG. Then, it becomes possible to obtain d b (x, t) in a form that takes into account its direction.

実施の形態1の動画像復号装置を用いたアプリケーション事例としては、携帯カメラ動画、DVDレコーダ高圧縮モードといったものが挙げられる。携帯カメラ動画やDVDレコーダの高圧縮モードでは、コマ数を落とした形でデータ保存をしておき、再生する際に、実施の形態1の手法を用いてフレーム補間処理を行いながら再生することで、時間解像度の高い映像を閲覧することが可能となる。   Examples of applications using the moving picture decoding apparatus according to the first embodiment include portable camera moving images and DVD recorder high compression mode. In the high-compression mode of portable camera videos and DVD recorders, data is stored in a reduced number of frames and played back while performing frame interpolation processing using the method of the first embodiment. It is possible to view a video with a high time resolution.

図9は、従来の動画像復号装置と実施の形態1に係る動画像復号装置の比較例を示した図である。30fpsの同じ映像ソースを入力する例を用いて比較を行っている。上側は従来の動画像復号装置を用いた動画像出力の例であり、下側が実施の形態1に係る動画像復号装置を用いた動画像出力の例を示している。従来例では、15fpsにて符号化し、動画像復号装置に対して符号化データの出力を行うと、動画像復号装置では15fpsの符号化データが蓄積され、15fpsにて再生が行われる。   FIG. 9 is a diagram showing a comparative example between the conventional video decoding device and the video decoding device according to the first embodiment. Comparison is made using an example in which the same video source of 30 fps is input. The upper side shows an example of moving picture output using the conventional moving picture decoding apparatus, and the lower side shows an example of moving picture output using the moving picture decoding apparatus according to the first embodiment. In the conventional example, when encoding is performed at 15 fps and the encoded data is output to the moving image decoding apparatus, 15 fps encoded data is accumulated in the moving image decoding apparatus, and reproduction is performed at 15 fps.

それに対して、実施の形態1では、動画像復号装置28に対して出力を行うことを想定した動画像出力の例であり、動画像符号化装置で符号化する段階で、動画像復号装置28にてフレーム補間を行うことを想定し、より高圧縮で符号化するためコマを落として7.5fpsで符号化を行い、出力を行う。動画像復号装置28では、7.5fpsの符号化データが蓄積される。これにより、従来例と比較して伝送量や蓄積量が半分ですむ上、フレーム補間処理を行い、例えば4倍にコマを増やすことで30fpsの再生が可能となる。   On the other hand, the first embodiment is an example of moving image output that is assumed to be output to the moving image decoding device 28, and at the stage of encoding by the moving image encoding device, the moving image decoding device 28 is used. Assuming that frame interpolation is performed at, in order to perform encoding with higher compression, frames are dropped and encoding is performed at 7.5 fps, and output is performed. In the video decoding device 28, encoded data of 7.5 fps is accumulated. As a result, the transmission amount and accumulation amount can be halved as compared with the conventional example, and frame interpolation processing is performed, and for example, 30 fps can be reproduced by increasing the number of frames four times.

以上のように、この実施の形態1によれば、動画像復号装置28を用いると、従来と比較して伝送量や蓄積量を削減することが可能であり、更に時間解像度の高い動画を再生し閲覧することが可能となる。   As described above, according to the first embodiment, when the moving image decoding device 28 is used, it is possible to reduce the transmission amount and the accumulation amount as compared with the conventional case, and to reproduce a moving image with higher time resolution. Can be viewed.

また、実施の形態1はMPEG−2の片フィールド補間へも適用可能である。例えば片フィールドのみを符号化データとして保存し、残りの片フィールドを実施の形態1の手法を用いて補間を行うことで適用可能となる。以下に、図10を用いて説明する。   The first embodiment is also applicable to MPEG-2 single field interpolation. For example, only one field can be stored as encoded data, and the remaining one field can be applied by performing interpolation using the method of the first embodiment. This will be described below with reference to FIG.

図10は、実施の形態1に係る動画像符号化装置及び動画像復号装置を、MPEG−2の片フィールド補間に適用した例を示す図である。図10は、あるインターレース動画像の出力を行う場合の例であり、動画像符号化装置1201に入力する前段階でField抽出を行い、Top Fieldのみを動画像符号化装置1201に入力し、順次符号化し出力を行う。動画像復号装置28では、Top Fieldの復号データからBottom Fieldを補間し、再生を行う。   FIG. 10 is a diagram illustrating an example in which the moving picture encoding apparatus and moving picture decoding apparatus according to Embodiment 1 are applied to MPEG-2 one-field interpolation. FIG. 10 is an example in the case of outputting a certain interlaced moving image. Field extraction is performed at a stage before being input to the moving image encoding device 1201, and only the top field is input to the moving image encoding device 1201. Encode and output. The moving image decoding device 28 interpolates the Bottom Field from the decoded data of the Top Field and performs reproduction.

また一方で、MPEG−4等の動画像符号化において、両方向予測による動き補償を利用するピクチャタイプの予測画像生成において、MPEG−4等で規定されている予測画像生成方式により生成された予測画像ではなく、実施の形態1により生成される補間フレームを予測画像として用いることで、圧縮率が向上できる。   On the other hand, in motion picture coding such as MPEG-4, a predicted picture generated by a predicted picture generation method defined in MPEG-4 or the like in picture-type predicted picture generation using motion compensation by bidirectional prediction. Instead, the compression rate can be improved by using the interpolated frame generated in the first embodiment as a predicted image.

実施の形態2.
以下、この発明の実施の形態2について説明する。実施の形態2では、動きベクトル推定コア部305(図3参照)が実施の形態1と別処理を行う。その他の構成は実施の形態1と同様であるので説明を省略する。図11は、実施の形態2に係る動画像復号装置の動きベクトル推定コア部305の動作を示した図である。
Embodiment 2. FIG.
The second embodiment of the present invention will be described below. In the second embodiment, the motion vector estimation core unit 305 (see FIG. 3) performs processing different from that of the first embodiment. Since other configurations are the same as those of the first embodiment, description thereof is omitted. FIG. 11 is a diagram illustrating an operation of the motion vector estimation core unit 305 of the video decoding device according to Embodiment 2.

下記の演算を行うことで、補間フレーム上での補間対象ブロックxにおける、Frame t−1に対する動きベクトルdf(x,t)の推定を行う。

Figure 2006279917
By performing the following calculation, the motion vector d f (x, t) for Frame t−1 in the interpolation target block x on the interpolation frame is estimated.
Figure 2006279917

ここで、φi(m)、φi(n)はそれぞれ数式6で表される。また、gi(m)、gi(n)はそれぞれ、数式7で表される。h(x)は実施の形態2では、x-1に依存する非線形関数とし、gi(m)、gi(n)は分散の逆数の意味を持つ。

Figure 2006279917
Figure 2006279917
Here, φ i (m) and φ i (n) are each expressed by Equation 6. Also, g i (m) and g i (n) are each expressed by Equation 7. In the second embodiment, h (x) is a nonlinear function that depends on x −1 , and g i (m) and g i (n) have the meanings of reciprocals of variance.
Figure 2006279917
Figure 2006279917

この時、σd(m)、σd(n)は図11における領域Rの分散の各成分を表しており、数式8のようになる。また、図2のように時間的に丁度中間位置のフレームを補間する場合は、α=1/2となる。

Figure 2006279917
At this time, σd (m) and σd (n) represent each component of dispersion in the region R in FIG. Further, when interpolating a frame at an intermediate position just in time as shown in FIG. 2, α = ½.
Figure 2006279917

実施の形態2は、実施の形態1と比較すると、領域Rのベクトルに関して、分散値の逆数をブロックxと同位置の計算対象ブロックのみに強く重み付けすることで、領域Rの動きベクトルの分散が小さい場合に、計算対象ブロックのベクトルが強く重み付けされる。   Compared with the first embodiment, the second embodiment strongly weights only the calculation target block at the same position as the block x with respect to the vector of the region R, thereby reducing the variance of the motion vector of the region R. When it is small, the vector of the calculation target block is strongly weighted.

実施の形態1では、領域Rのベクトルが全体的に小さい場合、領域Rのある特定の予測残差絶対値和が小さなブロックに対する重みが必要以上に大き過ぎ、そのような予測残差絶対値和が小さいブロックの動きベクトルはほとんどの場合(0,0)である。その結果、必要以上に推定動きベクトルがゼロベクトルとなるブロックが多発する場合がある。従って、実施の形態2では、分散値を使うアルゴリズムを導入している。   In the first embodiment, when the vector of the region R is generally small, a certain prediction residual absolute value sum in the region R is too large for a small block, and such a prediction residual absolute value sum is larger than necessary. In most cases, the motion vector of a small block is (0, 0). As a result, there are cases where there are many blocks where the estimated motion vector is zero vector more than necessary. Therefore, in the second embodiment, an algorithm using a variance value is introduced.

以上のように、この実施の形態2によれば、分散値を使うアルゴリズムの導入により、実施の形態1と比較して、元々の動き量が少ないために分散の小さい動きベクトルを有する領域であっても、必要以上にゼロベクトルに落とすことなく、その分散の度合いを推定動きベクトルに適切に反映させる効果がある。   As described above, according to the second embodiment, the introduction of an algorithm using a variance value is a region having a motion vector with a small variance because the original motion amount is smaller than that in the first embodiment. However, there is an effect of appropriately reflecting the degree of dispersion in the estimated motion vector without dropping it to the zero vector more than necessary.

実施の形態3.
以下、この発明の実施の形態3について説明する。図12は、実施の形態3に係る動画像符号化装置から動画像復号装置へのデータ出力を示す図である。実施の形態3に係る動画像符号化装置1201は、実施の形態1、2に係る動画像復号装置28が行うフレーム補間処理に対して補助を行う(以下、補間アシスト)。具体的には、動画像符号化装置1201が、通常の符号化データ1に加えて、フレーム補間処理を補助するための付加情報を出力する。この付加情報を生成する部分を付加情報生成部と呼ぶ。
Embodiment 3 FIG.
The third embodiment of the present invention will be described below. FIG. 12 is a diagram illustrating data output from the video encoding device to the video decoding device according to Embodiment 3. The video encoding device 1201 according to Embodiment 3 assists the frame interpolation processing performed by the video decoding device 28 according to Embodiments 1 and 2 (hereinafter, interpolation assist). Specifically, the moving image encoding apparatus 1201 outputs additional information for assisting the frame interpolation process in addition to the normal encoded data 1. The part that generates the additional information is called an additional information generation unit.

第1の補間アシスト(フレーム補間処理における参照画像種別の出力)について説明する。動画像符号化装置1201は、動画像復号装置28におけるフレーム補間処理に際して、「時間的に前方のフレームのみを参照して補間する方法」、「時間的に後方のフレームのみを参照して補間する方法」、「前後両方のフレームを参照して補間する方法」の3種類の補間方法のうち、最適な補間方法に関する情報(最適な参照画像を示す情報)を、フレーム内の全てのブロックに関して個別に生成し、付加情報として出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、付加情報の前等に付加する。その付加情報を示すビット列を、例えば算術符号化等を用いて圧縮した形で動画像復号装置28へ出力する。   The first interpolation assist (output of the reference image type in the frame interpolation process) will be described. In the frame interpolation process in the moving image decoding device 28, the moving image encoding device 1201 performs “a method of interpolating with reference to only a temporally forward frame” and “interpolating with reference to only a temporally backward frame.” Among the three types of interpolation methods “method” and “method of interpolating with reference to both frames before and after”, information on the optimum interpolation method (information indicating the optimum reference image) is individually obtained for all blocks in the frame. And output as additional information. An identification flag indicating that the frame includes the corresponding block is added before the additional information. The bit string indicating the additional information is output to the video decoding device 28 in a compressed form using, for example, arithmetic coding.

図13は、実施の形態3に係る動画像符号化装置の構成図である。なお、動画像符号化装置1301は、図12の動画像符号化装置1201に相当する。図13において、動画像符号化装置1301は、動画像符号化部1302、切替器1304、最適参照画像判定部1305、ビット列生成部1306を備えている。また、動画像符号化部1302は、メモリ1303を備える。最適参照画像判定部1305及びビット列生成部1306が付加情報生成部である。   FIG. 13 is a configuration diagram of a video encoding apparatus according to Embodiment 3. Note that the moving picture coding apparatus 1301 corresponds to the moving picture coding apparatus 1201 in FIG. In FIG. 13, the moving image encoding device 1301 includes a moving image encoding unit 1302, a switch 1304, an optimum reference image determination unit 1305, and a bit string generation unit 1306. The moving image encoding unit 1302 includes a memory 1303. The optimum reference image determination unit 1305 and the bit string generation unit 1306 are additional information generation units.

次に、動画像符号化装置1301の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ出力1を行う。一方、最適参照画像判定部1305にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、上記3種類の補間方法による補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、ブロック毎にどの補間方法が最適かを判定する。その判定結果を出力1309としてビット列生成部1306へ入力し、同時に出力1308で切替器1304のスイッチを下側に切り替える。ビット列生成部1306では、最適参照画像判定部1305からの出力1309で上記判定結果のデータを受け取り、そのデータに関して算術符号化等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。   Next, the operation of the moving picture coding apparatus 1301 will be described. The moving image encoding device 1301 performs encoding by input 1307 of the input image to the moving image encoding unit 1302 and then outputs 1 to the moving image decoding device 28. On the other hand, an input image 1307 is also input to the optimum reference image determination unit 1305, the encoded content is grasped by referring to the memory 1303, and an interpolated frame by the above three types of interpolation methods is provisionally generated. The input image at substantially the same time is compared for each block, and it is determined which interpolation method is optimal for each block. The determination result is input to the bit string generation unit 1306 as an output 1309, and at the same time, the switch of the switch 1304 is switched to the lower side by the output 1308. The bit string generation unit 1306 receives the determination result data at the output 1309 from the optimum reference image determination unit 1305, performs arithmetic coding on the data, and outputs the result to the video decoding device 28. When the output is finished, the switch of the switch 1304 is returned to the upper side.

以上のように、この実施の形態3によれば、動画像符号化装置1301には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成し、入力画像との比較を行うことで最適な補間方法を判定することが可能であり、このような第1の補間アシストで最適な補間方法を動画像復号装置28に出力することにより、フレーム補間処理された動画像の画質向上が期待できる効果がある。   As described above, according to the third embodiment, since the moving image coding apparatus 1301 has an input image, an interpolated frame is provisionally generated using the encoded data and compared with the input image. It is possible to determine an optimal interpolation method by performing this, and by outputting such an optimal interpolation method to the moving image decoding device 28 with the first interpolation assist, the image quality of the moving image subjected to frame interpolation processing There is an effect that can be expected to improve.

実施の形態4.
以下、この発明の実施の形態4について説明する。実施の形態4では、図12の動画像符号化装置1201が、第2の補間アシスト(予測残差の出力)を行う。符号化する際の動きベクトルがばらばらである場合に、動画像復号装置28において通常のフレーム補間処理を行うと、画質の低いブロックを含む補間フレームが生成されてしまう。
Embodiment 4 FIG.
The fourth embodiment of the present invention will be described below. In the fourth embodiment, the moving picture coding apparatus 1201 in FIG. 12 performs second interpolation assist (prediction residual output). If the motion decoding apparatus 28 performs normal frame interpolation processing when the motion vectors at the time of encoding are different, an interpolation frame including a block with low image quality is generated.

実施の形態4では、上記の場合、動画像符号化装置1201が通常の動画像符号化データに加えて、補間フレーム上の該当ブロックにおける予測残差を出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、予測残差データの前等に付加する。動画像復号装置28は、先ず、フレーム単位で予測残差の出力の有無を判断する。予測残差データを出力する時は、該当ブロック位置と予測残差を符号化データの付加情報として出力する。その付加情報を示すビット列は、例えばMPEG−4で用いられているDCTや量子化、VLC(可変長符号化)等を用い、圧縮した形で動画像復号装置28へ出力する。   In Embodiment 4, in the above case, the moving picture coding apparatus 1201 outputs the prediction residual in the corresponding block on the interpolation frame in addition to the normal moving picture coded data. An identification flag indicating that the frame includes the corresponding block is added before the prediction residual data. First, the moving picture decoding apparatus 28 determines whether or not a prediction residual is output in units of frames. When outputting the prediction residual data, the block position and the prediction residual are output as additional information of the encoded data. The bit string indicating the additional information is output to the moving picture decoding apparatus 28 in a compressed form using, for example, DCT, quantization, VLC (variable length coding) used in MPEG-4.

図14は、実施の形態4に係る動画像符号化装置の構成図である。なお、図14の動画像符号化装置1401は、図12の動画像符号化装置1201に相当する。図14において、動画像符号化装置1401は、動画像符号化部1302、切替器1304、予測残差伝送判定部1405、ビット列生成部1406を備えている。また、動画像符号化部1302は、メモリ1303を備える。予測残差伝送判定部1405及びビット列生成部1406が付加情報生成部である。   FIG. 14 is a configuration diagram of a video encoding apparatus according to Embodiment 4. Note that the moving picture coding apparatus 1401 in FIG. 14 corresponds to the moving picture coding apparatus 1201 in FIG. In FIG. 14, the moving picture coding apparatus 1401 includes a moving picture coding unit 1302, a switch 1304, a prediction residual transmission determination unit 1405, and a bit string generation unit 1406. The moving image encoding unit 1302 includes a memory 1303. The prediction residual transmission determination unit 1405 and the bit string generation unit 1406 are additional information generation units.

次に、動画像符号化装置1401の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。一方、予測残差伝送判定部1405にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、ブロック毎に予測残差を送る必要があるかどうかを判定する。その結果、1ブロックでも予測残差を送る必要があれば、出力1309でビット列生成部1406にブロック位置と予測残差を伝え、同時に出力1308経由で切替器1304のスイッチを下側に切り替える。ビット列生成部1406では、出力1309で予測残差伝送判定部1405からのデータ(ブロック位置と予測残差)を受け取り、そのデータに関して適切な圧縮等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。   Next, the operation of the moving image encoding device 1401 will be described. The video encoding device 1301 performs encoding by input 1307 of the input image to the video encoding unit 1302, and then outputs the video encoded data 1 to the video decoding device 28. On the other hand, an input image 1307 is also input to the prediction residual transmission determination unit 1405, the encoded contents are grasped by referring to the memory 1303, an interpolation frame is provisionally generated, and an input image at approximately the same time as the interpolated frame. And for each block, it is determined whether it is necessary to send a prediction residual for each block. As a result, if it is necessary to send the prediction residual even in one block, the block position and the prediction residual are transmitted to the bit string generation unit 1406 at the output 1309, and at the same time, the switch of the switch 1304 is switched to the lower side via the output 1308. The bit string generation unit 1406 receives the data (block position and prediction residual) from the prediction residual transmission determination unit 1405 at the output 1309, performs appropriate compression on the data, and outputs the data to the video decoding device 28. When the output is finished, the switch of the switch 1304 is returned to the upper side.

以上のように、この実施の形態4によれば、動画像符号化装置には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成して入力画像との比較を行うことで、著しく画質の低いブロックを含む補間フレームを調べることが可能であり、このような第2の補間アシストで補間フレーム上の該当ブロックにおける予測残差を動画像復号装置28へ出力することにより、フレーム補間処理されたフレームの画質向上が期待できる効果がある。   As described above, according to the fourth embodiment, since there is an input image in the moving image encoding apparatus, an interpolation frame is provisionally generated using the encoded data and compared with the input image. Thus, it is possible to examine an interpolation frame including a block with remarkably low image quality, and by outputting the prediction residual in the corresponding block on the interpolation frame to the moving image decoding device 28 by such second interpolation assist. There is an effect that the image quality of the frame subjected to the frame interpolation process can be expected to be improved.

実施の形態5.
以下、この発明の実施の形態5について説明する。実施の形態5では、図12の動画像符号化装置1201が、第3の補間アシスト(補間フレーム上の動きベクトルの出力)を行う。符号化する際の動きベクトルがばらばらで、動画像復号装置1において実施の形態1や実施の形態2に示すような通常の動きベクトル推定コア部305の処理(図4のステップST103)を行うと、画質の低いブロックを含む補間フレームになってしまう。特にイントラブロックの場合は、元々符号化データの中に動きベクトル自体が存在しないため、そのような状態になり易い。
Embodiment 5. FIG.
The fifth embodiment of the present invention will be described below. In the fifth embodiment, the moving picture coding apparatus 1201 in FIG. 12 performs the third interpolation assist (output of the motion vector on the interpolation frame). When the motion vector at the time of encoding is different and the moving image decoding apparatus 1 performs the processing of the normal motion vector estimation core unit 305 (step ST103 in FIG. 4) as shown in the first and second embodiments. This results in an interpolated frame including blocks with low image quality. In particular, in the case of an intra block, since the motion vector itself does not exist in the encoded data, such a state is likely to occur.

実施の形態5では、上記の場合、動画像符号化装置1201が、通常の符号化データに加え、補間フレーム上の該当ブロックにおける動きベクトルも付加情報として出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、動きベクトルデータの前等に付加する。動画像復号装置28は、先ずフレーム単位で動きベクトルの出力の有無を判断する。動きベクトルデータを出力する時は、該当ブロック位置と動きベクトルを付加情報として出力する。   In the fifth embodiment, in the above case, the moving image encoding apparatus 1201 outputs the motion vector in the corresponding block on the interpolation frame as additional information in addition to the normal encoded data. An identification flag indicating that the frame includes the corresponding block is added in front of the motion vector data. The video decoding device 28 first determines whether or not a motion vector is output in units of frames. When outputting motion vector data, the corresponding block position and motion vector are output as additional information.

図15は、実施の形態5に係る動画像符号化装置の構成図である。なお、図15の動画像符号化装置1501は、図12の動画像符号化装置1201に相当する。図15において、動画像符号化装置1501は、動画像符号化部1302、切替器1304、動きベクトル伝送判定部1505、ビット列生成部1506を備えている。また、動画像符号化部1302は、メモリ1303を備える。動きベクトル伝送判定部1505及びビット列生成部1506が付加情報生成部である。   FIG. 15 is a configuration diagram of a video encoding apparatus according to Embodiment 5. Note that the moving picture coding apparatus 1501 in FIG. 15 corresponds to the moving picture coding apparatus 1201 in FIG. In FIG. 15, the moving picture coding apparatus 1501 includes a moving picture coding unit 1302, a switch 1304, a motion vector transmission determination unit 1505, and a bit string generation unit 1506. The moving image encoding unit 1302 includes a memory 1303. The motion vector transmission determination unit 1505 and the bit string generation unit 1506 are additional information generation units.

次に、動画像符号化装置1501の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。一方、動きベクトル伝送判定部1505にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、著しく画質が落ちていないかどうか判定する。画質の落ちているブロックがあれば補間フレーム上の動きベクトルの変更により画質が改善されるかどうか判定を行うことで、動きベクトルを送る必要があるかどうかを判定する。その結果、1ブロックでも動きベクトルを送る必要があれば、出力1309でビット列生成部1506にブロック位置と伝送すべき動きベクトル値を伝え、同時に出力1308経由で切替器1304のスイッチを下側に切り替える。ビット列生成部1506では、1309経由で動きベクトル伝送判定部1505からのデータを受け、そのデータに関して適切な圧縮等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。   Next, the operation of the moving picture coding apparatus 1501 will be described. The video encoding device 1301 performs encoding by input 1307 of the input image to the video encoding unit 1302, and then outputs the video encoded data 1 to the video decoding device 28. On the other hand, an input image 1307 is also input to the motion vector transmission determination unit 1505, the encoded contents are grasped by referring to the memory 1303, an interpolated frame is temporarily generated, and an input image at substantially the same time as the interpolated frame Are compared for each block, and it is determined whether or not the image quality is significantly deteriorated. If there is a block with low image quality, it is determined whether the motion vector needs to be sent by determining whether the image quality is improved by changing the motion vector on the interpolation frame. As a result, if it is necessary to send a motion vector even in one block, the block position and the motion vector value to be transmitted are transmitted to the bit string generation unit 1506 at the output 1309, and at the same time, the switch of the switch 1304 is switched to the lower side via the output 1308. . The bit string generation unit 1506 receives data from the motion vector transmission determination unit 1505 via 1309, performs appropriate compression on the data, and outputs the data to the video decoding device 28. When the output is finished, the switch of the switch 1304 is returned to the upper side.

以上のように、この実施の形態5によれば、動画像符号化装置には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成して入力画像との比較を行うことで、通常の動きベクトル推定コア部の処理では著しく画質の低いブロックを含む補間フレームを調べることが可能であるため、このような第3の補間アシストで補間フレーム上の該当ブロックにおける補間フレーム上の最適な動きベクトルを出力することにより、フレーム補間処理されたフレームの画質向上が期待できる効果がある。   As described above, according to the fifth embodiment, since the moving image encoding apparatus has an input image, an interpolation frame is temporarily generated using the encoded data and compared with the input image. Therefore, since the normal motion vector estimation core unit process can examine an interpolation frame including a block with extremely low image quality, the third interpolation assist can be used to check the interpolation frame in the corresponding block on the interpolation frame. By outputting the optimal motion vector, it is possible to expect an improvement in the image quality of the frame subjected to the frame interpolation process.

実施の形態6.
以下、この発明の実施の形態6について説明する。実施の形態6では、図12の動画像符号化装置1201が、第4の補間アシスト(予測残差絶対値和の出力)を行う。実映像を対象とした符号化においては、一般的に予測残差絶対値和がゼロになることはほとんどない。しかし、DCT係数なしのブロックがあった場合、動画像復号装置28において、そのブロックにおける予測残差絶対値和はゼロとなってしまう。
Embodiment 6 FIG.
The sixth embodiment of the present invention will be described below. In the sixth embodiment, the moving picture coding apparatus 1201 in FIG. 12 performs the fourth interpolation assist (output of the prediction residual absolute value sum). In coding for real video, generally, the prediction residual absolute value sum hardly becomes zero. However, if there is a block without a DCT coefficient, in the video decoding device 28, the prediction residual absolute value sum in that block becomes zero.

実施の形態6では、上記の場合、動画像符号化装置1201が、通常の符号化データに加え、該当ブロックのみ予測残差絶対値和も出力する。フレームが該当ブロックを含んでいることを示す識別フラグを、予測残差絶対値和データの前等に付加する。動画像復号装置28は、先ずフレーム単位で予測残差絶対値和の出力の有無を判断する。予測残差絶対値和データを出力する時は、該当ブロック位置と予測残差絶対値和を付加情報として出力する。その付加情報を示すビット列は、例えば算術符号化等で圧縮し、ごく短い符号に変換した形で動画像復号装置28へ出力する。   In the sixth embodiment, in the above case, the moving image coding apparatus 1201 outputs the prediction residual absolute value sum only for the corresponding block in addition to the normal coded data. An identification flag indicating that the frame includes the corresponding block is added before the prediction residual absolute value sum data. The moving picture decoding device 28 first determines whether or not the prediction residual absolute value sum is output for each frame. When outputting the prediction residual absolute value sum data, the corresponding block position and the prediction residual absolute value sum are output as additional information. The bit string indicating the additional information is compressed by, for example, arithmetic coding or the like, and is output to the video decoding device 28 in a form converted into a very short code.

図16は、実施の形態6に係る動画像符号化装置の構成図である。なお、図16の動画像符号化装置1601は、図12の動画像符号化装置1201に相当する。図16において、動画像符号化装置1601は、動画像符号化部1302、切替器1304、予測残差絶対値和伝送判定部1605、ビット列生成部1606を備えている。また、動画像符号化部1302は、メモリ1303を備える。予測残差絶対値和伝送判定部1605、ビット列生成部1506が付加情報生成部である。   FIG. 16 is a configuration diagram of a video encoding apparatus according to Embodiment 6. Note that the moving picture coding apparatus 1601 in FIG. 16 corresponds to the moving picture coding apparatus 1201 in FIG. In FIG. 16, the moving image encoding device 1601 includes a moving image encoding unit 1302, a switch 1304, a prediction residual absolute value sum transmission determination unit 1605, and a bit string generation unit 1606. The moving image encoding unit 1302 includes a memory 1303. The prediction residual absolute value sum transmission determination unit 1605 and the bit string generation unit 1506 are additional information generation units.

次に、動画像符号化装置1601の動作について説明する。動画像符号化装置1301は、動画像符号化部1302への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。一方、予測残差絶対値和伝送判定部1605にも入力画像の入力1307を行い、メモリ1303を参照して符号化内容を把握し、補間フレームを仮生成し、補間されたフレームと略同時刻の入力画像とをブロック毎に比較し、著しく画質が落ちていないかどうか判定する。画質の落ちているブロックがあれば補間フレーム上の予測残差絶対値和の補正により画質が改善されるかどうか判定を行うことで、予測残差絶対値和を送る必要があるかどうかを判定する。その結果、1ブロックでも予測残差絶対値和を送る必要があれば、出力1309でビット列生成部1606にブロック位置と出力すべき動きベクトル値を伝え、同時に出力1308で切替機1304のスイッチを下側に切り替える。ビット列生成部1606では、出力1309で予測残差絶対値和伝送判定部1605からのデータを受け取り、そのデータに関して適切な圧縮等を行い、動画像復号装置28へ出力する。出力が終わったところで、切替器1304のスイッチを上側に戻す。   Next, the operation of the moving image encoding device 1601 will be described. The video encoding device 1301 performs encoding by input 1307 of the input image to the video encoding unit 1302, and then outputs the video encoded data 1 to the video decoding device 28. On the other hand, the input 1307 of the input image is also input to the prediction residual absolute value sum transmission determination unit 1605, the encoded contents are grasped by referring to the memory 1303, an interpolated frame is provisionally generated, and approximately the same time as the interpolated frame. Are compared for each block, and it is determined whether or not the image quality is significantly deteriorated. If there is a block with poor image quality, determine whether it is necessary to send the sum of the predicted residual absolute values by determining whether the image quality is improved by correcting the predicted residual absolute value sum on the interpolation frame To do. As a result, if it is necessary to send the prediction residual absolute value sum even for one block, the block position and the motion vector value to be output are transmitted to the bit string generation unit 1606 at the output 1309, and at the same time, the switch 1304 is switched off at the output 1308. Switch to the side. The bit string generation unit 1606 receives data from the prediction residual absolute value sum transmission determination unit 1605 at the output 1309, performs appropriate compression on the data, and outputs the data to the video decoding device 28. When the output is finished, the switch of the switch 1304 is returned to the upper side.

以上のように、この実施の形態6によれば、動画像符号化装置1601には入力画像があるため、符号化を行ったデータを用いて補間フレームを仮生成して入力画像との比較を行うことで、通常の動きベクトル推定コア部の処理では著しく画質の低いブロックを含む補間フレームを調べることが可能であるため、このような第4の補間アシストで補間フレーム上の該当ブロックにおける予測残差絶対値和を出力することにより、フレーム補間処理されたフレームの画質向上が期待できる効果がある。   As described above, according to the sixth embodiment, since the moving image encoding apparatus 1601 has an input image, an interpolated frame is provisionally generated using the encoded data and compared with the input image. By doing so, it is possible to examine an interpolation frame including a block with extremely low image quality in the processing of the normal motion vector estimation core unit. Therefore, with such fourth interpolation assist, the prediction remaining in the corresponding block on the interpolation frame can be checked. By outputting the sum of absolute differences, there is an effect that the image quality of the frame subjected to the frame interpolation process can be expected.

なお、上記実施の形態3〜6に示した第1〜第4の補間アシストを行う場合、付加情報の種別を示す種別フラグを付加情報の前等に付加することで、付加情報種別を出力する手段とする。   When the first to fourth interpolation assists described in the third to sixth embodiments are performed, the additional information type is output by adding a type flag indicating the type of additional information to the front of the additional information. Means.

実施の形態7.
以下、この発明の実施の形態7について説明する。実施の形態7では、図12の動画像符号化装置1201が第5の補間アシスト(符号化画像上の動きベクトルの制限)を行う。動画像符号化装置1201は、符号化する際、フレーム外を参照する動きベクトルを使用しないようにする。
Embodiment 7 FIG.
The seventh embodiment of the present invention will be described below. In the seventh embodiment, the moving picture coding apparatus 1201 of FIG. 12 performs the fifth interpolation assist (limitation of motion vectors on the coded picture). When encoding, the moving image encoding device 1201 does not use a motion vector that references the outside of the frame.

図17は、実施の形態7に係る動画像符号化装置の構成図である。なお、図17の動画像符号化装置1701は、図12の動画像符号化装置1201に相当する。図17における動画像符号化装置1701は、動画像符号化部1702を備えている。また、動画像符号化部1702は動き探索部1703を備える。   FIG. 17 is a configuration diagram of a video encoding apparatus according to Embodiment 7. Note that the video encoding device 1701 in FIG. 17 corresponds to the video encoding device 1201 in FIG. The moving picture coding apparatus 1701 in FIG. 17 includes a moving picture coding unit 1702. In addition, the moving image encoding unit 1702 includes a motion search unit 1703.

次に、動画像符号化部1701の動作について説明する。動画像符号化装置1701は、動画像符号化部1702への入力画像の入力1307により符号化を行った後、動画像復号装置28へ動画像符号化データ1を出力する。動画像符号化部1702における符号化処理において、動き探索部1703は、フレーム外を参照する動きベクトルを発生させないような動き探索を行い、動画像符号化データ1の生成を行う。   Next, the operation of the moving image encoding unit 1701 will be described. The video encoding device 1701 performs encoding by input 1307 of the input image to the video encoding unit 1702, and then outputs the video encoded data 1 to the video decoding device 28. In the encoding process in the moving image encoding unit 1702, the motion search unit 1703 performs a motion search so as not to generate a motion vector that refers to the outside of the frame, and generates the encoded moving image data 1.

以上のように、この実施の形態7によれば、フレーム外を参照する動きベクトルを使用しないように符号化を行うことにより、フレーム補間処理における参照画像が、少なくとも前後どちらかは確保できるという効果がある。   As described above, according to the seventh embodiment, it is possible to secure at least one of the reference images in the frame interpolation process by performing encoding so as not to use the motion vector that refers to the outside of the frame. There is.

実施の形態8.
以下、この発明の実施の形態8について説明する。実施の形態8では、実施の形態1及び実施の形態2における動きベクトル推定コア部305の別処理について述べる。その他の構成は実施の形態1と同様であるので説明を省略する。図18、図19にそれぞれ詳細を記載した。
Embodiment 8 FIG.
The eighth embodiment of the present invention will be described below. In the eighth embodiment, another process of the motion vector estimation core unit 305 in the first and second embodiments will be described. Since other configurations are the same as those of the first embodiment, description thereof is omitted. Details are shown in FIGS. 18 and 19, respectively.

先ず、実施の形態1における動きベクトル推定コア部305の処理と別処理(実施の形態8における処理)について述べる。図18は、実施の形態8におけるMVDを用いた重み推定の説明図1である。
図18において、補間画像(補間フレーム)上での処理該当ブロックxにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態1で示した数式3と同様である。数式3における重みφiの計算式が実施の形態1(数式4)とは異なり、下記の数式9のような計算式で計算を行う。

Figure 2006279917
First, a process different from the process of the motion vector estimation core unit 305 in the first embodiment (the process in the eighth embodiment) will be described. FIG. 18 is an explanatory diagram 1 of weight estimation using MVD in the eighth embodiment.
In FIG. 18, the calculation formula of the reference vector d f (x, t) with respect to Frame t−1 in the processing target block x on the interpolation image (interpolation frame) is the same as Formula 3 shown in the first embodiment. is there. The calculation formula of the weight φ i in Formula 3 is different from that in Embodiment 1 (Formula 4), and the calculation is performed by the calculation formula as Formula 9 below.
Figure 2006279917

数式9の分母は数式4の分母と同様であり、viにおける予測残差絶対値和を表す。分子の部分p(ki)が数式4の分子と異なる部分であり、p(x)はx-1に依存するような非線形関数であり、kiはMVD(Motion Vector Difference:動きベクトル差分値)のベクトルの大きさである。p(ki)の部分は全体としてはMVDの大きさの逆数を表す。 The denominator of Equation 9 is the same as the denominator of Equation 4, and represents the predicted residual absolute value sum in v i . The numerator part p (k i ) is different from the numerator of Equation 4, p (x) is a non-linear function that depends on x −1 , and k i is an MVD (Motion Vector Difference): motion vector difference value ) Vector size. portion of p (k i) as a whole represents the inverse of the magnitude of the MVD.

p(x)はx-1に依存するような非線形関数であるが、実際の応用においては割り算の演算量が大きい場合もあるので、xとp(x)とを1対1に対応させたテーブルをルックアップすることで、xからp(x)を算出することも考えられる。 p (x) is a non-linear function that depends on x −1 , but in actual applications, the amount of division may be large, so x and p (x) are made to correspond one-to-one. It is also conceivable to calculate p (x) from x by looking up the table.

MVDの大きさはベクトルの孤立度を表し、MVDが大きいほど孤立度が大きい可能性が高いので、重みφiの計算式(数式9)にMVDの大きさの逆数を取り入れることにより、孤立したベクトルの重みを小さくできる効果がある。孤立したベクトルは信頼性が低い確率が高いという推定が根拠である。孤立したベクトルの重みを小さくすることにより、ベクトルの推定精度を向上させる効果がある。 The magnitude of the MVD represents the degree of isolation of the vector, and the higher the MVD, the higher the possibility of the degree of isolation. Therefore, by incorporating the reciprocal of the size of the MVD in the calculation formula (equation 9) of the weight φ i This has the effect of reducing the vector weight. The reason is that the isolated vector has a high probability of low reliability. By reducing the weight of an isolated vector, there is an effect of improving the vector estimation accuracy.

また、MVDは、例えばMPEG−4の場合は、符号化データに記述された値をそのまま用いることが可能であるため、演算量が少なくて済むという効果もある。   In the case of MPEG-4, for example, the value described in the encoded data can be used as it is in the case of MVD, so that the amount of calculation can be reduced.

ここまでが実施の形態1における動きベクトル推定コア部305の別の処理についての記述である。
次に実施の形態2における動きベクトル推定コア部305の別処理(実施の形態8の処理)について述べる。図19は、実施の形態8におけるMVDを用いた重み推定の説明図2である。
This is the description of the other processing of the motion vector estimation core unit 305 in the first embodiment.
Next, another process (the process of the eighth embodiment) of the motion vector estimation core unit 305 in the second embodiment will be described. FIG. 19 is an explanatory diagram 2 of weight estimation using MVD in the eighth embodiment.

図19において、補間画像上での処理該当ブロックxにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態2で示した数式5と同様である。更に、数式5における重みφi(m),φi(n)の計算式も、実施の形態2で示した数式6と同様である。数式6におけるgi(m),gi(n)の計算式が実施の形態2(数式7)とは異なり、下記の数式10のように行う。

Figure 2006279917
In FIG. 19, the calculation formula of the reference vector d f (x, t) for Frame t−1 in the processing target block x on the interpolation image is the same as Formula 5 shown in the second embodiment. Furthermore, the calculation formulas of the weights φ i (m) and φ i (n) in Formula 5 are the same as those in Formula 6 shown in the second embodiment. Unlike the second embodiment (Equation 7), the calculation equations of g i (m) and g i (n) in Equation 6 are performed as shown in Equation 10 below.
Figure 2006279917

数式10におけるh(σd(m)),h(σd(n))は実施の形態2と同じ意味であり、分散の逆数に依存するファクタである。p(ki)は、数式9と同じ意味であり、MVDの大きさの逆数に依存するファクタである。実際の応用においては割り算の演算量が大きい場合もあるので、xとh(x)とを1対1に対応させたテーブルをルックアップすることで、xからh(x)を算出することも考えられるし、iの値に応じてテーブルを切り替える等して、同様に直接gi(x)自体をテーブルルックアップすることも考えられる。 In Expression 10, h (σ d (m)) and h (σ d (n)) have the same meaning as in the second embodiment and are factors depending on the reciprocal of the variance. p (k i) has the same meaning as Equation 9, a factor which depends on the reciprocal of the size of the MVD. In an actual application, the calculation amount of division may be large. Therefore, it is possible to calculate h (x) from x by looking up a table in which x and h (x) correspond one-to-one. It is conceivable that g i (x) itself is directly looked up by switching the table in accordance with the value of i .

実施の形態2に更にMVDのファクタを加味することにより、実施の形態1にMVDのファクタを加味するよりも更に参照ベクトルdf(x,t)の推定精度を向上させる効果がある。 By adding the MVD factor to the second embodiment, there is an effect of improving the estimation accuracy of the reference vector d f (x, t) more than adding the MVD factor to the first embodiment.

以上のように、この実施の形態8によれば、実施の形態1または実施の形態2に対してMVDのファクタを加味することにより、参照ベクトルdf(x,t)の推定精度を更に向上させることができる。
また、MVDについては、採用する標準規格によっては符号化データ内の数値をそのまま利用できるため、演算量が減少するという効果がある。
As described above, according to the eighth embodiment, the estimation accuracy of the reference vector d f (x, t) is further improved by adding the MVD factor to the first or second embodiment. Can be made.
Also, for MVD, depending on the standard adopted, the numerical value in the encoded data can be used as it is, which has the effect of reducing the amount of calculation.

実施の形態9.
以下、この発明の実施の形態9について説明する。実施の形態9では、実施の形態1及び実施の形態2における動きベクトル推定コア部305の別の処理について述べる。その他の構成は実施の形態1と同様であるので説明を省略する。図20、図21にそれぞれ詳細を記載した。
Embodiment 9 FIG.
The ninth embodiment of the present invention will be described below. In the ninth embodiment, another process of the motion vector estimation core unit 305 in the first and second embodiments will be described. Since other configurations are the same as those of the first embodiment, description thereof is omitted. Details are shown in FIGS. 20 and 21, respectively.

先ず、実施の形態1における動きベクトル推定コア部305の別の処理について述べる。図20は、実施の形態9におけるラプラシアン値を用いた重み推定の説明図1である。
図20において、補間画像上での処理該当ブロックにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態1で示した数式3と同様である。数式3における重みφiの計算式が実施の形態1(数式4)とは異なり、下記の数式11のような計算式で計算を行う。

Figure 2006279917
First, another process of the motion vector estimation core unit 305 in the first embodiment will be described. FIG. 20 is an explanatory diagram 1 of weight estimation using a Laplacian value in the ninth embodiment.
In FIG. 20, the calculation formula of the reference vector d f (x, t) with respect to Frame t−1 in the processing corresponding block on the interpolated image is the same as Formula 3 shown in the first embodiment. The calculation formula of the weight φ i in Formula 3 is different from that in Embodiment 1 (Formula 4), and the calculation is performed by the calculation formula as Formula 11 below.
Figure 2006279917

数式11の分母は数式4の分母と同様であり、viにおける予測残差絶対値和を表す。分子の部分z(li)が数式4の分子と異なる部分であり、z(x)はx-1に依存するような非線形関数であり、liは以下の数式12で表される、ラプラシアン値の大きさである。z(li)の部分は全体としてはラプラシアン値の大きさの逆数を表す。

Figure 2006279917
The denominator of Expression 11 is the same as the denominator of Expression 4, and represents the sum of absolute values of prediction residuals in v i . The part of the molecule z (l i ) is different from the numerator of Equation 4, z (x) is a nonlinear function that depends on x −1 , and l i is a Laplacian expressed by Equation 12 below. The magnitude of the value. The portion of z (l i ) represents the reciprocal of the Laplacian value as a whole.
Figure 2006279917

z(x)はx-1に依存するような非線形関数であるが、実際の応用においては割り算の演算量が大きい場合もあるので、xとz(x)とを1対1に対応させたテーブルをルックアップすることで、xからz(x)を算出することも考えられる。 Although z (x) is a non-linear function that depends on x −1 , in some practical applications, the amount of division may be large, so x and z (x) are made to correspond one-to-one. It is also conceivable to calculate z (x) from x by looking up the table.

ラプラシアン値の大きさはベクトルの孤立度を表し、ラプラシアン値が大きいほど孤立度が大きいので、このように重みφiの計算式にラプラシアン値の大きさの逆数を取り入れることにより、孤立したベクトルの重みを小さくできる効果がある。孤立したベクトルは信頼性が低い確率が高いという推定が根拠である。孤立したベクトルの重みを小さくすることにより、ベクトルの推定精度を向上させる効果がある。 The size of the Laplacian value represents the isolation of the vector, since a large isolated degree higher the Laplacian value, by incorporating the size inverse of the Laplacian value to the formula of the thus weighted phi i, the isolated vector There is an effect of reducing the weight. The reason is that the isolated vector has a high probability of low reliability. By reducing the weight of an isolated vector, there is an effect of improving the vector estimation accuracy.

また、実施の形態8におけるMVDと実施の形態9におけるラプラシアン値の違いとしては、ラプラシアン値は演算量がMVDより大きくなってしまうが、ラプラシアン値の方がMVDより推定精度向上が大きい効果がある。   The difference between the MVD in the eighth embodiment and the Laplacian value in the ninth embodiment is that the Laplacian value has a larger calculation amount than the MVD, but the Laplacian value has an effect that the estimation accuracy is improved more than the MVD. .

ラプラシアン値の各成分であるli(m),li(n)の計算方法に関しては、図22に詳細を記述した。図22は、実施の形態9におけるラプラシアン値の算出方法の説明図である。図22の領域Rにおける中心ブロックのラプラシアン値であるl4(m),l4(n)に関し、それぞれ数式13のように計算を行う。

Figure 2006279917
Details of the calculation method of l i (m) and l i (n), which are components of the Laplacian value, are described in FIG. FIG. 22 is an explanatory diagram of a Laplacian value calculation method according to the ninth embodiment. With respect to l 4 (m) and l 4 (n), which are Laplacian values of the central block in the region R in FIG.
Figure 2006279917

そして、画像内全ての領域Rに関し、この数式13の計算を行うことにより、全てのブロックのラプラシアン値を算出することで、任意のRにおけるli(m),li(n)(0≦i≦8)を算出できる。 Then, with respect to all the regions R in the image, the Laplacian values of all the blocks are calculated by performing the calculation of Equation 13, so that l i (m), l i (n) (0 ≦ i ≦ 8) can be calculated.

ここまでが実施の形態1における動きベクトル推定コア部305の別の処理についての記述である。
次に実施の形態2における動きベクトル推定コア部305の別の処理について述べる。図21は、実施の形態9におけるラプラシアン値を用いた重み推定の説明図1である。
This is the description of the other processing of the motion vector estimation core unit 305 in the first embodiment.
Next, another process of the motion vector estimation core unit 305 in the second embodiment will be described. FIG. 21 is an explanatory diagram 1 of weight estimation using a Laplacian value in the ninth embodiment.

図21において、補間画像上での処理該当ブロックにおける、Frame t−1に対する参照ベクトルdf(x,t)の計算式は、実施の形態2で示した数式5と同様である。更に、数式5における重みφi(m),φi(n)の計算式も、実施の形態2で示した数式6と同様である。数式6におけるgi(m),gi(n)の計算式が実施の形態2(数式7)とは異なり、下記の数式14や数式15のように行う。

Figure 2006279917
Figure 2006279917
In FIG. 21, the calculation formula of the reference vector d f (x, t) for Frame t−1 in the processing block on the interpolation image is the same as Formula 5 shown in the second embodiment. Furthermore, the calculation formulas of the weights φ i (m) and φ i (n) in Formula 5 are the same as those in Formula 6 shown in the second embodiment. The calculation formulas g i (m) and g i (n) in Formula 6 are different from those in Embodiment 2 (Formula 7), and are performed as shown in Formula 14 and Formula 15 below.
Figure 2006279917
Figure 2006279917

数式14は分散を用いない場合であり、数式15は分散を用いる場合である。数式15におけるh(σd(m)),h(σd(n))は実施の形態2と同じ意味であり、分散の逆数に依存するファクタである。z(|li(m)|),z(|li(n)|)は、数式13のz(li)と同じ意味であり、ラプラシアン値の大きさの逆数に依存するファクタである。実際の応用においては割り算の演算量が大きい場合もあるので、xとh(x)とを1対1に対応させたテーブルをルックアップすることで、xからh(x)を算出することも考えられるし、iの値に応じてテーブルを切り替える等して、同様に直接gi(x)自体をテーブルルックアップすることも考えられる。 Expression 14 is a case where dispersion is not used, and Expression 15 is a case where dispersion is used. In Expression 15, h (σ d (m)) and h (σ d (n)) have the same meaning as in the second embodiment and are factors depending on the reciprocal of the variance. z (| l i (m) |) and z (| l i (n) |) have the same meaning as z (l i ) in Equation 13, and are factors that depend on the inverse of the Laplacian value. . In an actual application, the calculation amount of division may be large. Therefore, it is possible to calculate h (x) from x by looking up a table in which x and h (x) correspond one-to-one. It is conceivable that g i (x) itself is directly looked up by switching the table in accordance with the value of i .

実施の形態2で示した分散も利用する方法に対し、更にラプラシアン値のファクタを加味する数式15のような計算を行うことにより、実施の形態1のように分散を利用しない方法に対しラプラシアン値のファクタを加味するよりも更に参照ベクトルdf(x,t)の推定精度を向上させる効果がある。 In contrast to the method that also uses the variance shown in the second embodiment, the Laplacian value is compared to the method that does not use the variance as in the first embodiment by performing a calculation like Equation 15 that further considers the factor of the Laplacian value. There is an effect that the estimation accuracy of the reference vector d f (x, t) is further improved compared with the above factor.

その他にも、各ブロックの複雑度により重み付け演算する方法も考えられる。ブロックの複雑度が高いほどベクトルの信頼性が大きいことに基づく方法である。複雑度は例えば、画素の輝度値の分散値とし、複雑度が大きいほど重みを重くする方法である。   In addition, a method of performing a weighting operation according to the complexity of each block is also conceivable. This is based on the fact that the higher the block complexity, the greater the reliability of the vector. For example, the complexity is a dispersion value of the luminance value of the pixel, and the weight is increased as the complexity increases.

以上のように、この実施の形態9によれば、実施の形態1または実施の形態2に対してラプラシアン値のファクタを加味することにより、参照ベクトルdf(x,t)の推定精度を更に向上させることができる。 As described above, according to the ninth embodiment, the estimation accuracy of the reference vector d f (x, t) is further increased by adding the factor of the Laplacian value to the first or second embodiment. Can be improved.

実施の形態10.
以下、この発明の実施の形態10について説明する。実施の形態10では、実施の形態1、実施の形態2、実施の形態8、実施の形態9で計算された輝度ベクトル推定結果を用いて色差ベクトル推定を行う手法について述べる。図23に詳細を記載した。図23は、実施の形態10における色差ベクトルの推定の説明図である。
Embodiment 10 FIG.
The tenth embodiment of the present invention will be described below. In the tenth embodiment, a method of performing color difference vector estimation using the luminance vector estimation results calculated in the first embodiment, the second embodiment, the eighth embodiment, and the ninth embodiment will be described. Details are shown in FIG. FIG. 23 is an explanatory diagram of estimation of a color difference vector in the tenth embodiment.

図23において、実施の形態1、実施の形態2、実施の形態8、実施の形態9で得られた、あるマクロブロックにおける、各ブロックの輝度ベクトルの推定結果をそれぞれdf1〜df4とし、その結果を用いて当該マクロブロックの色差ベクトルdfcを数式16のように計算する。

Figure 2006279917
In FIG. 23, the estimation results of the luminance vector of each block in a certain macroblock obtained in the first embodiment, the second embodiment, the eighth embodiment, and the ninth embodiment are d f1 to d f4 , respectively. Using the result, the color difference vector d fc of the macroblock is calculated as in Expression 16.
Figure 2006279917

以上のように、この実施の形態10によれば、輝度ベクトルの推定結果から色差ベクトルの推定を行うことにより、補間画像をカラー化することが可能となる効果がある。   As described above, according to the tenth embodiment, it is possible to colorize an interpolation image by estimating a color difference vector from a luminance vector estimation result.

実施の形態11.
以下、この発明の実施の形態11について説明する。実施の形態11では、実施の形態1における図4のステップST104における別の処理について述べる。その他の構成は実施の形態1と同様であるので説明を省略する。図24に詳細を記載した。図24は、実施の形態11における量子化係数値による補間重み付けの説明図である。
Embodiment 11 FIG.
The eleventh embodiment of the present invention will be described below. In the eleventh embodiment, another process in step ST104 of FIG. 4 in the first embodiment will be described. Since other configurations are the same as those of the first embodiment, description thereof is omitted. Details are shown in FIG. FIG. 24 is an explanatory diagram of interpolation weighting using quantization coefficient values in the eleventh embodiment.

実施の形態1におけるステップST104の処理は、数式1や数式2で示される単純加算平均であったが、本実施の形態においては、復号画像における全マクロブロックの量子化係数の平均値を用いて重み付け加算する。Frame t−1における量子化係数の平均値をq(t−1)、Frame t+1における量子化係数の平均値をq(t+1)とし、数式17のように、を求めるための重み付け計算を行う。

Figure 2006279917
The process of step ST104 in the first embodiment is a simple addition average represented by Equation 1 and Equation 2, but in this embodiment, the average value of the quantization coefficients of all macroblocks in the decoded image is used. Add weight. The average value of the quantization coefficient in Frame t−1 is q (t−1), the average value of the quantization coefficient in Frame t + 1 is q (t + 1), and weighting calculation is performed to obtain Equation (17).
Figure 2006279917

以上のように、この実施の形態11によれば、数式17のように重み付けの計算を行うことで、量子化係数の小さい画像、つまり画質のよい復号画像により大きな重みがかかるため、補間フレームとしても画質が向上する効果がある。   As described above, according to the eleventh embodiment, by performing the weighting calculation as in Expression 17, a larger weight is applied to an image with a small quantization coefficient, that is, a decoded image with good image quality. Also has the effect of improving image quality.

実施の形態12.
以下、この発明の実施の形態12について説明する。実施の形態12では、補間フレームにおける端のブロックの処理に関して記述を行う。図25に概要を記載する。図25は、実施の形態12における端に位置するブロックの処理方法の説明図である。
Embodiment 12 FIG.
The twelfth embodiment of the present invention will be described below. In the twelfth embodiment, description will be made regarding processing of an end block in an interpolation frame. An overview is shown in FIG. FIG. 25 is an explanatory diagram of a method for processing a block located at an end according to the twelfth embodiment.

端のブロックは、推定された輝度ベクトル次第であるが、両方向補間を行うと片方のベクトルが画面外を指すことが多く、それが画質低下の原因になることがある。
片方のベクトルが画面外を指した場合は、画面内を指す推定ベクトルのみを用いて片方向補間を行う方法が考えられるが、画面内を指すベクトルが存在しない場合もある。
The end block depends on the estimated luminance vector. However, when bi-directional interpolation is performed, one of the vectors often points outside the screen, which may cause deterioration in image quality.
When one of the vectors points outside the screen, a method of performing one-way interpolation using only the estimated vector pointing inside the screen is conceivable, but there may be a case where no vector pointing inside the screen exists.

そこで、図25に示すように、画面の端に位置するブロックの補間は行わず、表示直前の段階にて黒で埋める方法、或いは、端に位置するブロックそのものを表示しないようにする方法が考えられる。また、端に位置するブロックを表示しないようにした上で、ある所定の色で枠線を引く等の手段も考えられる。   Therefore, as shown in FIG. 25, there is a method in which the block located at the edge of the screen is not interpolated and is filled with black immediately before display, or the block located at the edge itself is not displayed. It is done. In addition, it is possible to consider a method of drawing a frame line with a certain predetermined color after the block located at the end is not displayed.

以上のように、この実施の形態12によれば、図25のように端に位置するブロックを処理することで、実質的な解像度は小さくなるものの、画質は向上する効果がある。   As described above, according to the twelfth embodiment, processing the block located at the end as shown in FIG. 25 has an effect of improving the image quality although the substantial resolution is reduced.

実施の形態13.
以下、この発明の実施の形態13について説明する。実施の形態13では、補間フレームを作成するか否かを予め動画像符号化データの情報から判断する方法と、補間しない場合の処理について記述する。図26、図27、図28に詳細を記述した。
Embodiment 13 FIG.
The thirteenth embodiment of the present invention will be described below. In the thirteenth embodiment, a method for determining in advance whether or not to create an interpolation frame from information of moving image encoded data and a process when no interpolation is performed will be described. Details are described in FIGS. 26, 27, and 28.

図26は、実施の形態13における補間画像を生成する場合としない場合の説明図である。図26は、動画像符号化データ(入力ストリーム)の情報から判断して、補間画像を生成する場合と生成しない場合とを示している。   FIG. 26 is an explanatory diagram of the case where the interpolation image is generated and not generated in the thirteenth embodiment. FIG. 26 shows a case where an interpolated image is generated and a case where it is not generated based on information of moving image encoded data (input stream).

補間すると判断された場合は、図26の左側に示す通り、実施の形態1、2、8、9のようなベクトル推定を行い、補間フレームの作成を行い、補間フレームの表示を行う。   When it is determined that the interpolation is performed, vector estimation as in the first, second, eighth, and ninth embodiments is performed as shown on the left side of FIG. 26, an interpolation frame is created, and the interpolation frame is displayed.

一方、補間しないと判断された場合は、図26の右側に示す通り、補間フレームを作成せず、Frame t−1の画像をそのままFrame tとして表示するか、或いは、Frame t−1の画像をそのまま表示しておき、Frame t+1まで表示を更新しない等の方法がある。   On the other hand, if it is determined not to interpolate, as shown on the right side of FIG. 26, the interpolated frame is not created and the frame t-1 image is displayed as it is as Frame t, or the frame t-1 image is displayed. There is a method of displaying as it is and not updating the display until Frame t + 1.

図27は、実施の形態13における補間画像を生成しない場合の判断材料の説明図である。図27は、補間画像を生成しない場合の条件を示している。例えば、左の図にあるように、ベクトルの分散が大きい領域Rが画像内に一つでも存在する場合は、補間フレームのその領域付近の画質が著しく低下する可能性があり、補間を行わないと判断する。   FIG. 27 is an explanatory diagram of determination materials when an interpolation image is not generated in the thirteenth embodiment. FIG. 27 shows conditions when an interpolation image is not generated. For example, as shown in the figure on the left, if there is even one region R with a large vector variance in the image, the image quality in the vicinity of that region of the interpolation frame may be significantly reduced, and no interpolation is performed. Judge.

また、予測差分絶対値和が大きいブロックが存在する場合は、符号化側で動き探索(ME)を行っているにもかかわらず予測差分絶対値和が大きいということになり、それはつまり該領域に似た画像が該領域近傍にないということになるので、該領域における画質が著しく低下する可能性があるため、補間を行わないと判断する。   In addition, when there is a block having a large prediction difference absolute value sum, the prediction difference absolute value sum is large even though motion search (ME) is performed on the encoding side. Since there is no similar image in the vicinity of the area, the image quality in the area may be significantly deteriorated. Therefore, it is determined that no interpolation is performed.

また別の例としては、例えばシーンチェンジのような、復号画像内にイントラMBが多い場合や、Frame t+1がI−VOP(Video Object Plane)である場合等に補間を行わないと判断する。   As another example, for example, when there are many intra MBs in the decoded image, such as a scene change, or when Frame t + 1 is I-VOP (Video Object Plane), it is determined that no interpolation is performed.

図28は、実施の形態13における、補間制御部を構成要素として追加した動画像復号装置のブロック図である。図28のブロック図は、図1に示した動画像復号装置のブロック図に補間制御部11201が追加された動画像復号装置である。図27のような補間するか補間しないかの判断を、動きベクトル保存用メモリ18や符号化モード情報保存メモリ19や、予測残差絶対値和保存メモリ20を参照しながら補間制御部11201で行い、タイミング26を制御して切り替え器24の制御を行う。   FIG. 28 is a block diagram of a moving picture decoding apparatus in which an interpolation control unit is added as a constituent element in the thirteenth embodiment. The block diagram of FIG. 28 is a video decoding device in which an interpolation control unit 11201 is added to the block diagram of the video decoding device shown in FIG. The interpolation control unit 11201 determines whether to interpolate or not interpolate as shown in FIG. 27 with reference to the motion vector storage memory 18, the coding mode information storage memory 19, and the prediction residual absolute value sum storage memory 20. The switch 24 is controlled by controlling the timing 26.

以上のように、この実施の形態13によれば、補間するか否かの判断をその都度行うことにより、補間しないと判断された場合には、補間を行った場合に著しく画質が低下する可能性のある補間フレームを表示しないので、結果としてトータルの画質を向上させる効果がある。   As described above, according to the thirteenth embodiment, by determining each time whether or not to interpolate, if it is determined not to interpolate, the image quality can be significantly lowered when interpolation is performed. As a result, there is an effect that the total image quality is improved.

実施の形態14.
以下、この発明の実施の形態14について説明する。実施の形態14では、可変フレームレートの動画像符号化データにおける補間方法を記述する。図29に概要を記載した。図29は、実施の形態14における可変フレームレートの動画像符号化データにおける補間方法の説明図である。
Embodiment 14 FIG.
The fourteenth embodiment of the present invention will be described below. In the fourteenth embodiment, an interpolation method for variable frame rate moving image encoded data is described. An outline is shown in FIG. FIG. 29 is an explanatory diagram of an interpolation method for variable frame rate moving image encoded data according to the fourteenth embodiment.

一般の符号化装置の動作として、伝送帯域の制限等からデータ量を帯域に納めるために、可変フレームレートの動画像符号化データを作成することはよくあることである。そのような可変フレームレートの動画像符号化データに対して補間を行う方法として、予め図29で示すAの値(表示レート情報)を符号化側から復号側へ送出しておく方法がある。
また、Aの値を符号化側と復号側を含めた全体システムとして予め決めておくことで、動画像符号化装置側と動画像復号装置側で共に既知としておき、その上で復号側はA fpsになるよう補間をするという方法がある。
或いは、Aの値を符号化側と復号側で共有する別の方法としては、例えば動画像符号化データの中にあるuser_data等の領域にAの値を格納し、符号化側から復号側へAの値を送出するという方法もある。
動画像符号化装置側では、必要に応じて、実際に符号化を行うフレーム画像を選択する符号化画像選択手段を備える。
動画像復号装置側では、必要に応じて、動画像符号化装置側からの表示レート情報を復号する表示レート復号手段を備えるものとする。
As an operation of a general encoding device, it is common to create moving image encoded data having a variable frame rate in order to fit the data amount in a band due to a limitation of a transmission band. As a method of performing interpolation for such variable frame rate moving image encoded data, there is a method in which the value A (display rate information) shown in FIG. 29 is sent from the encoding side to the decoding side in advance.
Also, by predetermining the value of A as the entire system including the encoding side and the decoding side, both the moving image encoding device side and the moving image decoding device side are known, and then the decoding side determines that A There is a method of performing interpolation so as to be fps.
Alternatively, as another method for sharing the value of A between the encoding side and the decoding side, for example, the value of A is stored in an area such as user_data in the moving image encoded data, and the encoding side transfers to the decoding side. There is also a method of sending the value of A.
The moving image encoding apparatus side includes an encoded image selection unit that selects a frame image to be actually encoded as necessary.
The moving picture decoding apparatus side includes display rate decoding means for decoding display rate information from the moving picture encoding apparatus side as necessary.

Aの値は、符号化側で例えば通常のカメラ等を用いた場合、カメラから動画像符号化装置へ入力される全ての画像が符号化画像の候補となる場合であれば、A=30となる。
また、例えば、もともと最大フレームレートをフレーム間隔固定の10fpsとするシステムであれば、A=10ということも考えられる。
For example, when a normal camera is used on the encoding side, the value of A is A = 30 if all images input from the camera to the moving image encoding apparatus are candidates for the encoded image. Become.
Also, for example, if the system originally has a maximum frame rate of 10 fps with a fixed frame interval, A = 10 may be considered.

補間方法としては実施の形態1の図8にて説明した形で、αの値を変化させて用いることで補間を行うことが可能である。   As an interpolation method, it is possible to perform interpolation by changing the value of α in the form described in FIG. 8 of the first embodiment.

以上のように、この実施の形態14によれば、可変フレームレートの動画像符号化データを固定フレームレートに補間することにより、単純にフレームの間を1枚補間するという方式と比較して、動きがより滑らかになるという効果がある。   As described above, according to the fourteenth embodiment, by interpolating variable frame rate moving image encoded data to a fixed frame rate, compared to a method of simply interpolating between frames, There is an effect that the movement becomes smoother.

実施の形態1に係る動画像復号装置の構成図である。1 is a configuration diagram of a moving picture decoding apparatus according to Embodiment 1. FIG. 実施の形態1において、通常フレーム同士の時間的な中間位置に、補間フレームの生成を行う場合を示す図である。In Embodiment 1, it is a figure which shows the case where an interpolation frame is produced | generated in the temporal intermediate position of normal frames. 図1の補間画像生成部の内部構成図である。It is an internal block diagram of the interpolation image generation part of FIG. 図3の補間画像生成部の処理フローを示したフローチャートである。It is the flowchart which showed the processing flow of the interpolation image generation part of FIG. 図4のステップST102における、「片方向補間」を示す図である。It is a figure which shows "one-way interpolation" in step ST102 of FIG. 図4のステップST104における、「両方向補間」を示す図である。It is a figure which shows "bidirectional interpolation" in step ST104 of FIG. 図3の動きベクトル推定コア部の動作を示した図である。It is the figure which showed operation | movement of the motion vector estimation core part of FIG. 実施の形態1における任意の時刻におけるフレーム補間の様子を示した図である。6 is a diagram showing a state of frame interpolation at an arbitrary time in Embodiment 1. FIG. 従来の動画像復号装置と実施の形態1に係る動画像復号装置の比較例を示した図である。It is the figure which showed the comparative example of the conventional moving image decoding apparatus and the moving image decoding apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る動画像符号化装置及び動画像復号装置を、MPEG−2の片フィールド補間に適用した例を示す図である。It is a figure which shows the example which applied the moving image encoding apparatus and moving image decoding apparatus which concern on Embodiment 1 to the one-field interpolation of MPEG-2. 実施の形態2に係る動画像復号装置の動きベクトル推定コア部の動作を示した図である。FIG. 11 is a diagram illustrating an operation of a motion vector estimation core unit of the video decoding device according to Embodiment 2. 実施の形態3に係る動画像符号化装置から動画像復号装置へのデータ出力を示す図である。It is a figure which shows the data output from the moving image encoding apparatus which concerns on Embodiment 3 to a moving image decoding apparatus. 実施の形態3に係る動画像符号化装置の構成図である。[Fig. 10] Fig. 10 is a configuration diagram of a video encoding device according to Embodiment 3. 実施の形態4に係る動画像符号化装置の構成図である。[Fig. 10] Fig. 10 is a configuration diagram of a moving image encoding device according to Embodiment 4. 実施の形態5に係る動画像符号化装置の構成図である。[Fig. 10] Fig. 10 is a configuration diagram of a moving image encoding device according to Embodiment 5. 実施の形態6に係る動画像符号化装置の構成図である。FIG. 10 is a configuration diagram of a video encoding apparatus according to Embodiment 6. 実施の形態7に係る動画像符号化装置の構成図である。FIG. 10 is a configuration diagram of a video encoding device according to Embodiment 7. 実施の形態8におけるMVDを用いた重み推定の説明図1である。FIG. 10 is an explanatory diagram 1 of weight estimation using MVD in an eighth embodiment. 実施の形態8におけるMVDを用いた重み推定の説明図2である。FIG. 10 is an explanatory diagram 2 of weight estimation using MVD in the eighth embodiment. 実施の形態9におけるラプラシアン値を用いた重み推定の説明図1である。FIG. 10 is an explanatory diagram 1 of weight estimation using a Laplacian value in the ninth embodiment. 実施の形態9におけるラプラシアン値を用いた重み推定の説明図2である。FIG. 20 is an explanatory diagram 2 of weight estimation using a Laplacian value in the ninth embodiment. 実施の形態9におけるラプラシアン値の算出方法の説明図である。FIG. 20 is an explanatory diagram of a Laplacian value calculation method according to the ninth embodiment. 実施の形態10における色差ベクトルの推定の説明図である。FIG. 20 is an explanatory diagram of color difference vector estimation in the tenth embodiment. 実施の形態11における量子化係数値による補間重み付けの説明図である。FIG. 38 is an explanatory diagram of interpolation weighting using quantization coefficient values in the eleventh embodiment. 実施の形態12における端に位置するブロックの処理方法の説明図である。218 is an explanatory diagram of a processing method of a block positioned at an end in Embodiment 12. [FIG. 実施の形態13における補間画像を生成する場合としない場合の説明図である。It is explanatory drawing when not producing | generating the interpolation image in Embodiment 13. FIG. 実施の形態13における補間画像を生成しない場合の判断材料の説明図である。FIG. 38 is an explanatory diagram of determination materials when an interpolation image is not generated in the thirteenth embodiment. 実施の形態13における、補間制御部を構成要素として追加した動画像復号装置のブロック図である。[Fig. 38] Fig. 38 is a block diagram of a video decoding device in which an interpolation control unit is added as a component in Embodiment 13. 実施の形態14における可変フレームレートの動画像符号化データにおける補間方法の説明図である。FIG. 38 is an explanatory diagram of an interpolation method for variable frame rate moving image encoded data according to the fourteenth embodiment.

符号の説明Explanation of symbols

1 動画像符号化データ、2 可変長復号部、3 動きベクトル、4 符号化モード情報、5 直交変換係数データ、6 量子化ステップパラメータ、7 逆量子化部、8 逆直交変換部、9 切替器、10 動き補償部、11 フレームメモリ、12 予測画像、13 加算部、14 復号画像、15 出力、16 出力、17 補間画像生成部、18 動きベクトル保存用メモリ、19 符号化モード情報保存用メモリ、20 予測残差絶対値和保存用メモリ、21 出力、22 出力、23 出力、24 切替器、25 画像出力、26 タイミング、27 出力、28 動画像復号装置、301 動きベクトル推定部、302 補間画像生成部、303 出力、304 出力、305 動きベクトル推定コア部、1301 動画像符号化装置、1302 動画像符号化部、1303 メモリ、1304 切替器、1305 最適参照画像判定部、1306 ビット列生成部、1307 入力、1308 出力、1309 出力、1401 動画像符号化装置、1405 予測残差伝送判定部、1406 ビット列生成部、1501 動画像符号化装置、1505 動きベクトル伝送判定部、1506 ビット列生成部、1601 動画像符号化装置、1605 予測残差絶対値和伝送判定部、1606 ビット列生成部、1701 動画像符号化装置、1702 動画像符号化部、1703 動き探索部、11201 補間制御部。
DESCRIPTION OF SYMBOLS 1 Video coding data, 2 Variable length decoding part, 3 Motion vector, 4 Coding mode information, 5 Orthogonal transformation coefficient data, 6 Quantization step parameter, 7 Inverse quantization part, 8 Inverse orthogonal transformation part, 9 Switch 10 motion compensation unit, 11 frame memory, 12 predicted image, 13 addition unit, 14 decoded image, 15 output, 16 output, 17 interpolated image generation unit, 18 motion vector storage memory, 19 encoding mode information storage memory, 20 Prediction residual absolute value sum storage memory, 21 output, 22 output, 23 output, 24 switch, 25 image output, 26 timing, 27 output, 28 video decoding device, 301 motion vector estimation unit, 302 interpolated image generation Unit, 303 output, 304 output, 305 motion vector estimation core unit, 1301 moving image encoding device, 1302 moving image encoding unit, 1303 1304 switching unit, 1305 optimal reference image determination unit, 1306 bit string generation unit, 1307 input, 1308 output, 1309 output, 1401 moving image encoding device, 1405 prediction residual transmission determination unit, 1406 bit string generation unit, 1501 moving image Coding apparatus, 1505 motion vector transmission determination unit, 1506 bit string generation unit, 1601 video encoding apparatus, 1605 prediction residual absolute value sum transmission determination unit, 1606 bit string generation unit, 1701 video encoding apparatus, 1702 video code Conversion unit, 1703 motion search unit, 11201 interpolation control unit.

Claims (22)

動画像符号化データを解析してブロック単位の符号化シンボルを抽出する解析手段と、
前記符号化シンボルを用いて動画像の各フレームを復元して出力する復号手段と、
前記符号化シンボルに基づいて、補間フレームの生成方法と補間フレームの動きベクトルとを推定して、前記補間フレームを生成する画像生成部と、
前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを所定の規則で切り替える切替器とを備えた動画像復号装置。
Analysis means for analyzing moving image encoded data and extracting encoded symbols in units of blocks;
Decoding means for restoring and outputting each frame of the moving image using the encoded symbol;
An image generation unit that generates an interpolation frame by estimating an interpolation frame generation method and an interpolation frame motion vector based on the encoded symbol;
A moving picture decoding apparatus comprising: a switching unit that switches a moving picture output from the decoding unit and an interpolation frame output from the image generation unit according to a predetermined rule.
前記符号化シンボルが動きベクトルと符号化モード情報と予測残差とを含み、
前記画像生成部が、
前記符号化モード情報に従って、前記復号手段から得られる動画像フレームのうち少なくとも1つ以上の動画像フレームを参照画像として選択する第1のステップと、
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、予測残差の逆数を重みに用い、動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行なう第2のステップと、
前記参照ベクトルにより、前記参照画像の参照位置にある画素を用いて前記補間フレームを生成する第3のステップとを備えることを特徴とする請求項1記載の動画像復号装置。
The encoded symbol includes a motion vector, encoding mode information, and a prediction residual;
The image generator
A first step of selecting at least one moving image frame as a reference image from among the moving image frames obtained from the decoding unit according to the encoding mode information;
In the calculation target block on the reference image and its neighboring blocks, the reciprocal of the prediction residual is used as a weight, the weighted average calculation for each component of the motion vector is performed, and scaling is performed according to the temporal position of the interpolation frame. Performing a second step of estimating a motion vector of the interpolated frame indicating a reference position of the reference image;
The moving image decoding apparatus according to claim 1, further comprising: a third step of generating the interpolation frame using a pixel at a reference position of the reference image based on the reference vector.
前記第2のステップにおいて、
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、動きベクトルの分散値を計算し、前記計算対象ブロックに関しては予測残差の逆数と前記分散値の逆数との積を重みに用い、前記周辺のブロックに関しては前記予測残差の逆数を重みに用い、前記動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行なうことを特徴とする請求項2記載の動画像復号装置。
In the second step,
A variance value of a motion vector is calculated in the calculation target block on the reference image and its neighboring blocks, and for the calculation target block, a product of the reciprocal of the prediction residual and the reciprocal of the variance value is used as a weight, For the neighboring blocks, the inverse of the prediction residual is used as a weight, weighted average calculation is performed for each component of the motion vector, and scaling is performed according to the temporal position of the interpolated frame, so that the reference image 3. The moving picture decoding apparatus according to claim 2, wherein a motion vector of the interpolation frame indicating a reference position is estimated.
前記動きベクトルを保存する動きベクトル保存用メモリと、
前記符号化モード情報を保存する符号化モード情報保存用メモリと、
前記予測残差を保存する予測残差絶対値和保存用メモリとを備えることを特徴とする請求項2または請求項3記載の動画像復号装置。
A motion vector storage memory for storing the motion vector;
A memory for storing encoding mode information for storing the encoding mode information;
4. The moving picture decoding apparatus according to claim 2, further comprising a prediction residual absolute value sum storage memory for storing the prediction residual.
動画像符号化データを解析してブロック単位の符号化シンボルを抽出する第1の解析手段と、
前記画像生成部を補助するための情報を含むデータを解析する第2の解析手段と、
前記符号化シンボルを用いて動画像の各フレームを復元して出力する復号手段と、
前記符号化シンボルに基づいて、補間フレームの生成方法と補間フレームの動きベクトルとを推定して、前記補間フレームを生成する画像生成部と、
前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを所定の規則で切り替える切替器とを備えた動画像復号装置。
First analysis means for analyzing moving image encoded data and extracting encoded symbols in units of blocks;
Second analysis means for analyzing data including information for assisting the image generation unit;
Decoding means for restoring and outputting each frame of the moving image using the encoded symbol;
An image generation unit that generates an interpolation frame by estimating an interpolation frame generation method and an interpolation frame motion vector based on the encoded symbol;
A moving picture decoding apparatus comprising: a switching unit that switches a moving picture output from the decoding unit and an interpolation frame output from the image generation unit according to a predetermined rule.
動画像を符号化して動画像符号化データを生成する動画像符号化部と、
入力画像と仮生成した補間フレームとをブロック毎に比較し、フレーム補間処理を補助するための付加情報を生成する付加情報生成部とを備え、
前記動画像符号化データと前記付加情報とを出力することを特徴とする動画像符号化装置。
A moving image encoding unit that encodes a moving image to generate moving image encoded data;
An additional information generating unit that compares the input image and the temporarily generated interpolation frame for each block and generates additional information for assisting the frame interpolation processing;
A moving picture coding apparatus that outputs the moving picture coded data and the additional information.
前記付加情報の有無を示す識別フラグを、前記付加情報に付加して出力することを特徴とする請求項6記載の動画像符号化装置。   7. The moving picture encoding apparatus according to claim 6, wherein an identification flag indicating presence / absence of the additional information is added to the additional information and output. 前記付加情報の種別を示す種別フラグを、前記付加情報に付加して出力することを特徴とする請求項6または請求項7記載の動画像符号化装置。   8. The moving picture encoding apparatus according to claim 6, wherein a type flag indicating a type of the additional information is added to the additional information and output. 前記付加情報は、補間フレームを生成する場合に最適な参照画像を示すデータを含むことを特徴とする請求項6から請求項8のうちのいずれか1項記載の動画像符号化装置。   9. The moving image encoding apparatus according to claim 6, wherein the additional information includes data indicating a reference image that is optimal when generating an interpolation frame. 前記付加情報は、前記補間フレームにおけるブロックのブロック位置と予測残差とを示すデータを含むことを特徴とする請求項6から請求項8のうちのいずれか1項記載の動画像符号化装置。   The moving image encoding apparatus according to claim 6, wherein the additional information includes data indicating a block position of a block and a prediction residual in the interpolation frame. 前記付加情報は、前記補間フレームにおけるブロックのブロック位置と動きベクトルとを示すデータを含むことを特徴とする請求項6から請求項8のうちのいずれか1項記載の動画像符号化装置。   9. The moving picture encoding apparatus according to claim 6, wherein the additional information includes data indicating a block position and a motion vector of the block in the interpolation frame. 前記付加情報は、前記補間フレームにおけるブロックのブロック位置と予測残差絶対値和とを示すデータを含むことを特徴とする請求項6から請求項8のうちのいずれか1項記載の動画像符号化装置。   The moving image code according to any one of claims 6 to 8, wherein the additional information includes data indicating a block position of the block in the interpolation frame and a predicted residual absolute value sum. Device. 前記動画像符号化部は、フレーム外を参照する動きベクトルを発生させないように動き探索を行う動き探索部を備えることを特徴とする請求項6から請求項12のうちのいずれか1項記載の動画像符号化装置。   The said moving image encoding part is provided with the motion search part which performs a motion search so that the motion vector which refers the out-of-frame may not be generated, The any one of Claims 6-12 characterized by the above-mentioned. Video encoding device. 請求項5記載の動画像復号装置と、
請求項6記載の動画像符号化装置とを備え、
前記動画像符号化装置は前記動画像符号化データに前記画像生成部を補助するための情報を付加して出力し、前記動画像復号装置は前記動画像符号化データと前記付加情報とを入力して前記第2の解析手段で前記付加情報を解析することにより、相互に連携した画像生成処理を行なうことを特徴とする動画像伝送システム。
A video decoding device according to claim 5;
A moving image encoding device according to claim 6,
The moving image encoding apparatus outputs the moving image encoded data with information for assisting the image generating unit added thereto, and the moving image decoding apparatus inputs the moving image encoded data and the additional information. Then, the second information analyzing unit analyzes the additional information to perform image generation processing in cooperation with each other.
前記符号化シンボルは動きベクトル差分値を含み、
前記第2のステップにおいて、
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、動きベクトル差分値の逆数と予測残差の逆数との積を重みに用い、前記動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行うことを特徴とする請求項2記載の動画像復号装置。
The encoded symbol includes a motion vector difference value;
In the second step,
In the calculation target block on the reference image and the peripheral blocks, the product of the reciprocal of the motion vector difference value and the reciprocal of the prediction residual is used as a weight, and the weighted addition average calculation for each component of the motion vector is performed. 3. The moving picture decoding apparatus according to claim 2, wherein the motion vector of the interpolation frame indicating the reference position of the reference image is estimated by performing scaling according to the temporal position of the interpolation frame.
前記第2のステップにおいて、
前記参照画像上の計算対象ブロックとその周辺のブロックにおいて、算出した動きベクトルのラプラシアン値の逆数と予測残差の逆数との積を重みに用い、前記動きベクトルの各成分に関する重み付け加算平均計算を行ない、前記補間フレームの時間的位置に応じてスケーリングを行うことで、前記参照画像の参照位置を示す前記補間フレームの動きベクトルの推定を行うことを特徴とする請求項2記載の動画像復号装置。
In the second step,
In the calculation target block on the reference image and its neighboring blocks, the product of the reciprocal of the calculated Laplacian value of the motion vector and the reciprocal of the prediction residual is used as a weight, and the weighted average calculation for each component of the motion vector is performed. 3. The moving picture decoding apparatus according to claim 2, wherein a motion vector of the interpolation frame indicating a reference position of the reference image is estimated by performing scaling according to a temporal position of the interpolation frame. .
前記第3のステップにおいて、
前記参照画像の量子化係数の平均値を計算し、前記参照ベクトルにより、前記参照画像の参照位置にある画素を用い、前記量子化係数の平均値にて前記画素の重み付け加算を行うことにより、前記補間フレームを生成することを特徴とする請求項2記載の動画像復号装置。
In the third step,
By calculating the average value of the quantization coefficient of the reference image, using the pixel at the reference position of the reference image by the reference vector, and performing weighted addition of the pixel by the average value of the quantization coefficient, The moving image decoding apparatus according to claim 2, wherein the interpolation frame is generated.
前記第3のステップにおいて、
前記参照ベクトルにより、前記参照画像の参照位置にある画素を用いて前記補間フレームを計算し、計算した補間フレームの端に位置するブロック全てに関してある特定の色で塗りつぶしたものを補間フレームとして生成することを特徴とする請求項2記載の動画像復号装置。
In the third step,
Based on the reference vector, the interpolation frame is calculated using the pixels at the reference position of the reference image, and all the blocks located at the end of the calculated interpolation frame are filled with a specific color and are generated as the interpolation frame. The moving picture decoding apparatus according to claim 2.
前記所定の規則を所定の時間間隔に依存する規則とし、
前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを切り替えることを特徴とする請求項1記載の動画像復号装置。
The predetermined rule is a rule depending on a predetermined time interval,
2. The moving image decoding apparatus according to claim 1, wherein the moving image output from the decoding unit and the output of the interpolation frame from the image generation unit are switched.
前記所定の規則を前記符号化シンボルに依存する規則とし、
前記符号化シンボルを用いて、前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力との切り替えを決定する補間制御部を備えることを特徴とする請求項1記載の動画像復号装置。
The predetermined rule is a rule depending on the encoded symbol,
The moving image according to claim 1, further comprising an interpolation control unit that determines switching between output of a moving image from the decoding unit and output of an interpolation frame from the image generation unit using the encoded symbol. Image decoding device.
所定の表示レートに従って入力される動画像の各フレーム画像に対して、実際に符号化を行うフレーム画像を選択する符号化画像選択手段を備え、
前記符号化画像選択手段にて選択されたフレーム画像に関してのみ、動画像符号化データを生成し、前記動画像符号化データに前記入力動画像信号の表示レート情報を多重化して送出することを特徴とする動画像符号化装置。
Encoded image selection means for selecting a frame image to be actually encoded for each frame image of a moving image input according to a predetermined display rate,
Only for the frame image selected by the encoded image selection means, moving image encoded data is generated, and display rate information of the input moving image signal is multiplexed and transmitted to the moving image encoded data. A video encoding device.
前記動画像符号化データに含まれる表示レート情報を復号する表示レート復号手段を備え、
前記表示レート復号手段で復号された前記表示レート情報に基づいて、前記復号手段からの動画像の出力と前記画像生成部からの補間フレームの出力とを切り替えることを特徴とする請求項1記載の動画像復号装置。
Display rate decoding means for decoding display rate information included in the moving image encoded data,
The output of the moving image from the said decoding means and the output of the interpolation frame from the said image generation part are switched based on the said display rate information decoded by the said display rate decoding means. Video decoding device.
JP2005306267A 2005-03-04 2005-10-20 Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system Pending JP2006279917A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005306267A JP2006279917A (en) 2005-03-04 2005-10-20 Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005061056 2005-03-04
JP2005306267A JP2006279917A (en) 2005-03-04 2005-10-20 Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system

Publications (1)

Publication Number Publication Date
JP2006279917A true JP2006279917A (en) 2006-10-12

Family

ID=37214115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005306267A Pending JP2006279917A (en) 2005-03-04 2005-10-20 Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system

Country Status (1)

Country Link
JP (1) JP2006279917A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008193691A (en) * 2007-02-02 2008-08-21 Samsung Electronics Co Ltd Apparatus and method of up-converting frame rate of restored frame
WO2008120330A1 (en) * 2007-03-28 2008-10-09 Pioneer Corporation Image processing apparatus, image processing method, image processing program, and recording medium
JP2009200985A (en) * 2008-02-25 2009-09-03 Hitachi Ltd Video processing apparatus
US7991050B2 (en) 2008-05-30 2011-08-02 Kabushiki Kaisha Toshiba Moving picture decoding apparatus and moving picture decoding method
US8218632B2 (en) 2006-09-20 2012-07-10 Mitsubishi Electric Corporation Frame interpolation apparatus and frame interpolation method
US8395700B2 (en) 2006-12-27 2013-03-12 Sharp Kabushiki Kaisha Image displaying device and method, and image processing device and method
JP2014027600A (en) * 2012-07-30 2014-02-06 Oki Electric Ind Co Ltd Moving image decoding apparatus and program, and moving image encoding system
US8768103B2 (en) 2007-03-19 2014-07-01 Hitachi Consumer Electronics Co., Ltd. Video processing apparatus and video display apparatus
KR101443701B1 (en) 2010-11-22 2014-09-29 한국전자통신연구원 Adaptive motion search range determining apparatus and method
JP2017085598A (en) * 2016-12-08 2017-05-18 株式会社東芝 Image processing apparatus, image processing method, image processing program, and stereoscopic image display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333540A (en) * 2002-05-13 2003-11-21 Hitachi Ltd Frame rate converting apparatus, video display apparatus using the same, and a television broadcast receiving apparatus
JP2005006275A (en) * 2002-11-22 2005-01-06 Matsushita Electric Ind Co Ltd Device, method, and program for generating interpolation frame
JP2005012798A (en) * 2003-06-16 2005-01-13 Samsung Electronics Co Ltd Motion vector generation apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333540A (en) * 2002-05-13 2003-11-21 Hitachi Ltd Frame rate converting apparatus, video display apparatus using the same, and a television broadcast receiving apparatus
JP2005006275A (en) * 2002-11-22 2005-01-06 Matsushita Electric Ind Co Ltd Device, method, and program for generating interpolation frame
JP2005012798A (en) * 2003-06-16 2005-01-13 Samsung Electronics Co Ltd Motion vector generation apparatus and method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218632B2 (en) 2006-09-20 2012-07-10 Mitsubishi Electric Corporation Frame interpolation apparatus and frame interpolation method
US8395700B2 (en) 2006-12-27 2013-03-12 Sharp Kabushiki Kaisha Image displaying device and method, and image processing device and method
JP2008193691A (en) * 2007-02-02 2008-08-21 Samsung Electronics Co Ltd Apparatus and method of up-converting frame rate of restored frame
US8768103B2 (en) 2007-03-19 2014-07-01 Hitachi Consumer Electronics Co., Ltd. Video processing apparatus and video display apparatus
WO2008120330A1 (en) * 2007-03-28 2008-10-09 Pioneer Corporation Image processing apparatus, image processing method, image processing program, and recording medium
JP5038400B2 (en) * 2007-03-28 2012-10-03 パイオニア株式会社 Image processing apparatus, image processing method, image processing program, and recording medium
JP2009200985A (en) * 2008-02-25 2009-09-03 Hitachi Ltd Video processing apparatus
US7991050B2 (en) 2008-05-30 2011-08-02 Kabushiki Kaisha Toshiba Moving picture decoding apparatus and moving picture decoding method
KR101443701B1 (en) 2010-11-22 2014-09-29 한국전자통신연구원 Adaptive motion search range determining apparatus and method
JP2014027600A (en) * 2012-07-30 2014-02-06 Oki Electric Ind Co Ltd Moving image decoding apparatus and program, and moving image encoding system
JP2017085598A (en) * 2016-12-08 2017-05-18 株式会社東芝 Image processing apparatus, image processing method, image processing program, and stereoscopic image display device

Similar Documents

Publication Publication Date Title
CN108848376B (en) Video encoding method, video decoding method, video encoding device, video decoding device and computer equipment
JP4542447B2 (en) Image encoding / decoding device, encoding / decoding program, and encoding / decoding method
US7379501B2 (en) Differential coding of interpolation filters
CN108924553B (en) Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium
US20030112864A1 (en) Method for sub-pixel value interpolation
KR101442608B1 (en) Method and apparatus for encoding/decoding image efficiently
JPH11112973A (en) Device and method for converting video signal
JPH09154137A (en) Method and apparatus for compressing video information usingmovement-dependent estimation
KR20060088461A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
CN108848377B (en) Video encoding method, video decoding method, video encoding apparatus, video decoding apparatus, computer device, and storage medium
KR20060027779A (en) Method and apparatus for encoding/decoding video signal using temporal and spatial correlations between macro blocks
KR20060027778A (en) Method and apparatus for encoding/decoding video signal using base layer
JP2006279917A (en) Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system
US8767831B2 (en) Method and system for motion compensated picture rate up-conversion using information extracted from a compressed video stream
US20060067403A1 (en) Information processing device and information processing method
JP5742049B2 (en) Color moving picture coding method and color moving picture coding apparatus
Ratnottar et al. Comparative study of motion estimation & motion compensation for video compression
JP6222756B2 (en) Decryption method
JP4909592B2 (en) Moving picture reproduction method, apparatus, and program
KR20060069227A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
JP3289695B2 (en) Video encoding method and apparatus
KR20060059770A (en) Method and apparatus for deriving motion vectors of macro blocks from motion vectors of pictures of base layer when encoding/decoding video signal
JP4061505B2 (en) Image coding apparatus and method
JP5913474B2 (en) Decryption method
JP5236088B2 (en) Image encoding / decoding device, encoding / decoding program, and encoding / decoding method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071003

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110906