JP5786498B2 - Image coding apparatus, image coding method, and image coding program - Google Patents
Image coding apparatus, image coding method, and image coding program Download PDFInfo
- Publication number
- JP5786498B2 JP5786498B2 JP2011146783A JP2011146783A JP5786498B2 JP 5786498 B2 JP5786498 B2 JP 5786498B2 JP 2011146783 A JP2011146783 A JP 2011146783A JP 2011146783 A JP2011146783 A JP 2011146783A JP 5786498 B2 JP5786498 B2 JP 5786498B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- prediction
- motion information
- vector
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、動き補償予測を用いた動画像符号化技術に関し、特に動き補償予測に利用する画像符号化装置、画像符号化方法及び画像符号化プログラムに関する。 The present invention relates to a moving image encoding technique using motion compensated prediction, and more particularly to an image encoding device, an image encoding method, and an image encoding program used for motion compensated prediction.
MPEG−4 AVC/H.264(以後、AVC)等に代表される動画像符号化では、時間方向の相関を利用した情報圧縮として、符号化対象となる画像信号である符号化対象ピクチャに対して、既に符号化され復号された局部復号信号を参照ピクチャとして用い、所定の符号化処理単位で、対象ピクチャと参照ピクチャとの間での動き量(以後、動きベクトル)を検出し、予測信号を生成する動き補償予測が用いられる。 MPEG-4 AVC / H. In moving picture coding represented by H.264 (hereinafter referred to as AVC) and the like, as information compression using correlation in the time direction, a picture to be coded which is a picture signal to be coded is already coded and decoded. Motion-compensated prediction that uses the local decoded signal as a reference picture, detects a motion amount (hereinafter referred to as a motion vector) between the target picture and the reference picture in a predetermined coding processing unit, and generates a prediction signal. Used.
AVCでは、動き補償予測において1つの参照ピクチャから1本の動きベクトルを利用して単一方向に予測信号を生成する片方向予測と、2つの参照ピクチャから2本の動きベクトルを利用して双方向に予測信号を生成する双方向予測が用いられる。これらを所定の符号化処理単位となる16×16画素の2次元ブロック内で処理対象となっているブロック(以後、予測対象ブロック)の大きさを可変にする手法や、複数の参照ピクチャの中から予測に用いる参照ピクチャを選択する手法に適用することで、予測信号の情報量を削減している。符号化側では、予測モード情報や参照画像を指定する情報を選択して伝送し、復号側では、伝送された予測モード情報や参照画像を指定する情報に従って動き補償予測処理が施される。 In AVC, both one-way prediction in which a prediction signal is generated in a single direction using one motion vector from one reference picture in motion compensation prediction and two motion vectors from two reference pictures are used. Bidirectional prediction that generates a prediction signal in the direction is used. A method of changing the size of a block to be processed (hereinafter referred to as a prediction target block) within a 16 × 16 pixel two-dimensional block as a predetermined encoding processing unit, or among a plurality of reference pictures By applying this method to the method of selecting a reference picture used for prediction, the information amount of the prediction signal is reduced. On the encoding side, information specifying the prediction mode information and the reference image is selected and transmitted, and on the decoding side, motion compensation prediction processing is performed according to the transmitted prediction mode information and information specifying the reference image.
動きベクトルについては、処理対象ブロックに隣接する符号化済みのブロックの動きベクトルを予測動きベクトル(以降、予測ベクトル)とし、処理対象ブロックの動きベクトルと予測ベクトルとの差分を求め、差分ベクトルを符号化ベクトルとして伝送することで圧縮効率を向上させている。 For the motion vector, the motion vector of the encoded block adjacent to the processing target block is set as the prediction motion vector (hereinafter referred to as prediction vector), the difference between the motion vector of the processing target block and the prediction vector is obtained, and the difference vector is encoded. The compression efficiency is improved by transmitting as a vector.
更に、AVCにおいては、予測対象ブロックと同一位置にある参照ピクチャのブロックの符号化に用いられた動きベクトルを利用して、符号化ベクトルを伝送することなく動き補償予測を実現するダイレクト動き補償予測が知られている。 Further, in AVC, a direct motion compensated prediction that realizes motion compensated prediction without transmitting an encoded vector by using a motion vector used for encoding a block of a reference picture at the same position as the prediction target block. It has been known.
また、他の符号化ベクトルを伝送しない手法として、処理対象ブロックに隣接するブロックの動き情報を利用して、動き補償予測を実現する動き補償予測が知られている(例えば、特許文献1参照)。 In addition, as a method of not transmitting other encoded vectors, motion compensation prediction that realizes motion compensation prediction using motion information of a block adjacent to a processing target block is known (see, for example, Patent Document 1). .
上述したダイレクト動き補償予測は、予測対象ブロックと同一位置にある参照ピクチャのブロックにおける時間方向の動きの連続性に着目し、上述した符号化ベクトルを伝送しない動き補償予測は、予測対象ブロックと予測対象ブロックに隣接する符号化済ブロックにおける空間方向の動きの連続性に着目することで、他のブロックの動き情報をそのまま利用する。これにより、差分ベクトルを符号化ベクトルとして符号化せずに符号化効率を向上させている。 The direct motion compensated prediction described above pays attention to the continuity of motion in the temporal direction in the block of the reference picture located at the same position as the prediction target block, and the motion compensated prediction that does not transmit the coded vector described above is predicted as the prediction target block. By focusing on the continuity of motion in the spatial direction in the encoded block adjacent to the target block, the motion information of other blocks is used as it is. As a result, encoding efficiency is improved without encoding the difference vector as an encoded vector.
しかしながら、動きの連続性が十分保たれていない場合や、他ブロックの動き情報における動きベクトルが正確な動きを示していない場合などに、他のブロックの動き情報をそのまま利用する方式を用いた際には、ずれの生じた動き情報を用いた予測画像が生成される。その場合、精度良い動き補償予測画像を生成できず、符号化効率が向上しないという難しい面がある。 However, when the continuity of motion is not sufficiently maintained or when the motion vector in the motion information of other blocks does not indicate an accurate motion, etc. In this case, a predicted image using the motion information in which the shift has occurred is generated. In that case, there is a difficult aspect that a motion compensated prediction image with high accuracy cannot be generated and the encoding efficiency is not improved.
また、差分動きベクトルを符号化せずに動き補償を行わない場合には、差分動きベクトルを符号化する従来の動き補償予測が用いられるが、従来の動き補償予測を行う際には、予測モード情報や参照画像の指定情報、更に指定された参照画像に対して用いられる動きベクトルを予測ベクトルとの差分ベクトルとして、それぞれ符号化する必要がある。この場合、動き補償予測手法を指定する符号量が増大し、十分に符号化効率が向上しないという難しい面がある。 In addition, when motion compensation is not performed without encoding a differential motion vector, conventional motion compensated prediction that encodes a differential motion vector is used, but when performing conventional motion compensated prediction, a prediction mode is used. It is necessary to encode information, designation information of the reference image, and a motion vector used for the designated reference image as a difference vector from the prediction vector. In this case, there is a difficult aspect that the amount of codes for specifying the motion compensation prediction method increases and the encoding efficiency is not sufficiently improved.
本発明はこうした状況に鑑みてなされたものであり、その目的は、動き補償予測を使用する際の符号化効率を向上させる技術を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for improving the coding efficiency when using motion compensation prediction.
上記課題を解決するために、本発明のある態様の画像符号化装置は、動画像の各ピクチャを分割したブロック単位で動きベクトルを検出して符号化する画像符号化装置であって、符号化対象ブロックの動き情報として、予測方向が双方向予測の場合であって、かつ前記符号化対象ブロックに隣接する参照ブロックの動き情報に含まれる一方の動きベクトルを修正する場合において、前記参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動き情報に含まれる前記一方の動きベクトルとの差分ベクトルを符号化対象として使用するモードを選択可能な予測モード判定部(109)と、前記予測モード判定部(109)から供給される動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する予測誤差信号符号化部(103)と、前記予測モード判定部(109)から供給される動き情報を符号化する動き情報符号化部(110)と、前記予測誤差信号符号化部(103)から供給される符号化データと、前記動き情報符号化部(110)から供給される符号化データとを多重化する多重化部(112)と、を備える。前記差分ベクトルの対象となる前記参照ブロックの動き情報に含まれる前記一方の動きベクトルは、参照ブロック候補の動き情報から特定される、予測方向によって決定される動きベクトルである。 In order to solve the above problems, an image encoding device according to an aspect of the present invention is an image encoding device that detects and encodes a motion vector in units of blocks obtained by dividing each picture of a moving image. as the motion information of the target block, when the prediction direction in the case of bidirectional prediction, and for modifying one of the motion vectors included in the motion information of the reference blocks adjacent to the encoding target block, before hexane irradiation A prediction mode determination unit (109) capable of selecting a mode in which a block index and a difference vector between the motion vector of the coding target block and the one motion vector included in the motion information of the reference block are used as a coding target. ), A prediction signal generated based on the motion information supplied from the prediction mode determination unit (109), and the encoding target block A prediction error signal encoding unit (103) that encodes a prediction error signal, which is a difference from the image signal, and a motion information encoding unit (encoding motion information supplied from the prediction mode determination unit (109)) 110), and a multiplexing unit (112) that multiplexes the encoded data supplied from the prediction error signal encoding unit (103) and the encoded data supplied from the motion information encoding unit (110). And comprising. The one of the motion vectors included in the motion information of the reference block to be subjected to the differential vector is determined from motion information of the reference block candidate is the motion vector determined by the prediction direction.
本発明の別の態様は、画像符号化方法である。この方法は、動画像の各ピクチャを分割したブロック単位で動きベクトルを検出して符号化する画像符号化方法であって、符号化対象ブロックの動き情報として、予測方向が双方向予測の場合であって、かつ前記符号化対象ブロックに隣接する参照ブロックの動き情報に含まれる一方の動きベクトルを修正する場合において、前記参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動き情報に含まれる前記一方の動きベクトルとの差分ベクトルを符号化対象として使用するモードを選択するステップと、前記動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化するステップと、前記動き情報を符号化するステップと、前記予測誤差信号の符号化データと、前記動き情報の符号化データとを多重化するステップと、を備える。前記差分ベクトルの対象となる前記参照ブロックの動き情報に含まれる前記一方の動きベクトルは、参照ブロック候補の動き情報から特定される、予測方向によって決定される動きベクトルである。 Another aspect of the present invention is an image encoding method. This method is an image coding method in which a motion vector is detected and coded in units of blocks obtained by dividing each picture of a moving image, and when the prediction direction is bi-directional prediction as motion information of an encoding target block. there are, and in the case of modifying one of the motion vectors included in the motion information of the reference blocks adjacent to the encoding target block, the index of the previous hexane irradiation block, and the reference motion vector of the encoding target block Selecting a mode in which a difference vector from the one motion vector included in the block motion information is used as an encoding target, a prediction signal generated based on the motion information, and the encoding target block A step of encoding a prediction error signal that is a difference from the image signal, a step of encoding the motion information, and the prediction error Comprising the No. of the encoded data, and a step of multiplexing the encoded data of the motion information. The one of the motion vectors included in the motion information of the reference block to be subjected to the differential vector is determined from motion information of the reference block candidate is the motion vector determined by the prediction direction.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.
本発明によれば、動き補償予測を使用する際の符号化効率を向上させることができる。 According to the present invention, it is possible to improve the coding efficiency when using motion compensated prediction.
以下、図面とともに本発明の実施の形態に係る動画像符号化装置、動画像符号化方法、動画像符号化プログラム、並びに動画像復号装置、動画像復号方法、動画像復号プログラムの好適な実施の形態について詳細に説明する。なお、図面の説明には同一要素には同一符号を付与して重複する説明を省略する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Preferred embodiments of a moving image encoding apparatus, a moving image encoding method, a moving image encoding program, a moving image decoding apparatus, a moving image decoding method, and a moving image decoding program according to an embodiment of the present invention will be described with reference to the drawings. A form is demonstrated in detail. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
(実施の形態1)
[動画像符号化装置全体構成]
図1は、本発明の実施の形態1に係る動画像符号化装置の構成を示す図である。以下、各部の動作について説明する。実施の形態1に係る動画像符号化装置は、入力端子100、減算部101、直交変換・量子化部102、予測誤差符号化部103、逆量子化・逆変換部104、加算部105、復号画像メモリ106、動きベクトル検出部107、動き補償予測部108、予測モード判定部109、動き情報符号化部110、動き情報メモリ111、多重化部112、及び出力端子113を備える。
(Embodiment 1)
[Overall configuration of video encoding apparatus]
FIG. 1 is a diagram showing a configuration of a moving picture coding apparatus according to
入力端子100より入力される画像信号から符号化処理対象の予測ブロックの画像信号が、予測ブロックの位置情報と予測ブロックサイズに基づいて切り出され、予測ブロックの画像信号は、減算部101、動きベクトル検出部107及び予測モード判定部109に供給される。
The image signal of the prediction block to be encoded is extracted from the image signal input from the
図2は、符号化対象画像の一例を示す図である。実施の形態1に係る予測ブロックサイズに関しては、図2に示すように符号化対象画像が64×64画素の符号化ブロック(CU)単位で符号化処理され、予測ブロックは符号化ブロックが更に分割された単位で構成される。最大予測ブロックサイズは符号化ブロックと同じ64×64画素で、最小予測ブロックサイズは4×4画素である。符号化ブロックの予測ブロックへの分割構成は、非分割(2N×2N)、水平・垂直への分割(N×N)、水平方向のみへの分割(2N×N)、垂直方向のみへの分割(N×2N)が可能である。水平・垂直への分割の場合のみ、更に分割された予測ブロックを符号化ブロックとして階層的に予測ブロックに分割でき、その階層をCU分割数で表現する。 FIG. 2 is a diagram illustrating an example of an encoding target image. Regarding the prediction block size according to the first embodiment, as shown in FIG. 2, the encoding target image is encoded in units of 64 × 64 pixel encoding blocks (CU), and the prediction block is further divided into encoding blocks. Unit. The maximum prediction block size is 64 × 64 pixels, which is the same as the encoded block, and the minimum prediction block size is 4 × 4 pixels. The coding block is divided into prediction blocks: non-division (2N × 2N), horizontal / vertical division (N × N), horizontal only division (2N × N), and vertical division only (N × 2N) is possible. Only in the case of horizontal and vertical division, the further divided prediction block can be divided into prediction blocks hierarchically as encoded blocks, and the hierarchy is expressed by the number of CU divisions.
図3は、予測ブロックサイズの詳細な定義を示す図である。CU分割数が0であって最大の予測ブロックサイズである64画素×64画素から、CU分割数が3であって最小の予測ブロックサイズである4画素×4画素までの13の予測ブロックサイズが存在することになる。 FIG. 3 is a diagram showing a detailed definition of the predicted block size. There are 13 predicted block sizes from 64 pixels × 64 pixels, which is the maximum predicted block size with 0 CU divisions, to 4 pixels × 4 pixels, which is the minimum predicted block size with 3 CU partitions. Will exist.
本発明の実施の形態1に係る予測ブロックの分割構成に関して、この組み合わせに限定されない。また、動画像符号化装置における予測ブロックサイズの選択は、符号化ブロック単位で符号化効率のより良い構造を適応的に選択することが可能であるが、実施の形態1は予測ブロック単位での画面間予測及び画面間動き情報の符号化に注目したものであるため、最適な予測ブロックサイズの選択に関する構成要素及び説明を省略する。以降の動画像符号化装置の動作に関しては、選択した予測ブロックサイズ単位で施される動作を説明する。
Regarding the division | segmentation structure of the prediction block which concerns on
図1に戻り、減算部101は、入力端子100より供給される画像信号と予測モード判定部109より供給される予測信号を減算して予測誤差信号を算出し、予測誤差信号を直交変換・量子化部102に供給する。
Returning to FIG. 1, the
直交変換・量子化部102は、減算部101より供給される予測誤差信号に直交変換及び量子化を施し、量子化された予測誤差信号を予測誤差符号化部103及び逆量子化・逆変換部104に供給する。
The orthogonal transform /
予測誤差符号化部103は、直交変換・量子化部102より供給される量子化された予測誤差信号をエントロピー符号化して、予測誤差信号に対する符号列を生成して、多重化部112に供給する。
The prediction
逆量子化・逆変換部104は、直交変換・量子化部102より供給される量子化された予測誤差信号に対して、逆量子化や逆直交変換などの処理を行い、復号予測誤差信号を生成し加算部105に供給する。
The inverse quantization /
加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測モード判定部109より供給される予測信号を加算して、復号画像信号を生成し、復号画像信号を復号画像メモリ116に供給する。
The
復号画像メモリ106は、加算部105より供給される復号画像信号を格納する。また、画像全体の復号が完了した復号画像については参照画像として1以上の所定画像数記憶し、参照画像信号を動きベクトル検出部107と動き補償予測部108に供給する。
The decoded
動きベクトル検出部107は、入力端子100より供給される予測ブロックの画像信号と、復号画像メモリ106に記憶された参照画像信号の入力を受けて、各参照画像に対する動きベクトルを検出し、動きベクトル値を予測モード判定部109に供給する。
The motion
一般的な動きベクトルの検出方法は、画像信号と同一位置より所定の移動量だけ移動させた参照画像に相当する画像信号について誤差評価値を算出し、誤差評価値が最小となる移動量を動きベクトルとする。誤差評価値としては、画素毎の差分絶対値の総和SAD(Sum of Absolute Difference)や、画素毎の二乗誤差値の総和SSE(Sum of Square Error)等を利用する。さらに、動きベクトルの符号化に関わる符号量も誤差評価値に含めることも可能である。 A general motion vector detection method calculates an error evaluation value for an image signal corresponding to a reference image moved by a predetermined movement amount from the same position as the image signal, and moves the movement amount that minimizes the error evaluation value. Let it be a vector. As the error evaluation value, a sum of absolute differences SAD (Sum of Absolute Difference) for each pixel, a sum of square error values SSE (Sum of Square Error) for each pixel, or the like is used. Furthermore, the code amount related to the coding of the motion vector can also be included in the error evaluation value.
動き補償予測部108は、予測モード判定部109より指定される参照画像指定情報と、動きベクトル値に従って、復号画像メモリ106内の参照画像指定情報で示される参照画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。
The motion compensated
予測モード判定部109より指定される予測モードが片方向予測の場合には、1つの参照画像から取得した予測信号を動き補償予測信号とし、予測モードが双方向予測の場合には、2つの参照画像から取得した予測信号を重みづけ平均したものを動き補償予測信号とし、動き補償予測信号を予測モード判定部109に供給する。ここでは双方向予測の重みづけ平均の比率を1:1とする。
When the prediction mode specified by the prediction
図4(a)〜(d)は、動き補償予測の予測方向について説明するための図である。単一の参照画像からの予測を行う処理を片方向予測と定義し、片方向の場合はL0方向またはL1方向という2つの参照画像管理リストに登録された参照画像のいずれか一方を利用する。 4A to 4D are diagrams for explaining the prediction direction of motion compensation prediction. The process of performing prediction from a single reference image is defined as unidirectional prediction, and in the case of unidirectional, one of the reference images registered in the two reference image management lists of the L0 direction and the L1 direction is used.
図4(a)は片方向であってL0方向の参照画像(RefL0Pic)が符号化対象画像(CurPic)より前の時刻にある場合を示している。図4(b)は片方向であってL0方向の参照画像が符号化対象画像より後の時刻にある場合を示している。同様に、図4(a)および図4(b)のL0方向の参照画像をL1方向の参照画像(RefL1Pic)に置き換えて片方向予測を行うこともできる。 FIG. 4A illustrates a case where the reference image (RefL0Pic) in one direction and in the L0 direction is at a time before the encoding target image (CurPic). FIG. 4B shows a case where the reference image in one direction and in the L0 direction is at a time after the encoding target image. Similarly, the one-way prediction can be performed by replacing the reference image in the L0 direction in FIGS. 4A and 4B with the reference image in the L1 direction (RefL1Pic).
2つの参照画像からの予測を行う処理を双方向予測と定義し、双方向の場合はL0方向とL1方向の双方を利用してBI方向と表現する。図4(c)は双方向であってL0方向の参照画像が符号化対象画像より前の時刻にあって、L1方向の参照画像が符号化対象画像より後の時刻にある場合を示している。図4(d)は双方向であってL0方向の参照画像とL1方向の参照画像が符号化対象画像より前の時刻にある場合を示している。このように、L0/L1の予測方向と時間の関係は、L0が過去方向、L1が未来方向とは限定されずに用いることが可能である。 The process of performing prediction from two reference images is defined as bidirectional prediction, and in the case of bidirectional, the BI direction is expressed using both the L0 direction and the L1 direction. FIG. 4C shows a case where the reference image in the L0 direction is at a time before the encoding target image and the reference image in the L1 direction is at a time after the encoding target image. . FIG. 4D shows a case in which the reference image in the L0 direction and the reference image in the L1 direction are at a time before the encoding target image. As described above, the relationship between the prediction direction of L0 / L1 and time can be used without being limited to L0 being the past direction and L1 being the future direction.
実施の形態1では、参照画像及び符号化対象画像の時刻を示す情報としてPOC(Picture Order Count)を用いる。POCはAVCで定義された画像の表示順序を示すカウンタである。画像の表示順序が1増加するとPOCも1増加する。したがって、画像間のPOC差から画像間の時間差(距離)を取得できる。 In the first embodiment, POC (Picture Order Count) is used as information indicating the time of the reference image and the encoding target image. POC is a counter indicating the display order of images defined by AVC. When the image display order is increased by 1, the POC is also increased by 1. Therefore, the time difference (distance) between images can be acquired from the POC difference between images.
図1に戻り、予測モード判定部109は、動きベクトル検出部107より入力される各参照画像に対して検出された動きベクトル値と、動き情報メモリ111に格納された動き情報(予測方向、動きベクトル値、及び参照画像指定情報)をもとに、実施の形態1において定義した動き補償予測モードのそれぞれに対して用いられる、参照画像指定情報と動きベクトル値を動き補償予測部108に設定する。設定した値によって、動き補償予測部108から供給される動き補償予測信号と、入力端子100より供給される予測ブロックの画像信号を用いて、最適な動き補償予測モードを決定する。
Returning to FIG. 1, the prediction
予測モード判定部109は、決定した予測モード、及び予測モードに応じた予測方向、動きベクトル、及び参照画像指定情報を特定する情報を、動き情報符号化部110に供給し、決定した予測モード及びその予測モードに対する、予測方向、動きベクトル値、及び参照画像指定情報を動き情報メモリ111に供給すると共に、減算部101及び加算部105に決定した予測モードに対応する予測信号を供給する。
The prediction
動画像符号化装置において、基準とする参照画像を符号化するために同一画面内の符号化済画像を用いて予測を行う画面内予測が行われるが、実施の形態1は画面間予測に注目したものであるため、画面内予測に関連する構成要素は省略する。予測モード判定部109の詳細な構成については後述する。
In the moving image encoding apparatus, intra-frame prediction is performed in which prediction is performed using an encoded image in the same screen in order to encode a reference image as a reference.
動き情報符号化部110は、予測モード判定部109より供給される予測モード、及び予測モードに応じた予測方向、動きベクトル、及び参照画像指定情報を特定する情報を所定のシンタックス構造に従って符号化することで、動き情報の符号列を生成し、多重化部112に供給する。動き情報符号化部110の詳細な構成については後述する。
The motion
動き情報メモリ111は、予測モード判定部109より供給される動き情報(予測方向、動きベクトル、及び参照画像インデックス)を、最小予測ブロックサイズ単位を基準として所定画像分記憶する。処理対象の予測ブロックの隣接ブロックの動き情報を空間候補ブロック群とし、処理対象の予測ブロックと同一位置にあるColPic上のブロックとその周辺ブロックの動き情報を時間候補ブロック群とする。
The
ColPicとは、処理対象の予測ブロックとは別の復号済みの画像であって、復号画像メモリ106に参照画像として記憶されている。実施の形態1では、ColPicは直前に復号した参照画像とする。なお、実施の形態1では、ColPicは直前に復号した参照画像としたが、表示順で直前の参照画像や表示順で直後の参照画像でもよく、符号化ストリーム中に、ColPicに用いる参照画像を直接指定することも可能である。
ColPic is a decoded image different from the prediction block to be processed, and is stored in the decoded
動き情報メモリ111は、空間候補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き情報として予測モード判定部109に供給する。多重化部112は、予測誤差符号化部103から供給される予測誤差の符号化列と、動き情報符号化部110から供給される動き情報の符号化列を多重化することで符号化ビットストリームを生成し、出力端子113経由で、記録媒体・伝送路等に当該符号化ビットストリームを出力する。
The
図1に示した動画像符号化装置の構成は、CPU(Central Processing Unit)、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェアによっても実現可能である。 The configuration of the moving picture encoding apparatus shown in FIG. 1 can also be realized by hardware such as an information processing apparatus including a CPU (Central Processing Unit), a frame memory, and a hard disk.
図5は、本発明の実施の形態1に係る動画像符号化装置における符号化処理の動作の流れ示すフローチャートである。予測ブロック単位毎に、入力端子100より処理対象の予測ブロック画像を取得する(S500)。動きベクトル検出部107は、処理対象の予測ブロック画像と復号画像メモリ106に格納された複数の参照画像より、参照画像毎の動きベクトル値を算出する(S501)。
FIG. 5 is a flowchart showing the flow of the encoding process in the video encoding apparatus according to
続いて、予測モード判定部109は、動きベクトル検出部107より供給される動きベクトルと、動き情報メモリ111に格納された動き情報を用いて、実施の形態1において定義した動き補償予測モードのそれぞれに対する予測信号を、動き補償予測部108を用いて取得し、最適な予測モードを選択し、予測信号を生成する(S502)。ステップS502の処理の詳細については後述する。
Subsequently, the prediction
続いて、減算部101は、処理対象の予測ブロック画像と予測モード判定部109より供給された予測信号との差分を予測誤差信号として算出する(S503)。動き情報符号化部110は、予測モード判定部109より供給される予測モード、及び予測モードに応じた予測方向、動きベクトル、及び参照画像指定情報を特定する情報を所定のシンタックス構造に従って符号化し、動き情報の符号化データを生成する(S504)。ステップS504の処理の詳細については後述する。
Subsequently, the
続いて、予測誤差符号化部103は、直交変換・量子化部102で生成された量子化された予測誤差信号をエントロピー符号化して、予測誤差の符号化データを生成する(S505)。多重化部112は、動き情報符号化部110から供給される動き情報の符号化データと、予測誤差符号化部103から供給される予測誤差の符号化データを多重化し、符号化ビットストリームを生成する(S506)。
Subsequently, the prediction
加算部105は、逆量子化・逆変換部104より供給される復号予測誤差信号と、予測モード判定部109より供給される予測信号を加算して、復号画像信号を生成する(S507)。加算部105によって、生成された復号画像信号が復号画像メモリ106に供給、格納され、以降に符号化する符号化画像の動き補償予測処理に用いられる(S508)。動き情報メモリ111は、動きベクトル検出部107より供給される動き情報(予測方向、動きベクトル、及び参照画像指定情報)を最小の予測ブロックサイズ単位で格納する(S509)。
The adding
[動画像復号装置全体構成]
図6は、本発明の実施の形態1に係る動画像復号装置の構成を示す図である。以下、各部の動作について説明する。実施の形態1に係る動画像復号装置は、入力端子600、多重分離部601、予測差分情報復号部602、逆量子化・逆変換部603、加算部604、復号画像メモリ605、動き情報復号部606、動き情報メモリ607、動き補償予測部608、及び出力端子609を備える。
[Overall configuration of video decoding apparatus]
FIG. 6 is a diagram showing a configuration of the moving picture decoding apparatus according to
入力端子600より符号化ビットストリームが多重分離部601に供給される。多重分離部601は、供給された符号化ビットストリームの符号列を予測誤差情報の符号化列と、予測モード、並びに予測モードに応じた予測方向、動きベクトル、及び参照画像指定情報を特定する情報で構成される動き情報の符号化列に分離する。当該予測誤差情報の符号化列を予測差分情報復号部602に供給し、当該動き情報の符号化列を動き情報復号部606に供給する。
The encoded bit stream is supplied from the
予測差分情報復号部602は、多重分離部601より供給された予測誤差情報の符号化列を復号し、量子化された予測誤差信号を生成する。予測差分情報復号部602は、生成した量子化された予測誤差信号を逆量子化・逆変換部603に供給する。
The prediction difference
逆量子化・逆変換部603は、予測差分情報復号部602より供給される量子化された予測誤差信号を逆量子化や逆直交変換などの処理を行って予測誤差信号を生成し、復号予測誤差信号を加算部604に供給する。
The inverse quantization /
加算部604は、逆量子化・逆変換部603より供給される復号予測誤差信号と、動き補償予測部608より供給される予測信号を加算して復号画像信号を生成し、復号画像信号を復号画像メモリ605に供給する。
The
復号画像メモリ605は、図1の動画像符号化装置における復号画像メモリ106と同じ機能を有し、加算部604から供給された復号画像信号を格納し、参照画像信号を動き補償予測部608に供給する。また、復号画像メモリ605は、格納された復号画像信号を再生時刻に合わせて、画像の表示順序に従い出力端子609に供給する。
The decoded
動き情報復号部606は、多重分離部601より供給される動き情報の符号化列より、予測モード、並びに予測モードに応じた予測方向、動きベクトル、及び参照画像指定情報を特定する情報を動き情報として復号する。復号した動き情報と、動き情報メモリ607より供給される候補ブロック群の動き情報より、動き補償予測に用いる予測方向、動きベクトル及び参照画像指定情報を再生し、動き補償予測部608に供給する。また、動き情報復号部606は再生した動き情報を、動き情報メモリ607に供給する。動き情報復号部606の詳細な構成については後述する。
The motion
動き情報メモリ607は、図1の動画像符号化装置における動き情報メモリ111と同じ機能を持ち、動き情報復号部606より供給される再生した動き情報を最小予測ブロックサイズ単位を基準として所定画像分記憶する。また、動き情報メモリ607は、空間候補ブロック群と時間候補ブロック群の動き情報を、候補ブロック群の動き情報として動き情報復号部606に供給する。
The
動き補償予測部608は、図1の動画像符号化装置における動き補償予測部108と同じ機能を持ち、動き情報復号部606より供給される動き情報に基づいて、復号画像メモリ605内の参照画像指定情報が示す参照画像を、動きベクトル値だけ予測ブロックの画像信号と同一位置より移動させた位置の画像信号を取得して予測信号を生成する。動き補償予測の予測方向が双方向であれば、各予測方向の予測信号を平均したものを予測信号として生成し、予測信号を加算部604に供給する。
The motion
出力端子609は、復号画像メモリ605より供給された復号画像信号を、ディスプレイなどの表示媒体に出力することで、復号画像信号が再生される。
The
図6に示した動画像復号装置の構成も、図1に示した動画像符号化装置の構成と同様に、CPU、フレームメモリ、ハードディスクなどを備える情報処理装置等のハードウェアによっても実現可能である。 The configuration of the video decoding device shown in FIG. 6 can also be realized by hardware such as an information processing device including a CPU, a frame memory, a hard disk, etc., similarly to the configuration of the video encoding device shown in FIG. is there.
図7は、本発明の実施の形態1に係る動画像復号装置における復号処理の動作の流れを示すフローチャートである。多重分離部601は、入力端子600より供給された符号化ビットストリームを予測誤差情報の符号化列と、動き情報の符号化列に分離する(S700)。分離された動き情報の符号化列は動き情報復号部606に供給され、動き情報メモリ607より供給される候補ブロック群の動き情報を用いて、復号対象ブロックの動き情報を復号する(S701)。
FIG. 7 is a flowchart showing a flow of decoding processing in the video decoding apparatus according to
分離された予測誤差情報の符号化列は、予測差分情報復号部602に供給され、量子化された予測誤差信号として復号され、逆量子化・逆変換部603で逆量子化や逆直交変換などの処理を施されることで、復号予測誤差信号が生成される(S702)。ステップS702の処理の詳細については後述する。
The separated coded sequence of prediction error information is supplied to the prediction difference
動き情報復号部606より、復号対象ブロックの動き情報が動き補償予測部608に供給され、動き補償予測部608は動き情報にしたがって動き補償予測を行い予測信号を算出する(S703)。加算部604は、逆量子化・逆変換部603から供給された復号予測誤差信号と、動き補償予測部608から供給された予測信号とを加算し、復号画像信号を生成する(S704)。
The motion
加算部604より供給された復号画像信号は、復号画像メモリ605に格納される(S705)と共に、動き情報復号部606より供給された復号対象ブロックの動き情報が動き情報メモリ607に格納される(S706)。これで、予測ブロック単位の復号処理が終了する。
The decoded image signal supplied from the adding
[実施の形態1の詳細機能説明]
本発明の実施の形態1に係る動画像符号化装置の予測モード判定部109及び動き情報符号化部110の動作、図5のフローチャートにおけるステップS502及びステップS504の処理、並びに本発明の実施の形態1に係る動画像復号装置における動き情報復号部606の動作、図7のフローチャートにおけるステップS702の処理の詳細動作を、以下説明する。
[Detailed Function Description of Embodiment 1]
Operation of prediction
[実施の形態1における動き補償予測モードの定義]
図8(a)、(b)は、本発明の実施の形態1における動き補償予測において使用される動き情報を符号化するための3つの予測モードを説明するための図である。第一の予測モードは、予測対象ブロックと当該予測対象ブロックに隣接する符号化済ブロックにおける時間方向や空間方向の動きの連続性を用いて、当該予測対象ブロックは自身の動き情報を直接符号化せずに、空間及び時間的に隣接するブロックの動き情報を符号化に使用する手法であり、結合予測モード(マージモード)と呼ぶ。
[Definition of Motion Compensation Prediction Mode in Embodiment 1]
FIGS. 8A and 8B are diagrams for explaining three prediction modes for encoding motion information used in motion compensated prediction according to
結合予測モードの場合には、複数の隣接ブロック候補より選択的に結合する動き情報が定義でき、動き情報は使用する隣接ブロックを指定する情報(インデックス)を符号化することで、指定情報をもとに取得した動き情報をそのまま動き補償予測に用いる。更に、結合予測モードにおいては、予測差分情報を符号化伝送せずに、結合予測モードで予測された予測信号を復号ピクチャとするSkipモードを定義し、結合した動き情報のみの少ない情報で復号画像が再生できる構成を有する。Skipモードにおいて伝送する動き情報は、結合予測モードと同様に隣接ブロックを定義する指定情報となる。 In the combined prediction mode, motion information that is selectively combined from a plurality of adjacent block candidates can be defined, and the motion information is encoded with information (index) that specifies the adjacent block to be used. The obtained motion information is used as it is for motion compensation prediction. Further, in the joint prediction mode, a Skip mode is defined in which the prediction signal predicted in the joint prediction mode is a decoded picture without encoding prediction transmission of the prediction difference information, and a decoded image is obtained with information having only the combined motion information. Can be reproduced. The motion information transmitted in the Skip mode is designation information that defines adjacent blocks, as in the combined prediction mode.
第二の予測モードは、動き情報の構成要素を個別にすべて符号化し、予測ブロックに対して予測誤差の少ない動き情報を伝送する手法であり、動き検出予測モードと呼ぶ。動き検出予測モードは、従来の動き補償予測の動き情報の符号化と同様に、参照画像を特定するための情報(参照画像インデックス)と、動きベクトルを特定するための情報が別々に符号化される。 The second prediction mode is a technique for individually coding all the components of motion information and transmitting motion information with little prediction error to the prediction block, and is called a motion detection prediction mode. In the motion detection prediction mode, information for specifying a reference image (reference image index) and information for specifying a motion vector are encoded separately, as in the case of encoding motion information in conventional motion compensation prediction. The
動き検出予測モードには、片方向予測と双方向予測のどちらを使用するか予測モードで指示し、片方向予測の場合には1つの参照画像に対する参照画像を特定する情報と、動きベクトルの予測ベクトルとの差分ベクトルを符号化する。双方向予測の場合には2つの参照画像に対する参照画像を特定する情報と、動きベクトルがそれぞれ個別に符号化される。動きベクトルに対する予測ベクトルは、AVCと同様に隣接ブロックの動き情報から生成されるが、結合予測モードと同様に、複数の隣接ブロック候補より予測ベクトルに用いる動きベクトルを選択でき、動きベクトルは予測ベクトルに使用する隣接ブロックを指定する情報(インデックス)と差分ベクトルの2つを符号化することで伝送される。 In the motion detection prediction mode, the prediction mode indicates whether to use unidirectional prediction or bidirectional prediction. In the case of unidirectional prediction, information for specifying a reference image for one reference image, and motion vector prediction Encode the difference vector with the vector. In the case of bidirectional prediction, information for specifying reference images for two reference images and a motion vector are individually encoded. The prediction vector for the motion vector is generated from the motion information of the adjacent block similarly to the AVC. However, similarly to the combined prediction mode, the motion vector used for the prediction vector can be selected from a plurality of adjacent block candidates, and the motion vector is the prediction vector. The information is transmitted by encoding two pieces of information (index) for designating adjacent blocks to be used for and a difference vector.
第三の予測モードは、隣接ブロックの動き情報に対して、動きベクトル値を修正するための差分ベクトル値を追加で符号化することで、隣接ブロックから生成される動き情報に対して一部の動きベクトルに対する修正を行い、動き情報として符号化する手法であり、結合動き修正予測モード(マージMVDモード)と呼ぶ。結合動き修正予測モードにおいて伝送する動き情報は、結合予測モードと同様に、隣接ブロックを指定する情報に加えて、修正する動きベクトルに対する差分ベクトル値となる。実施の形態1における、結合動き修正予測モードでは、差分ベクトル値は常に1つ伝送され、動き補償予測の予測方向は双方向予測となる。 In the third prediction mode, a part of the motion information generated from the adjacent block is encoded by additionally encoding a difference vector value for correcting the motion vector value with respect to the motion information of the adjacent block. This is a technique of correcting motion vectors and encoding them as motion information, and is called a combined motion correction prediction mode (merge MVD mode). Similar to the combined prediction mode, the motion information transmitted in the combined motion correction prediction mode is a difference vector value for the motion vector to be corrected in addition to the information specifying the adjacent block. In the combined motion correction prediction mode in the first embodiment, one difference vector value is always transmitted, and the prediction direction of motion compensation prediction is bidirectional prediction.
この結合動き修正予測モードを有する構成が、結合動き修正予測モードを有さない従来の構成に対して符号化効率を向上させる要因となる。つまり、結合動き修正予測モードでは、結合予測モードにおいて符号化する情報に対して、動きベクトルを修正するための差分ベクトルを符号化して追加する。これにより、動きの連続性が十分保たれていない場合や、他ブロックの動き情報における動きベクトルが正確な動きを示していない場合などに、隣接ブロックから生成される動き情報に対して、動きベクトルのみを修正することで、予測残差が少ない動き補償予測信号を生成する動き情報を、少ない情報で表現することができる。 The configuration having the combined motion correction prediction mode is a factor that improves the coding efficiency over the conventional configuration that does not have the combined motion correction prediction mode. That is, in the combined motion correction prediction mode, a difference vector for correcting a motion vector is encoded and added to the information encoded in the combined prediction mode. As a result, when the continuity of motion is not sufficiently maintained, or when the motion vector in the motion information of other blocks does not indicate an accurate motion, the motion vector is generated with respect to the motion information generated from the adjacent block. By correcting only the motion information, motion information for generating a motion compensated prediction signal with a small prediction residual can be expressed with a small amount of information.
図9は、動き補償予測および動き補償予測を実施しない画面内予測における、動き補償の予測方向と、参照画像を定義する情報、及び符号化する動きベクトル数の関連に関して説明するための図である。 FIG. 9 is a diagram for explaining a relationship between a motion compensation prediction direction, information defining a reference image, and the number of motion vectors to be encoded in motion compensation prediction and intra prediction without performing motion compensation prediction. .
動き検出予測モードの内、予測方向が片方向である片方向予測モード(UniPred)の場合は、符号化する動き情報として1つの符号化ベクトル、1つの参照画像インデックス、1つの予測ベクトルインデックスが伝送される。 In the case of the unidirectional prediction mode (UniPred) in which the prediction direction is unidirectional among the motion detection prediction modes, one encoded vector, one reference image index, and one prediction vector index are transmitted as motion information to be encoded. Is done.
同様に予測方向が双方向である双方向予測モード(BiPred)の場合は、符号化する動き情報として2つの符号化ベクトル、2つの参照画像インデックス、2つの予測ベクトルインデックスが伝送される。 Similarly, in the bidirectional prediction mode (BiPred) in which the prediction direction is bidirectional, two encoded vectors, two reference image indexes, and two prediction vector indexes are transmitted as motion information to be encoded.
結合予測モード(Merge)の場合には、1つの結合動き情報インデックスのみが符号化する動き情報として伝送され、動き情報に基づいて片方向もしくは双方向の動き補償予測が施される。 In the joint prediction mode (Merge), only one joint motion information index is transmitted as motion information to be encoded, and unidirectional or bidirectional motion compensation prediction is performed based on the motion information.
結合動き修正予測モード(MergeMvd)の場合には、1つの結合動き情報インデックスと1つの符号化ベクトルが符号化する動き情報として伝送され、動き情報と動きベクトルの修正情報に従って、双方向の動き補償予測が施される。 In the combined motion correction prediction mode (MergeMvd), one combined motion information index and one encoded vector are transmitted as motion information to be encoded, and bidirectional motion compensation is performed according to the motion information and the motion vector correction information. Prediction is made.
動き補償予測を実施しない予測符号化モードであるイントラモード(Intra)においては、動き情報は符号化されない。 In the intra mode (Intra), which is a predictive coding mode in which motion compensation prediction is not performed, motion information is not coded.
隣接する動き情報との時間的・空間的な相関性が非常に高い場合には、結合予測モードが有効な動き補償予測モードとして選択される。相関性が低い場合もしくは一部の動き情報のみが有効に予測ブロックの動き情報として利用できる場合には、動き検出予測モードが有効な動き補償予測モードとして選択される。相関性が高いが動きに微小なずれを生じている場合や、隣接するブロックの動き情報が正確な動きを示していない場合、また大部分の動き情報が有効であるが一部の動き情報のみ相関性が十分でない場合などに、結合動き修正予測モードが有効な動き補償予測モードとして選択される。このように、状況に応じて、符号化効率の高い動き補償予測を選択できる。 When temporal and spatial correlation with adjacent motion information is very high, the combined prediction mode is selected as an effective motion compensation prediction mode. When the correlation is low or only a part of the motion information can be effectively used as the motion information of the prediction block, the motion detection prediction mode is selected as an effective motion compensation prediction mode. If the correlation is high but there is a slight shift in the motion, or if the motion information of the adjacent block does not show accurate motion, or most of the motion information is valid, but only some motion information When the correlation is not sufficient, the combined motion correction prediction mode is selected as an effective motion compensation prediction mode. Thus, motion compensated prediction with high coding efficiency can be selected according to the situation.
[実施の形態1における動画像符号化装置における予測モード判定部の詳細動作説明]
図10は、実施の形態1の動画像符号化装置における予測モード判定部109の詳細な構成を示す図である。予測モード判定部109は、最適な動き補償予測モードを決定する機能を有する。
[Detailed Operation Description of Prediction Mode Determination Unit in Moving Picture Encoding Device in Embodiment 1]
FIG. 10 is a diagram illustrating a detailed configuration of the prediction
予測モード判定部109は、片方向動き補償予測生成部1000、双方向動き補償予測生成部1001、予測誤差算出部1002、予測ベクトル算出部1003、差分ベクトル算出部1004、動き情報符号量算出部1005、予測モード評価部1006、結合動き情報算出部1007、結合動き補償予測生成部1008、及び結合動き修正動き補償予測生成部1009を含む。
The prediction
図1における予測モード判定部109に対して、動きベクトル検出部107より入力された動きベクトル値が、片方向動き補償予測生成部1000、双方向動き補償予測生成部1001、及び結合動き修正動き補償予測生成部1009に供給され、動き情報メモリ111より入力された動き情報が、予測ベクトル算出部1003、及び結合動き情報算出部1007に供給される。
The motion vector values input from the motion
また、動き補償予測部108に対して、片方向動き補償予測生成部1000、双方向動き補償予測生成部1001、結合動き補償予測生成部1008、及び結合動き修正動き補償予測生成部1009から、動き補償予測に用いる参照画像指定情報と動きベクトルが出力される。また、動き補償予測部108より、生成された動き補償予測画像が予測誤差算出部1002に供給される。予測誤差算出部1002には更に、入力端子100より符号化対象となる予測ブロックの画像信号が供給される。
In addition, the motion
また、予測モード評価部1006から、動き情報符号化部110に対して符号化する動き情報と確定した予測モード情報を供給し、動き情報メモリ111に動き情報を供給し、動き補償予測信号を減算部101及び加算部105に供給する。
Also, the motion
片方向動き補償予測生成部1000は、片方向予測に使用可能な各参照画像に対して算出された動きベクトル値を受信し、参照画像指定情報を予測ベクトル算出部1003に供給し、参照画像指定情報と動きベクトルを動き補償予測部108に出力する。
The unidirectional motion compensation
双方向動き補償予測生成部1001も同様に、双方向予測に使用可能な各参照画像に対して算出された動きベクトル値を受信し、それぞれの参照画像に対する参照画像指定情報を予測ベクトル算出部1003に供給し、それぞれの参照画像に対する参照画像指定情報と動きベクトルを動き補償予測部108に出力する。
Similarly, the bi-directional motion compensation
予測誤差算出部1002は、入力された動き補償予測画像と処理対象の予測ブロック画像より、予測誤差評価値を算出する。誤差評価値を算出するための演算としては、動きベクトル検出における誤差評価値と同様に、画素毎の差分絶対値の総和SADや、画素毎の二乗誤差値の総和SSE等を使用できる。更に、予測残差の符号化を行う際に施される、直交変換・量子化を行うことによって復号画像に生じる歪成分の量を加味することで、より正確な誤差評価値が算出可能である。この場合には、予測誤差算出部1002内に、図1における減算部101、直交変換・量子化部102、逆量子化・逆変換部104、加算部105の機能を有することで実現できる。予測誤差算出部1002は、各予測モードにおいて算出された予測誤差評価値と、動き補償予測信号を予測モード評価部1006に供給する。
The prediction
予測ベクトル算出部1003は、片方向動き補償予測生成部1000及び双方向動き補償予測生成部1001より参照画像指定情報を供給され、動き情報メモリ111から供給される隣接ブロックの動き情報における候補ブロック群より、指定された参照画像に対する動きベクトル値を特定する。そして、複数の予測ベクトルを予測ベクトル候補リストと共に生成し、差分ベクトル算出部1004に、参照画像指定情報と共に供給する。
The prediction
図11は、予測ベクトル算出部1003の構成を示す図である。予測ベクトル算出部1003は、予測ベクトル候補リスト生成部1100及び予測ベクトル候補リスト削除部1101を含み、候補ブロック群より所定の順番で予測ベクトルの候補を作成し、その中から同一の動きベクトル値を示す候補を削除することで、有効な予測ベクトルのみを予測ベクトル候補として登録する。予測ベクトル算出部1003の詳細動作に関しては、後述する。
FIG. 11 is a diagram illustrating a configuration of the prediction
図10に戻り、差分ベクトル算出部1004は、予測ベクトル算出部1003より供給された、予測ベクトル候補のそれぞれに対して、片方向動き補償予測生成部1000及び双方向動き補償予測生成部1001から供給される動きベクトル値との差分を計算し、差分ベクトル値を算出する。算出された差分ベクトル値と予測ベクトル候補に対する指定情報である予測ベクトルインデックスを符号化した際の符号量が最も少ない情報量で、動きベクトル値を表現出来る差分ベクトルとなる。従って、最も少ない情報量である予測ベクトルに対する予測ベクトルインデックスと差分ベクトル値を参照画像指定情報と共に、動き情報符号量算出部1005に供給する。
Returning to FIG. 10, the difference
動き情報符号量算出部1005は、差分ベクトル算出部1004より供給される、片方向予測モード及び双方向予測モードの差分ベクトル値、参照画像指定情報、予測ベクトルインデックス、予測モードより、各予測モードにおける動き情報に要する符号量を算出する。また、動き情報符号量算出部1005は、結合動き補償予測生成部1008より、結合予測モードにおいて伝送する必要がある、結合動き情報インデックスと予測モードを示すための情報を受け取り、結合予測モードにおける動き情報に要する符号量を算出する。
The motion information code
同様に、動き情報符号量算出部1005は、結合動き修正動き補償予測生成部1009より、結合動き修正予測モードにおいて伝送する必要がある、結合動き情報インデックスと差分ベクトル値と予測モードを示すための情報を受け取り、結合動き修正予測モードにおける動き情報に要する符号量を算出する。動き情報符号量算出部1005は、各予測モードにおいて算出された動き情報及び動き情報に要する符号量を予測モード評価部1006に供給する。
Similarly, the motion information code
予測モード評価部1006は、予測誤差算出部1002より供給された各予測モードの予測誤差評価値と、動き情報符号量算出部1005から供給された各予測モードの動き情報符号量を用いて、各予測モードの総合動き補償予測誤差評価値を算出し、最も少ない評価値である予測モードを選択し、選択した予測モードと選択した予測モードに対する動き情報を、動き情報符号化部110及び動き情報メモリ111に出力する。また、予測モード評価部1006は同様に、予測誤差算出部1002より供給された動き補償予測信号に対して、選択した予測モードにおける予測信号を選択して減算部101及び加算部105に出力する。
The prediction
結合動き情報算出部1007は、動き情報メモリ111より供給される隣接ブロックの動き情報における候補ブロック群を用いて、片方向であるか双方向であるかを示す予測方向、参照画像指定情報、動きベクトル値で構成される動き情報として、複数の動き情報を結合動き情報候補リストと共に生成し、結合動き補償予測生成部1008及び結合動き修正動き補償予測生成部1009に供給する。
The combined motion
図12は、結合動き情報算出部1007の構成を示す図である。結合動き情報算出部1007は、結合動き情報候補リスト生成部1200及び結合動き情報候補リスト削除部1201を含む。結合動き情報算出部1007は、候補ブロック群より所定の順番で動き情報の候補を作成し、その中から、動き情報の各要素(予測方向、参照画像指定情報、及び動きベクトル値)が全て同一の値を示している候補を削除することで、有効な動き情報のみを結合動き情報候補として登録する。結合動き情報算出部1007の詳細動作に関しては、後述する。
FIG. 12 is a diagram illustrating a configuration of the combined motion
図10に戻り、結合動き補償予測生成部1008は、結合動き情報算出部1007より供給された結合動き情報候補リストより、登録された結合動き情報候補のそれぞれに対して、動き情報より、予測方向に応じて1つの参照画像(片方向)もしくは2つの参照画像(双方向)の参照画像指定情報と動きベクトル値を動き補償予測部108に指定して、動き補償予測画像を生成すると共に、それぞれの結合動き情報インデックスを動き情報符号量算出部1005に供給する。結合動き補償予測生成部1008の詳細動作に関しては、後述する。
Returning to FIG. 10, the combined motion compensation
図10の構成では、それぞれの結合動き情報インデックスにおける予測モード評価は、予測モード評価部1006で施されるが、予測誤差評価値及び動き情報符号量を予測誤差算出部1002及び動き情報符号量算出部1005より受け取り、結合動き補償予測生成部1008内で、最適な結合動き補償予測の結合動きインデックスを確定させた後に、他の予測モードを含めた最適予測モードの評価を行う構成を取ることも可能である。
In the configuration of FIG. 10, the prediction mode evaluation in each combined motion information index is performed by the prediction
結合動き修正動き補償予測生成部1009は、結合動き情報算出部1007より供給された結合動き情報候補リスト、登録された結合動き情報候補に対して、双方向の動き情報を算出する。そして、その中で動きベクトル値を修正する参照画像を特定し、特定した参照画像の参照画像指定情報に対して、動きベクトル検出部107で検出された動きベクトル値を入力し、差分ベクトル値を計算する。そして、双方向の参照画像指定情報と修正した動きベクトル値を含む、動き補償予測に用いる動きベクトル値を動き補償予測部108に指定して、動き補償予測画像を生成すると共に、それぞれに結合動き情報インデックスと伝送する差分ベクトル値を動き情報符号量算出部1005に供給する。
The combined motion corrected motion compensation
図13は、結合動き修正動き補償予測生成部1009の構成を示す図である。結合動き修正動き補償予測生成部1009は、基準参照画像・動き修正参照画像選択部1300、動き修正参照画像動きベクトル取得部1301、結合動き情報修正動き補償予測生成部1302、及び差分ベクトル算出部1303を含む。
FIG. 13 is a diagram illustrating a configuration of the combined motion corrected motion compensation
基準参照画像・動き修正参照画像選択部1300は登録された結合動き情報候補に対して、双方向の動き情報を算出して動きベクトル値を修正する参照画像を特定する機能を有する。動き修正参照画像動きベクトル取得部1301は特定した参照画像の参照画像指定情報に対する動きベクトル値を入力する機能を有する。結合動き情報修正動き補償予測生成部1302は動き補償予測に用いる動きベクトル値と参照画像指定情報を動き補償予測部108に出力する機能をする。差分ベクトル算出部1303は基準参照画像・動き修正参照画像選択部1300で算出された動き情報の動きベクトル値と、動きベクトル検出部107から入力された動きベクトル値の差分ベクトル値を算出する機能を有する。結合動き修正動き補償予測生成部1009の詳細動作は後述する。
The reference reference image / motion correction reference
図14は、図10の予測モード判定部109を介して動作する、図5のステップS502である動き補償予測モード/予測信号生成の動作について説明するためのフローチャートである。最初に、結合動き情報候補リスト生成を行い(S1400)、結合予測モード評価値を生成する(S1401)。
FIG. 14 is a flowchart for explaining the operation of motion compensation prediction mode / prediction signal generation, which is step S502 of FIG. 5, which operates via the prediction
続いて、ステップS1400で生成された結合動き情報候補リストを用いて、結合動き修正予測モード評価値を生成し(S1402)、片方向予測モード評価値を生成し(S1403)、双方向予測モード評価値を生成し(S1404)、生成した評価値を比較することで最適な予測モードを選択する(S1405)。ただし、ステップS1401、ステップS1402、ステップS1403、及びステップS1404の評価値生成の順序はこの順序に限らない。 Subsequently, a combined motion correction prediction mode evaluation value is generated using the combined motion information candidate list generated in step S1400 (S1402), a unidirectional prediction mode evaluation value is generated (S1403), and a bidirectional prediction mode evaluation is performed. A value is generated (S1404), and an optimum prediction mode is selected by comparing the generated evaluation values (S1405). However, the order of evaluation value generation in step S1401, step S1402, step S1403, and step S1404 is not limited to this order.
選択された予測モードに従い予測信号を出力し(S1406)、選択された予測モードに従い動き情報を出力する(S1407)ことで、予測ブロック単位の動き補償予測モード/予測信号生成処理が終了する。ステップS1400、ステップS1401、ステップS1402、ステップS1404、及びステップS1404の詳細動作に関しては後述する。 A prediction signal is output in accordance with the selected prediction mode (S1406), and motion information is output in accordance with the selected prediction mode (S1407), thereby completing the motion compensation prediction mode / prediction signal generation process for each prediction block. Detailed operations of step S1400, step S1401, step S1402, step S1404, and step S1404 will be described later.
図15は、図14のステップS1400における結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。この動作は、図10の結合動き情報算出部1007における構成の詳細動作を示している。図12の結合動き情報候補リスト生成部1200は、動き情報メモリ111より供給される空間候補ブロック群から領域外である候補ブロックやイントラモードである候補ブロックを除いた候補ブロック群から、空間結合動き情報候補リストを生成する(S1500)。空間結合動き情報候補リスト生成の詳細な動作は後述する。
FIG. 15 is a flowchart for explaining the detailed operation of generating the combined motion information candidate list in step S1400 of FIG. This operation shows the detailed operation of the configuration in the combined motion
結合動き情報候補リスト生成部1200は、続いて動き情報メモリ111より供給される時間候補ブロック群から領域外である候補ブロックやイントラモードである候補ブロックを除いた候補ブロック群から、時間結合動き情報候補リストを生成する(S1501)。時間結合動き情報候補リスト生成の詳細な動作は後述する。
The combined motion information candidate
続いて、結合動き情報候補リスト削除部1201において、生成された空間結合動き情報候補リストと時間結合動き情報候補リストを統合した結合動き情報候補リストより、重複している動き情報を持つ結合動き情報候補が複数存在する場合には1つの結合動き情報候補を残して削除して動き情報候補リストを更新する(S1502)。
Subsequently, in the combined motion information candidate
最後に、上記処理において隣接ブロックに有効な動き情報が存在せず、結合動き情報候補が存在しない場合(S1503:YES)、固定の動き情報を結合動き情報候補リストに追加して(S1504)、処理を終了する。実施の形態1における固定の動き情報としては、予測方向が双方向で、参照画像指定情報(インデックス)が0、2つの動きベクトル値が共に(0,0)の値を設定する。実施の形態1における固定の動き情報としては、上記設定には限定されず、暗黙的に指定できる手法で設定されることにより、動画像復号装置においても同じ動き情報が再現できる。なお、上記処理において隣接ブロックに有効な動き情報が存在し、結合動き情報候補が存在する場合(S1503:NO)、ステップS1504をスキップして、処理を終了する。 Finally, when there is no valid motion information in the adjacent block in the above process and there is no combined motion information candidate (S1503: YES), fixed motion information is added to the combined motion information candidate list (S1504), End the process. As the fixed motion information in the first embodiment, the prediction direction is bidirectional, the reference image designation information (index) is 0, and the two motion vector values are both (0, 0). The fixed motion information in the first embodiment is not limited to the above setting, and the same motion information can be reproduced in the moving picture decoding apparatus by being set by a method that can be implicitly specified. In the above process, when valid motion information exists in adjacent blocks and there is a combined motion information candidate (S1503: NO), step S1504 is skipped and the process ends.
動き情報メモリ111より、結合動き情報算出部1007に供給される動き情報の候補ブロック群には、空間候補ブロック群と時間候補ブロック群が含まれる。まず、空間結合動き情報候補リスト生成について説明する。
The candidate block group of motion information supplied from the
図16は、空間結合動き情報候補リスト生成に用いる空間候補ブロック群を示す図である。空間候補ブロック群は、符号化対象画像の予測対象ブロックに隣接している同一画像のブロックを示す。ブロック群は、その管理が最小予測ブロックサイズ単位で行われ、図16に示すようなA1〜A4、B1〜B4、C、D、Eの位置のブロックが隣接するブロック群となる。候補ブロックの位置は、最小予測ブロックサイズの単位で管理されるが、隣接ブロックの予測ブロックサイズが最小予測ブロックサイズよりも大きな場合には、予測ブロックサイズ内の全ての候補ブロックに同一の動き情報が格納される。実施の形態1においては、これら隣接するブロック群の内、空間候補ブロック群をブロックA1、ブロックB1、ブロックC、ブロックDの4ブロックとする。 FIG. 16 is a diagram illustrating a spatial candidate block group used for generating a spatially coupled motion information candidate list. The spatial candidate block group indicates a block of the same image adjacent to the prediction target block of the encoding target image. The block group is managed in units of the minimum predicted block size, and the blocks at positions A1 to A4, B1 to B4, C, D, and E as shown in FIG. 16 are adjacent block groups. The position of the candidate block is managed in units of the minimum prediction block size, but if the prediction block size of the adjacent block is larger than the minimum prediction block size, the same motion information for all candidate blocks within the prediction block size Is stored. In the first embodiment, among these adjacent block groups, the spatial candidate block group is assumed to be four blocks of block A1, block B1, block C, and block D.
図17は、空間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。空間候補ブロック群に含まれる4つの候補ブロックであるブロックA1、ブロックB1、ブロックC、ブロックDについて以下の処理を繰り返し行う(S1700からS1703)。 FIG. 17 is a flowchart for explaining the detailed operation of generating the spatially coupled motion information candidate list. The following processing is repeated for the four candidate blocks included in the space candidate block group, block A1, block B1, block C, and block D (S1700 to S1703).
最初に候補ブロックの有効性を検査する(S1701)。候補ブロックが領域外でなくイントラモードでない場合(S1701:YES)、候補ブロックは有効となる。候補ブロックが有効であれば、候補ブロックの動き情報を空間結合動き情報候補リストに追加する(S1702)。 First, the validity of the candidate block is checked (S1701). If the candidate block is not outside the area and is not in the intra mode (S1701: YES), the candidate block is valid. If the candidate block is valid, the motion information of the candidate block is added to the spatially combined motion information candidate list (S1702).
ここでは、空間結合動き情報候補リストには4以下の候補ブロックの動き情報が含まれるとしたが、空間候補ブロック群は、処理対象の予測ブロックに隣接する少なくとも1以上の処理済みのブロックであり、候補ブロックの有効性によって空間結合動き情報候補リストの数が変動すればよく、これに限定されない。なお、候補ブロックが領域外またはイントラモードの場合(S1701:NO)、ステップS1702をスキップし、次の候補ブロックの有効/無効判定が行われる。 Here, it is assumed that the spatial combination motion information candidate list includes motion information of four or less candidate blocks, but the spatial candidate block group is at least one or more processed blocks adjacent to the prediction block to be processed. The number of spatially coupled motion information candidate lists may be changed depending on the effectiveness of the candidate block, and the present invention is not limited to this. If the candidate block is out of the region or in the intra mode (S1701: NO), step S1702 is skipped, and the validity / invalidity determination of the next candidate block is performed.
続いて、時間結合動き情報候補リスト生成について説明する。図18は、時間結合動き情報候補リスト生成に用いる時間候補ブロック群を示す図である。時間候補ブロック群は、予測対象ブロックとは別の復号済みの画像ColPicにおける予測対象ブロックと同位置及びその周辺にあるブロックを示す。図18におけるA1〜A4、B1〜B4、C、D、E、F1〜F4、G1〜G4、H、I1〜I16の位置のブロックが、時間的に隣接するブロック群となる。実施の形態1においては、これら時間的に隣接するブロック群の内、時間候補ブロック群をブロックHとブロックI6の2ブロックとする。 Subsequently, generation of a time combination motion information candidate list will be described. FIG. 18 is a diagram illustrating a time candidate block group used for generating a time combination motion information candidate list. The temporal candidate block group indicates blocks at the same position and the periphery of the prediction target block in the decoded image ColPic different from the prediction target block. The blocks at positions A1 to A4, B1 to B4, C, D, E, F1 to F4, G1 to G4, H, and I1 to I16 in FIG. 18 are temporally adjacent block groups. In the first embodiment, among these temporally adjacent block groups, the temporal candidate block group is assumed to be two blocks, block H and block I6.
図19は、時間結合動き情報候補リスト生成の詳細動作を説明するためのフローチャートである。時間候補ブロック群に含まれる2つの候補ブロックであるブロックHとブロックI6について(ステップ1900、ステップS1905)、候補ブロックの有効性を検査する(S1901)。候補ブロックが有効である場合(S1901:YES)、ステップS1902〜ステップS1904の処理が行われ、生成された動き情報が時間結合動き情報候補リストに登録され、処理が終了する。候補ブロックが画面領域外の位置を示す場合や、候補ブロックがイントラ予測ブロックである場合(S1901:NO)、候補ブロックが有効でなく、次の候補ブロックの有効/無効判定が行われる。 FIG. 19 is a flowchart for explaining the detailed operation of generating the time combination motion information candidate list. Regarding the block H and block I6 which are two candidate blocks included in the time candidate block group (step 1900, step S1905), the validity of the candidate block is checked (S1901). If the candidate block is valid (S1901: YES), the processing of step S1902 to step S1904 is performed, the generated motion information is registered in the time combination motion information candidate list, and the processing ends. When the candidate block indicates a position outside the screen area, or when the candidate block is an intra prediction block (S1901: NO), the candidate block is not valid and the next candidate block is determined to be valid / invalid.
候補ブロックが有効である場合(S1901:YES)、候補ブロックの動き情報をもとに結合動き情報候補に登録する参照画像選択候補を確定する(S1902)。実施の形態1ではL0方向の参照画像を、L0方向の参照画像のうち処理対象画像に最も近い距離にある参照画像とし、L1方向の参照画像を、L1方向の参照画像のうち処理対象画像に最も近い距離にある参照画像とする。 If the candidate block is valid (S1901: YES), the reference image selection candidate to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1902). In the first embodiment, the reference image in the L0 direction is the reference image that is the closest to the processing target image among the reference images in the L0 direction, and the reference image in the L1 direction is the processing target image among the reference images in the L1 direction. The reference image is the closest distance.
ここでの参照画像選択候補の確定手法は、L0方向の参照画像とL1方向の参照画像が決定できればよく、これに限定されない。符号化処理と復号処理で同一の手法で参照画像を確定することで、符号化時に意図した参照画像を確定できる。他の確定手法としては、例えばL0方向の参照画像及びL1方向の参照画像の参照画像インデックスが0である参照画像を選択する手法や、空間隣接ブロックが使用しているL0参照画像及びL1参照画像で、最も多く使用されている参照画像を予測対象ブロックにおける参照画像として選択する手法や、符号化ストリーム中で各方向の参照画像を指定する手法を用いることが可能である。 The determination method of the reference image selection candidate here is not limited to this as long as the reference image in the L0 direction and the reference image in the L1 direction can be determined. The reference image intended at the time of encoding can be determined by determining the reference image by the same method in the encoding process and the decoding process. Other determination methods include, for example, a method of selecting a reference image whose reference image index is 0 in the L0 direction reference image and the L1 direction reference image, and the L0 reference image and the L1 reference image used by the spatially adjacent blocks. Thus, it is possible to use a method of selecting the most frequently used reference image as a reference image in the prediction target block or a method of specifying a reference image in each direction in the encoded stream.
次に、候補ブロックの動き情報をもとに結合動き情報候補に登録する動きベクトル値を確定する(S1903)。実施の形態1における、時間結合動き情報は、候補ブロックの動き情報で有効な予測方向である動きベクトル値をもとに、双方向の動き情報を算出する。候補ブロックの予測方向がL0予測もしくはL1予測の片方向の場合には、予測に用いられている方向(L0方向或いはL1方向)の動き情報を選択し、その参照画像指定情報と動きベクトル値を双方向動き情報生成の基準値とする。 Next, the motion vector value to be registered in the combined motion information candidate is determined based on the motion information of the candidate block (S1903). As the temporally combined motion information in the first embodiment, bidirectional motion information is calculated based on motion vector values that are effective prediction directions in motion information of candidate blocks. When the prediction direction of the candidate block is one direction of L0 prediction or L1 prediction, motion information in the direction used for prediction (L0 direction or L1 direction) is selected, and the reference image designation information and motion vector value are selected. A reference value for generating bidirectional motion information.
候補ブロックの予測方向が双方向である場合には、L0予測或いはL1予測のどちらか一方の動き情報を基準値として選択する。基準値の選択方法は、例えばColPicと同じ予測方向に存在する動き情報を選択する、候補ブロックのL0予測、L1予測のそれぞれの参照画像でColPicとの画像間距離が近い方を選択する、或いは候補ブロックのL0予測、L1予測のそれぞれの動きベクトルが符号化処理対象画像と交差する方を選択する等が挙げられる。 When the prediction direction of the candidate block is bidirectional, motion information of either L0 prediction or L1 prediction is selected as a reference value. The selection method of the reference value is, for example, selecting motion information that exists in the same prediction direction as ColPic, selecting a candidate block having a shorter inter-image distance from ColPic in each of the L0 prediction and L1 prediction reference images. For example, it is possible to select a direction in which the motion vectors of the L0 prediction and the L1 prediction of the candidate block intersect with the encoding process target image.
双方向動き情報生成の基準とする動きベクトル値が確定したら、結合動き情報候補に登録する動きベクトル値を算出する。 When the motion vector value used as a reference for generating bidirectional motion information is determined, a motion vector value to be registered in the combined motion information candidate is calculated.
図20は、時間結合動き情報に対する基準動きベクトル値ColMvに対する、L0予測、L1予測に対して登録する動きベクトル値mvL0t、mvL1tの算出手法を説明するための図である。基準動きベクトル値ColMvに対するColPicと候補ブロックの基準とする動きベクトルの対象となる参照画像との画像間距離をColDistとする。L0予測、L1予測の各参照画像と処理対象画像との画像間距離をCurrL0Dist、CuurL1Distとする。ColMvを、ColDistとCurrL0Dist、CurrL1Distの距離比率でスケーリングした動きベクトルを、それぞれに登録する動きベクトルとする。具体的には、登録する動きベクトル値mvL0t、mvL1tは、下記式1、2で算出される。
mvL0t=mvCol×CurrL0Dist/ColDist ・・・(式1)
mvL1t=mvCol×CurrL1Dist/ColDist ・・・(式2)
となる。
FIG. 20 is a diagram for explaining a calculation method of motion vector values mvL0t and mvL1t registered for L0 prediction and L1 prediction with respect to the reference motion vector value ColMv for temporally coupled motion information. The distance between images between ColPic for the reference motion vector value ColMv and the reference image that is the target of the motion vector used as a reference for the candidate block is referred to as ColDist. The inter-image distances between the L0 prediction and L1 prediction reference images and the processing target image are CurrL0Dist and CururL1Dist. A motion vector obtained by scaling ColMv with a distance ratio of ColDist to CurrL0Dist and CurrL1Dist is set as a motion vector to be registered. Specifically, the motion vector values mvL0t and mvL1t to be registered are calculated by the following
mvL0t = mvCol × CurrL0Dist / ColDist (Formula 1)
mvL1t = mvCol × CurrL1Dist / ColDist (Formula 2)
It becomes.
図19に戻り、このようにして生成された、双方向の参照画像選択情報(インデックス)と、動きベクトル値を結合動き情報候補に追加し(S1904)、時間結合動き情報候補リスト作成処理が終了する。 Returning to FIG. 19, the bi-directional reference image selection information (index) and the motion vector value generated in this way are added to the combined motion information candidates (S1904), and the time combined motion information candidate list creation process ends. To do.
図21は、図19のステップS1401における結合予測モード評価値生成の詳細動作を説明するためのフローチャートである。この動作は、図10の結合動き補償予測生成部1008を用いた構成の詳細動作を示している。
FIG. 21 is a flowchart for explaining the detailed operation of the combined prediction mode evaluation value generation in step S1401 of FIG. This operation is a detailed operation of the configuration using the combined motion compensation
最初に予測誤差評価値を最大値に設定し、予測誤差が最小となる結合動き情報インデックスを初期化(例えば、−1などのリスト外の値)する(S2100)。結合動き情報候補リスト生成処理により、生成された結合動き情報候補リストの数をnum_of_indexとすると、i=0からnum_of_index−1までの結合動き情報候補について以下の処理を繰り返し行う(S2101からS2109)。 First, the prediction error evaluation value is set to the maximum value, and the combined motion information index that minimizes the prediction error is initialized (for example, a value outside the list such as −1) (S2100). If the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the following processing is repeated for combined motion information candidates from i = 0 to num_of_index-1 (S2101 to S2109).
先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(S2102)。続いて動き情報符号量を算出する(S2103)。結合予測モードにおいては、結合動き情報インデックスのみが符号化されるので、結合動き情報インデックスのみが動き情報符号量となる。結合動き情報インデックスの符号列としては、実施の形態1では、Truncated Unary符号列を用いる。 First, the motion information stored in the index i is acquired from the combined motion information candidate list (S2102). Subsequently, a motion information code amount is calculated (S2103). In the joint prediction mode, since only the joint motion information index is encoded, only the joint motion information index becomes the motion information code amount. In the first embodiment, a Truncated Unary code string is used as the code string of the combined motion information index.
続いて、動き情報の予測方向が片方向である場合(S2104:YES)、1つの参照画像に対する参照画像指定情報と動きベクトルを、図1における動き補償予測部108に設定して、片方向動き補償予測ブロックを生成する(S2105)。動き情報が片方向でない場合(S2104:NO)、2つの参照画像に対する参照画像指定情報と動きベクトルを動き補償予測部108に設定して、双方向動き補償予測ブロックを生成する(S2106)。
Subsequently, when the prediction direction of the motion information is unidirectional (S2104: YES), the reference image designation information and the motion vector for one reference image are set in the motion
続いて、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2107)、予測誤差評価値が最小値である場合には評価値を更新すると共に、予測誤差最小インデックスを更新する(S2108)。 Subsequently, a prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S2107), and when the prediction error evaluation value is the minimum value, the evaluation value is updated. The prediction error minimum index is updated (S2108).
全ての結合動き情報候補についての予測誤差評価値が比較された結果、選択された予測誤差最小インデックスを、結合予測モードで用いる結合動き情報インデックスとして、予測誤差最小値、動き補償予測ブロックと共に出力し(S2110)、結合予測モード評価値生成処理を終了する。 As a result of comparison of the prediction error evaluation values for all the combined motion information candidates, the selected prediction error minimum index is output together with the prediction error minimum value and the motion compensated prediction block as a combined motion information index used in the combined prediction mode. (S2110), the combined prediction mode evaluation value generation process is terminated.
図22は、図14のステップS1402における結合動き修正予測モード評価値生成の詳細動作を説明するためのフローチャートである。この動作は、図10の結合動き修正動き補償予測生成部1009を用いた構成の詳細動作を示している。
FIG. 22 is a flowchart for explaining the detailed operation of the combined motion correction prediction mode evaluation value generation in step S1402 of FIG. This operation shows a detailed operation of the configuration using the combined motion corrected motion compensation
最初に予測誤差評価値を最大値に設定し、予測誤差が最小となる結合動き情報インックスを初期化(例えば、−1などのリスト外の値)する(S2200)。結合動き情報候補リスト生成処理により、生成された結合動き情報候補リストの数をnum_of_indexとすると、i=0からnum_of_index−1までの結合動き情報候補について以下の処理を繰り返し行う(S2201からS2210)。 First, the prediction error evaluation value is set to the maximum value, and the combined motion information index that minimizes the prediction error is initialized (for example, a value outside the list such as −1) (S2200). If the number of combined motion information candidate lists generated by the combined motion information candidate list generation process is num_of_index, the following processing is repeated for combined motion information candidates from i = 0 to num_of_index-1 (S2201 to S2210).
先ず、結合動き情報候補リストよりインデックスiに格納された動き情報を取得する(S2202)。続いて、取得した動き情報より双方向予測の動きベクトル値と参照画像指定情報、及び差分ベクトルを伝送する参照画像となる動き修正参照画像を確定する(S2203)。ステップS2203の詳細動作に関しては、後述する。 First, the motion information stored in the index i is acquired from the combined motion information candidate list (S2202). Subsequently, a motion-corrected reference image serving as a reference image for transmitting the motion vector value for bidirectional prediction, reference image designation information, and the difference vector is determined from the acquired motion information (S2203). The detailed operation of step S2203 will be described later.
次に、ステップS2203により確定された動き補正参照画像に対して、図1の動きベクトル検出部107より動き補正参照画像に対する検出した動きベクトル値を入力する(S2204)。入力された動きベクトル値を動き補償予測に用いるため、結合動き情報候補より算出された動き情報における、動き補正参照画像の動きベクトル値との差分ベクトルが生成される(S2205)。
Next, the motion vector value detected for the motion correction reference image is input from the motion
続いて、動き情報符号量を算出する(S2206)。結合動き修正予測モードにおいては、結合動き情報インデックスと差分ベクトル値が符号化されることで、必要な動き情報が伝送される。そのため、結合動き情報インデックスの符号量と差分ベクトル値の符号量が加算され、結合動き修正予測モードにおける動き情報符号量となる。 Subsequently, a motion information code amount is calculated (S2206). In the combined motion correction prediction mode, necessary motion information is transmitted by encoding the combined motion information index and the difference vector value. For this reason, the code amount of the combined motion information index and the code amount of the difference vector value are added to obtain the motion information code amount in the combined motion correction prediction mode.
結合修正動き予測モードの場合に、結合動き情報より生成された双方向予測の動きベクトルと参照画像選択情報に対して、動き修正参照画像に対する修正した動きベクトルのみを入れ替えた動き情報を、図1における動き補償予測部108に設定して、双方向動き補償予測ブロックを生成する(S2207)。
In the combined corrected motion prediction mode, the motion information obtained by replacing only the motion vector corrected for the motion corrected reference image with respect to the motion vector of the bidirectional prediction generated from the combined motion information and the reference image selection information is shown in FIG. Is set in the motion compensated
動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2208)、予測誤差評価値が最小値である場合には評価値を更新すると共に、予測誤差最小インデックスを更新する(S2209)。 A prediction error evaluation value is calculated from the prediction error and the motion information code amount of the motion compensated prediction block and the prediction target block (S2208). When the prediction error evaluation value is the minimum value, the evaluation value is updated and the prediction error is calculated. The minimum index is updated (S2209).
全ての結合動き情報候補についての予測誤差評価値が比較された結果、選択された予測誤差最小インデックスを、結合予測モードで用いる結合動き情報インデックスとして、予測誤差最小値、動き補償予測ブロックと共に出力し(S2211)、結合動き修正予測モード評価値生成処理を終了する。 As a result of comparison of the prediction error evaluation values for all the combined motion information candidates, the selected prediction error minimum index is output together with the prediction error minimum value and the motion compensated prediction block as a combined motion information index used in the combined prediction mode. (S2211) The combined motion correction prediction mode evaluation value generation process ends.
次に、ステップS2203の詳細動作を説明する前に、結合動き修正予測モードにおける結合動き情報に対するスケーリング処理の説明を行う。図23(a)〜(c)は、結合動き修正予測モードにおける結合動き情報に対するスケーリング処理の概念を示す図である。結合動き情報としては、図23(a)に示す空間隣接ブロックから算出された予測方向が双方向である空間BiPredと、図23(b)に示す空間隣接ブロックから算出された予測方向が片方向である空間UniPredと、図23(c)に示す時間連接ブロックから算出された時間BiPredが存在する。 Next, before describing the detailed operation of step S2203, the scaling process for the combined motion information in the combined motion correction prediction mode will be described. FIGS. 23A to 23C are diagrams illustrating the concept of scaling processing for combined motion information in the combined motion modified prediction mode. As the combined motion information, the space BiPred in which the prediction direction calculated from the spatial adjacent block shown in FIG. 23A is bidirectional and the prediction direction calculated from the spatial adjacent block shown in FIG. There is a space UniPred and a time BiPred calculated from the time concatenation block shown in FIG.
実施の形態1における、結合動き情報に対するスケーリング処理は、双方向の動き情報が取得できる空間BiPred及び時間BiPredにおいては、結合動き情報算出時に施された動きベクトルをそのまま用い、時間UniPredに関しては、片方向で定義されている動きベクトル値を、符号化対象画像とL0画像、L1画像との距離比率でスケーリングすることで、使用されていなかった方向の動き情報を生成する。 The scaling processing for the combined motion information in the first embodiment uses the motion vector applied at the time of calculating the combined motion information as it is in the space BiPred and the time BiPred in which bidirectional motion information can be acquired, and for the time UniPred, The motion vector value defined in the direction is scaled by the distance ratio between the encoding target image, the L0 image, and the L1 image, thereby generating motion information in a direction that has not been used.
図24は、各結合動き情報に対して存在するスケーリングされて生成した動きベクトル数を示す図である。空間UniPredが上記スケーリング処理における1個、空間BiPredは結合動き情報算出時にスケーリング処理が施されていないため0個、時間BiPredは結合動き情報算出時の2つの動きベクトル値の算出時にスケーリング処理が施されているため2個となる。 FIG. 24 is a diagram illustrating the number of scaled motion vectors that exist for each piece of combined motion information. The space UniPred is 1 in the above scaling process, the space BiPred is 0 because no scaling process is performed when calculating the combined motion information, and the time BiPred is subjected to the scaling process when calculating two motion vector values when calculating the combined motion information. Because it is, it becomes two.
上記スケーリング処理が施された動きベクトル値は、隣接ブロックで使用された動きベクトル値をそのまま動きベクトル値として採用した結合動き情報と比較すると、スケーリングによる演算誤差の影響や、動き量の時間変化が一定でない場合の影響があり、その動き情報の精度にずれが生じている可能性が高い。また、隣接ブロックに使用された動きベクトル値は、符号化対象から時間的に離れた参照画像になるほど画面の変化が大きくなるため、その値の精度が低下する。 When the motion vector value subjected to the above scaling processing is compared with the combined motion information in which the motion vector value used in the adjacent block is directly adopted as the motion vector value, the influence of the calculation error due to scaling and the temporal change of the motion amount There is an influence when it is not constant, and there is a high possibility that the accuracy of the motion information has shifted. In addition, since the motion vector value used for the adjacent block has a larger screen change as the reference image is temporally separated from the encoding target, the accuracy of the value decreases.
実施の形態1においては、これらの結合動き情報に登録された動きベクトルの算出時の特性を利用して、差分ベクトルを送って動きベクトルを修正する必要のある動きベクトルを、付加情報を伝送することなく特定し、差分ベクトルのみを追加で符号化する。これにより、動き補償予測の予測精度が高い動き情報を、少ない動き情報の伝送で実現することができる。 In the first embodiment, using the characteristics at the time of calculation of the motion vector registered in the combined motion information, a motion vector that needs to be corrected by sending a difference vector is transmitted as additional information. And specify only the difference vector. Thereby, motion information with high prediction accuracy of motion compensation prediction can be realized by transmission of a small amount of motion information.
実施の形態1においては、スケーリングされて算出された動きベクトル値を持つ参照画像を優先的に、差分ベクトルを伝送する動き修正参照画像に設定する。2つの動きベクトルが共にスケーリングされている場合や、共にスケーリングされていない場合には、予測対象画像からの時間的距離が離れた参照画像を、差分ベクトルを伝送する動き修正参照画像に設定する。 In the first embodiment, a reference image having a motion vector value calculated by scaling is preferentially set as a motion correction reference image for transmitting a difference vector. When the two motion vectors are both scaled or are not scaled together, a reference image that is separated in time from the prediction target image is set as a motion-corrected reference image that transmits the difference vector.
図25(a)〜(c)は、実施の形態1における差分動きベクトル伝送参照画像確定アルゴリズムを示す概念図である。図25(a)に示す空間BiPredでは、スケーリングされた動きベクトルが0個のため、時間的距離の遠い参照画像の動きベクトルに差分ベクトルを追加する。図25(b)に示す空間UniPredでは、スケーリングされた動きベクトルが1個のため、スケーリングされた動きベクトルに差分ベクトルを追加する。図25(c)に示す時間BiPredでは、スケーリングされた動きベクトルが2個のため、時間的距離の遠い参照画像の動きベクトルに差分ベクトルを追加する。 FIGS. 25A to 25C are conceptual diagrams showing the differential motion vector transmission reference image determination algorithm in the first embodiment. In the space BiPred shown in FIG. 25A, since the scaled motion vector is zero, a difference vector is added to the motion vector of the reference image far in time. In the space UniPred shown in FIG. 25B, since there is one scaled motion vector, a difference vector is added to the scaled motion vector. At time BiPred shown in FIG. 25C, since there are two scaled motion vectors, a difference vector is added to the motion vector of the reference image far in time.
図26は、図22のステップS2203の詳細動作を説明するためのフローチャートである。図22のステップS2203では、上記差分ベクトルを伝送する参照画像の確定処理が行われる。 FIG. 26 is a flowchart for explaining detailed operation of step S2203 of FIG. In step S2203 of FIG. 22, a reference image transmission process for transmitting the difference vector is performed.
最初に、取得した結合動き情報の予測方向が片方向である場合には(S2600:YES)、空間UniPredで導出された結合動き情報であり、双方向の動き補償予測を行うための第2参照画像と第2参照画像の動きベクトル値を確定する処理を行う(S2601)。ステップS2601の詳細動作に関しては、後述する。 First, when the prediction direction of the acquired combined motion information is unidirectional (S2600: YES), it is combined motion information derived in the space UniPred, and the second reference for performing bidirectional motion compensation prediction Processing for determining the motion vector values of the image and the second reference image is performed (S2601). The detailed operation of step S2601 will be described later.
続いて、双方向の参照画像の動きベクトル値のうちスケーリングされた動きベクトルが片方向の1つの動きベクトルのみである場合(S2602:YES)、スケーリングされた動きベクトル値を持つ参照画像を動き修正参照画像に設定する(S2603)。 Subsequently, when the scaled motion vector is only one unidirectional motion vector among the motion vector values of the bidirectional reference image (S2602: YES), the reference image having the scaled motion vector value is corrected for motion. The reference image is set (S2603).
スケーリングされた動きベクトルが片方向の1つの動きベクトルでない場合(S2602:NO)、符号化対象画像、L0参照画像、L1参照画像の時間情報を示すPOC値を取得し、それぞれPOCcur、POC_L0、POC_L1に設定する(S2604)。 When the scaled motion vector is not one motion vector in one direction (S2602: NO), POC values indicating time information of the encoding target image, the L0 reference image, and the L1 reference image are acquired, and POCcur, POC_L0, and POC_L1 are obtained. (S2604).
符号化対象画像と2つの参照画像の間での時間的距離を下記式3で比較する。
abs(POCcur−POC_L0)>abs(POCcur−POC_L1)
・・・(式3)
The temporal distance between the encoding target image and the two reference images is compared by the following
abs (POCcur-POC_L0)> abs (POCcur-POC_L1)
... (Formula 3)
上記式3を満たす場合(S2605:YES)、L0参照画像が遠い参照画像と判断し、L0参照画像を動き修正参照画像に設定する(S2606)。上記式3を満たさない場合(S2605:NO)、L1参照画像を動き修正参照画像に設定する(S2607)。以上で、双方向の動きベクトル値と差分ベクトルを伝送する参照画像を確定する処理が終了する。
When
図27は、図26のステップS2601の詳細動作を説明するためのフローチャートである。最初に、結合動き情報に格納されている動き情報がL0予測であった場合(S2700:YES)、第2参照画像としてL1予測の参照画像インデックスを確定する(S2701)。L0予測でない場合(S2700:NO)、第2参照画像としてL0予測の参照画像インデックスを確定する(S2702)。ステップS2702における参照画像インデックスの確定処理に関しては、後述する。 FIG. 27 is a flowchart for explaining the detailed operation of step S2601 of FIG. First, when the motion information stored in the combined motion information is L0 prediction (S2700: YES), a reference image index for L1 prediction is determined as the second reference image (S2701). When it is not L0 prediction (S2700: NO), a reference image index for L0 prediction is determined as the second reference image (S2702). The reference image index determination process in step S2702 will be described later.
続いて、符号化対象画像、結合動き情報に格納されている参照画像、第2参照画像のPOC値を取得し、POCcur、POC_Lx、POC_Lyに設定する(S2703)。上記POC値を用いて、結合動き情報に格納されている動きベクトル値を2つの参照画像と符号化対象画像との距離比率でスケーリングする(S2704)。 Subsequently, POC values of the encoding target image, the reference image stored in the combined motion information, and the second reference image are acquired and set to POCcur, POC_Lx, POC_Ly (S2703). Using the POC value, the motion vector value stored in the combined motion information is scaled by the distance ratio between the two reference images and the encoding target image (S2704).
結合動き情報に格納されている動き情報がL0予測であった場合(S2705:YES)、スケーリングして生成された動きベクトル値をL1予測の参照画像に対する基準動きベクトル値として設定する(S2706)。L0予測でない場合(S2705:NO)、スケーリングして生成された動きベクトル値をL0予測の参照画像に対する基準動きベクトル値として設定し(S2707)、処理を終了する。 When the motion information stored in the combined motion information is L0 prediction (S2705: YES), the motion vector value generated by scaling is set as the reference motion vector value for the reference image of L1 prediction (S2706). If it is not the L0 prediction (S2705: NO), the motion vector value generated by scaling is set as the reference motion vector value for the reference image for the L0 prediction (S2707), and the process is terminated.
図28は、図27のステップS2702の詳細動作を説明するためのフローチャートである。図27のステップS2702では、参照画像インデックスを確定する処理が行われる。 FIG. 28 is a flowchart for explaining the detailed operation of step S2702 of FIG. In step S2702 of FIG. 27, a process of determining a reference image index is performed.
最初に、結合動き情報に格納されている参照画像を基準参照画像として取得するとともに、第2参照画像を設定する予測方向における参照画像リストを第2参照画像候補リストとして取得する(S2800)。 First, the reference image stored in the combined motion information is acquired as the standard reference image, and the reference image list in the prediction direction for setting the second reference image is acquired as the second reference image candidate list (S2800).
次に、符号化対象画像を挟んで基準参照画像と反対方向の時間位置に存在する参照画像が第2参照画像候補リスト内に存在するかを調べる(S2801)。存在する場合(S2801:YES)、その中で最も符号化対象画像に近い時間位置に存在する参照画像を第2参照画像に対する参照画像インデックスとして確定する(S2802)。存在しない場合(S2801:NO)、符号化対象に最も近い時間位置に存在する参照画像を第2参照画像候補と設定し(S2803)、基準参照画像と第2参照画像候補が同一画像であるかを調べる(S2804)。 Next, it is checked whether or not a reference image that exists at a time position in the opposite direction to the standard reference image across the encoding target image exists in the second reference image candidate list (S2801). If it exists (S2801: YES), the reference image existing at the time position closest to the encoding target image is determined as the reference image index for the second reference image (S2802). If it does not exist (S2801: NO), the reference image existing at the time position closest to the encoding target is set as the second reference image candidate (S2803), and the reference reference image and the second reference image candidate are the same image. (S2804).
基準参照画像と第2参照画像候補が同一画像でない場合(S2804:NO)、第2参照画像候補を第2参照画像に対する参照画像インデックスとして確定する(S2805)。基準参照画像と第2参照画像候補が同一画像である場合(S2804:YES)、他の参照画像が第2参照画像候補リストに存在するかを調べる(S2806)。存在する場合(S2806:YES)、時間位置で次に符号化対象画像に近い参照画像を取得し、第2参照画像に対する参照画像インデックスとして確定する(S2807)。他の参照画像が存在しない場合(S2806:NO)、ステップS2805に進み、第2参照画像候補を第2参照画像に対する参照画像インデックスとして確定する。以上で全ての場合における第2参照画像に対する参照画像インデックスが確定し、処理を終了する。 If the reference reference image and the second reference image candidate are not the same image (S2804: NO), the second reference image candidate is determined as a reference image index for the second reference image (S2805). When the reference reference image and the second reference image candidate are the same image (S2804: YES), it is checked whether another reference image exists in the second reference image candidate list (S2806). If it exists (S2806: YES), a reference image closest to the next encoding target image at the time position is acquired and determined as a reference image index for the second reference image (S2807). If no other reference image exists (S2806: NO), the process proceeds to step S2805, and the second reference image candidate is determined as a reference image index for the second reference image. As described above, the reference image index for the second reference image in all cases is determined, and the process ends.
実施の形態1における第2参照画像の確定アルゴリズムは、動き補償予測処理が双方向予測において符号化対象画像を挟んで反対方向に存在する参照画像で構成される補間型(内挿型)の双方向予測の方が、符号化対象画像を挟まずに同一方向に存在する参照画像で構成する補間(外挿型)の双方向予測よりも、動きや物体の時間変化の影響を平均化できるために予測精度が良い点、符号化対象画像から近い参照画像の方が動きや物体の時間変化の影響が少なく動き補償予測の精度が良い点、同じ参照画像を重ね合わせて生成する予測画像よりも、2つの異なる参照画像より生成される双方向予測画像の方が動きを正しく捉えた場合の予測画像の予測精度が高い点の3つの知見に基づく確定アルゴリズムである。この手法により、双方向予測に適した参照画像を第2参照画像として設定できる利点がある。 The determination algorithm for the second reference image in the first embodiment includes both an interpolation type (interpolation type) in which the motion compensation prediction process is configured with reference images that exist in opposite directions across the encoding target image in bidirectional prediction. Directional prediction can average the effects of motion and temporal changes of objects compared to bi-directional prediction of interpolation (extrapolation type) consisting of reference images that exist in the same direction without interposing the encoding target image. In addition, the reference image closer to the encoding target image is less affected by the motion and the time change of the object and the motion compensation prediction accuracy is better, and the prediction image generated by superimposing the same reference image The bi-directional prediction image generated from two different reference images is a deterministic algorithm based on three findings that the prediction image has a higher prediction accuracy when the motion is correctly captured. This method has an advantage that a reference image suitable for bidirectional prediction can be set as the second reference image.
しかしながら、上述した参照画像インデックスの確定処理に関しては、第2参照画像の参照画像インデックスが確定できればよく、異なる確定アルゴリズムを用いることも可能である。符号化処理と復号処理で同一の手法で参照画像を確定することで、符号化時に意図した参照画像を確定できる。他の確定方法として、他ブロックの動き情報における動きベクトルが正確な動きを示していない場合に、同じ参照画像を重ね合わせて生成する予測画像を用いることで、参照画像に微小な変化を加えた動き補償予測信号を新たな候補として加えることが出来る効果を重視して、図28のフローチャートにおける、基準参照画像と第2参照画像候補が同一画像であるかを調べる処理であるステップS2804を無くして、同一画像であっても第2参照画像候補として確定する方法を用いることができる。 However, regarding the above-described determination process of the reference image index, it is only necessary to determine the reference image index of the second reference image, and it is possible to use a different determination algorithm. The reference image intended at the time of encoding can be determined by determining the reference image by the same method in the encoding process and the decoding process. As another determination method, when a motion vector in the motion information of another block does not indicate an accurate motion, a minute change is added to the reference image by using a prediction image generated by overlapping the same reference image. Emphasizing the effect that a motion compensated prediction signal can be added as a new candidate, step S2804, which is a process for checking whether the reference reference image and the second reference image candidate are the same image in the flowchart of FIG. 28, is eliminated. Even if the images are the same, a method of determining them as the second reference image candidates can be used.
更に他の確定方法として、第2参照画像として確定する予測方向の参照画像の中で、単純に符号化対象画像に最も近い距離にある参照画像を選択する方法や、常に参照画像インデックスが0で示される参照画像を取得する方法や、空間隣接ブロックが使用しているL0参照画像及びL1参照画像で、最も多く使用されている参照画像を予測対象ブロックにおける参照画像として選択する方法などの、時間BiPredにおける参照画像確定処理に用いた確定手段を用いることも可能である。また、図28に示したアルゴリズムを用いて、時間BiPredにおける参照画像確定処理に応用することも可能である。 As another determination method, a method of simply selecting a reference image closest to the encoding target image from among reference images in the prediction direction determined as the second reference image, or the reference image index is always 0. Time, such as a method for obtaining the indicated reference image, or a method for selecting the reference image used most frequently as the reference image in the prediction target block in the L0 reference image and the L1 reference image used by the spatially adjacent block It is also possible to use determination means used in the reference image determination process in BiPred. In addition, the algorithm shown in FIG. 28 can be used for reference image determination processing at time BiPred.
図29は、図14のステップS1403の詳細動作を説明するためのフローチャートである。図14のステップS1403では、片方向予測モード評価値生成処理が行われる。 FIG. 29 is a flowchart for explaining the detailed operation of step S1403 of FIG. In step S1403 of FIG. 14, a one-way prediction mode evaluation value generation process is performed.
最初に、片方向予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得する(S2900)。続いて、予測ベクトル候補リストを生成し(S2901)、予測ベクトルの中から最適予測ベクトルを選択し、差分ベクトルを生成する(S2902)。最適予測ベクトルの選択手法は、予測ベクトルと伝送する動きベクトルの差分ベクトルを実際に符号化する際の符号量が最も少ないものを選択することが望ましいが、単純に差分ベクトルの水平・垂直成分の絶対値の総和が小さいものを選択するなどの手法で、簡易的に算出してもよい。ステップS2901の詳細動作については、後述する。 First, reference image designation information (index) and motion vector values for unidirectional prediction are acquired (S2900). Subsequently, a prediction vector candidate list is generated (S2901), an optimal prediction vector is selected from the prediction vectors, and a difference vector is generated (S2902). It is desirable to select the optimal prediction vector with the least amount of code when the difference vector between the prediction vector and the motion vector to be transmitted is actually encoded. However, the horizontal and vertical components of the difference vector are simply selected. The calculation may be simplified by a method such as selecting one having a small absolute sum. Detailed operation of step S2901 will be described later.
続いて、動き情報符号量を算出する(S2903)。片方向予測モードの場合に、符号化する動き情報としては、1つの参照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの3要素となり、各々符号化された符号量の総量が動き情報符号量として算出される。実施の形態1における予測ベクトルインデックスの符号列生成手法としては、結合動き情報インデックスの符号列と同様にTruncated Unary符号列を用いるものとする。
Subsequently, a motion information code amount is calculated (S2903). In the case of the unidirectional prediction mode, as motion information to be encoded, there are three elements of reference image designation information, a difference vector value, and a prediction vector index for one reference image, and the total amount of each encoded code amount is Calculated as the motion information code amount. As a predictive vector index code string generation method according to
続いて、1つの参照画像に対する参照画像指定情報と動きベクトルを図1における動き補償予測部108に設定して、片方向動き補償予測ブロックを生成する(S2904)。さらに、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S2905)、予測誤差評価値と、1つの参照画像に対する動き情報である、参照画像指定情報と差分ベクトル値と予測ベクトルインデックスを動き補償予測ブロックと共に出力し(S2906)、片方向予測モード評価値生成処理を終了する。
Subsequently, reference image designation information and a motion vector for one reference image are set in the motion compensated
図30は、図29のステップS2901の詳細動作を説明するためのフローチャートである。図29のステップS2901では、予測ベクトル候補リスト生成が行われる。この動作は、図10の予測ベクトル算出部1003における構成の詳細動作を示している。
FIG. 30 is a flowchart for explaining the detailed operation of step S2901 of FIG. In step S2901 in FIG. 29, a prediction vector candidate list is generated. This operation shows the detailed operation of the configuration in the prediction
図11の予測ベクトル候補リスト生成部1100は、動き情報メモリ111より供給される空間候補ブロック群から領域外である候補ブロックや、イントラモードである候補ブロックを除いた候補ブロック群から空間動き情報利用予測ベクトル候補リストを生成する(S3000)。空間動き情報利用予測ベクトル候補リスト生成の詳細な動作は後述する。
The prediction vector candidate
予測ベクトル候補リスト生成部1100は、続いて動き情報メモリ111より供給される時間候補ブロック群から領域外である候補ブロックやイントラモードである候補ブロックを除いた候補ブロック群から時間動き情報利用予測ベクトル候補リストを生成する(S3001)。時間動き情報利用予測ベクトル候補リスト生成の詳細な動作は後述する。
The prediction vector candidate
続いて、予測ベクトル候補リスト削除部1101は、生成された空間動き情報利用予測ベクトル候補リストと時間動き情報利用予測ベクトル候補リストを統合した予測ベクトル候補リストより、重複している動きベクトルを持つ予測ベクトル候補が複数存在する場合には1つの予測ベクトル候補を残して削除して予測ベクトル候補リストを更新する(S3002)。
Subsequently, the prediction vector candidate
最後に、上記処理において隣接ブロックに有効な動き情報が存在せず、予測ベクトル候補が存在しない場合(S3003:YES)、固定ベクトル値(0,0)を予測ベクトル候補リストに追加して(S3004)、処理を終了する。 Finally, when there is no valid motion information in the adjacent block and no prediction vector candidate exists in the above processing (S3003: YES), the fixed vector value (0, 0) is added to the prediction vector candidate list (S3004). ), The process is terminated.
図31は、空間動き情報利用予測ベクトル候補リスト生成の詳細動作を説明するためのフローチャートである。動き情報メモリ111より、予測ベクトル算出部1003に供給される動き情報の候補ブロック群には、空間候補ブロック群と時間候補ブロック群が含まれる。空間候補ブロック群と時間候補ブロック群の概念は、図16や図18に示した、結合動き情報に対する動き情報の候補ブロックと同様である。
FIG. 31 is a flowchart for explaining a detailed operation of generating a spatial motion information use prediction vector candidate list. The candidate block group of motion information supplied from the
実施の形態1においては、空間候補ブロック群としては図16におけるブロックA1、ブロックB1、ブロックC、ブロックDの4ブロックとする。実施の形態1において、候補ブロックの数や位置に関しては限定されず、また結合動き情報において用いる候補ブロックの数や位置と、予測ベクトルにおいて用いる候補ブロックの数や位置は、一致しても一致しなくてもかまわない。
In the first embodiment, the space candidate block group is assumed to be four blocks of block A1, block B1, block C, and block D in FIG. In
最初に、空間候補ブロック群に含まれる4つの候補ブロックであるブロックA1、ブロックB1、ブロックC、ブロックDについて以下の処理を繰り返し行う(S3100からS3103)。 First, the following processing is repeated for the four candidate blocks included in the space candidate block group, block A1, block B1, block C, and block D (S3100 to S3103).
最初に候補ブロックにおいて指定した参照画像における動きベクトル値の有効性を検査する(S3101)。候補ブロックが領域外でなくイントラモードでない場合だけでなく、片方向予測で指定した参照画像が使用されない場合や、参照インデックスが異なる場合に、動きベクトル値は無効となる。ただし、実施の形態1においては、片方向予測で指定した参照画像が使用されない場合や、参照インデックスが異なる場合に、他の参照画像の動きベクトル値をスケーリングして動きベクトルを求めるなどの追加の処理を行い、有効な動きベクトルとして扱うことも可能であり、上記動きベクトル値の有効/無効判断手法は、実施の形態1の手法に限定されない。 First, the validity of the motion vector value in the reference image designated in the candidate block is checked (S3101). The motion vector value becomes invalid not only when the candidate block is not out of the region and not in the intra mode, but also when the reference image designated by the unidirectional prediction is not used or when the reference index is different. However, in the first embodiment, when the reference image designated by the unidirectional prediction is not used or when the reference index is different, additional motion vector values are obtained by scaling the motion vector values of other reference images. It is also possible to perform processing and handle it as an effective motion vector, and the motion vector value validity / invalidity determination method is not limited to the method of the first embodiment.
続いて、動きベクトル値が有効であれば(S3101:YES)、候補ブロックの動きベクトル値を予測ベクトル候補リストに追加する(S3102)。動きベクトル値が無効であれば(S3101:NO)、ステップS3102をスキップし、次の候補ブロックの動きベクトル値の有効/無効判断を行う。 Subsequently, if the motion vector value is valid (S3101: YES), the motion vector value of the candidate block is added to the prediction vector candidate list (S3102). If the motion vector value is invalid (S3101: NO), step S3102 is skipped, and valid / invalid determination of the motion vector value of the next candidate block is performed.
図32は、時間動き情報利用予測ベクトル候補リスト生成の詳細動作を説明するためのフローチャートである。実施の形態1においては、図18における時間的に隣接するブロック群の内、時間候補ブロック群をブロックHとブロックI6の2ブロックとする。時間動き情報利用予測ベクトル候補リスト生成においても、候補ブロックの数や位置に関しては限定されず、また結合動き情報において用いる候補ブロックの数や位置と別に設定することが可能である。 FIG. 32 is a flowchart for explaining a detailed operation of generating a temporal motion information use prediction vector candidate list. In the first embodiment, among the temporally adjacent block groups in FIG. 18, the temporal candidate block group is assumed to be two blocks, block H and block I6. Also in the generation of a temporal motion information prediction vector candidate list, the number and position of candidate blocks are not limited, and can be set separately from the number and position of candidate blocks used in combined motion information.
時間候補ブロック群に含まれる2つの候補ブロックであるブロックHとブロックI6について(ステップ3200、ステップS3204)、候補ブロックの有効性を検査する(S3201)。候補ブロックが有効である場合(S3201:YES)、ステップS3202〜ステップS3203の処理が行われ、生成された動きベクトル値が予測ベクトル候補リストに登録され、処理が終了する。候補ブロックが画面領域外の位置を示す場合や、候補ブロックがイントラ予測ブロックである場合には、候補ブロックが有効でなく(S3201:NO)、次の候補ブロックの有効/無効判定が行われる。 Regarding the block H and the block I6 that are two candidate blocks included in the time candidate block group (step 3200, step S3204), the validity of the candidate block is checked (S3201). If the candidate block is valid (S3201: YES), the processes of steps S3202 to S3203 are performed, the generated motion vector values are registered in the prediction vector candidate list, and the process ends. When the candidate block indicates a position outside the screen area, or when the candidate block is an intra prediction block, the candidate block is not valid (S3201: NO), and the validity / invalidity determination of the next candidate block is performed.
候補ブロックが有効である場合(S3201:YES)、候補ブロックの動き情報をもとに予測ベクトル候補に登録する動きベクトル値を確定する(S3202)。確定した動きベクトル値を予測ベクトル候補リストに追加して(S3203)、時間動き情報利用予測ベクトル候補リスト生成が終了する。 If the candidate block is valid (S3201: YES), the motion vector value to be registered in the prediction vector candidate is determined based on the motion information of the candidate block (S3202). The confirmed motion vector value is added to the prediction vector candidate list (S3203), and generation of the temporal motion information use prediction vector candidate list ends.
図33は、図14のステップS1404の詳細動作を説明するためのフローチャートである。図14のステップS1404では、双方向予測モード評価値生成処理が行われる。 FIG. 33 is a flowchart for explaining the detailed operation of step S1404 of FIG. In step S1404 of FIG. 14, a bidirectional prediction mode evaluation value generation process is performed.
最初に、L0予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得する(S3300)。続いて、L0予測ベクトル候補リストを生成し(S3301)、予測ベクトルの中からL0予測における最適予測ベクトルを選択し、差分ベクトルを生成する(S3302)。これらの処理は、図29のフローチャート内の片方向予測モード評価値生成処理における、ステップ2900〜ステップS2902までの処理と同じ処理である。
First, reference image designation information (index) and motion vector values for L0 prediction are acquired (S3300). Subsequently, an L0 prediction vector candidate list is generated (S3301), an optimal prediction vector in L0 prediction is selected from the prediction vectors, and a difference vector is generated (S3302). These processes are the same as the processes from
続いて、L1予測に対する参照画像指定情報(インデックス)と動きベクトル値を取得する(S3303)。続いて、L1予測ベクトル候補リストを生成し(S3304)、予測ベクトルの中からL1予測における最適予測ベクトルを選択し、差分ベクトルを生成する(S3305)。これらの処理も同様に、図29のフローチャート内の片方向予測モード評価値生成処理における、ステップ2900〜ステップS2902までの処理と同じ処理である。
Subsequently, reference image designation information (index) and motion vector value for L1 prediction are acquired (S3303). Subsequently, an L1 prediction vector candidate list is generated (S3304), an optimal prediction vector in L1 prediction is selected from the prediction vectors, and a difference vector is generated (S3305). These processes are also the same as the processes from
続いて、動き情報符号量を算出する(S3306)。双方向予測モードの場合には、符号化する動き情報としては、L0とL1の2つの参照画像に対する、参照画像指定情報、差分ベクトル値、及び予測ベクトルインデックスの計6要素となり、各々符号化された符号量の総量が動き情報符号量として算出される。そのため、結合予測モードや結合動き修正予測モードと比較して、符号化される動き情報の符号量は大きくなる。 Subsequently, a motion information code amount is calculated (S3306). In the bidirectional prediction mode, the motion information to be encoded is a total of six elements of reference image designation information, difference vector value, and prediction vector index for the two reference images L0 and L1, and is encoded respectively. The total code amount is calculated as the motion information code amount. For this reason, the amount of code of motion information to be encoded is larger than in the combined prediction mode and the combined motion correction prediction mode.
続いて、2つの参照画像に対する参照画像指定情報と動きベクトルを図1における動き補償予測部108に設定して、双方向動き補償予測ブロックを生成する(S3307)。さらに、動き補償予測ブロックと予測対象ブロックの予測誤差と動き情報符号量より、予測誤差評価値を算出し(S3308)、予測誤差評価値と、L0、L1の2つの参照画像に対する動き情報である、2つの参照画像指定情報と2つの差分ベクトル値と2つの予測ベクトルインデックスを動き補償予測ブロックと共に出力し(S3309)、双方向予測モード評価値生成処理を終了する。
Subsequently, reference image designation information and motion vectors for the two reference images are set in the motion compensated
以上の処理が、実施の形態1における動画像符号化装置における予測モード判定部109の詳細動作となる。
The above processing is the detailed operation of the prediction
[実施の形態1における動画像符号化装置における動き情報符号化部の詳細動作説明]
図34は、図5のステップS504の詳細動作を説明するためのフローチャートである。図5のステップS504の処理は、実施の形態1の動画像符号化装置の動き情報符号化部110における、各動き補償予測モードに対する動き情報を符号化する処理を示す。
[Detailed Description of Operation of Motion Information Encoding Unit in Moving Picture Encoding Device in Embodiment 1]
FIG. 34 is a flowchart for explaining the detailed operation of step S504 of FIG. The process of step S504 in FIG. 5 shows a process of encoding motion information for each motion compensation prediction mode in the motion
動き情報符号化部110には、予測モード判定部109において決定された動き補償予測モードにおける、予測モードを示す情報と、各予測モードの動き情報を表現するために必要な情報が供給され、動き情報符号化部110は動き情報符号化データ生成処理を開始する。
The motion
最初に、予測モードが結合予測モードである場合(S3400:YES)、ステップS3401に進み、対象となる予測ブロックで予測誤差信号を符号化しない(Skipモード)状態である場合(S3401:YES)、Skipフラグを符号化し(S3402)、そうでない場合(S3401:NO)、マージフラグを1として符号化する(S3403)。 First, when the prediction mode is the combined prediction mode (S3400: YES), the process proceeds to step S3401, and when the prediction error signal is not encoded in the target prediction block (Skip mode) (S3401: YES), The Skip flag is encoded (S3402). Otherwise (S3401: NO), the merge flag is encoded as 1 (S3403).
Skipフラグ或いはマージフラグを符号化した後、結合動き情報候補リストが1より大きい場合(S3404:YES)、結合動き情報インデックスを符号化し(S3405)、処理を終了する。結合動き情報候補リストが1の場合(S3404:NO)、結合動き情報が特定できるため、結合動き情報インデックスは伝送されない。 After the Skip flag or merge flag is encoded, if the combined motion information candidate list is greater than 1 (S3404: YES), the combined motion information index is encoded (S3405), and the process ends. When the combined motion information candidate list is 1 (S3404: NO), since combined motion information can be specified, the combined motion information index is not transmitted.
次に、予測モードが結合予測モードでない場合(S3400:NO)、マージフラグを0として符号化し(S3406)、動き予測フラグを符号化する(S3407)。動き予測フラグは、予測方向が片方向予測であるか双方向予測であるかを指示する情報として符号化される。 Next, when the prediction mode is not the combined prediction mode (S3400: NO), the merge flag is encoded as 0 (S3406), and the motion prediction flag is encoded (S3407). The motion prediction flag is encoded as information indicating whether the prediction direction is unidirectional prediction or bidirectional prediction.
図35は、実施の形態1における動き予測フラグの一例を示す図である。動き予測フラグ(inter_pred_flag)として、片方向を示す値(Pred_LC)が0、双方向を示す値(Pred_BI)が1で符号化される。結合動き修正予測モードに関しては、動き補償予測の構造は双方向予測となり、Pred_BIとして動き予測フラグが送られる。 FIG. 35 is a diagram illustrating an example of a motion prediction flag in the first embodiment. As the motion prediction flag (inter_pred_flag), a value indicating one direction (Pred_LC) is 0, and a value indicating bidirectional (Pred_BI) is 1. Regarding the combined motion correction prediction mode, the structure of motion compensation prediction is bidirectional prediction, and a motion prediction flag is sent as Pred_BI.
続いて、動き予測フラグで示された予測方向が片方向予測である場合(S3408:YES)、片方向予測モードの動き情報伝送が行われる。最初に、参照画像指定情報(インデックス)を符号化し(S3409)、続いて、差分ベクトルを符号化する(S3410)。予測ベクトル候補リストが1より大きい場合(S3411:YES)、予測ベクトルインデックスを符号化し(S3412)、処理を終了する。予測ベクトル候補リストが1の場合(S3411:NO)、予測ベクトルが特定できるため、インデックスは伝送されない。 Subsequently, when the prediction direction indicated by the motion prediction flag is unidirectional prediction (S3408: YES), motion information transmission in the unidirectional prediction mode is performed. First, reference image designation information (index) is encoded (S3409), and then a difference vector is encoded (S3410). If the predicted vector candidate list is greater than 1 (S3411: YES), the predicted vector index is encoded (S3412), and the process is terminated. When the prediction vector candidate list is 1 (S3411: NO), since the prediction vector can be specified, the index is not transmitted.
一方、動き予測フラグで示された予測方向が片方向予測でない場合(S3408:NO)において、予測モードが結合動き修正予測モードである場合(S3413:YES)、結合動き修正予測モードの動き情報伝送が行われる。 On the other hand, when the prediction direction indicated by the motion prediction flag is not unidirectional prediction (S3408: NO), when the prediction mode is the combined motion correction prediction mode (S3413: YES), motion information transmission in the combined motion correction prediction mode is performed. Is done.
最初に、結合動き修正予測モードを特定するためのマージMvdフラグを1で符号化する(S3414)。続いて、結合動き情報候補リストが1より大きい場合(S3415:YES)、結合動き情報インデックスを符号化する(S3416)。結合動き情報候補リストが1の場合(S3415:NO)、結合動き情報インデックスは伝送されない。最後に、結合動き修正予測モードで特定された動き修正参照画像の動きベクトル値に対して、結合動き情報の動き修正参照画像の修正前動きベクトルとの差分ベクトル値を符号化し(S3417)、処理を終了する。 First, the merge Mvd flag for specifying the combined motion correction prediction mode is encoded with 1 (S3414). Subsequently, when the combined motion information candidate list is larger than 1 (S3415: YES), the combined motion information index is encoded (S3416). When the combined motion information candidate list is 1 (S3415: NO), the combined motion information index is not transmitted. Finally, the difference vector value between the motion vector value of the motion correction reference image specified in the combined motion correction prediction mode and the motion vector before correction of the motion correction reference image of the combined motion information is encoded (S3417), and processing Exit.
予測モードが結合動き修正予測モードでない場合(S3413:NO)、予測モードは双方向予測モードとなり、双方向予測モードの動き情報伝送が行われる。最初に、結合動き修正予測モードでないことを示すためにマージMvdフラグを0で符号化する(S3418)。続いて、L0予測の動き情報であるL0参照画像指定情報を符号化し(S3419)、L0差分ベクトル値を符号化する(S3420)。L0予測の予測ベクトル候補リストが1より大きい場合(S3421:YES)、L0予測ベクトルインデックスを符号化する(S3422)。L0予測の予測ベクトル候補リストが1の場合(S3421:NO)、L0予測ベクトルインデックスは伝送されない。 When the prediction mode is not the combined motion correction prediction mode (S3413: NO), the prediction mode is the bidirectional prediction mode, and motion information transmission in the bidirectional prediction mode is performed. First, the merge Mvd flag is encoded with 0 to indicate that it is not the combined motion correction prediction mode (S3418). Subsequently, L0 reference image designation information, which is motion information of L0 prediction, is encoded (S3419), and an L0 difference vector value is encoded (S3420). When the prediction vector candidate list for the L0 prediction is larger than 1 (S3421: YES), the L0 prediction vector index is encoded (S3422). When the prediction vector candidate list for L0 prediction is 1 (S3421: NO), the L0 prediction vector index is not transmitted.
続いて、L1予測の動き情報であるL1参照画像指定情報を符号化し(S3423)、L1差分ベクトル値を符号化する(S3424)。L1予測の予測ベクトル候補リストが1より大きい場合(S3425:YES)、L1予測ベクトルインデックスを符号化する(S3426)。L1予測の予測ベクトル候補リストが1の場合(S3425:NO)、L1予測ベクトルインデックスは伝送されない。以上の処理により、動き情報符号化データの生成が終了する。 Subsequently, L1 reference image designation information, which is motion information of L1 prediction, is encoded (S3423), and an L1 difference vector value is encoded (S3424). When the prediction vector candidate list for L1 prediction is larger than 1 (S3425: YES), the L1 prediction vector index is encoded (S3426). When the prediction vector candidate list for L1 prediction is 1 (S3425: NO), the L1 prediction vector index is not transmitted. With the above processing, the generation of motion information encoded data is completed.
図36は、図34のフローチャートで示した、動き情報符号化データ生成処理によって生成される符号化ストリームのシンタックスの一例を示す。図36の符号化シンタックスにおいては、Skipフラグの伝送は予測ブロック単位での動き情報の符号化より上の階層での符号化ブロック単位で選択される。従って、上位の符号化ブロックの単位で、図34の予測誤差信号を符号化しない(Skipモード)状態であるか否かの判定(S3401)が行われる。 FIG. 36 shows an example of the syntax of the encoded stream generated by the motion information encoded data generation process shown in the flowchart of FIG. In the coding syntax of FIG. 36, the transmission of the Skip flag is selected in units of coding blocks in a layer higher than the coding of motion information in units of prediction blocks. Therefore, it is determined (S3401) whether or not the prediction error signal in FIG. 34 is not encoded (Skip mode) in units of higher-order encoded blocks.
[実施の形態1における動画像復号装置における動き情報復号部の詳細動作説明]
図37は、図6に示した実施の形態1の動画像復号装置における動き情報復号部606の詳細な構成を示す図である。動き情報復号部606は、動き情報ビットストリーム復号部3700、予測ベクトル算出部3701、ベクトル加算部3702、片方向動き補償予測復号部3703、双方向動き補償予測復号部3704、結合動き情報算出部3705、結合動き補償予測復号部3706、及び結合動き修正動き補償予測復号部3707を含む。
[Detailed Operation Description of Motion Information Decoding Unit in Moving Picture Decoding Device in Embodiment 1]
FIG. 37 is a diagram showing a detailed configuration of the motion
図6における動き情報復号部606に対して、多重分離部601より入力された動き情報ビットストリームが、動き情報ビットストリーム復号部3700に供給され、動き情報メモリ607より入力された動き情報が、予測ベクトル算出部3701、及び結合動き情報算出部3705に供給される。
For the motion
また、動き補償予測部608に対して、片方向動き補償予測復号部3703、双方向動き補償予測復号部3704、結合動き補償予測復号部3706、及び結合動き修正動き補償予測復号部3707から、動き補償予測に用いる参照画像指定情報と動きベクトルが出力され、予測方向を示す情報を含めた復号された動き情報が、動き情報メモリ607に格納される。
In addition, the motion
動き情報ビットストリーム復号部3700は、多重分離部601より入力された動き情報ビットストリームを符号化シンタックスに従って復号していくことで、伝送された予測モードと、予測モードに応じた動き情報を生成する。生成した動き情報の中で、結合動き情報インデックスは、予測モードに応じて結合動き補償予測復号部3706、もしくは結合動き修正動き補償予測復号部3707に供給され、参照画像指定情報が予測ベクトル算出部3701に供給され、予測ベクトルインデックスがベクトル加算部3702に供給され、差分ベクトル値が予測モードに応じてベクトル加算部3702、もしくは結合動き修正動き補償予測復号部3707に供給される。
The motion information
予測ベクトル算出部3701は、動き情報メモリ607より供給された隣接ブロックの動き情報と、動き情報ビットストリーム復号部3700より供給された参照画像指定情報から、動き補償予測の対象となる参照画像に対する予測ベクトル候補リストを生成し、参照画像指定情報と共にベクトル加算部3702に供給する。予測ベクトル算出部3701の動作に関しては、図10の動画像符号化装置における予測ベクトル算出部1003と同一の動作が行われ、符号化時の予測ベクトル候補リストと同一の候補リストが生成される。
The prediction
ベクトル加算部3702は、予測ベクトル算出部3701より供給された予測ベクトル候補リスト及び参照画像指定情報と、動き情報ビットストリーム復号部3700から供給された予測ベクトルインデックス及び差分ベクトルより、予測ベクトルインデックスで示された位置に登録された予測ベクトル値と差分ベクトル値を加算することで、動き補償予測対象となる参照画像に対しての動きベクトル値が再生される。再生された動きベクトル値は、参照画像指定情報と共に、予測モードに応じて片方向動き補償予測復号部3703、もしくは双方向動き補償予測復号部3704に供給される。
The
片方向動き補償予測復号部3703は、ベクトル加算部3702より1つの参照画像に対する、再生された動きベクトル値と参照画像指定情報が供給され、動きベクトル値と参照画像指定情報を動き補償予測部608に設定することで、動き補償予測信号を生成する。
The one-way motion compensation
双方向動き補償予測復号部3704は、ベクトル加算部3702より双方向の2つの参照画像に対する、再生された動きベクトル値と参照画像指定情報が供給され、動きベクトル値と参照画像指定情報を動き補償予測部608に設定することで、動き補償予測信号を生成する。
The bidirectional motion compensation
結合動き情報算出部3705は、動き情報メモリ607から供給される隣接ブロックの動き情報より、結合動き情報候補リストを生成し、結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値を、予測モードに応じて結合動き補償予測復号部3706、もしくは結合動き修正動き補償予測復号部3707に供給する。
The combined motion
結合動き情報算出部3705の動作に関しては、図10の動画像符号化装置における結合動き情報算出部1007と同一の動作が行われ、符号化時の結合動き情報候補リストと同一の候補リストが生成される。
Regarding the operation of the combined motion
結合動き補償予測復号部3706は、結合動き情報算出部3705より供給される結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値と、動き情報ビットストリーム復号部3700より供給される結合動き情報インデックスより、結合動き情報インデックスで示された結合動き情報候補リストにおける参照画像指定情報と動きベクトル値を再生し、動き補償予測部608に設定することで、動き補償予測信号を生成する。
The combined motion compensated
結合動き修正動き補償予測復号部3707は、結合動き情報算出部3705より供給される結合動き情報候補リストとリスト内の構成要素である結合動き情報候補の参照画像指定情報と動きベクトル値と、動き情報ビットストリーム復号部3700より供給される結合動き情報インデックスより、結合動き修正予測モードに対する動き情報を算出し、動き修正参照画像を確定する。そして、動き修正参照画像の動きベクトル値に対して差分ベクトル値を加算することで、双方向予測の参照画像指定情報と動きベクトル値を再生し、動き補償予測部608に設定することで、動き補償予測信号を生成する。
The combined motion corrected motion compensated
図38は、図7のステップS701の詳細動作を説明するためのフローチャートである。動き情報ビットストリーム復号部3700、予測ベクトル算出部3701、結合動き情報算出部3705、及び結合動き修正動き補償予測復号部3707により、図7のステップS701における動き情報復号処理が行われる。
FIG. 38 is a flowchart for explaining the detailed operation of step S701 in FIG. The motion information decoding process in step S701 in FIG. 7 is performed by the motion information
動き情報復号処理は、図36のシンタックス構造で符号化された符号化ビットストリームより動き情報を復号する処理である。最初に符号化ブロックの所定単位でSkipフラグを復号する(S3800)。以降は予測ブロック単位の処理となる。SkipフラグがSkipモードを示している場合(S3801:YES)、結合予測動き情報復号を行う(S3802)。ステップS3802の詳細処理については、後述する。 The motion information decoding process is a process of decoding motion information from the encoded bit stream encoded with the syntax structure of FIG. First, the Skip flag is decoded in a predetermined unit of the encoded block (S3800). Thereafter, processing is performed in units of prediction blocks. When the Skip flag indicates the Skip mode (S3801: YES), joint prediction motion information decoding is performed (S3802). Detailed processing in step S3802 will be described later.
Skipモードでない場合(S3801:NO)、マージフラグを復号する(S3803)。マージフラグが1を示している場合(S3804:YES)、ステップS3802の結合予測動き情報復号に進む。 If it is not the Skip mode (S3801: NO), the merge flag is decoded (S3803). When the merge flag indicates 1 (S3804: YES), the process proceeds to joint prediction motion information decoding in step S3802.
マージフラグが1でない場合(S3804:NO)、動き予測フラグを復号する(S3805)。動き予測フラグが片方向予測モードである場合(S3806:YES)、即ち図35におけるinter_pred_flagがPred_LCを示す場合、片方向予測動き情報復号を行う(S3807)。ステップS3807の詳細動作については、後述する。 If the merge flag is not 1 (S3804: NO), the motion prediction flag is decoded (S3805). When the motion prediction flag is in the unidirectional prediction mode (S3806: YES), that is, when inter_pred_flag in FIG. 35 indicates Pred_LC, unidirectional prediction motion information decoding is performed (S3807). Detailed operation of step S3807 will be described later.
動き予測フラグが片方向予測モードを示していない場合(S3806:NO)、マージMvdフラグを復号する(S3808)。マージMvdフラグが1である場合(S3809:YES)、結合動き修正予測動き情報復号が行われ(S3810)、マージMvdフラグが1でない場合(S3809:NO)、双方向予測動き情報復号が行われる(S3811)。ステップS3810、及びステップS3811の詳細動作については、後述する。 When the motion prediction flag does not indicate the one-way prediction mode (S3806: NO), the merge Mvd flag is decoded (S3808). When the merge Mvd flag is 1 (S3809: YES), joint motion modified prediction motion information decoding is performed (S3810), and when the merge Mvd flag is not 1 (S3809: NO), bidirectional prediction motion information decoding is performed. (S3811). Detailed operations of step S3810 and step S3811 will be described later.
図39は、図38のステップS3802の詳細動作を説明するためのフローチャートである。図38のステップS3802では、結合予測動き情報復号処理が行われる。 FIG. 39 is a flowchart for explaining the detailed operation of step S3802 of FIG. In step S3802 of FIG. 38, joint prediction motion information decoding processing is performed.
最初に予測モードに結合予測モードを設定し(S3900)、結合動き情報候補リストを生成する(S3901)。ステップS3901の処理は、図14のフローチャート内の、動画像符号化装置における結合動き情報候補リスト生成であるステップS1401と同一の処理である。 First, the combined prediction mode is set as the prediction mode (S3900), and a combined motion information candidate list is generated (S3901). The process of step S3901 is the same process as step S1401 which is the combined motion information candidate list generation in the moving image encoding device in the flowchart of FIG.
結合動き情報候補リストが1よりも大きい場合(S3902:YES)、即ち複数の結合動き情報候補がある場合には、結合動き情報インデックスを復号し(S3903)、結合動き情報候補リストが1つの場合(S3902:NO)、結合動き情報インデックスに0を設定する(S3904)。 When the combined motion information candidate list is larger than 1 (S3902: YES), that is, when there are a plurality of combined motion information candidates, the combined motion information index is decoded (S3903), and the combined motion information candidate list is one. (S3902: NO), 0 is set to the combined motion information index (S3904).
続いて、結合動き情報候補リストより、結合動き情報インデックスで示す位置に格納されている動き情報を取得する(S3905)。取得する動き情報としては、片方向/双方向を示す予測方向、参照画像指定情報、動きベクトル値となる。生成された動き情報は、結合予測モードの動き情報として格納され(S3906)、結合動き補償予測復号部3706に供給される。
Subsequently, the motion information stored at the position indicated by the combined motion information index is acquired from the combined motion information candidate list (S3905). The motion information to be acquired includes a prediction direction indicating unidirectional / bidirectional, reference image designation information, and a motion vector value. The generated motion information is stored as motion information in the joint prediction mode (S3906), and is supplied to the joint motion compensation
図40は、図38のステップS3807の詳細動作を説明するためのフローチャートである。図38のステップS3807では、片方向予測動き情報復号処理が行われる。 FIG. 40 is a flowchart for explaining the detailed operation of step S3807 of FIG. In step S3807 of FIG. 38, a one-way predicted motion information decoding process is performed.
最初に参照画像指定情報を復号し(S4000)、差分ベクトル値を復号する(S4001)。次に、予測ベクトル候補リストを生成し(S4002)、予測ベクトル候補リストが1より大きい場合(S4003:YES)、予測ベクトルインデックスを復号し(S4004)、予測ベクトル候補リストが1の場合(S4003:NO)、予測ベクトルインデックスに0を設定する(S4005)。 First, the reference image designation information is decoded (S4000), and the difference vector value is decoded (S4001). Next, a prediction vector candidate list is generated (S4002). When the prediction vector candidate list is larger than 1 (S4003: YES), the prediction vector index is decoded (S4004), and when the prediction vector candidate list is 1 (S4003: NO), 0 is set to the prediction vector index (S4005).
ここで、ステップS4002では、動画像符号化装置における図29のフローチャートのステップS2901と同様の処理が行われる。次に、予測ベクトル候補リストより、予測ベクトルインデックスで示す位置に格納されている動きベクトル値を取得する(S40006)。復号した差分ベクトル値と動きベクトル値を加算することで動きベクトルを再生する(S4007)。生成された動き情報として、1つの参照画像に対する参照画像指定情報と動きベクトル値が、片方向予測モードの動き情報として格納され(S4008)、片方向動き補償予測復号部3703に供給される。
Here, in step S4002, processing similar to that in step S2901 in the flowchart of FIG. 29 in the video encoding device is performed. Next, the motion vector value stored at the position indicated by the prediction vector index is acquired from the prediction vector candidate list (S40006). The motion vector is reproduced by adding the decoded difference vector value and the motion vector value (S4007). As the generated motion information, reference image designation information and motion vector values for one reference image are stored as motion information in the unidirectional prediction mode (S4008) and supplied to the unidirectional motion compensated
図41は、図38のステップS3811の詳細動作を説明するためのフローチャートである。図38のステップS3811では、双方向予測動き情報復号処理が行われる。 FIG. 41 is a flowchart for explaining the detailed operation of step S3811 of FIG. In step S3811 of FIG. 38, bidirectional prediction motion information decoding processing is performed.
最初にL0予測の参照画像指定情報を復号し(S4100)、差分ベクトル値を復号する(S4101)。次に、L0予測の予測ベクトル候補リストを生成し(S4102)、予測ベクトル候補リストが1より大きい場合(S4103:YES)、L0予測の予測ベクトルインデックスを復号する(S4104)。予測ベクトル候補リストが1の場合(S4103:NO)、L0予測の予測ベクトルインデックスに0を設定する(S4105)。ステップS4102では、動画像符号化装置における図33のフローチャートのステップS3301と同様の処理が行われる。 First, reference image designation information for L0 prediction is decoded (S4100), and a difference vector value is decoded (S4101). Next, a prediction vector candidate list for L0 prediction is generated (S4102). When the prediction vector candidate list is larger than 1 (S4103: YES), a prediction vector index for L0 prediction is decoded (S4104). When the prediction vector candidate list is 1 (S4103: NO), 0 is set to the prediction vector index of L0 prediction (S4105). In step S4102, processing similar to that in step S3301 in the flowchart of FIG. 33 in the video encoding device is performed.
次に、予測ベクトル候補リストより、L0予測の予測ベクトルインデックスで示す位置に格納されている動きベクトル値を取得する(S4106)。復号した差分ベクトル値と動きベクトル値を加算することで動きベクトルを再生する(S4107)。 Next, the motion vector value stored at the position indicated by the prediction vector index of the L0 prediction is acquired from the prediction vector candidate list (S4106). A motion vector is reproduced by adding the decoded difference vector value and motion vector value (S4107).
続いて、同様の動き情報復号処理がL1予測の参照画像に対して行われる。L1予測の参照画像指定情報を復号し(S4108)、差分ベクトル値を復号し(S4109)。L1予測の予測ベクトル候補リストを生成し(S4110)、予測ベクトル候補リストが1より大きい場合(S4111:YES)、L1予測の予測ベクトルインデックスを復号する(S4112)。予測ベクトル候補リストが1の場合(S4111:NO)、L1予測の予測ベクトルインデックスに0を設定する(S4113)。ステップS4113では、動画像符号化装置における図33のフローチャートのステップS3304と同様の処理が行われる。 Subsequently, a similar motion information decoding process is performed on the reference image for L1 prediction. The reference image designation information for L1 prediction is decoded (S4108), and the difference vector value is decoded (S4109). A prediction vector candidate list for L1 prediction is generated (S4110), and if the prediction vector candidate list is larger than 1 (S4111: YES), a prediction vector index for L1 prediction is decoded (S4112). When the prediction vector candidate list is 1 (S4111: NO), 0 is set to the prediction vector index of L1 prediction (S4113). In step S4113, processing similar to that in step S3304 in the flowchart of FIG. 33 in the video encoding device is performed.
次に、予測ベクトル候補リストより、L1予測の予測ベクトルインデックスで示す位置に格納されている動きベクトル値を取得する(S4114)。復号した差分ベクトル値と動きベクトル値を加算することで動きベクトルを再生する(S4115)。生成された動き情報として、2つの参照画像に対する参照画像指定情報と動きベクトル値が、双方向予測モードの動き情報として格納され(S4116)、双方向動き補償予測復号部3704に供給される。
Next, the motion vector value stored at the position indicated by the prediction vector index of the L1 prediction is acquired from the prediction vector candidate list (S4114). A motion vector is reproduced by adding the decoded difference vector value and the motion vector value (S4115). As the generated motion information, reference image designation information and motion vector values for two reference images are stored as motion information in the bidirectional prediction mode (S4116) and supplied to the bidirectional motion compensated
図42は、図38のステップS3810の詳細動作を説明するためのフローチャートである。図38のステップS3810では、結合動き修正予測動き情報復号処理が行われる。 FIG. 42 is a flowchart for explaining the detailed operation of step S3810 of FIG. In step S3810 of FIG. 38, a combined motion corrected predicted motion information decoding process is performed.
最初に予測モードに結合動き修正予測モードを設定し(S4200)、結合動き情報候補リストを生成する(S4201)。ステップS4201では、動画像符号化装置における図14のフローチャートのステップS1401と同一の処理が行われる。 First, the combined motion correction prediction mode is set as the prediction mode (S4200), and a combined motion information candidate list is generated (S4201). In step S4201, the same processing as in step S1401 of the flowchart of FIG. 14 in the moving image encoding apparatus is performed.
結合動き情報候補リストが1よりも大きい場合(S4202:YES)、即ち複数の結合動き情報候補がある場合には、結合動き情報インデックスを復号し(S4203)、結合動き情報候補リストが1つの場合(S4202:NO)、結合動き情報インデックスに0を設定する(S4204)。 When the combined motion information candidate list is larger than 1 (S4202: YES), that is, when there are a plurality of combined motion information candidates, the combined motion information index is decoded (S4203), and the combined motion information candidate list is one. (S4202: NO), 0 is set to the combined motion information index (S4204).
続いて、結合動き情報候補リストより、結合動き情報インデックスで示す位置に格納されている動き情報を取得する(S4205)。取得する動き情報としては、片方向/双方向を示す予測方向、参照画像指定情報、動きベクトル値となる。 Subsequently, the motion information stored at the position indicated by the combined motion information index is acquired from the combined motion information candidate list (S4205). The motion information to be acquired includes a prediction direction indicating unidirectional / bidirectional, reference image designation information, and a motion vector value.
次に、取得された結合動き情報インデックスと動き情報をもとに、結合動き修正動き補償予測復号部3707において、双方向動きベクトル値と差分ベクトルを伝送する参照画像確定処理を行う(S4206)。ステップS4206では、動画像符号化装置における図22のフローチャートのステップS2203と同一の処理が行われる。更に詳細な処理内容に関しては、図26、図27、図28に示されるフローチャートの処理が施され、動画像符号化装置と同じ双方向動きベクトル値と差分ベクトルを伝送する参照画像の確定が行われる。
Next, based on the acquired combined motion information index and motion information, the combined motion corrected motion compensated
次に、確定した差分ベクトルを伝送する参照画像である動き修正参照画像に対して、動き情報として格納された修正前の動きベクトル値に対する、差分ベクトルを復号し(S4207)、修正前の動きベクトル値に差分ベクトルを加算することで、動き修正参照画像の動きベクトル値を算出する(S4208)。 Next, with respect to the motion correction reference image that is the reference image for transmitting the determined difference vector, the difference vector for the motion vector value before correction stored as motion information is decoded (S4207), and the motion vector before correction is obtained. The motion vector value of the motion correction reference image is calculated by adding the difference vector to the value (S4208).
結合動き情報インデックスで示す位置に格納されている動き情報に対して、予測方向は双方向に設定されると共に、動き情報が片方向予測であった場合の第2参照画像を指定する参照画像指定情報と動き修正参照画像における更新された動きベクトル値が、動き情報として格納され(S4209)、結合動き修正動き補償予測復号部3707より、図6における動き補償予測部608及び動き情報メモリ607に出力される。
With respect to the motion information stored at the position indicated by the combined motion information index, the prediction direction is set to bidirectional, and the reference image specification that specifies the second reference image when the motion information is unidirectional prediction The information and the updated motion vector value in the motion correction reference image are stored as motion information (S4209), and output from the combined motion correction motion compensation
実施の形態1における、動画像符号化装置及び動画像復号装置においては、従来の動画像符号化手法であるAVCにおける動き補償予測に対して、より多くの隣接ブロックの動き情報を選択候補として用いることで、周囲の動き情報をより有効に利用できる候補として登録し、周囲の動き情報に対して動きベクトル値の修正情報を差分ベクトルとして符号化する構成を取る新規の予測モードである結合動き修正予測モードを用いた。これにより、動き情報の相関性が高いが動きの連続性が十分保たれていない場合や、他ブロックの動き情報における動きベクトルが予測残差を符号化した際の歪などの要因で正確な動きに対してずれを生じている場合などに、隣接ブロックから生成される動き情報に対して、少ない情報で適切な動きベクトルの修正が出来、少ない付加情報で予測残差が少ない動き補償予測信号を生成する、符号化装置及び復号装置を実現できる。
In the moving picture coding apparatus and the moving picture decoding apparatus in
また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、動きベクトルを修正する参照画像の設定を、周囲の動き情報に格納された予測モードや周囲の動き情報から結合する動き情報を取得する際の取得方法を基準に、結合する動き情報における動きベクトルの信頼度を評価し、修正する必要のある参照画像を特定する。これにより、符号化時に伝送する指定情報を追加せずに、適切な動きベクトルの修正を可能とする効果を有する。
In the video encoding device and video decoding device according to
また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、結合予測モードと共用して結合動き修正予測モードの基準参照画像及び基準動きベクトルが決定・算出される。これにより、結合動き修正予測モード用の新たな処理を最小限に抑制しつつ、付加情報を少なく符号化できる結合動き修正予測モードを具備することができる。
In the video encoding device and video decoding device according to
また、実施の形態1における、動画像符号化装置及び動画像復号装置においては、少ない負荷と符号量で双方向予測を行う結合動き修正予測モードを増やすことができ、以降に符号化・復号するブロックで参照する隣接ブロックの動き情報を増やすことができるため、符号化効率を向上させることができる。 Further, in the moving image encoding device and the moving image decoding device according to the first embodiment, it is possible to increase the combined motion correction prediction mode in which bidirectional prediction is performed with a small load and code amount, and the subsequent encoding / decoding is performed. Since it is possible to increase the motion information of adjacent blocks referred to by the block, it is possible to improve the coding efficiency.
(実施の形態2)
次に、本発明の実施の形態2についての説明を行う。実施の形態2は、実施の形態1に対して、結合動き修正予測モードを符号化する際の符号化処理が異なる。図43は、実施の形態2における動き予測モードの構成を示す図である。実施の形態1における、予測方向が片方向予測であるか双方向予測であるかを指示する情報として符号化される動き予測フラグ(inter_pred_flag)を、実施の形態2においては、図43に示すように、動き予測モード(inter_pred_mode)として、結合動き修正予測モードを示す値(Pred_MergeMvd)が0、片方向を示す値(Pred_LC)が1、双方向を示す値(Pred_BI)が2で符号化を行う。このため、実施の形態1におけるマージMvdフラグを伝送する必要は無くなり、3つの予測モードを識別する2つのフラグが1つのモード情報に統合される。
(Embodiment 2)
Next, the second embodiment of the present invention will be described. The second embodiment differs from the first embodiment in the encoding process when encoding the combined motion modified prediction mode. FIG. 43 is a diagram showing a configuration of a motion prediction mode in the second embodiment. The motion prediction flag (inter_pred_flag) encoded as information indicating whether the prediction direction is unidirectional prediction or bidirectional prediction in the first embodiment is shown in FIG. 43 in the second embodiment. In addition, as the motion prediction mode (inter_pred_mode), encoding is performed with a value indicating the combined motion correction prediction mode (Pred_MergeMvd) being 0, a value indicating one direction (Pred_LC) being 1, and a value indicating bidirectional (Pred_BI) being 2. . For this reason, it is not necessary to transmit the merge Mvd flag in
実施の形態2のシンタックスを使用すると、予測モードの発生頻度に偏りの大きい場合に、算術符号化などの発生頻度に応じた情報量で符号化できるエントロピー符号化を用いることで、予測モードに対する符号量を削減することが可能となる。
When the syntax of
図44は、実施の形態2における、動き情報符号化データ生成処理によって生成される符号化ストリームのシンタックスを示す図である。実施の形態2における、動画像符号化装置及び動画像復号装置は、図34で示された動き情報符号化データ生成処理のフローチャート、及び図38で示された動き情報復号処理のフローチャートに記載された処理の一部のみが、実施の形態1における、動画像符号化装置及び動画像復号装置と異なる動作を行う。 FIG. 44 is a diagram illustrating the syntax of the encoded stream generated by the motion information encoded data generation process in the second embodiment. The moving picture encoding apparatus and moving picture decoding apparatus according to the second embodiment are described in the flowchart of the motion information encoded data generation process shown in FIG. 34 and the flowchart of the motion information decoding process shown in FIG. Only a part of the processing is different from the moving picture coding apparatus and the moving picture decoding apparatus in the first embodiment.
図45は、実施の形態2の動画像符号化装置における動き情報符号化データ生成処理を説明するためのフローチャートである。以下、図34のフローチャートに示す動作と異なる部分のみを説明する。 FIG. 45 is a flowchart for explaining motion information encoded data generation processing in the moving image encoding apparatus according to the second embodiment. Only the parts different from the operation shown in the flowchart of FIG. 34 will be described below.
図45のフローチャートにおいては、図34で示されたフローチャートにおける動き予測フラグの符号化処理であるステップS3407と、マージMvdフラグの符号化処理であるステップS3414及びステップS3418の処理が無くなり、動き予測モードの符号化処理であるステップS4500が新たに加わる処理構成を取る。 In the flowchart of FIG. 45, the process of step S3407, which is the process of encoding the motion prediction flag in the flowchart shown in FIG. 34, and the process of steps S3414 and S3418, which are the processes of encoding the merge Mvd flag, are eliminated. In step S4500, which is the encoding process, a processing configuration is newly added.
予測モードが結合予測モードでない場合(S3400:NO)、マージフラグを0で符号化し(S3401)、動き予測モードを符号化し(S4500)、片方向予測モードであるか否か判断する(S3408)。 When the prediction mode is not the combined prediction mode (S3400: NO), the merge flag is encoded with 0 (S3401), the motion prediction mode is encoded (S4500), and it is determined whether or not it is the unidirectional prediction mode (S3408).
また、予測モードが結合動き修正予測モードである場合(S3413:YES)、マージMvdモードを符号化する処理(S3414)を介さず、統合動き情報候補リストの大きさを判定する処理(S3415)に直接繋がると共に、予測モードが結合動き修正予測モードでない場合(S3413:NO)にも、マージMvdモードを符号化する処理(S3414)を介さず、L0参照画像指定情報の符号化処理(S3420)に直接繋がる処理構成となる。 When the prediction mode is the combined motion correction prediction mode (S3413: YES), the process of determining the size of the integrated motion information candidate list (S3415) without going through the process of encoding the merge Mvd mode (S3414). Even when the prediction mode is not the combined motion correction prediction mode (S3413: NO), the L0 reference image designation information encoding process (S3420) is not performed without the process of encoding the merge Mvd mode (S3414). The processing configuration is directly connected.
図46は、実施の形態2の動画像復号装置における動き情報復号処理を説明するためのフローチャートである。以下、図38のフローチャートに示す動作と異なる部分のみを説明する。 FIG. 46 is a flowchart for explaining motion information decoding processing in the video decoding device in the second embodiment. Only the parts different from the operation shown in the flowchart of FIG. 38 will be described below.
図46のフローチャートにおいては、図38で示されたフローチャートにおける動き予測フラグの復号処理であるステップS3805と、マージMvdフラグの復号処理であるステップS3808、及びマージMvdフラグが1であるか否かを判断する処理であるステップS3809の処理が無くなり、動き予測モードの復号処理であるステップS4600と、動き予測モードが結合動き修正予測モードであるか否かを判定する処理であるステップS4601が新たに加わる処理構成を取る。 In the flowchart of FIG. 46, step S3805, which is the motion prediction flag decoding process in the flowchart shown in FIG. 38, step S3808, which is the merge Mvd flag decoding process, and whether the merge Mvd flag is 1 or not. The process of step S3809, which is a determination process, is eliminated, and step S4600, which is a decoding process of motion prediction mode, and step S4601, which is a process of determining whether the motion prediction mode is a combined motion correction prediction mode, are newly added. Take processing configuration.
マージフラグが1でない場合(S3804:NO)、動き予測モードを復号し(S4600)、片方向予測モードであるか否か判断する(S3806)。また、片方向予測モードでない場合(S3806:NO)、動き予測モードが結合動き修正予測モードであるか否かを判定し(S4601)、結合動き修正予測モードである場合(S4601:YES)、結合動き修正予測動き情報復号処理を行い(S3810)、結合動き修正予測モードでない場合(S4601:NO)、双方向予測動き情報復号処理を行う(S3811)。 When the merge flag is not 1 (S3804: NO), the motion prediction mode is decoded (S4600), and it is determined whether or not the unidirectional prediction mode is set (S3806). If it is not the one-way prediction mode (S3806: NO), it is determined whether or not the motion prediction mode is the combined motion correction prediction mode (S4601). If it is the combined motion correction prediction mode (S4601: YES), the combination is determined. A motion-corrected predicted motion information decoding process is performed (S3810). If the combined motion-corrected prediction mode is not set (S4601: NO), a bidirectionally-predicted motion information decoding process is performed (S3811).
(実施の形態3)
次に、本発明の実施の形態3についての説明を行う。実施の形態3においては、実施の形態1に対して、結合動き修正動き補償予測モードで動き情報を符号化する際に適した動きベクトル値を、動き修正を行う参照画像と基準となる動きベクトル値が確定した後に、その周囲の動きに対して動きベクトルを検出することで、より予測効率の高い動き補償予測を実現出来る。
(Embodiment 3)
Next, the third embodiment of the present invention will be described. In the third embodiment, compared to the first embodiment, a motion vector value suitable for encoding motion information in the combined motion corrected motion compensated prediction mode is obtained by using a reference image for motion correction and a reference motion vector. After the value is determined, motion compensation prediction with higher prediction efficiency can be realized by detecting a motion vector for the surrounding motion.
実施の形態3における、動画像符号化装置及び動画像復号装置と、実施の形態1における、動画像符号化装置及び動画像復号装置とを比較すると、動画像復号装置は同じであり、動画像符号化装置の構成の一部が異なる。具体的には、実施の形態1の動画像符号化装置に対して、図10の結合動き修正動き補償予測生成部1009における詳細構成である図13のブロック構成、及びその具体的処理を説明するフローチャートである図22に示された結合動き修正予測モード評価値生成処理が、異なる構成を取る。
When the moving image encoding device and the moving image decoding device in
図47は、実施の形態3における、図10の結合動き修正動き補償予測生成部1009における詳細構成を示す図である。結合動き修正動き補償予測生成部1009は、基準参照画像・動き修正参照画像選択部1300、動き修正参照画像動きベクトル検出部4700、結合動き情報修正動き補償予測生成部1302、及び差分ベクトル算出部1303を含む。
FIG. 47 is a diagram illustrating a detailed configuration in the combined motion corrected motion compensated
基準参照画像・動き修正参照画像選択部1300、結合動き情報修正動き補償予測生成部1302、及び差分ベクトル算出部1303に関しては、図13に示した実施の形態1と同じ動作が行われ、図13における動き修正参照画像動きベクトル取得部1301の機能が、動き修正参照画像動きベクトル検出部4700の機能に置き換わった構成を取る。
The reference reference image / motion correction reference
動き修正参照画像動きベクトル検出部4700には、入力端子100より符号化対象ブロックの画像信号と、復号画像メモリ106に記憶された参照画像信号が入力され、動き修正参照画像動きベクトル検出部4700は、基準参照画像・動き修正参照画像選択部1300より供給される、基準参照画像指定情報/基準参照画像動きベクトル値、及び動き修正参照画像指定情報/動き修正参照画像予測ベクトル値を用いて、動き修正参照画像に対する動きベクトルを検出する。
The motion correction reference image motion
実施の形態3においては、上記機能を有するため、図1の予測モード判定部109に復号画像メモリ106からの入力が加わると共に、図10の結合動き修正動き補償予測生成部1009に、入力画像信号と復号画像メモリ106からの入力が加わる。
Since the third embodiment has the above function, an input from the decoded
動き修正参照画像に対する動きベクトルの検出においては、2つの参照画像の内、基準参照画像に対しては確定した動きベクトル値で画像信号と同一位置より動きベクトル値だけ移動させた参照画像に相当する画像信号を取得する。動き修正参照画像に対しては動き情報として設定された動き修正参照画像予測ベクトル値を中心とした所定範囲の動きに対して、画像信号と同一位置より動き量だけ移動させた参照画像に相当する画像信号を取得し、2つの画像信号の加算平均を取った画像信号(双方向予測に相当する画像信号となる)を生成する。そして、符号化対象となる予測ブロック画像との誤差評価値を算出し、誤差評価値が最小となる動き修正参照画像の動き量を動き修正参照画像動きベクトルとする。 In the detection of a motion vector for a motion-corrected reference image, the reference image corresponding to a reference image that has been moved by the motion vector value from the same position as the image signal with the determined motion vector value for the standard reference image out of the two reference images. Get the image signal. For a motion-corrected reference image, it corresponds to a reference image that is moved by a motion amount from the same position as the image signal, with respect to a predetermined range of motion centered on a motion-corrected reference image prediction vector value set as motion information. An image signal is acquired, and an image signal (an image signal corresponding to bidirectional prediction) obtained by averaging the two image signals is generated. Then, an error evaluation value with respect to the prediction block image to be encoded is calculated, and the motion amount of the motion correction reference image that minimizes the error evaluation value is set as a motion correction reference image motion vector.
動き修正参照画像の動きベクトルの探索範囲がそのまま、伝送される差分ベクトルの値の範囲となるため、結合動き修正予測モードにおいて符号化に適した動きベクトルとしては、少ない探索範囲で良い。例えば水平・垂直に±2画素程度の範囲で探索を行うことで、結合動き修正予測モードに有効な動きベクトルを検出可能である。差分ベクトルの符号量に関しても換算し、誤差評価値に加えることにより、より精度の良い動きベクトル検出が可能である。 Since the search range of the motion vector of the motion correction reference image is directly used as the range of the difference vector value to be transmitted, a motion vector suitable for encoding in the combined motion correction prediction mode may be a small search range. For example, by performing a search within a range of about ± 2 pixels horizontally and vertically, it is possible to detect a motion vector effective for the combined motion correction prediction mode. By converting the code amount of the difference vector and adding it to the error evaluation value, more accurate motion vector detection can be performed.
動き修正参照画像動きベクトル検出部4700により生成された、動き修正参照画像に対する動きベクトル値は、結合動き情報修正動き補償予測生成部1302及び差分ベクトル算出部1303に供給される。
The motion vector value for the motion correction reference image generated by the motion correction reference image motion
図48は、実施の形態3における結合動き修正予測モード評価値生成処理を説明するためのフローチャートである。図48のフローチャートは、実施の形態1における結合動き修正予測モード評価値生成処理のフローチャートである図22に対して、動き修正参照画像の動きベクトル値を取得する処理であるステップS2204が無くなり、代わりに動き修正参照画像の結合動きベクトル値を基準に動きベクトルを補正する処理であるステップS4800が加わる構成を取る。 FIG. 48 is a flowchart for explaining the combined motion correction / prediction mode evaluation value generation process in the third embodiment. 48 is different from FIG. 22 which is a flowchart of the combined motion correction prediction mode evaluation value generation process in the first embodiment in that step S2204 which is a process of acquiring the motion vector value of the motion correction reference image is eliminated. Further, step S4800, which is a process for correcting the motion vector based on the combined motion vector value of the motion correction reference image, is added.
ステップS4800では、動き修正参照画像の結合動きベクトル値を基準に動きベクトルを探索し、検出された修正参照画像動きベクトル値を補正された動きベクトルとして格納する処理となる。 In step S4800, the motion vector is searched based on the combined motion vector value of the motion corrected reference image, and the detected corrected reference image motion vector value is stored as a corrected motion vector.
実施の形態3においては、結合動き修正予測モードの特性に合わせて、差分ベクトルを生成する基準となる動き情報から生成された動き修正参照画像の動きベクトル値を中心とした微小範囲において、2つの参照画像を用いた予測誤差の判定を行い、動き補償予測に用いる動きベクトル値を確定する。これにより、結合動き修正予測モードにおける最適な動き補償予測信号を予測モードの候補として用いることが出来、符号化効率を向上させることができる。 In the third embodiment, in accordance with the characteristics of the combined motion correction prediction mode, in a minute range centered on the motion vector value of the motion correction reference image generated from the motion information serving as a reference for generating the difference vector, A prediction error is determined using a reference image, and a motion vector value used for motion compensation prediction is determined. Thereby, the optimal motion compensation prediction signal in the combined motion correction prediction mode can be used as a prediction mode candidate, and the coding efficiency can be improved.
実施の形態3において、動きベクトルを探索する処理であるステップS4800における、別の方法として、ステップS4800の前に、実施の形態1における図1の動きベクトル検出部107より動き補正参照画像に対する検出した動きベクトル値を入力する処理であるステップS2204を行い、ステップS4800の代わりに、入力した動きベクトル値を基準に動きベクトルを探索する方法を用いることも可能である。
In the third embodiment, as another method in step S4800, which is a process for searching for a motion vector, the motion
上述した別の方法は、隣接ブロックの動き情報と大きく異なる、動き修正参照画像の補正される動きベクトルを検出することが可能であり、その場合には、結合動き修正予測モードが双方向予測モードに対して、双方向の参照画像指定情報及び予測ベクトル候補のインデックスを伝送しないことで、少ない動き情報で符号化できる効果を発揮できる。 The another method described above can detect a motion vector to be corrected of a motion correction reference image that is greatly different from the motion information of the adjacent block. In this case, the combined motion correction prediction mode is the bidirectional prediction mode. On the other hand, by not transmitting the bi-directional reference image designation information and the index of the prediction vector candidate, the effect of encoding with a small amount of motion information can be exhibited.
上述した別の方法は、ステップS4800の動き修正参照画像の結合動きベクトル値を基準に動きベクトルを探索する方法と併用して、結果として検出される動きベクトル値の予測誤差が少ない動きベクトル値を用いることも可能であり、隣接ブロックの動き情報と微妙に異なる動きと大きく異なる動きの両方に対して、動き修正参照画像の補正される動きベクトルとして適切な動きベクトル値を検出することが可能となる。 Another method described above is used in combination with the method of searching for a motion vector based on the combined motion vector value of the motion-corrected reference image in step S4800, and a motion vector value with a small prediction error of the detected motion vector value is obtained as a result. It is also possible to use it, and it is possible to detect an appropriate motion vector value as a motion vector to be corrected in the motion-corrected reference image for both slightly different motion and greatly different motion from the motion information of adjacent blocks. Become.
(実施の形態4)
次に、本発明の実施の形態4についての説明を行う。実施の形態4においては、実施の形態1に対して、動き修正参照画像判定のアルゴリズムが異なる。実施の形態4においては、動き修正参照画像を判定する基準が符号化対象画像と参照画像の時間的距離を基準とする手法をとる。
(Embodiment 4)
Next, the fourth embodiment of the present invention will be described. The fourth embodiment differs from the first embodiment in the algorithm for motion correction reference image determination. In the fourth embodiment, a method for determining the motion-corrected reference image is based on the temporal distance between the encoding target image and the reference image.
図49(a)〜(c)は、実施の形態4における距離優先アルゴリズムを示す概念図である。図49(a)〜(c)に示すように、結合動き情報が空間BiPredである場合、空間UniPredである場合、時間BiPredである場合のすべてにおいて、導出されたL0参照画像、L1参照画像の内で、符号化対象画像に時間的に遠い参照画像を、動きベクトルの信頼度が低いと判定し、差分ベクトルを伝送する修正動き参照画像に設定する。 FIGS. 49A to 49C are conceptual diagrams showing the distance priority algorithm in the fourth embodiment. As shown in FIGS. 49A to 49C, when the combined motion information is the space BiPred, the space UniPred, and the time BiPred, the derived L0 reference image and L1 reference image are all displayed. The reference image that is distant in time from the encoding target image is determined to have low motion vector reliability, and is set as a corrected motion reference image that transmits the difference vector.
動きの連続性が高い動画像シーケンスの場合には、符号化対象画像により近い参照画像からの動きベクトルの信頼度が高くなるため、遠い参照画像に対して動きベクトル値を補正することで、より適した動き補償予測信号が生成できる。 In the case of a moving image sequence with high continuity of motion, the reliability of a motion vector from a reference image closer to the encoding target image becomes higher, so by correcting the motion vector value for a far reference image, A suitable motion compensated prediction signal can be generated.
実施の形態4においては、実施の形態1における、動画像符号化装置及び動画像復号装置のそれぞれに適用される、図26に示した双方向動きベクトル値、差分ベクトルを伝送する参照画像確定処理のフローチャートが異なる処理になる。 In the fourth embodiment, the reference image determination process for transmitting the bidirectional motion vector value and the difference vector shown in FIG. 26, which is applied to each of the moving image encoding device and the moving image decoding device in the first embodiment. These flowcharts are different processes.
図50は、実施の形態4における、双方向動きベクトル値、差分ベクトルを伝送する参照画像確定処理を説明するためのフローチャートである。図50のフローチャートは、実施の形態1における図26のフローチャートに対して、スケーリングされた動きベクトルが片方向(1つ)であるか否かの判定処理であるステップS2602と、片方向であった場合(S2602:YES)における、スケーリングされた動きベクトルを持つ参照画像を修正参照画像に設定する処理であるステップS2603が無くなった処理構成となる。
FIG. 50 is a flowchart for describing reference image determination processing for transmitting bidirectional motion vector values and difference vectors in the fourth embodiment. The flowchart in FIG. 50 is one-way compared to the flowchart in FIG. 26 in
(実施の形態5)
次に、本発明の実施の形態5についての説明を行う。実施の形態5においては、実施の形態1に対して、結合動き修正動き補償予測モードで動き修正を行う参照画像をスケーリングを用いて生成された動きベクトルに対して全て設定し、2つのスケーリング動きベクトルを有する場合には、2つの差分ベクトルを符号化する構成を取る。
(Embodiment 5)
Next, the fifth embodiment of the present invention will be described. In the fifth embodiment, in contrast to the first embodiment, all reference images for which motion correction is performed in the combined motion correction motion compensated prediction mode are set for motion vectors generated using scaling, and two scaling motions are set. In the case of having a vector, a configuration is adopted in which two difference vectors are encoded.
実施の形態5においては、スケーリング処理で生成された際の動きベクトルの精度が直接空間隣接ブロックの動き情報を適用した場合の動きベクトルよりも低いという判断基準で、スケーリング処理で生成された動きベクトルを持つ参照画像の全てに差分ベクトルを伝送する。 In the fifth embodiment, the motion vector generated by the scaling process based on the determination criterion that the accuracy of the motion vector generated by the scaling process is lower than the motion vector when the motion information of the spatially adjacent block is directly applied. The difference vector is transmitted to all the reference images having.
図51(a)〜(c)は、実施の形態5における、結合動き情報が空間BiPredである場合、空間UniPredである場合、時間BiPredである場合における、差分ベクトルを伝送する参照画像を特定する処理構成の概念図を示す。実施の形態5においては、実施の形態1と同様に、図24に示されるように結合動き情報の種類に応じて、スケーリングされた動きベクトルが動き情報として生成される。 51 (a) to 51 (c) specify reference images for transmitting a difference vector when combined motion information is space BiPred, space UniPred, and time BiPred in the fifth embodiment. A conceptual diagram of processing composition is shown. In the fifth embodiment, similarly to the first embodiment, a scaled motion vector is generated as motion information according to the type of combined motion information as shown in FIG.
図51(a)に示すように結合動き情報が空間BiPredである場合には、スケーリングベクトル数が0であるため、実施の形態1と同様に、差分ベクトルを伝送する参照画像は符号化画像からの時間距離の長い参照画像を選択する。 When the combined motion information is space BiPred as shown in FIG. 51 (a), the number of scaling vectors is 0. Therefore, as in the first embodiment, the reference image for transmitting the difference vector is derived from the encoded image. A reference image with a long time distance is selected.
図51(b)に示すように結合動き情報が空間UniPredである場合には、スケーリングベクトル数が1であるため、実施の形態1と同様に、スケーリングされた動きベクトルを持つ1つの参照画像が、差分ベクトルを伝送する参照画像として指定される。 When the combined motion information is space UniPred as shown in FIG. 51 (b), since the number of scaling vectors is 1, one reference image having a scaled motion vector is obtained as in the first embodiment. , Specified as a reference image for transmitting the difference vector.
図51(c)に示すように結合動き情報が時間BiPredである場合には、スケーリングベクトル数が2であるため、実施の形態1と異なり、スケーリングされた動きベクトルを持つ2つの参照画像が、差分ベクトルを伝送する参照画像として指定される。 When the combined motion information is time BiPred as shown in FIG. 51 (c), since the number of scaling vectors is 2, unlike the first embodiment, two reference images having scaled motion vectors are Designated as a reference image for transmitting a difference vector.
図52は、実施の形態5における、各予測モードにおける伝送する動き情報の関係を示す図である。実施の形態5においては、結合動き修正予測モードの場合にて、空間UniPred及び空間BiPredの場合には、1つの結合動き情報インデックスと1つの差分ベクトルを伝送することで、動き情報を符号化する。時間BiPredの場合には、1つの結合動き情報インデックスと2つの差分ベクトルを伝送することで、動き情報を符号化する。 FIG. 52 is a diagram illustrating a relationship of motion information to be transmitted in each prediction mode in the fifth embodiment. In the fifth embodiment, in the combined motion correction prediction mode, in the case of spatial UniPred and spatial BiPred, motion information is encoded by transmitting one combined motion information index and one difference vector. . In the case of time BiPred, motion information is encoded by transmitting one combined motion information index and two difference vectors.
実施の形態5における動画像符号化装置及び動画像復号装置は、実施の形態1における動画像符号化装置及び動画像復号装置と比較し、図26に示した双方向動きベクトル値、差分ベクトルを伝送する参照画像確定処理のフローチャート、図34に示した動画像符号化装置による動き情報符号化データ生成処理のフローチャート、及び図42に示した動画像復号装置による結合動き修正予測動き情報復号処理のフローチャートの処理が一部異なる。
The moving picture encoding apparatus and moving picture decoding apparatus in Embodiment 5 are compared with the moving picture encoding apparatus and moving picture decoding apparatus in
図53は、実施の形態5における双方向動きベクトル値、差分ベクトルを伝送する参照画像確定処理を説明するためのフローチャートである。双方向動きベクトル値、差分ベクトルを伝送する参照画像確定処理は、実施の形態1における図26のフローチャートに対して、スケーリングされた動きベクトル数が1であるか否かの判断処理であるステップS2602を無くし、スケーリングされた動きベクトル数を管理するパラメータであるScaled_Merge_ref_numを新たに設けて条件判断を行う。 FIG. 53 is a flowchart for describing reference image determination processing for transmitting bidirectional motion vector values and difference vectors in the fifth embodiment. The reference image determination process for transmitting the bidirectional motion vector value and the difference vector is a process for determining whether or not the number of scaled motion vectors is 1 with respect to the flowchart of FIG. 26 in the first embodiment. And a new Scaled_Merge_ref_num, which is a parameter for managing the number of scaled motion vectors, is provided to make a condition determination.
双方向の参照画像の動きベクトル値のうちスケーリングされた動きベクトルの数をScaled_Merge_ref_numに設定する処理を行う(S5300)。Scaled_Merge_ref_numが1の場合(S5301:YES)、スケーリングされた動きベクトルを持つ参照画像を動き修正参照画像に設定する(S2603)。Scaled_Merge_ref_numが2の場合(S5302:YES)、両方の参照画像を動き修正参照画像に設定する(S5303)。Scaled_Merge_ref_numが0の場合(S5302:NO)、実施の形態1と同様に距離に応じた参照画像を設定するためのステップS2604に進む。 A process of setting the number of scaled motion vectors among the motion vector values of the bi-directional reference image to Scaled_Merge_ref_num is performed (S5300). When Scaled_Merge_ref_num is 1 (S5301: YES), a reference image having a scaled motion vector is set as a motion-corrected reference image (S2603). When Scaled_Merge_ref_num is 2 (S5302: YES), both reference images are set as motion corrected reference images (S5303). When Scaled_Merge_ref_num is 0 (S5302: NO), the process proceeds to step S2604 for setting a reference image according to the distance, as in the first embodiment.
図54は、実施の形態5における、符号化シンタックスの一例を示す図である。動き修正予測動き情報復号処理において生成するScaled_Merge_ref_numをもとに、差分ベクトルを2つ(水平・垂直で計4要素)伝送するか、1つ(計2要素)伝送するかが切り替わる構成になっている。 FIG. 54 is a diagram illustrating an example of an encoding syntax in the fifth embodiment. Based on the Scaled_Merge_ref_num generated in the motion-correction prediction motion information decoding process, it is configured to switch between transmitting two (four elements in total, horizontal and vertical) difference vectors or transmitting one (two elements in total). Yes.
図55は、実施の形態5の動画像符号化装置における動き情報符号化データ生成処理を説明するためのフローチャートである。動き情報符号化データ生成処理は、実施の形態1における図34のフローチャートに対して、結合動き情報候補リストが1より大きい場合(S3415:YES)、結合動き補償インデックスを符号化する処理(S3416)を行う。 FIG. 55 is a flowchart for explaining motion information encoded data generation processing in the video encoding device in the fifth embodiment. In the motion information encoded data generation process, when the combined motion information candidate list is larger than 1 in the flowchart of FIG. 34 in the first embodiment (S3415: YES), the combined motion compensation index is encoded (S3416). I do.
Scaled_Merge_ref_numが2である場合(S5500:YES)、L0差分ベクトル値を符号化し(S5501)、更にL1差分ベクトル値を符号化する(S5502)処理が新たに加わる処理構成となる。 When Scaled_Merge_ref_num is 2 (S5500: YES), the L0 difference vector value is encoded (S5501), and the L1 difference vector value is further encoded (S5502).
図56は、実施の形態5の動画像復号装置における結合動き修正予測動き情報復号処理を説明するためのフローチャートである。結合動き修正予測動き情報復号処理は、実施の形態1における図42のフローチャートに対して、図53で示した双方向動きベクトル値、差分ベクトルを伝送する参照画像確定処理(S4206)の後に、Scaled_Merge_ref_numが2である場合(S5600:YES)、L0差分ベクトル値を復号し(S5601)、L0参照画像の動き情報より算出された動きベクトル値に加算することでL0参照画像の動きベクトル値を算出する(S5602)。更にL1差分ベクトル値を復号し(S5603)、L1参照画像の動き情報より算出された動きベクトル値に加算することでL1参照画像の動きベクトル値を算出する(S5604)処理が、新たに加わる処理構成となる。 FIG. 56 is a flowchart for explaining the combined motion corrected predicted motion information decoding process in the video decoding device in the fifth embodiment. The combined motion corrected predicted motion information decoding process is the Scaled_Merge_ref_num after the reference image determination process (S4206) for transmitting the bidirectional motion vector value and the difference vector shown in FIG. 53 with respect to the flowchart of FIG. 42 in the first embodiment. Is 2 (S5600: YES), the L0 difference vector value is decoded (S5601) and added to the motion vector value calculated from the motion information of the L0 reference image to calculate the motion vector value of the L0 reference image. (S5602). Further, the L1 difference vector value is decoded (S5603) and added to the motion vector value calculated from the motion information of the L1 reference image to calculate the motion vector value of the L1 reference image (S5604). It becomes composition.
また、実施の形態5における別の構成として、常に2つの参照画像に対して差分ベクトルを伝送する構成を取ることも可能である。図57(a)、(b)は、実施の形態5における常に2つの参照画像を送る構成における空間BiPred及び空間UniPredの差分ベクトルの状態の概念図を示す。図57(a)は空間BiPredにおいて2本の差分ベクトルを伝送する例を示し、図57(b)は空間UniPredにおいて2本の差分ベクトルを伝送する例を示す。 Further, as another configuration in the fifth embodiment, a configuration in which a difference vector is always transmitted for two reference images can be employed. FIGS. 57A and 57B are conceptual diagrams of the state of the difference vector between the space BiPred and the space UniPred in the configuration in which two reference images are always transmitted in the fifth embodiment. FIG. 57 (a) shows an example of transmitting two difference vectors in the space BiPred, and FIG. 57 (b) shows an example of transmitting two difference vectors in the space UniPred.
図58は、常に2つの参照画像に対して差分ベクトルを伝送する構成を取る場合に採用可能な符号化シンタックスの一例を示す図である。結合動き修正予測モードであるmerge_mvd_flagが1の場合には、常に2つの差分ベクトル(計4要素)が符号化される。 FIG. 58 is a diagram illustrating an example of an encoding syntax that can be employed when a configuration is employed in which a difference vector is always transmitted for two reference images. When merge_mvd_flag which is the combined motion correction prediction mode is 1, two difference vectors (a total of four elements) are always encoded.
(実施の形態6)
次に、本発明の実施の形態6についての説明を行う。実施の形態6においては、実施の形態1に対して、結合予測モードに用いる結合動き情報候補リストと、結合動き修正予測モードに用いる結合動き情報候補リストを異なるアルゴリズムで生成する構成を取る。
(Embodiment 6)
Next, the sixth embodiment of the present invention will be described. The sixth embodiment is different from the first embodiment in that the combined motion information candidate list used in the combined prediction mode and the combined motion information candidate list used in the combined motion modified prediction mode are generated by different algorithms.
実施の形態1では、結合動き修正予測モードにおいて、差分ベクトル値が(0、0)である場合であって、空間BiPRed及び時間BiPredの場合に、結合予測モードと同じ動き補償予測画像が生成される。実施の形態6においては、重複する動き情報を結合動き情報候補リストの生成時に切り分け、もしくは異なる位置の隣接ブロックからの動き情報適用を行うことで、結合予測モードと結合動き修正予測モードの、同一動き情報伝送機能の重複を抑制し尚且つより多くの動き情報を選択可能にする利点を有する。
In
実施の形態6における動画像符号化装置及び動画像復号装置と、実施の形態1おける動画像符号化装置及び動画像復号装置との構成の違いは、図10に示した動画像符号化装置における予測モード判定部109の構成、及び図37に示した動画像復号装置における動き情報復号部606の構成となる。
The difference in configuration between the moving image encoding device and the moving image decoding device in the sixth embodiment and the moving image encoding device and the moving image decoding device in the first embodiment is the same as that in the moving image encoding device shown in FIG. The configuration of the prediction
図59は、実施の形態6の動画像符号化装置における予測モード判定部109の構成を示す図である。図59の構成において、実施の形態1において結合動き修正動き補償予測生成部1009に入力されていた結合動き情報算出部1007からのデータの流れが削除され、結合動き修正動き情報算出部5900が追加される。
FIG. 59 is a diagram illustrating a configuration of the prediction
結合動き修正動き情報算出部5900は、図1の動き情報メモリ111より供給される隣接ブロックの動き情報における候補ブロック群を用いて、片方向であるか双方向であるかを示す予測方向、参照画像指定情報、動きベクトル値で構成される動き情報として、複数の動き情報を結合動き修正動き情報候補リストと共に生成し、結合動き修正動き補償予測生成部1009に供給する。
The combined motion correction motion
結合動き修正動き情報算出部5900は、結合動き情報算出部1007とは異なる動き情報の候補を取得することで、異なる動き情報と動き情報の候補リストを生成することが可能である。一例としては、図16に示される空間方向予測ブロックや、図18に示される時間方向予測ブロックからの取得候補数を変化させる方法、異なる位置であるブロックEや、ブロックB4、ブロックA4などを空間候補ブロック群の候補に加える方法、空間方向の候補ブロックと時間方向の候補ブロックのリストへの追加順を変化させる方法、ある特定の動き情報に制限してリストへの追加を行う方法などが挙げられる。
The combined motion corrected motion
図60は、実施の構成6の動画像復号装置における動き情報復号部606の構成を示す図である。図60の構成において、実施の形態1において結合動き修正動き補償予測復号部3707に入力されていた結合動き情報算出部3705からのデータの流れが削除され、結合動き修正動き情報算出部6000が追加される。
FIG. 60 is a diagram illustrating a configuration of the motion
結合動き修正動き情報算出部6000では、図59における動画像符号化装置の結合動き修正動き情報算出部5900と同じ処理が行われ、結合動き修正動き情報算出部6000は、図6の動き情報メモリ607より供給される隣接ブロックの動き情報における候補ブロック群を用いて、片方向であるか双方向であるかを示す予測方向、参照画像指定情報、動きベクトル値で構成される動き情報として、複数の動き情報を結合動き修正動き情報候補リストと共に生成し、結合動き修正動き補償予測復号部3707に供給する。
The combined motion corrected motion
図61は、実施の形態6における符号化シンタックスの一例を示す図である。結合予測モードにおけるインデックス情報であるmerge_idxと異なる情報として、結合動き修正予測モードにおけるインデックス情報であるmerge_mvd_idxが取得・管理される構造を取る。 FIG. 61 is a diagram illustrating an example of the coding syntax in the sixth embodiment. As information different from merge_idx that is index information in the combined prediction mode, a structure is obtained in which merge_mvd_idx that is index information in the combined motion correction prediction mode is acquired and managed.
実施の形態6の他の構成として、結合予測モードにおけるSkipモードと非Skipモードにおける、適用可能な動き情報の候補を異なるものとする構成も考えられる。図62は、実施の形態6における各予測モードで適用する結合情報を異なるものとする一例を示す図である。図62に示すように、Skipモードにおいては空間BiPredの候補動き情報のみが適用され、非Skipモードの結合予測モード(Merge)においては、空間UniPred及び空間BiPredの候補動き情報が適用され、結合動き修正予測モード(MergeMvd)では、空間UniPred及び時間BiPredの候補動き情報が適用される。 As another configuration of the sixth embodiment, a configuration in which applicable motion information candidates are different in the Skip mode and the non-Skip mode in the combined prediction mode is also conceivable. FIG. 62 is a diagram illustrating an example in which the combination information applied in each prediction mode in the sixth embodiment is different. As shown in FIG. 62, only candidate motion information of the spatial BiPred is applied in the Skip mode, and candidate motion information of the spatial UniPred and the spatial BiPred is applied in the combined prediction mode (Merge) of the non-Skip mode. In the modified prediction mode (MergeMvd), candidate motion information of the space UniPred and time BiPred is applied.
Skipモードと非Skipモードで適用可能な動き情報の候補を変える場合、図61のSkipモードである場合の候補インデックスは結合予測モードと異なるため、merge_idxはskip_idxに置き換えられる。 When changing candidates of motion information applicable in the Skip mode and the non-Skip mode, the candidate index in the Skip mode in FIG. 61 is different from the combined prediction mode, so merge_idx is replaced with skip_idx.
結合動き修正予測モードにおいては、より差分ベクトル伝送による効果が高いスケーリングされた動き情報が生成される時間BiPredや、新しい動き情報をスケーリングで生成する空間UniPredを有効にし、結合予測モードにおいては、動きの連続性が高い動き情報が生成されやすい空間UniPredと空間BiPredを有効にし、Skipモードにおいては、動きの連続性が高い場合により品質の良い予測画像が生成できる空間BiPredのみを有効にすることで、結合予測モードと結合動き修正予測モードの機能の重複を抑制し、候補数に依存するインデックス情報量を削減しつつ、有効な動き補償予測信号を生成できる構成を取ることが出来る。 In the combined motion modified prediction mode, the time BiPred for generating scaled motion information that is more effective by the difference vector transmission and the space UniPred for generating new motion information by scaling are enabled. By enabling the space UniPred and the space BiPred in which motion information with high continuity is easily generated, and in the Skip mode, by enabling only the space BiPred that can generate a predicted image with higher quality when the motion continuity is high. Thus, it is possible to adopt a configuration capable of generating an effective motion compensation prediction signal while suppressing duplication of functions of the combined prediction mode and the combined motion correction prediction mode and reducing the amount of index information depending on the number of candidates.
(実施の形態7)
次に、本発明の実施の形態7についての説明を行う。実施の形態7においては、実施の形態1に対して、結合動き修正予測モードにおいて伝送する1つの差分ベクトル値を2つの参照画像に作用する構成を取る。
(Embodiment 7)
Next, the seventh embodiment of the present invention will be described. The seventh embodiment adopts a configuration in which one difference vector value transmitted in the combined motion modified prediction mode is applied to two reference images, as compared with the first embodiment.
図63(a)、(b)は、実施の形態7における差分ベクトルの2つの参照画像に対する作用を示す概念図である。図63(a)、(b)に示すように、1つの差分ベクトルが伝送され、差分ベクトル値を双方向予測の両方の参照画像に対して補正ベクトル値として作用させる。 63 (a) and 63 (b) are conceptual diagrams showing the effect of the difference vector on the two reference images in the seventh embodiment. As shown in FIGS. 63A and 63B, one difference vector is transmitted, and the difference vector value is caused to act as a correction vector value for both reference images for bidirectional prediction.
実施の形態1においては、差分ベクトル値は、動き修正参照画像として選択された1つの参照画像に対して、結合動き情報より生成された動きベクトル値と動き補償予測に用いた動きベクトル値の差分を示していた。実施の形態1における差分ベクトルは、結合動き情報における動きベクトルの一部にずれがあるが、正しい(結合動き情報による動きをそのまま反映させることが可能な)動きベクトルも存在し、その動きベクトルを信頼した状態における補正情報である。 In the first embodiment, the difference vector value is the difference between the motion vector value generated from the combined motion information and the motion vector value used for motion compensated prediction with respect to one reference image selected as the motion corrected reference image. Was showing. The difference vector in the first embodiment has a shift in a part of the motion vector in the combined motion information, but there is a correct motion vector (which can reflect the motion based on the combined motion information as it is). This is correction information in a reliable state.
実施の形態7における差分ベクトルは、動き情報の時間相関(時間的連続性)が高く保たれている状態における、結合動き情報全体に対する補正情報となり、特に結合動き情報が時間BiPredの場合などの時間相関をもとに生成された動き情報の補正において、少ない情報で有効な補正情報が伝送され、符号化効率を向上できる。 The difference vector in the seventh embodiment is correction information for the entire combined motion information in a state in which the temporal correlation (temporal continuity) of the motion information is kept high, and is particularly a time when the combined motion information is time BiPred. In correction of motion information generated based on the correlation, effective correction information is transmitted with a small amount of information, and coding efficiency can be improved.
実施の形態7における差分ベクトルの作用は、差分ベクトルを送る基準参照画像においては、実施の形態1における差分ベクトルと同様に、結合動き情報より生成された動きベクトル値と動き補償予測に用いた動きベクトル値の差分を示す。差分ベクトルを送る基準参照画像でない、双方向予測の他方の参照画像においては、その作用に2つの手法を用いることが可能である。 The effect of the difference vector in the seventh embodiment is that, in the reference reference image for sending the difference vector, the motion vector value generated from the combined motion information and the motion used for the motion compensation prediction are the same as the difference vector in the first embodiment. Indicates the difference between vector values. In the other reference image of bi-directional prediction that is not a standard reference image for sending a difference vector, two methods can be used for the operation.
1つは、図63(a)に示すように、差分ベクトルをスケーリングした値が、他方の参照画像における結合動き情報より生成された動きベクトル値と動き補償予測に用いた動きベクトル値の差分を示す(ミラータイプ)手法である。もう1つは、図63(b)に示すように、スケーリングを行わずに、基準参照画像と同様に差分ベクトル値が他方の参照画像における結合動き情報より生成された動きベクトル値と動き補償予測に用いた動きベクトル値の差分を示す(平行移動タイプ)手法である。 One is that, as shown in FIG. 63 (a), the value obtained by scaling the difference vector is the difference between the motion vector value generated from the combined motion information in the other reference image and the motion vector value used for motion compensation prediction. This is a (mirror type) technique. The other is, as shown in FIG. 63 (b), without performing scaling, the motion vector value and the motion compensated prediction in which the difference vector value is generated from the combined motion information in the other reference image, similarly to the standard reference image. This is a method of indicating the difference between the motion vector values used in (Translation type).
以降の実施の形態7の説明においては、ミラータイプの差分ベクトルの作用手法を用いるが、ミラータイプと平行移動タイプの手法を、動画像の特性や符号化時の予測構造などにより適応的に切り替えることも可能である。 In the following description of the seventh embodiment, the mirror type difference vector operation method is used, but the mirror type and the translation type method are adaptively switched depending on the characteristics of the moving image, the prediction structure at the time of encoding, and the like. It is also possible.
実施の形態7における動画像符号化装置と、実施の構成1における動画像符号化装置との構成の違いは、図10の結合動き修正動き補償予測生成部1009における詳細構成である図13のブロック構成、及びその具体的処理を説明するフローチャートである図22に示された結合動き修正予測モード評価値生成処理である。実施の形態7における動画像復号装置と、実施の構成1における動画像復号装置との構成の違いは、図42に示した結合動き修正予測動き情報復号処理の処理フローチャートである。
The difference in configuration between the video encoding device in the seventh embodiment and the video encoding device in the first configuration is a detailed configuration in the combined motion corrected motion compensation
実施の形態7における図13のブロック構成は、実施の形態3における図10の結合動き修正動き補償予測生成部1009における詳細構成である図47と同じ構成を取る。図64は、実施の形態7における、2つの参照画像の結合動きベクトル値を基準とした動きベクトル探索手法の一例を示す図である。
The block configuration in FIG. 13 in the seventh embodiment has the same configuration as that in FIG. 47 which is a detailed configuration in the combined motion corrected motion compensation
動き修正参照画像動きベクトル検出部4700が差分ベクトルの候補としての検出範囲に対して、動き修正参照画像に対してはそのまま差分ベクトルとして、基準参照画像に対してはスケーリングされた差分ベクトルとして結合動き情報より生成された各々の参照画像に対する動きベクトル値に対して作用させて取得した画像信号を、加算平均することで生成し、符号化対象となる予測ブロック画像との誤差評価値を算出し、誤差評価値が最小となる動き修正参照画像の動き量を動き修正参照画像動きベクトルとする。
The motion correction reference image motion
実施の形態7における説明では、他の実施の形態との処理の共通性を取るために、動き修正参照画像の差分ベクトル値を、伝送する差分ベクトル値に設定しているが、基準参照画像の差分ベクトル値を、伝送する差分ベクトル値に設定する手法をとることも可能であり、これに限定されない。つまり、実施の形態7のミラータイプの差分ベクトルを伝送する構成では、どちらの参照画像を基準に差分動きベクトルを伝送しても良いため、通常は、差分ベクトルの符号量を小さくするため、符号化対象画像から距離の近い方の参照画像を動き修正参照画像に設定し、動き修正参照画像に対する差分動きベクトルを伝送する。他方(符号化対象画像から距離の遠い又は同一)の参照画像では、伝送する差分動きベクトルに対して倍率の絶対値が1以上のスケーリング処理を行い、伝送した差分動きベクトルと同じかそれ以上の大きさのスケーリング差分動きベクトルを得る。 In the description of the seventh embodiment, the difference vector value of the motion-corrected reference image is set as the difference vector value to be transmitted in order to obtain the common processing with the other embodiments. A method of setting the difference vector value to the difference vector value to be transmitted can be taken, and the present invention is not limited to this. That is, in the configuration for transmitting the mirror type difference vector according to the seventh embodiment, since the difference motion vector may be transmitted based on which reference image, the code amount of the difference vector is usually reduced. A reference image closer to the target image is set as a motion correction reference image, and a differential motion vector for the motion correction reference image is transmitted. On the other hand (the distance from the encoding target image is the same or far away from the encoding target image), a scaling process with an absolute value of the magnification of 1 or more is performed on the transmitted differential motion vector, and the same or higher than the transmitted differential motion vector. Get the magnitude difference motion vector.
図65は、実施の形態7における結合動き修正予測モード評価値生成処理を説明するためのフローチャートである。実施の形態1における結合動き修正予測モード評価値生成処理のフローチャートである図22に対して、動き修正参照画像の動きベクトル値を取得する処理であるステップS2204が無くなり、代わりに2つの参照画像の結合動きベクトル値を基準に動きベクトルを補正する処理であるステップS6500が加わる。 FIG. 65 is a flowchart for explaining the combined motion corrected prediction mode evaluation value generation process in the seventh embodiment. Compared to FIG. 22 which is the flowchart of the combined motion correction prediction mode evaluation value generation process in the first embodiment, step S2204 which is a process for acquiring the motion vector value of the motion correction reference image is eliminated, and instead of two reference images. Step S6500, which is a process for correcting the motion vector based on the combined motion vector value, is added.
ステップS6500では、基準参照画像と動き修正参照画像のそれぞれの結合動きベクトル値を基準に、動き修正参照画像の補正動き量に対してスケーリングされた動き量が基準参照画像の補正動き量になるようにして、動きベクトルを探索し、それぞれの参照画像に補正動き量を加算した動きベクトル値を格納する処理となる。 In step S6500, based on the combined motion vector values of the standard reference image and the motion-corrected reference image, the motion amount scaled with respect to the corrected motion amount of the motion-corrected reference image becomes the corrected motion amount of the standard reference image. In this manner, the motion vector is searched, and the motion vector value obtained by adding the corrected motion amount to each reference image is stored.
図66は、実施の形態7における結合動き修正予測動き情報復号処理を説明するためのフローチャートである。実施の形態1における結合動き修正予測動き情報復号処理のフローチャートである図42に対して、動き修正参照画像の動きベクトル値を算出する処理であるステップS4208が無くなり、代わりに動き修正参照画像及び他方の参照画像(基準参照画像)の動きベクトル値を算出する処理であるステップS6600が加わる。 FIG. 66 is a flowchart for explaining the combined motion corrected predicted motion information decoding process in the seventh embodiment. Compared to FIG. 42, which is the flowchart of the combined motion correction predicted motion information decoding process in the first embodiment, step S4208, which is a process for calculating the motion vector value of the motion correction reference image, is eliminated. Step S6600, which is a process for calculating the motion vector value of the reference image (standard reference image), is added.
動きベクトル値の算出は、復号した差分ベクトル値を動き修正参照画像に対する動き情報より生成された動きベクトル値に加算し、差分ベクトル値をスケーリングした値を基準参照画像に対する動きベクトル値に加算することで、2つの参照画像の動きベクトル値を算出する。 The motion vector value is calculated by adding the decoded difference vector value to the motion vector value generated from the motion information for the motion corrected reference image and adding the scaled value of the difference vector value to the motion vector value for the reference reference image. Thus, the motion vector values of the two reference images are calculated.
図67は、実施の形態7における差分ベクトルの作用を両方の参照画像に適用する別構成を示す概念図である。差分ベクトルをその対象となる参照画像の結合動き情報の動きベクトルに加算して復号した動きベクトル値をスケーリングすることにより、他方の参照画像の動きベクトル値を生成する手法も考えられ、ミラータイプにおける動き補償予測信号とほぼ同等の予測信号が生成できる。 FIG. 67 is a conceptual diagram showing another configuration in which the action of the difference vector in the seventh embodiment is applied to both reference images. A method of generating a motion vector value of the other reference image by scaling the decoded motion vector value by adding the difference vector to the motion vector of the combined motion information of the target reference image is also conceivable. A prediction signal substantially equivalent to the motion compensation prediction signal can be generated.
この手法は、結合動き情報が時間BiPredの場合に、結合動き情報候補生成処理と結合動き修正予測動き情報復号処理を統合して行うことで実現出来る。この手法では、結合動き情報の動きベクトルに差分動きベクトルを加算した後にスケーリング処理が1回のみ行われるため、スケーリングの演算精度に起因する劣化が発生しにくく、より精度の良い動き補償予測信号を生成できる。 This method can be realized by integrating the combined motion information candidate generation process and the combined motion modified prediction motion information decoding process when the combined motion information is time BiPred. In this method, since the scaling process is performed only once after adding the differential motion vector to the motion vector of the combined motion information, the deterioration due to the calculation accuracy of the scaling hardly occurs, and a more accurate motion compensated prediction signal is generated. Can be generated.
また、実施の形態7と他の実施の形態を結合動き情報の特性によって切り替える構成を取ることも拡張構成として可能であり、時間BiPredなどの実施の形態7の有効性が高い条件において採用し、他の条件では実施の形態1を施すことで、更に効率のよい動き情報の伝送が可能となる。例えば、実施の形態7の有効性が高い条件とは、符号化対象画像と基準参照画像との距離が、符号化対象画像と動き修正参照画像の距離と同一の場合である。この場合、伝送する差分ベクトルをスケーリングせずに(スケーリング倍率の絶対値が1)他方の参照画像に対する差分ベクトルを算出できるため、スケーリングの演算精度に起因する劣化が発生しない。 In addition, it is possible to adopt a configuration in which the embodiment 7 and other embodiments are switched according to the characteristics of the combined motion information as an extended configuration, which is adopted under the condition where the effectiveness of the embodiment 7 such as the time BiPred is high, By applying the first embodiment under other conditions, it is possible to transmit motion information more efficiently. For example, the high effectiveness condition of the seventh embodiment is a case where the distance between the encoding target image and the standard reference image is the same as the distance between the encoding target image and the motion-corrected reference image. In this case, since the difference vector for the other reference image can be calculated without scaling the difference vector to be transmitted (the absolute value of the scaling factor is 1), deterioration due to the calculation accuracy of scaling does not occur.
(実施の形態8)
次に、本発明の実施の形態8についての説明を行う。実施の形態8においては、実施の形態1に対して、結合予測モードと結合動き修正予測モードを統合し、結合予測モードを符号化するシンタックス構造上で結合動き修正予測モードにおける差分ベクトル値の伝送を行う構成を取る。
(Embodiment 8)
Next, an eighth embodiment of the present invention will be described. In the eighth embodiment, compared to the first embodiment, the combined prediction mode and the combined motion correction prediction mode are integrated, and the difference vector value in the combined motion correction prediction mode is encoded on the syntax structure for encoding the combined prediction mode. Take the configuration to transmit.
実施の形態1における結合動き修正予測モードにおいて、差分ベクトル値が(0、0)である場合で且つ、空間BiPRed及び時間BiPredの場合に、結合予測モードと同一の動き補償予測画像が生成される冗長性(機能の重複)を、結合予測モードと結合動き修正予測モードを統合して、結合動き情報を用いる場合に後述するSkipモード以外では常に差分ベクトル値が伝送される形で削減し、尚且つ動き補償予測モードとその符号化シンタックスを軽量化できる利点を有する。 In the combined motion correction prediction mode in the first embodiment, when the difference vector value is (0, 0) and the spatial BiPRed and the temporal BiPred, the same motion compensated prediction image as that in the combined prediction mode is generated. Redundancy (duplication of functions) is reduced by integrating the combined prediction mode and the combined motion modified prediction mode, and when using the combined motion information, the difference vector value is always transmitted in a mode other than the Skip mode described later, and One motion compensation prediction mode and its encoding syntax can be reduced in weight.
図68は、実施の形態8における動き補償予測モードの定義を示す図である。動き補償予測モードは、動き検出予測モードと結合動き修正予測モード(マージMVDモード)の2つのモードで構成され、動き検出予測モードとして片方向予測と双方向予測の2つの予測方法が定義される。 FIG. 68 is a diagram showing the definition of the motion compensation prediction mode in the eighth embodiment. The motion compensated prediction mode is composed of two modes, a motion detection prediction mode and a combined motion modified prediction mode (merged MVD mode), and two prediction methods of unidirectional prediction and bidirectional prediction are defined as motion detection prediction modes. .
実施の形態1において、予測差分情報を符号化伝送しない結合予測モードとして定義されていたSkipモードは、実施の形態8においては、予測差分情報と差分ベクトル情報を符号化伝送しない結合動き修正予測モードとして定義し、Skipモードにおいては、実施の形態1と同様に結合動き情報インデックスのみを伝送する。 In the first embodiment, the Skip mode defined as the combined prediction mode in which the prediction difference information is not encoded and transmitted is the combined motion modified prediction mode in which the prediction difference information and the difference vector information are not encoded and transmitted in the eighth embodiment. In the Skip mode, only the combined motion information index is transmitted as in the first embodiment.
実施の形態8における動画像符号化装置と、実施の構成1における動画像符号化装置との構成の違いは、図10に示される予測モード判定部109の構成と、図14で示される動き補償予測モード/予測信号生成の処理、及び図34で示される動き情報符号化データ生成処理である。また、実施の形態8における動画像復号装置と、実施の構成1における動画像復号装置との構成の違いは、図37に示される動き情報復号部606の構成と、図38で示される動き情報復号処理、及び図42で示される結合動き修正予測動き情報復号処理のフローチャートである。
The difference in configuration between the video encoding device in the eighth embodiment and the video encoding device in the first configuration is that the configuration of the prediction
図69は、実施の形態8の動画像符号化装置における予測モード判定部109の構成を示す図である。実施の形態8における予測モード判定部109の構成は、図10で示された実施の形態1における構成から、結合動き補償予測生成部1008とその動作が無くなった構成を取る。
FIG. 69 is a diagram illustrating a configuration of the prediction
図70は、実施の形態8の動画像符号化装置における動き補償予測モード/予測信号生成処理を説明するためのフローチャートである。実施の形態8における動き補償予測モード/予測信号生成処理は、図14のフローチャートで示される実施の形態1における処理から、結合予測モード評価値生成処理であるステップS1401が無くなった構成を取る。 FIG. 70 is a flowchart for explaining motion compensated prediction mode / prediction signal generation processing in the video encoding device in the eighth embodiment. The motion compensation prediction mode / prediction signal generation process in the eighth embodiment has a configuration in which step S1401 which is a combined prediction mode evaluation value generation process is eliminated from the process in the first embodiment shown in the flowchart of FIG.
図71は、実施の形態8の動画像符号化装置における動き情報符号化データ生成処理を説明するためのフローチャートである。実施の形態8における動き情報符号化データ生成処理は、図34のフローチャートに示される実施の形態1における処理から、ステップS3400、ステップS3401、ステップS3413、ステップS3414及びステップS3418の処理が無くなり、代わりに予測モードが結合動き修正予測モードであるか否かの判断であるステップS7100と、予測誤差信号を符号化せず、且つ差分ベクトルが0であるか否かの判断であるステップS7101が加わる構成を取る。 FIG. 71 is a flowchart for explaining motion information encoded data generation processing in the video encoding device in the eighth embodiment. In the motion information encoded data generation process in the eighth embodiment, the processes in step S3400, step S3401, step S3413, step S3414, and step S3418 are eliminated from the process in the first embodiment shown in the flowchart of FIG. Step S7100 for determining whether or not the prediction mode is the combined motion correction prediction mode and step S7101 for determining whether or not the prediction error signal is encoded and the difference vector is 0 are added. take.
最初に、予測モードが結合動き修正予測モードである場合(S7100:YES)、予測誤差信号を符号化せず、且つ差分ベクトルが0である場合(S7101:YES)、ステップS3402、ステップS3404、及びステップS3405で構成されるSkip条件の動き情報符号化処理が行われる。予測誤差信号を符号化するか、差分ベクトルが0である場合(S7101:NO)、マージフラグを1として符号化し(S3403)、結合動き修正予測モードの動き情報符号化処理であるステップS3415、ステップS3416、及びステップS3417の処理が行われる。ここで、実施の形態8のマージフラグは、結合動き修正予測モードであるかどうかに使用され、実施の形態1のように、結合予測モードであるかどうかを表していないことに注意する。 First, when the prediction mode is the combined motion corrected prediction mode (S7100: YES), when the prediction error signal is not encoded and the difference vector is 0 (S7101: YES), steps S3402, S3404, and The skip condition motion information encoding process configured in step S3405 is performed. When the prediction error signal is encoded or the difference vector is 0 (S7101: NO), the merge flag is encoded as 1 (S3403), and step S3415, which is the motion information encoding process in the combined motion correction prediction mode, step S3415 Processing of S3416 and step S3417 is performed. Here, it should be noted that the merge flag of the eighth embodiment is used to determine whether or not it is the combined motion correction prediction mode, and does not indicate whether or not it is the combined prediction mode as in the first embodiment.
予測モードが結合動き修正予測モードでない場合(S7100:NO)、マージフラグを0として符号化し(S3406)、動き予測フラグを符号化する(S3407)。片方向予測モードである場合(S3408:YES)、片方向予測モードの動き情報符号化処理であるステップS3409、ステップS3410、ステップS3411、及びステップS3412が行われ、片方向予測モードでない場合(S3408:NO)、ステップS3419からステップS3426までの双方向予測モードの動き情報符号化処理が行われる。 When the prediction mode is not the combined motion correction prediction mode (S7100: NO), the merge flag is encoded as 0 (S3406), and the motion prediction flag is encoded (S3407). When it is the unidirectional prediction mode (S3408: YES), Steps S3409, S3410, S3411, and S3412 which are motion information encoding processes in the unidirectional prediction mode are performed, and when it is not the unidirectional prediction mode (S3408: NO), the motion information encoding process in the bidirectional prediction mode from step S3419 to step S3426 is performed.
図72は、実施の形態8における動き情報に関する符号化シンタックスの一例を示す図である。図72に示す例では、merge_flagで結合動き修正予測モードが指定され、Skipモードでない結合動き修正予測の場合には、差分ベクトルが伝送される構造になる。 FIG. 72 is a diagram illustrating an example of an encoding syntax related to motion information in the eighth embodiment. In the example shown in FIG. 72, in the case of the combined motion correction prediction mode specified by merge_flag and the combined motion correction prediction not in the Skip mode, a difference vector is transmitted.
図73は、実施の形態8の動画像復号装置における動き情報復号部606の構成を示す図である。実施の形態8における動き情報復号部606の構成は、図37で示された実施の形態1における構成から、結合動き補償予測復号部3706とその動作が無くなった構成を取る。
FIG. 73 is a diagram illustrating a configuration of the motion
図74は、実施の形態8の動画像復号装置における動き情報復号処理を説明するためのフローチャートである。実施の形態8における動き情報復号処理は、図38で示された実施の形態1における処理から、結合予測動き情報復号処理であるステップS3802と、マージMvdフラグの復号処理であるステップS3808と、マージMvdフラグが1であるか否かの判断であるステップS3809が無くなり、実施の形態1においては、マージMvdフラグが1の場合に処理が施されていた結合動き修正予測動き情報復号処理であるステップS3810が、Skipモードである場合(S3801:YES)及びマージフラグが1である場合(S3804:YES)に処理を行う構成を取る。 FIG. 74 is a flowchart for explaining motion information decoding processing in the moving picture decoding apparatus according to the eighth embodiment. The motion information decoding process in the eighth embodiment is different from the process in the first embodiment shown in FIG. 38 in step S3802 that is a joint prediction motion information decoding process, step S3808 that is a decoding process of the merge Mvd flag, Step S3809 for determining whether or not the Mvd flag is 1 is eliminated, and in the first embodiment, the step is a combined motion modified prediction motion information decoding process that has been performed when the merge Mvd flag is 1. When S3810 is the Skip mode (S3801: YES) and when the merge flag is 1 (S3804: YES), the processing is performed.
図75は、図74のステップS3810の詳細動作を説明するためのフローチャートである。図74のステップS3810では、結合動き修正予測動き情報復号処理が行われる。 FIG. 75 is a flowchart for explaining detailed operation of step S3810 of FIG. In step S3810 of FIG. 74, a combined motion corrected predicted motion information decoding process is performed.
実施の形態8の動画像復号装置における結合動き修正予測動き情報復号処理は、図42で示された実施の形態1における結合予測動き情報復号処理に対して、双方向動きベクトル値、差分ベクトルを伝送する参照画像確定処理であるステップS4205の後に、Skipモードであるか否かの判断処理であるステップS7500と、差分ベクトル値を0にセットする処理であるステップS7501が挿入される構成を取る。 The combined motion modified prediction motion information decoding process in the moving picture decoding apparatus in the eighth embodiment is different from the combined prediction motion information decoding process in the first embodiment shown in FIG. After step S4205 which is a reference image determination process to be transmitted, step S7500 which is a process for determining whether or not the mode is the skip mode and step S7501 which is a process for setting the difference vector value to 0 are inserted.
Skipモードである場合(S7500:YES)、差分ベクトルは伝送されず動きベクトル補正を行わないので、差分ベクトル値として0をセットして(S7501)、差分ベクトルの復号処理であるステップS4207を行わずに、動き修正参照画像の動きベクトル値の算出処理であるステップS4208に進む。 In the Skip mode (S7500: YES), the difference vector is not transmitted and motion vector correction is not performed. Therefore, 0 is set as the difference vector value (S7501), and step S4207, which is the difference vector decoding process, is not performed. Then, the process proceeds to step S4208, which is a process for calculating a motion vector value of the motion correction reference image.
図76(a)〜(c)は、実施の形態8における別構成の結合動き修正予測モードの差分ベクトル伝送手法を示す概念図である。実施の形態8における第2の処理構造として、結合動き情報が空間UniPredで生成される場合に、実施の形態1における結合予測モードでそのまま片方向予測として動き情報を用いる条件が失われることを回避し、図76(b)に示すように空間UniPredの場合には片方向予測のままで差分ベクトルを伝送し、動きベクトルを補正する手法をとることも可能である。実施の形態1における結合予測モードの利点を活かしつつ、結合動き修正予測モードの利点を取り入れた動き補償予測構造を取ることが可能である。この場合の空間UniPredでは、基準参照画像を設定せず、片方向予測で指定される参照画像を動き修正参照画像に指定する。 76 (a) to 76 (c) are conceptual diagrams showing a difference vector transmission method in a combined motion modified prediction mode of another configuration according to the eighth embodiment. As a second processing structure in the eighth embodiment, when the combined motion information is generated in the space UniPred, it is avoided that the condition for using the motion information as the one-way prediction is lost in the combined prediction mode in the first embodiment. However, as shown in FIG. 76 (b), in the case of the space UniPred, it is also possible to take a method of correcting the motion vector by transmitting the difference vector while maintaining the unidirectional prediction. While taking advantage of the joint prediction mode in the first embodiment, it is possible to adopt a motion compensated prediction structure that incorporates the advantage of the joint motion correction prediction mode. In the space UniPred in this case, the standard reference image is not set, and the reference image specified by the unidirectional prediction is specified as the motion-corrected reference image.
実施の形態8における第3の処理構造として、結合動き情報が空間UniPredで生成される場合に、図28に示した第2参照画像インデックス確定処理において、最初に基準参照画像と同じ参照画像が第2参照画像候補リスト内に存在する場合に、基準参照画像と同じ参照画像に対する参照画像インデックスを第2参照画像インデックスに確定して、双方向予測の動き情報を算出する手法をとることも可能である。 As the third processing structure in the eighth embodiment, when the combined motion information is generated in the space UniPred, in the second reference image index determination process shown in FIG. In the case of existing in the two reference image candidate list, it is also possible to adopt a method of determining the reference image index for the same reference image as the standard reference image as the second reference image index and calculating motion information for bidirectional prediction. is there.
第2参照画像として基準参照画像と同一参照画像が設定された場合に、差分ベクトル値が(0,0)の場合には、結合予測モードにおける空間UniPred動き情報を用いた場合と同じ動き補償予測信号を生成出来るため、第2の処理構造と同様に実施の形態1における結合予測モードでそのまま片方向予測として動き情報を用いる条件が失われることを回避できる。 When the same reference image as the standard reference image is set as the second reference image, and the difference vector value is (0, 0), the same motion compensated prediction as when the spatial UniPred motion information in the combined prediction mode is used. Since the signal can be generated, it is possible to avoid losing the condition for using the motion information as the one-way prediction as it is in the combined prediction mode in the first embodiment, similarly to the second processing structure.
第2参照画像として基準参照画像と同一参照画像が設定された場合に、差分ベクトル値として(0,0)以外が伝送される場合には、同一参照画像の微小に異なる動きで表現される動き補償予測信号を平均化することで、参照画像に微小な変化を加えた動き補償予測信号を新たな候補として加えることが出来、符号化効率を向上させることが可能である。 When the same reference image as the standard reference image is set as the second reference image, if a value other than (0, 0) is transmitted as the difference vector value, the motion represented by a slightly different motion of the same reference image By averaging the compensation prediction signal, a motion compensation prediction signal in which a minute change is added to the reference image can be added as a new candidate, and coding efficiency can be improved.
これら実施の形態8の各構成は、それぞれの構成を組み合わせた構成で適用することも可能である。例えば第3の処理構造を基本とする場合に、第2参照画像として基準参照画像と同じ参照画像が設定出来ない場合(基準参照画像と同じ参照画像が第2参照画像候補リスト内に存在しない場合)に、他の参照画像を第2参照画像として選択して双方向予測の動き情報を生成する処理構成が適用できる。 Each configuration of the eighth embodiment can be applied in a configuration in which the respective configurations are combined. For example, in the case where the third processing structure is the basis, when the same reference image as the standard reference image cannot be set as the second reference image (when the same reference image as the standard reference image does not exist in the second reference image candidate list) ), A processing configuration in which another reference image is selected as the second reference image to generate motion information for bidirectional prediction can be applied.
また、第3の処理構造を基本とする場合に、第2参照画像として基準参照画像と同じ参照画像が設定出来ない場合に、第2の処理構造に示したように片方向予測として動き情報を生成し、片方向予測の参照画像の動きベクトルに対する差分ベクトルを符号化する処理構成も適用可能である。この場合には第2の処理構造と同様に、結合予測モードと同じ動き補償予測信号を生成する全ての条件を結合動き修正予測モードとして符号化出来るという効果が加わる。 Further, in the case where the third processing structure is basically used, when the same reference image as the standard reference image cannot be set as the second reference image, the motion information is obtained as unidirectional prediction as shown in the second processing structure. A processing configuration that generates and encodes a difference vector with respect to a motion vector of a unidirectional prediction reference image is also applicable. In this case, as in the second processing structure, an effect that all the conditions for generating the same motion compensated prediction signal as in the combined prediction mode can be encoded as the combined motion modified prediction mode is added.
これらの処理構造は、符号化の予測構造や画像シーケンスの特性に応じて、所定単位で切り替えることも可能であり、符号化処理を行う画像の特性に適した動き情報を用いた動き補償処理が実現できる。 These processing structures can be switched in a predetermined unit according to the encoding prediction structure and the characteristics of the image sequence, and motion compensation processing using motion information suitable for the characteristics of the image to be encoded is performed. realizable.
(実施の形態9)
次に、本発明の実施の形態9についての説明を行う。実施の形態9においては、実施の形態1に対して、結合予測モードにおいて表現可能な、結合動き修正予測モードで差分ベクトルが(0,0)の場合に、復号される動きベクトル値に差分動きベクトルが(0,0)以外の場合と別の定義を行う事で、符号化する動き情報の冗長性を削減しつつ新たな動き情報の候補を伝送可能にする構成を取る。
(Embodiment 9)
Next, the ninth embodiment of the present invention will be described. In the ninth embodiment, in contrast to the first embodiment, when the difference vector is (0, 0) in the combined motion modified prediction mode that can be expressed in the combined prediction mode, the difference motion is added to the motion vector value to be decoded. By defining differently from the case where the vector is other than (0, 0), a configuration is adopted in which new motion information candidates can be transmitted while reducing redundancy of motion information to be encoded.
実施の形態9においては、復号時に結合動き修正予測モードにおいて差分ベクトル値が0である場合に、動きベクトル値として固定値である(0,0)ベクトルを復号する構成を取る。尚、復号する動きベクトル値自体は、暗黙で復号できる値であれば良く、(0,0)でない固定値を設定したり、結合動き情報として算出される動きベクトル値に対して、所定の値を加算したり(ある程度の差分ベクトル符号量を有する値)、上記条件用の動きベクトル値を隣接ブロックの別の動き情報を用いて取得する構成も、実施の形態9における効果を実現する構成とすることが可能である。 In the ninth embodiment, when the difference vector value is 0 in the combined motion modified prediction mode at the time of decoding, a (0, 0) vector that is a fixed value is decoded as the motion vector value. The motion vector value itself to be decoded may be a value that can be implicitly decoded. A fixed value other than (0, 0) is set, or a predetermined value is set for a motion vector value calculated as combined motion information. (The value having a certain amount of difference vector code amount), or a configuration for acquiring the motion vector value for the above condition using another motion information of the adjacent block is also a configuration for realizing the effect in the ninth embodiment. Is possible.
実施の形態9における動画像符号化装置と実施の形態1の動画像符号化装置との構成の違いは、図22に示される結合動き修正予測モード評価値生成処理である。また、実施の形態9の動画像復号装置と実施の形態1の動画像復号装置との構成の違いは、図42で示される結合動き修正予測動き情報復号処理である。 The difference in configuration between the moving picture coding apparatus in the ninth embodiment and the moving picture coding apparatus in the first embodiment is the combined motion correction prediction mode evaluation value generation process shown in FIG. Also, the difference in configuration between the moving picture decoding apparatus according to the ninth embodiment and the moving picture decoding apparatus according to the first embodiment is the combined motion corrected predicted motion information decoding process shown in FIG.
図77は、実施の形態9の動画像符号化装置における結合動き修正予測モード評価値生成処理を説明するためのフローチャートである。実施の形態9における結合動き修正予測モード評価値生成処理は、図22で示された実施の形態1における処理に対して、動き修正参照画像の動きベクトルを取得する処理であるステップS2204の後に、動き修正参照画像の動きベクトルが(0,0)であるか否かの判定処理であるステップS7700と、差分ベクトルに(0,0)を設定する処理であるステップS7701と、動き修正参照画像の動きベクトルを固定値に置き換える処理であるステップS7702が加わり、差分ベクトル値生成処理であるステップS2205の後に、差分ベクトルが(0,0)であるか否かの判定処理であるステップS7703が加わる構成を取る。 FIG. 77 is a flowchart for explaining combined motion corrected prediction mode evaluation value generation processing in the video encoding device in the ninth embodiment. In the combined motion correction prediction mode evaluation value generation process in the ninth embodiment, after step S2204, which is a process for acquiring the motion vector of the motion correction reference image, in contrast to the process in the first embodiment shown in FIG. Step S7700, which is a process for determining whether or not the motion vector of the motion-corrected reference image is (0, 0), step S7701, which is a process for setting (0, 0) as the difference vector, and the motion-corrected reference image Step S7702 which is a process for replacing a motion vector with a fixed value is added, and step S7703 which is a process for determining whether or not the difference vector is (0, 0) is added after step S2205 which is a difference vector value generation process. I take the.
図1の動きベクトル検出部107より取得した動き修正画像に対する動きベクトル値が(0,0)となる場合(S7700:YES)、実施の形態9における結合動き修正予測モードにおいては、差分ベクトルを(0,0)に設定することで少ない符号量で動き情報が符号化できるため、差分ベクトル値を(0,0)に設定し(S7701)、結合動き情報より設定された動き修正画像に対する動きベクトル値に固定値である(0,0)を設定して(S7702)、以降の双方向動き補償予測信号生成処理を行う。
When the motion vector value for the motion-corrected image acquired from the motion
また、動き修正画像に対する動きベクトル値と、結合動き情報より設定された動き修正画像に対する動きベクトル値が同一である場合には、差分ベクトル値が(0,0)となるため、差分ベクトル値が(0,0)の場合(S7703:YES)、結合動き情報より設定された動き修正画像に対する動きベクトル値に固定値である(0,0)を設定して(S7702)、以降の双方向動き補償予測信号生成処理を行い、予測誤差値を評価することで、(0,0)ベクトルを用いた動き補償予測を選択候補としてモード判定を行うことが可能となる。 When the motion vector value for the motion corrected image is the same as the motion vector value for the motion corrected image set from the combined motion information, the difference vector value is (0, 0). In the case of (0, 0) (S7703: YES), a fixed value (0, 0) is set as the motion vector value for the motion-corrected image set from the combined motion information (S7702), and the subsequent bidirectional motion. By performing a compensated prediction signal generation process and evaluating a prediction error value, it is possible to perform mode determination using motion compensated prediction using a (0, 0) vector as a selection candidate.
実施の形態9において、実施の形態3の動画像符号化装置のように、結合動き修正予測モード評価値生成の中で、動きベクトルの探索を可能とする構成を取る場合には、結合動き修正予測モード評価値生成処理を行うことが可能である。図78は、実施の形態9における別構成の結合動き修正予測モード評価値生成処理を説明するためのフローチャートである。図22で示された実施の形態1における処理に対して、動き修正参照画像の動きベクトルを取得する処理であるステップS2204が無くなり、代わりに動き修正参照画像の結合動きベクトル値を基準に差分ベクトル(0,0)の場合を除いて動きベクトルを検出する処理であるステップS7800、動き修正参照画像の動きベクトル値を固定値(0,0)にした際の予測誤差を算出するステップS7801、補正した動きベクトル値により予測誤差と動きベクトル値を固定値(0,0)での予測誤差を比較する処理であるステップS7802、及び動き修正参照画像の結合動きベクトル値を固定値に置き換え、差分ベクトルを(0,0)に設定する処理であるステップS7803が加わる構成を取る。
In the ninth embodiment, in the case of adopting a configuration that enables the search for motion vectors in the combined motion correction prediction mode evaluation value generation as in the moving image encoding apparatus of the third embodiment, the combined motion correction is performed. Prediction mode evaluation value generation processing can be performed. FIG. 78 is a flowchart for explaining combined motion modified prediction mode evaluation value generation processing of another configuration in the ninth embodiment. In contrast to the processing in the first embodiment shown in FIG. 22, step S2204, which is a process for acquiring the motion vector of the motion-corrected reference image, is eliminated, and instead, the difference vector based on the combined motion vector value of the motion-corrected reference image. Step
ステップS7800では、結合動き情報から算出した修正参照画像の動きベクトル値をそのまま利用する条件を排除しているため、動きベクトルの補正が0になる差分ベクトル(0,0)での動きベクトル探索を行わないことで、動きベクトル値の候補に登録されないようにする。 In step S7800, since the condition for using the motion vector value of the modified reference image calculated from the combined motion information as it is is excluded, the motion vector search is performed with the difference vector (0, 0) at which the motion vector correction is zero. By not doing so, it is prevented from being registered as a motion vector value candidate.
その後で、動き修正参照画像の動きベクトル値を固定値に指定した状態の予測誤差評価値を算出し(S7801)、ステップS7800で検出された動きベクトル値を用いた場合に予測誤差評価値と比較して、固定値における予測誤差が少ない場合(S7802:YES)、動き修正参照画像の結合動きベクトル値を固定値に置き換えて、差分ベクトル値を0に設定して(S7803)、動き情報符号量算出処理であるステップS2206に進む。 Thereafter, a prediction error evaluation value in a state where the motion vector value of the motion correction reference image is designated as a fixed value is calculated (S7801), and compared with the prediction error evaluation value when the motion vector value detected in step S7800 is used. If the prediction error in the fixed value is small (S7802: YES), the combined motion vector value of the motion corrected reference image is replaced with a fixed value, the difference vector value is set to 0 (S7803), and the motion information code amount The process proceeds to step S2206 which is a calculation process.
上記処理を行うことで、実施の形態9で結合動き修正予測モードが取りうる動き情報の中で最良の動き補償予測を可能とする動き情報を生成でき、符号化効率を向上できる。 By performing the above processing, it is possible to generate motion information that enables the best motion compensation prediction among the motion information that the combined motion correction prediction mode can take in the ninth embodiment, and to improve the encoding efficiency.
図79は、実施の形態9の動画像復号装置における結合動き修正予測動き情報復号処理を説明するためのフローチャートである。実施の形態9における結合動き修正予測動き情報復号処理は、図42で示された実施の形態1における処理に対して、差分ベクトル値を復号する処理であるステップS4207の後に、差分ベクトル値が(0,0)であるか否かを判定する処理であるステップS7900と、動き修正参照画像の動きベクトル値を固定値に置き換える処理であるステップ7901が加わる構成を取る。
FIG. 79 is a flowchart for explaining joint motion corrected predicted motion information decoding processing in the video decoding device in the ninth embodiment. The combined motion modified prediction motion information decoding process in the ninth embodiment is different from the process in the first embodiment shown in FIG. 42 in that a difference vector value is ( 0,0) and
実施の形態9における動画像復号装置においては、上述したように差分ベクトルが0の場合(S7900:YES)、復号される動きベクトル値を固定値(0,0)に設定するために動き修正参照画像の動きベクトル値を固定値(0,0)に置き換える(S7901)。ステップS7901の後で、動き修正参照画像の動きベクトル値を算出する(S4208)ことで、固定値(0,0)に差分ベクトル(0,0)が加算された復号値として、固定値が動き修正参照画像の動きベクトル値として算出される。 In the moving picture decoding apparatus according to the ninth embodiment, when the difference vector is 0 as described above (S7900: YES), the motion correction reference is used to set the decoded motion vector value to a fixed value (0, 0). The motion vector value of the image is replaced with a fixed value (0, 0) (S7901). After step S7901, the motion vector value of the motion-corrected reference image is calculated (S4208), so that the fixed value becomes a motion value as a decoded value obtained by adding the difference vector (0, 0) to the fixed value (0, 0). Calculated as the motion vector value of the corrected reference image.
実施の形態9において、結合動き修正予測モードの全ての結合動き情報候補に対して、差分ベクトル値が(0,0)の場合の固定値置換え処理を行っているが、空間UniPredの場合には、結合予測モードにおける動き情報と結合動き修正予測モードにおける動き情報は異なる。つまり、空間UniPredの場合には、結合予測モードにおける動き情報と結合動き修正予測モードに間に機能の重複が存在しないため、差分ベクトル(0,0)の条件で動きベクトルを固定値に置き換える必要はなく、結合動き情報の種類に応じて、置換え処理を行うか否かを切り替える手法を用いる事が可能であり、より適した動き情報の表現を可能とする。 In the ninth embodiment, fixed value replacement processing is performed for all combined motion information candidates in the combined motion correction prediction mode when the difference vector value is (0, 0). In the case of the space UniPred, The motion information in the combined prediction mode and the motion information in the combined motion correction prediction mode are different. In other words, in the case of the space UniPred, there is no overlap in function between the motion information in the joint prediction mode and the joint motion correction prediction mode, so it is necessary to replace the motion vector with a fixed value under the condition of the difference vector (0, 0). Rather, it is possible to use a method of switching whether or not to perform the replacement process according to the type of combined motion information, and it is possible to express more suitable motion information.
以上述べた実施の形態において、双方向予測が利用可能なピクチャ(Bピクチャ)を前提に説明したが、適応双方向予測を有さないピクチャ(Pピクチャ)においても、本発明の実施の形態を適用することは可能である。つまり、本発明の実施の形態をPピクチャに適用すると、結合動き修正予測モードでは、常に片方向予測で動き補償を行うことになり、結合予測モードで指定される参照画像と同一の参照画像に対して差分ベクトルを加算し、動きベクトルを修正する処理を行う。 In the embodiment described above, the description has been made on the assumption that a picture (B picture) in which bi-directional prediction can be used, but the embodiment of the present invention is also applied to a picture (P picture) that does not have adaptive bi-directional prediction. It is possible to apply. That is, when the embodiment of the present invention is applied to a P picture, motion compensation is always performed in unidirectional prediction in the combined motion-corrected prediction mode, and the same reference image as that specified in the combined prediction mode is used. On the other hand, the difference vector is added, and the motion vector is corrected.
これにより、動き検出予測モードを選択する場合と比較して、結合予測モードと同一の予測動きベクトルを利用すること、及び、動き検出予測モードで必要となる参照画像指定情報が不要となる。そのため、結合動き修正予測モードが統合予測モードと動き検出予測モードの間の性質を持つ予測モードとなり、隣接する動き情報との時間的・空間的な相関性が高いが動きに微小なずれを生じている場合や、隣接するブロックの動き情報が正確な動きを示していない場合などに、符号化効率を向上させることができる。 Thereby, compared with the case where the motion detection prediction mode is selected, the same prediction motion vector as that in the combined prediction mode is used, and the reference image designation information required in the motion detection prediction mode is unnecessary. For this reason, the combined motion correction prediction mode becomes a prediction mode having the property between the integrated prediction mode and the motion detection prediction mode, and the temporal and spatial correlation with the adjacent motion information is high, but a slight shift occurs in the motion. Encoding efficiency can be improved, for example, when the motion information of adjacent blocks does not indicate accurate motion.
以上述べた実施の形態の動画像符号化装置が出力する動画像の符号化ストリームは、実施の形態で用いられた符号化方法に応じて復号することができるように特定のデータフォーマットを有しており、動画像符号化装置に対応する動画像復号装置がこの特定のデータフォーマットの符号化ストリームを復号することができる。 The moving image encoded stream output from the moving image encoding apparatus of the embodiment described above has a specific data format so that it can be decoded according to the encoding method used in the embodiment. Therefore, the moving picture decoding apparatus corresponding to the moving picture encoding apparatus can decode the encoded stream of this specific data format.
動画像符号化装置と動画像復号装置の間で符号化ストリームをやりとりするために、有線または無線のネットワークが用いられる場合、符号化ストリームを通信路の伝送形態に適したデータ形式に変換して伝送してもよい。その場合、動画像符号化装置が出力する符号化ストリームを通信路の伝送形態に適したデータ形式の符号化データに変換してネットワークに送信する動画像送信装置と、ネットワークから符号化データを受信して符号化ストリームに復元して動画像復号装置に供給する動画像受信装置とが設けられる。 When a wired or wireless network is used to exchange an encoded stream between a moving image encoding device and a moving image decoding device, the encoded stream is converted into a data format suitable for the transmission form of the communication path. It may be transmitted. In that case, a video transmission apparatus that converts the encoded stream output from the video encoding apparatus into encoded data in a data format suitable for the transmission form of the communication channel and transmits the encoded data to the network, and receives the encoded data from the network Then, a moving image receiving apparatus that restores the encoded stream and supplies the encoded stream to the moving image decoding apparatus is provided.
動画像送信装置は、動画像符号化装置が出力する符号化ストリームをバッファするメモリと、符号化ストリームをパケット化するパケット処理部と、パケット化された符号化データをネットワークを介して送信する送信部とを含む。動画像受信装置は、パケット化された符号化データをネットワークを介して受信する受信部と、受信された符号化データをバッファするメモリと、符号化データをパケット処理して符号化ストリームを生成し、動画像復号装置に提供するパケット処理部とを含む。 The moving image transmitting apparatus is a memory that buffers the encoded stream output from the moving image encoding apparatus, a packet processing unit that packetizes the encoded stream, and transmission that transmits the packetized encoded data via the network. Part. The moving image receiving apparatus generates a coded stream by packetizing the received data, a receiving unit that receives the packetized coded data via a network, a memory that buffers the received coded data, and packet processing. And a packet processing unit provided to the video decoding device.
また、以上の符号化及び復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(Read Only Memory)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。 Further, the above-described processing relating to encoding and decoding can be realized as a transmission, storage, and reception device using hardware, and is stored in a ROM (Read Only Memory), a flash memory, or the like. It can also be realized by firmware or software such as a computer. The firmware program and software program can be recorded on a computer-readable recording medium, provided from a server through a wired or wireless network, or provided as a data broadcast of terrestrial or satellite digital broadcasting Is also possible.
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .
実施の形態1の図21のフローチャートの説明では、結合動き情報インデックスの符号列としては、Truncated Unary符号列を用いる例を説明した。ここで、Truncated Unary符号列の具体例を挙げる。 In the description of the flowchart of FIG. 21 in the first embodiment, the example in which the Truncated Unary code string is used as the code string of the combined motion information index has been described. Here, a specific example of the Truncated Unary code string is given.
図80は、結合動き情報候補数が5の場合のTruncated Unary符号列を示す図である。Truncated Unary符号列を用いて結合動き情報インデックスの値を符号化する場合には、結合動き情報候補数が少ないほど、結合動き情報インデックスに割り当てられる符号ビットが小さくなる。例えば、結合動き情報インデックスが1である場合、結合動き情報候補数が2個であれば‘1’の1ビットで表現されるが、結合動き情報候補数が3個であれば‘10’の2ビットで表現される。なお、ここでは上記のように結合動き情報インデックスの符号化にTruncated Unary符号列を利用しているが、他の符号列生成手法を用いることも可能であり、これに限定されない。 FIG. 80 is a diagram illustrating a Truncated Unary code string when the number of combined motion information candidates is five. When the value of the combined motion information index is encoded using the Truncated Unary code string, the smaller the number of combined motion information candidates, the smaller the code bits assigned to the combined motion information index. For example, when the combined motion information index is 1, if the number of combined motion information candidates is 2, it is represented by 1 bit of “1”, but if the number of combined motion information candidates is 3, it is expressed as “10”. Expressed with 2 bits. Here, as described above, the Truncated Unary code string is used for encoding the combined motion information index, but other code string generation methods can be used, and the present invention is not limited to this.
100 入力端子、 101 減算部、 102 直交変換・量子化部、 103 予測誤差符号化部、 104 逆量子化・逆変換部、 105 加算部、 106 復号画像メモリ、 107 動きベクトル検出部、 108 動き補償予測部、 109 予測モード判定部、 110 動き情報符号化部、 111 動き情報メモリ、 112 多重化部、 113 出力端子、 600 入力端子、 601 多重分離部、 602 予測差分情報復号部、 603 逆量子化・逆変換部、 604 加算部、 605 復号画像メモリ、 606 動き情報復号部、 607 動き情報メモリ、 608 動き補償予測部、 609 出力端子、 1000 片方向動き補償予測生成部、 1001 双方向動き補償予測生成部、 1002 予測誤差算出部、 1003 予測ベクトル算出部、 1004 差分ベクトル算出部、 1005 動き情報符号量算出部、 1006 予測モード評価部、 1007 結合動き情報算出部、 1008 結合動き補償予測生成部、 1009 結合動き修正動き補償予測生成部、 1100 予測ベクトル候補リスト生成部、 1101 予測ベクトル候補リスト削除部、 1200 結合動き情報候補リスト生成部、 1201 結合動き情報候補リスト削除部、 1300 基準参照画像・動き修正参照画像選択部、 1301 動き修正参照画像動きベクトル取得部、 1302 結合動き情報修正動き補償予測生成部、 1303 差分ベクトル算出部、 3700 動き情報ビットストリーム復号部、 3701 予測ベクトル算出部、 3702 ベクトル加算部、 3703 片方向動き補償予測復号部、 3704 双方向動き補償予測復号部、 3705 結合動き情報算出部、 3706 結合動き補償予測復号部、 3707 結合動き修正動き補償予測復号部、 4700 動き修正参照画像動きベクトル検出部、 5900,6000 結合動き修正動き情報算出部。 100 input terminals, 101 subtraction unit, 102 orthogonal transform / quantization unit, 103 prediction error coding unit, 104 inverse quantization / inverse transform unit, 105 addition unit, 106 decoded image memory, 107 motion vector detection unit, 108 motion compensation Prediction unit, 109 prediction mode determination unit, 110 motion information encoding unit, 111 motion information memory, 112 multiplexing unit, 113 output terminal, 600 input terminal, 601 demultiplexing unit, 602 prediction difference information decoding unit, 603 inverse quantization Inverse transformation unit, 604 addition unit, 605 decoded image memory, 606 motion information decoding unit, 607 motion information memory, 608 motion compensation prediction unit, 609 output terminal, 1000 unidirectional motion compensation prediction generation unit, 1001 bidirectional motion compensation prediction Generator, 1002 prediction error calculator, 100 Prediction vector calculation unit, 1004 difference vector calculation unit, 1005 motion information code amount calculation unit, 1006 prediction mode evaluation unit, 1007 joint motion information calculation unit, 1008 joint motion compensation prediction generation unit, 1009 joint motion correction motion compensation prediction generation unit, 1100 Prediction vector candidate list generation unit 1101 Prediction vector candidate list deletion unit 1200 Combined motion information candidate list generation unit 1201 Combined motion information candidate list deletion unit 1300 Reference reference image / motion correction reference image selection unit 1301 Motion correction reference Image motion vector acquisition unit, 1302 combined motion information modified motion compensation prediction generation unit, 1303 difference vector calculation unit, 3700 motion information bitstream decoding unit, 3701 prediction vector calculation unit, 3702 vector addition unit, 370 Unidirectional motion compensation prediction decoding unit, 3704 bidirectional motion compensation prediction decoding unit, 3705 joint motion information calculation unit, 3706 joint motion compensation prediction decoding unit, 3707 joint motion correction motion compensation prediction decoding unit, 4700 motion correction reference image motion vector detection Part, 5900, 6000 combined motion correction motion information calculation unit.
Claims (3)
符号化対象ブロックの動き情報として、予測方向が双方向予測の場合であって、かつ前記符号化対象ブロックに隣接する参照ブロックの動き情報に含まれる一方の動きベクトルを修正する場合において、前記参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動き情報に含まれる前記一方の動きベクトルとの差分ベクトルを符号化対象として使用するモードを選択可能な予測モード判定部と、
前記予測モード判定部から供給される動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する予測誤差信号符号化部と、
前記予測モード判定部から供給される動き情報を符号化する動き情報符号化部と、
前記予測誤差信号符号化部から供給される符号化データと、前記動き情報符号化部から供給される符号化データとを多重化する多重化部とを備え、
前記差分ベクトルの対象となる前記参照ブロックの動き情報に含まれる前記一方の動きベクトルは、参照ブロック候補の動き情報から特定される、予測方向によって決定される動きベクトルである
ことを特徴とする画像符号化装置。 An image encoding device that detects and encodes a motion vector in units of blocks obtained by dividing each picture of a moving image,
As the motion information of the encoding target block, when the prediction direction in the case of bidirectional prediction, and for modifying one of the motion vectors included in the motion information of the reference blocks adjacent to the encoding target block, before Symbol participation index irradiation block, and the encoding target blocks of the motion vector and the reference the one motion vector mode using difference vector as a coding target and selectable prediction mode determination unit included in the motion information of the block When,
A prediction error signal encoding unit that encodes a prediction error signal that is a difference between a prediction signal generated based on motion information supplied from the prediction mode determination unit and an image signal of the encoding target block;
A motion information encoding unit that encodes the motion information supplied from the prediction mode determination unit;
A multiplexing unit that multiplexes the encoded data supplied from the prediction error signal encoding unit and the encoded data supplied from the motion information encoding unit;
The one of the motion vectors included in the motion information of the reference block to be subjected to the differential vector is determined from motion information of the reference block candidates, characterized in that it is a motion vector determined by the prediction direction Image encoding device.
符号化対象ブロックの動き情報として、予測方向が双方向予測の場合であって、かつ前記符号化対象ブロックに隣接する参照ブロックの動き情報に含まれる一方の動きベクトルを修正する場合において、前記参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動き情報に含まれる前記一方の動きベクトルとの差分ベクトルを符号化対象として使用するモードを選択するステップと、
前記動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化するステップと、
前記動き情報を符号化するステップと、
前記予測誤差信号の符号化データと、前記動き情報の符号化データとを多重化するステップとを有し、
前記差分ベクトルの対象となる前記参照ブロックの動き情報に含まれる前記一方の動きベクトルは、参照ブロック候補の動き情報から特定される、予測方向によって決定される動きベクトルである
ことを特徴とする画像符号化方法。 An image encoding method for detecting and encoding a motion vector in units of blocks obtained by dividing each picture of a moving image,
As the motion information of the encoding target block, when the prediction direction in the case of bidirectional prediction, and for modifying one of the motion vectors included in the motion information of the reference blocks adjacent to the encoding target block, before Symbol selecting a mode to use the index of references blocks, and a difference vector between the one of the motion vector included in the coding target block motion vector and the motion information of the reference block as an encoding target,
Encoding a prediction error signal that is a difference between a prediction signal generated based on the motion information and an image signal of the encoding target block;
Encoding the motion information;
Multiplexing the encoded data of the prediction error signal and the encoded data of the motion information,
The one of the motion vectors included in the motion information of the reference block to be subjected to the differential vector is determined from motion information of the reference block candidates, characterized in that it is a motion vector determined by the prediction direction Image coding method.
符号化対象ブロックの動き情報として、予測方向が双方向予測の場合であって、かつ前記符号化対象ブロックに隣接する参照ブロックの動き情報に含まれる一方の動きベクトルを修正する場合において、前記参照ブロックのインデックス、及び前記符号化対象ブロックの動きベクトルと前記参照ブロックの動き情報に含まれる前記一方の動きベクトルとの差分ベクトルを符号化対象として使用するモードを選択する処理と、
前記動き情報をもとに生成される予測信号と、前記符号化対象ブロックの画像信号との差分である予測誤差信号を符号化する処理と、
前記動き情報を符号化する処理と、
前記予測誤差信号の符号化データと、前記動き情報の符号化データとを多重化する処理とをコンピュータに実行させ、
前記差分ベクトルの対象となる前記参照ブロックの動き情報に含まれる前記一方の動きベクトルは、参照ブロック候補の動き情報から特定される、予測方向によって決定される動きベクトルである
ことを特徴とする画像符号化プログラム。 An image encoding program for detecting and encoding a motion vector in units of blocks obtained by dividing each picture of a moving image,
As the motion information of the encoding target block, when the prediction direction in the case of bidirectional prediction, and for modifying one of the motion vectors included in the motion information of the reference blocks adjacent to the encoding target block, before Symbol a process of selecting the mode to be used an index of references blocks, and a difference vector between the one of the motion vector included in the coding target block motion vector and the motion information of the reference block as an encoding target,
A process of encoding a prediction error signal that is a difference between a prediction signal generated based on the motion information and an image signal of the encoding target block;
A process of encoding the motion information;
Causing the computer to execute a process of multiplexing the encoded data of the prediction error signal and the encoded data of the motion information;
The one of the motion vectors included in the motion information of the reference block to be subjected to the differential vector is determined from motion information of the reference block candidates, characterized in that it is a motion vector determined by the prediction direction Image encoding program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011146783A JP5786498B2 (en) | 2011-06-30 | 2011-06-30 | Image coding apparatus, image coding method, and image coding program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011146783A JP5786498B2 (en) | 2011-06-30 | 2011-06-30 | Image coding apparatus, image coding method, and image coding program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015147562A Division JP6065952B2 (en) | 2015-07-27 | 2015-07-27 | Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013016934A JP2013016934A (en) | 2013-01-24 |
JP5786498B2 true JP5786498B2 (en) | 2015-09-30 |
Family
ID=47689192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011146783A Active JP5786498B2 (en) | 2011-06-30 | 2011-06-30 | Image coding apparatus, image coding method, and image coding program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5786498B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6938612B2 (en) | 2016-07-12 | 2021-09-22 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | Image decoding methods, image coding methods, and non-temporary computer-readable recording media |
CN117528110A (en) | 2016-11-28 | 2024-02-06 | 英迪股份有限公司 | Image encoding method, image decoding method, and method for transmitting bit stream |
WO2019001741A1 (en) * | 2017-06-30 | 2019-01-03 | Huawei Technologies Co., Ltd. | Motion vector refinement for multi-reference prediction |
EP3761640A4 (en) | 2018-02-28 | 2022-01-12 | Samsung Electronics Co., Ltd. | Encoding method and device thereof, and decoding method and device thereof |
WO2020122224A1 (en) * | 2018-12-13 | 2020-06-18 | 株式会社Jvcケンウッド | Image decoding device, image decoding method, and image decoding program |
JP6933235B2 (en) * | 2018-12-13 | 2021-09-08 | 株式会社Jvcケンウッド | Image decoding device, image decoding method, and image decoding program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101043626B (en) * | 2002-07-15 | 2010-06-09 | 株式会社日立制作所 | Moving picture encoding method |
JP2006279573A (en) * | 2005-03-29 | 2006-10-12 | Sanyo Electric Co Ltd | Encoder and encoding method, and decoder and decoding method |
US9060176B2 (en) * | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
WO2011061880A1 (en) * | 2009-11-19 | 2011-05-26 | 三菱電機株式会社 | Image encoder apparatus, image decoder apparatus, image encoding method, and image decoding method |
-
2011
- 2011-06-30 JP JP2011146783A patent/JP5786498B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013016934A (en) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5786498B2 (en) | Image coding apparatus, image coding method, and image coding program | |
JP6226044B2 (en) | Receiver | |
JP6344508B2 (en) | Image decoding apparatus, image decoding method, and image decoding program | |
JP6428869B2 (en) | Moving picture decoding apparatus, moving picture decoding method, and moving picture decoding program | |
JP6065952B2 (en) | Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program | |
JP5786499B2 (en) | Image decoding apparatus, image decoding method, and image decoding program | |
JP2013106312A (en) | Image encoder, image encoding method and image encoding program | |
JP6172326B2 (en) | Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program | |
JP6172325B2 (en) | Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program | |
JP6172324B2 (en) | Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program | |
JP6065951B2 (en) | Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program | |
JP6142943B2 (en) | Image decoding apparatus, image decoding method, image decoding program, receiving apparatus, receiving method, and receiving program | |
JP6172327B2 (en) | Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program | |
JP6172328B2 (en) | Image encoding device, image encoding method, image encoding program, transmission device, transmission method, and transmission program | |
JP6344509B2 (en) | Image coding apparatus, image coding method, and image coding program | |
JP2013042241A (en) | Apparatus, method and program for encoding moving image | |
JP2013042239A (en) | Image encoder, image encoding method, and image encoding program | |
JP2013042240A (en) | Image decoder, image decoding method, and image decoding program | |
JP2013106313A (en) | Image decoder, image decoding method and image decoding program | |
JP2013042242A (en) | Image decoder, image decoding method, and image decoding program | |
TWI657696B (en) | Motion image encoding device, motion image encoding method, and recording medium for recording motion image encoding program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140902 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150224 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5786498 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |