KR100619716B1 - Method for predicting image - Google Patents

Method for predicting image Download PDF

Info

Publication number
KR100619716B1
KR100619716B1 KR1020050038543A KR20050038543A KR100619716B1 KR 100619716 B1 KR100619716 B1 KR 100619716B1 KR 1020050038543 A KR1020050038543 A KR 1020050038543A KR 20050038543 A KR20050038543 A KR 20050038543A KR 100619716 B1 KR100619716 B1 KR 100619716B1
Authority
KR
South Korea
Prior art keywords
image
picture
image block
reference picture
order information
Prior art date
Application number
KR1020050038543A
Other languages
Korean (ko)
Other versions
KR20050049465A (en
Inventor
전병문
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050038543A priority Critical patent/KR100619716B1/en
Publication of KR20050049465A publication Critical patent/KR20050049465A/en
Application granted granted Critical
Publication of KR100619716B1 publication Critical patent/KR100619716B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 이미지 예측 방법에 관한 것으로 특히, 현재 코딩하려는 픽쳐와 레퍼런스 픽쳐의 디스플레이 순서 정보를 고려하여 현재 코딩하려는 픽쳐의 이미지 블록을 예측함으로써 코딩 효율을 향상시킬 수 있도록 함에 그 목적이 있다. 이러한 목적의 본 발명은 동영상 스트림을 부호화하는 방법에 있어서, 제1, 제2 이미지 블록, 현재 영상의 디스플레이 순서 정보 및 제1, 제2 이미지 블록 중 하나에 관련된 적어도 하나의 레퍼런스 픽쳐의 디스플레이 순서 정보를 이용하여 현재의 이미지 블록을 예측하는 단계를 포함하여 수행하며, 상기 이미지 블록 예측 단계는 제1, 제2 이미지 블록과, 현재 영상과 레퍼런스 픽쳐 간의 디스플레이 순서 정보의 차를 이용하여 현재의 이미지 블록을 예측하는 과정을 포함하여 구성함을 특징으로 한다. The present invention relates to an image prediction method, and more particularly, to improve coding efficiency by predicting an image block of a picture to be currently coded in consideration of display order information of a picture to be currently coded and a reference picture. In accordance with an aspect of the present invention, there is provided a method of encoding a video stream, comprising: display order information of a first and second image blocks, display order information of a current image, and display order information of at least one reference picture associated with one of the first and second image blocks; Predicting the current image block by using a second image block, wherein the image block prediction step uses the difference between the first and second image blocks and the display order information between the current image and the reference picture. Characterized in that the configuration including the process of predicting.

Description

이미지 예측 방법{METHOD FOR PREDICTING IMAGE}Image prediction method {METHOD FOR PREDICTING IMAGE}

도1은 종래의 다이렉트 모드에서의 움직임 벡터 예시도. 1 is a diagram illustrating a motion vector in a conventional direct mode.

도2는 본 발명의 실시예에서의 움직임 벡터 예시도. 2 is a diagram illustrating a motion vector in an embodiment of the present invention.

도3 및 도4는 본 발명의 실시예에서 보간 예측 방법을 보인 예시도. 3 and 4 are exemplary diagrams showing an interpolation prediction method in an embodiment of the present invention.

* 도면의 주요부분에 대한 부호 설명 * Explanation of symbols on the main parts of the drawings

P1,P4,P7 : P 픽쳐 B2,B3,B5,B6 : B 픽쳐 P1, P4, P7: P picture B2, B3, B5, B6: B picture

본 발명은 동영상 코딩 시스템에 관한 것으로 특히, 이미지 예측 방법에 관한 것이다. The present invention relates to a video coding system, and more particularly, to an image prediction method.

B 픽쳐의 큰 특징 중 하나는 오버헤드(overhead) 정보가 필요없는 다이렉트 예측 모드를 다른 예측 모드 즉, 순방향 예측(forward prediction), 역방향 예측(backward prediction), 양방향 예측(bi-directional prediction), 인트라 예측(intra prediction) 등에 비해 많이 선택함으로써 P 픽쳐보다 높은 코딩 효율을 보여준다. One of the great features of the B picture is that the direct prediction mode, which does not require overhead information, can be converted into other prediction modes, namely forward prediction, backward prediction, bi-directional prediction, and intra. By selecting more than an intra prediction or the like, the coding efficiency is higher than that of a P picture.

종래 기술의 다이렉트 모드는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐 (backward reference picture for direct mode)의 동일 위치의 매크로블록이 갖는 움직임 벡터로부터 다이렉트 모드의 순방향 움직임 벡터와 역방향 움직임 벡터를 계산하고, 이 값들을 사용하여 움직임 보상된 블록들을 얻고, 최종적으로 두개의 움직임 보상 값을 평균 연산하여 예측된 매크로블록을 얻는 모드이다. The prior art direct mode calculates the forward motion vector and the backward motion vector of the direct mode from the motion vectors of the macroblock at the same position of the backward reference picture for direct mode, and uses these values. In this mode, motion compensated blocks are obtained, and finally, motion compensation values are averaged to obtain a predicted macroblock.

이를 도1의 움직임 벡터 예시도를 참조하여 설명하기로 한다. This will be described with reference to the motion vector illustration of FIG. 1.

도1에서

Figure 112005024250147-pat00001
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(forward reference picture for direct mode, P1)와 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7) 사이의 시간적 거리,
Figure 112005024250147-pat00002
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)와 현재 B 픽쳐(B5) 사이의 시간적 거리, ,
Figure 112005024250147-pat00003
는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)의 동일 위치에 있는 매크로블록이 갖는 움직임 벡터,
Figure 112005024250147-pat00004
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)로부터 구한 다이렉트 모드의 순방향 움직임 벡터,
Figure 112005024250147-pat00005
는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)로부터 구한 다이렉트 모드의 역방향 움직임 벡터이다. In Figure 1
Figure 112005024250147-pat00001
Is the temporal distance between the forward reference picture for direct mode (P1) and the reverse reference picture (P7) for direct mode,
Figure 112005024250147-pat00002
Is the temporal distance between the forward reference picture P1 and the current B picture B5 for the direct mode,
Figure 112005024250147-pat00003
Is a motion vector of the macroblock at the same position of the backward reference picture P7 for the direct mode,
Figure 112005024250147-pat00004
Is the forward motion vector of the direct mode obtained from the forward reference picture P1 for the direct mode,
Figure 112005024250147-pat00005
Is the backward motion vector of the direct mode obtained from the backward reference picture P7 for the direct mode.

다이렉트 모드의 순방향 움직임 벡터(

Figure 112005024250147-pat00006
)는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)의 매크로블록(
Figure 112005024250147-pat00007
)의 움직임 벡터(MV)와 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)가 참조하는 레퍼런스 픽쳐 즉, 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)로부터 아래의 [수학식 1]을 적용하여 구한다. Forward motion vector in direct mode (
Figure 112005024250147-pat00006
) Is a macroblock of the reverse reference picture P7 for direct mode.
Figure 112005024250147-pat00007
The following equation (1) is obtained from the reference picture referred to by the motion vector MV of the s) and the backward reference picture P7 for the direct mode, that is, the forward reference picture P1 for the direct mode.

Figure 112005024250147-pat00008
Figure 112005024250147-pat00008

그리고, 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)의 매크로블록(

Figure 112005024250147-pat00009
)이 갖는 움직임 벡터(MV)로부터 역방향 움직임 벡터(
Figure 112005024250147-pat00010
)를 아래의 [수학식 2]에 의해 구한다. Then, the macroblock of the reverse reference picture P7 for the direct mode (
Figure 112005024250147-pat00009
) From the motion vector (MV) of the backward motion vector (
Figure 112005024250147-pat00010
) Is obtained from Equation 2 below.

Figure 112005024250147-pat00011
Figure 112005024250147-pat00011

따라서, 상기 [수학식 1][수학식 2]와 같은 움직임 벡터(

Figure 112005024250147-pat00012
)(
Figure 112005024250147-pat00013
)를 이용하여 움직임 보상된 매크로블록(
Figure 112005024250147-pat00014
)(
Figure 112005024250147-pat00015
)을 구한 후 아래의 [수학식 3]과 같이 평균 연산하여 현재 코딩하려는 B 픽쳐의 매크로블록(
Figure 112005024250147-pat00016
)을 예측(
Figure 112005024250147-pat00017
)한다. Therefore, the motion vector (Equation 1) and Equation 2
Figure 112005024250147-pat00012
) (
Figure 112005024250147-pat00013
Motion-blocked macroblock using
Figure 112005024250147-pat00014
) (
Figure 112005024250147-pat00015
) And then average the macroblock of the B picture to be coded by averaging as shown in [Equation 3] below.
Figure 112005024250147-pat00016
) Predict
Figure 112005024250147-pat00017
)do.

Figure 112005024250147-pat00018
Figure 112005024250147-pat00018

그러나, 종래의 기술은 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐의 현재 매크로블록과 동일 위치에 있는 매크로블록이 갖는 움직임 벡터로부터 다이렉트 모드의 순방향 움직임 벡터를 구하게 되므로 이 값은 B 픽쳐의 현재 매크로블록의 정확한 움직임 벡터라기보다 근사치라고 볼 수 있다. 한편, 시간적으로 B 픽쳐에서 가까운 레퍼런스 픽쳐일수록 B 픽쳐와의 유사성이 높을 것이므로 이 레퍼런스 픽쳐에서의 순방향 움직임 벡터를 구할 필요가 있다. However, since the prior art obtains the forward motion vector of the direct mode from the motion vector of the macroblock at the same position as the current macroblock of the reverse reference picture for the direct mode, this value is the exact motion of the current macroblock of the B picture. It is an approximation rather than a vector. On the other hand, since the similarity with the B picture will be higher as the reference picture is closer to the B picture in time, it is necessary to obtain a forward motion vector in the reference picture.

또한, B 픽쳐가 매크로블록 예측을 레퍼런스 픽쳐 사이의 시간적 거리를 고려하지 않고 단순히 순방향, 역방향 각각의 움직임 보상된 블록의 평균으로 구하게 됨에 따라 예측된 매크로블록의 정확도가 감소되어지는 문제점이 있다. 예를 들어, 페이딩 장면(fading scene)이 있는 영상에서는 연속된 B 픽쳐들의 밝기가 차츰 어두워지거나 반대로 밝아지게 되어 종래 기술과 같이 각 방향의 움직임 보상된 매크로블록을 단순히 평균하여 얻은 예측값은 실제값과 큰 차이를 보이게 되고 이것은 코딩 효율을 크게 떨어뜨리는 요인이 된다. In addition, since the B picture obtains the macroblock prediction as the average of each motion compensated block in the forward and reverse directions without considering the temporal distance between the reference pictures, the accuracy of the predicted macroblock is reduced. For example, in an image with a fading scene, the brightness of successive B pictures is gradually darkened or vice versa, so that the predicted value obtained by simply averaging the motion-compensated macroblocks in each direction as in the prior art is different from the actual value. There is a big difference, which is a factor that greatly reduces the coding efficiency.

따라서, 본 발명은 종래의 문제점을 개선하여 코딩 효율을 향상시킬 목적으로 창안된 이미지 예측 방법에 관한 것으로, 현재 코딩하려는 픽쳐와 레퍼런스 픽쳐의 디스플레이 순서 정보를 이용하여 현재 코딩하려는 픽쳐의 이미지 블록을 예측함으로써 코딩 효율을 향상시킬 수 있도록 하는 목적을 달성하기 위한 것이다. Accordingly, the present invention relates to an image prediction method designed to improve a coding efficiency by improving a conventional problem, and predicts an image block of a picture to be currently coded using display order information of a picture to be currently coded and a reference picture. In order to achieve the purpose of improving the coding efficiency.

본 발명은 상기의 목적을 달성하기 위하여 동영상 스트림 부호화 방법에 있어서, 레퍼런스 픽쳐 간의 시간적 거리가 아닌 디스플레이 순서 정보를 이용하여 보간 연산하도록 구성함을 특징으로 한다.In order to achieve the above object, the present invention is characterized in that the video stream encoding method is configured to interpolate using display order information rather than a temporal distance between reference pictures.

이러한 목적의 본 발명은 동영상 스트림을 부호화하는 방법에 있어서, 제1, 제2 이미지 블록, 현재 영상의 디스플레이 순서 정보 및 제1, 제2 이미지 블록 중 하나에 관련된 적어도 하나의 레퍼런스 픽쳐의 디스플레이 순서 정보를 이용하여 현재의 이미지 블록을 예측하는 단계를 포함하여 수행하도록 구성한다. In accordance with an aspect of the present invention, there is provided a method of encoding a video stream, comprising: display order information of a first and second image blocks, display order information of a current image, and display order information of at least one reference picture associated with one of the first and second image blocks; And predicting the current image block using the.

상기 이미지 블록 예측 단계는 현재 영상과 레퍼런스 픽쳐 간의 디스플레이 순서 정보의 차를 이용하는 것을 특징으로 한다. The image block prediction step may use a difference of display order information between the current image and the reference picture.

상기 디스플레이 순서 정보는 픽쳐 오더 카운트(picture order count)를 포함하는 것을 특징으로 한다. The display order information may include a picture order count.

또한, 상기 이미지 예측 단계는 디코더 연산의 다이렉트(direct) 모드로 현재의 이미지 블록을 예측하는 과정을 포함하는 것을 특징으로 한다. The image predicting may include predicting a current image block in a direct mode of a decoder operation.

이하, 본 발명을 도면에 의거 상세히 설명하면 다음과 같다. Hereinafter, the present invention will be described in detail with reference to the drawings.

본 발명은 도1의 예시도와 도2의 예시도에 모두 적용할 수 있다. The present invention can be applied to both the illustration of FIG. 1 and the illustration of FIG.

도1은 종래 기술의 다이렉트 모드를 설명하기 위한 움직임 벡터의 예시도이다. 본 발명을 도1에 적용하는 경우에도 순방향 움직임 벡터, 역방향 움직임 벡터 그리고, 그 순방향과 역방향 움직임 벡터를 이용하여 움직임 보상된 블록을 구하는 과정은 종래 기술과 동일함으로 상세한 설명은 생략하기로 한다. 1 is an exemplary diagram of a motion vector for explaining a direct mode of the prior art. Even when the present invention is applied to FIG. 1, a process of obtaining a motion-compensated block using a forward motion vector, a backward motion vector, and the forward and backward motion vectors is the same as in the prior art, and thus a detailed description thereof will be omitted.

본 발명의 실시 예에서는 유사성이 높을 확률이 있는 B 픽쳐에서 가장 가까운 거리의 레퍼런스 픽쳐로부터 움직임 벡터를 유도하여 움직임을 보상하고 또한, 높은 정확도를 갖는 매크로블록의 예측을 위해 B 픽쳐와 다이렉트 모드의 순방향 움직임 벡터를 위해 사용된 레퍼런스 픽쳐(다이렉트 모드를 위한 순방향 레퍼런스 픽쳐 또는 B 픽쳐에서 가장 가까운 레퍼런스 픽쳐), 그리고 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐에 대한 디스플레이 순서 정보를 고려한 보간 예측을 수행하는 과정을 설명하기로 한다. In an embodiment of the present invention, the motion vector is compensated by deriving a motion vector from a reference picture of the closest distance in a B picture that has a high probability of similarity, and forwards the B picture and the direct mode in order to predict a macroblock with high accuracy. To describe the process of performing interpolation prediction that takes into account the display order information for the reference picture used for the motion vector (forward reference picture or the closest reference picture to the B picture for direct mode), and the reverse reference picture for direct mode. Shall be.

먼저, 본 발명의 실시 예에서는 현재 코딩(또는 복호)하려는 B 픽쳐에 대해 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐로부터 순방향 움직임 벡터를 구하는 제1 단계와, 현재 코딩(또는 복호)하려는 B 픽쳐에 대해 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐로부터 역방향 움직임 벡터를 구하는 제2 단계와, 상기에서 구한 순방향 및 역방향의 움직임 벡터를 이용하여 움직임 보상된 블록을 구하는 제3 단계와, 상기에서 구한 움직임 보상된 블록들을 시간적 거리를 고려하여 보간 연산함으로써 현재 코딩(또는 복호)하려는 B 픽쳐의 매크로 블록을 예측하는 제4 단계를 수행하는 과정을 설명하기로 한다. First, according to an embodiment of the present invention, a first step of obtaining a forward motion vector from a forward reference picture for a direct mode for a B picture to be currently coded (or decoded) and a direct mode for a B picture to be currently coded (or decoded) A second step of obtaining a backward motion vector from a backward reference picture for a third step; obtaining a motion compensated block using the forward and backward motion vectors obtained above; and obtaining a temporal distance from the motion compensated blocks The process of performing the fourth step of predicting the macroblock of the B picture to be currently coded (or decoded) by performing interpolation operation will be described.

상기 제1 단계는 현재 코딩(또는 복호)하려는 B 픽쳐에 대해 순방향 레퍼런스 픽쳐 중 가장 가까운 거리의 레퍼런스 픽쳐로부터 순방향 움직임 벡터를 구하는 단계로 대치할 수 있다. The first step may be replaced by obtaining a forward motion vector from a reference picture of the closest distance among the forward reference pictures for the B picture to be currently coded (or decoded).

상기 제4 단계는 움직임 보상된 블록에 대해 각 레퍼런스 픽쳐들의 시간적 거리를 고려하여 보간 연산함으로써 현재 코딩(또는 복호)하려는 B 픽쳐의 매크로블록을 예측하는 단계로 대치할 수 있다. The fourth step may be replaced with a step of predicting a macroblock of a B picture to be currently coded (or decoded) by interpolating the motion compensated block in consideration of the temporal distances of the respective reference pictures.

먼저, 본 발명의 실시예에서의 블록 예측 과정을 도2를 참조하여 설명하면 다음과 같다. First, a block prediction process according to an embodiment of the present invention will be described with reference to FIG. 2.

도2는 본 발명의 실시예에서 다이렉트 모드를 설명하기 위한 움직임 벡터의 예시도이다. 2 is an exemplary diagram of a motion vector for explaining a direct mode in an embodiment of the present invention.

도2에서

Figure 112005024250147-pat00019
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)와 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7) 간의 시간적 거리,
Figure 112005024250147-pat00020
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)와 현재 B 픽쳐(B5) 사이의 시간적 거리,
Figure 112005024250147-pat00021
은 B 픽쳐에서 가장 가까운 거리에 있는 레퍼런스 픽쳐(P4)와 B 픽쳐 사이의 시간적 거리,
Figure 112005024250147-pat00022
는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)가 갖는 움직임 벡터,
Figure 112005024250147-pat00023
는 B 픽쳐에서 가장 가까운 레퍼런스 픽쳐(P4)로부터 구한 다이렉트 모드의 순방향 움직임 벡터,
Figure 112005024250147-pat00024
는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)로부터 구한 다이렉트 모드의 역방향 움직임 벡터이다. In Figure 2
Figure 112005024250147-pat00019
Is the temporal distance between the forward reference picture P1 for the direct mode and the reverse reference picture P7 for the direct mode,
Figure 112005024250147-pat00020
Is the temporal distance between the forward reference picture P1 and the current B picture B5 for the direct mode,
Figure 112005024250147-pat00021
Is the temporal distance between the reference picture (P4) and the B picture that is closest to the B picture,
Figure 112005024250147-pat00022
Is a motion vector of the reverse reference picture P7 for the direct mode,
Figure 112005024250147-pat00023
Is the forward motion vector of the direct mode obtained from the reference picture P4 nearest to the B picture,
Figure 112005024250147-pat00024
Is the backward motion vector of the direct mode obtained from the backward reference picture P7 for the direct mode.

여기서, 현재 코딩하려는 B 픽쳐의 블록(

Figure 112005024250147-pat00025
)과 동일 위치에 있는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)의 블록(
Figure 112005024250147-pat00026
)이 갖는 움직임 벡터(
Figure 112005024250147-pat00027
)는 B 픽쳐가 부호화(또는 복호화)되기 전에 이미 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐를 부호화(또는 복호화)하는 과정에서 구한 값이다. Where the block of the B picture
Figure 112005024250147-pat00025
Block of the reverse reference picture P7 for the direct mode at the same position as
Figure 112005024250147-pat00026
) Has a motion vector (
Figure 112005024250147-pat00027
) Is a value obtained in a process of encoding (or decoding) a backward reference picture for the direct mode before the B picture is encoded (or decoded).

우선, 순방향 레퍼런스 픽쳐 중 시간적 거리(temporal distance)가 가장 가까운 레퍼런스 픽쳐로부터 순방향 움직임 벡터(

Figure 112005024250147-pat00028
)를 아래의 [수학식 4]와 같은 연산으로 구한다. First of all, a forward motion vector from a reference picture closest to a temporal distance among the forward reference pictures
Figure 112005024250147-pat00028
) Is calculated using the same operation as in Equation 4 below.

Figure 112005024250147-pat00029
Figure 112005024250147-pat00029

그리고, 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)로부터 역방향 움직임 벡터(

Figure 112005024250147-pat00030
)를 종래 기술과 동일하게 아래의 [수학식 5]와 같은 연산에 의해 구 한다. Then, the backward motion vector (P backward) from the reverse reference picture P7 for the direct mode is used.
Figure 112005024250147-pat00030
) Is obtained by the same operation as in Equation 5 below.

Figure 112005024250147-pat00031
Figure 112005024250147-pat00031

이에 따라, [수학식 4],[수학식 5]에 의해 구한 움직임 벡터(

Figure 112005024250147-pat00032
)(
Figure 112005024250147-pat00033
)를 이용하여 움직임 보상된 블록(
Figure 112005024250147-pat00034
)(
Figure 112005024250147-pat00035
)을 구한다. Accordingly, the motion vector obtained by Equations 4 and 5
Figure 112005024250147-pat00032
) (
Figure 112005024250147-pat00033
Motion compensated block using
Figure 112005024250147-pat00034
) (
Figure 112005024250147-pat00035
)

한편, B 픽쳐 원 영상의 블록(

Figure 112005024250147-pat00036
)에 대한 예측값(
Figure 112005024250147-pat00037
)은 움직임 보상된 두 블록 (
Figure 112005024250147-pat00038
,
Figure 112005024250147-pat00039
)으로부터 구해진다. 이때 B 픽쳐는 움직임 보상된 블록(
Figure 112005024250147-pat00040
)이 존재하는 레퍼런스 픽쳐와 움직임 보상된 블록(
Figure 112005024250147-pat00041
)이 존재하는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐 중 어느 한 픽쳐에 더 가깝게 위치할 수 있다. 본 발명은 도1과 도2의 예시도에 모두 적용할 수 있으므로 상기 움직임 보상된 블록(
Figure 112005024250147-pat00042
)이 존재하는 레퍼런스 픽쳐는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐 예로, 도1에서 P1 픽쳐 또는 B 픽쳐에서 가장 가까운 레퍼런스 픽쳐 예로, 도2에서 P4 픽쳐이다. Meanwhile, the block of the B picture original image (
Figure 112005024250147-pat00036
Estimate for
Figure 112005024250147-pat00037
) Is two motion-compensated blocks (
Figure 112005024250147-pat00038
,
Figure 112005024250147-pat00039
Is obtained from In this case, the B picture is a motion compensated block (
Figure 112005024250147-pat00040
) With reference picture and motion compensated block (
Figure 112005024250147-pat00041
) May be located closer to any one of the reverse reference pictures for the present direct mode. Since the present invention can be applied to both the exemplary diagrams of FIGS. 1 and 2, the motion compensated block (
Figure 112005024250147-pat00042
) Is a forward reference picture example for the direct mode, a reference picture example closest to the P1 picture or the B picture in FIG. 1, and a P4 picture in FIG. 2.

더욱이 페이딩 장면(fading scene)이 있는 영상에서는 연속된 B 픽쳐들의 밝기가 차츰 어두워지거나 또는 반대로 밝아지게 되어, 종래 기술과 같이 각 방향의 움직임 보상된 블록 (

Figure 112005024250147-pat00043
,
Figure 112005024250147-pat00044
)을 단순히 평균하여 얻은 예측 값은 실제 입력된 값과 큰 차이를 보이게 된다. 이는 코딩 효율을 크게 떨어뜨리는 요인이 된다. Moreover, in an image with a fading scene, the brightness of successive B pictures is gradually darkened or vice versa, so that motion compensated blocks in each direction as in the prior art (
Figure 112005024250147-pat00043
,
Figure 112005024250147-pat00044
The estimated value obtained by simply averaging) is different from the actual input value. This is a factor that greatly reduces the coding efficiency.

따라서, 다이렉트 모드에 의해 예측된 매크로블록의 정확도(accuracy)를 높이기 위하여, 평균 연산 대신 B 픽쳐와 움직임 보상된 블록(

Figure 112005024250147-pat00045
)이 존재하는 레퍼런 스 픽쳐(즉, 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐 또는 B 픽쳐에서 가장 가까운 레퍼런스 픽쳐), 그리고 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐 사이의 시간적 거리를 고려한 보간 예측(interpolative prediction)을 수행하도록 한다.Therefore, in order to increase the accuracy of the macroblock predicted by the direct mode, instead of the average operation, the B picture and the motion compensated block (
Figure 112005024250147-pat00045
Performs interpolative prediction considering the temporal distance between the reference picture (i.e., the reference picture closest to the forward reference picture or the B picture for the direct mode) and the reverse reference picture for the direct mode. Do it.

만일, 도3의 예시도에 도시한 바와 같이 종래 기술에 의해 다이렉트 모드의 순방향 움직임 벡터를 구한 경우, 움직임 보상된 블록(

Figure 112005024250147-pat00046
)은 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)에 존재하고 움직임 보상된 블록(
Figure 112005024250147-pat00047
)은 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)에 존재하게 된다. 따라서, 아래의 [수학식 6]과 같은 보간 예측이 수행된다. 여기서
Figure 112005024250147-pat00048
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)와 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7) 간의 시간적 거리,
Figure 112005024250147-pat00049
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)와 현재 B 픽쳐(B5) 사이의 시간적 거리이다. 이러한 보간 예측 방법은 종래의 평균 연산도 포함하게 되는데, 그 경우는 B 픽쳐가 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐와 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐 사이의 중앙에 위치할 때이다. If the forward motion vector of the direct mode is obtained by the prior art as shown in the exemplary diagram of Fig. 3, the motion compensated block (
Figure 112005024250147-pat00046
) Is present in the forward reference picture P1 for the direct mode and the motion compensated block
Figure 112005024250147-pat00047
) Is in the reverse reference picture P7 for the direct mode. Therefore, interpolation prediction as shown in Equation 6 below is performed. here
Figure 112005024250147-pat00048
Is the temporal distance between the forward reference picture P1 for the direct mode and the reverse reference picture P7 for the direct mode,
Figure 112005024250147-pat00049
Is the temporal distance between the forward reference picture P1 and the current B picture B5 for the direct mode. This interpolation prediction method also includes a conventional averaging operation when the B picture is centered between the forward reference picture for the direct mode and the reverse reference picture for the direct mode.

Figure 112005024250147-pat00050
Figure 112005024250147-pat00050

또한, 도4의 예시도에 도시한 바와 같이 본 발명에서 제시한 기술에 의해 다이렉트 모드의 순방향 움직임 벡터를 구하는 경우, 움직임 보상된 블록(

Figure 112005024250147-pat00051
)은 B 픽쳐에서 가장 가까운 레퍼런스 픽쳐(P4)에 존재하고 움직임 보상된 블록(
Figure 112005024250147-pat00052
)은 다이 렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7)에 존재하게 된다. 따라서 아래의 [수학식 7]과 같은 보간 예측이 수행된다. 여기서
Figure 112005024250147-pat00053
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)와 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐(P7) 간의 시간적 거리,
Figure 112005024250147-pat00054
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐(P1)와 현재 B 픽쳐 사이의 시간적 거리,
Figure 112005024250147-pat00055
은 B 픽쳐에서 가장 가까운 거리에 있는 레퍼런스 픽쳐(P4)와 B 픽쳐 사이의 시간적 거리이다.In addition, as shown in the exemplary diagram of FIG. 4, when obtaining the forward motion vector in the direct mode by the technique proposed in the present invention, a motion compensated block (
Figure 112005024250147-pat00051
) Is in the reference picture P4 closest to the B picture and the motion compensated block (
Figure 112005024250147-pat00052
) Is in the reverse reference picture P7 for the direct mode. Therefore, interpolation prediction is performed as shown in Equation 7 below. here
Figure 112005024250147-pat00053
Is the temporal distance between the forward reference picture P1 for the direct mode and the reverse reference picture P7 for the direct mode,
Figure 112005024250147-pat00054
Is the temporal distance between the forward reference picture P1 and the current B picture for direct mode,
Figure 112005024250147-pat00055
Is the temporal distance between the reference picture P4 and the B picture at the closest distance from the B picture.

Figure 112005024250147-pat00056
Figure 112005024250147-pat00056

한편, 각 픽쳐는 디스플레이 순서 정보인 Picture order count 값을 이용하여 표현할 수 있다. Meanwhile, each picture may be expressed using a picture order count value, which is display order information.

따라서, 상기 [수학식 6],[수학식 7]은 각 픽쳐의 디스플레이 순서 정보인 picture order count 값들을 이용하여 아래와 같은 [수학식 8]로 표현할 수 있다. 여기서

Figure 112005024250147-pat00057
는 현재 B 픽쳐에 할당된 디스플레이 순서 정보인 picture order count 값 ,
Figure 112005024250147-pat00058
는 다이렉트 모드를 위한 순방향 레퍼런스 픽쳐에 할당된 디스플레이 순서 정보인 picture order count 값 또는 상기 [수학식 4]에 의해 다이렉트 모드의 순방향 움직임 벡터를 구한 경우 B 픽쳐에서 가장 가까운 레퍼런스 픽쳐에 할당된 디스플레이 순서 정보인 picture order count 값,
Figure 112005024250147-pat00059
는 다이렉트 모드를 위한 역방향 레퍼런스 픽쳐에 할당된 디스플레이 순서 정보인 picture order count 값을 의미한 다. Accordingly, Equations 6 and 7 may be expressed by Equation 8 below using picture order count values that are display order information of each picture. here
Figure 112005024250147-pat00057
The picture order count value, which is the display order information currently assigned to the B picture,
Figure 112005024250147-pat00058
Is the display order count value assigned to the forward reference picture for the direct mode or the display order information assigned to the reference picture closest to the B picture when the forward motion vector of the direct mode is obtained by Equation 4 above. Picture order count value,
Figure 112005024250147-pat00059
Denotes a picture order count value, which is display order information allocated to the reverse reference picture for the direct mode.

Figure 112005024250147-pat00060
Figure 112005024250147-pat00060

상기에서 상세히 설명한 바와 같이, 본 발명은 현재 코딩(또는 복호)하려는 B 픽쳐와 유사성이 높은 확률을 갖는, 가장 가까운 거리에 위치한 레퍼런스 픽쳐로부터 다이렉트 모드의 순방향 움직임 벡터를 구하고, 이로부터 움직임 보상된 블록 값들을 시간적 거리를 고려한 보간 예측을 통해 예측된 매크로블록을 얻게 된다. 이러한 방법은 종래의 기술을 이용한 다이렉트 모드보다 더욱 향상된 코딩 효율을 달성할 수 있는 효과가 있다As described in detail above, the present invention obtains a forward motion vector of a direct mode from a reference picture located at the closest distance having a high similarity with a B picture to be currently coded (or decoded), and then the motion compensated block The estimated macroblocks are obtained through interpolation prediction considering the temporal distances. This method has the effect of achieving more improved coding efficiency than the conventional direct mode.

Claims (18)

제1, 제2 이미지 블록, 현재 영상의 디스플레이 순서 정보 및 제1, 제2 이미지 블록 중 하나에 관련된 적어도 하나의 레퍼런스 픽쳐의 디스플레이 순서 정보를 이용하여 현재의 이미지 블록을 예측하는 단계로 이루어짐을 특징으로 하는 이미지 예측 방법. Predicting the current image block by using the first and second image blocks, display order information of the current image, and display order information of at least one reference picture related to one of the first and second image blocks. Image prediction method. 제1항에 있어서, 이미지 블록 예측 단계는 The method of claim 1, wherein the image block prediction step 제1, 제2 이미지 블록과, 현재 영상과 레퍼런스 픽쳐 간의 디스플레이 순서 정보의 차를 이용하여 현재의 이미지 블록을 예측하는 것을 특징으로 하는 이미지 예측 방법. And predicting the current image block using the difference between the first and second image blocks and the display order information between the current image and the reference picture. 제1항에 있어서, 각각의 디스플레이 순서 정보는 픽쳐 순서 카운트(picture order count)를 포함하는 것을 특징으로 하는 이미지 예측 방법. The method of claim 1, wherein each display order information comprises a picture order count. 제1항에 있어서, 이미지 블록 예측 단계는 The method of claim 1, wherein the image block prediction step 제1, 제2 이미지 블록과, 현재 영상의 디스플레이 순서 정보와 레퍼런스 픽쳐의 디스플레이 순서 정보의 차를 사용하여 현재의 이미지 블록을 예측하는 것을 특징으로 하는 이미지 예측 방법. And predicting the current image block using a difference between the first and second image blocks and the display order information of the current picture and the display order information of the reference picture. 제4항에 있어서, The method of claim 4, wherein 현재의 이미지 블록에 대하여 제1, 제2 움직임 벡터를 결정하는 단계와, Determining first and second motion vectors with respect to the current image block; 제1, 제2 움직임 벡터 각각을 이용하여 제1, 제2 이미지 블록을 결정하는 단계를 더 포함하는 것을 특징으로 하는 이미지 예측 방법. And determining the first and second image blocks by using the first and second motion vectors, respectively. 제5항에 있어서, 제1, 제2 움직임 벡터 각각은 순방향 움직임 벡터와 역방향 움직임 벡터이고, 제1, 제2 이미지 블록 각각은 순방향 이미지 블록과 역방향 이미지 블록임을 특징으로 하는 이미지 예측 방법. 6. The method of claim 5, wherein each of the first and second motion vectors is a forward motion vector and a backward motion vector, and each of the first and second image blocks is a forward image block and a reverse image block. 제6항에 있어서, 순방향 이미지 블록은 순방향 움직임 보상된 이미지 블록이고, 역방향 이미지 블록은 역방향 움직임 보상된 이미지 블록임을 특징으로 하는 이미지 예측 방법. 7. The method of claim 6, wherein the forward image block is a forward motion compensated image block and the reverse image block is a backward motion compensated image block. 제4항에 있어서, 이미지 예측 단계는 The method of claim 4 wherein the image prediction step 제1, 제2 함수를 이용하여 현재 이미지 블록을 예측하는 것을 특징으로 하는 이미지 예측 방법. An image prediction method comprising predicting a current image block by using a first and a second function. 여기서, 제1 함수는 제1 이미지 블록의 함수 및 현재 영상과 레퍼런스 픽쳐 간의 디스플레이 순서 정보의 차로 표현되고, 제2 함수는 제2 이미지 블록 및 상기 디스플레이 순서 정보의 차로 표현된다. Here, the first function is represented by the difference between the function of the first image block and the display order information between the current image and the reference picture, and the second function is represented by the difference between the second image block and the display order information. 제4항에 있어서, 이미지 예측 단계는 The method of claim 4 wherein the image prediction step 제1, 제2 이미지 블록의 가중치 조합을 기반으로 현재의 이미지 블록을 예측하는 것을 특징으로 하는 이미지 예측 방법. And predicting a current image block based on a weighted combination of the first and second image blocks. 여기서, 가중치는 현재 영상의 디스플레이 순서 정보와 레퍼런스 픽쳐의 디스플레이 순서 정보를 기반으로 하며 제1, 제2 이미지 블록 각각에 차별적으로 적용되는 값이다. Here, the weight is based on the display order information of the current image and the display order information of the reference picture and is differentially applied to each of the first and second image blocks. 제9항에 있어서, 가중치는 The method of claim 9, wherein the weight is 현재 영상의 디스플레이 순서 정보와 레퍼런스 픽쳐의 디스플레이 순서 정보의 차의 함수 값임을 특징으로 하는 이미지 예측 방법. And a function value of a difference between display order information of a current picture and display order information of a reference picture. 제10항에 있어서, 각각의 디스플레이 순서 정보는 11. The method of claim 10, wherein each display order information is 픽쳐 오더 카운트(picture order count)를 포함하는 것을 특징으로 하는 이미지 예측 방법.  An image prediction method comprising a picture order count. 제11항에 있어서, 가중치는 The method of claim 11, wherein the weight is 현재 영상의 픽쳐 오더 카운트와 레퍼런스 픽쳐의 픽쳐 오더 카운트의 차의 함수 값임을 특징으로 하는 이미지 예측 방법. And a function value of a difference between a picture order count of a current picture and a picture order count of a reference picture. 제12항에 있어서, 하나의 가중치는 또 다른 가중치의 함수임을 특징으로 하 는 이미지 예측 방법. 13. The method of claim 12, wherein one weight is a function of another weight. 제9항에 있어서, The method of claim 9, 현재 이미지 블록에 대하여 제1, 제2 움직임 벡터를 결정하는 단계와, Determining first and second motion vectors with respect to the current image block; 제1, 제2 움직임 벡터 각각을 사용하여 제1, 제2 이미지 블록을 결정하는 단계를 더 포함하는 것을 특징으로 하는 이미지 예측 방법. And determining the first and second image blocks by using the first and second motion vectors, respectively. 제14항에 있어서, 제1, 제2 움직임 벡터 각각은 순방향 움직임 벡터와 역방향 움직임 벡터이고, 제1, 제2 이미지 블록 각각은 순방향 이미지 블록과 역방향 이미지 블록임을 특징으로 하는 이미지 예측 방법. 15. The method of claim 14, wherein each of the first and second motion vectors is a forward motion vector and a backward motion vector, and each of the first and second image blocks is a forward image block and a reverse image block. 제15항에 있어서, 순방향 이미지 블록은 순방향 움직임 보상된 이미지 블록이고, 역방향 이미지 블록은 역방향 움직임 보상된 이미지 블록임을 특징으로 하는 이미지 예측 방법. 16. The method of claim 15, wherein the forward image block is a forward motion compensated image block and the reverse image block is a backward motion compensated image block. 제11항에 있어서, 이미지 예측 단계는 The method of claim 11 wherein the image prediction step 제1, 제2 함수를 기반으로 현재의 이미지 블록을 예측하는 것을 특징으로 하는 이미지 예측 방법. And predicting the current image block based on the first and second functions. 여기서, 제1 함수는 제1 가중치와 제1 이미지 블록의 함수로 표현되고, 제2 함수는 제2 가중치와 제2 이미지 블록의 함수로 표현되며, 제1 가중치는 현재 영상 과 레퍼런스 픽쳐 간의 픽쳐 오더 카운트 차의 함수이고, 제2 가중치는 제1 가중치의 함수이다. Here, the first function is expressed as a function of the first weight and the first image block, the second function is expressed as a function of the second weight and the second image block, and the first weight is a picture order between the current image and the reference picture. And the second weight is a function of the first weight. 제1항에 있어서, 이미지 예측 단계는 The method of claim 1 wherein the image prediction step 디코더 연산의 다이렉트(direct) 모드로 현재의 이미지 블록을 예측하는 것을 특징으로 하는 이미지 예측 방법. An image prediction method comprising predicting a current image block in a direct mode of a decoder operation.
KR1020050038543A 2005-05-09 2005-05-09 Method for predicting image KR100619716B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050038543A KR100619716B1 (en) 2005-05-09 2005-05-09 Method for predicting image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050038543A KR100619716B1 (en) 2005-05-09 2005-05-09 Method for predicting image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0072862A Division KR100508798B1 (en) 2002-04-09 2002-11-21 Method for predicting bi-predictive block

Publications (2)

Publication Number Publication Date
KR20050049465A KR20050049465A (en) 2005-05-25
KR100619716B1 true KR100619716B1 (en) 2006-09-06

Family

ID=37247893

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050038543A KR100619716B1 (en) 2005-05-09 2005-05-09 Method for predicting image

Country Status (1)

Country Link
KR (1) KR100619716B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100750128B1 (en) 2005-09-06 2007-08-21 삼성전자주식회사 Method and apparatus for intra prediction of video
SI3474551T1 (en) * 2011-09-22 2022-06-30 Lg Electronics Inc. Inter prediction method performed by a decoding apparatus, video encoding method performed by an encoding apparatus and decoder-readable storage medium storing an encoded video information

Also Published As

Publication number Publication date
KR20050049465A (en) 2005-05-25

Similar Documents

Publication Publication Date Title
KR100508798B1 (en) Method for predicting bi-predictive block
US9124898B2 (en) Method and apparatus of temporal motion vector prediction
US9445103B2 (en) Methods and apparatus for adaptively choosing a search range for motion estimation
JP4625102B2 (en) Derivation method of direct mode motion vector
KR19990025488A (en) Moving vector coding method of MPEG-4 (MPEG-4)
KR100619716B1 (en) Method for predicting image
KR100508799B1 (en) Method for predicting image
KR100508800B1 (en) Method for predicting image block of current picture
KR100293445B1 (en) Method for coding motion vector
KR100480028B1 (en) Improved direct prediction mode for b pictures by addition of syntax element indicating scene change
JP2003116141A (en) Moving picture prediction encoding method and its decoding method, and apparatus for the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120727

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130724

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140724

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150724

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160722

Year of fee payment: 11