JP6312312B2 - Context model generation device, encoding device, and decoding device - Google Patents
Context model generation device, encoding device, and decoding device Download PDFInfo
- Publication number
- JP6312312B2 JP6312312B2 JP2014083729A JP2014083729A JP6312312B2 JP 6312312 B2 JP6312312 B2 JP 6312312B2 JP 2014083729 A JP2014083729 A JP 2014083729A JP 2014083729 A JP2014083729 A JP 2014083729A JP 6312312 B2 JP6312312 B2 JP 6312312B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- context
- data
- unit
- data value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、コンテキストモデル生成装置、符号化装置、および復号装置に関する。 The present invention relates to a context model generation device, an encoding device, and a decoding device.
情報源符号化におけるエントロピー符号化には、符号化対象のシンボルの生起確率に応じて、数直線を区間分割する算術符号や、符号化対象のシンボルの生起確率に応じて可変長の符号語を割り当てるハフマン符号がある。このようなエントロピー符号化では、固定長の符号化方式よりも効率的な符号化が可能である。 For entropy coding in source coding, an arithmetic code that divides the number line into sections according to the occurrence probability of the symbol to be encoded, or a variable-length code word according to the occurrence probability of the symbol to be encoded is used. There is a Huffman code to assign. Such entropy coding enables more efficient coding than a fixed-length coding method.
また、符号化対象のデータ(以降、対象データという)とは別のデータ(以降、参照データという)から符号化対象のデータの出現傾向が予測できる場合がある。この場合には、符号化の際に、参照データに応じて対象データの生起確率モデルを適応的に変化させることで、固定的な生起確率モデルを用いる符号化方式よりも効率的な符号化が可能である。参照データに応じた対象データの出現の傾向は、コンテキストと呼ばれ、参照データから対象データの生起確率モデルを生成する仕組みは、コンテキストモデルと呼ばれる。 In some cases, the appearance tendency of data to be encoded can be predicted from data (hereinafter referred to as reference data) different from data to be encoded (hereinafter referred to as target data). In this case, when encoding, adaptively changing the occurrence probability model of the target data according to the reference data, the encoding can be performed more efficiently than the encoding method using the fixed occurrence probability model. Is possible. The tendency of appearance of the target data according to the reference data is called a context, and the mechanism for generating the occurrence probability model of the target data from the reference data is called a context model.
映像符号化方式であるAVC/H.264や、HEVC/H.265においては、CABAC(Context-based Adaptive Binary Arithmetic Coding)というコンテキスト適応型の算術符号化が採用されている。CABACでは、以前の入力シンボルの統計に基づきコンテキストが更新される。このCABACを実装する具体的な方法が、特許文献1で開示されている。
AVC / H. H.264, HEVC / H. In H.265, context adaptive arithmetic coding called CABAC (Context-based Adaptive Binary Arithmetic Coding) is employed. In CABAC, the context is updated based on statistics of previous input symbols. A specific method for mounting the CABAC is disclosed in
また、以前の入力シンボルの統計に基づくコンテキストの選択に加えて、現在の入力シンボルを用いたコンテキスト選択を行うことで符号化効率を向上させる方法も提案されている(例えば、特許文献2)。 In addition to the context selection based on the statistics of the previous input symbol, a method for improving the coding efficiency by performing context selection using the current input symbol has also been proposed (for example, Patent Document 2).
しかしながら、上述の符号化方法においては、予め用意された複数のコンテキストモデルの中からコンテキストモデルを選択している。このため、対象データのコンテキストに近いコンテキストモデルがないことがあるという問題がある。 However, in the above encoding method, a context model is selected from a plurality of context models prepared in advance. For this reason, there is a problem that there may be no context model close to the context of the target data.
本発明は、このような事情に鑑みてなされたもので、対象データのコンテキストに、より近いコンテキストを提供することができるコンテキスト生成装置、符号化装置、および復号装置を提供する。 The present invention has been made in view of such circumstances, and provides a context generation device, an encoding device, and a decoding device capable of providing a context closer to the context of target data.
この発明は上述した課題を解決するためになされたもので、本発明の一態様は、参照データ値が与えられたときの、対象データの各データ値の生起確率を示すコンテキストモデルを生成するコンテキストモデル生成装置であって、前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部とを備えることを特徴とするコンテキストモデル生成装置である。 The present invention has been made to solve the above-described problem, and one aspect of the present invention provides a context that generates a context model that indicates the occurrence probability of each data value of target data when a reference data value is given. A model generation device, a prior probability estimation unit for calculating a first model composed of occurrence probabilities of data values in first learning data representing the target data, and second learning data representing the target data , A context estimation unit for calculating a second model composed of the occurrence probability of each data value when a reference data value is given, the first model, and the occurrence of each data value when a reference data value is given A mixture ratio determining unit that is a candidate model composed of probabilities and determines a mixture ratio between a predetermined candidate model and the first model with reference to the second model , And the said first model candidate model, a context model generating device characterized by comprising a context model generator for generating a context model mixed in the mixing ratio.
また、この発明の他の態様は、上述のコンテキストモデル生成装置であって、前記コンテキストモデル生成部は、前記第1モデルと前記候補モデルとを、前記混合比にて線形結合して前記コンテキストモデルを生成することを備えることを特徴とする。 Another aspect of the present invention is the context model generation device described above, wherein the context model generation unit linearly combines the first model and the candidate model with the mixing ratio and the context model. Generating.
また、この発明の他の態様は、上述のコンテキストモデル生成装置であって、前記候補モデルは、クロネッカーのデルタ関数であることを特徴とする。 Another aspect of the present invention is the context model generation apparatus described above, wherein the candidate model is a Kronecker delta function.
また、この発明の他の態様は、対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて、前記対象データを符号化することで、符号化データを生成する符号化部とを備えることを特徴とする符号化装置である。 According to another aspect of the present invention, a prior probability estimation unit that calculates a first model composed of occurrence probabilities of data values in first learning data representing target data, and second learning representing the target data. Context estimation unit for calculating a second model composed of the occurrence probabilities of each data value when a reference data value is given, the first model, and each data value when the reference data value is given A mixture ratio determining unit that determines a mixture ratio between a predetermined candidate model and the first model with reference to the second model, and the first model. Using a context model generation unit that generates a context model in which the candidate models are mixed at the mixing ratio, and a context model generated by the context model generation unit By encoding the target data, an encoding device, characterized in that it comprises an encoding unit that generates encoded data.
また、この発明の他の態様は、上述の符号化装置であって、前記符号化部が生成した符号化データと、前記混合比決定部が決定した混合比を示す情報とを多重する多重部を備えることを特徴とする。 According to another aspect of the present invention, there is provided the above-described encoding device, a multiplexing unit that multiplexes encoded data generated by the encoding unit and information indicating a mixing ratio determined by the mixing ratio determining unit It is characterized by providing.
また、この発明の他の態様は、対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部とを備えることを特徴とする復号装置である。 According to another aspect of the present invention, a prior probability estimation unit that calculates a first model composed of occurrence probabilities of data values in first learning data representing target data, and second learning representing the target data. Context estimation unit for calculating a second model composed of the occurrence probabilities of each data value when a reference data value is given, the first model, and each data value when the reference data value is given A mixture ratio determining unit that determines a mixture ratio between a predetermined candidate model and the first model with reference to the second model, and the first model. A context model generation unit that generates a context model in which the candidate model is mixed at the mixing ratio, and encoded data in which the target data is encoded is converted into the context model. A decoding apparatus characterized by using a context model generator has generated and a decoder for decoding.
また、この発明の他の態様は、入力されたデータを、対象データを符号化した符号化データと、前記符号化データの符号化に用いた混合比を示す情報とに分離する分離部と、前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部とを備えることを特徴とする復号装置である。 According to another aspect of the present invention, a separation unit that separates input data into encoded data obtained by encoding target data and information indicating a mixing ratio used for encoding the encoded data; Prior probability estimation unit for calculating a first model composed of the occurrence probability of each data value in the first learning data representing the target data, the first model, and each data value when a reference data value is given A context model generation unit that generates a context model obtained by mixing a predetermined candidate model with the mixture ratio, and encoded data obtained by encoding the target data. And a decoding unit that performs decoding using the context model generated by the context model generation unit.
この発明によれば、対象データのコンテキストにより近いコンテキストを提供することができる。 According to the present invention, a context closer to the context of the target data can be provided.
(第1の実施形態)
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、この発明の第1の実施形態による情報源符号化復号システム10の構成を示す概略ブロック図である。情報源符号化復号システム10は、符号化装置100と、復号装置200とを含む。符号化装置100は、対象データSを、エントロピー符号化して符号化データEを生成する。符号化装置100は、エントロピー符号化を行う際に、コンテキストモデルを生成し、使用する。復号装置200は、符号化データEを復号して、情報原Sを復元した復号データDを生成する。なお、符号化データEは、通信路などを介して、復号装置200に入力されてもよいし、DVD(Digital Versatile Disc)、HDD(Hard Disk Drive)などの記録媒体から、復号装置200に入力されてもよい。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram showing the configuration of an information source coding /
図2は、符号化装置100の構成を示す概略ブロック図である。符号化装置100は、生起確率生成装置111、バッファ部101、エントロピー符号化部108を含む。生起確率生成装置111は、コンテキストモデル生成装置110、参照データ取得部106、生起確率モデル選択部107を含む。コンテキストモデル生成装置110は、事前確率推定部102、コンテキスト推定部103、混合係数決定部104、コンテキストモデル生成部105を含む。
FIG. 2 is a schematic block diagram showing the configuration of the
バッファ部101は、対象データSを蓄積する。バッファ部101に蓄積された対象データSは、コンテキストモデルを生成するための学習用データとして利用される。事前確率推定部102は、バッファ部101に蓄積された対象データSから、対象データSにおけるXの事前確率を推定する。本実施形態において、Xは、対象データSを4ビットずつに区切ったものである。事前確率推定部102は、具体的には、バッファ部101に蓄積された対象データSを、学習用データL1として読出す。そして、事前確率推定部102は、読み出した学習用データL1を4ビットずつに区切った数列XnにおけるXが採り得る値各々の生起確率を、事前確率Pr(X)として、式(1)を用いて算出する。
The
コンテキスト推定部103は、バッファ部101に蓄積された対象データSを、学習用データL2として読出し、学習用データL2から、対象データSにおけるコンテキストを推定する。具体的には、コンテキスト推定部103は、学習用データL2として、バッファ部101からN個の値Xn(n∈{1、2、…、N})と、値Xnの各々の参照データYn(n∈{1、2、…、N})とを読み出す。コンテキスト推定部103は、読み出した学習用データL2におけるコンテキストPr(X|Y)を、式(2)を用いて算出する。
The
なお、本実施形態では、Xnは、それぞれ、対象データSを4ビットずつ区切ったものである。Ynは、それぞれ、対象データSにおけるXnの直前の4ビットである。例えば、Y3は、X3の直前の4ビットである。しかし、Xnのビット長は、4ビットより短くても良いし、長くてもよい。また、Ynのビット長は、4ビットより短くても良いし、長くてもよいし、Xnと異なっていても良い。 In this embodiment, Xn is obtained by dividing the target data S by 4 bits. Y n is the 4 bits immediately before X n in the target data S, respectively. For example, Y 3 is a 4-bit immediately before the X 3. However, the bit length of Xn may be shorter or longer than 4 bits. Also, the bit length of Y n may be less than 4 bits may be long, may be different from the X n.
また、Ynは、例えば、Xnの10ビット前など、Xnの直前でなくてもよいし、さらには、Xnが対象データS中で何番目かなどの情報であってもよい。例えば、対象データSが、画像に関するラスタスキャン順に並んだパラメータ列であれば、YnがXnの直前であれば、YnはXnが対象とする部分の左隣の部分に関するパラメータである。しかし、YnをXnのラスタスキャンにおける1ライン分前とすると、YnはXnが対象とする部分の上隣の部分に関するパラメータとなる。 Further, Y n, for example, such as 10-bit previous X n, may not be immediately before the X n, furthermore, X n may be information such as what number in the target data S. For example, if the target data S is a parameter string arranged in the order of raster scans related to an image, if Y n is immediately before X n , Y n is a parameter related to the left adjacent portion of the target portion of X n. . However, when the Y n and one line before in the raster scan of X n, Y n is the X n is a parameter related to neighboring portion on the portion of interest.
混合係数決定部104は、参照データ値Yが与えられたときの各データ値Xの生起確率からなる候補モデルQ(X|Y)を、予め記憶している。混合係数決定部104は、この候補モデルQ(X|Y)と、事前確率推定部102が推定した事前確率Pr(X)との混合係数を決定する。このとき、混合係数決定部104は、混合係数aを用いたモデル同士の線形結合、すなわち式(3)で表される混合を行った結果のモデルP(X|Y)が、コンテキスト推定部103が推定したコンテキストPr(X|Y)にできるだけ近くなるように混合係数aの値を決定する。
The mixing
具体的には、混合係数決定部104は、式(4)をaにて偏微分したときに0となるaハットを、式(5)により算出し、混合係数とする。
Specifically, the mixing
なお、式(4)、(5)において、シグマに付された(X,Y)は、学習用データL2に含まれるX、Yの組合せのみについて、総和を取ることを示す。このようにすることで、学習用データL2におけるコンテキストPr(X|Y)を、全てのX,Yの組合せについて求めておかくなくてもよくなる。
本実施形態では、Q(X|Y)として、式(6)に示す、X、Yを引数とするクロネッカーのデルタδX,Yを用いる。
In equations (4) and (5), (X, Y) given to sigma indicates that only the combination of X and Y included in the learning data L2 is to be summed. In this way, the context Pr (X | Y) in the learning data L2 need not be obtained for all combinations of X and Y.
In the present embodiment, as K (X | Y), Kronecker delta δ X, Y having arguments X and Y shown in Expression (6) is used.
コンテキストモデル生成部105は、事前確率推定部102が推定した事前確率Pr(X)と、候補モデルQ(X|Y)とを、混合係数決定部104が決定した混合係数aハットを用いて、式(7)のように混合したコンテキストモデルP(X|Y)を生成する。
The context
このように、コンテキストモデルP(X|Y)を、事前確率Pr(X)と、候補モデルQ(X|Y)とを混合したものとするので、学習用データの量が少ないときに、確率分布が極端に偏ってしまうようなコンテキストモデルとなってしまうのを避けつつ、対象データのコンテキストに、より近いコンテキストを提供することができる。 Thus, since the context model P (X | Y) is a mixture of the prior probability Pr (X) and the candidate model Q (X | Y), the probability is reduced when the amount of learning data is small. A context closer to the context of the target data can be provided while avoiding a context model in which the distribution is extremely biased.
生起確率モデル選択部107は、コンテキストモデルP(X|Y)のうち、参照データYが参照データ取得部106から入力された参照データYinであるときの生起確率モデルP(X|Yin)を選択し、エントロピー符号化部108に入力する。
The occurrence probability
参照データ取得部106は、対象データSを4ビット分遅延させものを、参照データYinとして生起確率モデル選択部107に入力する。エントロピー符号化部108は、対象データSを4ビットずつ区切った値Xinを、生起確率モデル選択部107から入力された生起確率モデルP(X|Yin)を用いて、エントロピー符号化する。エントロピー符号化部18は、エントロピー符号化した結果を、符号化データEとして出力する。なお、エントロピー符号化には、算術符号、ハフマン符号など、生起確率を用いるものであれば、どのようなものを使ってもよい。なお、参照データ取得部106にて対象データSを4ビット分遅延させているため、Xinをエントロピー符号化する際の生起確率モデルP(X|Yin)のYinは、対象データSにおけるXinの直前の4ビットである。
The reference
図3は、復号装置200の構成を示す概略ブロック図である。図3において、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。復号装置200は、エントロピー復号部208、生起確率生成装置211を含む。生起確率生成装置211は、生起確率モデル選択部107、コンテキストモデル生成装置110を含む。
FIG. 3 is a schematic block diagram illustrating the configuration of the
エントロピー復号部208は、符号化データEを復号することで、復号データDを生成する。エントロピー復号部208は、復号する際に、生起確率モデル選択部107が選択した生起確率モデルP(X|Yin)を用いる。復号装置200において、参照データYinは、エントロピー復号部208が、直前に復号した復号データDの4ビットである。
The
このように、コンテキストモデル生成装置110は、学習用データにおける各データ値の生起確率と、予め決められた候補モデルとの混合比を、学習用データにおける、参照データ値が与えられたときの各データ値の生起確率を参照して決定する。
これにより、対象データのコンテキストに、より近いコンテキストを提供することができる。
As described above, the context
Thereby, a context closer to the context of the target data can be provided.
(第2の実施形態)
第1の実施形態では、符号化装置100と復号装置200との間では、符号化データEを出力したが、本実施形態における符号化装置100aと復号装置200aとの間では、符号化データEに、混合係数aハットを多重して伝送する。図4は、符号化装置100aの構成を示す概略ブロック図である。同図において、図2の各部に対応する部分には、同一の符号を付し、説明を省略する。符号化装置100aは、図2の符号化装置100とほぼ同様の構成であるが、多重部109をさらに有する点が異なる。多重部109は、エントロピー符号化部108が生成した符号化データEと、混合係数決定部104が決定した混合係数aハットとを多重して出力する。
(Second Embodiment)
In the first embodiment, the encoded data E is output between the
図5は、復号装置200aの構成を示す概略ブロック図である。図5において、図3の各部に対応する部分には同一の符号を付し、説明を省略する。復号装置200aは、バッファ部101、エントロピー復号部208、分離部209、生起確率生成装置211aを含む。生起確率生成装置211aは、生起確率モデル選択部107、コンテキストモデル生成装置110aを含む。コンテキストモデル生成装置110aは、事前確率推定部102、コンテキストモデル生成105を含む。
FIG. 5 is a schematic block diagram showing the configuration of the
分離部209は、符号化装置100aから伝送されたデータを、符号化データEと、混合係数aハットとに分離する。分離部209は、分離した符号化データEを、エントロピー復号部208に入力する。分離部209は、混合係数aハットを、コンテキストモデル生成部105に入力する。
Separating
なお、本実施形態では、混合係数aハットを復号装置200aに伝送している。このため、復号装置200aは、復号装置200ようにして、復号した対象データから混合係数aを求める必要がなくなる。したがって、符号化装置100aのコンテキスト推定部103は、対象データを符号化する前に、対象データ全体を学習用データL2として、混合係数aを求めるなど、学習用データL2として、符号化未済みの対象データを含むようにしてもよい。
In the present embodiment, the mixing coefficient a hat is transmitted to the
このように、多重部109は、符号化データEと、混合係数aハットとを多重する。また、分離部209は、入力されたデータを、符号化データEと、混合係数aハットとに分離する。
これにより、復号装置200aは、コンテキストモデルを生成する際に、対象データのコンテキストの推定と、混合係数の算出とを行わずに、符号化データを復号することができる。
Thus, the
Accordingly, the
なお、上述の各実施形態では、バッファ部101に蓄積された対象データSを学習用データとして利用したが、符号化装置100、100aは、学習用データを、対象データSとは、別に取得してもよい。
また、上述の各実施形態では、候補モデルQ(X|Y)としてクロネッカーのデルタ関数を用いたが、候補モデルQ(X|Y)をLUTなどで定義し、コンテキストモデル生成装置110は、そのLUTを記憶していてもよい。
In each of the above-described embodiments, the target data S stored in the
In each of the above-described embodiments, the Kronecker delta function is used as the candidate model Q (X | Y). However, the candidate model Q (X | Y) is defined by an LUT or the like, and the context
図6、図7は、候補モデルQを定義するLUTの例を示すテーブルである。図6に示す例では、Xの値と、Yの値が一致するときは、確率が「0.7」であり、一致しないときは、「0.1」となっている。図7に示す例では、Xの値がYの値よりも1大きいときは、確率が「0.7」であり、その他のときは、「0.1」となっている。ただし、Yが「3」のときは、Xが「0」のときの確率が「0.7」であり、Xがその他の値であるときの確率が「0.1」である。 6 and 7 are tables showing examples of LUTs that define the candidate model Q. FIG. In the example shown in FIG. 6, when the X value and the Y value match, the probability is “0.7”, and when they do not match, the probability is “0.1”. In the example shown in FIG. 7, the probability is “0.7” when the value of X is one greater than the value of Y, and “0.1” otherwise. However, when Y is “3”, the probability when X is “0” is “0.7”, and the probability when X is another value is “0.1”.
また、上述の各実施形態では、コンテキストモデル生成部105は、コンテキストモデルを生成する際に、Pr(X)と、Q(X|Y)とを線形結合しているが、(1−a−b)Pr(X)+a×Q1(X|Y)+b×Q2(X|Y)というように複数の候補モデルを線形結合するようにしてもよい。この場合、式(4)をaについて偏微分したものが0になる式と、式(4)をbについて偏微分したものが0になる式とを、a、bについて解いた式を用いれば、混合係数決定104は、a、bを決定することができる。同様にして、線形結合する候補モデルは、3つ以上であってもよい。
In each embodiment described above, the context
また、候補モデルを複数用いる場合は、候補モデルによって、YnとXnとの関係が異なっていてもよい。例えば、1つ目の候補モデルでは、YnはXnの直前の4ビットであり、2つ目の候補モデルでは、YnはXnの40ビット前の4ビットであってもよい。さらに、候補モデルによって、Ynのビット長が異なっていてもよい。 When a plurality of candidate models are used, the relationship between Y n and X n may be different depending on the candidate model. For example, in the first candidate models, Y n is 4 bits immediately before the X n, the second candidate models, Y n may be 4 bits before 40-bit X n. Furthermore, the candidate model may have different bit length of Y n.
また、複数の候補モデルを用意しておき、それらの中から一つを選択して用いるようにしてもよい。例えば、混合係数決定104が、複数の候補モデルについて式(4)の値を算出し、その値が最も小さくなった候補モデルを選択するようにしてもよい。
A plurality of candidate models may be prepared and one of them may be selected and used. For example, the mixing
また、図2における符号化装置100、コンテキストモデル生成装置110、生起確率生成装置111、図3における復号装置200、図4における符号化装置100a、図5における復号装置200a、コンテキストモデル生成装置110a、生起確率生成装置211aの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各装置を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
Also, the
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。 The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
また、上述した図2における符号化装置100、コンテキストモデル生成装置110、生起確率生成装置111、図3における復号装置200、図4における符号化装置100a、図5における復号装置200a、コンテキストモデル生成装置110a、生起確率生成装置211aの各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず、専用回路、または汎用プロセッサで実現しても良い。ハイブリッド、モノリシックのいずれでも良い。一部は、ハードウェアにより、一部はソフトウェアにより機能を実現させても良い。
また、半導体技術の進歩により、LSIに代替する集積回路化等の技術が出現した場合、当該技術による集積回路を用いることも可能である。
2 described above, the context
In addition, when a technology such as an integrated circuit that replaces an LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology can be used.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.
10…情報源符号化復号システム
100、100a…符号化装置
101…バッファ部
102…事前確率推定部
103…コンテキスト推定部
104…混合係数決定部
105…コンテキストモデル生成部
106…参照データ取得部
107…生起確率モデル選択部
108…エントロピー符号化部
109…多重部
110、110a…コンテキストモデル生成装置
111…生起確率生成装置
200、200a…復号装置
208…エントロピー復号部
209…分離部
211、211a…生起確率生成装置
DESCRIPTION OF
Claims (7)
前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と
を備えることを特徴とするコンテキストモデル生成装置。 A context model generation device that generates a context model indicating an occurrence probability of each data value of target data when a reference data value is given,
A prior probability estimator for calculating a first model composed of the occurrence probabilities of each data value in the first learning data representing the target data;
A context estimator that calculates a second model composed of occurrence probabilities of each data value when a reference data value is given in the second learning data representing the target data;
A candidate model comprising the first model and the occurrence probability of each data value when a reference data value is given, wherein a mixing ratio between the predetermined candidate model and the first model is set to the second model A mixture ratio determining unit that is determined with reference to the model;
A context model generation device comprising: a context model generation unit configured to generate a context model in which the first model and the candidate model are mixed at the mixing ratio.
を備えることを特徴とする請求項1に記載のコンテキストモデル生成装置。 The context model generation unit according to claim 1, wherein the context model generation unit includes generating the context model by linearly combining the first model and the candidate model with the mixture ratio. apparatus.
前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
前記コンテキストモデル生成部が生成したコンテキストモデルを用いて、前記対象データを符号化することで、符号化データを生成する符号化部と
を備えることを特徴とする符号化装置。 A prior probability estimator for calculating a first model composed of occurrence probabilities of each data value in the first learning data representing the target data;
A context estimator that calculates a second model composed of occurrence probabilities of each data value when a reference data value is given in the second learning data representing the target data;
A candidate model comprising the first model and the occurrence probability of each data value when a reference data value is given, wherein a mixing ratio between the predetermined candidate model and the first model is set to the second model A mixture ratio determining unit that is determined with reference to the model;
A context model generating unit that generates a context model in which the first model and the candidate model are mixed at the mixing ratio;
An encoding apparatus comprising: an encoding unit that generates encoded data by encoding the target data using the context model generated by the context model generation unit.
前記対象データを代表する第2学習用データにおける、参照データ値が与えられたときの各データ値の生起確率からなる第2モデルを算出するコンテキスト推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルと、前記第1モデルとの混合比を、前記第2モデルを参照して決定する混合比決定部と、
前記第1モデルと前記候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部と
を備えることを特徴とする復号装置。 A prior probability estimator for calculating a first model composed of occurrence probabilities of each data value in the first learning data representing the target data;
A context estimator that calculates a second model composed of occurrence probabilities of each data value when a reference data value is given in the second learning data representing the target data;
A candidate model comprising the first model and the occurrence probability of each data value when a reference data value is given, wherein a mixing ratio between the predetermined candidate model and the first model is set to the second model A mixture ratio determining unit that is determined with reference to the model;
A context model generating unit that generates a context model in which the first model and the candidate model are mixed at the mixing ratio;
A decoding unit comprising: a decoding unit that decodes encoded data obtained by encoding the target data using a context model generated by the context model generation unit.
前記対象データを代表する第1学習用データにおける各データ値の生起確率からなる第1モデルを算出する事前確率推定部と、
前記第1モデルと、参照データ値が与えられたときの各データ値の生起確率からなる候補モデルであって、予め決められた候補モデルとを、前記混合比にて混合したコンテキストモデルを生成するコンテキストモデル生成部と、
前記対象データが符号化された符号化データを、前記コンテキストモデル生成部が生成したコンテキストモデルを用いて復号する復号部と
を備えることを特徴とする復号装置。 A separator that separates input data into encoded data obtained by encoding the target data and information indicating a mixing ratio used for encoding the encoded data;
A prior probability estimator for calculating a first model composed of the occurrence probabilities of each data value in the first learning data representing the target data;
A context model that is a candidate model composed of the occurrence probability of each data value when a reference data value is given and is mixed with a predetermined candidate model at the mixing ratio is generated. A context model generation unit;
A decoding unit comprising: a decoding unit that decodes encoded data obtained by encoding the target data using a context model generated by the context model generation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014083729A JP6312312B2 (en) | 2014-04-15 | 2014-04-15 | Context model generation device, encoding device, and decoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014083729A JP6312312B2 (en) | 2014-04-15 | 2014-04-15 | Context model generation device, encoding device, and decoding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015204556A JP2015204556A (en) | 2015-11-16 |
JP6312312B2 true JP6312312B2 (en) | 2018-04-18 |
Family
ID=54597770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014083729A Active JP6312312B2 (en) | 2014-04-15 | 2014-04-15 | Context model generation device, encoding device, and decoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6312312B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10735736B2 (en) * | 2017-08-29 | 2020-08-04 | Google Llc | Selective mixing for entropy coding in video compression |
WO2024171775A1 (en) * | 2023-02-15 | 2024-08-22 | ソニーグループ株式会社 | Image encoding method, image encoding device, image decoding method, and image decoding device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1294522C (en) * | 1997-07-11 | 2007-01-10 | 联发科技股份有限公司 | Apparatus and method for multiscale zerotree entropy encoding |
ES2902160T3 (en) * | 2009-05-29 | 2022-03-25 | Mitsubishi Electric Corp | Image coding device, image decoding device, image coding method and image decoding method |
JP5592246B2 (en) * | 2010-12-21 | 2014-09-17 | 日本電信電話株式会社 | Context adaptive entropy encoding method, context adaptive entropy decoding method, context adaptive entropy encoding device, context adaptive entropy decoding device, and programs thereof |
JP2013168913A (en) * | 2012-01-19 | 2013-08-29 | Mitsubishi Electric Corp | Video encoder, video decoder, video encoding method and video decoding method |
-
2014
- 2014-04-15 JP JP2014083729A patent/JP6312312B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015204556A (en) | 2015-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6661699B2 (en) | Method and apparatus for syntax binarization and context adaptive coding in video coding | |
JP6706357B2 (en) | Method, coding device and corresponding computer program for coding a current block of a first image component with respect to a reference block of at least one second image component | |
KR102486026B1 (en) | Method and apparatus for parallel entropy encoding/decoding | |
US9819358B2 (en) | Entropy encoding based on observed frequency | |
JP2017118582A (en) | Image decoding method | |
JP2022520408A (en) | Methods, devices, and computer programs for video decoding | |
CN113228667B (en) | Video encoding and decoding method, device and storage medium | |
JP5270592B2 (en) | Image coding apparatus, image coding method, and image coding program | |
CN113678378B (en) | Video decoding method, video decoder, and non-volatile computer readable medium | |
JP6312312B2 (en) | Context model generation device, encoding device, and decoding device | |
KR101696589B1 (en) | Method for decoding video quantization parameter | |
CN107105249B (en) | Image quantization parameter decoding method | |
Jalali et al. | A universal scheme for Wyner–Ziv coding of discrete sources | |
JP5878792B2 (en) | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, and program | |
JP6280266B2 (en) | Decoding device and decoding method | |
JP2014116835A (en) | Decoding device, encoding device, decoding method and encoding method | |
JP2005176169A (en) | Video coding method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6312312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |