JP2004198522A - Method of updating adaptive code book, voice encoding device, and voice decoding device - Google Patents

Method of updating adaptive code book, voice encoding device, and voice decoding device Download PDF

Info

Publication number
JP2004198522A
JP2004198522A JP2002364109A JP2002364109A JP2004198522A JP 2004198522 A JP2004198522 A JP 2004198522A JP 2002364109 A JP2002364109 A JP 2002364109A JP 2002364109 A JP2002364109 A JP 2002364109A JP 2004198522 A JP2004198522 A JP 2004198522A
Authority
JP
Japan
Prior art keywords
decoded
adaptive codebook
waveform
sound source
filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002364109A
Other languages
Japanese (ja)
Other versions
JP4373667B2 (en
Inventor
Toshiyuki Morii
利幸 森井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002364109A priority Critical patent/JP4373667B2/en
Publication of JP2004198522A publication Critical patent/JP2004198522A/en
Application granted granted Critical
Publication of JP4373667B2 publication Critical patent/JP4373667B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve the tone quality by updating an adaptive code book in a voice encoding/decoding device of the CELP system. <P>SOLUTION: A decoded waveform generation part 201 uses two sound sources corresponding to a gain code and an index to generate a local sound source waveform. A decoded waveform insertion part 202 shifts decoded sound source data stored in a decoded sound source data memory 204 from the future to the past to abandon a portion overflowing from the memory and stores a local decoded sound source waveform in a future empty part. A filter processing part 203 filters decoded sound source data having had the local decoded sound source waveform inserted thereto. Decoded sound source data after pitch filtering in the filter processing part 203 is taken as an updated adaptive code book. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、CELP方式の音声符号化装置/音声復号化装置における適応符号帳の更新方法に関する。
【0002】
【従来の技術】
インターネット通信に代表されるパケット通信システムや、移動通信システムなどで音声信号を伝送する場合、音声信号の伝送効率を高めるため、圧縮符号化技術がよく使われる。これまでに多くの音声符号化方式が開発されており、CELP方式等、近年開発された低ビットレート音声符号化方式の多くは、音声信号をスペクトル包絡情報とスペクトルの微細構造情報とに分離し、分離した情報をそれぞれ圧縮・符号化する方式である(例えば、非特許文献1)。
【0003】
そして、近年では、音声符号化装置の更なる音質の向上が求められている。この点、CELP方式の音声符号化装置における確率的符号帳の構成、適応符号帳の構成及び探索方法については研究が進んでいる(例えば、特許文献1)。
【0004】
【特許文献1】
特開2002−182697号公報
【非特許文献1】
M.R.Schroeder, B.S.Atal, "Code Excited Linear Prediction: High QualitySpeech at Low Bit Rate", IEEE proc., ICASSP'85 pp.937-940
【0005】
【発明が解決しようとする課題】
しかしながら、適応符号帳の更新についての研究は余りなされておらず、この部分の性能向上に課題を有している。
【0006】
本発明はかかる点に鑑みてなされたものであり、CELP方式の音声符号化装置/音声復号化装置において音質の向上を図ることができる適応符号帳の更新方法、音声符号化装置及び音声復号化装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の適応符号帳の更新方法は、適応符号帳である復号化音源データを未来から過去にメモリシフトしてメモリから出た部分を破棄する工程と、未来の空いた部分にローカルな復号化音源波形を格納する工程と、ローカルな復号化音源波形を挿入された後の復号化音源データに対してフィルタリングを行う工程とを具備する方法を採る。
【0008】
この方法により、適応符号帳のピッチ構造を強調することができ、復号化音源データをより良好な音質が得られるように加工することができる。
【0009】
本発明の適応符号帳の更新方法は、フィルタリングを行う工程において、未来から過去に向かってフィルタをかける後ろ向きフィルタリングを用いる方法を採る。
【0010】
この方法により、復号化音源データをより良好な音質が得られるように加工することができ、さらに、その加工による伝送誤りの伝播を少なくすることができる。
【0011】
本発明の適応符号帳の更新方法は、フィルタリングを行う工程において、後ろ向きフィルタのピッチフィルタにより、適応符号帳の符号に対応するラグと復号化された適応符号帳の音源のゲインを用いてピッチフィルタリングを行う方法を採る。
【0012】
この方法により、ピッチ構造のはっきりした復号化音源データを用意することができる。
【0013】
本発明の音声符号化装置は、上記いずれかの方法により適応符号帳の更新を行う構成を採る。また、本発明の音声復号化装置は、上記いずれかの方法に対応した適応符号帳の更新を行う構成を採る。
【0014】
これらの構成により、適応符号帳である復号化音源データを、より良好な音質が得られるように加工することができる。
【0015】
【発明の実施の形態】
本発明の骨子は、適応符号帳である復号化音源データを未来から過去にメモリシフトしてメモリから出た部分を破棄し、未来の空いた部分にローカルな復号化音源波形を格納し、ローカルな復号化音源波形を挿入された後の復号化音源データに対してフィルタリングを行うことにより適応符号帳を更新することである。
【0016】
以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。
【0017】
(実施の形態1)
図1は、CELP方式の音声符号化装置の構成を示すブロック図である。なお、入力音声信号は、20ms程度の時間間隔で区切られた処理フレームごとに、音声符号化装置に逐次入力されるものとする。
【0018】
処理フレームごとに音声符号化装置に入力された入力音声信号は、まず、LPC分析部101に供給される。LPC分析部101は、入力音声信号をLPC(Linear Predictive Coding)分析してLPC係数を取得し、LPC係数をベクトル量子化してLPC符号とし、このLPC符号を復号化して復号化LPC係数を得る。
【0019】
適応符号帳102は、一般に、過去の合成音源波形を一定の長さ(ピッチ探索範囲)だけメモリに格納したものである。ここで、符号化は、どの位前の合成音源を使用するかの値(一般にラグと呼ばれ、人の母音等の有声音では基本周期(ピッチ)に対応する)と、そのゲインの2つのパラメータで行われる。したがって、適応符号帳102は、人の母音等規則的に似ている波形が並ぶ部分の符号化において符号化効率に大きく貢献する。
【0020】
確率的符号帳103は、番号付けられたサブフレーム長の音源サンプルが複数格納されているものである。
【0021】
音源作成部104は、適応符号帳102及び確率的符号帳103から、それぞれ適応コードベクトル及び固定コードベクトルを読み出して、LPC合成部105へ送る。LPC合成部105は、音源作成部104から供給される適応コードベクトル及び固定コードベクトルを、LPC分析部101より与えられる復号化LPC係数をフィルタ係数にもつ全極型の合成フィルタでそれぞれ合成フィルタリングし、合成適応コードベクトル及び合成固定コードベクトルを得る。
【0022】
比較部106は、LPC合成部105から出力される合成適応コードベクトルと合成固定コードベクトルと入力音声信号との関係を分析して、合成適応コードベクトルに乗じる適応符号帳最適ゲインと合成固定コードベクトルに乗じる確率的符号帳最適ゲインをそれぞれ求める。
【0023】
また、比較部106は、合成適応コードベクトルに適応符号帳最適ゲインを乗じて得られるベクトルと、合成固定コードベクトルに確率的符号帳最適ゲインを乗じて得られるベクトルとを加算して合成音声ベクトルを取得し、合成音声と入力音声信号との距離計算を行う。そして、比較部106は、適応符号帳102が格納している適応コードベクトルと、確率的符号帳103が格納している固定コードベクトルの全組み合わせについて合成音声ベクトルを取得し、合成音声と入力音声信号との距離が最小となる適応コードベクトルのインデクスと固定コードベクトルのインデクス求める。そして、比較部106は、各符号帳から出力されるコードベクトルのインデクス、インデクスに対応するそれぞれのコードベクトル、並びにインデクスに対応する適応符号帳最適ゲイン及び確率的符号帳最適ゲインをパラメータ符号化部107へ送る。
【0024】
パラメータ符号化部107は、適応符号帳最適ゲインと確率的符号帳最適ゲインを符号化してゲイン符号を取得し、ゲイン符号と、LPC分析部101から与えられたLPC符号と、各符号帳のインデクスとを処理フレームごとにまとめて出力する。
【0025】
また、パラメータ符号化部107は、適応符号帳のインデクスに対応する適応コードベクトルにゲイン符号に対応する適応符号帳ゲインを乗じて得られるベクトルと、確率的符号帳のインデクスに対応する固定コードベクトルにゲイン符号に対応する確率的符号帳ゲインを乗じたベクトルとの2つベクトルを適応符号帳102に出力する。
【0026】
なお、LPC合成部105における合成フィルタリングは、線形予測係数や、高域強調フィルタや、入力音声を長期予測分析して得られる長期予測係数を用いた聴感重み付けフィルタを併用するのが一般的である。
【0027】
また、適応符号帳と確率的符号帳の最適インデクスの探索、最適ゲインの算出、最適ゲインの符号化処理は、フレームを更に分割したサブフレーム単位で行われるのが一般的である。
【0028】
次に、適応符号帳102の内部処理について、図2を用いて説明する。図2は、本実施の形態に係る適応符号帳102の内部構成を示す機能ブロック図である。図2に示すように、適応符号帳102は、復号化波形生成部201と、復号化波形挿入部202と、フィルタ処理部203と、復号化音源データメモリ204とから主に構成されている。
【0029】
復号化波形生成部201は、パラメータ符号化部107から入力したゲイン符号とインデクスに対応する2つの音源を用いてローカルな音源波形D(i)を以下の式(1)により生成する。
D(i)=ga×A(i)+gs×S(i)・・・(1)
i:波形のインデクス(i=0〜L−1)
L:サブフレーム長
ga:復号化された適応符号帳の音源のゲイン
A(i):復号化された適応符号帳の音源波形
gs:復号化された確率的符号帳の音源のゲイン
S(i):復号化された確率的符号帳の音源波形
生成されたローカルな音源波形D(i)は、復号化波形挿入部202に出力される。
【0030】
復号化波形挿入部202は、復号化音源データメモリ204に記憶されている復号化音源データを未来から過去にメモリシフトしてメモリから出た部分を破棄し、未来の空いた部分にローカルな復号化音源波形D(i)を格納する。以下の式(2)は、この手順を表わしたものである。
M(i)=M(i+L) (ただし、i=0〜P-L-1)
M(P-L+I)=D(i) (ただし、i=0〜L-1)・・・(2)
M(i):適応符号帳としての復号化音源データ
i:波形のインデクス(i=0〜L−1)
L:サブフレーム長
P:適応符号帳としての復号化音源データの格納するメモリ長
【0031】
上記処理の完了を示す信号が、フィルタ処理部203に出力される。フィルタ処理部203は、ローカルな復号化音源波形D(i)を挿入された後の復号化音源データに対してフィルタリングを行う。
【0032】
ここで、本実施の形態においては、後ろ向きフィルタリングを用いた場合を説明する。なお、前向きフィルタリングでもピッチ強調や周波数適応等の効果は得られるが、誤りの伝播が若干長くなることに注意されたい。
【0033】
そして、後ろ向きフィルタの例として、ピッチフィルタを例として説明する。なお、ピッチフィルタ以外でも、低域/高域強調フィルタや、バンドパスフィルタ等を用いることにより効果を得ることができる。
【0034】
フィルタ処理部203は、ピッチフィルタリングを適応符号帳の符号に対応するラグと復号化された適応符号帳の音源のゲインを用いて行う。具体的処理を以下の式(3)に示す。
M(i)=M(i)+a×M(i+T) (ただし、i=P-T-1〜0)・・・(3)
M(i):適応符号帳としての復号化音源データ
a:フィルタ係数(a=0.05×ga+0.09)
i:波形のインデクス
T:復号化されたラグ
ga:復号化された適応符号帳の音源のゲイン
【0035】
なお、上記において、「0.05」、「0.09」という定数は復号化されたゲインとピッチフィルタの係数との関係を表わす1次式の定数である(本実施の形態では実験的に最も性能がよかった値を示した)。この定数を調節することにより、適応符号帳のピッチ成分の強弱を変化させることができる。もちろん、2次以上の式や特殊関数を用いた式等、より複雑な式を用いてより性能を上げることは容易である。
【0036】
音声符号化装置は、フィルタ処理部203にてピッチフィルタリングされた後の復号化音源データを、更新された適応符号帳とし、次のサブフレームの符号化/復号化を行っていく。
【0037】
このように、復号化音源データに対してフィルタリングを行うことにより、適応符号帳のピッチ構造を強調することができる。また、最新のラグによるピッチフィルタにより、より最新のピッチ構造が強化され、処理された適応符号帳を用いることによってより高品質の音声を得ることができる。
【0038】
なお、上記で示した後ろ向きフィルタはAR型(一度フィルタリングされた値がそのままフィルタの状態となるタイプ)であるが、MA型のフィルタとしても同様の効果は得られる。ただし、長期相関が強く(ピッチ構造がはっきりしており)且つラグが短い場合にはよりピッチ成分を強調できるAR型が有効である。
【0039】
また、上記説明はCELP型の符号化装置を例としたが、CELPだけに留まらず復号化波形データ(なお、本実施の形態では「復号化音源データ」としている)として過去の復号化音源波形または復号化音声波形を用いる符号化装置の場合でも、同波形データに対して本発明を適用すれば同様の効果を得ることができる。
【0040】
なお、音声復号化装置(デコーダ)では、図1に示したLPC分析部101、適応符号帳102、確率的符号帳103、音源作成部104、LPC合成部105と同一の構成を備え、音声符号化装置から伝送されてきた各符号を復号化して音源波形を得る。この際、本発明は適応符号帳の更新の部分で用いられる。
【0041】
【発明の効果】
以上説明したように、本発明では、適応符号帳等、過去の復号化音源データまたは復号化音声波形を復号化音源データとして蓄積・更新するCELP型符号化装置において、復号化音源データの状態更新を行う際に、最新の復号化波形により復号化音源データの追加とシフトを行った後にフィルタリングを行うこととした。これにより、その結果得られた波形を次の符号化または復号化に使用する復号化音源データとすれば、復号化音源データをより良好な音質が得られるように加工することができる。また、未来から過去に向かってかける後ろ向きフィルタリングを用いることにより、その加工による伝送誤りの伝播を少なくすることができる。また、後ろ向きフィルタリングが復号化したラグを用いたピッチフィルタリングを含むことにより、よりピッチ構造のはっきりした復号化音源データを用意することができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態1に係るCELP方式の音声符号化装置の構成を示すブロック図
【図2】上記実施の形態に係る適応符号帳の内部構成を示す機能ブロック図
【符号の説明】
101 LPC分析部
102 適応符号帳
103 確率的符号帳
104 音源作成部
105 LPC合成部
106 比較部
107 パラメータ符号化部
201 復号化波形生成部
202 復号化波形挿入部
203 フィルタ処理部
204 復号化音源データメモリ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for updating an adaptive codebook in a speech encoding device / decoding device of the CELP system.
[0002]
[Prior art]
When transmitting a voice signal in a packet communication system represented by the Internet communication, a mobile communication system, or the like, a compression encoding technique is often used in order to increase the transmission efficiency of the voice signal. Many speech coding schemes have been developed so far, and many of the recently developed low bit rate speech coding schemes such as the CELP scheme separate a speech signal into spectrum envelope information and spectrum fine structure information. This is a method of compressing and encoding the separated information (for example, Non-Patent Document 1).
[0003]
In recent years, there has been a demand for further improvement in sound quality of the speech encoding device. In this regard, research is progressing on the configuration of a probabilistic codebook, the configuration of an adaptive codebook, and a search method in a CELP-type speech coding apparatus (for example, Patent Document 1).
[0004]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 2002-182697 [Non-Patent Document 1]
MRSchroeder, BSAtal, "Code Excited Linear Prediction: High QualitySpeech at Low Bit Rate", IEEE proc., ICASSP'85 pp.937-940
[0005]
[Problems to be solved by the invention]
However, little research has been done on updating the adaptive codebook, and there is a problem in improving the performance of this part.
[0006]
The present invention has been made in view of the above points, and an adaptive codebook updating method, a speech encoding apparatus, and a speech decoding apparatus capable of improving sound quality in a speech encoding apparatus / speech decoding apparatus of a CELP system. It is intended to provide a device.
[0007]
[Means for Solving the Problems]
The adaptive codebook updating method according to the present invention includes a step of memory-shifting decoded excitation data, which is an adaptive codebook, from the future to the past and discarding a portion coming out of the memory; A method including a step of storing the excitation waveform and a step of filtering the decoded excitation data after the local decoded excitation waveform is inserted is employed.
[0008]
With this method, the pitch structure of the adaptive codebook can be emphasized, and the decoded excitation data can be processed so as to obtain better sound quality.
[0009]
The method of updating the adaptive codebook of the present invention employs a method of using backward filtering in which filtering is performed from the future to the past in the step of performing filtering.
[0010]
By this method, the decoded excitation data can be processed so as to obtain better sound quality, and furthermore, transmission of transmission errors due to the processing can be reduced.
[0011]
In the adaptive codebook updating method according to the present invention, in the step of performing filtering, pitch filtering is performed by using a lag corresponding to the code of the adaptive codebook and a gain of the excitation of the decoded adaptive codebook by the pitch filter of the backward filter. Take the method of doing.
[0012]
By this method, decoded excitation data having a clear pitch structure can be prepared.
[0013]
The speech coding apparatus of the present invention employs a configuration for updating the adaptive codebook by any of the above methods. Further, the speech decoding apparatus of the present invention employs a configuration for updating an adaptive codebook corresponding to any of the above methods.
[0014]
With these configurations, the decoded excitation data, which is an adaptive codebook, can be processed so as to obtain better sound quality.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
The gist of the present invention is that the decoded excitation data, which is an adaptive codebook, is shifted from the future to the past in memory and the portion that comes out of the memory is discarded, the local decoded excitation waveform is stored in a vacant portion in the future, That is, the adaptive codebook is updated by filtering the decoded excitation data after inserting the decoded excitation waveform.
[0016]
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0017]
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a CELP-type speech encoding device. It is assumed that the input audio signal is sequentially input to the audio encoding device for each processing frame divided at a time interval of about 20 ms.
[0018]
The input audio signal input to the audio encoding device for each processing frame is first supplied to the LPC analysis unit 101. The LPC analysis unit 101 obtains LPC coefficients by analyzing an input speech signal by LPC (Linear Predictive Coding), quantizes the LPC coefficients into an LPC code, and decodes the LPC code to obtain decoded LPC coefficients.
[0019]
The adaptive codebook 102 generally stores past synthesized excitation waveforms in a memory for a fixed length (pitch search range). Here, the coding includes two values, a value of how far the synthetic sound source is used (generally called a lag, which corresponds to a fundamental period (pitch) for voiced sounds such as human vowels) and a gain thereof. This is done with parameters. Therefore, the adaptive codebook 102 greatly contributes to the coding efficiency in coding a portion where regularly similar waveforms such as human vowels are arranged.
[0020]
The probabilistic codebook 103 stores a plurality of excitation samples having a numbered subframe length.
[0021]
Excitation generating section 104 reads an adaptive code vector and a fixed code vector from adaptive codebook 102 and stochastic codebook 103, respectively, and sends them to LPC synthesis section 105. The LPC synthesizing unit 105 synthesizes and filters the adaptive code vector and the fixed code vector supplied from the sound source creating unit 104 with an all-pole synthesis filter having the decoded LPC coefficient provided from the LPC analyzing unit 101 as a filter coefficient. , A combined adaptive code vector and a combined fixed code vector.
[0022]
The comparing unit 106 analyzes the relationship between the synthesized adaptive code vector, the synthesized fixed code vector, and the input speech signal output from the LPC synthesizing unit 105, and calculates the adaptive codebook optimum gain by which the synthesized adaptive code vector is multiplied and the synthesized fixed code vector. To obtain the optimal gain of the probabilistic codebook multiplied by.
[0023]
Further, comparing section 106 adds a vector obtained by multiplying the synthesized adaptive code vector by the adaptive codebook optimum gain and a vector obtained by multiplying the synthesized fixed code vector by the probabilistic codebook optimum gain to obtain a synthesized speech vector. And calculates the distance between the synthesized speech and the input speech signal. Then, the comparison unit 106 obtains a synthesized speech vector for all combinations of the adaptive code vector stored in the adaptive codebook 102 and the fixed code vector stored in the stochastic codebook 103, and The index of the adaptive code vector and the index of the fixed code vector that minimize the distance to the signal are obtained. Then, the comparing unit 106 converts the index of the code vector output from each codebook, each code vector corresponding to the index, the adaptive codebook optimal gain and the stochastic codebook optimal gain corresponding to the index into the parameter encoding unit. Send to 107.
[0024]
The parameter encoding unit 107 acquires the gain code by encoding the adaptive codebook optimum gain and the stochastic codebook optimum gain, and obtains the gain code, the LPC code given from the LPC analysis unit 101, and the index of each codebook. Are output collectively for each processing frame.
[0025]
Further, parameter encoding section 107 includes a vector obtained by multiplying an adaptive codebook corresponding to the index of the adaptive codebook by an adaptive codebook gain corresponding to the gain code, and a fixed code vector corresponding to the index of the stochastic codebook. And a vector obtained by multiplying by the probabilistic codebook gain corresponding to the gain code to the adaptive codebook 102.
[0026]
Note that the synthesis filtering in the LPC synthesis unit 105 generally uses a linear prediction coefficient, a high-frequency emphasis filter, and an audibility weighting filter using a long-term prediction coefficient obtained by performing a long-term prediction analysis on the input speech. .
[0027]
In addition, the search for the optimal index of the adaptive codebook and the stochastic codebook, the calculation of the optimal gain, and the encoding processing of the optimal gain are generally performed in subframe units obtained by further dividing the frame.
[0028]
Next, the internal processing of adaptive codebook 102 will be described using FIG. FIG. 2 is a functional block diagram showing an internal configuration of adaptive codebook 102 according to the present embodiment. As shown in FIG. 2, adaptive codebook 102 mainly includes a decoded waveform generation unit 201, a decoded waveform insertion unit 202, a filter processing unit 203, and a decoded excitation data memory 204.
[0029]
The decoded waveform generation unit 201 generates a local excitation waveform D (i) using the following two excitations corresponding to the gain code and the index input from the parameter encoding unit 107 by the following equation (1).
D (i) = ga × A (i) + gs × S (i) (1)
i: Waveform index (i = 0 to L-1)
L: subframe length ga: excitation gain of decoded adaptive codebook A (i): excitation waveform of decoded adaptive codebook gs: excitation gain S (i of decoded probabilistic codebook ): The decoded excitation waveform of the probabilistic codebook and the generated local excitation waveform D (i) are output to the decoded waveform insertion unit 202.
[0030]
The decoded waveform inserting unit 202 shifts the decoded sound source data stored in the decoded sound source data memory 204 from the future to the past and discards the portion that came out of the memory. The converted sound source waveform D (i) is stored. The following equation (2) expresses this procedure.
M (i) = M (i + L) (where i = 0 to PL-1)
M (P−L + I) = D (i) (where i = 0 to L−1) (2)
M (i): Decoded excitation data as adaptive codebook
i: Waveform index (i = 0 to L-1)
L: Subframe length P: Memory length for storing decoded excitation data as an adaptive codebook
A signal indicating completion of the above processing is output to filter processing section 203. Filter processing section 203 performs filtering on the decoded excitation data after the local decoded excitation waveform D (i) has been inserted.
[0032]
Here, in the present embodiment, a case where backward filtering is used will be described. It should be noted that the effects of pitch enhancement, frequency adaptation, and the like can be obtained by forward filtering, but the propagation of errors is slightly longer.
[0033]
A pitch filter will be described as an example of a backward filter. The effect can be obtained by using a low-pass / high-pass emphasis filter, a band-pass filter, or the like other than the pitch filter.
[0034]
Filter processing section 203 performs pitch filtering using the lag corresponding to the code in the adaptive codebook and the gain of the excitation of the decoded adaptive codebook. The specific processing is shown in the following equation (3).
M (i) = M (i) + a × M (i + T) (where i = PT-1 to 0) (3)
M (i): Decoded excitation data as adaptive codebook a: Filter coefficient (a = 0.05 × ga + 0.09)
i: waveform index T: decoded lag ga: decoded adaptive codebook excitation gain
Note that, in the above, the constants “0.05” and “0.09” are linear constants representing the relationship between the decoded gain and the coefficient of the pitch filter. Values shown). By adjusting this constant, the strength of the pitch component of the adaptive codebook can be changed. Of course, it is easy to improve the performance by using a more complicated expression such as a second-order expression or an expression using a special function.
[0036]
The speech coding apparatus uses the decoded excitation data after pitch filtering by the filter processing unit 203 as an updated adaptive codebook, and performs coding / decoding of the next subframe.
[0037]
In this way, by performing filtering on the decoded excitation data, the pitch structure of the adaptive codebook can be emphasized. In addition, the latest lag pitch filter enhances the latest pitch structure, and higher quality speech can be obtained by using the processed adaptive codebook.
[0038]
Note that the backward filter described above is of the AR type (a type in which a value once filtered becomes a filter state as it is), but the same effect can be obtained as a MA type filter. However, when the long-term correlation is strong (the pitch structure is clear) and the lag is short, the AR type that can emphasize the pitch component is effective.
[0039]
In the above description, the CELP-type coding apparatus is used as an example. However, not only CELP but also past decoded excitation waveforms are used as decoded waveform data (in this embodiment, “decoded excitation data”). Alternatively, even in the case of an encoding device using a decoded speech waveform, the same effect can be obtained by applying the present invention to the same waveform data.
[0040]
The speech decoding apparatus (decoder) has the same configuration as LPC analysis section 101, adaptive codebook 102, stochastic codebook 103, excitation generating section 104, and LPC synthesis section 105 shown in FIG. Each code transmitted from the digitizing device is decoded to obtain a sound source waveform. In this case, the present invention is used in an adaptive codebook updating part.
[0041]
【The invention's effect】
As described above, according to the present invention, in a CELP-type encoding apparatus that stores and updates past decoded excitation data or decoded speech waveforms as decoded excitation data, such as an adaptive codebook, the state update of decoded excitation data is performed. , Filtering is performed after adding and shifting decoded sound source data using the latest decoded waveform. As a result, if the resulting waveform is used as decoded excitation data to be used for the next encoding or decoding, the decoded excitation data can be processed so as to obtain better sound quality. In addition, by using backward filtering from the future to the past, propagation of transmission errors due to the processing can be reduced. In addition, since the backward filtering includes pitch filtering using the decoded lag, decoded excitation data with a clearer pitch structure can be prepared.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a CELP-type speech coding apparatus according to Embodiment 1 of the present invention. FIG. 2 is a functional block diagram showing an internal configuration of an adaptive codebook according to the embodiment. Description]
101 LPC analysis unit 102 Adaptive codebook 103 Stochastic codebook 104 Sound source creation unit 105 LPC synthesis unit 106 Comparison unit 107 Parameter encoding unit 201 Decoded waveform generation unit 202 Decoded waveform insertion unit 203 Filter processing unit 204 Decoded excitation data memory

Claims (5)

適応符号帳である復号化音源データを未来から過去にメモリシフトしてメモリから出た部分を破棄する工程と、未来の空いた部分にローカルな復号化音源波形を格納する工程と、ローカルな復号化音源波形を挿入した後の復号化音源データに対してフィルタリングを行う工程とを具備することを特徴とする適応符号帳の更新方法。Memory-shifting the decoded excitation data, which is an adaptive codebook, from the future to the past and discarding the portion that came out of the memory; storing the local decoded excitation waveform in a vacant portion in the future; and local decoding. Filtering the decoded excitation data after the insertion of the converted excitation waveform, the adaptive codebook updating method. フィルタリングを行う工程において、未来から過去に向かってフィルタをかける後ろ向きフィルタリングを用いることを特徴とする請求項1記載の適応符号帳の更新方法。2. The adaptive codebook updating method according to claim 1, wherein in the step of performing the filtering, backward filtering for filtering from the future to the past is used. フィルタリングを行う工程において、後ろ向きフィルタのピッチフィルタにより、適応符号帳の符号に対応するラグと復号化された適応符号帳の音源のゲインを用いてピッチフィルタリングを行うことを特徴とする請求項2記載の適応符号帳の更新方法。3. The step of performing filtering, wherein pitch filtering is performed by a pitch filter of a backward filter using a lag corresponding to a code of the adaptive codebook and a gain of a source of the decoded adaptive codebook. Update method of adaptive codebook. 請求項1から請求項3のいずれかに記載の方法により適応符号帳の更新を行うことを特徴とする音声符号化装置。4. A speech coding apparatus for updating an adaptive codebook by the method according to claim 1. 請求項1から請求項3のいずれかに記載の方法に対応した適応符号帳の更新を行うことを特徴とする音声復号化装置。A speech decoding apparatus for updating an adaptive codebook corresponding to the method according to any one of claims 1 to 3.
JP2002364109A 2002-12-16 2002-12-16 Adaptive codebook update method, adaptive codebook update device, speech encoding device, and speech decoding device Expired - Lifetime JP4373667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002364109A JP4373667B2 (en) 2002-12-16 2002-12-16 Adaptive codebook update method, adaptive codebook update device, speech encoding device, and speech decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002364109A JP4373667B2 (en) 2002-12-16 2002-12-16 Adaptive codebook update method, adaptive codebook update device, speech encoding device, and speech decoding device

Publications (2)

Publication Number Publication Date
JP2004198522A true JP2004198522A (en) 2004-07-15
JP4373667B2 JP4373667B2 (en) 2009-11-25

Family

ID=32762072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002364109A Expired - Lifetime JP4373667B2 (en) 2002-12-16 2002-12-16 Adaptive codebook update method, adaptive codebook update device, speech encoding device, and speech decoding device

Country Status (1)

Country Link
JP (1) JP4373667B2 (en)

Also Published As

Publication number Publication date
JP4373667B2 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
EP0832482B1 (en) Speech coder
JP4005359B2 (en) Speech coding and speech decoding apparatus
US8391373B2 (en) Concealment of transmission error in a digital audio signal in a hierarchical decoding structure
US6385576B2 (en) Speech encoding/decoding method using reduced subframe pulse positions having density related to pitch
US20100010810A1 (en) Post filter and filtering method
JP2002328700A (en) Hiding of frame erasure and method for the same
JP4445328B2 (en) Voice / musical sound decoding apparatus and voice / musical sound decoding method
JPWO2006120931A1 (en) Encoding device, decoding device and methods thereof
JP4789430B2 (en) Speech coding apparatus, speech decoding apparatus, and methods thereof
JP3357795B2 (en) Voice coding method and apparatus
JP3628268B2 (en) Acoustic signal encoding method, decoding method and apparatus, program, and recording medium
JP2004138756A (en) Voice coding device, voice decoding device, and voice signal transmitting method and program
JP2000155597A (en) Voice coding method to be used in digital voice encoder
CN108053830B (en) Decoding method, decoding device, and computer-readable recording medium
JP4578145B2 (en) Speech coding apparatus, speech decoding apparatus, and methods thereof
KR100341398B1 (en) Codebook searching method for CELP type vocoder
JP4438280B2 (en) Transcoder and code conversion method
JP4373667B2 (en) Adaptive codebook update method, adaptive codebook update device, speech encoding device, and speech decoding device
JP3510168B2 (en) Audio encoding method and audio decoding method
JP3232701B2 (en) Audio coding method
JPH09244695A (en) Voice coding device and decoding device
JP2002073097A (en) Celp type voice coding device and celp type voice decoding device as well as voice encoding method and voice decoding method
JPH11259098A (en) Method of speech encoding/decoding
JP3552201B2 (en) Voice encoding method and apparatus
JP2853170B2 (en) Audio encoding / decoding system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090811

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090904

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4373667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term