JP3107620B2 - Audio coding method - Google Patents

Audio coding method

Info

Publication number
JP3107620B2
JP3107620B2 JP03335008A JP33500891A JP3107620B2 JP 3107620 B2 JP3107620 B2 JP 3107620B2 JP 03335008 A JP03335008 A JP 03335008A JP 33500891 A JP33500891 A JP 33500891A JP 3107620 B2 JP3107620 B2 JP 3107620B2
Authority
JP
Japan
Prior art keywords
vocal tract
parameter
parameters
quantized
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP03335008A
Other languages
Japanese (ja)
Other versions
JPH05165498A (en
Inventor
浩 桂川
賢一郎 細田
弘美 青柳
義博 有山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP03335008A priority Critical patent/JP3107620B2/en
Publication of JPH05165498A publication Critical patent/JPH05165498A/en
Application granted granted Critical
Publication of JP3107620B2 publication Critical patent/JP3107620B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、音声信号の圧縮符号
化方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for compressing and encoding an audio signal.

【0002】[0002]

【従来の技術】8kビット/秒以下の圧縮率での、音声
信号の高能率符号化方法は、Atal等による或いは次
の文献1で開示されている、コード励振線形予測符号化
方式が有効な手法である。これは音声信号を声道のパラ
メータと、励振源のパラメータによって表現するもので
ある。なお、文献1では、励振源のパラメータが統計コ
ードブックと適応コードブックの2つによってベクトル
量子化される点が特徴となっている。
2. Description of the Related Art A high-efficiency encoding method for audio signals at a compression rate of 8 kbits / sec or less is based on a code-excited linear predictive encoding method by Atal et al. Or disclosed in the following document 1. Method. In this method, a voice signal is expressed by parameters of a vocal tract and parameters of an excitation source. Note that Literature 1 is characterized in that the parameters of the excitation source are vector-quantized by using a statistical codebook and an adaptive codebook.

【0003】文献1:N.S.Jayant & J.H.Chen,“Speech
Coding with Time-Varying Bit Allocations to Excit
ation and LPC parameters",Proc,ICASSP-89,(1989) 声道パラメータは、通常、多段ベクトル量子化され、或
いはベクトル・スカラ併用で多段量子化され、次の文献
2には、2段ベクトル量子化による、量子化計算量の削
減について開示されている。
Reference 1: NSJayant & JHChen, “Speech
Coding with Time-Varying Bit Allocations to Excit
ation and LPC parameters ", Proc, ICASSP-89, (1989) Normally, vocal tract parameters are multistage quantized by using vector scalar or by vector scalar combination. It discloses a reduction in the amount of quantization computation due to quantization.

【0004】文献2:「2段ベクトル量子化による破裂
音の認識」電子通信情報学会技術研究報告、SP90−
6(1990年5月25日)。
Literature 2: "Recognition of plosives by two-stage vector quantization" IEICE Technical Report, SP90-
6 (May 25, 1990).

【0005】[0005]

【発明が解決しようとする課題】他方、コード励振線形
予測符号化方式では、ビットレート圧縮のために、声道
パラメータは特定の時間長さのフレームに対して1回し
か送らず、声道のパラメータを、フレームをさらに分割
したサブフレームに対して用いるときは、補間して用い
ている。
On the other hand, in the code-excited linear predictive coding system, the vocal tract parameters are sent only once for a frame of a specific time length due to bit rate compression, and the vocal tract parameters are not transmitted. When parameters are used for subframes obtained by further dividing a frame, interpolation is used.

【0006】ビットレートが8kビット/秒程度のとき
には、フレーム長は20m秒程度の長さのものを用いる
ことができた。ここで音声信号は、その声道の状態につ
いて考えると、およそ20m秒程度は同じ統計的性質を
保ち続けると考えられるので、8kビット/秒程度の圧
縮符号化については、単に補間するだけでも特に品質劣
化は生じない。
When the bit rate is about 8 kbit / sec, a frame length of about 20 msec can be used. Here, considering the state of the vocal tract, the speech signal is considered to keep the same statistical properties for about 20 ms, so that for compression encoding of about 8 kbit / sec, simply interpolating is particularly necessary. No quality degradation occurs.

【0007】しかし、ビットレートを4kビット/秒程
度にまでさらに圧縮するときには、フレーム長を30m
秒から40m秒程度に、すなわち、音声の定常な区間の
長さよりも長く設定せざるを得ない。
However, when the bit rate is further compressed to about 4 kbit / sec, the frame length is set to 30 m.
It has to be set from seconds to about 40 ms, that is, longer than the length of the steady section of the voice.

【0008】そのため、声道パラメータの時間分解能が
不十分となり、この声道パラメータを単に補間するだけ
では、声道の情報の正確な表現が不可能になってしまっ
て、例えば、子音が欠落してしまうなど、合成音声の品
質が劣化してしまうという問題が生じていた。
As a result, the temporal resolution of the vocal tract parameters becomes insufficient, and simply interpolating the vocal tract parameters makes it impossible to accurately represent vocal tract information. For example, consonants are lost. For example, there is a problem that the quality of synthesized speech is deteriorated.

【0009】従って、本発明は、ビットレートの更なる
圧縮のために、フレーム長は長いままであって、しか
も、声道の状態の変化を十分正確に表現することができ
るような、音声の符号化方法を提供することを目的とし
ている。
Therefore, the present invention provides a method of speech synthesis in which the frame length remains long and the changes in vocal tract conditions can be represented accurately enough for further compression of the bit rate. It is intended to provide an encoding method.

【0010】[0010]

【課題を解決するための手段】本発明はコード励振線形
予測符号化方法に関する。この方法では、声道パラメー
タ及び励振源パラメータを指定するコードが符号出力と
なる。
SUMMARY OF THE INVENTION The present invention relates to a code-excited linear predictive encoding method. In this method, a code specifying a vocal tract parameter and an excitation source parameter is a code output.

【0011】本発明では、フレーム単位で、声道パラメ
ータを1段ベクトル量子化もしくは複数段ベクトル量子
化して、フレーム単位での声道パラメータである量子化
声道主パラメータを決定する。
In the present invention, the vocal tract parameters are quantized by one-stage vector or a plurality of stages in vector units to determine a quantized vocal tract main parameter which is a vocal tract parameter in frame units.

【0012】また、前フレームと現フレームとの量子化
声道主パラメータによるサブフレーム単位での補間によ
って、サブフレーム単位で量子化声道補間パラメータを
作成し、入力音声信号の声道パラメータとの差を計算し
てサブフレーム単位で声道パラメータ誤差を求める。
Further, by interpolating the preceding frame and the current frame in units of subframes using the quantized vocal tract main parameters, a quantized vocal tract interpolation parameter is created in subframe units, and the vocal tract parameter of the input speech signal is interpolated. The difference is calculated, and a vocal tract parameter error is obtained for each subframe.

【0013】そして、サブフレーム単位で、声道パラメ
ータ誤差をベクトル量子化もしくはスカラ量子化して、
量子化声道補正パラメータを決定する。
Then, the vocal tract parameter error is vector-quantized or scalar-quantized for each sub-frame.
Determine the quantized vocal tract correction parameters.

【0014】[0014]

【課題を解決するための手段および作用】フレーム単位
での量子化声道主パラメータを指定するコードとサブフ
レーム単位での量子化声道補正パラメータを指定するコ
ードとを声道パラメータの出力コードとし、声道パラメ
ータ主コードと声道パラメータ補正コードと励振源パラ
メータコードとを多重して通信回線に送信する。
A code specifying a quantized vocal tract main parameter in frame units and a code specifying a quantized vocal tract correction parameter in subframe units are output codes of vocal tract parameters. , The vocal tract parameter main code, the vocal tract parameter correction code, and the excitation source parameter code are multiplexed and transmitted to the communication line.

【0015】[0015]

【作用】全体としては、声道パラメータを複数段量子化
して声道パラメータコードを決定する。この明細書で
は、前段の量子化(ベクトル量子化)に関するものを量
子化声道主パラメータとし、後段の量子化(ベクトル又
はスカラ量子化)のものを量子化声道補正パラメータと
して区別しているけれども、ベクトルの計算量が削減で
きるなどの複数段量子化の利点は維持される。
As a whole, vocal tract parameters are quantized in a plurality of stages to determine a vocal tract parameter code. In this specification, the parameter related to the quantization at the preceding stage (vector quantization) is distinguished as the main parameter of the quantized vocal tract, and the parameter related to the quantization at the subsequent stage (vector or scalar quantization) is distinguished as the quantization vocal tract correction parameter. , The advantages of multi-stage quantization, such as a reduction in the amount of vector calculations, are maintained.

【0016】本発明においては、前段と後段の間におい
て、サブフレーム単位での補間処理を行う。すなわち、
現フレームの声道パラメータ(量子化声道主パラメー
タ)と、サブフレーム単位での補間処理した声道パラメ
ータ(量子化声道補間パラメータ)との、声道パラメー
タ誤差を求め、その誤差を量子化して、サブフレーム単
位での声道パラメータ(量子化声道補正パラメータ)と
そのコードとを決定する。
In the present invention, an interpolation process is performed on a subframe basis between the preceding stage and the subsequent stage. That is,
A vocal tract parameter error between a vocal tract parameter (quantized vocal tract main parameter) of the current frame and a vocal tract parameter (quantized vocal tract interpolation parameter) interpolated in subframe units is obtained, and the error is quantized. Then, the vocal tract parameters (quantized vocal tract correction parameters) and their codes are determined in subframe units.

【0017】このように、補間処理を中間に持ってきた
ため、後段の量子化におけるダイナミックレンジ(声道
パラメータのベクトル空間)が小さくなり、サブフレー
ム単位の情報を付加しても、ビットレートの圧縮とな
る。
As described above, since the interpolation processing is performed at an intermediate stage, the dynamic range (vector space of vocal tract parameters) in the subsequent quantization is reduced, and even if information in subframe units is added, the compression of the bit rate is reduced. Becomes

【0018】フレームに対応した情報である量子化声道
主パラメータのコードと、サブフレームに対応した情報
である量子化声道補正パラメータのコードとを、フレー
ム毎の声道パラメータのコードとして出力する。
A quantized vocal tract main parameter code, which is information corresponding to a frame, and a quantized vocal tract correction parameter code, which is information corresponding to a subframe, are output as vocal tract parameter codes for each frame. .

【0019】[0019]

【実施例】図1は、本発明を適用した符号化器を示すブ
ロック図であり、101は声道分析器、102は声道パ
ラメータ量子化器、103は補間器、104はパラメー
タ誤差量子化器、105は適応コードブック、106は
統計コードブック、107は合成フィルタ、108は誤
差計算器、109は最小誤差選択器、110は多重化
器、111は減算器、112は加算器、113は加算
器、114は減算器である。次に、図1に沿って、動作
を説明する。
FIG. 1 is a block diagram showing an encoder to which the present invention is applied. 101 is a vocal tract analyzer, 102 is a vocal tract parameter quantizer, 103 is an interpolator, and 104 is a parameter error quantizer. , 105 is an adaptive codebook, 106 is a statistical codebook, 107 is a synthesis filter, 108 is an error calculator, 109 is a minimum error selector, 110 is a multiplexer, 111 is a subtractor, 112 is an adder, 113 is An adder 114 is a subtractor. Next, the operation will be described with reference to FIG.

【0020】A/D変換された入力音声信号系列は、特
定のフレーム長単位で入力され、声道分析器101で声
道分析され、声道パラメータが求められる。
The A / D-converted input speech signal sequence is input in a specific frame length unit, and is analyzed by the vocal tract analyzer 101 to obtain vocal tract parameters.

【0021】入力音声信号の声道パラメータは声道パラ
メータ量子化器102で量子化され、その量子化声道主
パラメータのコード(声道パラメータ主コード)は、各
フレームで1回、多重化器110に送られる。
The vocal tract parameters of the input speech signal are quantized by a vocal tract parameter quantizer 102, and the code of the quantized vocal tract main parameter (vocal tract parameter main code) is once in each frame by a multiplexer. Sent to 110.

【0022】また、量子化声道主パラメータは補間器1
03で、フレームをさらに分割したサブフレーム単位に
補間されて声道補間パラメータにして、用いられる。
The main parameter of the quantized vocal tract is the interpolator 1
At 03, the frame is further interpolated in subframe units and used as vocal tract interpolation parameters.

【0023】現サブフレームで用いられる声道パラメー
タは量子化、および補間による誤差を含んでいる。
The vocal tract parameters used in the current subframe include errors due to quantization and interpolation.

【0024】そこで、現サブフレームにおける声道分析
の結果得られた、誤差を含まない声道パラメータとの差
から、その誤差を求め、それを声道補正パラメータ量子
化器104で量子化し、声道補正パラメータを求め、そ
のコード(声道パラメータ補正コード)は、各サブフレ
ームで1回、多重化器110に送られる。
Therefore, the error is obtained from the difference from the vocal tract parameter containing no error obtained as a result of the vocal tract analysis in the current subframe, and the error is quantized by the vocal tract correction parameter quantizer 104, and the vocal tract is quantized. The vocal tract parameter is determined, and the code (vocal tract parameter correction code) is sent to the multiplexer 110 once in each subframe.

【0025】図2は、量子化器102、104、及び補
間器103の動作説明図であり、1フレームを4サブフ
レームで構成した例で示している。
FIG. 2 is a diagram for explaining the operation of the quantizers 102 and 104 and the interpolator 103, and shows an example in which one frame is composed of four subframes.

【0026】図2において、両端の○印はフレーム単位
の量子化声道主パラメータを示し、X印はサブフレーム
単位の量子化声道補間パラメータを示し、△印は加算器
112の出力に対応するものである。
In FIG. 2, circles at both ends indicate quantized vocal tract main parameters in frame units, X indicates quantized vocal tract interpolation parameters in subframe units, and Δ indicates output from the adder 112. Is what you do.

【0027】X印と△印との差が、減算器111とパラ
メータ誤差量子化104とによって作成した声道補正パ
ラメータを示している。
The difference between the X mark and the Δ mark indicates the vocal tract correction parameters created by the subtractor 111 and the parameter error quantization 104.

【0028】図1において、適応コードブック105か
らの適応励振ベクトルと、統計コードブック106から
の統計励振ベクトルを加算器113で加算して励振信号
ベクトルを構成し、その励振信号ベクトルから、加算器
112の出力の声道パラメータ(補正された声道パラメ
ータ)を用いた合成フィルタ117で合成音声信号を合
成し、誤差計算器108で入力音声信号との誤差を求め
る。
Referring to FIG. 1, an adder 113 adds an adaptive excitation vector from the adaptive codebook 105 and a statistical excitation vector from the statistical codebook 106 to form an excitation signal vector. The synthesized speech signal is synthesized by the synthesis filter 117 using the vocal tract parameters (corrected vocal tract parameters) output from 112, and the error calculator 108 obtains an error from the input speech signal.

【0029】多重化器110は以上の装置で得られた、
声道パラメータコード、声道補正パラメータコード、適
応励振コード、および統計励振コードを多重化し、トー
タルコードとして通信回線に送信する。
The multiplexer 110 was obtained by the above apparatus.
The vocal tract parameter code, the vocal tract correction parameter code, the adaptive excitation code, and the statistical excitation code are multiplexed and transmitted as a total code to the communication line.

【0030】図3に、図1の符号化に対応した復号器の
ブロック図を示す。
FIG. 3 shows a block diagram of a decoder corresponding to the encoding of FIG.

【0031】図3において、多重分離器201は通信回
線から受け取ったトータルコードを、声道パラメータ主
コード、声道パラメータ補正コード、適応励振コード、
および統計励振コードに分離し、復号器の各装置に送
る。
In FIG. 3, a demultiplexer 201 converts a total code received from a communication line into a vocal tract parameter main code, a vocal tract parameter correction code, an adaptive excitation code,
And a statistical excitation code, which are sent to each device of the decoder.

【0032】声道パラメータ主コードは声道パラメータ
逆量子化器202で逆量子化され、声道主パラメータと
なる。さらに、声道主パラメータは補間器203で各サ
ブフレーム単位に補間される。
The vocal tract parameter main code is inversely quantized by the vocal tract parameter inverse quantizer 202 to become a vocal tract main parameter. Further, the main vocal tract parameters are interpolated by the interpolator 203 for each subframe.

【0033】次に、声道補正パラメータ逆量子化器20
4で、声道パラメータ補正コードを逆量子化して声道補
正パラメータを求め、加算器208で声道主パラメータ
を補正する。
Next, the vocal tract correction parameter inverse quantizer 20
In step 4, the vocal tract parameter correction code is inversely quantized to obtain a vocal tract correction parameter, and the adder 208 corrects the vocal tract main parameter.

【0034】また、適応コードブック205からの、適
応励振コードに対応する最適な適応励振ベクトルと、統
計コードブック206からの、統計励振コードに対応す
る最適な統計励振ベクトルとから、励振信号ベクトルを
構成し、補正された声道パラメータを用いた合成フィル
タ207で再生音声出力を合成する。
The excitation signal vector is calculated from the optimum adaptive excitation vector corresponding to the adaptive excitation code from the adaptive codebook 205 and the optimum statistical excitation vector corresponding to the statistical excitation code from the statistical codebook 206. Then, the reproduced voice output is synthesized by the synthesis filter 207 using the corrected vocal tract parameters.

【0035】[0035]

【発明の効果】本発明によって、声道のパラメータをフ
レーム単位ではなく、サブフレームの単位で更新するこ
とが可能となり、その結果、低ビットで、音声信号の声
道の性質の時間的な変化に十分追随できるようなコード
化方法が構成できる。
According to the present invention, vocal tract parameters can be updated in subframe units instead of frame units, and as a result, the temporal change of the vocal tract properties of a speech signal at low bits can be achieved. Can be configured so as to be able to sufficiently follow the above.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した音声符号化器を示すブロック
図、
FIG. 1 is a block diagram showing a speech encoder to which the present invention is applied;

【図2】図1における補間および補正動作の説明図、FIG. 2 is an explanatory diagram of an interpolation and correction operation in FIG. 1;

【図3】図1に対応した復号化器のブロック図、FIG. 3 is a block diagram of a decoder corresponding to FIG. 1;

【符号の説明】[Explanation of symbols]

101 声道分析器 102 声道パラメータ量子化器 103 補間器 104 パラメータ誤差量子化器 105 適応コードブック 106 統計コードブック 107 合成フィルタ 108 誤差計算器 109 最小誤差選択器 110 多重化器 111 減算器 112 加算器 113 加算器 114 減算器 Reference Signs List 101 vocal tract analyzer 102 vocal tract parameter quantizer 103 interpolator 104 parameter error quantizer 105 adaptive codebook 106 statistical codebook 107 synthesis filter 108 error calculator 109 minimum error selector 110 multiplexer 111 subtractor 112 addition Unit 113 Adder 114 Subtractor

フロントページの続き (72)発明者 有山 義博 東京都港区虎ノ門1丁目7番12号 沖電 気工業株式会社内 (56)参考文献 特開 平5−6199(JP,A) 特開 平4−171500(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 11/00 - 13/08 G10L 19/00 - 21/06 Continuation of front page (72) Inventor Yoshihiro Ariyama 1-7-12 Toranomon, Minato-ku, Tokyo Oki Electric Industry Co., Ltd. (56) References JP-A-5-6199 (JP, A) JP-A-4 −171500 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 11/00-13/08 G10L 19/00-21/06

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力音声信号をフレーム単位で線形予測
分析して声道パラメータを得、前記入力音声信号と合成
音声信号との誤差を評価することによって励振源パラメ
ータを得、前記音道パラメータ及び前記励振源パラメー
タをそれぞれ量子化し且つそれらパラメータを指定する
コードを決定し、それらのコードによって音声信号を表
現する音声符号化方法において、 フレーム単位で、前記声道パラメータをベクトル量子化
して、量子化声道主パラメータを決定し、 前フレームと現フレームとの前記量子化声道主パラメー
タによるサブフレーム単位での補間によって、サブフレ
ーム単位で量子化声道補間パラメータを作成し、 前記入力音声の前記声道パラメータとサブフレーム単位
での前記量子化声道補間パラメータとの差を計算して、
サブフレーム単位で声道パラメータ誤差を求め、 サブフレーム単位で、前記声道パラメータ誤差を量子化
して、量子化声道補正パラメータを決定し、 フレーム単位での前記量子化声道主パラメータを指定す
る声道パラメータ主コードとサブフレーム単位での前記
量子化声道補正パラメータを指定する声道パラメータ補
正コードとを声道パラメータの前記コードとし、 前記声道パラメータ主コードと前記声道パラメータ補正
コードと前記励振源パラメータコードとを多重して通信
回線に送信 することを特徴とする音声符号化方法。
1. A vocal tract parameter is obtained by performing linear prediction analysis on an input speech signal on a frame basis, and an excitation source parameter is obtained by evaluating an error between the input speech signal and a synthesized speech signal. In a speech coding method for quantizing the excitation source parameters and determining codes specifying the parameters, and expressing the speech signal by the codes, the quantization is performed by vector-quantizing the vocal tract parameters in frame units. Determining a vocal tract main parameter, and creating a quantized vocal tract interpolation parameter in subframe units by interpolating a previous frame and a current frame in subframe units using the quantized vocal tract main parameter; Calculating the difference between the vocal tract parameters and the quantized vocal tract interpolation parameters in subframe units,
Calculating a vocal tract parameter error in subframe units, quantizing the vocal tract parameter error in subframe units, determining a quantized vocal tract correction parameter, and specifying the quantized vocal tract main parameter in frame units a vocal tract parameter correction code specifying the quantized vocal tract correction parameter in the vocal tract parameters main code and sub-frame and the codes of the vocal tract parameters, the vocal tract parameter correction and the vocal tract parameters main code
Communication by multiplexing the code and the excitation source parameter code
A speech coding method characterized by transmitting the signal to a line .
JP03335008A 1991-12-18 1991-12-18 Audio coding method Expired - Lifetime JP3107620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03335008A JP3107620B2 (en) 1991-12-18 1991-12-18 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03335008A JP3107620B2 (en) 1991-12-18 1991-12-18 Audio coding method

Publications (2)

Publication Number Publication Date
JPH05165498A JPH05165498A (en) 1993-07-02
JP3107620B2 true JP3107620B2 (en) 2000-11-13

Family

ID=18283708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03335008A Expired - Lifetime JP3107620B2 (en) 1991-12-18 1991-12-18 Audio coding method

Country Status (1)

Country Link
JP (1) JP3107620B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2655046B2 (en) * 1993-09-13 1997-09-17 日本電気株式会社 Vector quantizer
EP2472868A1 (en) * 2010-12-29 2012-07-04 British Telecommunications Public Limited Company Video coding

Also Published As

Publication number Publication date
JPH05165498A (en) 1993-07-02

Similar Documents

Publication Publication Date Title
KR100563293B1 (en) Method and system for speech frame error concealment in speech decoding
US6470313B1 (en) Speech coding
EP1587062B1 (en) Method for improving the coding efficiency of an audio signal
CN113223540B (en) Method, apparatus and memory for use in a sound signal encoder and decoder
JP3565869B2 (en) Audio signal decoding method with correction of transmission error
JPH10187196A (en) Low bit rate pitch delay coder
KR102259112B1 (en) Audio coding device, audio coding method, audio coding program, audio decoding device, audio decoding method, and audio decoding program
EP1096476B1 (en) Speech signal decoding
KR20040005838A (en) Method and system for estimating artificial high band signal in speech codec
JP3107620B2 (en) Audio coding method
JP3050978B2 (en) Audio coding method
JP3283152B2 (en) Speech parameter quantization device and vector quantization device
JP3088204B2 (en) Code-excited linear prediction encoding device and decoding device
JP2968109B2 (en) Code-excited linear prediction encoder and decoder
JP3047761B2 (en) Audio coding device
JP3085347B2 (en) Audio decoding method and apparatus
JP2853824B2 (en) Speech parameter information coding method
JP3350340B2 (en) Voice coding method and voice decoding method
JP3700310B2 (en) Vector quantization apparatus and vector quantization method
JPH1049200A (en) Method and device for voice information compression and accumulation
JPH09120300A (en) Vector quantization device
JP2775533B2 (en) Long-term speech prediction device
JP3270146B2 (en) Audio coding device
KR100389898B1 (en) Method for quantizing linear spectrum pair coefficient in coding voice
JP3031765B2 (en) Code-excited linear predictive coding

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000822

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070908

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080908

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080908

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090908

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090908

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 12