JP2523286B2 - Speech encoding and decoding method - Google Patents
Speech encoding and decoding methodInfo
- Publication number
- JP2523286B2 JP2523286B2 JP61181770A JP18177086A JP2523286B2 JP 2523286 B2 JP2523286 B2 JP 2523286B2 JP 61181770 A JP61181770 A JP 61181770A JP 18177086 A JP18177086 A JP 18177086A JP 2523286 B2 JP2523286 B2 JP 2523286B2
- Authority
- JP
- Japan
- Prior art keywords
- spectrum
- information
- frame
- vector
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Description
【発明の詳細な説明】 「産業上の利用分野」 この発明は、音声信号を周波数領域に変換し、波形歪
を小さくおさえて量子化する音声符号化方法に関する。TECHNICAL FIELD The present invention relates to a voice encoding method for converting a voice signal into a frequency domain and quantizing it while suppressing waveform distortion.
「従来の技術」 この種の符号化方法には特許1258025号「音声の適応
変換符号化方式」が知られている。この方法は第3図に
示すように入力端子11から入力される音声信号は、一般
にアナログ音声信号を一定周期でサンプリングし、その
サンプリング値をディジタル信号としたものであり、こ
の音声信号は分析フレーム単位で線形予測分析部12へ入
力され、線形予測分析され、その予測係数とパワとがベ
クトル量子化部13でベクトル量子化され、補助情報とし
て出力される。その補助情報は局部復号化部14で逆量子
化されて復号され、その復号出力により逆フィルタ15の
フィルタ係数に制御される。この逆フィルタ15に入力端
子11からの音声信号が入力されて線形予測分析部12での
予測残差が抽出される。この予測残差信号は直交変換部
16で離散的コサイン変換や離散的フーリエ変換などによ
り周波数領域のサンプルに変換され、次にその周波数領
域の信号をブロック分割部17で低周波成分から一定個数
ずつとり出して、ベクトルを構成する。これらはベクト
ル量子化部18でベクトル単位に符号帳との照合を行なう
ことで量子化される。"Prior Art" As a coding method of this type, Japanese Patent No. 1258025 "adaptive conversion coding method of speech" is known. According to this method, as shown in FIG. 3, the audio signal input from the input terminal 11 is generally an analog audio signal sampled at a constant cycle and the sampled value is a digital signal. It is input to the linear prediction analysis unit 12 in units, subjected to linear prediction analysis, and its prediction coefficient and power are vector quantized by the vector quantization unit 13 and output as auxiliary information. The auxiliary information is inversely quantized and decoded by the local decoding unit 14, and the decoded output controls the filter coefficient of the inverse filter 15. The audio signal from the input terminal 11 is input to the inverse filter 15, and the prediction residual in the linear prediction analysis unit 12 is extracted. This prediction residual signal
In 16, the signal is converted into a frequency domain sample by discrete cosine transform, discrete Fourier transform or the like, and then a certain number of low frequency components of the frequency domain signal are taken out from the low frequency component to form a vector. These are quantized by the vector quantizer 18 collating with the codebook in vector units.
入力音声信号のスペクトル包絡が例えば第4図Aに示
す状態であり、これを4つを帯域F1〜F4に分割して、予
測残差信号についてベクトル量子化したとする。この
時、この例では低い周波数帯F1では振幅が大きく、高い
周波数帯F3,F4で振幅が小さく、このような振幅となる
ように復号器側で線形予測合成フィルタを周波数領域で
制御する必要がある。つまりこの時復号器側で線形予測
合成フィルタにおける周波数領域でのサンプル点の増幅
率が異なる。すなわち、最終的波形歪を最小とするため
に、ベクトル単位の量子化の歪を制御する必要がある。
実際には局部復号化部14で復号されたスペクトル包絡値
からベクトル量子化部18での各ベクトル(周波数領域)
に対する最適な情報配分を適応情報割当部19で分析フレ
ームごとに計算して決定する。例えば第4図Aの場合第
4図Bに示すように帯域F1に最も多くビットを割当て、
帯域F3,F4は最も少なく、F1はその中間とする。これが
適応情報割当てであり、これは波形歪を小さくするのに
非常に有効な手段である。It is assumed that the spectrum envelope of the input voice signal is in the state shown in FIG. 4A, for example, four of which are divided into bands F 1 to F 4, and vector quantization is performed on the prediction residual signal. At this time, in this example, the amplitude is large in the low frequency band F 1 and small in the high frequency bands F 3 and F 4 , and the linear prediction synthesis filter is controlled in the frequency domain on the decoder side so as to have such an amplitude. There is a need to. That is, at this time, the amplification factor of the sample point in the frequency domain in the linear prediction synthesis filter is different on the decoder side. That is, in order to minimize the final waveform distortion, it is necessary to control the quantization distortion in vector units.
Actually, each vector (frequency domain) in the vector quantizer 18 from the spectrum envelope value decoded in the local decoder 14
The adaptive information allocation unit 19 calculates and determines the optimum information allocation for each analysis frame. For example, in the case of FIG. 4A, the most bits are allocated to the band F 1 as shown in FIG. 4B,
The bands F 3 and F 4 are the smallest, and F 1 is in the middle. This is adaptive information allocation, which is a very effective means for reducing waveform distortion.
ベクトル量子化部13,18でそれぞれ量子化された符号
は復号側へ送られる。復号側では第3図に示すようにベ
クトル量子化部13よりの符号がスペクトル包絡再生部21
で復号されてスペクトル包絡を再生され、これを示す予
測係数で線形予測合成フィルタ22のフィルタ係数が制御
される。これと共に再生されたスペクトル包絡から、適
応情報割当部19でのビット割当てを算出し、これによ
り、残差スペクトル再生部23で、ベクトル量子化部18の
量子化符号を各帯域ごとに取出し、各符号を復号して予
測残差の周波数成分を得る。これを逆変換部24で時間領
域の予測残差信号に変換して線形予測合成フィルタ22へ
音源信号として供給する。そのフィルタ出力が合成音声
信号として出力端子25に得られる。The codes quantized by the vector quantizers 13 and 18 are sent to the decoding side. On the decoding side, as shown in FIG. 3, the code from the vector quantization unit 13 is the spectrum envelope reproduction unit 21.
Is decoded to regenerate the spectrum envelope, and the filter coefficient of the linear prediction synthesis filter 22 is controlled by the prediction coefficient indicating this. From the spectrum envelope reproduced together with this, the bit allocation in the adaptive information allocation unit 19 is calculated, whereby the residual spectrum reproduction unit 23 extracts the quantization code of the vector quantization unit 18 for each band, and The code is decoded to obtain the frequency component of the prediction residual. The inverse transform unit 24 transforms this into a prediction residual signal in the time domain and supplies it to the linear prediction synthesis filter 22 as a sound source signal. The filter output is obtained at the output terminal 25 as a synthesized voice signal.
ところが、この種のディジタル符号化を実用化する
際、伝送路で誤りが生じる場合がある。特に移動無線の
用途では避けられない問題である。ところが適応情報割
り当てを用いる符号化では、符号誤りに対して大きな被
害を受ける。ディジタル伝送では例えば第5図に示すよ
うに1分析フレームごとに送信される。各フレームの中
はスペクトル包絡を示す符号、つまり量子化部13からの
符号、必要に応じてパワ情報を含む補助情報31と、量子
化部18から符号、つまり波形情報32とからなる。However, when putting this type of digital coding into practical use, an error may occur in the transmission path. This is an unavoidable problem especially in mobile radio applications. However, coding using adaptive information allocation suffers great damage from code errors. In digital transmission, for example, as shown in FIG. 5, each analysis frame is transmitted. Each frame includes a code indicating a spectrum envelope, that is, a code from the quantizing unit 13, auxiliary information 31 including power information as necessary, and a code from the quantizing unit 18, that is, waveform information 32.
復号側ではこのフレームと同期をとりまず補助情報31
が復号化される。これによりスペクトル包絡を示す情報
が決定され、フレームごとに異なる波形情報32に対する
情報(ビット)割り当て方法が判明する。この割り当て
の約束に従って波形情報32が復号化される。On the decoding side, auxiliary information 31
Is decrypted. As a result, the information indicating the spectrum envelope is determined, and the method of allocating the information (bits) to the waveform information 32 that is different for each frame is known. The waveform information 32 is decoded according to the allocation promise.
ところがもし、補助情報31に符号誤りが生じると、ス
ペクトル包絡の特性が正しく伝えられないだけでなく、
波形情報32のビット割り当てに誤りが生じる。そうなる
と情報の大部分を占める波形情報32の各ベクトルに対す
る情報の境界を誤り、フレーム全体でほとんどの情報内
容が失なわれてしまう。However, if a code error occurs in the auxiliary information 31, not only the characteristics of the spectrum envelope cannot be transmitted correctly,
An error occurs in the bit allocation of the waveform information 32. If this happens, the information boundary for each vector of the waveform information 32 that occupies most of the information will be erroneous, and most of the information content will be lost in the entire frame.
このため、実用的には波形情報32を削って補助情報31
に対して十分な誤り訂正符号を付加せざるを得なかっ
た。それでも一定以上の伝送路誤りが生じると復号がで
きず、音声出力が得られないという問題があった。Therefore, practically, the waveform information 32 is deleted and the auxiliary information 31 is deleted.
However, there was no choice but to add a sufficient error correction code. However, if a transmission path error of a certain level or more occurs, decoding cannot be performed and voice output cannot be obtained.
この発明の目的は、音声を周波数領域で量子化する際
に、伝送路符号誤りに対して弱い適応情報割り当てで波
形歪を小さくするのではなく、情報量固定割り当てのま
まで波形歪を小さくする音声符号化方法を提供すること
にある。It is an object of the present invention to reduce waveform distortion by quantizing speech in the frequency domain with adaptive information allocation that is weak against channel code errors, and with fixed information amount allocation. It is to provide a speech encoding method.
「問題点を解決するための手段」 第一発明によれば、音声信号のサンプル値系列を一定
の個数ごとに1フレームとし、その1フレームごとに直
交変換してスペクトルを求め、そのスペクトルを量子化
する符号化方法において、スペクトルの包絡を平坦化
し、その平坦化されたスペクトルを、周波数領域で一定
の規則で並べかえ、その並べかえたスペクトルを複数の
ベクトルに分割し、その各ベクトルを対応するスペクト
ル包絡値で重みつき距離尺度でベクトル量子化をおこな
う。この並べかえの規則は重みすなわちスペクトル包絡
値の和がベクトルごとにほぼ等しくなるように決められ
る。そして各ベクトルに対する情報量(ビット数)は一
定に割り当てられる。適応的情報の割り当てにより波形
歪を制御する従来の方法と異なり、固定情報割り当ての
まま、ベクトル内の重みつき照合で波形歪が制御され
る。"Means for Solving Problems" According to the first invention, a sample value sequence of a voice signal is set to one frame for every fixed number, an orthogonal transform is performed for each frame to obtain a spectrum, and the spectrum is quantized. In the coding method for encoding, the envelope of the spectrum is flattened, the flattened spectrum is rearranged according to a certain rule in the frequency domain, the rearranged spectrum is divided into a plurality of vectors, and each vector is associated with the corresponding spectrum. Vector quantization is performed on a weighted distance scale with an envelope value. The rearrangement rule is determined so that the weights, that is, the sums of the spectral envelope values are almost equal for each vector. The amount of information (the number of bits) for each vector is assigned to be constant. Unlike the conventional method of controlling the waveform distortion by adaptively allocating the information, the waveform distortion is controlled by the weighted matching in the vector with the fixed information allocation.
第2発明によれば複数のインディクスよりなる波形情
報と補助情報とを入力し、波形情報の各インデックスと
対応するスペクトル値よりなる符号ベクトルを符号帳よ
りそれぞれ読み出し、1フレーム内に読み出された複数
の符号ベクトル中のスペクトル値を予め決められた手法
により周波数方向でならべかえ、そのならべかえられた
符号ベクトルのスペクトル値を逆直交変換して音源信号
を得、上記補助情報からスペクトル包絡値を再生し、こ
の再生されたスペクトル包絡値によりフイルタ係数が制
御され、上記音源信号を入力して線形予測合成して再生
音声信号を得る。According to the second aspect of the present invention, the waveform information consisting of a plurality of indexes and the auxiliary information are input, and the code vector consisting of the spectrum value corresponding to each index of the waveform information is read out from the code book and read out within one frame. The spectral values in the multiple code vectors are rearranged in the frequency direction by a predetermined method, the spectral values of the rearranged code vectors are inversely orthogonally transformed to obtain a sound source signal, and the spectrum envelope value is obtained from the auxiliary information. Is reproduced, the filter coefficient is controlled by the reproduced spectrum envelope value, and the sound source signal is input to perform linear prediction synthesis to obtain a reproduced sound signal.
[実施例] 第1図に第2発明の実施例を示し、第3図と対応する
部分に同一符号を付けてある。この発明ではスペクトル
(変換係数)が平坦化され、その平坦化されたスペクト
ル包絡を複数の帯域に分割し、それぞれについて量子化
する。スペクトルを平坦化することは時間領域で逆フィ
ルタ15を通すことで行われる。更にこの実施例では並べ
かえブロック化部41でサンプルの並べ換えにより行う。
これは複数のベクトルに対し、各ベクトルごとにサンプ
ルに対応するスペクトル包絡値の平均値ができるだけ一
定になるようにするためである。並べ換えの方法は例え
ば第2図に示すようにスペクトル包絡値(同図A)を一
定値で1〜4の番号を順次付けることを繰返し、ベクト
ル#1はその番号1の各サンプルを集め、つまり同一番
号のサンプルをそれぞれ集めてベクトル#1〜#4とす
る。このようにすると十分小さい幅で番号付けすると、
スペクトル包絡の大きい部分、小さい部分、何れの部分
も、各ベクトルに分散され、その結果、各ベクトルのス
ペクトル包絡値の平均値はぼ等しくなる。[Embodiment] FIG. 1 shows an embodiment of the second invention, and parts corresponding to those in FIG. 3 are designated by the same reference numerals. In the present invention, the spectrum (transform coefficient) is flattened, the flattened spectrum envelope is divided into a plurality of bands, and each is quantized. Flattening the spectrum is done by passing it through an inverse filter 15 in the time domain. Further, in this embodiment, the rearrangement blocking unit 41 rearranges the samples.
This is to make the average value of the spectrum envelope value corresponding to the sample for each of the plurality of vectors as constant as possible. The method of rearrangement is, for example, that the spectral envelope value (A in FIG. 2) is sequentially numbered 1 to 4 with a constant value as shown in FIG. 2, and the vector # 1 collects each sample of the number 1, that is, Samples having the same number are collected and set as vectors # 1 to # 4. If you do this with a small enough number,
Both the portion with a large spectral envelope and the portion with a small spectral envelope are distributed to each vector, and as a result, the average values of the spectral envelope values of each vector are almost equal.
次にこのようにして作った各ベクトルに対し、スペク
トル包絡値Wiの重みつきベクトル量子化を重みつきベク
トル量子化部42で行なう。つまり各ベクトル内でレベル
が大きいサンプルには大きな重みを付ける。具体的には
周波数領域の入力ベクトル に対し、次式のDを最小とする符号帳のベクトル を検索し、そのインデックスを情報(符号)として伝送
する。Next, weighted vector quantization of the spectrum envelope value Wi is performed in the weighted vector quantization unit 42 for each vector created in this way. That is, a large weight is given to a sample having a large level in each vector. Specifically, the input vector in the frequency domain , The codebook vector that minimizes D in the following equation Is searched and the index is transmitted as information (code).
mはベクトルの次元数、重みWiは第2図Cに示すよう
に同一分析フレーム内では各ベクトルに対して同一でよ
いが、重みWiはスペクトル包絡値に依存してフレームご
とに変化する。しかし、各ベクトルに対して配分する情
報量(ビット数)は第2図Dに示すようにスペクトル包
絡値と無関係に固定してよい。重みWiは局部復号化部14
より復号したスペクトル包絡を用いて決定する。 m is the dimension number of the vector, and the weight Wi may be the same for each vector in the same analysis frame as shown in FIG. 2C, but the weight Wi changes for each frame depending on the spectrum envelope value. However, the amount of information (the number of bits) allocated to each vector may be fixed regardless of the spectrum envelope value as shown in FIG. 2D. The weight Wi is the local decoding unit 14
It is determined by using the decoded spectrum envelope.
またベクトル量子化の符号帳は平均的な重みWiのつい
た尺度あるいは均一の重みで学習しておいてもよいし、
パワーを正規化したガウス雑音そのものの、あるいは雑
音から重みに合わせて選択したものでもよい。Also, the vector quantization codebook may be learned with a scale with an average weight Wi or uniform weight,
It may be Gaussian noise itself whose power is normalized, or may be selected from noise according to its weight.
第5図と同様にフレームごとの、符号帳よりのインデ
ックスを波形情報とし、これと、量子化された予測係数
及びパワーの補助情報とを伝送し、第1図に示すように
復号側では補助情報、波形情報、更に波形情報内の各帯
域に対する各情報量(ビット数)が予め固定的に知られ
ているから、これらを分離して、同じ符号帳を使ってベ
クトルを再生し、その波形情報についての復号したスペ
クトル信号を、第2図から明らかなように1フレームご
とにもとの順序に並べかえ部44で並べかえ、それを逆直
交変換して線形予測合成フィルタ22へ供給して出力音声
を得る。As in FIG. 5, the index from the codebook for each frame is used as waveform information, and this and the quantized prediction coefficient and auxiliary information of power are transmitted. As shown in FIG. Since information, waveform information, and the amount of information (bit number) for each band in the waveform information are fixedly known in advance, these are separated and a vector is reproduced using the same codebook, and the waveform As is clear from FIG. 2, the decoded spectrum signal of information is rearranged in the original order for each frame by the rearranging unit 44, inverse orthogonally transforms it, and supplies it to the linear prediction synthesis filter 22 to output speech. To get
復号側でベクトルを再生するとき、ベクトルに対する
情報の境界はスペクトル包絡に無関係に固定できる。ま
た、重みWiもインデックスが決まれば自動的に決まり重
みWiについての情報を送る必要はない。従って補助情報
が誤っても合成フィルタ22の入力信号すなわちもとの残
差信号が正しく復号される。一般に残差信号だけでもか
なり了解性があり、合成フィルタ22の特性が正しく制御
されなくとも、ある程度の品質の音声出力が得られる。When reproducing the vector at the decoding side, the boundary of information for the vector can be fixed regardless of the spectral envelope. Also, the weight Wi is automatically determined once the index is determined, and it is not necessary to send information about the weight Wi. Therefore, even if the auxiliary information is incorrect, the input signal of the synthesis filter 22, that is, the original residual signal is correctly decoded. In general, the residual signal alone is fairly intelligible, and even if the characteristics of the synthesizing filter 22 are not properly controlled, a voice output of a certain quality can be obtained.
この実施例の符号化を線形予測分析の中でピッチ予測
を行なう符号化法や特願昭59−173903の符号化に適用す
ることもできる。また逆フィルタの代りに、入力音声信
号をそのスペクトル包絡で割算してもよい。The coding of this embodiment can also be applied to the coding method for performing pitch prediction in the linear prediction analysis and the coding of Japanese Patent Application No. 59-173903. Also, instead of an inverse filter, the input audio signal may be divided by its spectral envelope.
「発明の効果」 以上説明したようにこの発明によれば重みつきベクト
ル量子化で波形歪の制御を行ない、適応情報割り当てと
同程度に全体の波形歪を小さくすることができる。同時
に固定情報割り当てであるため、補助情報とは独立に波
形情報を復号できる利点がある。このため、伝送路符号
誤りによって補助情報が正しく伝えられない場合でも、
波形情報は復号でき、出力音声の品質劣化はわずかです
む。このため、伝送路符号誤りが避けられない、移動無
線の用途等ではきわめて有効な符号化方法となる。[Advantages of the Invention] As described above, according to the present invention, waveform distortion can be controlled by weighted vector quantization, and the overall waveform distortion can be reduced to the same extent as adaptive information allocation. At the same time, since the fixed information is assigned, there is an advantage that the waveform information can be decoded independently of the auxiliary information. Therefore, even if the auxiliary information cannot be transmitted correctly due to a channel code error,
Waveform information can be decoded, and the quality of output voice is minimally degraded. Therefore, this is an extremely effective coding method for mobile radio applications in which transmission path code errors cannot be avoided.
第1図はこの発明の音声符号化方法の一例を機能的に示
すブロック図、第2図はスペクトル包絡と、並べ換え
と、そのベクトルと、ベクトル内の量子化の重みと、ベ
クトルの情報配分との例を示す図、第3図は従来の適応
情報割り当て音声符号化方法を機能的に示すブロック
図、第4図はスペクトル包絡とベクトルの情報配分との
例を示す図、第5図は従来の適応情報割当て時の1フレ
ーム内の情報配置例を示す図である。FIG. 1 is a block diagram functionally showing an example of the speech encoding method of the present invention, and FIG. 2 is a spectrum envelope, rearrangement, its vector, quantization weight in the vector, and information distribution of the vector. FIG. 3 is a block diagram functionally showing a conventional adaptive information allocating speech coding method, FIG. 4 is a diagram showing an example of spectrum envelope and vector information distribution, and FIG. FIG. 6 is a diagram showing an example of information arrangement within one frame when the adaptive information is allocated.
Claims (3)
とに1フレームとし、その1フレームごとに直交変換し
てスペクトルを求め、そのスペクトルを量子化する音声
符号化方法において、 上記スペクトルを平坦化する処理と、 上記平坦化されたスペクトルを1フレームごとに周波数
方向でスペクトルの成分を予め定められた方法で並べ替
える処理と、 その並べ替えられた平坦化スペクトルを1フレームごと
に複数のベクトルに分割する処理と、 これら複数のベクトルのそれぞれを、そのスペクトル包
絡値で重みをつけて符号帳の符号ベクトルとの距離を計
算して、最も距離が小さくなる符号ベクトルを上記符号
帳から選択する処理と、 その選択された符号ベクトルの番号とスペクトル包絡値
の補助情報とを出力する処理と、 を有する音声符号化方法。1. A speech coding method in which a sample value sequence of a speech signal is set to one frame for each fixed number, orthogonal transformation is performed for each frame to obtain a spectrum, and the spectrum is quantized. Processing, rearrangement of the flattened spectrum for each frame in a frequency direction in a predetermined manner in a predetermined manner, and a plurality of vectors for the rearranged flattened spectrum for each frame. And the distance to the code vector of the codebook is calculated by weighting each of these multiple vectors with the spectrum envelope value, and the code vector with the smallest distance is selected from the codebook. And a process for outputting the number of the selected code vector and the auxiliary information of the spectral envelope value. Encoding method.
ームの並べ替えられるべきスペクトルの各サンプルに周
期的に繰り返した番号を順次付与し、その同一番号のサ
ンプルを集めて1つのベクトルを構成して行うことを特
徴とする特性請求の範囲第1項記載の音声符号化方法。2. The rearrangement of the spectra is performed by sequentially giving a cyclically repeated number to each sample of the spectrum to be rearranged in one frame, and collecting the samples of the same number to form one vector. The speech coding method according to claim 1, wherein the speech coding method is performed as follows.
助情報とを入力し、 上記波形情報の各インデックスと対応するスペクトル値
よりなる符号ベクトルを符号帳よりそれぞれ読み出す処
理と、 1フレーム内に読み出された複数の符号ベクトル中のス
ペクトル値を予め決められた手法により周波数方向でな
らべかえる処理と、 上記ならべかえられた符号ベクトルのスペクトル値を逆
直交変換して音源信号を得る処理と、 上記補助情報からスペクトル包絡値を再生する処理と、 上記再生されたスペクトル包絡値によりフイルタ係数が
制御され、上記音源信号を入力して線形予測合成して再
生音声信号を得る処理と、 を有する音声復号化方法。3. A process of inputting waveform information consisting of a plurality of indexes and auxiliary information and reading a code vector consisting of a spectrum value corresponding to each index of the waveform information from a codebook, and reading within one frame. A process of rearranging the spectrum values in the plurality of code vectors thus obtained in the frequency direction by a predetermined method, a process of inverse orthogonal transforming the spectrum values of the reordered code vectors to obtain a sound source signal, and the above-mentioned auxiliary Speech decoding including a process of reproducing a spectrum envelope value from information, a process of controlling a filter coefficient by the reproduced spectrum envelope value, and a process of inputting the sound source signal and performing linear prediction synthesis to obtain a reproduced voice signal. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61181770A JP2523286B2 (en) | 1986-08-01 | 1986-08-01 | Speech encoding and decoding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61181770A JP2523286B2 (en) | 1986-08-01 | 1986-08-01 | Speech encoding and decoding method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6337400A JPS6337400A (en) | 1988-02-18 |
JP2523286B2 true JP2523286B2 (en) | 1996-08-07 |
Family
ID=16106579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61181770A Expired - Lifetime JP2523286B2 (en) | 1986-08-01 | 1986-08-01 | Speech encoding and decoding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2523286B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2648629C2 (en) * | 2012-11-05 | 2018-03-26 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Speech audio encoding device, speech audio decoding device, speech audio encoding method and speech audio decoding method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3463752B2 (en) | 2001-07-25 | 2003-11-05 | 三菱電機株式会社 | Acoustic encoding device, acoustic decoding device, acoustic encoding method, and acoustic decoding method |
JP3469567B2 (en) | 2001-09-03 | 2003-11-25 | 三菱電機株式会社 | Acoustic encoding device, acoustic decoding device, acoustic encoding method, and acoustic decoding method |
DE602008005250D1 (en) * | 2008-01-04 | 2011-04-14 | Dolby Sweden Ab | Audio encoder and decoder |
US9536534B2 (en) | 2011-04-20 | 2017-01-03 | Panasonic Intellectual Property Corporation Of America | Speech/audio encoding apparatus, speech/audio decoding apparatus, and methods thereof |
JP6096896B2 (en) | 2012-07-12 | 2017-03-15 | ノキア テクノロジーズ オーユー | Vector quantization |
JP6475273B2 (en) * | 2017-02-16 | 2019-02-27 | ノキア テクノロジーズ オーユー | Vector quantization |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5936280A (en) * | 1982-08-25 | 1984-02-28 | 奥野製薬工業株式会社 | Display |
JPS59183542A (en) * | 1983-04-04 | 1984-10-18 | Mitsubishi Electric Corp | Adaptive type vector quantization device |
JPS59222900A (en) * | 1983-06-02 | 1984-12-14 | 沖電気工業株式会社 | Voice recognition |
-
1986
- 1986-08-01 JP JP61181770A patent/JP2523286B2/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5936280A (en) * | 1982-08-25 | 1984-02-28 | 奥野製薬工業株式会社 | Display |
JPS59183542A (en) * | 1983-04-04 | 1984-10-18 | Mitsubishi Electric Corp | Adaptive type vector quantization device |
JPS59222900A (en) * | 1983-06-02 | 1984-12-14 | 沖電気工業株式会社 | Voice recognition |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2648629C2 (en) * | 2012-11-05 | 2018-03-26 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Speech audio encoding device, speech audio decoding device, speech audio encoding method and speech audio decoding method |
RU2678657C1 (en) * | 2012-11-05 | 2019-01-30 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Speech audio encoding device, speech audio decoding device, speech audio encoding method and speech audio decoding method |
RU2701065C1 (en) * | 2012-11-05 | 2019-09-24 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Speech-audio encoding device, speech-audio decoding device, speech-audio encoding method and speech-audio decoding method |
Also Published As
Publication number | Publication date |
---|---|
JPS6337400A (en) | 1988-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6675148B2 (en) | Lossless audio coder | |
US8547255B2 (en) | Method for encoding a symbol, method for decoding a symbol, method for transmitting a symbol from a transmitter to a receiver, encoder, decoder and system for transmitting a symbol from a transmitter to a receiver | |
DE69815650T2 (en) | speech | |
KR100368854B1 (en) | Digital signal encoders, decoders and record carriers thereof | |
KR100352352B1 (en) | Information encoding method, information decoding method and apparatus, information transmission method, and method of recording information on information recording medium | |
EP0910067A1 (en) | Audio signal coding and decoding methods and audio signal coder and decoder | |
US20020049586A1 (en) | Audio encoder, audio decoder, and broadcasting system | |
US6011496A (en) | Digital data coding/decoding method and apparatus | |
US20060212290A1 (en) | Audio coding apparatus and audio decoding apparatus | |
US6441764B1 (en) | Hybrid analog/digital signal coding | |
JPS60116000A (en) | Voice encoding system | |
JPH07336232A (en) | Method and device for coding information, method and device for decoding information and information recording medium | |
JP2007504503A (en) | Low bit rate audio encoding | |
JP2523286B2 (en) | Speech encoding and decoding method | |
JPH10285048A (en) | Digital data encoding/decoding method and its device | |
JP3353868B2 (en) | Audio signal conversion encoding method and decoding method | |
JP3255022B2 (en) | Adaptive transform coding and adaptive transform decoding | |
JPH0969781A (en) | Audio data encoding device | |
JP4191503B2 (en) | Speech musical sound signal encoding method, decoding method, encoding device, decoding device, encoding program, and decoding program | |
JPH09135176A (en) | Information coder and method, information decoder and method and information recording medium | |
US6917712B2 (en) | Encoding apparatus and decoding apparatus | |
JP3361790B2 (en) | Audio signal encoding method, audio signal decoding method, audio signal encoding / decoding device, and recording medium recording program for implementing the method | |
JP3092124B2 (en) | Method and apparatus for adaptive transform coding | |
JP3010637B2 (en) | Quantization device and quantization method | |
JP2890522B2 (en) | Method and apparatus for adaptive transform coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EXPY | Cancellation because of completion of term |