JP3628268B2 - Acoustic signal encoding method, decoding method and apparatus, program, and recording medium - Google Patents
Acoustic signal encoding method, decoding method and apparatus, program, and recording medium Download PDFInfo
- Publication number
- JP3628268B2 JP3628268B2 JP2001069894A JP2001069894A JP3628268B2 JP 3628268 B2 JP3628268 B2 JP 3628268B2 JP 2001069894 A JP2001069894 A JP 2001069894A JP 2001069894 A JP2001069894 A JP 2001069894A JP 3628268 B2 JP3628268 B2 JP 3628268B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- frame
- code
- encoding
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、入力信号と符号化による合成信号との誤差が最小となるように符号を決定する音響信号符号化・復号化において、復号化すべきフレームの符号化符号を復号化器で受信できなかった場合の出力信号のフレーム消失補償を行う音響信号符号化・復号化法及び装置並びに音響信号符号化・復号化プログラム及び記録媒体するに関する。
【0002】
【従来の技術】
従来において、音響信号を線形予測符号化により低ビットレートに符号化する方法の典型としてCELP(Code Excited Linear Prediction:符号励振線形予測)があげられる。
図1に従来のCELP符号化器の構成を示す。
入力端子11からの入力音響信号は5〜20ms程度のフレーム毎に線形予測分析手段12で線形予測分析されp次の線形予測係数αi^,i=1,・・・,pが求められ、この線形予測係数αi^は量子化手段13で量子化され、この量子化線形予測係数αiは線形予測合成フィルタ14にフィルタ係数として設定される。
【0003】
線形予測合成フィルタ14の伝達関数は以下の式で表される。
【0004】
【数1】
線形予測合成フィルタ14の励振信号が適応符号帳20に格納され、制御手段17からの符号に応じたピッチ周期に基づいて励振信号(ベクトル)が適応符号帳20から切り出され、これをフレーム長もしくはサブフレーム(フレームを分割したもの)長の分だけ繰り返し、利得付与手段18、利得制御手段22により利得が付与され、加算手段25を通じて励振信号として線形予測合成フィルタ14へ供給される。
【0005】
減算手段15で入力信号から線形予測合成フィルタ14よりの合成信号が差し引かれ、その差信号は聴覚重み付けフィルタ16で聴覚特性のマスキング特性と対応した重み付けがなされ、制御手段17によりこの重み付けされた差信号のエネルギーが最小となるように適応符号帳20からの符号(つまりピッチ周期)が探索される。
その後、制御手段17により固定符号帳21から励振ベクトルが順次取り出され、利得付与手段18、利得制御手段23で利得が付与された後、先に選択された適応符号帳20からの励振ベクトルに加算手段25により加算されて励振信号として線形予測合成フィルタ14へ供給され、先の場合と同様で聴覚重み付けフィルタ16よりの差信号のエネルギーが最小となる励振ベクトルが選択され、これに対応付けられる符号帳符号が決定される。
【0006】
最後に、これら選択された適応符号帳20及び固定符号帳21からの各励振ベクトルに対して、それぞれ利得付与手段18で付与する各利得が最適となるように、前述と同様に聴覚重み付けフィルタ16の出力信号のエネルギーが最小となる利得が選択され、この利得に対応付けられる利得符号が決定される。
また、生成された励振信号は過去の励振信号をバッファリングしている適応符号帳20に格納される。
各々得られた符号、すなわち、ピッチ符号(適応符号帳符号)、固定符号帳符号、ピッチ符号利得、固定符号利得及び線形予測係数はフレーム単位にまとめられ復号化器に送信される。
【0007】
図2にこのCELP符号化に対する復号化器の構成を示す。
入力端子31からの入力符号中の線形予測係数符号が復号化手段32で復号化され、線形予測合成フィルタ33にフィルタ係数として設定される。
入力符号中のピッチ符号により適応符号帳40から励振ベクトルが切り出され、また固定符号帳符号により固定符号帳41から励振ベクトルが選択され、これら符号帳40,41からの各励振ベクトルは利得付与手段36、利得制御手段42,43で入力符号中の利得(ピッチ符号利得、固定符号利得)符号に応じてそれぞれ利得が付与された後、加算手段45で加算されて線形予測合成フィルタ33に励振信号として与えられる。また、励振信号は過去の励振信号をバッファリングしている適応符号帳40に格納される。
【0008】
線形予測合成フィルタ33からの合成信号はポストフィルタ38で、量子化雑音が聴覚特性を考慮して小さくなるように処理され、出力端子39より音響信号が出力される。
復号化器において入力端子31からの入力符号がフレーム単位で受信されなかった場合(以降フレーム消失)、従来技術では復号化器において、過去の合成信号を分析もしくはすでに受信されている過去の情報から線形予測係数、ピッチ周期等を推定し、これらの情報から擬似的に線形予測合成フィルタ33を構成し、これに入力されるべき励振信号を求め、擬似出力信号を合成する。この手法では過去の受信情報のみから出力信号を補償するため、フレーム間でピッチ周期が変動(有声無声の変動も含む)した場合、ピッチ間隔の不一致による励振信号の不連続性が生じる。過去の励振信号を符号化器の適応符号帳20及び復号化器の適応符号帳40に格納し励振ベクトルとして用いるCELPにおいては、消失フレーム以降の受信が回復したフレームにおいても符号化器の適応符号帳20と復号化器の適応符号帳40から出力される励振ベクトルが一致しないため、複数フレームにわたって波形の不連続性が持続し、聴感上大きな劣化をもたらす。
【0009】
【発明が解決しようとする課題】
この発明では従来のCELP等の音響信号符号化・復号化において、フレーム消失の際に品質劣化が顕著となるピッチ周期が大きく変動する区間(有声無声の変動も含む)において、その劣化を抑えるフレーム消失補償手段を提供することを課題とする。
【0010】
【課題を解決するための手段】
上記課題を解決するために、この発明は、符号化において、符号化対象の入力信号を含む現在のフレームに対して次フレーム以降の入力信号をバッファに格納し、このバッファに格納されている信号を分析して得られた周期性情報を現在のフレームで決定された符号化符号と併せて送信する。復号化において、復号化対象となるフレームの復号化符号が受信できなかった場合、直前フレームの符号化符号と、併せて受信されている周期性情報を用いて、出力信号を補償する。
【0011】
【発明の実施の形態】
(実施例1)
図3に本発明の実施例1の構成を示す。
この実施例は図1に示した従来の符号化器に、符号化対象の入力信号を含む現在のフレームに対して次フレーム以降の入力信号をバッファに格納し、このバッファに格納されている信号を分析して得られた周期性情報を現在のフレームで決定された符号化符号と併せて送信する手段を加えたものである。
【0012】
入力端子11からの入力信号を、現在の符号化すべき対象のフレーム分以外に、次フレーム以降の符号化対象となるべき未来の入力信号をバッファ35に格納しておく。バッファの長さは、フレームよりも短い長さから数フレーム分まであってもかまわない。上述の図1に示した従来の符号化方式で現在の符号化すべき対象のフレームについて各符号化符号が決定された後、出力信号を合成するために線形予測合成フィルタ14の入力として用いられた励振信号は符号帳37に格納される。符号帳37に格納された信号系列に対して、制御手段46からの符号に応じた位置から、バッファ35の長さ分信号を切り出す。この際、切り出した信号がバッファ35の長さに足りなければバッファ35の長さになるまで切り出した信号を繰り返す。得られた信号系列を励振信号として線形予測合成フィルタ44に入力し、量子化手段13からの現在のフレームの線形予測係数あるいはこの線形予測係数から次フレーム線形予測係数推定器50により得られた次のフレームの線形予測係数を用いて線形予測合成フィルタ44を構成し、合成信号を得る。減算手段45で、バッファ35に格納されている信号と得られた合成信号との差信号を求め、その差信号は聴覚重み付けフィルタ47で聴覚特性とマスキング特性と対応した重み付けがなされ、制御手段46によりこの重み付けされた差信号のエネルギーが最小となるように符号帳37から切り出し位置を探索し(バッファ35内の信号のピッチ周期に相当する)、この切り出し位置に対応付けられる符号が決定される。
【0013】
符号帳37からの切り出し位置に対応付けられた符号を用いることにより少ない情報量により品質劣化の少ない復号を行うことができる。
この符号を周期性情報として、現在の符号化対象のフレームの符号化符号と併せて復号化器に送信する。
線形予測合成フィルタ44は図1中の合成フィルタと同様に前述した式で表され、線形予測分析手段12と量子化手段13で得られた量子化線形予測係数αi、もしくはこの係数αiをLSP(Line Spectrum Pair)や偏自己相関係数に変換したものから次フレーム線形予測係数推定器50で次フレーム以降のフィルタ係数を推定して設定する。また、バッファ35の信号を線形予測分析し、量子化した係数から設定してもよいが、量子化係数に対応する符号も併せて復号化器に送信する必要がある。
【0014】
また、現フレームの線形予測係数を用いて線形予測合成フィルタを設定することもできる。この場合には、次フレーム線形予測係数推定器は不要である。
(実施例2)
図4に本発明の実施例2の構成を示す。
この実施例は図3に示した実施例1と比較して、符号帳37から切り出された信号系列に対して、利得付与手段48、利得制御手段49で利得が付与され、励振信号として線形予測合成フィルタ44に入力される点が異なる。したがって、付与された利得に対応付けられる符号と、符号帳37からの切り出し位置に対応付けられる符号とを併せて周期性情報とし、現在の符号化対象のフレームの符号化符号に併せて復号化器に送信する。
(実施例3)
図5に本発明の実施例3の構成を示す。
【0015】
これは実施例1もしくは実施例2に示した符号化器に対応する復号化器として、図2に示した復号化器に復号化対象となるフレームの復号化符号が受信できなかった場合、直前フレームの符号化符号と併せて受信されている現在のフレームの周期性情報を用いて、出力信号を補償するフレーム消失補償手段を加えたものである。
入力端子31からフレーム単位で与えられるべき入力符号が復号化器で受信されなかったとフレーム消失検出手段51で判定された場合、切換スイッチ55を線形予測合成フィルタ54側へ切換え、直前のフレームの符号化符号と併せてすでに受信されている周期性情報、つまり、直前のフレームまでに励振信号として線形予測合成フィルタ33に入力された信号系列を格納した符号帳52から、入力符号を受信できなかった現在のフレームの励振信号を切り出す位置に対応する符号もしくはこの位置符号とこの位置に対応する利得符号を取り出す。符号帳52から位置符号の示す切り出し位置よりフレーム長さ分の信号系列を切り出し、もしくは切り出した信号系列に利得付与手段53から利得符号に対応付けられる利得を利得制御手段56で付与し、励振信号とする。この際、切り出した信号系列がフレーム長さより短い場合、この信号系列をフレーム長さ分繰り返し励振信号とする。得られた励振信号と次フレーム線形予測係数推定器58で推定された現在のフレームの線形予測係数、あるいは直前のフレームの線形予測係数により線形予測合成フィルタ54を用いて合成信号を得る。
【0016】
線形予測合成フィルタ54は図2中の線形予測合成フィルタ33と同様に復号化手段32で得られた量子化線形予測係数αi、もしくはこの係数αiをLSP(Line Spestrum Pair)や偏自己相関係数に変換したものから次フレーム以降のフィルタ係数として次フレーム線形予測係数推定器58で推定して設定する。また、これらとは別に線形予測合成フィルタ係数が符号化され、周期性情報と併せて受信されている場合、復号化手段32で復号化して線形予測合成フィルタ係数として用いる。 合成フィルタ係数を設定する際、上記いずれの手法を用いるにしても、符号化器において周期性情報を決定する際に用いられた合成フィルタ係数と等しい係数を用いるのが望ましい。また、生成された励振信号を過去の励振信号をバッファリングしている適応符号帳40と符号帳52に格納する。
(実施例4)
本発明の実施例4を説明する。
【0017】
実施例4は、実施例1,2に示した符号化器において、バッファ35内の信号特性を分析した特性情報(周期的・非周期的情報)を周期性情報に含める。
実施例1もしくは実施例2では、現在の符号化対象フレームの次フレーム以降の未来の入力信号の周期性情報として、過去の励振信号を格納した符号帳から励振信号を切り出す位置符号、もしくはこれと利得符号の組み合わせを用いるが、さらにバッファ35内の信号特性を分析し、この特性情報も周期性情報に含めて送信する。具体的には、この実施例における信号特性の分析には、バッファ35内信号系列のパワー||s||2、実施例1もしくは実施例2で符号帳の切り出し位置情報を決定した際に計算された聴覚重み付け誤差||Wd||2(聴覚重み付けフィルタ47の出力)を用いる。パワー||s||2が音声が無いもしくは非常に小さいと判定される閾値p0よりも大きい場合に、▲1▼線形予測合成フィルタ44で合成された信号とバッファ35の信号との信号対重み付け誤差比||Wd||2/||s||2が、バッファ35信号が周期性が高いと判定される閾値ehighよりも大きいか、▲2▼もしくは直前フレームでの同様の処理において||Wd||2/||s||2がehighよりも大きく、かつ現在のフレームでも||Wd||2/||s||2が閾値elowよりも大きければ、バッファ35の信号は周期的と判定し、符号帳の切り出し位置符号は制御手段43で求められた値とする。また、前述した条件を満たさない場合はバッファ35の信号は非周期的と判定し、符号帳37とは別の符号帳(白色雑音系列)の中に切り出し位置に対応付けられるあらかじめ非周期的であることを表す一つもしくは複数の符号を用意し、この非周期的であることを示す符号を選択して送信する。
(実施例5)
図6に本発明の実施例5の構成を示す。
【0018】
これは実施例4に示した符号化器に対応する復号化器である。
入力端子31からフレーム単位で与えられるべき入力符号が復号化器で受信されなかったとフレーム消失検出手段51で判定された場合、切換スイッチ55を線形予測合成フィルタ54側へ切り換え、直前のフレームの符号化符号と併せてすでに受信されている周期性情報、つまり符号帳52から励振信号を切り出す位置に対応する符号もしくはこの位置符号とこの位置に対応する利得符号を取り出す。切り出し位置符号が実際には符号帳52から切り出す位置に対応する符号ではなく、符号化器で送信された非周期性を表す符号を検出した場合、すなわち、これを非周期性符号検出手段62で検出し、切換スイッチ63を白色雑音系列符号帳61側に切換えて、符号帳52から切り出す代わりに、白色雑音系列もしくは非周期性を示す信号系を格納した白色雑音系列符号帳61から励振信号を取り出し、利得制御手段56で利得を付与し、線形予測合成フィルタ54に入力して合成信号を合成する。白色雑音系列符号帳61は1または複数の白色雑音符号系列を備え、複数の白色雑音符号系列を用いる場合には符号化器でこの選択信号を送信する。
【0019】
また、この発明の符号化器、復号化器をCPUやメモリ等を有するコンピュータと、アクセス主体となるユーザが利用する利用者端末と、記録媒体から構成することができる。
記録媒体は、CD−ROM、磁気ディスク、半導体メモリ等の機械読み取り可能な記録媒体であって、ここに記録された音響信号符号化・復号化プログラムは、コンピュータに読み取られ、コンピュータの動作を制御し、コンピュータ上に前述した各構成要素、すなわち、線形予測分析手段、量子化手段、線形予測フィルタ等を実現する。
【0020】
図7に、復号化器が1フレーム分の符号化符号を受信できなかった場合に、本手法と従来手法でフレーム補償を行った音声波形を示す。従来手法では復号化器において過去に受信された符号化符号もしくはその符号化符号から合成された合成信号を分析して得られた情報のみを用いて、励振信号を推定するため、音声のピッチ周期がフレーム間で急激に変動し、そのフレームの符号化符号が欠落した場合においては周期性変動が正しく表現されず、また、それ以降フレーム情報が正しく受信されても適応符号帳内の信号系列が符号化器と復号化器で一致しないため周期の不連続性が持続する。これに対して、本手法は、あらかじめ符号化器において、現在の符号化すべきフレームの符号化符号と併せて、次フレーム以降の入力信号の周期性情報を分析して符号化し、復号化器に送信することで、ピッチ周期が変動するフレーム情報が欠落しても周期変動を復元することができ、また、符号化器と復号化器で起こる適応符号帳の不一致も従来手法よりも急速に改善される。
【0021】
【発明の効果】
以上説明したようにこの発明によれば、従来のCELP符号化・復号化方式において、フレーム消失補償を行うことによりフレーム単位での符号化符号の欠落による品質劣化を抑えることができる。
【図面の簡単な説明】
【図1】従来のCELP符号化器の構成を示すブロック図。
【図2】従来のCELP復号化器の構成を示すブロック図。
【図3】実施例1の符号化器の構成を示すブロック図。
【図4】実施例2の符号化器の構成を示すブロック図。
【図5】実施例3の復号化器の構成を示すブロック図。
【図6】実施例5の復号化器の構成を示すブロック図。
【図7】従来手法と本発明手法による音声波形補償を比較するための図。
【符号の説明】
11,31 入力端子
12 線形予測分析手段
13 量子化手段
14,33,44,54 線形予測合成フィルタ
15,45 減算手段
16,47 聴覚重み付けフィルタ
17,46 制御手段
18,36,48,53 利得付与手段
20,40 適応符号帳
21,41 固定符号帳
22,23,42,43,49,56 利得制御手段
25,45 加算手段
32 復号化手段
35 バッファ
37 符号帳
38 ポストフィルタ
39 出力端子
50,58 次フレーム線形予測係数推定器
55,63 切換スイッチ
61 白色雑音系列符号帳
62 非周期性符号検出手段[0001]
BACKGROUND OF THE INVENTION
In the present invention, the encoding code of the frame to be decoded cannot be received by the decoder in the acoustic signal encoding / decoding in which the code is determined so as to minimize the error between the input signal and the synthesized signal by encoding. The present invention relates to an audio signal encoding / decoding method and apparatus, an audio signal encoding / decoding program, and a recording medium that perform frame erasure compensation of an output signal in the case of recording.
[0002]
[Prior art]
Conventionally, CELP (Code Excited Linear Prediction) is a typical method for encoding an acoustic signal at a low bit rate by linear predictive coding.
FIG. 1 shows the configuration of a conventional CELP encoder.
The input acoustic signal from the input terminal 11 is subjected to linear prediction analysis by the linear prediction analysis means 12 for each frame of about 5 to 20 ms, and p-order linear prediction coefficients α i ^, i = 1,. The linear prediction coefficient α i ^ is quantized by the quantizing means 13, and the quantized linear prediction coefficient α i is set as a filter coefficient in the linear
[0003]
The transfer function of the linear
[0004]
[Expression 1]
The excitation signal of the linear
[0005]
The subtracting means 15 subtracts the synthesized signal from the linear
Thereafter, the excitation vector is sequentially taken out from the
[0006]
Finally, the
Further, the generated excitation signal is stored in the
Each obtained code, that is, a pitch code (adaptive codebook code), a fixed codebook code, a pitch code gain, a fixed code gain, and a linear prediction coefficient are collected in units of frames and transmitted to a decoder.
[0007]
FIG. 2 shows the configuration of a decoder for this CELP coding.
The linear prediction coefficient code in the input code from the input terminal 31 is decoded by the decoding means 32 and set in the linear
An excitation vector is extracted from the
[0008]
The synthesized signal from the linear
When the decoder does not receive the input code from the input terminal 31 in units of frames (hereinafter referred to as frame erasure), in the prior art, the decoder analyzes the past synthesized signal or uses the past information already received. A linear prediction coefficient, a pitch period, and the like are estimated, and a linear
[0009]
[Problems to be solved by the invention]
In the present invention, in a conventional audio signal encoding / decoding such as CELP, a frame that suppresses deterioration in a section (including voiced and unvoiced fluctuations) in which the pitch period greatly changes when the frame is lost. It is an object of the present invention to provide erasure compensation means.
[0010]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, in the present invention, in encoding, an input signal after the next frame is stored in a buffer with respect to a current frame including an input signal to be encoded, and a signal stored in the buffer is stored. The periodicity information obtained by analyzing is transmitted together with the encoded code determined in the current frame. In decoding, when the decoding code of the frame to be decoded cannot be received, the output signal is compensated using the periodicity information received together with the encoding code of the immediately preceding frame.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
(Example 1)
FIG. 3 shows the configuration of the first embodiment of the present invention.
In this embodiment, the conventional encoder shown in FIG. 1 stores an input signal from the next frame on in the buffer with respect to the current frame including the input signal to be encoded, and the signal stored in the buffer. Is added with means for transmitting the periodicity information obtained from the analysis together with the encoded code determined in the current frame.
[0012]
An input signal from the input terminal 11 is stored in the
[0013]
By using the code associated with the cut-out position from the
This code is transmitted as periodicity information to the decoder together with the encoding code of the current encoding target frame.
The linear
[0014]
A linear prediction synthesis filter can also be set using the linear prediction coefficient of the current frame. In this case, the next frame linear prediction coefficient estimator is unnecessary.
(Example 2)
FIG. 4 shows the configuration of the second embodiment of the present invention.
Compared with the first embodiment shown in FIG. 3, this embodiment gives a gain to the signal sequence cut out from the
(Example 3)
FIG. 5 shows the configuration of the third embodiment of the present invention.
[0015]
This is a decoder corresponding to the encoder shown in the first or second embodiment, and when the decoding code of the frame to be decoded cannot be received by the decoder shown in FIG. Frame erasure compensation means for compensating the output signal using the periodicity information of the current frame received together with the frame coding code is added.
When the frame erasure detection means 51 determines that the input code to be given from the input terminal 31 in units of frames has not been received by the decoder, the changeover switch 55 is switched to the linear
[0016]
As with the linear
(Example 4)
[0017]
In the fourth embodiment, in the encoders shown in the first and second embodiments, characteristic information (periodic / non-periodic information) obtained by analyzing signal characteristics in the
In the first embodiment or the second embodiment, as the periodicity information of the future input signal after the next frame of the current encoding target frame, a position code for extracting the excitation signal from the code book storing the past excitation signal, or A combination of gain codes is used, but the signal characteristics in the
(Example 5)
FIG. 6 shows the configuration of the fifth embodiment of the present invention.
[0018]
This is a decoder corresponding to the encoder shown in the fourth embodiment.
When the frame erasure detection means 51 determines that the input code to be given from the input terminal 31 in units of frames has not been received by the decoder, the changeover switch 55 is switched to the linear
[0019]
Further, the encoder and decoder of the present invention can be composed of a computer having a CPU, a memory, etc., a user terminal used by a user who is an access subject, and a recording medium.
The recording medium is a machine-readable recording medium such as a CD-ROM, a magnetic disk, or a semiconductor memory, and the acoustic signal encoding / decoding program recorded therein is read by the computer to control the operation of the computer. Then, the above-described components, that is, linear prediction analysis means, quantization means, linear prediction filter, and the like are realized on the computer.
[0020]
FIG. 7 shows a speech waveform in which frame compensation is performed by the present method and the conventional method when the decoder cannot receive an encoded code for one frame. In the conventional method, since the excitation signal is estimated using only the information obtained by analyzing the encoded code received in the past or the synthesized signal synthesized from the encoded code in the decoder, the pitch period of the speech However, when the coding code of the frame is lost, the periodicity fluctuation is not expressed correctly, and the signal sequence in the adaptive codebook is not changed even if the frame information is received correctly thereafter. Since the encoder and decoder do not match, the discontinuity of the cycle continues. On the other hand, in this method, in the encoder, the periodicity information of the input signal after the next frame is analyzed and encoded together with the encoding code of the current frame to be encoded, By transmitting, even if frame information with varying pitch period is lost, the period fluctuation can be restored, and the mismatch of the adaptive codebook that occurs in the encoder and decoder is improved more quickly than the conventional method. Is done.
[0021]
【The invention's effect】
As described above, according to the present invention, in the conventional CELP encoding / decoding method, it is possible to suppress quality deterioration due to missing encoded codes in units of frames by performing frame erasure compensation.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a conventional CELP encoder.
FIG. 2 is a block diagram showing a configuration of a conventional CELP decoder.
FIG. 3 is a block diagram illustrating a configuration of an encoder according to the first embodiment.
FIG. 4 is a block diagram illustrating a configuration of an encoder according to a second embodiment.
FIG. 5 is a block diagram illustrating a configuration of a decoder according to a third embodiment.
FIG. 6 is a block diagram illustrating a configuration of a decoder according to a fifth embodiment.
FIG. 7 is a diagram for comparing speech waveform compensation according to the conventional technique and the technique of the present invention.
[Explanation of symbols]
11, 31
Claims (14)
符号化すべき対象である現在のフレームの符号化符号を決定した後、
次フレーム以降の符号化対象となるべき音響信号をバッファに格納し、このバッファに格納されている信号系列を分析してピッチ周期情報を含む周期性情報を生成し、
現在のフレームで決定された符号化符号と次フレームのピッチ周期情報を含む周期性情報を併せて送信することを特徴とする音響信号符号化方法。The spectral envelope information for each frame of the input acoustic signal is analyzed based on the linear prediction coefficient by linear prediction analysis of the acoustic signal including the frame before and after it, or the past synthesized signal, and is constructed based on the obtained linear prediction coefficient. A coding code for configuring the synthesis filter and the drive excitation signal so as to minimize an auditory weighting error between the synthesized signal obtained by inputting the drive excitation signal to the synthesis filter and the input acoustic signal. In the acoustic signal encoding method for determining
After determining the encoding code of the current frame that is to be encoded,
The acoustic signal to be encoded after the next frame is stored in a buffer, the signal sequence stored in this buffer is analyzed to generate periodicity information including pitch period information,
An acoustic signal encoding method comprising: transmitting an encoding code determined in a current frame together with periodicity information including pitch period information of a next frame.
復号化すべき現在のフレームにおける符号化符号の消失が検出された場合、直前のフレームの符号化符号と、直前のフレームの符号化符号と併せて受信された現在のフレームのピッチ周期情報を含む周期性情報に基づいて合成フィルタを用いて現在のフレームの出力信号を生成して補償することを特徴とする音響信号復号化方法。Received together with a synthesis filter of the immediately preceding frame generated by encoding the acoustic signal for each frame and an encoding code for configuring the drive excitation signal, and periodicity information including the pitch period information of the current frame,
When the loss of the encoding code in the current frame to be decoded is detected, the period including the encoding code of the immediately preceding frame and the pitch period information of the current frame received together with the encoding code of the immediately preceding frame An acoustic signal decoding method, comprising: generating and compensating an output signal of a current frame using a synthesis filter based on sex information.
前記周期性情報は、
符号化すべき対象である現在のフレームの符号化符号を決定した後、現在のフレームで用いられたものも含めて過去に駆動励振信号として用いられた信号系列を格納した符号帳から駆動励振信号を切り出し、合成フィルタに入力して合成された合成信号と、次フレーム以降の音声信号としてバッファに格納された信号系列との聴覚重み付け誤差が最小になるように、符号帳から駆動励振信号を切り出す位置を決定した情報であることを特徴とする音響信号符号化方法。The acoustic signal encoding method according to claim 1,
The periodicity information is
After determining the encoding code of the current frame that is to be encoded, the drive excitation signal is obtained from the codebook that stores the signal sequence used as the drive excitation signal in the past, including the one used in the current frame. The position where the drive excitation signal is cut out from the codebook so that the perceptual weighting error between the cut-out and synthesized signal input to the synthesis filter and the signal sequence stored in the buffer as the audio signal of the next frame and later is minimized. An audio signal encoding method, wherein the information is determined information.
復号化すべき現在のフレームにおける符号化符号の消失が検出された場合、直前のフレームの符号化符号と、直前のフレームの符号化符号と併せて受信された現在のフレームの符号帳から切り出す駆動励振信号を構成するための情報を含む周期性情報により直前のフレームで用いられたものも含めて過去の駆動励振信号として用いられた信号系列を格納した符号帳から切り出した駆動励振信号に基づいて合成フィルタを用いて現在のフレームの出力信号を生成して補償することを特徴とする音響信号復号化方法。The encoding code for constructing the driving filter and the synthesis filter of the immediately preceding frame generated by encoding the acoustic signal for each frame, and the information for constructing the driving excitation signal cut out from the code book of the current frame Receive periodic information including
When the loss of the encoded code in the current frame to be decoded is detected, the drive excitation is cut out from the code book of the current frame received together with the encoded code of the immediately preceding frame and the encoded code of the immediately preceding frame. Synthesis based on the drive excitation signal cut out from the codebook storing the signal sequence used as the past drive excitation signal including the one used in the previous frame by the periodicity information including the information for composing the signal An acoustic signal decoding method characterized by generating and compensating an output signal of a current frame using a filter.
前記周期性情報は、
符号化すべき対象である現在のフレームの符号化符号を決定した後、現在のフレームで用いられたものも含めて過去に駆動励振信号として用いられた信号系列を格納した符号帳から駆動励振信号を切り出して利得を付与し、合成フィルタに入力して合成された合成信号と、次フレーム以降の入力信号としてバッファに格納された信号系列との聴覚重み付け誤差が最小になるように決定した符号帳から駆動励振信号を切り出す位置とこれに対応する利得情報であることを特徴とする音響信号符号化方法。The acoustic signal encoding method according to claim 1,
The periodicity information is
After determining the encoding code of the current frame that is to be encoded, the drive excitation signal is obtained from the codebook that stores the signal sequence used as the drive excitation signal in the past, including the one used in the current frame. From a codebook that has been cut out and gained, and determined so that the perceptual weighting error between the synthesized signal input to the synthesis filter and synthesized and the signal sequence stored in the buffer as the input signal after the next frame is minimized A method for encoding an acoustic signal, comprising: a position where a drive excitation signal is cut out, and gain information corresponding to the position.
復号化すべき現在のフレームにおける符号化符号の消失が検出された場合、直前のフレームの符号化符号と、直前のフレームの符号化符号と併せて受信された現在のフレームの符号帳の駆動励振信号を切り出す位置とこれに対応する利得符号を含む周期性情報に基づいて合成フィルタを用いて現在のフレームの出力信号を生成して補償することを特徴とする音響信号復号化方法。Corresponding to the position where the drive excitation signal of the code book of the current frame is encoded, the encoding filter for composing the drive excitation signal and the synthesis filter of the immediately preceding frame generated by encoding the acoustic signal for each frame Receiving periodicity information including a gain code;
When the loss of the encoded code in the current frame to be decoded is detected, the code excitation of the current frame received together with the encoded code of the immediately preceding frame and the encoded code of the immediately preceding frame A method of decoding an acoustic signal, comprising: generating and compensating an output signal of a current frame using a synthesis filter based on periodicity information including a position where a frame is cut out and a gain code corresponding thereto.
符号化すべき対象である現在のフレームの符号化符号を決定した後、現在のフレームで用いられたものも含めて過去の駆動励振信号を格納した符号帳から切り出された駆動励振信号を合成フィルタに入力して合成された合成信号と次フレーム以降の入力信号としてバッファに格納された信号系列との聴覚重み付け誤差を分析し、次フレーム以降の入力信号の周期的あるいは非周期的特性を判定して入力信号特性情報を生成し、この入力信号特性情報を含めた周期性情報と符号化すべき対象である現在のフレームの符号化符号と併せて送信することを特徴とする音響信号符号化方法。The acoustic signal encoding method according to claim 3 or 5,
After determining the encoding code of the current frame to be encoded, the drive excitation signal cut out from the code book storing the past drive excitation signal including the one used in the current frame is used as a synthesis filter. Analyze auditory weighting error between the synthesized signal input and synthesized and the signal sequence stored in the buffer as the input signal after the next frame, and determine the periodic or aperiodic characteristics of the input signal after the next frame An acoustic signal encoding method characterized by generating input signal characteristic information and transmitting it together with periodicity information including the input signal characteristic information and an encoding code of a current frame to be encoded.
復号化すべき現在のフレームにおける符号化符号の消失が検出された場合、直前のフレームの符号化符号と、受信できなかった復号化すべき現在のフレームの駆動励振信号として、直前のフレームの符号化符号と併せて受信した現在のフレームの入力信号特性の周期的あるいは非周期的情報を含む周期性情報を用いて過去の駆動励振信号を格納した符号帳から切り出された信号系列もしくは白色雑音系列を選択して切り換え、合成フィルタを用いて現在のフレームの出力信号を生成して補償することを特徴とする音響信号復号化方法。Periodicity including periodic or aperiodic information of the input signal characteristics of the next frame, and the synthesis code of the immediately preceding frame generated by encoding the acoustic signal for each frame and the driving excitation signal Receive information together,
If loss of the encoding code in the current frame to be decoded is detected, the encoding code of the immediately preceding frame and the encoding code of the immediately preceding frame as the drive excitation signal of the current frame to be decoded that could not be received Select a signal sequence or white noise sequence extracted from a codebook that stores past drive excitation signals using periodicity information including periodic or aperiodic information of the input signal characteristics of the current frame received together with A method for decoding an acoustic signal, comprising: switching, generating an output signal of the current frame using a synthesis filter, and compensating.
前記制御手段で符号化すべき対象である現在のフレームで符号化符号を決定した後、
次フレーム以降の符号化対象となるべき音響信号を格納するバッファと、
このバッファに格納されている信号を分析してピッチ周期情報を含む周期性情報を生成する周期性情報生成手段と、
現在のフレームの符号化符号と次フレームのピッチ周期情報を含む周期性情報を併せて送信する手段を備えたことを特徴とする音響信号符号化装置。Input linear excitation analysis means to obtain linear prediction coefficient by linear prediction analysis of the acoustic signal including the frame envelope before and after the spectrum envelope information for each frame of the input acoustic signal or past synthesized signal, and drive excitation signal A synthesis filter configured based on a linear prediction coefficient that outputs a synthesized signal and a code for configuring the synthesis filter and the drive excitation signal so as to minimize an auditory weighting error between the input speech signal and the synthesized signal. In an acoustic signal encoding device comprising a control means for determining an encoded code and a means for outputting the encoded code,
After determining the encoding code in the current frame that is the object to be encoded by the control means,
A buffer for storing an acoustic signal to be encoded after the next frame;
Periodicity information generating means for analyzing the signal stored in the buffer and generating periodicity information including pitch period information;
An acoustic signal encoding apparatus comprising means for transmitting both the encoding code of the current frame and the periodicity information including the pitch period information of the next frame.
復号化すべき現在のフレームの符号化符号が消失したことを検出するフレーム消失検出手段と、
フレーム消失を検出した場合、直前のフレームの符号化符号と、直前のフレームの符号化符号と併せて受信した現在のフレームのピッチ周期情報を含む周期性情報により合成フィルタを用いて現在のフレームの出力信号を生成するフレーム消失補償手段を備えたことを特徴とする音響信号復号化装置。Receives both the synthesis filter of the immediately preceding frame generated by encoding the acoustic signal for each frame and the encoding code for constructing the drive excitation signal and the periodicity information including the pitch period information after the current frame. ,
Frame loss detection means for detecting that the coding code of the current frame to be decoded has been lost;
When a frame loss is detected, the synthesis filter is used to determine the current frame's encoding code based on the periodicity information including the pitch period information of the current frame received together with the encoding code of the previous frame and the encoding code of the previous frame. An acoustic signal decoding apparatus comprising frame erasure compensation means for generating an output signal.
求められた線形予測係数に基づき合成フィルタを構成する処理と、
合成フィルタに駆動励振信号を入力して合成された合成信号と、上記入力した音声信号との聴覚重み付け誤差を最小化するように、前記合成フィルタと駆動励振信号を構成するための符号化符号を決定する処理と、
符号化すべき対象である現在のフレームの符号化符号を決定した後、次フレーム以降の符号化対象となるべき音響信号をバッファに格納し、このバッファに格納されている信号を分析してピッチ周期情報を含む周期性情報を生成する処理と、
現在のフレームで決定された符号化符号と次フレームのピッチ周期情報を含む周期性情報を併せて送信する処理をコンピュータに実行させる音響信号符号化プログラム。Processing for obtaining a linear prediction coefficient by performing a linear prediction analysis on an acoustic signal including a frame before or after the spectrum envelope information of the input acoustic signal for each frame, or a past synthesized signal;
A process of configuring a synthesis filter based on the obtained linear prediction coefficient;
An encoding code for configuring the synthesis filter and the drive excitation signal is minimized so as to minimize an auditory weighting error between the synthesized signal obtained by inputting the drive excitation signal to the synthesis filter and the input audio signal. Process to determine,
After determining the encoding code of the current frame that is to be encoded, the acoustic signal that is to be encoded after the next frame is stored in a buffer, and the signal stored in this buffer is analyzed to analyze the pitch period. Processing to generate periodicity information including information;
An acoustic signal encoding program for causing a computer to execute a process of transmitting together an encoding code determined in a current frame and periodicity information including pitch period information of a next frame.
求められた線形予測係数に基づき合成フィルタを構成する処理と、
合成フィルタに駆動励振信号を入力して合成された合成信号と、上記入力した音声信号との聴覚重み付け誤差を最小化するように、前記合成フィルタと駆動励振信号を構成するための符号化符号を決定する処理と、
符号化すべき対象である現在のフレームの符号化符号を決定した後、次フレーム以降の符号化対象となるべき音響信号をバッファに格納し、このバッファに格納されている信号を分析してピッチ周期情報を含む周期性情報を生成する処理と、
現在のフレームで決定された符号化符号と次フレームのピッチ周期情報を含む周期性情報を併せて送信する処理をコンピュータに実行させる音響信号符号化プログラムを記録した記録媒体。Processing for obtaining a linear prediction coefficient by performing a linear prediction analysis on an acoustic signal including a frame before or after the spectrum envelope information of the input acoustic signal for each frame, or a past synthesized signal;
A process of configuring a synthesis filter based on the obtained linear prediction coefficient;
An encoding code for configuring the synthesis filter and the drive excitation signal is minimized so as to minimize an auditory weighting error between the synthesized signal obtained by inputting the drive excitation signal to the synthesis filter and the input audio signal. Process to determine,
After determining the encoding code of the current frame that is to be encoded, the acoustic signal that is to be encoded after the next frame is stored in a buffer, and the signal stored in this buffer is analyzed to analyze the pitch period. Processing to generate periodicity information including information;
A recording medium on which is recorded an acoustic signal encoding program that causes a computer to execute a process of transmitting the encoded code determined in the current frame and the periodicity information including the pitch period information of the next frame.
復号化すべき現在のフレームの符号化符号の消失を検出する処理と、
現在のフレームの符号化符号の消失が検出された場合、直前のフレームの符号化符号と、直前のフレームの符号化符号と併せて受信された現在のフレームのピッチ情報を含む周期性情報により合成フィルタを用いて現在のフレームの出力信号を生成して補償する処理をコンピュータに実行させる音響信号復号化プログラム。A process for receiving the synthesis filter of the immediately preceding frame generated by encoding the acoustic signal for each frame and the encoding code for constructing the drive excitation signal and the periodicity information including the pitch information of the current frame; ,
Detecting the loss of the encoded code of the current frame to be decoded;
When the loss of the encoding code of the current frame is detected, it is synthesized by the encoding information of the immediately preceding frame and the periodicity information including the pitch information of the current frame received together with the encoding code of the immediately preceding frame. An acoustic signal decoding program for causing a computer to execute processing for generating and compensating an output signal of a current frame using a filter.
復号化すべき現在のフレームの符号化符号の消失を検出する処理と、
現在のフレームの符号化符号の消失が検出された場合、直前のフレームの符号化符号と、直前のフレームの符号化符号と併せて受信された現在のフレームのピッチ情報を含む周期性情報により合成フィルタを用いて現在のフレームの出力信号を生成して補償する処理をコンピュータに実行させる音響信号復号化プログラムを記録した記録媒体。A process for receiving the synthesis filter of the immediately preceding frame generated by encoding the acoustic signal for each frame and the encoding code for constructing the drive excitation signal and the periodicity information including the pitch information of the current frame; ,
Detecting the loss of the encoded code of the current frame to be decoded;
When the loss of the encoding code of the current frame is detected, it is synthesized by the encoding information of the immediately preceding frame and the periodicity information including the pitch information of the current frame received together with the encoding code of the immediately preceding frame. A recording medium on which an audio signal decoding program for causing a computer to execute a process of generating and compensating an output signal of a current frame using a filter is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001069894A JP3628268B2 (en) | 2001-03-13 | 2001-03-13 | Acoustic signal encoding method, decoding method and apparatus, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001069894A JP3628268B2 (en) | 2001-03-13 | 2001-03-13 | Acoustic signal encoding method, decoding method and apparatus, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002268696A JP2002268696A (en) | 2002-09-20 |
JP3628268B2 true JP3628268B2 (en) | 2005-03-09 |
Family
ID=18927856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001069894A Expired - Fee Related JP3628268B2 (en) | 2001-03-13 | 2001-03-13 | Acoustic signal encoding method, decoding method and apparatus, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3628268B2 (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4065383B2 (en) * | 2002-01-08 | 2008-03-26 | 松下電器産業株式会社 | Audio signal transmitting apparatus, audio signal receiving apparatus, and audio signal transmission system |
JP3722366B2 (en) * | 2002-02-22 | 2005-11-30 | 日本電信電話株式会社 | Packet configuration method and apparatus, packet configuration program, packet decomposition method and apparatus, and packet decomposition program |
JP4287637B2 (en) * | 2002-10-17 | 2009-07-01 | パナソニック株式会社 | Speech coding apparatus, speech coding method, and program |
AU2003302114A1 (en) * | 2002-11-21 | 2004-06-15 | Nippon Telegraph And Telephone Corporation | Digital signal processing method, processor thereof, program thereof, and recording medium containing the program |
DE60327371D1 (en) * | 2003-01-30 | 2009-06-04 | Fujitsu Ltd | DEVICE AND METHOD FOR HIDING THE DISAPPEARANCE OF AUDIOPAKETS, RECEIVER AND AUDIO COMMUNICATION SYSTEM |
JP4365653B2 (en) * | 2003-09-17 | 2009-11-18 | パナソニック株式会社 | Audio signal transmission apparatus, audio signal transmission system, and audio signal transmission method |
US7711554B2 (en) | 2004-05-11 | 2010-05-04 | Nippon Telegraph And Telephone Corporation | Sound packet transmitting method, sound packet transmitting apparatus, sound packet transmitting program, and recording medium in which that program has been recorded |
JP4445328B2 (en) | 2004-05-24 | 2010-04-07 | パナソニック株式会社 | Voice / musical sound decoding apparatus and voice / musical sound decoding method |
JP2007150737A (en) * | 2005-11-28 | 2007-06-14 | Sony Corp | Sound-signal noise reducing device and method therefor |
EP1990800B1 (en) | 2006-03-17 | 2016-11-16 | Panasonic Intellectual Property Management Co., Ltd. | Scalable encoding device and scalable encoding method |
EP2040251B1 (en) | 2006-07-12 | 2019-10-09 | III Holdings 12, LLC | Audio decoding device and audio encoding device |
JPWO2008007698A1 (en) * | 2006-07-12 | 2009-12-10 | パナソニック株式会社 | Erasure frame compensation method, speech coding apparatus, and speech decoding apparatus |
US7877253B2 (en) * | 2006-10-06 | 2011-01-25 | Qualcomm Incorporated | Systems, methods, and apparatus for frame erasure recovery |
CN105374362B (en) * | 2010-01-08 | 2019-05-10 | 日本电信电话株式会社 | Coding method, coding/decoding method, code device, decoding apparatus and recording medium |
US8660195B2 (en) * | 2010-08-10 | 2014-02-25 | Qualcomm Incorporated | Using quantized prediction memory during fast recovery coding |
RU2559709C2 (en) * | 2011-02-16 | 2015-08-10 | Ниппон Телеграф Энд Телефон Корпорейшн | Encoding method, decoding method, encoder, decoder, programme and recording medium |
KR102110853B1 (en) * | 2012-11-15 | 2020-05-14 | 가부시키가이샤 엔.티.티.도코모 | Audio coding device, audio coding method, audio coding program, audio decoding device, audio decoding method, and audio decoding program |
-
2001
- 2001-03-13 JP JP2001069894A patent/JP3628268B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002268696A (en) | 2002-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3346765B2 (en) | Audio decoding method and audio decoding device | |
JP3628268B2 (en) | Acoustic signal encoding method, decoding method and apparatus, program, and recording medium | |
JP3180762B2 (en) | Audio encoding device and audio decoding device | |
JP3180786B2 (en) | Audio encoding method and audio encoding device | |
KR100561018B1 (en) | Sound encoding apparatus and method, and sound decoding apparatus and method | |
JP3063668B2 (en) | Voice encoding device and decoding device | |
JPH0944195A (en) | Voice encoding device | |
JP2000112498A (en) | Audio coding method | |
JP3531780B2 (en) | Voice encoding method and decoding method | |
JP2538450B2 (en) | Speech excitation signal encoding / decoding method | |
JP2613503B2 (en) | Speech excitation signal encoding / decoding method | |
JPH06282298A (en) | Voice coding method | |
JP3319396B2 (en) | Speech encoder and speech encoder / decoder | |
JPH113098A (en) | Method and device of encoding speech | |
JP3249144B2 (en) | Audio coding device | |
JPH0830299A (en) | Voice coder | |
JP3089967B2 (en) | Audio coding device | |
JP2000298500A (en) | Voice encoding method | |
JP2001142499A (en) | Speech encoding device and speech decoding device | |
JP3296411B2 (en) | Voice encoding method and decoding method | |
JP3047761B2 (en) | Audio coding device | |
JPH08185199A (en) | Voice coding device | |
JP3192051B2 (en) | Audio coding device | |
JP2853170B2 (en) | Audio encoding / decoding system | |
JP3166697B2 (en) | Audio encoding / decoding device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041207 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071217 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081217 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091217 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101217 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101217 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111217 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111217 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121217 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121217 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131217 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |