JP2002544551A - 遷移音声フレームのマルチパルス補間的符号化 - Google Patents
遷移音声フレームのマルチパルス補間的符号化Info
- Publication number
- JP2002544551A JP2002544551A JP2000617441A JP2000617441A JP2002544551A JP 2002544551 A JP2002544551 A JP 2002544551A JP 2000617441 A JP2000617441 A JP 2000617441A JP 2000617441 A JP2000617441 A JP 2000617441A JP 2002544551 A JP2002544551 A JP 2002544551A
- Authority
- JP
- Japan
- Prior art keywords
- samples
- speech
- frame
- subset
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007704 transition Effects 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 claims description 44
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 238000013139 quantization Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000005311 autocorrelation function Methods 0.000 description 1
- 150000001768 cations Chemical class 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Analogue/Digital Conversion (AREA)
Abstract
Description
ルチパルス補間的な符号化に関する。
線電話用途において、広く行われている。したがって、このことにより、再構築
された音声(speech)の認識される品質を維持しつつ、チャネル上で送信可能な
情報の最少量を決定することに関心が向けられている。音声が単なるサンプル化
及ディジタル化により送信される場合、一秒間当たり64キロビット程度でのデ
ータレートが要求され、これにより従来のアナログ電話の音声品質を実現する。
しかしながら、音声分析、及びこれに続く適切な符号化、送信、受信器での再統
合を介して、データレートを大きく低減することが可能となる。
により音声を圧縮する技術を用いた機器は音声符号器と呼ばれる。音声符号器は
、入力された音声信号を時間のブロック、又は分析フレームに分割する。音声符
号器は、典型的には、符号器と復号器とを具備する。符号器は、入力された音声
フレームを分析し、ある関連したパラメータを抽出する。次いで、このパラメー
タを、例えば1組のビットまたは2値データのパケット等の2値により代表され
たものに量子化する。データパケットは、通信チャネル上で受信器又は復号器に
送信される。復号器は、データパケットを処理し、それらを逆量子化して、パラ
メータを生成し、逆量子化されたパラメータを用いて音声のフレームを再合成す
る。
よりディジタル化された音声信号を低ビットレートの信号へと圧縮する。このデ
ィジタル圧縮は、入力された音声フレームを、1組のパラメータにより表現する
こと、及び量子化によりパラメータを1組のビットによって表現することにより
行われる。入力音声フレームがビット数Niであって、音声符号器により生成さ
れたデータパケットがビット数Noである場合、この音声符号器によりなされる
圧縮率は、Cr=Ni/Noとなる。目指すべきことは、目的の圧縮率を実現し
つつ、復号された音声の品質を高く保つことである。音声符号器の性能は、(1
)音声モデル、または上記した分析及び合成処理を組み合わせた動作がどれほど
優れているか、(2)フレームごとに目標とするビットレートNoビットにおい
て、パラメータの量子化処理がどれほど優れているかに依存する。したがって、
音声モデルの目標とするところは、各フレームに対し少ない組のパラメータを用
いて、音声信号の本質、または目的の音声の質をつかむことである。
号器は、高い時間分解能処理を用いて時間ごとに音声の小さな区分(典型的には
ミリ秒(ms)のサブフレーム)を符号化することにより、時間領域音声波形を
捕獲する。各サブフレームに対し、従来から知られている種々の検索アルゴリズ
ムを用いて、コードブックのスペースからの高精度な代表となるものを見つける
。または、音声符号器は、周波数領域符号器として実施することができる。この
周波数領域符号器は、1組のパラメータ(分析)を用いて入力音声フレームの短
期間の音声スペクトルを捕獲し、対応する合成処理を用いてこのスペクトルパラ
メータから音声の波形を再構築する。パラメータ量子化器は、公知の量子化技術
にしたがって、符号ベクトルの保存された代表物によりパラメータを表すことに
より、パラメータを保存する。この量子化技術は、A.Gersho & R.M. Gray, Vect
or Quantization and Signal Compression (1992)に記載されている。
ssing of Speech Signals 396-453 (1978) に記載されたCode Excited Linear P
redictive (CELP) 符号器であって、この符号器は以下、参照することにより完
全に包含される。CELP符号器において、音声信号中の短期間の相関、または
冗長さが、線形予測(LP)分析を用いて除去される。この線形予測分析は、短
期間のフォルマントフィルタの係数を見つけることである。入力音声フレームに
短期間予測フィルタを適用することにより、LP残余信号が生成される。このL
P残余信号は、さらにモデル化され、長期間予測フィルタパラメータ及び後続の
推計学のコードブックを用いて量子化される。したがって、CELP符号化によ
り、時間領域音声波形を符号化する作業は、別個のLP短期間フィルタの定数を
符号化する作業とLPの残余を符号化する作業とに分割される。時間領域符号化
は、固定されたレート(すなわち、各フレームに対し同じビット数、N0を用い
て)、または可変レート(フレームの内容が異なるタイプに対し異なるビットレ
ートが用いられる)により実行することができる。可変レート符号器は、コーデ
ックパラメータを、目標とする品質を得るのに十分なレベルまで符号化するのに
必要なビット数のみを用いるよう試みる。可変レートCELP符号器の例は、US
. Patent NO. 5,414,796 に記載され、この出願は、本発明の譲受人に譲渡され
、以下参照することにより完全に包含される。
なビット数N0に依存することにより、時間領域音声波形の正確さを保つことが
できる。このような符号器は、典型的には、比較的大きなフレーム(例えば8k
bps以上)ごとに、ビット数N0にて与えられた、非常に高い音声品質をもた
らす。しかしながら、低ビットレート(4kbps以下)においては、時間領域
符号器は、高品質及びしっかりとした性能を保てない。これは、利用可能なビッ
ト数が少ないためである。低ビットレートにおいては、制限されたコードブック
スペースは、従来の時間領域符号器の波形を合致させる機能を削除する。この合
致機能は、より高いレートの商用形態において用いられ、成功を収めている。
作する高品質な音声符号器を開発するための研究に対する関心及び商業的な需要
が高い。この応用分野には、無線電話、衛星通信、インターネット電話、種々の
マルチメディア及び音声ストリーム用途、音声メール、他の音声保存システムが
含まれる。このような力は、パケットが失われる状況下でのしっかりした性能に
対する要求または高容量に対する需要である。種々の近時の音声符号化の標準化
の取り組みは、低レート音声アルゴリズムの研究開発を推進する他の力である。
低レート音声符号器により、使用可能な帯域でより多くのチャネルまたは使用者
が生みだされ、適当なチャネル符号器の付加層と接続された低レート音声符号器
は、符号器の仕様の全体的なビット予算に合い、チャネル誤り条件下でのしっか
りとした性能をもたらす。
ード符号化である。多モード符号化技術の例は、Amitava Das et al., Multimod
e and Variable-Rate Coding of Speech, in Speech Coding and Synthesis c
h. 7 (W.B. Kleijn & K.K. Paliwal eds., 1995)に記載されている。従来の多モ
ード符号器は、入力音声フレームの異なるタイプに対して異なるモード、又は符
号化−復号アルゴリズムを適用する。各モード、又は符号化−復号処理は、例え
ば有声音声(voiced speech)、無声音声(unvoiced speech)、遷移音声(例え
ば有声音声と無声音声との間)、背景雑音(非音声(non-speech))等の音声区
分のあるタイプを最適に表すように、最も効率的な方法でカスタマイズされてい
る。外部、開ループモード決定メカニズムは、入力音声フレームを検査し、フレ
ームにどのモードを適用すべきかの決定を行う。この開ループモード決定は、典
型的には、入力フレームから適当数のパラメータを抽出し、ある時間及びスペク
トル特性についてパラメータを評価し、この評価に基づいてモード決定の基礎を
作成する。したがって、出力音声の正確な状態、すなわち、音声品質または他の
性能の測定値の点で出力音声がどれほど入力音声と近いか、を予め知ること無し
にモードの決定が行われる。
。このことは、フレームごとのビット数が制限された低ビットレート音声符号器
に対して、難しいことが従来から証明されている。したがって、低ビットレート
で符号化された遷移音声フレームを正確に表す音声符号器が要求される。
器にむけられたものである。したがって、本発明の第1の態様において、遷移音
声フレームを符号化する方法は、適切に、遷移音声サンプルの第1フレームを前
記第1フレームのサンプルの第1部分集合により表す工程と、遷移音声サンプル
の第2の、先に受信したフレームから抽出したサンプルの第2部分集合と前記第
1部分集合とを補間して、前記第1部分集合に含まれない第1フレームの他のサ
ンプルを合成する工程と、を含む。
は、適切に、遷移音声サンプルの第1フレームを前記第1フレームのサンプルの
第1部分集合により表すための手段と、遷移音声サンプルの第2の、先に受信し
たフレームから抽出したサンプルの第2部分集合と前記第1部分集合とを補間し
て、前記第1部分集合に含まれない第1フレームの他のサンプルを合成するため
の手段と、を含む。
器は、適切に、遷移音声サンプルの第1フレームを前記第1フレームのサンプル
の第1部分集合により表すように構成された抽出器と、前記抽出器と接続され、
遷移音声サンプルの第2の、先に受信したフレームから抽出したサンプルの第2
部分集合と前記第1部分集合を補間して、前記第1部分集合に含まれない第1フ
レームの他のサンプルを合成する補間器と、を含む。
を受信し、送信媒体(メディア)12または通信チャネル12上で第1復号器1
4に送信するためにサンプルs(n)を符号化する。復号器14は、符号化され
た音声のサンプルを復号し、出力音声信号sSYNTH(n)を合成する。反対方向
に送信するために、第2符号器16は、ディジタル化された音声サンプルs(n
)を符号化する。この音声サンプルs(n)は、通信チャネル18上で送信され
る。第2符号器20は、符号化された音声サンプルを受信、符号化し、合成され
た出力音声信号sSYNTH(n)を生成する。
のディジタル化及び量子化は、例えばパルス符号変調(PCM)、圧伸μローま
たはAロー等を含む公知の種々の方法に沿って行われたものである。従来から知
られているように、音声サンプルs(n)は、入力データのフレームへと整理さ
れる。各フレームは、所定数のディジタル化された音声サンプルs(n)から成
る。実施形態例の1つでは、サンプルレート8kHzが用いられ、各20msフ
レームは、160のサンプルからなる。上記した実施形態では、データ送信レー
トは、フレーム−フレームに則れば、適宜13.2kbps(完全レート)から
6.2kbps(半分レート)、2.6kbps(4分の1レート)、1kbp
s(8分の1レート)とすることができる。データ送信レートが可変であること
は有利である。これは、比較的少ない音声情報を含むフレームに対してより低い
ビットレートを選択して適用できるからである。当業者により理解されるように
、他のサンプルレート、フレームサイズ、データ送信レートを用いることもでき
る。
デックが構成される。同様に、第2符号器16と第1復号器14とにより第2音
声符号器が構成される。ディジタル信号処理器(DSP)、特定用途向け回路(
ASIC)、独立ゲートロジック、ファームウェア、または、従来からのいかな
るプログラム可能ソフトウェアモジュール及びマイクロプロセッサによって、音
声符号器を実現できることは、当業者には理解される。ソフトウェアモジュール
は、公知のRAMメモリ、フラッシュメモリ、レジスタ、または他のいかなる形
態の書き込み可能な保存メディア上に設けることができる。また、いかなる従来
からのプロセッサ、コントローラ、及び状態機器をマイクロプセッサとして代用
できる。音声符号器用に特別に設計されたASICの例は、U.S. Patent No. 5,
727,123に記載され、この出願は本願の譲受人に譲渡され、ここに参照すること
により完全に包含される。また、1994年2月16日に出願されたVOCODER AS
ICと題するU.S. Application Serial No. 08/197,417に記載され、この出願は、
本願の譲受人に譲渡され、ここに参照することにより完全に包含される。
ル102、ピッチ概算モジュール104、LP分析モジュール106、LP分析
フィルタ108、LP量子化モジュール110、及び残余量子化モジュール11
2を含む。入力音声フレームs(n)はモード決定モジュール102、ピッチ概
算モジュール104、LP分析モジュール106、及びLP分析フィルタ108
に供給される。モード決定モジュール102は、モードインデックスIM、及び
各入力音声フレームs(n)の周期性に基づいたモードMを生成する。周期性に
したがって音声フレームを分類する種々の方法は、METHOD AND APPARATUS FOR P
ERFORMING REDUCED RATE VARIABLE RATE VOCODINGと題して1997年3月11
日に出願されたU.S. Application Serial No. 08/815,354に記載される。この出
願は、本願の譲受人に譲渡され、ここに参照することにより完全に包含される。
このような方法は、電気通信工業会工業暫定基準(Telecommunication Industry
association Industry Interim Standards)TIA/EIA IS-127 及び TIA/EIA IS-
733に包含される。
施は公知であり、上述したU.S. Patent No. 5,414,796 及びL.B. Rabiner & R.W
. Schafer, Digital Processing of Speech Signals 396-453 (1978) に記載さ
れている。
器は、送信のための音声サンプルの処理において一連のステップを踏む。ステッ
プ300において、音声符号器は、後続のフレーム内の音声信号のディジタルサ
ンプルを受信する。あるフレームを受信する際に、音声符号器はステップ302
に移行する。ステップ302におてい、音声符号器は、フレームのエネルギーを
検知する。このエネルギーは、フレームの音声活動の測定値である。音声の検出
は、ディジタル化された音声サンプルの振幅を2乗したものを加算し、その結果
としてのエネルギーを閾値と比較することにより行われる。実施形態の1つにお
いては、閾値は背景雑音の変化レベルに基づいて適合している。可変閾値音声活
動検知器は、上述したU.S. Patent No. 5,414,796に記載されている。無声音声
の幾つかは、非常に低エネルギーのサンプルであるため、誤って背景雑音として
符号化される恐れがある。これが発生することを防止するため、低エネルギーサ
ンプルのスペクトルティルトを用いて、無声音声を背景雑音から区別しても良い
。このような方法は、上述したU.S. Patent No. 5,414,796に記載されている。
。ステップ304において、音声符号器は、検出されたフレームエネルギーが音
声情報を含むフレームとして分類するのに十分か否かを決定する。検出されたフ
レームのエネルギーが所定の閾値レベル以下である場合、音声符号器はステップ
306に移行する。ステップ306において、符号器はフレームを背景雑音(す
なわち非音声、または無音)として符号化する。実施形態の1つにおいては、背
景雑音フレームは1/8レート、または1kbpsにて符号化される。ステップ
304において、検出されたフレームのエネルギーが所定の閾レベルと同じかそ
れ以上である場合、そのフレームは音声として分類され、音声符号器はステップ
308に移行する。
る。すなわち、音声符号器はフレームの周期性を調べる。周期性を決定する方法
であって、種々の公知のものには、例えばゼロ交差を用いたり、通常化された自
動相関機能(NACF)が含まれる。特に、ゼロ交差及びNACFを用いて周期
性を検出することは、METHOD AND APPARATUS FOR PERFORMING REDUCED RATE VAR
IABLE RATE VOCODING と題して1997年3月11日に出願されたU.S. Applica
tion Serial No. 08/815,354に記載されている。この出願は、本願の譲受人に譲
渡され、ここに参照することにより完全に包含される。加えて、上記方法を用い
て無声音声から有声音声を区別することは、電気通信工業会暫定基準TIA/EIA IS
-127及びTIA/EIA IS-733に包含される。ステップ308において、フレームが非
声音声であると決定された場合、音声符号器はステップ310に移行する。ステ
ップ310において、音声符号器は、フレームを無声音声として符号化する。実
施形態の1つでは、無声音声フレームは、4分の1レート又は2.6kbpsで
符号化される。ステップ308において、フレームが無声音声であると決定され
なかった場合、音声符号器はステップ312に移行する。
が遷移音声であるかを決定する。この方法は、公知であり、上述したU.S. Appli
cation Serial No. 08/815/354に記載されている。フレームが遷移音声であると
決定した場合、音声符号器はステップ314に移行する。ステップ314におい
て、フレームは遷移音声(すなわち、無声音声から有声音声への遷移)として符
号化される。実施形態の1つでは、遷移音声フレームは、図6を参照して後述す
るマルチパルス補間的に符号化法に従って符号化される。
した場合、音声符号器は、ステップ316に移行する。ステップ316において
、音声符号器はフレームを有声音声として符号化する。実施形態では有声音声の
フレームは最大のレート又は13.2kbpsで符号化される。
対応するLP残余のいずれかを符号化できることは理解される。雑音、無声,遷
移,有声音声の波形特性は、図5(A)中の時間に関する関数としてみることが
できる。雑音、無声音声,遷移,及び有声LP残余は、図5(B)のグラフにお
いて、時間に関する関数としてみることができる。
て、図6のフローチャート中に示される方法ステップに従って遷移音声フレーム
を符号化する。ステップ400において、音声符号器は現在のKサンプルLP音
声残余フレームS[n]のピッチ期間Mを概算する。ここで、n=1,2,……
,Kであり、フレームS[n]の直接の将来の近傍である。実施形態の1つにお
いては、LP音声残余フレームS[n]は、160のサンプル(すなわち、K=
160)からなる。ピッチ周期Mは、フレーム内において繰り返される基本の周
期である。次に、音声符号器はステップ402に移行する。ステップ402にお
いて、音声符号器は、現在の残余フレームの最後のMサンプルを有するピッチ基
本型Xを抽出する。ピッチ基本形Xは、適宜、フレームS[n]の最後のピッチ
周期(M個のサンプル)とすることができる。または、ピッチ基本形Xは、フレ
ームS[n]の任意のピッチ周期Mとしてもよい。音声符号器は、次いでステッ
プ404に移行する。
Piから振幅Qi及び符号Siを有するN個の重要サンプル又はパルスを選択す
る。ここで、i=1,2,……,Nである。したがって、N個の「最良」のサン
プルがMサンプルピッチ基本形Xから選択され、M−N個の選択されていないサ
ンプルは、ピッチ基本形X内に残される。次に、音声符号器は、ステップ406
に移行する。ステップ406において、音声符号器は、Bpビットにより位置を
符号化する。次に、音声符号器は、ステップ408に移行する。ステップ408
において、音声符号器は、Bsビットいよりパルスの符号を符号化する。次に、
音声符号器は、ステップ410に移行する。ステップ410において、音声符号
器は、Baビットによりパルスの振幅を符号化する。N個のパルスの振幅Qiの
量子化された値はZiにより参照される。ここでi=1,2,……,Kである。
次に、音声符号器は、ステップ412に移行する。
では、パルスを抽出するステップは、全てのM個のパルスを絶対(すなわち符号
なし)振幅に従って並べ、最も高いN個のパルス(すなわち、最大の絶対振幅を
有するN個のパルス)を選択することにより行われる。他の実施形態では、パル
スを抽出するステップは、続く記載に従って、知覚的な重要さの見地からN個の
最良のパルスを選択する。
ら音声領域に変換してもよい。逆に、音声信号を、逆のフィルタによって音声領
域からLP残余領域に変換してもよい。実施形態に従って、図7に示すように、
ピッチ基本形Xは、H(z)として参照される第1LP合成フィルタ500に入
力される。第1LP合成フィルタ500は、S(n)として参照されるピッチ基
本形Xの知覚的に重みづけされた音声領域版を生成する。形状コードブック50
2は、形状ベクトル値を生成し、このベクトル値は乗算器504に供給される。
利得コードブック506は、利得ベクトル値を生成し、このベクトルは乗算器5
04に供給される。乗算器504は、形状ベクトル値を利得ベクトル値により乗
算し、形状−利得生成値を生成する。形状−利得生成値は、第1加算器508に
供給される。数がN個のパルス(後述するように数Nはサンプル数であり、この
サンプル数は、ピッチ基本形Xとモデル基本形e_mod[n]との間の形状−
利得誤りEを最小とする)もまた第1加算器508に供給される。第1加算器5
08は、N個のパルスを形状−利得生成値に加算して、モデル基本形e_mod
[n]を生成する。e_mod[n]は、H(z)として参照される第2LP合
成フィルタ510に供給される。この第2LP合成フィルタ510は、Se(n
)として参照されるモデル基本形e_mod[n]の知覚的に重みづけされた音
声領域版を生成する。音声領域値S(n)及びSe(n)は、第2加算器512
に供給される。この第2加算器512は、Se(n)からS(n)を減算して、
2乗加算計算機514に差の値を供給する。この2乗加算計算機514は、差の
値の2乗値を計算して、エネルギー又は誤り値Eを生成する。
図示せぬ)、または知覚的に重みづけされたLP合成フィルタH(z/α)、現
遷移音声フレームに対するインパルス応答は、H(n)として参照される。ピッ
チ基本形Xのモデルはe_mod[n]として参照される。知覚的に重みづけさ
れた音声領域誤りEは、以下の式に従って定義される。
e(n),S(n)は、それぞれピッチ基本形e_mod[n],Xの知覚的に
重みづけされた音声領域版を示す。記載した他の実施形態では、後述するように
ピッチ基本形XのM個のサンプルからN個の最良のサンプルが選択されて、e_
mod[n]を形成する。MCNの可能な組合せのうちのj番目の組として示さ
れるN個のサンプルが、適宜選択され、j=1,2,3,……,MCNに属する
全てのjに対して誤りEjが最小となるようにe_modj(n)が生成される
。ここで、Ejは,以下の数式に従って定義される。
14において、ピッチ基本形Xの残存するM−Nのサンプルは、他の実施形態と
関連した2つの可能な方法の1つに従って表現される。1つの実施形態において
は、ピッチ基本形Xの残存するM−N個のサンプルは、M−N個のサンプルをゼ
ロ値で置換することにより選択される。他の実施形態においては、ピッチ基本形
Xの残存するM−N個のサンプルは、M−N個のサンプルをコードブックを用い
たRsビットの形状ベクトル及びコードブックを用いたRgビットの利得、と置
換することにより選択される。したがって、利得gと形状ベクトルHは、M−N
個のサンプルを表す。利得g及び形状ベクトルHは、歪Ejkを最小化すること
によってコードブックから選択された構成値gj及びHkを有する。歪Ejkは
、以下の等式により与えられる。
、j番目の利得コードワードgj及びk番目の符号語Hkにより表されたM−N
個のサンプルと、により形成される。この選択は、Ejkの最小値をもたらす組
合せ{j,k}を選択することによって、複合的に最適とされて方法により行わ
れる。次いで、音声符号器は、ステップ416に移行する。
されたピッチ基本形Yは、元のピッチ基本形Xをモデルとしている。すなわち、
Nパルスを位置Piに戻し、振幅QiをSi*Ziにて置換し、残存するM−N
もサンプルをゼロ(1つの実施形態)または選択された、上記した(他の実施形
態)利得−形状の代表g*Hからのサンプルのいずれかにより置換する。符号化
されたピッチ基本形Yは、再構築又は合成されたNの「最良」のサンプルに、再
構築又は合成された残存するM−N個のサンプルを加えたものに対応する。次に
、音声符号器はステップ418に移行する。
れた残余フレームからMサンプル「過去基本形」Wを抽出する。過去基本形Wは
、復号された過去の残余フレームから最後のM個のサンプルを除くことによって
抽出される。または、過去基本形Wは、過去フレームのM個のサンプルの他の組
から構築することができる。供給されるピッチ基本形Xは、現在フレームのM個
のサンプルの組に対応して除かれたものである。次に、音声符号器は、ステップ
420に移行する。
在のフレームの全てのKサンプルを再構築する。この再構築は、従来の任意の補
間方法により、適宜実現される。この方法は、最後のM個のサンプルは再構築さ
れたピッチ基本形Yにより形成され、最初のK−M個のサンプルは、過去基本形
W及び復号された現在のピッチ基本形Yを補間することにより形成される。1つ
の実施形態では、以下のステップに従ってこの補間を実施することができる。
ッチ期間が得られる。配置A*は、現在のピッチ基本形Yの回転として得られる
。このピッチ基本形Yは、回転されたYをWと最大に相互関連したものに対応す
る。可能な各配列Aにおける相互関連C[A]、−この配列Aは0からM−1ま
での値又は範囲0からM−1までの部分集合であるが−、この相互関連相互関連
C[A]は、以下の等式に従って形成される。
る。
α又はnα+A*に等しい)に対するサンプルが、n’の分数値において望まれ
る正確さに基づいた従来の補間方法を用いて計算される。上記等式における丸め
動作及びモジューロ動作(シンボル%にて示される)は公知である。時間に関し
た遷移音声の原型、符合化されていない残余、符号化/量子化された残余、及び
復号/再構築された音声は、それぞれ図8(A)〜(D)に示されている。
従って計算して良い。従って、符号化された遷移残余フレームは、上記したよう
に計算される。次に、前フレームに対して、知覚信号−雑音率(PSNR)が計
算される。PSNRが所定の閾値を越える場合、CELP等の高レート、高精度
の波形符号化方法が用いられてフレームが符号化される。このような技術は、CL
OSED-LOOP MULTIMODE MIXED-DOMAIN LINEAR PREDICTION (MDLP) SPEECH CODERと
題して1999年2月26日に出願されたU.S. Application Serial No. 09/259
,151に記載される。この出願は、本願の譲受人に譲渡されている。可能な場合に
上記した低ビットレート音声の符号化方法を用いることにより、また低ビットレ
ート音声の符号化方法により目標とする歪の計測値をもたらさない場合に高レー
トのCELP音声符号化方法を代用することにより、低平均符号率を用いつつ、
遷移音声フレームを比較的高音質(使用された閾値又は歪計測値により決定され
る)で符号化できる。
開示された。当業者は、ここに開示された実施形態と関連して種々の示された論
理ブロック及びアルゴリズムのステップを、ディジタルプロセッサ(DSP)、
特定用途向け回路(ASIC)、独立ゲートまたはトランジスタロジック、例え
ばレジスタ及びFIFO等の独立ハードウェア部品、一連のファームウェア指示
を実行するプロセッサ、または他のいかなる従来からのプログラム可能ソフトウ
ェアモジュール及びプロセッサ、を用いて実行、実施できることを理解するであ
ろう。プロセッサは、適宜マイクロプロセッサとすることができ、しかし、代わ
りとして、プロセッサは従来からのいかなるプロセッサ、コントローラ、マイク
ロコントローラ、又はステートマシンとすることができる。ソフトウェアモジュ
ールは、RAMメモリ、フラッシュメモリ、レジスタ、又は公知の他のいかなる
形態の書き込み可能保存メディア上に設けることができる。当業者は、さらに、
上記を通じて参照したデータ、指示、命令、情報、信号、ビット、シンボル及び
チップは、適宜、電圧、電流、電磁波、磁場または磁気素粒子、光場または光粒
子、またはこれらの組合せにより表されることを、理解するであろう。
思想及び範疇から逸脱することなく多くの改良を開示された実施形態に適用でき
ることは、当業者にとって明らかであろう。したがって、請求の範囲に従ったも
のを除いて、本発明は限定されない。
。
域信号を逆に濾波してLP残余領域信号を生成するシステムを示すブロック図。
復号/再構築された音声、対時間をそれぞれ示すグラフ。
Claims (24)
- 【請求項1】 遷移音声サンプルの第1フレームを前記第1フレームのサンプルの第1部分集
合により表す工程と、 遷移音声サンプルの第2の、先に受信したフレームから抽出したサンプルの第
2部分集合と前記第1部分集合とを補間して、前記第1部分集合に含まれない第
1フレームの他のサンプルを合成する工程と、 を具備する遷移音声フレームを符号化する方法。 - 【請求項2】 前記表す工程を実行後に前記サンプルの前記第1部分集合を送信する工程と、 前記補間する工程の実行前に前記サンプルの前記第1部分集合を受信する工程
と、 をさらに具備する請求項1の方法。 - 【請求項3】 前記サンプルの前記第1部分集合を単純化する工程をさらに具備する請求項1
の方法。 - 【請求項4】 前記単純化する工程は、 前記サンプルの前記第1部分集合から知覚的に重大なサンプルを選択する工程
と、 選択されていない全てのサンプルにゼロ値を割り当てる工程と、 を具備する請求項3の方法。 - 【請求項5】 前記単純化する工程は、 前記サンプルの前記第1部分集合から絶対値の比較的高い振幅を有するサンプ
ルを選択する工程と、 選択されていない全てのサンプルにゼロ値を割り当てる工程と、 をさらに具備する請求項3の方法。 - 【請求項6】 前記知覚的に重大なサンプルは、遷移音声サンプルの第1フレームと遷移音声
サンプルの合成された第1フレームとの間の知覚的に重みづけされた音声領域誤
りを最小とするよう選択されたサンプルである請求項4の方法。 - 【請求項7】 前記単純化する工程は、 前記サンプルの前記第1部分集合から知覚的に重大なサンプルを選択する工程
と、 選択されていない全てのサンプルの部分を量子化する工程と、 を具備する請求項3の方法。 - 【請求項8】 前記単純化する工程は、 前記サンプルの前記第1部分集合から絶対値の比較的高い振幅を有するサンプ
ルを選択する工程と、 選択されていない全てのサンプルの部分を量子化する工程と、 を具備する請求項3の方法。 - 【請求項9】 前記知覚的に重大なサンプルは、遷移音声サンプルの第1フレームと、合成さ
れた遷移音声サンプルの第1フレームと、の間の利得及び形状誤りを最小とする
よう選択されたサンプルである請求項7の方法。 - 【請求項10】 遷移音声サンプルの第1フレームを前記第1フレームのサンプルの第1部分集
合により表すための手段と、 遷移音声サンプルの第2の、先に受信したフレームから抽出したサンプルの第
2部分集合と前記第1部分集合とを補間して、前記第1部分集合に含まれない第
1フレームの他のサンプルを合成するための手段と、 を具備する遷移音声フレームを符号化するための音声符号器。 - 【請求項11】 前記サンプルの前記第1部分集合を単純化するための手段をさらに具備する請
求項10の音声符号器。 - 【請求項12】 前記単純化するための手段は、 前記サンプルの前記第1部分集合から知覚的に重大なサンプルを選択するため
の手段と、 選択されていない全てのサンプルにゼロ値を割り当てるための手段と、 を具備する請求項11の音声符号器。 - 【請求項13】 前記単純化するための手段は、 前記サンプルの前記第1部分集合から絶対値の比較的高い振幅を有するサンプ
ルを選択するための手段と、 選択されていない全てのサンプルにゼロ値を割り当てるための手段と、 をさらに具備する請求項11の音声符号器。 - 【請求項14】 前記知覚的に重大なサンプルは、遷移音声サンプルの第1フレームと遷移音声
サンプルの合成された第1フレームとの間の知覚的に重みづけされた音声領域誤
りを最小とするよう選択されたサンプルである請求項12の音声符号器。 - 【請求項15】 前記単純化するための手段は、 前記サンプルの第1部分集合から知覚的に重大なサンプルを選択するための手
段と、 選択されていない全てのサンプルの部分を量子化するための手段と、 を具備する請求項11の音声符号器。 - 【請求項16】 前記単純化するための手段は、 前記サンプルの第1部分集合から絶対値の比較的高い振幅を有するサンプルを
選択するための手段と、 選択されていない全てのサンプルの部分を量子化するための手段と、 を具備する請求項11の音声符号器。 - 【請求項17】 前記知覚的に重大なサンプルは、遷移音声サンプルの第1フレームと、合成さ
れた遷移音声サンプルの第1フレームと、の間の利得及び形状誤りを最小とする
よう選択されたサンプルである請求項15の音声符号器。 - 【請求項18】 遷移音声サンプルの第1フレームを前記第1フレームのサンプルの第1部分集
合により表すように構成された抽出器と、 前記抽出器と接続され、遷移音声サンプルの第2の、先に受信したフレームか
ら抽出したサンプルの第2部分集合と前記第1部分集合を補間して、前記第1部
分集合に含まれない第1フレームの他のサンプルを合成する補間器と、 を具備する遷移音声フレームを符号化するための音声符号器。 - 【請求項19】 前記サンプルの前記第1部分集合から知覚的に重大なサンプルを選択するよう
に構成されたパルス選択器をさらに具備し、選択されていない全てのサンプルに
ゼロ値が割り当てられる請求項18の音声符号器。 - 【請求項20】 前記サンプルの前記第1部分集合から絶対値の比較的高い振幅を有するサンプ
ルを選択するように構成されたパルス選択器をさらに具備し、選択されていない
全てのサンプルの部分は量子化される請求項18の音声符号器。 - 【請求項21】 前記知覚的に重大なサンプルは、遷移音声サンプルの第1フレームと遷移音声
サンプルの合成された第1フレームとの間の知覚的に重みづけされた音声領域誤
りを最小とするよう選択されたサンプルである請求項19の音声符号器。 - 【請求項22】 前記サンプルの前記第1部分集合から知覚的に重大なサンプルを選択するよう
に構成されたパルス選択器をさらに具備し、選択されていない全てのサンプルの
部分は量子化される請求項18の音声符号器。 - 【請求項23】 前記サンプルの前記第1部分集合から絶対値の比較的高い振幅を有するサンプ
ルを選択するように構成されたパルス選択器をさらに具備し、選択されていない
全てのサンプルの部分は量子化される請求項18の音声符号器。 - 【請求項24】 前記知覚的に重大なサンプルは、遷移音声サンプルの第1フレームと、合成さ
れた遷移音声サンプルの第1フレームと、の間の利得及び形状誤りを最小とする
よう選択されたサンプルである請求項22の音声符号器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/307,294 US6260017B1 (en) | 1999-05-07 | 1999-05-07 | Multipulse interpolative coding of transition speech frames |
US09/307,294 | 1999-05-07 | ||
PCT/US2000/012656 WO2000068935A1 (en) | 1999-05-07 | 2000-05-08 | Multipulse interpolative coding of transition speech frames |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002544551A true JP2002544551A (ja) | 2002-12-24 |
JP2002544551A5 JP2002544551A5 (ja) | 2007-06-28 |
JP4874464B2 JP4874464B2 (ja) | 2012-02-15 |
Family
ID=23189096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000617441A Expired - Lifetime JP4874464B2 (ja) | 1999-05-07 | 2000-05-08 | 遷移音声フレームのマルチパルス補間的符号化 |
Country Status (11)
Country | Link |
---|---|
US (1) | US6260017B1 (ja) |
EP (1) | EP1181687B1 (ja) |
JP (1) | JP4874464B2 (ja) |
KR (1) | KR100700857B1 (ja) |
CN (1) | CN1188832C (ja) |
AT (1) | ATE310303T1 (ja) |
AU (1) | AU4832200A (ja) |
DE (1) | DE60024080T2 (ja) |
ES (1) | ES2253226T3 (ja) |
HK (1) | HK1044614B (ja) |
WO (1) | WO2000068935A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011052221A1 (ja) * | 2009-10-30 | 2011-05-05 | パナソニック株式会社 | 符号化装置、復号装置、およびそれらの方法 |
JP2012532344A (ja) * | 2009-06-29 | 2012-12-13 | サムスン エレクトロニクス カンパニー リミテッド | 加重線形予測変換を利用したオーディオ信号符号化及び復号化装置並びにその方法 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6456964B2 (en) * | 1998-12-21 | 2002-09-24 | Qualcomm, Incorporated | Encoding of periodic speech using prototype waveforms |
US6681203B1 (en) * | 1999-02-26 | 2004-01-20 | Lucent Technologies Inc. | Coupled error code protection for multi-mode vocoders |
GB2355607B (en) * | 1999-10-20 | 2002-01-16 | Motorola Israel Ltd | Digital speech processing system |
US6757301B1 (en) * | 2000-03-14 | 2004-06-29 | Cisco Technology, Inc. | Detection of ending of fax/modem communication between a telephone line and a network for switching router to compressed mode |
US7606703B2 (en) * | 2000-11-15 | 2009-10-20 | Texas Instruments Incorporated | Layered celp system and method with varying perceptual filter or short-term postfilter strengths |
WO2002097796A1 (en) * | 2001-05-28 | 2002-12-05 | Intel Corporation | Providing shorter uniform frame lengths in dynamic time warping for voice conversion |
WO2003042648A1 (fr) * | 2001-11-16 | 2003-05-22 | Matsushita Electric Industrial Co., Ltd. | Codeur de signal vocal, decodeur de signal vocal, procede de codage de signal vocal et procede de decodage de signal vocal |
JP4988757B2 (ja) * | 2005-12-02 | 2012-08-01 | クゥアルコム・インコーポレイテッド | 周波数ドメイン波形アラインメントのためのシステム、方法、および装置 |
KR100883652B1 (ko) * | 2006-08-03 | 2009-02-18 | 삼성전자주식회사 | 음성 구간 검출 방법 및 장치, 및 이를 이용한 음성 인식시스템 |
CN101540612B (zh) * | 2008-03-19 | 2012-04-25 | 华为技术有限公司 | 编码、解码系统、方法及装置 |
US8195452B2 (en) * | 2008-06-12 | 2012-06-05 | Nokia Corporation | High-quality encoding at low-bit rates |
KR101236054B1 (ko) * | 2008-07-17 | 2013-02-21 | 노키아 코포레이션 | 벡터 양자화기를 위한 고속 최근접 이웃 탐색용 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
CN101615911B (zh) * | 2009-05-12 | 2010-12-08 | 华为技术有限公司 | 一种编解码方法和装置 |
CN102222505B (zh) * | 2010-04-13 | 2012-12-19 | 中兴通讯股份有限公司 | 可分层音频编解码方法系统及瞬态信号可分层编解码方法 |
US8990094B2 (en) * | 2010-09-13 | 2015-03-24 | Qualcomm Incorporated | Coding and decoding a transient frame |
US11270721B2 (en) * | 2018-05-21 | 2022-03-08 | Plantronics, Inc. | Systems and methods of pre-processing of speech signals for improved speech recognition |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02160300A (ja) * | 1988-12-13 | 1990-06-20 | Nec Corp | 音声符号化方式 |
JPH10214100A (ja) * | 1997-01-31 | 1998-08-11 | Sony Corp | 音声合成方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4441201A (en) * | 1980-02-04 | 1984-04-03 | Texas Instruments Incorporated | Speech synthesis system utilizing variable frame rate |
CA1255802A (en) | 1984-07-05 | 1989-06-13 | Kazunori Ozawa | Low bit-rate pattern encoding and decoding with a reduced number of excitation pulses |
CA1252568A (en) | 1984-12-24 | 1989-04-11 | Kazunori Ozawa | Low bit-rate pattern encoding and decoding capable of reducing an information transmission rate |
JP2707564B2 (ja) | 1987-12-14 | 1998-01-28 | 株式会社日立製作所 | 音声符号化方式 |
JPH01207800A (ja) | 1988-02-15 | 1989-08-21 | Nec Corp | 音声合成方式 |
JP3102015B2 (ja) * | 1990-05-28 | 2000-10-23 | 日本電気株式会社 | 音声復号化方法 |
DK0588932T3 (da) | 1991-06-11 | 2002-03-11 | Qualcomm Inc | Vokoder med variabel hastighed |
US5233660A (en) * | 1991-09-10 | 1993-08-03 | At&T Bell Laboratories | Method and apparatus for low-delay celp speech coding and decoding |
US5884253A (en) | 1992-04-09 | 1999-03-16 | Lucent Technologies, Inc. | Prototype waveform speech coding with interpolation of pitch, pitch-period waveforms, and synthesis filter |
US5784532A (en) | 1994-02-16 | 1998-07-21 | Qualcomm Incorporated | Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system |
TW271524B (ja) * | 1994-08-05 | 1996-03-01 | Qualcomm Inc | |
JP3747492B2 (ja) * | 1995-06-20 | 2006-02-22 | ソニー株式会社 | 音声信号の再生方法及び再生装置 |
SE506341C2 (sv) * | 1996-04-10 | 1997-12-08 | Ericsson Telefon Ab L M | Metod och anordning för rekonstruktion av en mottagen talsignal |
US6029133A (en) * | 1997-09-15 | 2000-02-22 | Tritech Microelectronics, Ltd. | Pitch synchronized sinusoidal synthesizer |
WO2003011913A1 (fr) * | 2001-07-31 | 2003-02-13 | Mitsubishi Chemical Corporation | Procede de polymerisation et injecteur destine a etre utilise dans le cadre du procede de polymerisation |
-
1999
- 1999-05-07 US US09/307,294 patent/US6260017B1/en not_active Expired - Lifetime
-
2000
- 2000-05-08 WO PCT/US2000/012656 patent/WO2000068935A1/en active IP Right Grant
- 2000-05-08 EP EP00930512A patent/EP1181687B1/en not_active Expired - Lifetime
- 2000-05-08 AU AU48322/00A patent/AU4832200A/en not_active Abandoned
- 2000-05-08 JP JP2000617441A patent/JP4874464B2/ja not_active Expired - Lifetime
- 2000-05-08 CN CNB008087636A patent/CN1188832C/zh not_active Expired - Fee Related
- 2000-05-08 ES ES00930512T patent/ES2253226T3/es not_active Expired - Lifetime
- 2000-05-08 AT AT00930512T patent/ATE310303T1/de not_active IP Right Cessation
- 2000-05-08 KR KR1020017014217A patent/KR100700857B1/ko not_active IP Right Cessation
- 2000-05-08 DE DE60024080T patent/DE60024080T2/de not_active Expired - Lifetime
-
2002
- 2002-08-21 HK HK02106115.5A patent/HK1044614B/zh not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02160300A (ja) * | 1988-12-13 | 1990-06-20 | Nec Corp | 音声符号化方式 |
JPH10214100A (ja) * | 1997-01-31 | 1998-08-11 | Sony Corp | 音声合成方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012532344A (ja) * | 2009-06-29 | 2012-12-13 | サムスン エレクトロニクス カンパニー リミテッド | 加重線形予測変換を利用したオーディオ信号符号化及び復号化装置並びにその方法 |
WO2011052221A1 (ja) * | 2009-10-30 | 2011-05-05 | パナソニック株式会社 | 符号化装置、復号装置、およびそれらの方法 |
US8849655B2 (en) | 2009-10-30 | 2014-09-30 | Panasonic Intellectual Property Corporation Of America | Encoder, decoder and methods thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20010112480A (ko) | 2001-12-20 |
ES2253226T3 (es) | 2006-06-01 |
DE60024080T2 (de) | 2006-08-03 |
CN1188832C (zh) | 2005-02-09 |
HK1044614A1 (en) | 2002-10-25 |
DE60024080D1 (de) | 2005-12-22 |
WO2000068935A1 (en) | 2000-11-16 |
EP1181687A1 (en) | 2002-02-27 |
AU4832200A (en) | 2000-11-21 |
KR100700857B1 (ko) | 2007-03-29 |
EP1181687B1 (en) | 2005-11-16 |
US6260017B1 (en) | 2001-07-10 |
CN1355915A (zh) | 2002-06-26 |
HK1044614B (zh) | 2005-07-08 |
ATE310303T1 (de) | 2005-12-15 |
JP4874464B2 (ja) | 2012-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100908219B1 (ko) | 로버스트한 음성 분류를 위한 방법 및 장치 | |
US6584438B1 (en) | Frame erasure compensation method in a variable rate speech coder | |
JP5543405B2 (ja) | フレームエラーに対する感度を低減する符号化体系パターンを使用する予測音声コーダ | |
JP4270866B2 (ja) | 非音声のスピーチの高性能の低ビット速度コード化方法および装置 | |
US20040260542A1 (en) | Method and apparatus for predictively quantizing voiced speech with substraction of weighted parameters of previous frames | |
JP4489960B2 (ja) | 音声の無声セグメントの低ビットレート符号化 | |
JP4874464B2 (ja) | 遷移音声フレームのマルチパルス補間的符号化 | |
JP2003525473A (ja) | 閉ループのマルチモードの混合領域の線形予測音声コーダ | |
EP1204968B1 (en) | Method and apparatus for subsampling phase spectrum information | |
JP2003501675A (ja) | 時間同期波形補間によるピッチプロトタイプ波形からの音声を合成するための音声合成方法および音声合成装置 | |
WO2003001172A1 (en) | Method and device for coding speech in analysis-by-synthesis speech coders | |
KR20020081352A (ko) | 유사주기 신호의 위상을 추적하는 방법 및 장치 | |
Drygajilo | Speech Coding Techniques and Standards |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070508 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110307 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110314 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110407 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111025 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141202 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4874464 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |