JP2000357999A - Decoding device, method therefor and program providing medium - Google Patents

Decoding device, method therefor and program providing medium

Info

Publication number
JP2000357999A
JP2000357999A JP11170574A JP17057499A JP2000357999A JP 2000357999 A JP2000357999 A JP 2000357999A JP 11170574 A JP11170574 A JP 11170574A JP 17057499 A JP17057499 A JP 17057499A JP 2000357999 A JP2000357999 A JP 2000357999A
Authority
JP
Japan
Prior art keywords
bit
error
class
bits
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11170574A
Other languages
Japanese (ja)
Other versions
JP2000357999A5 (en
JP4218134B2 (en
Inventor
Yuji Maeda
祐児 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP17057499A priority Critical patent/JP4218134B2/en
Priority to DE60038913T priority patent/DE60038913D1/en
Priority to DE60026660T priority patent/DE60026660T2/en
Priority to EP00305063A priority patent/EP1061503B1/en
Priority to EP05016949A priority patent/EP1596364B1/en
Priority to US09/595,215 priority patent/US6658378B1/en
Priority to TW089111891A priority patent/TW466843B/en
Priority to KR1020000033320A priority patent/KR100718712B1/en
Priority to CNB2004100834989A priority patent/CN100512022C/en
Priority to CNB00126270XA priority patent/CN1201288C/en
Publication of JP2000357999A publication Critical patent/JP2000357999A/en
Publication of JP2000357999A5 publication Critical patent/JP2000357999A5/ja
Application granted granted Critical
Publication of JP4218134B2 publication Critical patent/JP4218134B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0059Convolutional codes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/23Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using convolutional codes, e.g. unit memory codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0041Arrangements at the transmitter end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0054Maximum-likelihood or sequential decoding, e.g. Viterbi, Fano, ZJ algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0061Error detection codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/007Unequal error protection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/0078Avoidance of errors by organising the transmitted data in a format specifically designed to deal with errors, e.g. location
    • H04L1/0079Formats for control data
    • H04L1/0082Formats for control data fields explicitly indicating existence of error in data being transmitted, e.g. so that downstream stations can avoid decoding erroneous packet; relays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L2001/0098Unequal error protection

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Error Detection And Correction (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Communication Control (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a decoding device, its method and a program providing medium, by which continuing property as a sound signal is kept and sound with high quality is decoded. SOLUTION: A convolution decoder 16 convolves and decodes a convolution encoding output from the side of an encoding device. An important bit group where an error inspecting code is added and kept as is and a bit group which excludes the important bit group are made to be a convolution decoding output. A CRC code comparison and frame mask part 15 compares a CRC inspecting code added to the convolution decoding output from the decoder 16 with a CRC differential inspecting code calculated from the bit group which excludes the important bit one and adjusts the convolution decoding output.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、伝送路で発生する
誤りに対して選択的に保護された符号化パラメータを復
号する復号装置及び方法、並びにプログラム提供媒体に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a decoding apparatus and method for decoding an encoding parameter selectively protected against an error occurring on a transmission path, and a program providing medium.

【0002】[0002]

【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法として、い
わゆるCELP(Code ExcitedLinear Prediction:符
号励起線形予測)符号化系の符号化方式であるVSEL
P(Vector Sum Excited Linear Prediction:ベクトル
和励起線形予測)符号化方式や、PSI−CELP(Pi
tch Synchronus Innovation - CELP:ピッチ同期雑音励
振源−CELP)符号化方式等が低ビットレートの音声
符号化方式として近年着目されている。
2. Description of the Related Art There are known various encoding methods for compressing an audio signal (including a voice signal and an acoustic signal) by utilizing a statistical property in a time domain and a frequency domain and a characteristic of human perception. ing. As this coding method, VSEL which is a coding method of a so-called CELP (Code Excited Linear Prediction) coding system is used.
P (Vector Sum Excited Linear Prediction) encoding method, PSI-CELP (Pi
tch Synchronus Innovation-CELP (Pitch Synchronous Noise Excitation Source-CELP) coding scheme and the like have recently attracted attention as low bit rate speech coding schemes.

【0003】このCELP符号化方式等の波形符号化方
式においては、入力音声信号の所定数のサンプルを符号
化単位としてブロック化あるいはフレーム化し、ブロッ
クあるいはフレーム毎の音声時間軸波形に対して、合成
による分析(analysis by synthesis)法を用いて最適
ベクトルのクローズドループサーチを行うことにより波
形のベクトル量子化を行い、そのベクトルのインデクス
を出力している。
In a waveform coding method such as the CELP coding method, a predetermined number of samples of an input voice signal are divided into blocks or frames as a coding unit, and synthesized into a voice time axis waveform for each block or frame. Vector quantization of the waveform is performed by performing a closed loop search for an optimal vector using an analysis by synthesis method, and the index of the vector is output.

【0004】ところで、上記低ビットレート、例えば2
kbps又は4kbpsの音声符号化方式により得られ
た符号化ビットは、特定のオーディオ情報内容にとらわ
れない、一般的なオーディオとして、通信、コンピュー
タ、放送などの分野に広く適用されるため、伝送路で発
生する誤りに対して強く保護する必要がある。
Incidentally, the low bit rate, for example, 2
The coded bits obtained by the kbps or 4 kbps audio coding method are widely applied to fields such as communication, computers, and broadcasting as general audio regardless of specific audio information content. There is a need to protect against errors that occur.

【0005】伝送路で連続的に誤りが発生した場合、音
声復号時に音の欠け等が長い時間にわたり続いてしま
い、音声品質の低下を招いてしまうことになる。
[0005] When an error occurs continuously in the transmission path, a lack of sound or the like continues for a long time at the time of speech decoding, which leads to a decrease in speech quality.

【0006】そこで、本件出願人は特願平09−285
903号明細書により、伝送路で発生する誤りに強く、
品質を改善できる符号化方法及び装置、並びに復号方法
及び装置を明らかにした。
Accordingly, the present applicant has filed Japanese Patent Application No. 09-285.
According to the specification of Japanese Patent No. 903, it is strong against errors occurring in the transmission path,
An encoding method and apparatus and a decoding method and apparatus that can improve quality have been clarified.

【0007】この符号化方法及び装置は、入力音声信号
を時間軸上で所定の符号化単位で区分し、各符号化単位
で符号化を行って複数種類の音声符号化パラメータを出
力し、その複数種類の音声符号化パラメータの内で聴感
上重要な重要ビット群を選択し、この重要ビット群から
誤り検査符号を生成し、上記誤り検査符号と上記重要ビ
ット群に畳み込み符号化を施す。このため、聴感上重要
なビット群を伝送路誤りから保護できる。
In this encoding method and apparatus, an input audio signal is divided in a predetermined encoding unit on a time axis, encoding is performed in each encoding unit, and a plurality of types of audio encoding parameters are output. An important bit group that is important for hearing is selected from a plurality of types of speech coding parameters, an error check code is generated from the important bit group, and convolutional coding is performed on the error check code and the important bit group. Therefore, a group of bits that are important for hearing can be protected from transmission path errors.

【0008】また、上記誤り検査符号と上記重要ビット
群に畳み込み符号化が施され、上記重要ビット群を除く
ビット群に接合されて伝送されてきた符号化データを復
号するため、上記復号方法及び装置は、上記畳み込み符
号化出力に畳み込み復号化を施し、上記誤り検査符号が
付加されたままの上記重要ビット群と、上記重要ビット
群を除いたビット群とを畳み込み復号化出力とし、その
畳み込み復号化出力に付加されている上記誤り検査符号
を用いて伝送誤りを検査し、その誤り検査結果に応じて
上記畳み込み復号化出力を調整し、この調整された畳み
込み復号化出力に音声復号化処理を施す。このため、伝
送路誤りによる品質の低下を抑えた音声を復号できる。
In addition, in order to decode the encoded data transmitted by being convolved with the error check code and the important bit group and concatenated with the bit group excluding the important bit group, the decoding method The apparatus performs convolutional decoding on the convolutionally coded output, and sets the important bit group to which the error check code is added and the bit group excluding the important bit group as a convolutional decoded output, and performs convolutional decoding. A transmission error is checked using the error check code added to the decoded output, the convolutional decoded output is adjusted according to the error check result, and a speech decoding process is performed on the adjusted convolutional decoded output. Is applied. For this reason, it is possible to decode the speech in which the deterioration in quality due to the transmission path error is suppressed.

【0009】[0009]

【発明が解決しようとする課題】ところで、上記復号方
法及び装置では、畳み込み復号化出力に付加されている
上記誤り検査符号を用いて伝送誤りを検査した誤り検査
結果に応じて上記復号化出力を調整する際、音声復号処
理が施された後の音声信号としての連続性を保つ必要が
ある。
By the way, in the above-mentioned decoding method and apparatus, the decoded output is output in accordance with an error check result obtained by checking a transmission error using the error check code added to the convolutional decoded output. At the time of adjustment, it is necessary to maintain continuity as an audio signal after being subjected to audio decoding processing.

【0010】本発明は、上記課題に鑑みてなされたもの
であり、音声信号としての連続性を保ち、高品質の音声
を復号することのできる復号装置及び方法、並びにプロ
グラム提供媒体の提供を目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide a decoding apparatus and method capable of maintaining high continuity as an audio signal and decoding high quality audio, and a program providing medium. And

【0011】[0011]

【課題を解決するための手段】本発明に係る復号装置
は、上記課題を解決するために、符号化装置により入力
音声信号が時間軸上の所定の符号化単位で区分されて符
号化され、かつ伝送路誤りに対するビットの聴感上の感
度に応じてクラス分けされて伝送されてきた符号化パラ
メータを復号する復号装置において、所定のクラスの上
記符号化パラメータに付加されている誤り検査符号を用
いて誤りを検出し、上記符号化単位内で発生した上記符
号化パラメータの誤りに応じてフレームマスク処理を異
ならせる伝送路復号手段を備える。
In order to solve the above-mentioned problems, a decoding apparatus according to the present invention encodes an input speech signal by dividing the input speech signal by a predetermined coding unit on a time axis. In a decoding device that decodes coding parameters that have been transmitted in a class according to the perceptual sensitivity of bits to transmission path errors, an error check code added to the coding parameters of a predetermined class is used. Transmission line decoding means for detecting an error in the coding unit and making a frame mask process different according to the error of the coding parameter generated in the coding unit.

【0012】ここで、上記符号化装置における符号化処
理は複数個のベクトル量子化器を用いて行われたもので
あり、各コードベクトルを表すインデクスが、伝送路誤
りに対するビットの聴感上の感度に応じてクラス分けさ
れて伝送されて来ることにより、上記伝送路復号手段は
所定のクラスの上記インデクスに付加されてくる誤り検
査符号を検出し、上記符号化単位内で発生した上記イン
デクスの誤りに応じてフレームマスク処理を異ならせ
る。
Here, the encoding processing in the encoding apparatus is performed by using a plurality of vector quantizers, and the index representing each code vector is determined based on the sensitivity of the bit to the transmission path error in terms of auditory sensitivity. The transmission path decoding means detects an error check code added to the index of a predetermined class, and transmits the error check code generated in the coding unit. In accordance with the frame mask processing.

【0013】また、上記符号化装置における符号化処理
は交互学習によって作成された多段ベクトル量子化器を
用いて行われたものであり、各コードベクトルを表すイ
ンデクスが、伝送路誤りに対するビットの聴感上の感度
に応じてクラス分けされて伝送されて来ることにより、
上記伝送路復号手段は所定のクラスの上記インデクスに
付加されてくる誤り検査符号を検出し、複数個のインデ
クスに誤りが検出されたか否かに応じてフレームマスク
処理を異ならせる。
The encoding process in the encoding device is performed using a multi-stage vector quantizer created by alternate learning, and the index representing each code vector is determined by the bit audibility of a transmission line error. By being classified and transmitted according to the above sensitivity,
The transmission path decoding means detects an error check code added to the index of a predetermined class, and varies a frame mask process depending on whether an error is detected in a plurality of indexes.

【0014】本発明に係る復号方法は、上記課題を解決
するために、符号化装置により入力音声信号が時間軸上
の所定の符号化単位で区分されて符号化され、かつ伝送
路誤りに対するビットの聴感上の感度に応じてクラス分
けされて伝送されてきた符号化パラメータを復号するた
めの復号方法において、所定のクラスの上記符号化パラ
メータに付加されている誤り検査符号を用いて誤りを検
出し、上記符号化単位内で発生した上記符号化パラメー
タの誤りに応じてフレームマスク処理を異ならせる伝送
路復号工程を備える。
In order to solve the above-mentioned problems, a decoding method according to the present invention is characterized in that an input audio signal is divided and encoded in a predetermined encoding unit on a time axis by an encoding device, and a bit for a transmission path error is encoded. A decoding method for decoding coding parameters that have been transmitted in a class according to the perceived sensitivity of an object, wherein an error is detected using an error check code added to the coding parameter of a predetermined class. And a transmission line decoding step of changing a frame mask process according to an error of the encoding parameter generated in the encoding unit.

【0015】また、上記符号化装置における符号化処理
は複数個のベクトル量子化器を用いて行われたものであ
り、各コードベクトルを表すインデクスが、伝送路誤り
に対するビットの聴感上の感度に応じてクラス分けされ
て伝送されて来ることにより、上記伝送路復号工程は所
定のクラスの上記インデクスに付加されてくる誤り検査
符号を検出し、上記符号化単位内で発生した上記インデ
クスの誤りに応じてフレームマスク処理を異ならせる。
The encoding process in the encoding device is performed by using a plurality of vector quantizers, and an index representing each code vector has an effect on the audibility of a bit to a transmission path error. The transmission path decoding step detects an error check code added to the index of a predetermined class and transmits the error check code to the index error generated in the coding unit. The frame mask processing is changed accordingly.

【0016】また、上記符号化装置における符号化処理
は交互学習によって作成された多段ベクトル量子化器を
用いて行われたものであり、各コードベクトルを表すイ
ンデクスが、伝送路誤りに対するビットの聴感上の感度
に応じてクラス分けされて伝送されて来ることにより、
上記伝送路復号工程は所定のクラスの上記インデクスに
付加されてくる誤り検査符号を検出し、複数個のインデ
クスに誤りが検出されたか否かに応じてフレームマスク
処理を異ならせる。
The encoding processing in the encoding apparatus is performed using a multi-stage vector quantizer created by alternate learning, and the index representing each code vector is determined by the bit audibility of a transmission path error. By being classified and transmitted according to the above sensitivity,
The transmission path decoding step detects an error check code added to the index of a predetermined class, and varies a frame mask process depending on whether an error is detected in a plurality of indexes.

【0017】本発明に係るプログラム提供媒体は、上記
課題を解決するために、符号化装置により入力音声信号
が時間軸上の所定の符号化単位で区分されて符号化さ
れ、かつ伝送路誤りに対するビットの聴感上の感度に応
じてクラス分けされて伝送されてきた符号化パラメータ
を復号するための復号プログラムを提供するためのプロ
グラム提供媒体において、所定のクラスの上記符号化パ
ラメータに付加されている誤り検査符号を用いて誤りを
検出し、上記符号化単位内で発生した上記符号化パラメ
ータの誤りに応じてフレームマスク処理を異ならせる伝
送路復号ステップを備えるプログラムを提供する。
In order to solve the above-mentioned problems, a program providing medium according to the present invention is arranged such that an input device separates and encodes an input speech signal by a predetermined coding unit on a time axis, and that a coding error is reduced. In a program providing medium for providing a decoding program for decoding an encoding parameter transmitted by being classified according to the auditory sensitivity of a bit, the encoding parameter is added to a predetermined class of the encoding parameter. Provided is a program including a transmission line decoding step of detecting an error using an error check code and making a frame mask process different according to the error of the encoding parameter generated in the encoding unit.

【0018】また、上記符号化装置における符号化処理
は複数個のベクトル量子化器を用いて行われたものであ
り、各コードベクトルを表すインデクスが、伝送路誤り
に対するビットの聴感上の感度に応じてクラス分けされ
て伝送されて来ることにより、上記伝送路復号ステップ
は所定のクラスの上記インデクスに付加されてくる誤り
検査符号を検出し、上記符号化単位内で発生した上記イ
ンデクスの誤りに応じてフレームマスク処理を異ならせ
るプログラムを提供する。
The encoding process in the encoding device is performed by using a plurality of vector quantizers, and the index representing each code vector is determined by the perceptual sensitivity of bits to transmission path errors. The transmission path decoding step detects an error check code added to the index of a predetermined class, and detects an error of the index generated in the coding unit. A program is provided for making the frame mask processing different depending on the situation.

【0019】また、上記符号化装置における符号化処理
は交互学習によって作成された多段ベクトル量子化器を
用いて行われたものであり、各コードベクトルを表すイ
ンデクスが、伝送路誤りに対するビットの聴感上の感度
に応じてクラス分けされて伝送されて来ることにより、
上記伝送路復号ステップは所定のクラスの上記インデク
スに付加されてくる誤り検査符号を検出し、複数個のイ
ンデクスに誤りが検出されたか否かに応じてフレームマ
スク処理を異ならせるプログラムを提供する。
The encoding process in the encoding device is performed by using a multi-stage vector quantizer created by alternate learning, and the index representing each code vector is determined by the audibility of the bit with respect to the transmission path error. By being classified and transmitted according to the above sensitivity,
The transmission line decoding step provides a program for detecting an error check code added to the index of a predetermined class and for making a frame mask process different depending on whether an error is detected in a plurality of indexes.

【0020】[0020]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。この実施の形態は本発
明の復号装置及び方法の具体例となる復号装置を備え
た、図1に示す携帯電話装置である。この携帯電話装置
は、例えば2kbps又は4kbpsの低ビットレートの音声符
号化を行う符号化装置も備えている。
Embodiments of the present invention will be described below with reference to the drawings. This embodiment is a mobile phone device shown in FIG. 1 including a decoding device as a specific example of the decoding device and method of the present invention. This portable telephone device is also provided with an encoding device that performs audio encoding at a low bit rate of, for example, 2 kbps or 4 kbps.

【0021】符号化装置は、入力音声信号を時間軸上で
所定の符号化単位で区分して各符号化単位毎に符号化を
行って複数種類の音声符号化パラメータを生成する。そ
して、この音声符号化パラメータの伝送路誤りに対する
ビットの聴感上の感度に応じて、ビットを複数の保護ク
ラスに割り当てる。例えば、ビットレートが2kbpsであ
る場合には6クラス、4kbpsである場合には7クラスに
割り当てる。クラス割り当て、音声符号化パラメータの
詳細については後述する。
The coding apparatus generates a plurality of types of voice coding parameters by dividing the input voice signal into predetermined coding units on the time axis and performing coding for each coding unit. Then, the bits are assigned to a plurality of protection classes according to the audibility of the bits to the transmission path error of the speech coding parameter. For example, when the bit rate is 2 kbps, 6 classes are assigned, and when the bit rate is 4 kbps, 7 classes are assigned. Details of the class assignment and the speech coding parameter will be described later.

【0022】先ず、この携帯電話装置において、符号化
装置は、音声符号化器3と、クラス分割&入力順決定部
23と、伝送路符号化器4とを備えてなる。音声符号化
器3は、入力音声信号を時間軸上で所定の符号化単位で
区分して各符号化単位で符号化を行って複数種類の音声
符号化パラメータを出力する。クラス分割&入力順決定
部23は、音声符号化器3からの上記複数種類の音声符
号化パラメータを、伝送路誤りに対するビットの聴感上
の感度に応じてビットレートが2kbpsである場合には6
クラス、4kbpsである場合には7クラスにクラス分けす
ると共に、次段の伝送路符号化器4への入力順を決定す
る。伝送路符号化器4は、クラス分類&入力順決定部2
3で分割されたクラス、及び入力順に応じてCRC(Cy
clic Redundancy Check :巡回冗長チェック)検査符号
を生成し、そのCRC検査符号を掛けた後、畳み込み符
号化により保護したり、CRC検査符号を掛けるだけに
したり、さらに何の保護もしなかったりする。
First, in this portable telephone device, the coding device includes a speech coder 3, a class division & input order determination unit 23, and a transmission path coder 4. The speech coder 3 divides the input speech signal into predetermined coding units on the time axis, performs coding in each coding unit, and outputs a plurality of types of speech coding parameters. The class division & input order determination unit 23 converts the plurality of types of speech encoding parameters from the speech encoder 3 into 6 when the bit rate is 2 kbps in accordance with the audibility of bits to transmission path errors.
If the class is 4 kbps, the class is divided into seven classes, and the input order to the next stage transmission path encoder 4 is determined. The transmission path encoder 4 includes a class classification & input order determination unit 2
3 and CRC (Cy) according to the input order.
clic Redundancy Check: A check code is generated, multiplied by the CRC, and then protected by convolutional coding, only the CRC is multiplied, or no protection is performed.

【0023】クラス分類&入力順決定部23は、ビット
コントローラ23aとRAM23bを備える。ビットコ
ントローラ23aは、音声符号化器3からの上記複数種
類の音声符号化パラメータをRAM23bを作業領域と
し、伝送路誤りに対するビットの聴感上の感度に応じて
クラス分割すると共に入力順を決定する。
The class classification and input order determination unit 23 includes a bit controller 23a and a RAM 23b. The bit controller 23a uses the RAM 23b as a work area for the plurality of types of speech encoding parameters from the speech encoder 3 and classifies them according to the perceptual sensitivity of bits to transmission path errors, and determines the input order.

【0024】伝送路符号化器4は、CRC符号計算部5
と畳み込み符号化器6とを備える。CRC符号計算部5
はCRC(Cyclic Redundancy Check :巡回冗長チェッ
ク)検査符号を生成する。畳み込み符号化器6は必要に
応じてCRC符号計算部5からの上記CRC検査符号が
掛けられたビット群に畳み込み符号化を施す。また、伝
送路符号化器4は単にCRC符号計算部5からの上記C
RC検査符号が掛けられたビット群を出力することもあ
る。さらにクラスによっては何もせずにそのまま通して
しまうこともある。
The transmission line encoder 4 includes a CRC code calculator 5
And a convolutional encoder 6. CRC code calculator 5
Generates a CRC (Cyclic Redundancy Check) check code. The convolutional encoder 6 performs convolutional encoding on the bits to which the CRC check code from the CRC code calculation unit 5 has been multiplied as necessary. Further, the transmission path encoder 4 simply outputs the above C from the CRC code calculation unit 5.
The bit group to which the RC check code is multiplied may be output. In addition, depending on the class, it may pass through without doing anything.

【0025】また、この携帯電話装置において、本発明
に係る復号装置及び方法を適用した復号装置は、上記畳
み込み符号化出力に畳み込み復号化を施し、上記誤り検
査符号が付加されたままの上記重要ビット群と、上記重
要ビット群を除いたビット群とを畳み込み復号化出力と
する畳み込み復号化器16と、この畳み込み復号化器1
6からの畳み込み復号化出力に付加されている上記CR
C検査符号と上記重要ビット群を除いたビット群より計
算したCRC誤り検査符号とを比較し、その比較結果に
応じて上記畳み込み復号化出力を調整するCRC符号比
較&フレームマスク部15と、このCRC符号比較&フ
レームマスク部15からの畳み込み復号化出力に音声復
号化処理を施す音声復号化器17とを備えてなる。
In this portable telephone apparatus, the decoding apparatus to which the decoding apparatus and method according to the present invention are applied performs convolutional decoding on the convolutional coded output, and performs the important check with the error check code added. A convolutional decoder 16 which uses the bit group and the bit group excluding the important bit group as a convolutional decoding output, and the convolutional decoder 1
6 added to the convolutional decoded output from
A CRC code comparing & frame masking unit 15 for comparing the C check code with a CRC error check code calculated from the bit group excluding the important bit group and adjusting the convolutional decoded output according to the comparison result; A speech decoder 17 for subjecting the convolutionally decoded output from the code comparison & frame mask unit 15 to speech decoding processing.

【0026】この携帯電話装置において、送信時、マイ
クロホン1から入力された音声信号は、A/D変換器2
によりディジタル信号に変換され、音声符号化器3によ
り2kbps/4kbpsという低ビットレートの符号化パラメ
ータとされ、クラス分割&入力順決定部23においてク
ラス分け及び入力順が決定され、伝送路符号化器4によ
り伝送路の品質が音声品質に影響を受けにくいように符
号化された後、変調器7で変調され、送信機8で出力ビ
ットに送信処理が施され、アンテナ共用器9を通して、
アンテナ10から送信される。
In this portable telephone device, at the time of transmission, an audio signal input from the microphone 1 is transmitted to the A / D converter 2
Is converted into a digital signal by the audio encoder 3, and is converted into an encoding parameter of a low bit rate of 2 kbps / 4 kbps by the audio encoder 3. The class division and input order determination unit 23 determines the classification and input order, and the transmission path encoder After being encoded by 4 so that the quality of the transmission path is hardly influenced by the voice quality, it is modulated by the modulator 7, the output bit is subjected to transmission processing by the transmitter 8, and passed through the antenna duplexer 9.
It is transmitted from the antenna 10.

【0027】また、受信時には、アンテナ10で捉えら
れた電波が、アンテナ共用器9を通じて受信機11で受
信され、復調器13で復調され、伝送路復号化器14で
伝送路誤りが訂正され、音声復号化器17が復号され、
D/A変換器18でアナログ音声信号に戻されて、スピ
ーカ19から出力される。
At the time of reception, a radio wave captured by the antenna 10 is received by the receiver 11 through the antenna duplexer 9, demodulated by the demodulator 13, and a transmission path error is corrected by the transmission path decoder 14. The audio decoder 17 is decoded,
The signal is converted back to an analog audio signal by the D / A converter 18 and output from the speaker 19.

【0028】また、制御部20は上記各部をコントロー
ルし、シンセサイザ12は送受信周波数を送信機8、及
び受信機11に与えている。また、キーパッド21及び
LCD表示器22はマンマシンインターフェースに利用
される。
The control unit 20 controls each of the above units, and the synthesizer 12 gives the transmission / reception frequency to the transmitter 8 and the receiver 11. The keypad 21 and the LCD display 22 are used for a man-machine interface.

【0029】このような構成の携帯電話装置の中で、伝
送路符号化器4を構成するCRC符号計算部5は、クラ
ス分割&入力順決定部23でクラス分けされ、入力順が
決定された、上記音声信号の周波数スペクトルの概形を
形成する線スペクトル対(LSP)パラメータの一部又
は全部、上記音声信号が有声音(Voice:V)か無声音
(Un Voice:UV)かを示す有声音(V)/無声音(U
V)判定パラメータの全部、上記音声信号が有声音であ
るときのピッチ(Pith)パラメータの一部又は全部、同
じく上記音声信号が有声音であるときの線形予測符号化
(LPC)残差信号のスペクトルエンベロープを示すス
ペクトルコードブックインデクス及びゲインインデクス
の一部又は全部、及び上記音声信号が無声音であるとき
の線形予測符号化(LPC)残差信号の雑音コードブッ
クインデクス及びゲインインデクスの一部又は全部を選
択し、これらからCRC検査符号を生成する。
In the portable telephone device having such a configuration, the CRC code calculation section 5 constituting the transmission path encoder 4 is divided into classes by the class division & input order determination section 23, and the input order is determined. A part or all of a line spectrum pair (LSP) parameter forming an outline of a frequency spectrum of the voice signal, a voiced sound indicating whether the voice signal is voiced (Voice: V) or unvoiced sound (Un Voice: UV) (V) / unvoiced sound (U
V) All of the determination parameters, part or all of the pitch (Pith) parameter when the voice signal is voiced, and linear predictive coding (LPC) residual signal when the voice signal is voiced. Part or all of the spectrum codebook index and gain index indicating the spectrum envelope, and part or all of the noise codebook index and gain index of the linear predictive coding (LPC) residual signal when the speech signal is unvoiced. And generates a CRC from them.

【0030】これらの音声符号化パラメータは、音声符
号化器3により得られる。この音声符号化器3が行う音
声符号化方法は、入力音声信号の短期予測残差を求める
短期予測残差算出工程と、求められた短期予測残差をサ
イン波分析符号化するサイン波分析符号化工程と、上記
入力音声信号を波形符号化により符号化する波形符号化
工程とを備えてなる。この音声符号化器3について図2
及び図3を用いて説明する。
These speech coding parameters are obtained by the speech coder 3. The speech encoding method performed by the speech encoder 3 includes a short-term prediction residual calculation step of calculating a short-term prediction residual of an input audio signal, and a sine wave analysis code for performing sine wave analysis encoding of the determined short-term prediction residual. And a waveform encoding step of encoding the input audio signal by waveform encoding. This speech encoder 3 is shown in FIG.
This will be described with reference to FIG.

【0031】図2の音声符号化器3の基本的な考え方
は、入力音声信号の短期予測残差例えばLPC(線形予
測符号化)残差を求めてサイン波分析(sinusoidal ana
lysis)符号化、例えばハーモニックコーディング(har
monic coding )を行う第1の符号化部110と、入力
音声信号に対して位相再現性のある波形符号化により符
号化する第2の符号化部120とを有し、入力信号の有
声音(V:Voiced)の部分の符号化に第1の符号化部1
10を用い、入力信号の無声音(UV:Unvoiced)の部
分の符号化には第2の符号化部120を用いるようにす
ることである。
The basic concept of the speech encoder 3 shown in FIG. 2 is that a sine wave analysis (sinusoidal analysis) is performed by obtaining a short-term prediction residual of an input speech signal, for example, an LPC (linear predictive coding) residual.
lysis) encoding, such as harmonic coding (har
monic coding), and a second encoding unit 120 that encodes the input audio signal by waveform encoding with phase reproducibility. V: Voiced) first encoding unit 1
The second encoding unit 120 is used to encode the unvoiced (UV) portion of the input signal by using the second encoding unit 120.

【0032】上記第1の符号化部110には、例えばL
PC残差をハーモニック符号化やマルチバンド励起(M
BE)符号化のようなサイン波分析符号化を行う構成が
用いられる。上記第2の符号化部120には、例えば合
成による分析法を用いて最適ベクトルのクローズドルー
プサーチによるベクトル量子化を用いた符号励起線形予
測(CELP)符号化の構成が用いられる。
The first encoding unit 110 has, for example, L
Harmonic coding and multi-band excitation (M
A configuration for performing sine wave analysis encoding such as BE) encoding is used. The second encoding unit 120 employs, for example, a configuration of code excitation linear prediction (CELP) encoding using vector quantization by closed loop search of an optimal vector using an analysis method based on synthesis.

【0033】図2の例では、入力端子101に供給され
た音声信号が、第1の符号化部110のLPC逆フィル
タ111及びLPC分析・量子化部113に送られてい
る。LPC分析・量子化部113から得られたLPC係
数あるいはいわゆるαパラメータは、LPC逆フィルタ
111に送られて、このLPC逆フィルタ111により
入力音声信号の線形予測残差(LPC残差)が取り出さ
れる。また、LPC分析・量子化部113からは、後述
するようにLSP(線スペクトル対)の量子化出力が取
り出され、これが出力端子102に送られる。LPC逆
フィルタ111からのLPC残差は、サイン波分析符号
化部114に送られる。サイン波分析符号化部114で
は、ピッチ検出やスペクトルエンベロープ振幅計算が行
われると共に、V(有声音)/UV(無声音)判定部1
15によりV/UVの判定が行われる。サイン波分析符
号化部114からのスペクトルエンベロープ振幅データ
がベクトル量子化部116に送られる。スペクトルエン
ベロープのベクトル量子化出力としてのベクトル量子化
部116からのコードブックインデクスは、スイッチ1
17を介して出力端子103に送られ、サイン波分析符
号化部114からの出力は、スイッチ118を介して出
力端子104に送られる。また、V/UV判定部115
からのV/UV判定出力は、出力端子105に送られる
と共に、スイッチ117、118の制御信号として送ら
れており、上述した有声音(V)のとき上記インデクス
及びピッチが選択されて各出力端子103及び104か
らそれぞれ取り出される。
In the example of FIG. 2, the audio signal supplied to the input terminal 101 is sent to the LPC inverse filter 111 and the LPC analysis / quantization unit 113 of the first encoding unit 110. The LPC coefficient or the so-called α parameter obtained from the LPC analysis / quantization unit 113 is sent to the LPC inverse filter 111, and the LPC inverse filter 111 extracts a linear prediction residual (LPC residual) of the input audio signal. . Also, a quantized output of an LSP (line spectrum pair) is extracted from the LPC analysis / quantization unit 113 and sent to the output terminal 102 as described later. The LPC residual from LPC inverse filter 111 is sent to sine wave analysis encoding section 114. In the sine wave analysis encoding unit 114, pitch detection and spectrum envelope amplitude calculation are performed, and a V (voiced sound) / UV (unvoiced sound) determination unit 1 is performed.
15 is used to determine V / UV. The spectrum envelope amplitude data from the sine wave analysis encoding unit 114 is sent to the vector quantization unit 116. The codebook index from the vector quantization unit 116 as the vector quantization output of the spectrum envelope is
The output from the sine wave analysis encoding unit 114 is sent to the output terminal 104 via the switch 118. Also, the V / UV determination unit 115
Is output to the output terminal 105 and is also sent as a control signal for the switches 117 and 118. In the case of the above-mentioned voiced sound (V), the index and the pitch are selected and each output terminal is output. 103 and 104 respectively.

【0034】図2の第2の符号化部120は、この例で
はCELP(符号励起線形予測)符号化構成を有してお
り、雑音コードブック121からの出力を、重み付きの
合成フィルタ122により合成処理し、得られた重み付
き音声を減算器123に送り、入力端子101に供給さ
れた音声信号を聴覚重み付けフィルタ125を介して得
られた音声との誤差を取り出し、この誤差を距離計算回
路124に送って距離計算を行い、誤差が最小となるよ
うなベクトルを雑音コードブック121でサーチするよ
うな、合成による分析(Analysis by Synthesis )法を
用いたクローズドループサーチを用いた時間軸波形のベ
クトル量子化を行っている。このCELP符号化は、上
述したように無声音部分の符号化に用いられており、雑
音コードブック121からのUVデータとしてのコード
ブックインデクスは、上記V/UV判定部115からの
V/UV判定結果が無声音(UV)のときオンとなるス
イッチ127を介して、出力端子107より取り出され
る。
The second encoding unit 120 in FIG. 2 has a CELP (code excitation linear prediction) encoding configuration in this example, and outputs an output from the noise codebook 121 by a weighted synthesis filter 122. The synthesized voice signal is sent to the subtractor 123, and the audio signal supplied to the input terminal 101 is extracted from the audio signal obtained through the auditory weighting filter 125. 124, the distance is calculated, and a vector that minimizes the error is searched in the noise codebook 121. The time axis waveform is obtained by using a closed loop search using an analysis by synthesis method. Vector quantization is performed. This CELP coding is used for coding unvoiced sound portions as described above, and a codebook index as UV data from the noise codebook 121 is a V / UV determination result from the V / UV determination unit 115. Is output from the output terminal 107 via a switch 127 that is turned on when the sound is unvoiced (UV).

【0035】図3は、上記図2に示した音声符号化器3
のより具体的な構成を示す図である。なお、この図3に
おいて、上記図2の各部と対応する部分には同じ指示符
号を付している。
FIG. 3 shows the speech encoder 3 shown in FIG.
FIG. 3 is a diagram showing a more specific configuration of FIG. In FIG. 3, parts corresponding to the respective parts in FIG. 2 are given the same reference numerals.

【0036】この図3に示された音声符号化器3におい
て、入力端子101に供給された音声信号は、ハイパス
フィルタ(HPF)109にて不要な帯域の信号を除去
するフィルタ処理が施された後、LPC(線形予測符号
化)分析・量子化部113のLPC分析回路132と、
LPC逆フィルタ回路111とに送られる。
In the speech encoder 3 shown in FIG. 3, the speech signal supplied to the input terminal 101 has been subjected to a filtering process for removing a signal in an unnecessary band by a high-pass filter (HPF) 109. Then, an LPC analysis circuit 132 of the LPC (linear prediction coding) analysis / quantization unit 113,
It is sent to the LPC inverse filter circuit 111.

【0037】LPC分析・量子化部113のLPC分析
回路132は、入力信号波形の256サンプル程度の長
さを1ブロックとしてハミング窓をかけて、自己相関法
により線形予測係数、いわゆるαパラメータを求める。
データ出力の単位となるフレーミングの間隔は、160
サンプル程度とする。サンプリング周波数fsが例えば
8kHzのとき、1フレーム間隔は160サンプルで20
msec となる。
The LPC analysis circuit 132 of the LPC analysis / quantization unit 113 obtains a linear prediction coefficient, a so-called α parameter, by an autocorrelation method by applying a Hamming window with a length of about 256 samples of the input signal waveform as one block. .
The framing interval, which is the unit of data output, is 160
Make it about a sample. When the sampling frequency fs is, for example, 8 kHz, one frame interval is 20 for 160 samples.
msec.

【0038】LPC分析回路132からのαパラメータ
は、α→LSP変換回路133に送られて、線スペクト
ル対(LSP)パラメータに変換される。これは、直接
型のフィルタ係数として求まったαパラメータを、例え
ば10個、すなわち5対のLSPパラメータに変換す
る。変換は例えばニュートン−ラプソン法等を用いて行
う。このLSPパラメータに変換するのは、αパラメー
タよりも補間特性に優れているからである。
The α parameter from the LPC analysis circuit 132 is sent to the α → LSP conversion circuit 133 and is converted into a line spectrum pair (LSP) parameter. This converts the α parameter obtained as a direct type filter coefficient into, for example, ten, ie, five pairs of LSP parameters. The conversion is performed using, for example, the Newton-Raphson method. The conversion to the LSP parameter is because it has better interpolation characteristics than the α parameter.

【0039】α→LSP変換回路133からのLSPパ
ラメータは、LSP量子化器134によりマトリクスあ
るいはベクトル量子化される。このとき、フレーム間差
分をとってからベクトル量子化してもよく、複数フレー
ム分をまとめてマトリクス量子化してもよい。ここで
は、20msec を1フレームとし、20msec 毎に算出
されるLSPパラメータを2フレーム分まとめて、マト
リクス量子化及びベクトル量子化している。
The LSP parameters from the α → LSP conversion circuit 133 are subjected to matrix or vector quantization by the LSP quantizer 134. At this time, vector quantization may be performed after obtaining an inter-frame difference, or matrix quantization may be performed on a plurality of frames at once. Here, 20 msec is defined as one frame, and LSP parameters calculated every 20 msec are combined for two frames, and are subjected to matrix quantization and vector quantization.

【0040】このLSP量子化器134からの量子化出
力、すなわちLSP量子化のインデクスは、端子102
を介して取り出され、また量子化済みのLSPベクトル
は、LSP補間回路136に送られる。
The quantized output from the LSP quantizer 134, that is, the LSP quantization index is supplied to the terminal 102.
And the quantized LSP vector is sent to the LSP interpolation circuit 136.

【0041】LSP補間回路136は、上記20msec
あるいは40msec 毎に量子化されたLSPのベクトル
を補間し、8倍のレートにする。すなわち、2.5mse
c 毎にLSPベクトルが更新されるようにする。これ
は、残差波形をハーモニック符号化復号化方法により分
析合成すると、その合成波形のエンベロープは非常にな
だらかでスムーズな波形になるため、LPC係数が20
msec 毎に急激に変化すると異音を発生することがある
からである。すなわち、2.5msec 毎にLPC係数が
徐々に変化してゆくようにすれば、このような異音の発
生を防ぐことができる。
The LSP interpolation circuit 136 performs the above 20 msec.
Alternatively, the LSP vector quantized every 40 msec is interpolated to make the rate eight times higher. That is, 2.5 mse
The LSP vector is updated every c. This is because when the residual waveform is analyzed and synthesized by the harmonic encoding / decoding method, the envelope of the synthesized waveform becomes a very smooth and smooth waveform.
This is because an abnormal sound may be generated if it changes abruptly every msec. That is, if the LPC coefficient is gradually changed every 2.5 msec, the occurrence of such abnormal noise can be prevented.

【0042】このような補間が行われた2.5msec 毎
のLSPベクトルを用いて入力音声の逆フィルタリング
を実行するために、LSP→α変換回路137により、
LSPパラメータを例えば10次程度の直接型フィルタ
の係数であるαパラメータに変換する。このLSP→α
変換回路137からの出力は、上記LPC逆フィルタ回
路111に送られ、このLPC逆フィルタ111では、
2.5msec 毎に更新されるαパラメータにより逆フィ
ルタリング処理を行って、滑らかな出力を得るようにし
ている。このLPC逆フィルタ111からの出力は、サ
イン波分析符号化部114、具体的には例えばハーモニ
ック符号化回路、の直交変換回路145、例えばDFT
(離散フーリエ変換)回路に送られる。
In order to perform inverse filtering of the input voice using the LSP vector every 2.5 msec in which such interpolation has been performed, the LSP → α conversion circuit 137
The LSP parameter is converted into, for example, an α parameter which is a coefficient of a direct-order filter of about the tenth order. This LSP → α
The output from the conversion circuit 137 is sent to the LPC inverse filter circuit 111, where the LPC inverse filter 111
Inverse filtering is performed using the α parameter updated every 2.5 msec to obtain a smooth output. An output from the LPC inverse filter 111 is output to an orthogonal transform circuit 145 of a sine wave analysis encoding unit 114, specifically, for example, a harmonic encoding circuit, for example, a DFT.
(Discrete Fourier Transform) sent to the circuit.

【0043】LPC分析・量子化部113のLPC分析
回路132からのαパラメータは、聴覚重み付けフィル
タ算出回路139に送られて聴覚重み付けのためのデー
タが求められ、この重み付けデータが後述する聴覚重み
付きのベクトル量子化器116と、第2の符号化部12
0の聴覚重み付けフィルタ125及び聴覚重み付きの合
成フィルタ122とに送られる。
The α parameter from the LPC analysis circuit 132 of the LPC analysis / quantization unit 113 is sent to an auditory weighting filter calculation circuit 139 to obtain data for auditory weighting. Vector quantizer 116 and the second encoding unit 12
0 and a synthesis filter 122 with a perceptual weight.

【0044】ハーモニック符号化回路等のサイン波分析
符号化部114では、LPC逆フィルタ111からの出
力を、ハーモニック符号化の方法で分析する。すなわ
ち、ピッチ検出、各ハーモニクスの振幅Amの算出、有
声音(V)/無声音(UV)の判別を行い、ピッチによ
って変化するハーモニクスのエンベロープあるいは振幅
Amの個数を次元変換して一定数にしている。
The sine wave analysis encoding unit 114 such as a harmonic encoding circuit analyzes the output from the LPC inverse filter 111 by a harmonic encoding method. That is, pitch detection, calculation of the amplitude Am of each harmonic, determination of voiced sound (V) / unvoiced sound (UV) are performed, and the number of the envelopes or amplitudes Am of the harmonics that change with the pitch is dimensionally converted to a constant number. .

【0045】図3に示すサイン波分析符号化部114の
具体例においては、一般のハーモニック符号化を想定し
ているが、特に、MBE(Multiband Excitation: マル
チバンド励起)符号化の場合には、同時刻(同じブロッ
クあるいはフレーム内)の周波数軸領域いわゆるバンド
毎に有声音(Voiced)部分と無声音(Unvoiced)部分と
が存在するという仮定でモデル化することになる。それ
以外のハーモニック符号化では、1ブロックあるいはフ
レーム内の音声が有声音か無声音かの択一的な判定がな
されることになる。なお、以下の説明中のフレーム毎の
V/UVとは、MBE符号化に適用した場合には全バン
ドがUVのときを当該フレームのUVとしている。ここ
で上記MBEの分析合成手法については、本件出願人が
先に提案した特願平4−91422号明細書及び図面に
詳細な具体例を開示している。
In the specific example of the sine wave analysis encoding unit 114 shown in FIG. 3, general harmonic encoding is assumed. In particular, in the case of MBE (Multiband Excitation) encoding, Modeling is performed on the assumption that a voiced portion and an unvoiced portion exist in the frequency domain at the same time (in the same block or frame), that is, for each band. In other harmonic coding, an alternative determination is made as to whether voice in one block or frame is voiced or unvoiced. In the following description, the term “V / UV for each frame” means that when all bands are UV when applied to MBE coding, the UV of the frame is used. Regarding the MBE analysis / synthesis technique, detailed specific examples are disclosed in the specification and drawings of Japanese Patent Application No. 4-91422 previously proposed by the present applicant.

【0046】図3のサイン波分析符号化部114のオー
プンループピッチサーチ部141には、上記入力端子1
01からの入力音声信号が、またゼロクロスカウンタ1
42には、上記HPF(ハイパスフィルタ)109から
の信号がそれぞれ供給されている。サイン波分析符号化
部114の直交変換回路145には、LPC逆フィルタ
111からのLPC残差あるいは線形予測残差が供給さ
れている。オープンループピッチサーチ部141では、
入力信号のLPC残差をとってオープンループによる比
較的ラフなピッチのサーチが行われ、抽出された粗ピッ
チデータは高精度ピッチサーチ146に送られて、後述
するようなクローズドループによる高精度のピッチサー
チ(ピッチのファインサーチ)が行われる。また、オー
プンループピッチサーチ部141からは、上記粗ピッチ
データと共にLPC残差の自己相関の最大値をパワーで
正規化した正規化自己相関最大値r(p) が取り出され、
V/UV(有声音/無声音)判定部115に送られてい
る。
The open-loop pitch search section 141 of the sine wave analysis encoding section 114 shown in FIG.
01 and the zero-cross counter 1
Signals from the HPF (high-pass filter) 109 are supplied to 42 respectively. The LPC residual or the linear prediction residual from the LPC inverse filter 111 is supplied to the orthogonal transform circuit 145 of the sine wave analysis encoding unit 114. In the open loop pitch search section 141,
An LPC residual of the input signal is used to perform a relatively rough pitch search by an open loop, and the extracted coarse pitch data is sent to a high-precision pitch search 146, and a high-precision closed loop as described later is used. A pitch search (fine search of the pitch) is performed. From the open loop pitch search section 141, a normalized autocorrelation maximum value r (p) obtained by normalizing the maximum value of the autocorrelation of the LPC residual with power together with the coarse pitch data is extracted.
V / UV (voiced sound / unvoiced sound) determination unit 115.

【0047】直交変換回路145では例えばDFT(離
散フーリエ変換)等の直交変換処理が施されて、時間軸
上のLPC残差が周波数軸上のスペクトル振幅データに
変換される。この直交変換回路145からの出力は、高
精度ピッチサーチ部146及びスペクトル振幅あるいは
エンベロープを評価するためのスペクトル評価部148
に送られる。
The orthogonal transform circuit 145 performs an orthogonal transform process such as DFT (Discrete Fourier Transform) to convert the LPC residual on the time axis into spectrum amplitude data on the frequency axis. An output from the orthogonal transform circuit 145 is output to a high-precision pitch search unit 146 and a spectrum evaluation unit 148 for evaluating a spectrum amplitude or an envelope.
Sent to

【0048】高精度(ファイン)ピッチサーチ部146
には、オープンループピッチサーチ部141で抽出され
た比較的ラフな粗ピッチデータと、直交変換部145に
より例えばDFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部146では、上記
粗ピッチデータ値を中心に、0.2〜0.5きざみで±数サ
ンプルずつ振って、最適な小数点付き(フローティン
グ)のファインピッチデータの値へ追い込む。このとき
のファインサーチの手法として、いわゆる合成による分
析 (Analysis by Synthesis)法を用い、合成されたパワ
ースペクトルが原音のパワースペクトルに最も近くなる
ようにピッチを選んでいる。このようなクローズドルー
プによる高精度のピッチサーチ部146からのピッチデ
ータについては、スイッチ118を介して出力端子10
4に送っている。
High precision (fine) pitch search section 146
Is supplied with relatively rough coarse pitch data extracted by the open loop pitch search unit 141 and data on the frequency axis, for example, DFT performed by the orthogonal transform unit 145. The high-precision pitch search unit 146 oscillates ± several samples at intervals of 0.2 to 0.5 around the coarse pitch data value to drive the value of the fine pitch data with a decimal point (floating) to an optimum value. At this time, as a method of fine search, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound. The pitch data from the high-precision pitch search unit 146 by such a closed loop is output via the switch 118 to the output terminal 10.
4

【0049】スペクトル評価部148では、LPC残差
の直交変換出力としてのスペクトル振幅及びピッチに基
づいて各ハーモニクスの大きさ及びその集合であるスペ
クトルエンベロープが評価され、高精度ピッチサーチ部
146、V/UV(有声音/無声音)判定部115及び
聴覚重み付きのベクトル量子化器116に送られる。
The spectrum evaluation section 148 evaluates the magnitude of each harmonic and a spectrum envelope which is a set of the harmonics based on the spectrum amplitude and the pitch as the orthogonal transform output of the LPC residual, and a high precision pitch search section 146, V / It is sent to a UV (voiced sound / unvoiced sound) determination unit 115 and a vector quantizer 116 with auditory weights.

【0050】V/UV(有声音/無声音)判定部115
は、直交変換回路145からの出力と、高精度ピッチサ
ーチ部146からの最適ピッチと、スペクトル評価部1
48からのスペクトル振幅データと、オープンループピ
ッチサーチ部141からの正規化自己相関最大値r(p)
と、ゼロクロスカウンタ142からのゼロクロスカウン
ト値とに基づいて、当該フレームのV/UV判定が行わ
れる。さらに、MBEの場合の各バンド毎のV/UV判
定結果の境界位置も当該フレームのV/UV判定の一条
件としてもよい。このV/UV判定部115からの判定
出力は、出力端子105を介して取り出される。
V / UV (voiced sound / unvoiced sound) determination unit 115
Are the output from the orthogonal transformation circuit 145, the optimum pitch from the high-precision pitch search unit 146, and the spectrum evaluation unit 1
48 and the normalized autocorrelation maximum value r (p) from the open loop pitch search unit 141.
And the V / UV determination of the frame based on the zero cross count value from the zero cross counter 142. Further, the boundary position of the V / UV determination result for each band in the case of MBE may be used as one condition for V / UV determination of the frame. The determination output from the V / UV determination unit 115 is taken out via the output terminal 105.

【0051】ところで、スペクトル評価部148の出力
部あるいはベクトル量子化器116の入力部には、デー
タ数変換(一種のサンプリングレート変換)部が設けら
れている。このデータ数変換部は、上記ピッチに応じて
周波数軸上での分割帯域数が異なり、データ数が異なる
ことを考慮して、エンベロープの振幅データ|Am|を
一定の個数にするためのものである。すなわち、例えば
有効帯域を3400kHzまでとすると、この有効帯域が
上記ピッチに応じて、8バンド〜63バンドに分割され
ることになり、これらの各バンド毎に得られる上記振幅
データ|Am|の個数mMX+1も8〜63と変化するこ
とになる。このためデータ数変換部119では、この可
変個数mMX+1の振幅データを一定個数M個、例えば4
4個、のデータに変換している。
By the way, an output section of the spectrum evaluation section 148 or an input section of the vector quantizer 116 is provided with a data number conversion (a kind of sampling rate conversion) section. The number-of-data converters are used to make the amplitude data | A m | of the envelope a constant number in consideration of the fact that the number of divided bands on the frequency axis varies according to the pitch and the number of data varies. It is. That is, for example, if the effective band is up to 3400 kHz, this effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude data | A m | of each of these bands is obtained. The number m MX +1 also changes from 8 to 63. Therefore, the data number conversion unit 119 converts the variable number m MX +1 of amplitude data into a fixed number M, for example, 4
It is converted into four data.

【0052】このスペクトル評価部148の出力部ある
いはベクトル量子化器116の入力部に設けられたデー
タ数変換部からの上記一定個数M個(例えば44個)の
振幅データあるいはエンベロープデータが、ベクトル量
子化器116により、所定個数、例えば44個のデータ
毎にまとめられてベクトルとされ、重み付きベクトル量
子化が施される。この重みは、聴覚重み付けフィルタ算
出回路139からの出力により与えられる。ベクトル量
子化器116からの上記エンベロープのインデクスidS
は、スイッチ117を介して出力端子103より取り出
される。なお、上記重み付きベクトル量子化に先だっ
て、所定個数のデータから成るベクトルについて適当な
リーク係数を用いたフレーム間差分をとっておくように
してもよい。
The above-mentioned fixed number M (for example, 44) of amplitude data or envelope data from the number-of-data conversion section provided at the output section of the spectrum estimating section 148 or the input section of the vector quantizer 116 is used as a vector quantization section. The data is grouped into a vector by a predetermined number, for example, 44 pieces of data, and weighted vector quantization is performed. This weight is given by the output from the auditory weighting filter calculation circuit 139. The index idS of the envelope from the vector quantizer 116
Is taken out of the output terminal 103 via the switch 117. Prior to the weighted vector quantization, an inter-frame difference using an appropriate leak coefficient may be calculated for a vector composed of a predetermined number of data.

【0053】次に、第2の符号化部120について説明
する。第2の符号化部120は、いわゆるCELP(符
号励起線形予測)符号化構成を有しており、特に、入力
音声信号の無声音部分の符号化のために用いられてい
る。この無声音部分用のCELP符号化構成において、
雑音コードブック、いわゆるストキャスティック・コー
ドブック(stochastic code book)121からの代表値
出力である無声音のLPC残差に相当するノイズ出力
を、ゲイン回路126を介して、聴覚重み付きの合成フ
ィルタ122に送っている。重み付きの合成フィルタ1
22では、入力されたノイズをLPC合成処理し、得ら
れた重み付き無声音の信号を減算器123に送ってい
る。減算器123には、上記入力端子101からHPF
(ハイパスフィルタ)109を介して供給された音声信
号を聴覚重み付けフィルタ125で聴覚重み付けした信
号が入力されており、合成フィルタ122からの信号と
の差分あるいは誤差を取り出している。なお、聴覚重み
付けフィルタ125の出力から聴覚重み付き合成フィル
タの零入力応答を事前に差し引いておくものとする。こ
の誤差を距離計算回路124に送って距離計算を行い、
誤差が最小となるような代表値ベクトルを雑音コードブ
ック121でサーチする。このような合成による分析
(Analysis by Synthesis )法を用いたクローズドルー
プサーチを用いた時間軸波形のベクトル量子化を行って
いる。
Next, the second encoding section 120 will be described. The second encoding unit 120 has a so-called CELP (Code Excited Linear Prediction) encoding configuration, and is particularly used for encoding an unvoiced sound portion of an input audio signal. In this unvoiced CELP coding configuration,
A noise output corresponding to an LPC residual of unvoiced sound, which is a representative value output from a noise codebook, that is, a so-called stochastic codebook 121, is passed through a gain circuit 126 to a perceptual weighted synthesis filter 122. to be sending. Weighted synthesis filter 1
At 22, the input noise is subjected to LPC synthesis processing, and the obtained weighted unvoiced sound signal is sent to the subtractor 123. The subtractor 123 has an HPF from the input terminal 101.
A signal obtained by subjecting the audio signal supplied via the (high-pass filter) 109 to auditory weighting by the auditory weighting filter 125 is input, and a difference or error from the signal from the synthesis filter 122 is extracted. It is assumed that the zero input response of the synthesis filter with auditory weight is subtracted from the output of the auditory weight filter 125 in advance. This error is sent to the distance calculation circuit 124 to calculate the distance,
A representative value vector that minimizes the error is searched in the noise codebook 121. Vector quantization of a time-axis waveform is performed by using a closed-loop search using an analysis by synthesis method.

【0054】このCELP符号化構成を用いた第2の符
号化部120からのUV(無声音)部分用のデータとし
ては、雑音コードブック121からのコードブックのシ
ェイプインデクスidSlと、ゲイン回路126からのコー
ドブックのゲインインデクスidGlとが取り出される。雑
音コードブック121からのUVデータであるシェイプ
インデクスidSlは、スイッチ127sを介して出力端子
107sに送られ、ゲイン回路126のUVデータであ
るゲインインデクスidGlは、スイッチ127gを介して
出力端子107gに送られている。
The data for the UV (unvoiced sound) portion from the second encoding unit 120 using this CELP encoding configuration includes the shape index idSl of the codebook from the noise codebook 121 and the data from the gain circuit 126. The codebook gain index idGl is extracted. The shape index idSl which is UV data from the noise codebook 121 is sent to the output terminal 107s via the switch 127s, and the gain index idGl which is UV data for the gain circuit 126 is sent to the output terminal 107g via the switch 127g. Have been.

【0055】ここで、これらのスイッチ127s、12
7g及び上記スイッチ117、118は、上記V/UV
判定部115からのV/UV判定結果によりオン/オフ
制御され、スイッチ117、118は、現在伝送しよう
とするフレームの音声信号のV/UV判定結果が有声音
(V)のときオンとなり、スイッチ127s、127g
は、現在伝送しようとするフレームの音声信号が無声音
(UV)のときオンとなる。
Here, these switches 127s, 12s
7g and the switches 117 and 118 are connected to the V / UV
On / off control is performed based on the V / UV determination result from the determination unit 115, and the switches 117 and 118 are turned on when the V / UV determination result of the audio signal of the frame to be currently transmitted is voiced (V). 127s, 127g
Is turned on when the audio signal of the frame to be transmitted at present is unvoiced (UV).

【0056】以上のように構成される音声符号化器3が
出力した各パラメータ、すなわち、LSPパラメータLS
P、有声音/無声音判定パラメータVUV、ピッチパラメー
タPCH、スペクトルエンベロープのコードブックパラメ
ータidS及びゲインインデクスidG、雑音コードブックパ
ラメータidSl及びゲインインデクスidGlを2k/4kb
ps符号化に分け、割り当てビット数も示したのが、図
4及び図5である。図4には2kbps及び4kbpsに共通の
パラメータを示す。図5には4kbpsにのみ固有のパラメ
ータを示す。共に1フレーム当たりのパラメータであ
る。
Each parameter output from the speech encoder 3 configured as described above, that is, the LSP parameter LS
P, voiced / unvoiced sound determination parameter VUV, pitch parameter PCH, codebook parameter idS and gain index idG of spectrum envelope, noise codebook parameter idSl and gain index idGl are 2k / 4kb.
FIG. 4 and FIG. 5 show the number of allocated bits separately for ps encoding. FIG. 4 shows parameters common to 2 kbps and 4 kbps. FIG. 5 shows parameters specific to only 4 kbps. Both are parameters per frame.

【0057】LSPパラメータは、LSP0,LSP2,LSP3,
LSP4,LSP5に分けられる。LSP0は10次のLSPパ
ラメータのコードブックインデクスであり、エンベロー
プの基本的なパラメータとして使われ、20msecのフレ
ームでは5ビットが割り当てられる。LSP2は5次の低
周波数域誤差補正のLSPパラメータのコードブックイ
ンデクスであり、7ビットが割り当てられる。LSP3は
5次の高周波数域誤差補正のLSPパラメータのコード
ブックインデクスであり、5ビットが割り当てられる。
LSP5は10次の全帯域誤差補正のLSPパラメータの
コードブックインデクスであり、8ビットが割り当てら
れる。このうち、LSP2,LSP3及びLSP5は前の段階で
の誤差を埋めてやるために使われるインデクスであり、
特に、LSP2とLSP3はLSP0でエンベロープを表現しき
れなかったときに補助的に用いられる。LSP4は符号化
時の符号化モードが直接モード(straight mode)であ
るか、差分モード(differential mode)であるかの1
ビットの選択フラグである。元々の波形から分析して求
めたオリジナルのLSPパラメータに対する、量子化に
より求めた直接モードのLSPと、量子化された差分に
より求めたLSPの差の少ない方のモードの選択を示
す。LSP4が0であるときには直接モードであり、LSP4
が1であるときには差分モードである。
The LSP parameters are LSP0, LSP2, LSP3,
LSP4 and LSP5. LSP0 is a codebook index of the 10th-order LSP parameter, which is used as a basic parameter of the envelope, and 5 bits are allocated to a 20 msec frame. LSP2 is a codebook index of an LSP parameter for fifth-order low frequency band error correction, and is assigned 7 bits. LSP3 is a codebook index of an LSP parameter for fifth-order high frequency band error correction, and is assigned 5 bits.
LSP5 is a codebook index of an LSP parameter for 10th-order full band error correction, and is assigned 8 bits. Of these, LSP2, LSP3 and LSP5 are indexes used to fill in errors in the previous stage,
In particular, LSP2 and LSP3 are used supplementarily when the envelope cannot be completely expressed by LSP0. The LSP 4 is used to determine whether the encoding mode at the time of encoding is a direct mode (straight mode) or a differential mode (differential mode).
This is a bit selection flag. The selection of a mode having a smaller difference between the LSP of the direct mode obtained by quantization and the LSP obtained by the quantized difference with respect to the original LSP parameter obtained by analysis from the original waveform is shown. When LSP4 is 0, it is in direct mode and LSP4
Is 1 in the difference mode.

【0058】VUVパラメータは、所定のフレーム内の音
声符号化データが有声音/無声音(Voiced/Unvoiced)
であるかを示すフラグであり、2ビットが割り当てられ
る。
The VUV parameter is such that voice encoded data in a predetermined frame is voiced / unvoiced (Voiced / Unvoiced).
, And 2 bits are allocated.

【0059】PCHパラメータは、ピッチパラメータであ
り、上述したようにクローズドループによる高精度のピ
ッチサーチ部146からのピッチデータであり、7ビッ
トが割り当てられる。
The PCH parameter is a pitch parameter, which is pitch data from the high-precision closed-loop pitch search unit 146 as described above, and is assigned 7 bits.

【0060】スペクトルエンベロープのコードブックパ
ラメータidSは2kbpsの場合、idS0で記される第0LPC
残差スペクトルコードブックインデクスとidS1で記さ
れる第1LPC残差スペクトルコードブックインデスクに
分けられる。共に4ビットが割り当てられる。第0及び
第1LPC残差スペクトルコードブックインデクスは別々
のコードブックに対応したインデクスでありそれらより
選択された両コードブックの加算によりLPC残差スペク
トルが形成される。idGはLPC残差スペクトルゲインコー
ドブックインデスクであり、5ビットが割り当てられ
る。また、スペクトルエンベロープのコードブックパラ
メータidSは4kbpsの場合、idS0_4kで記される第0拡
張LPC残差スペクトルコードブックインデクスと、idS1
_4kで記される第1拡張LPC残差スペクトルコードブック
インデクスと、idS2_4kで記される第2拡張LPC残差ス
ペクトルコードブックインデクスと、idS3_4kで記され
る第3拡張LPC残差スペクトルコードブックインデクス
とに分けられる。idS0_4kには7ビットが割り当てら
れ、idS1_4kには10ビット、idS2_4kには9ビット、
idS3_4kには6ビットが割り当てられる。
When the codebook parameter idS of the spectral envelope is 2 kbps, the 0th LPC described by idS0
It is divided into a residual spectrum codebook index and a first LPC residual spectrum codebook index denoted by idS1. In each case, 4 bits are allocated. The 0th and 1st LPC residual spectrum codebook indexes are indices corresponding to different codebooks, and an LPC residual spectrum is formed by adding both codebooks selected therefrom. idG is the LPC residual spectrum gain codebook indesk and is assigned 5 bits. If the codebook parameter idS of the spectrum envelope is 4 kbps, the 0th extended LPC residual spectrum codebook index denoted by idS0_4k and idS1
_4k, a second extended LPC residual spectrum codebook index denoted by idS2_4k, and a third extended LPC residual spectrum codebook index denoted by idS3_4k. Divided into 7 bits are allocated to idS0_4k, 10 bits to idS1_4k, 9 bits to idS2_4k,
Six bits are assigned to idS3_4k.

【0061】ここで、idS0_4k他は、idS0,idS1,id
Gにより得られる量子化LPC残差スペクトルとオリジナル
のLPC残差スペクトルの誤差分を補正するもので、idS3
_4kに向けて低い周波数成分から高い周波数成分へと補
正範囲が割り当てられている。
Here, idS0_4k and others are idS0, idS1, id
G is used to correct the error between the quantized LPC residual spectrum obtained by G and the original LPC residual spectrum.
A correction range is assigned from low frequency components to high frequency components toward _4k.

【0062】これら以外のパラメータは無声音(Unvoic
ed)のとき使われるもので、idSL00やidSL11などSL
の付いたものは雑音コードブックインデクス、idGL00
やidGL11などGLの付いたものは雑音コードブックゲイ
ンコードブックインデクスを表す。idSL00には6ビッ
トが、idSL01には6ビットが、idGL00には4ビット
が、idGL01にも4ビットが割り当てられる。また、id
SL10には5ビットが、idSL11にも5ビットが、idSL
12にも5ビットが、idSL13にも5ビットが割り当て
られる。また、また、idGL10には3ビットが、idGL1
1にも3ビットが、idGL12にも3ビットが、idGL13
にも3ビットが割り当てられる。
The other parameters are unvoiced (Unvoic
ed), used for idSL00, idSL11, etc.
Those marked with are the noise codebook index, idGL00
A code with GL such as IDGL11 or idGL11 indicates a noise codebook gain codebook index. Six bits are assigned to idSL00, six bits are assigned to idSL01, four bits are assigned to idGL00, and four bits are also assigned to idGL01. Also, id
SL10 has 5 bits, idSL11 has 5 bits, idSL
5 bits are also allocated to 12 and 5 bits are also allocated to idSL13. Also, idGL10 has 3 bits, idGL1
1 also has 3 bits, idGL12 has 3 bits, idGL13
Are also assigned 3 bits.

【0063】そして、上記図4及び図5に示した各パラ
メータは、クラス分割&入力順決定部23により、伝送
路誤りに対するビットの聴感上の感度に応じて複数のク
ラスに分けられる。
Each of the parameters shown in FIGS. 4 and 5 is divided into a plurality of classes by the class division & input order determination unit 23 in accordance with the audibility of bits to transmission path errors.

【0064】クラス分割&入力順決定部23はビットレ
ートが2kbps(伝送レート3.5kbps)の場合に、有声
音及び無声音を図6及び図7に示すように、例えば6ク
ラスに分ける。この図において添え字“p”は前フレー
ム、添え字“c”は現在フレームに対応する。つまり、
前フレームpと現在フレームcの2フレーム分を対象と
している。また、クラスの数字が小さいほど重要ビット
であることを示す。
When the bit rate is 2 kbps (the transmission rate is 3.5 kbps), the class division & input order determination unit 23 divides voiced and unvoiced sounds into, for example, six classes as shown in FIGS. In this figure, the suffix “p” corresponds to the previous frame, and the suffix “c” corresponds to the current frame. That is,
Two frames of the previous frame p and the current frame c are targeted. Also, the smaller the class number, the more significant the bit.

【0065】先ず、有声音である場合について図6を参
照して説明する。LSPパラメータの、10次のコード
ブックインデスクLSP0は前フレームp及び現在フレーム
c共に5ビット全てがクラスIとされる。また、LSP
パラメータの5次の低周波数域誤差補正のコードブック
インデクスLSP2は前フレームp及び現在フレームc共
に7ビットの内の2ビットがクラスIとされ、残りの5
ビットがクラスVIとされる。また、LSPパラメータの
5次の高周波数域誤差補正のコードブックインデクスLS
P3は前フレームp及び現在フレームc共に5ビットの
内の1ビットがクラスIとされ、残りの4ビットがクラ
スVIとされる。また、LSPパラメータの直接モード/
差分モード選択フラグLSP4は前フレームp及び現在フ
レームc共にクラスIで保護される。
First, the case of a voiced sound will be described with reference to FIG. In the 10th-order codebook desk LSP0 of the LSP parameter, all 5 bits of both the previous frame p and the current frame c are Class I. Also, LSP
In the codebook index LSP2 for the fifth-order low frequency band error correction of the parameter, 2 bits out of 7 bits in both the previous frame p and the current frame c are class I, and the remaining 5
The bit is class VI. Also, a codebook index LS for fifth-order high frequency range error correction of LSP parameters
In P3, one of the five bits in both the previous frame p and the current frame c is set to class I, and the remaining four bits are set to class VI. In addition, the direct mode /
The difference mode selection flag LSP4 is protected by class I for both the previous frame p and the current frame c.

【0066】また、有声音/無声音フラグVUVの各2ビ
ットは前フレームp及び現在フレームc共にクラスIで
保護される。また、ピッチパラメータPCHは7ビットの
内の6ビットが前フレームp及び現在フレームc共にク
ラスIとされ、残りの1ビットがクラスVIとされる。
Each of the two bits of the voiced / unvoiced flag VUV is protected by class I for both the previous frame p and the current frame c. In the pitch parameter PCH, 6 bits out of 7 bits are set to class I for both the previous frame p and the current frame c, and the remaining 1 bit is set to class VI.

【0067】また、LPC残差スペクトルゲインコードブ
ックインデクスidGの5ビットは前フレームp及び現在
フレームc共に全てクラスIとされて保護される。ま
た、前フレームpの第0LPC残差スペクトルコードブッ
クインデクスidS0は全てクラスIIとされるが、現在フ
レームcの第0LPC残差スペクトルコードブックインデ
クスidS0は全てクラスIVとされる。また、前フレーム
pの第1LPC残差スペクトルコードブックインデクスidS
1の4ビットは全てクラスIIIとされるが、現在フレー
ムcの第1LPC残差スペクトルコードブックインデクスi
dS1の4ビットは全てクラスVとされる。
Further, the 5 bits of the LPC residual spectrum gain codebook index idG are both class I and protected for both the previous frame p and the current frame c. Also, the 0th LPC residual spectrum codebook index idS0 of the previous frame p is all class II, but the 0th LPC residual spectrum codebook index idS0 of the current frame c is all class IV. Also, the first LPC residual spectrum codebook index idS of the previous frame p
All four bits of 1 are class III, but the first LPC residual spectrum codebook index i of the current frame c
All four bits of dS1 are set to class V.

【0068】次に、ビットレートが2kbps(伝送レート
3.5kbps)で、無声音である場合について図7を参照
して説明する。LSPパラメータの、10次のコードブ
ックインデスクLSP0は前フレームp及び現在フレームc
共に5ビット全てがクラスIとされる。
Next, the case where the bit rate is 2 kbps (transmission rate 3.5 kbps) and the voice is unvoiced will be described with reference to FIG. The 10th codebook in-desktop LSP0 of the LSP parameter is the previous frame p and the current frame c.
In all cases, all 5 bits are set to class I.

【0069】また、LSPパラメータの5次の低周波数
域誤差補正のコードブックインデクスLSP2は前フレー
ムp及び現在フレームc共に7ビットの内の4ビットが
クラスIとされ、残りの3ビットがクラスVIとされる。
また、LSPパラメータの5次の高周波数域誤差補正の
コードブックインデクスLSP3は前フレームp及び現在
フレームc共に5ビットの内の2ビットがクラスIとさ
れ、残りの3ビットがクラスVIとされる。また、LSP
パラメータの直接モード/差分モード選択フラグLSP4
は前フレームp及び現在フレームc共にクラスIで保護
される。
In the codebook index LSP2 for the fifth-order low frequency band error correction of the LSP parameter, 4 bits out of 7 bits in both the previous frame p and the current frame c are of class I, and the remaining 3 bits are in class VI. It is said.
In the codebook index LSP3 for the fifth-order high frequency band error correction of the LSP parameter, 2 bits out of 5 bits in both the previous frame p and the current frame c are set to class I, and the remaining 3 bits are set to class VI. . Also, LSP
Parameter direct mode / differential mode selection flag LSP4
Is protected by class I for both the previous frame p and the current frame c.

【0070】また、有声音/無声音フラグVUVの各2ビ
ットは前フレームp及び現在フレームc共にクラスIで
保護される。
Further, each of the two bits of the voiced / unvoiced flag VUV is protected by class I for both the previous frame p and the current frame c.

【0071】また、雑音コードブックゲインコードブッ
クインデクスidGL00の4ビットは前フレームp及び現
在フレームc共に全てクラスIとされて保護される。ま
た、雑音コードブックゲインコードブックインデクスid
GL01の4ビットも前フレームp及び現在フレームc共
に全てクラスIとされて保護される。また、雑音コード
ブックインデクスidSL00の6ビットは前フレームp及
び現在フレームc共に全てクラスVIとされる。また、雑
音コードブックインデクスidSL01の6ビットも前フレ
ームp及び現在フレームc共に全てクラスVIとされる。
Also, the 4 bits of the noise codebook gain codebook index idGL00 are both class I and protected for both the previous frame p and the current frame c. Also, the noise codebook gain codebook index id
The 4 bits of GL01 are also set to Class I for both the previous frame p and the current frame c and protected. Also, the 6 bits of the noise codebook index idSL00 are all set to class VI for both the previous frame p and the current frame c. Also, the 6 bits of the noise codebook index idSL01 are also all set to class VI for both the previous frame p and the current frame c.

【0072】この無声音においてクラスVIのビットの一
部がクラスIIからVのビットとして保護されているが、
誤りを検出した場合には他のクラスVIのビットと同様に
何の処置も施されない。
In this unvoiced sound, some of the bits of class VI are protected as bits of class II to V,
If an error is detected, no action is taken as in the case of other class VI bits.

【0073】ビットレートが4kbps(伝送レート6.2
kbps)の場合、クラス分割&入力順決定部23は、有声
音及び無声音を図8及び図9に示すように、例えば7ク
ラスに分ける。この図でも添え字“p”は前フレーム、
添え字“c”は現在フレームに対応する。つまり、前フ
レームpと現在フレームcの2フレーム分を対象として
いる。また、クラスの数字が小さいほど重要ビットであ
ることを示すのも同様である。
When the bit rate is 4 kbps (the transmission rate is 6.2
In the case of (kbps), the class division & input order determination unit 23 divides the voiced sound and the unvoiced sound into, for example, seven classes as shown in FIGS. Also in this figure, the suffix “p” is the previous frame,
The suffix "c" corresponds to the current frame. That is, two frames of the previous frame p and the current frame c are targeted. Similarly, the smaller the class number, the more significant the bit.

【0074】先ず、有声音である場合について図8を参
照して説明する。LSPパラメータの、10次のコード
ブックインデスクLSP0は前フレームp及び現在フレーム
c共に5ビット全てがクラスIとされる。また、LSP
パラメータの5次の低周波数域誤差補正のコードブック
インデクスLSP2は前フレームp及び現在フレームc共
に7ビットの内の4ビットがクラスIとされ、残りの3
ビットがクラスVIIとされる。また、LSPパラメータ
の5次の高周波数域誤差補正のコードブックインデクス
LSP3は前フレームp及び現在フレームc共に5ビット
の内の1ビットがクラスIとされ、残りの4ビットがク
ラスVIIとされる。また、LSPパラメータの直接モー
ド/差分モード選択フラグLSP4は前フレームp及び現
在フレームc共にクラスIで保護される。
First, the case of a voiced sound will be described with reference to FIG. In the 10th-order codebook desk LSP0 of the LSP parameter, all 5 bits of both the previous frame p and the current frame c are Class I. Also, LSP
In the codebook index LSP2 for the fifth-order low frequency band error correction of the parameter, 4 bits out of 7 bits in both the previous frame p and the current frame c are set to class I, and the remaining 3
The bits are assigned to class VII. Also, a codebook index for fifth-order high frequency range error correction of LSP parameters
In LSP3, one of the five bits in both the previous frame p and the current frame c is set to class I, and the remaining four bits are set to class VII. Further, the direct mode / difference mode selection flag LSP4 of the LSP parameter is protected by class I for both the previous frame p and the current frame c.

【0075】また、有声音/無声音フラグVUVの各2ビ
ットは前フレームp及び現在フレームc共にクラスIで
保護される。また、ピッチパラメータPCHは7ビットの
内の6ビットが前フレームp及び現在フレームc共にク
ラスIとされ、残りの1ビットがクラスVIIとされる。
The two bits of the voiced / unvoiced flag VUV are protected by class I for both the previous frame p and the current frame c. In the pitch parameter PCH, 6 bits out of 7 bits are set to class I for both the previous frame p and the current frame c, and the remaining 1 bit is set to class VII.

【0076】また、LPC残差スペクトルゲインコードブ
ックインデクスidGの5ビットは前フレームp及び現在
フレームc共に全てクラスIとされて保護される。ま
た、前フレームpの第0LPC残差スペクトルコードブッ
クインデクスidS0の4ビットは全てクラスIIIとされる
が、現在フレームcの第0LPC残差スペクトルコードブ
ックインデクスidS0の4ビットは全てクラスVとされ
る。また、前フレームpの第1LPC残差スペクトルコー
ドブックインデクスidS1の4ビットは全てクラスIVと
されるが、現在フレームcの第1LPC残差スペクトルコ
ードブックインデクスidS1の4ビットは全てクラスVI
とされる。
Also, the 5 bits of the LPC residual spectrum gain codebook index idG are all set to class I for both the previous frame p and the current frame c and protected. Also, all 4 bits of the 0th LPC residual spectrum codebook index idS0 of the previous frame p are set to class III, but all 4 bits of the 0th LPC residual spectrum codebook index idS0 of the current frame c are set to class V. . Also, all 4 bits of the first LPC residual spectrum codebook index idS1 of the previous frame p are of class IV, but all 4 bits of the first LPC residual spectrum codebook index idS1 of the current frame c are of class VI.
It is said.

【0077】また、第0拡張LPC残差スペクトルコード
ブックインデクスidS0_4kの7ビットの内の5ビットは
前フレームp及び現在フレームc共にクラスIとされる
が、残りの2ビットはクラスVIIとされる。また、第1
拡張LPC残差スペクトルコードブックインデクスidS1_4
kの10ビットの内の1ビットは前フレームp及び現在
フレームc共にクラスIとされるが、残りの9ビットは
クラスIIとされる。また、第2拡張LPC残差スペクトル
コードブックインデクスidS2_4kの9ビットの内の1ビ
ットは前フレームp及び現在フレームc共にクラスIと
されるが、残りの8ビットはクラスIIとされる。また、
第3拡張LPC残差スペクトルコードブックインデクスidS
3_4kの6ビットの内の1ビットは前フレームp及び現
在フレームc共にクラスIとされるが、残りの5ビット
はクラスIIとされる。
Further, 5 bits out of 7 bits of the 0th extended LPC residual spectrum codebook index idS0_4k are set to class I for both the previous frame p and the current frame c, but the remaining 2 bits are set to class VII. . Also, the first
Extended LPC residual spectrum codebook index idS1_4
One of the 10 bits of k is set to class I for both the previous frame p and the current frame c, while the remaining 9 bits are set to class II. One of the 9 bits of the second extended LPC residual spectrum codebook index idS2_4k is set to class I for both the previous frame p and the current frame c, but the remaining 8 bits are set to class II. Also,
Third extended LPC residual spectrum codebook index idS
One bit out of the 6 bits of 3-4k is set to class I for both the previous frame p and the current frame c, but the remaining 5 bits are set to class II.

【0078】次に、ビットレートが4kbps(伝送レート
6.2kbps)で、無声音である場合について図9を参照
して説明する。LSPパラメータの、10次のコードブ
ックインデスクLSP0は前フレームp及び現在フレームc
共に5ビット全てがクラスIとされる。
Next, a case where the bit rate is 4 kbps (transmission rate of 6.2 kbps) and the voice is unvoiced will be described with reference to FIG. The 10th codebook in-desktop LSP0 of the LSP parameter is the previous frame p and the current frame c.
In all cases, all 5 bits are set to class I.

【0079】また、LSPパラメータの5次の低周波数
域誤差補正のコードブックインデクスLSP2は前フレー
ムp及び現在フレームc共に7ビットの内の4ビットが
クラスIとされ、残りの3ビットがクラスVIIとされる。
また、LSPパラメータの5次の高周波数域誤差補正の
コードブックインデクスLSP3は前フレームp及び現在
フレームc共に5ビットの内の1ビットがクラスIとさ
れ、残りの4ビットがクラスVIIとされる。また、LS
Pパラメータの直接モード/差分モード選択フラグLSP
4は前フレームp及び現在フレームc共にクラスIで保
護される。また、10次の全帯域誤差補正のLSPパラメ
ータのコードブックインデクスLSP5は前フレームp及
び現在フレームc共に8ビットの内の1ビットがクラス
Iとされ、残りの7ビットがクラスVIIとされる。
In the codebook index LSP2 for the fifth-order low frequency band error correction of the LSP parameter, 4 bits out of 7 bits in both the previous frame p and the current frame c are class I, and the remaining 3 bits are class VII. It is said.
In the codebook index LSP3 for the fifth-order high frequency band error correction of the LSP parameter, one of the five bits in both the previous frame p and the current frame c is set to class I, and the remaining four bits are set to class VII. . Also, LS
P parameter direct mode / differential mode selection flag LSP
4 is protected by class I for both the previous frame p and the current frame c. Also, the codebook index LSP5 of the LSP parameter of the 10th-order whole band error correction is that one of the 8 bits in both the previous frame p and the current frame c has a class
I is set, and the remaining 7 bits are set to class VII.

【0080】また、有声音/無声音フラグVUVの各2ビ
ットは前フレームp及び現在フレームc共にクラスIで
保護される。
The two bits of the voiced / unvoiced flag VUV are protected by class I for both the previous frame p and the current frame c.

【0081】また、雑音コードブックゲインコードブッ
クインデクスidGL00の4ビットは前フレームp及び現
在フレームc共に全てクラスIとされて保護される。ま
た、雑音コードブックゲインコードブックインデクスid
GL01の4ビットも前フレームp及び現在フレームc共
に全てクラスIとされて保護される。
Further, the 4 bits of the noise codebook gain codebook index idGL00 are both class I and protected for both the previous frame p and the current frame c. Also, the noise codebook gain codebook index id
The 4 bits of GL01 are also set to Class I for both the previous frame p and the current frame c and protected.

【0082】また、雑音コードブックインデクスidSL0
0の6ビットは前フレームp及び現在フレームc共に全
てクラスVIIとされる。また、雑音コードブックインデ
クスidSL01の6ビットも前フレームp及び現在フレー
ムc共に全てクラスVIIとされる。
The noise codebook index idSL0
The 6 bits of 0 are all class VII for the previous frame p and the current frame c. Also, the 6 bits of the noise codebook index idSL01 are also set to class VII for both the previous frame p and the current frame c.

【0083】雑音コードブックゲインコードブックイン
デクスidGL10の3ビットは前フレームp及び現在フレ
ームc共に全てクラスIとされて保護される。また、雑
音コードブックゲインコードブックインデクスidGL11
の3ビットも前フレームp及び現在フレームc共に全て
クラスIとされて保護される。また、雑音コードブック
インデクスidGL12の3ビットも前フレームp及び現在
フレームc共に全てクラスIとされる。また、雑音コー
ドブックインデクスidGL13の3ビットの内の2ビット
は前フレームp及び現在フレームc共に全てクラスIと
されるが、残りの1ビットはクラスV11とされる。
The three bits of the noise codebook gain codebook index idGL10 are both class I and protected for both the previous frame p and the current frame c. Also, the noise codebook gain codebook index idGL11
Of the previous frame p and the current frame c are all class I and protected. In addition, the 3 bits of the noise codebook index idGL12 are also set to class I for both the previous frame p and the current frame c. Two bits of the three bits of the noise codebook index idGL13 are all class I for both the previous frame p and the current frame c, but the remaining one bit is class V11.

【0084】また、雑音コードブックインデクスidSL1
0の5ビットは前フレームp及び現在フレームc共に全
てクラスVIIとされる。また、雑音コードブックインデ
クスidSL11の5ビットも前フレームp及び現在フレー
ムc共に全てクラスVIIとされる。また、雑音コードブ
ックインデクスidSL12の5ビットも前フレームp及び
現在フレームc共に全てクラスVIIとされる。また、雑
音コードブックインデクスidSL13の5ビットも前フレ
ームp及び現在フレームc共に全てクラスVIIとされ
る。
The noise codebook index idSL1
The five bits of 0 are all class VII for both the previous frame p and the current frame c. Also, the 5 bits of the noise codebook index idSL11 are also set to class VII for both the previous frame p and the current frame c. In addition, the 5 bits of the noise codebook index idSL12 are also set to class VII for both the previous frame p and the current frame c. Also, the 5 bits of the noise codebook index idSL13 are also set to class VII for both the previous frame p and the current frame c.

【0085】ここでも無声音においてクラスVIIのビッ
トの一部がクラスIIからVIのビットとして保護されてい
るが、誤っていたとしても何の処置も施されず、他のク
ラスVIIのビットと同様に扱われる。
Here, part of the bits of class VII in the unvoiced sound are also protected as bits of class II to VI, but no action is taken even if they are erroneous, and like other class VII bits, Will be treated.

【0086】次に、2kbpsのクラスIからクラスVIまで
の有声音及び無声音の各パラメータの、伝送路符号化器
(チャネルコーダ)4への入力順を、図10及び図11
を用いて説明する。この入力順の決定も、上述したよう
に、クラス分割&入力順決定部23で行われる。ここで
ビットの並び順は伝送路のエラーに対するビットの聴感
上の感度に応じたものである。添え字“p”は前のフレ
ームのパラメータを示し、“c”は現在のフレームのパ
ラメータを示す。また、ビット0はLSBを示す。
Next, the input order of the parameters of voiced and unvoiced sounds of 2 kbps from class I to class VI to the transmission path encoder (channel coder) 4 will be described with reference to FIGS.
This will be described with reference to FIG. The determination of the input order is also performed by the class division & input order determination unit 23 as described above. Here, the order of the bits is determined according to the sensitivity of the bits to the audibility of a transmission line error. The suffix “p” indicates the parameter of the previous frame, and “c” indicates the parameter of the current frame. Bit 0 indicates LSB.

【0087】先ず、図10において、有声音のクラスI
の入力順は、前のフレームpの有声音/無声音判定フラ
グVUVの1番目のビットから、同じく前のフレームpの
有声音/無声音判定フラグVUVの0番目のビットに続
き、以下、前のフレームpのLSPパラメータの直接モ
ード/差分モード選択フラグLSP4の0番目のビット、
そして、前のフレームpのLPC残差スペクトルゲインコ
ードブックインデクスidGの4番目のビット、同3番目
のビット、同2番目のビット、同1番目のビット、同0
番目のビットへと続く。さらに、前のフレームのLSP
パラメータの、10次のコードブックインデスクLSP0の
4番目のビット、同3番目のビット、同2番目のビッ
ト、同1番目のビット、同0番目のビットへと続く。ま
たさらに、前のフレームpのピッチパラメータPCHの6
番目のビット、同5番目のビット、同4番目のビット、
同3番目のビット、同2番目のビット、同1番目のビッ
トへと続く。ここまでが、伝送路符号化器4へのNO.
0からNO.18までの入力順である。さらにNO.1
9からは前のフレームpのLSPパラメータの5次の低
周波数域誤差補正のコードブックインデクスLSP2の6
番目のビットが続き、NO.20は前のフレームpのL
SPパラメータの5次の高周波数域誤差補正のコードブ
ックインデクスLSP3の4番目のビットが続き、NO.
21には前のフレームpのLSPパラメータのコードブ
ックインデスクLSP2の5番目が続く。以下、NO.2
2からNO.43までには、現在のフレームcのパラメ
ータが、上記NO.0からNO.21までの順番を繰り
返すように、入力される。
First, in FIG. 10, voiced sound class I
Are input from the first bit of the voiced / unvoiced sound determination flag VUV of the previous frame p to the 0th bit of the voiced / unvoiced sound determination flag VUV of the previous frame p. 0th bit of the direct mode / differential mode selection flag LSP4 of the LSP parameter of p,
Then, the fourth bit, the third bit, the second bit, the first bit, and the zero bit of the LPC residual spectrum gain codebook index idG of the previous frame p
Continues to the th bit. In addition, the LSP of the previous frame
The parameter continues to the fourth bit, the third bit, the second bit, the first bit, and the zeroth bit of the tenth-order codebook in-desktop LSP0. Furthermore, the pitch parameter PCH of the previous frame p is 6
The fifth bit, the fifth bit, the fourth bit,
The third bit, the second bit, and the first bit continue. Up to this point, the NO.
0 to NO. The input order is up to 18. Further, NO. 1
9 from the codebook index LSP2 of the fifth-order low frequency band error correction of the LSP parameter of the previous frame p.
Bit follows and the NO. 20 is the L of the previous frame p
The fourth bit of the codebook index LSP3 for fifth-order high frequency band error correction of the SP parameter follows.
21 is followed by the fifth of the codebook in-desktop LSP2 of the LSP parameter of the previous frame p. Hereinafter, NO. 2
2 to NO. By 43, the parameter of the current frame c is set to the above-mentioned NO. 0 to NO. Input is performed so that the order up to 21 is repeated.

【0088】また、有声音のクラスIIビットの入力順
(NO.44からNO.47まで)は、前フレームpの
第0LPC残差スペクトルコードブックインデクスidS0の
3番目のビットから0番目までの計4ビットが図10に
示すように決定される。
The input order of voiced class II bits (from No. 44 to No. 47) is the sum of the 3rd to 0th bits of the 0th LPC residual spectrum codebook index idS0 of the previous frame p. Four bits are determined as shown in FIG.

【0089】また、有声音のクラスIIIビットの入力順
(NO.48からNO.51まで)は、前フレームpの
第1LPC残差スペクトルコードブックインデクスidS1の
3番目のビットから0番目までの計4ビットが図10に
示すように決定される。
The input order of the class III bits of the voiced sound (from No. 48 to No. 51) is the total from the third bit to the 0th bit of the first LPC residual spectrum codebook index idS1 of the previous frame p. Four bits are determined as shown in FIG.

【0090】また、有声音のクラスIVビットの入力順
(NO.52からNO.55まで)は、現在フレームc
の第0LPC残差スペクトルコードブックインデクスidS0
の3番目のビットから0番目までの計4ビットが図10
に示すように決定される。
The input order of the voiced class IV bits (from NO. 52 to NO. 55) is
0th LPC residual spectrum codebook index idS0
A total of 4 bits from the third bit to the 0th bit in FIG.
Is determined as shown in FIG.

【0091】また、有声音のクラスVビットの入力順
(NO.56からNO.59まで)は、現在フレームc
の第1LPC残差スペクトルコードブックインデクスidS1
の3番目のビットから0番目までの計4ビットが図10
に示すように決定される。
The input order of the voiced class V bits (from No. 56 to No. 59) is
LPC residual spectrum codebook index of idS1
A total of 4 bits from the third bit to the 0th bit in FIG.
Is determined as shown in FIG.

【0092】また、有声音のクラスVIビットの入力順
(NO.60からNO.79まで)は以下の通りとな
る。先ず、前フレームpのLSPパラメータの5次の低
周波数域誤差補正のコードブックインデクスLSP2の4
番目のビット、同3番目のビット、同2番目のビット、
同1番目のビット、同0番目のビットへと続く。ここま
でが、伝送路符号化器4へのNO.60からNO.64
までの入力順である。NO.65からNO.68まで
は、前のフレームpのLSPパラメータの5次の高周波
数域誤差補正のコードブックインデクスLSP3の3番目
のビット、同2番目のビット、同1番目のビット、同0
番目のビットが続く。NO.69には前のフレームpの
ピッチパラメータPCHの0番目のビットが入る。NO.
70からNO.74までは、現在フレームcのLSPパ
ラメータの5次の低周波数域誤差補正のコードブックイ
ンデクスLSP2の4番目のビット、同3番目のビット、
同2番目のビット、同1番目のビット、同0番目のビッ
トが続く。NO.75からNO.78までは、現在フレ
ームcのLSPパラメータの5次の高周波数域誤差補正
のコードブックインデクスLSP3の3番目のビット、同
2番目のビット、同1番目のビット、同0番目のビット
が続く。そして、最後のNO.79には、現在フレーム
cのピッチパラメータPCHの0番目のビットが入る。
The input order of voiced class VI bits (from No. 60 to No. 79) is as follows. First, the codebook index LSP2 of the 5th-order low frequency band error correction of the LSP parameter of the previous frame p
Bit, the third bit, the second bit,
It continues to the first bit and the zeroth bit. Up to this point, the NO. 60 to NO. 64
The input order is up to. NO. 65 to NO. Up to 68, the third bit, the second bit, the first bit, and the zero bit of the codebook index LSP3 for the fifth-order high frequency band error correction of the LSP parameter of the previous frame p
The th bit follows. NO. 69 is the 0th bit of the pitch parameter PCH of the previous frame p. NO.
70 to NO. Up to 74, the fourth bit, the third bit of the codebook index LSP2 for the fifth-order low frequency band error correction of the LSP parameter of the current frame c,
The second bit, the first bit, and the zeroth bit follow. NO. 75 to NO. Up to 78, the third bit, the second bit, the first bit, and the zeroth bit of the codebook index LSP3 for the fifth-order high frequency band error correction of the LSP parameter of the current frame c follow. And the last NO. 79 is the 0th bit of the pitch parameter PCH of the current frame c.

【0093】次に、図11において、無声音のクラスI
の入力順は、前のフレームpの有声音/無声音判定フラ
グVUVの1番目のビットから、同じく前のフレームpの
有声音/無声音判定フラグVUVの0番目のビットに続
き、以下、前のフレームpのLSPパラメータの直接モ
ード/差分モード選択フラグLSP4の0番目のビット、
そして、前のフレームpの雑音コードブックゲインコー
ドブックインデクスidGL00の3番目のビット、同2番
目のビット、同1番目のビット、同0番目のビットへと
続く。さらに、前のフレームの雑音コードブックゲイン
コードブックインデクスidGL01の3番目のビット、同
2番目のビット、同1番目のビット、同0番目のビット
へと続く。またさらに、前のフレームpのLSPパラメ
ータの10次のコードブックインデスクLSP0の4番目の
ビット、同3番目のビット、同2番目のビットから同0
番目のビットへと続く。ここまでが、伝送路符号化器4
へのNO.0からNO.15までの入力順である。さら
にNO.16からNO.19までは前のフレームpのL
SPパラメータの5次の低周波数域誤差補正のコードブ
ックインデクスLSP2の6番目のビット、同5番目のビ
ット、同4番目のビット、同3番目のビットが続く。N
O.20、NO21には前のフレームpのLSPパラメ
ータの5次の高周波数域誤差補正のコードブックインデ
クスLSP3の4番目のビット、同3番目のビットが入
る。以下、NO.22からNO.43までには、現在の
フレームcのパラメータが、上記NO.0からNO.2
1までの順番を繰り返すように、入力される。
Next, in FIG. 11, unvoiced sound class I
Are input from the first bit of the voiced / unvoiced sound determination flag VUV of the previous frame p to the 0th bit of the voiced / unvoiced sound determination flag VUV of the previous frame p. 0th bit of the direct mode / differential mode selection flag LSP4 of the LSP parameter of p,
Then, the third bit, the second bit, the first bit, and the zeroth bit of the noise codebook gain codebook index idGL00 of the previous frame p continue. Further, the third bit, the second bit, the first bit, and the zeroth bit of the noise codebook gain codebook index idGL01 of the previous frame continue. Furthermore, the fourth bit, the third bit, and the second bit of the 10th-order codebook in-desktop LSP0 of the LSP parameter of the previous frame p are set to 0
Continues to the th bit. Up to this point, the transmission path encoder 4
NO. 0 to NO. The input order is up to 15. Further, NO. 16 to NO. Until 19, L of the previous frame p
The sixth bit, the fifth bit, the fourth bit, and the third bit of the codebook index LSP2 for the fifth-order low frequency band error correction of the SP parameter follow. N
O. 20 and NO21 contain the fourth bit and the third bit of the codebook index LSP3 for the fifth-order high frequency band error correction of the LSP parameter of the previous frame p. Hereinafter, NO. 22 to NO. By 43, the parameter of the current frame c is set to the above-mentioned NO. 0 to NO. 2
Input is performed so that the order up to 1 is repeated.

【0094】また、無声音のクラスIIは、前フレームp
の5次の低周波数域誤差補正のコードブックインデクス
LSP2の2番目のビットから同0番目の計3ビットと、
5次の高周波数域誤差補正のコードブックインデクスLS
P3の2番目のビットという入力順(NO.44からN
O.47まで)とされる。
The unvoiced sound class II corresponds to the previous frame p
Codebook index for 5th order low frequency range error correction
A total of 3 bits from the 2nd bit to the 0th bit of LSP2,
Codebook index LS for fifth-order high frequency range error correction
The input order of the second bit of P3 (from NO.44 to N
O. Up to 47).

【0095】また、無声音のクラスIIIは、前フレーム
pの5次の高周波数域誤差補正のコードブックインデク
スLSP3の1番目のビットがNO.48に、同0番目の
ビットがNO.49になる入力順とされる。また、N
O.50には前フレームpの雑音コードブックインデク
スidSL00の5番目のビットが入り、NO.51には同
4番目のビットが入る。
In the unvoiced sound class III, the first bit of the fifth-order high frequency band error correction codebook index LSP3 of the previous frame p is NO. 48, the 0th bit is NO. The input order becomes 49. Also, N
O. The fifth bit of the noise codebook index idSL00 of the previous frame p is entered in NO. 51 contains the fourth bit.

【0096】また、無声音のクラスIVは、現在フレーム
cの5次の低周波数域誤差補正のコードブックインデク
スLSP2の2番目のビットから同0番目の計3ビット
と、5次の高周波数域誤差補正のコードブックインデク
スLSP3の2番目のビットという入力順(NO.52か
らNO.55まで)とされる。
The unvoiced sound class IV is composed of a total of three bits from the second bit to the zeroth bit of the codebook index LSP2 for the fifth-order low frequency band error correction of the current frame c, and a fifth-order high frequency band error. The input order is the second bit of the correction codebook index LSP3 (from NO. 52 to NO. 55).

【0097】また、無声音のクラスVは、現在フレーム
cの5次の高周波数域誤差補正のコードブックインデク
スLSP3の1番目のビットがNO.56に、同0番目の
ビットがNO.57になる入力順とされる。また、N
O.58には現在レームcの雑音コードブックインデク
スidSL00の5番目のビットが入り、NO.59には同
4番目のビットが入る。
In the unvoiced sound class V, the first bit of the codebook index LSP3 for the fifth-order high frequency band error correction of the current frame c is NO. 56, the 0th bit is NO. The input order is 57. Also, N
O. The fifth bit of the noise codebook index idSL00 of the current frame c is entered in NO. 59 contains the fourth bit.

【0098】また、無声音のクラスVIビットの入力順
(NO.60からNO.79まで)は以下の通りとな
る。先ず、前フレームpの雑音コードブックインデクス
idSL00の3番目のビット、同2番目のビット、同1番
目のビット、同0番目のビットへと続く。ここまでが、
伝送路符号化器4へのNO.60からNO.63までの
入力順である。NO.64からNO.69までは、前の
フレームpの雑音コードブックインデクスidSL01の5
番目のビット、同4番目のビット、同3番目のビット、
同2番目のビット、同1番目のビット、同0番目のビッ
トが続く。NO.70からNO.73までは、現在フレ
ームcの雑音コードブックインデクスidSL00の3番目
のビット、同2番目のビット、同1番目のビット、同0
番目のビットが続く。そして、NO.74からNO.7
9までは、現在フレームcの5番目のビット、同4番目
のビット、同3番目のビット、同2番目のビット、同1
番目のビット、同0番目のビットが続く。
The input order of class VI bits of unvoiced sound (from No. 60 to No. 79) is as follows. First, the noise codebook index of the previous frame p
It continues to the third bit, the second bit, the first bit, and the zeroth bit of idSL00. So far,
When the NO. 60 to NO. The input order is up to 63. NO. 64 to NO. Up to 69, 5 of the noise codebook index idSL01 of the previous frame p
The fourth bit, the fourth bit, the third bit,
The second bit, the first bit, and the zeroth bit follow. NO. 70 to NO. Up to 73, the third bit, the second bit, the first bit, and the zero bit of the noise codebook index idSL00 of the current frame c
The th bit follows. And NO. 74 to NO. 7
9, the fifth bit, the fourth bit, the third bit, the second bit, and the first bit of the current frame c.
The 0th bit and the 0th bit follow.

【0099】次に、4kbpsのクラスIからクラスVIIまで
の有声音及び無声音の各パラメータの、伝送路符号化器
(チャネルコーダ)4への入力順を、図12〜図14及
び図15〜図17に示す。ここでの入力順の決定も、上
述したように、クラス分割&入力順決定部23で行われ
る。ここでビットの並び順は伝送路のエラーに対するビ
ットの聴感上の感度に応じたものである。添え字“p”
は前のフレームのパラメータを示し、“ c”は現在の
フレームのパラメータを示す。また、ビット0はLSB
を示す。
Next, the input order of each parameter of voiced and unvoiced voices of 4 kbps from class I to class VII to the transmission path encoder (channel coder) 4 will be described with reference to FIGS. 12 to 14 and FIGS. 17 is shown. The determination of the input order here is also performed by the class division & input order determination unit 23 as described above. Here, the order of the bits is determined according to the sensitivity of the bits to the audibility of a transmission line error. Subscript "p"
Indicates the parameter of the previous frame, and “c” indicates the parameter of the current frame. Bit 0 is LSB
Is shown.

【0100】図12には有声音のクラスIの入力順を示
す。NO.0からNO.65まで、計66個のビットの
入力順が決定されている。先ず、前のフレームpの有声
音/無声音判定フラグVUVの1番目のビットから、同じ
く前のフレームpの有声音/無声音判定フラグVUVの0
番目のビットに続き、以下、前のフレームpのLSPパ
ラメータの直接モード/差分モード選択フラグLSP4の
0番目のビット、そして、前のフレームpのLPC残差ス
ペクトルゲインコードブックインデクスidG0の4番目の
ビット、同3番目のビット、同2番目のビット、同1番
目のビット、同0番目のビットへと続く。さらに、前の
フレームのLSPパラメータの、10次のコードブック
インデスクLSP0の4番目のビット、同3番目のビット、
同2番目のビット、同1番目のビット、同0番目のビッ
トへと続く。また、前のフレームpのピッチパラメータ
PCHの6番目のビット、同5番目のビット、同4番目の
ビット、同3番目のビット、同2番目のビット、同1番
目のビットへと続く。ここまでが、伝送路符号化器4へ
のNO.0からNO.18までの入力順である。さらに
NO.19からは前のフレームpのLSPパラメータの
5次の低周波数域誤差補正のコードブックインデクスLS
P2の6番目のビット、同5番目のビット(NO.2
0)、同4番目のビット(NO.21)、同3番目のビ
ット(NO.22)が続く。またNO.23からNO.
27までは、前フレームpの第0拡張LPC残差スペクト
ルコードブックインデクスidS0_4kの6番目のビット、
同5番目のビット、同4番目のビット、同3番目のビッ
ト、同2番目のビットが続く。また、NO.28には前
のフレームpの5次の高周波数域誤差補正のコードブッ
クインデクスLSP3の4番目が入り、NO.29には前
フレームpの10次の全帯域誤差補正のLSPパラメータ
のコードブックインデクスLSP5の7番目のビットが入
る。また、NO.30からNO.32までは、先ず、第
1拡張LPC残差スペクトルコードブックインデクスidS1
_4kの9番目のビット、第2拡張LPC残差スペクトルコー
ドブックインデクスidS2_4kの8番目のビット、第3拡
張LPC残差スペクトルコードブックインデクスidS3_4k
の5番目のビットが続く。以下、NO.33からNO.
65までには、現在のフレームcのパラメータが、上記
NO.0からNO.32までの順番を繰り返すように、
入力される。
FIG. 12 shows the input order of voiced class I. NO. 0 to NO. Up to 65, the input order of a total of 66 bits is determined. First, from the first bit of the voiced / unvoiced sound determination flag VUV of the previous frame p, the value of the voiced / unvoiced sound determination flag VUV of the previous frame p is set to 0.
Following the 0th bit, the 0th bit of the direct mode / differential mode selection flag LSP4 of the LSP parameter of the previous frame p, and the 4th bit of the LPC residual spectrum gain codebook index idG0 of the previous frame p Bit, the third bit, the second bit, the first bit, and the zeroth bit. Further, the fourth bit, the third bit of the 10th-order codebook in-desktop LSP0 of the LSP parameter of the previous frame,
The second bit, the first bit, and the zeroth bit continue. Also, the pitch parameter of the previous frame p
The sixth bit, the fifth bit, the fourth bit, the third bit, the second bit, and the first bit of the PCH continue. Up to this point, the NO. 0 to NO. The input order is up to 18. Further, NO. From 19, the codebook index LS for the fifth-order low frequency band error correction of the LSP parameter of the previous frame p
The sixth bit and the fifth bit of P2 (NO.2)
0), the fourth bit (NO. 21), and the third bit (NO. 22). NO. 23 to NO.
Up to 27, the sixth bit of the 0th extended LPC residual spectrum codebook index idS0_4k of the previous frame p,
The fifth bit, the fourth bit, the third bit, and the second bit follow. In addition, NO. The fourth codebook index LSP3 for the fifth-order high frequency band error correction of the previous frame p is entered in NO. Reference numeral 29 contains the seventh bit of the codebook index LSP5 of the LSP parameter for the 10th-order total band error correction of the previous frame p. In addition, NO. 30 to NO. Up to 32, first, the first extended LPC residual spectrum codebook index idS1
_4k, the ninth bit of the second extended LPC residual spectrum codebook index idS2_4k, the eighth bit of the second extended LPC residual spectrum codebook index idS3_4k
Followed by the fifth bit. Hereinafter, NO. 33 to NO.
By 65, the parameter of the current frame c is set to the above-mentioned NO. 0 to NO. Like repeating the order up to 32
Is entered.

【0101】図13には有声音のクラスIIからクラスV
までの入力順を示す。クラスIIの計44個のビットは、
NO.66からNO.109までの入力順とされる。先
ず、NO.66からNO.74までは、前フレームの第
1拡張LPC残差スペクトルコードブックインデクスidS1
_4kの8番目のビット、同7番目のビット、同6番目の
ビット、同5番目のビット、同4番目のビット、同3番
目のビット、同2番目のビット、同1番目のビット、同
0番目のビットが続く。NO.75からNO.82まで
は、前フレームの第2拡張LPC残差スペクトルコードブ
ックインデクスidS2_4kの7番目のビット、同6番目の
ビット、同5番目のビット、同4番目のビット、同3番
目のビット、同2番目のビット、同1番目のビット、同
0番目のビットが続く。NO.83からNO.87まで
は、前フレームの第3拡張LPC残差スペクトルコードブ
ックインデクスidS3_4kの4番目のビット、同3番目の
ビット、同2番目のビット、同1番目のビット、同0番
目のビットが続く。そして、NO.88からNO.10
9までは、上記NO.66からNO.87までの計22
個のビットの現在フレームcに関してのビットが繰り返
される。
FIG. 13 shows voiced sounds from class II to class V.
Indicates the input order up to. Class II total 44 bits
NO. 66 to NO. The input order is up to 109. First, NO. 66 to NO. Up to 74, the first extended LPC residual spectrum codebook index idS1 of the previous frame
_4k 8th bit, 7th bit, 6th bit, 5th bit, 4th bit, 3rd bit, 2nd bit, 1st bit, The 0th bit follows. NO. 75 to NO. Up to 82, the seventh bit, the sixth bit, the fifth bit, the fourth bit, the third bit, and the second bit of the second extended LPC residual spectrum codebook index idS2_4k of the previous frame The 0th bit, the 1st bit, and the 0th bit follow. NO. 83 to NO. Up to 87, the fourth bit, the third bit, the second bit, the first bit, and the zeroth bit of the third extended LPC residual spectrum codebook index idS3_4k of the previous frame follow. And NO. No. 88 to NO. 10
No. 9 until the above NO. 66 to NO. 22 up to 87
The bits for the current frame c are repeated.

【0102】クラスIIIの計4ビットは、NO.110
からNO.113までに、前フレームpの第0LPC残差
スペクトルコードブックインデクスidS0の3番目のビ
ット、同2番目のビット、同1番目のビット、同0番目
のビットという順番とされる。
A total of 4 bits of the class III correspond to the NO. 110
From NO. By 113, the 3rd bit, the 2nd bit, the 1st bit, and the 0th bit of the 0th LPC residual spectrum codebook index idS0 of the previous frame p are in order.

【0103】クラスIVの計4ビットは、NO.114か
らNO.117までに、前フレームpの第1LPC残差ス
ペクトルコードブックインデクスidS1の3番目のビッ
ト、同2番目のビット、同1番目のビット、同0番目の
ビットという順番とされる。
The total 4 bits of the class IV are NO. 114 to NO. By 117, the third bit, the second bit, the first bit, and the zeroth bit of the first LPC residual spectrum codebook index idS1 of the previous frame p are arranged in this order.

【0104】クラスVの計4ビットは、NO.118か
らNO.121までに、現在フレームcの第0LPC残差
スペクトルコードブックインデクスidS0の3番目のビ
ット、同2番目のビット、同1番目のビット、同0番目
のビットという順番とされる。
The total 4 bits of the class V are NO. 118 to NO. By 121, the 3rd bit, the 2nd bit, the 1st bit, and the 0th bit of the 0th LPC residual spectrum codebook index idS0 of the current frame c are in order.

【0105】図14には有声音のクラスVIとクラスVII
の入力順を示す。クラスVIの計4ビットは、NO.12
2からNO.125までに、現在フレームcの第1LPC
残差スペクトルコードブックインデクスidS1の3番目
のビット、同2番目のビット、同1番目のビット、同0
番目のビットという順番とされる。
FIG. 14 shows classes VI and VII of voiced sounds.
Indicates the input order. The class VI total 4 bits are NO. 12
2 to NO. By 125, the first LPC of the current frame c
3rd bit, 2nd bit, 1st bit, 0th bit of residual spectrum codebook index idS1
It is the order of the bit.

【0106】クラスVIIの計34ビットは、NO.12
6からNO.159までに以下の様に割り当てられる。
NO.126からNO.128までには前フレームpの
5次の低周波数域誤差補正のコードブックインデクスLS
P2の2番目のビット、同1番目のビット、同0番目の
ビットが割り当てられる。また、NO.129からN
O.132までには前フレームpの5次の高周波数域誤
差補正のコードブックインデクスLSP3の3番目のビッ
ト、同2番目のビット、同1番目のビット、同0番目の
ビットが割り当てられる。また、NO.133からN
O.139までには前フレームの10次の全帯域誤差補
正のLSPパラメータのコードブックインデクスLSP5の6
番目のビット、同5番目のビット、同4番目のビット、
同3番目のビット、同2番目のビット、同1番目のビッ
ト、同0番目のビットが割り当てられる。また、NO.
140には前フレームのピッチパラメータPCHの0番目
のビットが、NO.141、NO142には第0拡張LP
C残差スペクトルコードブックインデクスidS0_4kの1
番目のビット、同0番目のビットが割り当てられる。そ
して、NO.143からNO.159までには、上記N
O.126からNO.142までの計17個のビットの
現在フレームcに関してのビットが繰り返される。
A total of 34 bits of the class VII correspond to the NO. 12
6 to NO. By 159, it is allocated as follows.
NO. 126 to NO. Up to 128, the codebook index LS of the fifth-order low frequency band error correction of the previous frame p
The second bit, the first bit, and the zeroth bit of P2 are assigned. In addition, NO. 129 to N
O. Up to 132, the third bit, the second bit, the first bit, and the zeroth bit of the codebook index LSP3 for the fifth-order high frequency band error correction of the previous frame p are allocated. In addition, NO. 133 to N
O. By 139, the codebook index LSP5 of the LSP parameter for the 10th-order total band error correction of the previous frame is 6
The fifth bit, the fifth bit, the fourth bit,
The third bit, the second bit, the first bit, and the zeroth bit are assigned. In addition, NO.
No. 140 contains the 0th bit of the pitch parameter PCH of the previous frame. 141 and NO142 have the 0th extended LP
1 of C residual spectrum codebook index idS0_4k
The 0th bit and the 0th bit are assigned. And NO. 143 to NO. By 159, the N
O. 126 to NO. A total of 17 bits up to 142 for the current frame c are repeated.

【0107】図15には無声音のクラスIの入力順を示
す。NO.0からNO.65まで、計66個のビットの
入力順が決定されている。先ず、前のフレームpの有声
音/無声音判定フラグVUVの1番目のビットから、同じ
く前のフレームpの有声音/無声音判定フラグVUVの0
番目のビットに続き、以下、前のフレームpのLSPパ
ラメータの直接モード/差分モード選択フラグLSP4の
0番目のビット、前のフレームpの雑音コードブックゲ
インコードブックインデクスidGL00の3番目のビッ
ト、同2番目のビット、同1番目のビット、同0番目の
ビットへと続く。さらに、前のフレームの雑音コードブ
ックゲインコードブックインデクスidGL01の3番目の
ビット、同2番目のビット、同1番目のビット、同0番
目のビットへと続く。またさらに、前のフレームpのL
SPパラメータの10次のコードブックインデスクLSP0
の4番目のビット、同3番目のビット、同2番目のビッ
トから同0番目のビットへと続く。ここまでが、伝送路
符号化器4へのNO.0からNO.15までの入力順で
ある。さらにNO.16からNO.19までは前のフレ
ームpのLSPパラメータの5次の低周波数域誤差補正
のコードブックインデクスLSP2の6番目のビット、同
5番目のビット、同4番目のビット、同3番目のビット
が続く。NO.20、NO21には前のフレームpのL
SPパラメータの5次の高周波数域誤差補正のコードブ
ックインデクスLSP3の4番目のビット、前フレームp
の10次の全帯域誤差補正のLSPパラメータのコードブ
ックインデクスLSP5の7番目のビットが続く。またN
O.22からNO.24までは、前フレームpの雑音コ
ードブックゲインコードブックインデクスidGL10の2
番目のビット、同1番目のビット、同0番目のビットが
続く。またNO.25からNO.27までは、前フレー
ムpの雑音コードブックゲインコードブックインデクス
idGL11の2番目のビット、同1番目のビット、同0番
目のビットが続く。またNO.28からNO.30まで
は、前フレームpの雑音コードブックゲインコードブッ
クインデクスidGL12の2番目のビット、同1番目のビ
ット、同0番目のビットが続く。
FIG. 15 shows the input order of unvoiced sound class I. NO. 0 to NO. Up to 65, the input order of a total of 66 bits is determined. First, from the first bit of the voiced / unvoiced sound determination flag VUV of the previous frame p, the value of the voiced / unvoiced sound determination flag VUV of the previous frame p is set to 0.
Following the nth bit, the 0th bit of the direct mode / differential mode selection flag LSP4 of the LSP parameter of the previous frame p, the third bit of the noise codebook gain codebook index idGL00 of the previous frame p, and the like It continues to the second bit, the first bit, and the zeroth bit. Further, the third bit, the second bit, the first bit, and the zeroth bit of the noise codebook gain codebook index idGL01 of the previous frame continue. Furthermore, L of the previous frame p
10th codebook in-desk LSP0 of SP parameter
From the fourth bit, the third bit, the second bit to the zeroth bit. Up to this point, the NO. 0 to NO. The input order is up to 15. Further, NO. 16 to NO. Up to 19, the sixth bit, the fifth bit, the fourth bit, and the third bit of the codebook index LSP2 for the fifth-order low frequency band error correction of the LSP parameter of the previous frame p continue. NO. 20, NO21 contains L of the previous frame p.
Fourth bit of codebook index LSP3 for fifth-order high frequency band error correction of SP parameter, previous frame p
The 7th bit of the codebook index LSP5 of the LSP parameter for the 10th-order full-band error correction follows. Also N
O. 22 to NO. Up to 24, the noise codebook gain codebook index idGL10 of the previous frame p is 2
The 0th bit, the 1st bit, and the 0th bit follow. NO. 25 to NO. Up to 27, the noise codebook gain codebook index of the previous frame p
The second bit, the first bit, and the zeroth bit of idGL11 follow. NO. 28 to NO. Up to 30, the second bit, the first bit, and the zeroth bit of the noise codebook gain codebook index idGL12 of the previous frame p continue.

【0108】またNO.31、NO.32には、前フレ
ームpの雑音コードブックゲインコードブックインデク
スidGL13の2番目のビット、同1番目のビットが続
く。そして、以下、NO.33からNO.65までに
は、現在のフレームcのパラメータが、上記NO.0か
らNO.32までの順番を繰り返すように、入力され
る。
Further, NO. 31, NO. 32 is followed by the second bit and the first bit of the noise codebook gain codebook index idGL13 of the previous frame p. And, hereinafter, NO. 33 to NO. By 65, the parameter of the current frame c is set to the above-mentioned NO. 0 to NO. Input is performed so as to repeat the order up to 32.

【0109】図16には無声音のクラスIIとクラスIII
の入力順を示す。上記図9には記載していなかったがク
ラスVIIの一部がクラスIIからクラスVIのビットとし
て、CRCで保護されるが、誤っていても何の処置もさ
れず、クラスVIIのビットと同様に扱われる。先ず、N
O.66には前フレームpの雑音コードブックゲインコ
ードインデクスidGL13の0番目のビットが入る。次
に、NO.67からNO.69には、前フレームpの5
次の低周波数域誤差補正のコードブックインデクスLSP
2の2番目のビット、同1番目のビット、同0番目のビ
ットが続く。NO.70からNO.73には、前フレー
ムpの5次の高周波数域誤差補正のコードブックインデ
クスLSP3の3番目のビット、同2番目のビット、同1
番目のビット、同0番目のビットが続く。また、NO.
74からNO.80には、前フレームpの10次の全帯
域誤差補正のLSPパラメータのコードブックインデク
スLSP5の6番目のビット、同5番目のビット、同4番
目のビット、同3番目のビット、同2番目のビット、同
1番目のビット、同0番目のビットが続く。また、N
O.81からNO.86には、前フレームpの雑音コー
ドブックインデクスidSL00の5番目のビット、同4番
目のビット、同3番目のビット、同2番目のビット、同
1番目のビット、同0番目のビットが続く。NO.87
には前フレームpの雑音コードブックインデクスidSL0
1の5番目が入る。そして、以下、NO.88からN
O.109までには、現在のフレームcのパラメータ
が、上記NO.66からNO.87までの順番を繰り返
すように、入力される。
FIG. 16 shows class II and class III of unvoiced sound.
Indicates the input order. Although not described in FIG. 9, a part of class VII is protected by CRC as bits from class II to class VI. Will be treated. First, N
O. Reference numeral 66 denotes the 0th bit of the noise codebook gain code index idGL13 of the previous frame p. Next, NO. 67 to NO. 69 contains 5 of the previous frame p.
Codebook index LSP for next low frequency range error correction
2, the second bit, the first bit, and the zeroth bit follow. NO. 70 to NO. Reference numeral 73 denotes the third bit, the second bit, and the first bit of the codebook index LSP3 for the fifth-order high frequency band error correction of the previous frame p.
The 0th bit and the 0th bit follow. In addition, NO.
74 to NO. Reference numeral 80 denotes the sixth bit, the fifth bit, the fourth bit, the third bit, and the second bit of the codebook index LSP5 of the LSP parameter of the 10th-order total band error correction of the previous frame p. , The first bit, and the zeroth bit follow. Also, N
O. 81 to NO. 86 is followed by the fifth bit, the fourth bit, the third bit, the second bit, the first bit, and the zeroth bit of the noise codebook index idSL00 of the previous frame p. . NO. 87
Has the noise codebook index idSL0 of the previous frame p
The fifth of 1 enters. And, hereinafter, NO. 88 to N
O. By 109, the parameter of the current frame c is set to the above-mentioned NO. 66 to NO. Input is performed so as to repeat the order up to 87.

【0110】無声音のクラスIIIの計4ビットは、N
O.110からNO.113に、前フレームpの雑音コ
ードブックインデクスidSL01の4番目のビット、同3
番目のビット、同2番目のビット、同1番目のビットが
続く。
A total of 4 bits of the unvoiced sound class III is N
O. 110 to NO. 113, the fourth bit of the noise codebook index idSL01 of the previous frame p,
The second bit, the second bit, and the first bit follow.

【0111】図17には無声音のクラスIVからクラスVI
Iまでの計46個のビット入力順を示す。前述したよう
に、上記図9には記載していなかったがクラスVIIの一
部がクラスIIからクラスVIのビットとして、CRCで保
護されるが、誤っていても何の処置もされず、クラスVI
Iのビットと同様に扱われる。
FIG. 17 shows an unvoiced sound from class IV to class VI.
The order of inputting a total of 46 bits up to I is shown. As described above, although not shown in FIG. 9 above, a part of class VII is protected by CRC as bits from class II to class VI. VI
Treated in the same way as the I bit.

【0112】先ず、クラスIVのNO.114には、前フ
レームpの雑音コードブックインデクスidSL01の0番
目のビットが入る。NO.115からNO.117に
は、前フレームpの雑音コードブックインデクスidSL1
0の4番目のビット、同3番目のビット、同2番目のビ
ットが続く。
First, the class IV NO. 114 is the 0th bit of the noise codebook index idSL01 of the previous frame p. NO. 115 to NO. 117 includes a noise codebook index idSL1 of the previous frame p.
The fourth bit of 0, the third bit, and the second bit follow.

【0113】クラスVの計4ビットは、NO.118か
らNO.121に、現在フレームcの雑音コードブック
インデクスidSL01の4番目のビット、同3番目のビッ
ト、同2番目のビット、同1番目のビットが続く。
A total of 4 bits of the class V is set to NO. 118 to NO. 121 is followed by the fourth bit, the third bit, the second bit, and the first bit of the noise codebook index idSL01 of the current frame c.

【0114】クラスVIのNO.122には、前フレーム
pの雑音コードブックインデクスidSL01の0番目のビ
ットが入る。NO.123からNO.125には、現在
フレームpc雑音コードブックインデクスidSL10の4
番目のビット、同3番目のビット、同2番目のビットが
続く。
NO. Of Class VI In 122, the 0th bit of the noise codebook index idSL01 of the previous frame p is entered. NO. 123 to NO. Reference numeral 125 denotes the current frame pc noise codebook index idSL10 4
The third bit, the third bit, and the second bit follow.

【0115】クラスVIIの計34ビットは、NO.12
6からNO.159までに以下の様に割り当てられる。
NO.126、NO.127には前フレームpの雑音コ
ードブックインデクスidSL10の1番目のビット、同0
番目のビットが入る。また、NO.128からNO.1
32には前フレームpの雑音コードブックインデクスid
SL11の4番目のビット、同3番目のビット、同2番目
のビット、同1番目のビット、同0番目のビットが続
く。また、NO.133からNO.137には前フレー
ムpの雑音コードブックインデクスidSL12の4番目の
ビット、同3番目のビット、同2番目のビット、同1番
目のビット、同0番目のビットが続く。NO.138か
らNO.142には前フレームpの雑音コードブックイ
ンデクスidSL13の4番目のビット、同3番目のビッ
ト、同2番目のビット、同1番目のビット、同0番目の
ビットが続く。そして、NO.143からNO.159
までには、上記NO.126からNO.142までの計
17個のビットの現在フレームcに関してのビットが繰
り返される。
A total of 34 bits of the class VII correspond to the NO. 12
6 to NO. By 159, it is allocated as follows.
NO. 126, NO. 127 is the first bit of the noise codebook index idSL10 of the previous frame p;
Contains the th bit. In addition, NO. 128 to NO. 1
32 is the noise codebook index id of the previous frame p
The fourth bit, the third bit, the second bit, the first bit, and the zeroth bit of SL11 follow. In addition, NO. 133 to NO. 137 is followed by the fourth bit, the third bit, the second bit, the first bit, and the zeroth bit of the noise codebook index idSL12 of the previous frame p. NO. 138 to NO. 142 is followed by the fourth bit, the third bit, the second bit, the first bit, and the zeroth bit of the noise codebook index idSL13 of the previous frame p. And NO. 143 to NO. 159
By the above NO. 126 to NO. A total of 17 bits up to 142 for the current frame c are repeated.

【0116】そして、ビットレート2kbpsの有声音,無
声音の各符号化パラメータが上記図10,図11に示し
た入力順で、またビットレート4kbpsの有声音,無声音
の各符号化パラメータが上記図12〜図17に示した入
力順で、図1に示した伝送路符号化器4に入力される。
The coding parameters for the voiced and unvoiced sounds at a bit rate of 2 kbps are in the input order shown in FIGS. 10 and 11, and the coding parameters for the voiced and unvoiced sounds at a bit rate of 4 kbps are as shown in FIG. 17 are input to the transmission path encoder 4 shown in FIG.

【0117】すると、伝送路符号化器4のCRC符号計
算部5は、ビットレートの2kbps/4kbpsの違いと、ク
ラス分類に応じ、必要があればクラスIについて次の
(1)式に示すCRC多項式により、CRC符号CRC[i]
を得る。なお、クラスII以降についても、適当なCRC
多項式を使って同様にCRC符号を得る。
Then, the CRC code calculation unit 5 of the transmission path encoder 4 calculates the CRC shown in the following equation (1) for class I if necessary according to the difference between the bit rates of 2 kbps / 4 kbps and the class classification. By the polynomial, CRC code CRC [i]
Get. In addition, for class II and later, an appropriate CRC
Similarly, a CRC code is obtained using a polynomial.

【0118】[0118]

【数1】 (Equation 1)

【0119】但し、However,

【0120】[0120]

【数2】 (Equation 2)

【0121】[0121]

【数3】 (Equation 3)

【0122】CRC符号計算部5が上記(1)〜(3)
式を用いてCRC符号CRC[i]を得るのは、2kbpsのとき
のクラスI,クラスII,クラスIV,クラスVまでである。
有声音と無声音の両方が対象となるが、本発明ではクラ
スIを除いて有声音の該当クラスに掛けたCRC符号に
応じて検出した誤りに応じて復号装置側で出力を調整す
ることを主旨とする。
The CRC code calculation unit 5 performs the operations (1) to (3)
The CRC code CRC [i] is obtained by using the expression up to class I, class II, class IV, and class V at 2 kbps.
Although both voiced and unvoiced sounds are targeted, the present invention aims to adjust the output on the decoding device side in accordance with an error detected according to a CRC code applied to the corresponding class of voiced sound except for class I. And

【0123】2kbpsの有声音のクラスI〜クラスVIまで
のビット総数を図18に示す。この図18には後述する
4kbpsの有声音のクラスI〜クラスVIIまでのビット総数
も示す。
FIG. 18 shows the total number of bits of the 2 kbps voiced sound from class I to class VI. FIG. 18 also shows the total number of bits of a 4-kbps voiced sound, which will be described later, in classes I to VII.

【0124】2kbpsの有声音のクラスIを対象としてC
RC符号計算部5は、オーディオフレーム(Audio Fram
e)44ビットから6ビットのCRC符号CRC[i]、(CRC
parity)を計算する。また、クラスIIを対象としたと
き、CRC符号計算部5は、オーディオフレーム4ビッ
トから1ビットのCRC parityを計算する。クラスIII〜
クラスVを対象としたときも同様に、それぞれ、オーデ
ィオフレーム4ビットから1ビットのCRC parityを計算
する。クラスVIを対象としたときにはCRC parityを計算
しない。
For class 2 of voiced sound of 2 kbps, C
The RC code calculation unit 5 outputs an audio frame (Audio Fram).
e) 44 to 6-bit CRC code CRC [i], (CRC
parity). When class II is targeted, the CRC code calculation unit 5 calculates 1-bit CRC parity from 4 bits of the audio frame. Class III ~
Similarly, when class V is targeted, a 1-bit CRC parity is calculated from 4 bits of an audio frame. When class VI is targeted, CRC parity is not calculated.

【0125】そして、例えば、上記(1)式〜(3)式
により求めたCRC符号CRC[i]と、上記図10に示した
入力順P[i]を使って、以下の(4)式に示すようにビ
ット列CVin[i]を作成する。
Then, for example, using the CRC code CRC [i] obtained by the above equations (1) to (3) and the input order P [i] shown in FIG. 10, the following equation (4) is obtained. A bit string CVin [i] is created as shown in FIG.

【0126】[0126]

【数4】 (Equation 4)

【0127】一方、4kbpsの有声音のクラスIを対象と
してCRC符号計算部5は、オーディオフレーム66ビ
ットから6ビットのCRC parityを計算する。また、クラ
スIIを対象としたとき、CRC符号計算部5は、オーデ
ィオフレーム44ビットから6ビットのCRC parityを計
算する。クラスIII〜クラスVIを対象としたときには、
それぞれ、オーディオフレーム4ビットから1ビットの
CRC parityを計算する。クラスVIIを対象としたときに
はCRC parityを計算しない。
On the other hand, the CRC code calculator 5 calculates a 6-bit CRC parity from 66 bits of the audio frame for the class I of voiced sound of 4 kbps. When class II is targeted, the CRC code calculator 5 calculates a 6-bit CRC parity from 44 bits of the audio frame. When targeting Class III to Class VI,
Each of the audio frames from 4 bits to 1 bit
Calculate CRC parity. When class VII is targeted, CRC parity is not calculated.

【0128】そして、ここでも、上記(1)式〜(3)
式により求めたCRC符号CRC[i]と、上記図12〜図1
4に示した入力順P[i]を使って、上記(4)式に示す
ようにビット列CVin[i]を作成する。
In this case, too, the above equations (1) to (3)
The CRC code CRC [i] obtained by the equation and the above-described FIGS.
Using the input order P [i] shown in FIG. 4, a bit string CVin [i] is created as shown in the above equation (4).

【0129】次に、畳み込み符号化器6は、上述したよ
うに必要に応じてCRC符号計算部5から供給される上
記CRC検査符号が掛けられたビット群、つまりビット
列CVin[i]に畳み込み符号化を施す。この符号化装置
では、ビットレート2kbps及び4kbpsのクラスIビット
に応じたビット列CVin[i]にのみ畳み込み符号を施
し、保護している。
Next, as described above, the convolutional coder 6 applies the convolutional code to the bit group to which the CRC check code supplied from the CRC code calculating section 5 is applied as necessary, that is, the bit string CVin [i]. Is applied. In this encoding apparatus, only the bit string CVin [i] corresponding to the class I bits at the bit rates of 2 kbps and 4 kbps is protected by applying a convolutional code.

【0130】畳み込み符号化器6は、上記ビットレート
2kbps及び4kbpsのクラスIビットに応じたビット列C
Vin[i]について、Tailビットを必要としない畳み込み
符号化方式、例えばH.223AnnexCで使われているSRC
PC(Systematic Rate Compatible Punctured Convolu
tional Code)により畳み込み符号化を行う。この畳み
込み符号化器6での畳み込み符号化は2倍のコードレー
ト(Code Rate)で行われる。上記図18には8/16と示
している。したがって、2kbpsのクラスIのトータルの
ビット数は、(オーディオフレーム44ビット+CRC
parity6ビット)×2=100ビットとなる。また、4
kbpsのクラスIのトータルのビット数は、(オーディオ
フレーム66ビット+CRCparity6ビット)×2=1
44ビットとなる。
The convolutional encoder 6 converts the bit string C corresponding to the class I bits at the bit rates of 2 kbps and 4 kbps.
For Vin [i], a convolutional coding method that does not require a Tail bit, for example, the SRC used in H.223 Annex C
PC (Systematic Rate Compatible Punctured Convolu
Convolutional coding is performed by using a conventional code. The convolutional encoding in the convolutional encoder 6 is performed at a double code rate. In FIG. 18 described above, it is indicated as 8/16. Therefore, the total number of bits of 2 kbps class I is (audio frame 44 bits + CRC
parity 6 bits) × 2 = 100 bits. Also, 4
The total number of kbps class I bits is (audio frame 66 bits + CRC parity 6 bits) × 2 = 1
It becomes 44 bits.

【0131】2kbpsのクラスIIからクラスVまでは、畳
み込み符号化を行わず、CRC符号を掛けるだけなの
で、トータルのビット数は、図18に示すように、(オ
ーディオフレーム4ビット+CRCparity1ビット)×
1=5ビットとなる。また、クラスVIでは、CRC符号
を生成しないので、オーディオフレーム20ビットのみ
がトータルビット数となる。
From 2 kbps class II to class V, only the CRC code is applied without performing convolutional coding. Therefore, the total number of bits is (audio frame 4 bits + CRC parity 1 bit) .times.
1 = 5 bits. In class VI, since no CRC code is generated, only 20 bits of the audio frame are the total number of bits.

【0132】4kbpsのクラスIIからクラスVIまでは、畳
み込み符号化を行わず、CRC符号を掛けるだけなの
で、クラスIIのトータルのビット数は、図18に示すよ
うに、(オーディオフレーム44ビット+CRCparity
6ビット)×1=50ビットとなり、クラスIIIからク
ラスVIまでは、(オーディオフレーム4ビット+CRC
parity1ビット)×1=5ビットとなる。また、クラス
VIIでは、CRC符号を生成しないので、オーディオフ
レーム34ビットのみがトータルビット数となる。
Since the convolutional coding is not performed and only the CRC code is multiplied from class II to class VI of 4 kbps, the total number of bits of class II is (audio frame 44 bits + CRC parity) as shown in FIG.
6 bits) x 1 = 50 bits, and from class III to class VI, (audio frame 4 bits + CRC)
parity 1 bit) × 1 = 5 bits. Also the class
In VII, since no CRC code is generated, only the 34 bits of the audio frame become the total number of bits.

【0133】したがって、2kbpsのソースコーダー(so
urce coder)は、全てのクラスの合計が140ビットと
なるので、ビットレート3.5kbpsとなる。
Therefore, a 2 kbps source coder (so
urce coder) has a bit rate of 3.5 kbps because the total of all classes is 140 bits.

【0134】また、4kbpsのソースコーダー(source c
oder)は、全てのクラスの合計が248ビットとなるの
で、ビットレート6.2kbpsとなる。
A 4 kbps source coder (source c)
oder) has a bit rate of 6.2 kbps since the total of all the classes is 248 bits.

【0135】そして、このようにクラス分割&入力順決
定部23で伝送路の誤りに対するビットの聴感上の感度
に応じてクラス分けされ、かつ伝送路符号化器4でクラ
スに応じて保護された複数種類の符号化パラメータが変
調器7で変調され、送信機8で出力ビットに送信処理が
施され、アンテナ共用器9を通して、アンテナ10から
送信される。
The class division and input order determination unit 23 classifies the bits in accordance with the audibility of the bits with respect to the error in the transmission path, and is protected by the transmission path encoder 4 according to the class. A plurality of types of encoding parameters are modulated by the modulator 7, transmission processing is performed on output bits by the transmitter 8, and transmitted from the antenna 10 through the antenna duplexer 9.

【0136】次に、上記復号化装置側では、例えば他の
携帯電話装置の符号化装置からアンテナ10、アンテナ
共用器9、受信機11及び復調器13を介して復調した
符号化出力であるビット列を、畳み込み復号化器16で
畳み込み復号化し、CRC符号比較&フレームマスク部
15でこの畳み込み復号化器16からの畳み込み復号化
出力に付加されている上記CRC検査符号と上記重要ビ
ット群を除いたビット群より計算したCRC誤り検査符
号とを比較し、その比較結果に応じて上記畳み込み復号
化出力を調整する。
Next, on the decoding device side, for example, a bit string which is a coded output demodulated from the coding device of another portable telephone device via the antenna 10, the antenna duplexer 9, the receiver 11 and the demodulator 13 Is convolutionally decoded by a convolutional decoder 16, and a CRC code comparison & frame mask unit 15 removes the CRC check code added to the convolutional decoded output from the convolutional decoder 16 and bits excluding the important bit group. A CRC error check code calculated from the group is compared, and the convolutional decoded output is adjusted according to the comparison result.

【0137】CRC符号比較&フレームマスク部15
は、畳み込み復号化器16が実行する上記畳み込み復号
化工程からの畳み込み復号化出力に付加されている上記
誤り検査符号を用いて伝送誤りを検査する誤り検査工程
と、上記誤り検査工程での誤り検査結果に応じて上記畳
み込み復号化出力を調整する出力調整工程とを実行す
る。
CRC code comparison & frame mask section 15
Is an error checking step of checking a transmission error using the error check code added to the convolutional decoded output from the convolutional decoding step performed by the convolutional decoder 16, and an error in the error checking step. And an output adjusting step of adjusting the convolutional decoded output according to the inspection result.

【0138】特に、CRC符号が一致しないとき、すな
わちCRCエラーが検出されるとき、そのフレームのデ
ータを用いて音声復号化を行うと、音声品質を非常に劣
化させるので、誤りの検出の連続する度合いに応じて、
エラー保護処理(フレームマスキング)が実行される。
In particular, when the CRC codes do not match, that is, when a CRC error is detected, if speech decoding is performed using the data of the frame, the speech quality will be greatly degraded. Depending on the degree
Error protection processing (frame masking) is performed.

【0139】現在のフレームのフレームマスキング状態
は、クラスIのCRC復号結果に基づいて更新される。
図19には、フレームマスキング処理による状態遷移図
を示す。各状態(状態0から状態7)は、矢印で示した
方向に遷移する。遷移は状態0から始まり、遷移線上の
“1”は誤りフレームの場合の遷移方向を、“0”は誤
りのないフレームの場合の遷移方向を表す。
The frame masking state of the current frame is updated based on the result of class I CRC decoding.
FIG. 19 shows a state transition diagram by the frame masking process. Each state (from state 0 to state 7) transitions in the direction indicated by the arrow. The transition starts from state 0, where "1" on the transition line indicates the transition direction for an error frame, and "0" indicates the transition direction for an error-free frame.

【0140】状態の値に応じて以下のパラメータ置換が
実行されるが、エラーのない状態では、状態値は0にな
り、受信した音声フレームビットが処理される。また、
状態7は復帰時を示す。
The following parameter replacement is executed according to the value of the state. In the state without error, the state value becomes 0 and the received voice frame bit is processed. Also,
State 7 indicates the time of return.

【0141】例えば、上記LSPパラメータを復号する
場合、状態変数stateが「状態1」〜「状態6」である
ときには、LSPパラメータは前フレームのものと置換
される。
For example, when decoding the above LSP parameter, if the state variable state is "state 1" to "state 6," the LSP parameter is replaced with that of the previous frame.

【0142】状態7、すなわち復帰時には、もしLSP4
=0(LSPモードが直接型)であるなら、LSPパラメ
ータは全てのLSP符号から計算される。もしLSP4=1
(LSPモードが差分型)なら、LSPパラメータは次の
(5)式から計算される。つまり、差分モードでは、LS
P0符号からのLSPパラメータは前フレームのものと補間
される。
In state 7, that is, at the time of return, if LSP4
If = 0 (the LSP mode is direct type), the LSP parameters are calculated from all LSP codes. If LSP4 = 1
If the LSP mode is a difference type, the LSP parameter is calculated from the following equation (5). In other words, in the difference mode, LS
The LSP parameters from the P0 code are interpolated with those of the previous frame.

【0143】[0143]

【数5】 (Equation 5)

【0144】上記(5)式にてLSPbase(n)は基本層のL
SPパラメータ、LSPprev(n)は前フレームのLSPパラメー
タであり、LSP0th(n)はLSP0符号から復号したものであ
る。またPは補間係数であり、図20に示すように、ク
ラスIの直前のCRC誤りフレームの数(frame)により、
0.7〜0.0の中で0.1毎に変化する。例えば、過去の誤っ
たフレームの数が0であれば、P=0.7を使い、基本層の
LSPパラメータLSPbase(n)は、0.7・LSPprev(n)+0.3・L
SP0th(n)となる。LSP2、LSP3及びLSP5符号は無視さ
れ、LSPbase(n)が現在のLSPパラメータとして使用され
る。
In the above equation (5), LSP base (n) is L of the base layer.
The SP parameter, LSP prev (n) is the LSP parameter of the previous frame, and LSP 0th (n) is the value decoded from the LSP 0 code. P is an interpolation coefficient, and as shown in FIG. 20, by the number (frame) of CRC error frames immediately before class I,
It changes every 0.1 from 0.7 to 0.0. For example, if the number of erroneous frames in the past is 0, use P = 0.7 and
LSP parameter LSP base (n) is 0.7 LSP prev (n) + 0.3 L
SP 0th (n). LSP2, LSP3 and LSP5 codes are ignored and LSP base (n) is used as the current LSP parameter.

【0145】また、例えば、上記状態変数stateの値に
応じて、出力音の音量を制御するミュート変数muteを図
21のように設定する。例えば、状態変数stateが0で
あれば、ミュート変数muteを1.000とする。また、状態
変数stateが6であれば、ミュート変数muteを0.000とす
る。状態変数state=7でのミュート変数muteは1.0と前
フレームのmute値の平均が使われるが、平均が0.8を越
えるときは0.8に置換される。
For example, a mute variable mute for controlling the volume of the output sound is set as shown in FIG. 21 according to the value of the state variable state. For example, if the state variable state is 0, the mute variable mute is set to 1.000. If the state variable state is 6, the mute variable mute is set to 0.000. As the mute variable mute at the state variable state = 7, the average of 1.0 and the mute value of the previous frame is used, but when the average exceeds 0.8, it is replaced with 0.8.

【0146】有声音パラメータの置換と利得の制御は以
下の様になる。
The replacement of the voiced sound parameter and the control of the gain are as follows.

【0147】有声音/無声音判定パラメータVUVがVで
あるときには、状態変数state=1〜6では、スペクト
ルエンベロープのコードブックパラメータidS0、idS1、
LPC残差スペクトルゲインコードブックインデスクスid
G、4kbps用スペクトルパラメータidS0_4k〜idS
3_4kは前フレームのものと置換される。さらに、出
力音声の音量を制御するためLSP残差信号のハーモニッ
クレベルパラメータAm[00..127]が次の(6)式のよう
に利得制御される。この(6)式において、Am(org)[i]
はスペクトルパラメータから計算したものである。
When the voiced / unvoiced sound determination parameter VUV is V, the spectral envelope codebook parameters idS0, idS1,
LPC residual spectrum gain codebook indesks id
G, spectrum parameters for 4 kbps idS0_4k to idS
3-4k is replaced with that of the previous frame. Further, to control the volume of the output sound, the gain level of the harmonic level parameter Am [00..127] of the LSP residual signal is controlled as in the following equation (6). In this equation (6), Am (org) [i]
Is calculated from the spectral parameters.

【0148】[0148]

【数6】 (Equation 6)

【0149】ところで、状態7において、もし有声音に
復帰したとき直前フレームが無声音ならば、上記(6)
式の代わりに(7)式が適用される。これはゲインを抑
えて連続性を保つためである。つまり、前後のスペクト
ルの違いによる波形の乱れを抑えるためである。
In the state 7, if the immediately preceding frame is unvoiced when the voiced sound is restored, the above (6)
Equation (7) is applied instead of the equation. This is to keep the continuity by suppressing the gain. In other words, this is to suppress waveform disturbance due to a difference between the front and rear spectra.

【0150】[0150]

【数7】 (Equation 7)

【0151】なお、第0LPC残差スペクトルコードブッ
クインデクスidS0と、第1LPC残差スペクトルコードブ
ックインデクスidS1の前フレームpと現在フレームc
のそれぞれ4ビットは、例えば2kbpsでは上記図6に示
したように、クラスI及びクラスVIを除く他のクラスで
あるので、上記図18から1CRCビットにより個別に保
護されている。状態0或いは状態7、つまり正常時から
復帰時では、これらのクラスのCRCエラーが同時に検出
されると、固定次元の量子化したハーモニクスレベルパ
ラメータAm[00..44]は、次の(8)式に示すように低周
波数域のレベルを抑圧するため元のものであるAm
qnt(org)[1..44]から変換される。
Note that the previous frame p and the current frame c of the 0th LPC residual spectrum codebook index idS0, the first LPC residual spectrum codebook index idS1.
For example, at 2 kbps, as shown in FIG. 6 above, each of the four bits is a class other than the class I and the class VI, and is therefore individually protected by one CRC bit from FIG. In the state 0 or the state 7, that is, when returning from the normal state, when the CRC errors of these classes are detected at the same time, the quantized harmonic dimension level parameter Am [00..44] of the fixed dimension becomes the following (8). As shown in the formula, Am is the original to suppress the level in the low frequency range
Converted from qnt (org) [1..44].

【0152】[0152]

【数8】 (Equation 8)

【0153】この(8)式において、s[i]はAmqnt(org)
を抑圧するための係数であり、図22に示すように設定
される。
In this equation (8), s [i] is Am qnt (org)
Is a coefficient for suppressing, and is set as shown in FIG.

【0154】また、4kbpsでは、第1拡張LPC残差スペ
クトルコードブックインデクスidS1_4k、第2拡張LPC
残差スペクトルコードブックインデクスidS2_4k及び第
3拡張LPC残差スペクトルコードブックインデクスidS3
_4kのほとんどのビットがクラスIIビットとして複数のC
RCビットにより保護されている。クラスIIに誤りが検出
されると、拡張層のスペクトルエンベロープが無視され
る。
Also, at 4 kbps, the first extended LPC residual spectrum codebook index idS1_4k, the second extended LPC
Residual spectrum codebook index idS2_4k and third extended LPC residual spectrum codebook index idS3
Most bits of _4k are multiple C as class II bits
Protected by RC bit. If an error is detected in class II, the spectral envelope of the enhancement layer is ignored.

【0155】また、例えば、VUV判定パラメータがUV
であるときには、状態変数state=1〜6のとき、雑音
コードブックゲインパラメータidGL00、idGL01、4kbps
用雑音コードブックゲインパラメータidGL10〜idGL13は
前フレームのものと置換される。また同様の場合、雑音
コードブックゲインパラメータidGL00、idGL01は前フレ
ームのidGL01、4kbps用雑音コードブックゲインパラメ
ータidGL10〜idGL13は前フレームのidGL13と置換しても
よい。雑音コードブックパラメータidSL00、idSL01、4k
bps用雑音コードブックパラメータidSL10〜idSL13は個
々のビット数の範囲で一様乱数を発生させてできたもの
を使う。
Also, for example, if the VUV determination parameter is UV
, When the state variables state = 1 to 6, the noise codebook gain parameters idGL00, idGL01, 4kbps
The noise codebook gain parameters for idGL10 to idGL13 are replaced with those for the previous frame. In the same case, the noise codebook gain parameters idGL00 and idGL01 may be replaced with the previous frame idGL01, and the noise codebook gain parameters for 4 kbps idGL10 to idGL13 may be replaced with the previous frame idGL13. Noise codebook parameters idSL00, idSL01, 4k
The bps noise codebook parameters idSL10 to idSL13 are generated by generating uniform random numbers in the range of individual bits.

【0156】さらに、出力音声の音量を制御するため、
LPC残差信号res[00..159]は次の(9)式に示すように
利得制御される。ここで、式中のres[i]は雑音符号パラ
メータから求めたものである。
Further, in order to control the volume of the output sound,
The LPC residual signal res [00..159] is gain-controlled as shown in the following equation (9). Here, res [i] in the equation is obtained from the noise code parameter.

【0157】[0157]

【数9】 (Equation 9)

【0158】このようにしてCRC符号比較部&フレー
ムマスク部15でフレームマスキング処理が施された畳
み込み符号化出力は、音声復号化器17に供給される。
The convolutional coded output subjected to the frame masking processing by the CRC code comparing section & frame masking section 15 in this way is supplied to the speech decoder 17.

【0159】この音声復号化器17の構成を図23及び
図24に示す。CRC符号比較部&フレームマスク部1
5からは、端子202を介して上記LSP(線スペクト
ル対)の量子化出力に相当するコードブックインデクス
が、端子203、204、及び205を介して、エンベ
ロープ量子化出力としてのインデクス、ピッチ、及びVU
Vパラメータがそれぞれ取り出され、また、端子207
を介して、UV(無声音)用のデータとしてのインデク
スが取り出される。さらに、CRC符号比較部&フレー
ムマスク部15でCRC検査されて得られたCRCエラ
ー信号は、無声音合成部220に送られている。
The structure of the speech decoder 17 is shown in FIGS. 23 and 24. CRC code comparison unit & frame mask unit 1
5, the codebook index corresponding to the quantized output of the LSP (line spectrum pair) via the terminal 202 is output via the terminals 203, 204 and 205 to the index, pitch, and pitch as the envelope quantized output. VU
The V parameter is extracted respectively, and the terminal 207
, An index as data for UV (unvoiced sound) is extracted. Further, the CRC error signal obtained by performing the CRC check in the CRC code comparing section & frame masking section 15 is sent to the unvoiced sound synthesizing section 220.

【0160】端子203からのエンベロープ量子化出力
としてのインデクスは、逆ベクトル量子化器212に送
られて逆ベクトル量子化され、LPC残差のスペクトル
エンベロープが求められて有声音合成部211に送られ
る。有声音合成部211は、サイン波合成により有声音
部分のLPC(線形予測符号化)残差を合成するもので
あり、この有声音合成部211には端子204及び20
5からのピッチ及びV/UV判定出力も供給されてい
る。有声音合成部211からの有声音のLPC残差は、
LPC合成フィルタ214に送られる。また、端子20
7からのUVデータのインデクスは、無声音合成部22
0に送られて、雑音コードブックを参照することにより
無声音部分の励起ベクトルであるLPC残差が取り出さ
れる。このLPC残差もLPC合成フィルタ214に送
られる。LPC合成フィルタ214では、上記有声音部
分のLPC残差と無声音部分のLPC残差とがそれぞれ
独立に、LPC合成処理が施される。あるいは、有声音
部分のLPC残差と無声音部分のLPC残差とが加算さ
れたものに対してLPC合成処理を施すようにしてもよ
い。ここで端子202からのLSPのインデクスは、L
PCパラメータ再生部213に送られて、LPCのαパ
ラメータが取り出され、これがLPC合成フィルタ21
4に送られる。LPC合成フィルタ214によりLPC
合成されて得られた音声信号は、出力端子201より取
り出される。
The index as the envelope quantized output from the terminal 203 is sent to the inverse vector quantizer 212 and inverse vector quantized, and the spectrum envelope of the LPC residual is obtained and sent to the voiced sound synthesizer 211. . The voiced sound synthesizer 211 synthesizes an LPC (linear predictive coding) residual of the voiced sound portion by sine wave synthesis.
A pitch and V / UV decision output from 5 is also provided. The LPC residual of the voiced sound from the voiced sound synthesis unit 211 is
The signal is sent to the LPC synthesis filter 214. Also, the terminal 20
7 from the unvoiced sound synthesizer 22
The LPC residual, which is the excitation vector of the unvoiced portion, is extracted by referring to the noise codebook. This LPC residual is also sent to the LPC synthesis filter 214. In the LPC synthesis filter 214, the LPC residual of the voiced portion and the LPC residual of the unvoiced portion are subjected to LPC synthesis independently of each other. Alternatively, LPC synthesis processing may be performed on the sum of the LPC residual of the voiced sound part and the LPC residual of the unvoiced sound part. Here, the index of the LSP from the terminal 202 is L
The parameter is sent to the PC parameter reproducing unit 213, and the α parameter of the LPC is extracted.
4 LPC by LPC synthesis filter 214
The audio signal obtained by the synthesis is taken out from the output terminal 201.

【0161】次に、図24は、上記図23に示した音声
復号化器17のより具体的な構成を示している。この図
24において、上記図23の各部と対応する部分には、
同じ指示符号を付している。
FIG. 24 shows a more specific configuration of the speech decoder 17 shown in FIG. In FIG. 24, parts corresponding to the respective parts in FIG.
The same designations are given.

【0162】入力端子202には、上記CRC符号比較
部&フレームマスク部15を介したLSPのベクトル量
子化出力、いわゆるコードブックのインデクスが供給さ
れている。
The input terminal 202 is supplied with the vector quantization output of the LSP via the CRC code comparing section & frame masking section 15, that is, the so-called codebook index.

【0163】このLSPのインデクスは、LPCパラメ
ータ再生部213のLSPの逆ベクトル量子化器231
に送られてLSP(線スペクトル対)データに逆ベクト
ル量子化され、LSP補間回路232、233に送られ
てLSPの補間処理が施された後、LSP→α変換回路
234、235でLPC(線形予測符号)のαパラメー
タに変換され、このαパラメータがLPC合成フィルタ
214に送られる。ここで、LSP補間回路232及び
LSP→α変換回路234は有声音(V)用であり、L
SP補間回路233及びLSP→α変換回路235は無
声音(UV)用である。またLPC合成フィルタ214
は、有声音部分のLPC合成フィルタ236と、無声音
部分のLPC合成フィルタ237とを分離している。す
なわち、有声音部分と無声音部分とでLPCの係数補間
を独立に行うようにして、有声音から無声音への遷移部
や、無声音から有声音への遷移部で、全く性質の異なる
LSP同士を補間することによる悪影響を防止してい
る。
The LSP index is calculated by the inverse vector quantizer 231 of the LSP of the LPC parameter reproducing unit 213.
Is subjected to inverse vector quantization to LSP (line spectrum pair) data, sent to LSP interpolation circuits 232 and 233 and subjected to LSP interpolation processing, and then subjected to LPC (linear) by LSP → α conversion circuits 234 and 235. The α parameter is transmitted to the LPC synthesis filter 214. Here, the LSP interpolation circuit 232 and the LSP → α conversion circuit 234 are for voiced sound (V).
The SP interpolation circuit 233 and the LSP → α conversion circuit 235 are for unvoiced sound (UV). Also, the LPC synthesis filter 214
Separates the LPC synthesis filter 236 for the voiced portion and the LPC synthesis filter 237 for the unvoiced portion. That is, LPC coefficient interpolation is performed independently for voiced and unvoiced parts, and LSPs having completely different properties are interpolated between the transition from voiced to unvoiced and the transition from unvoiced to voiced. To prevent the adverse effects of doing so.

【0164】また、入力端子203には、上記CRC符
号比較部&フレームマスク部15を介したスペクトルエ
ンベロープ(Am)の重み付けベクトル量子化されたコ
ードインデクスデータが供給され、入力端子204に
は、上記CRC符号比較部&フレームマスク部15を介
したピッチパラメータPCHのデータが供給され、入力端
子205には、上記CRC符号比較部&フレームマスク
部15を介したV/UV判定データが供給されている。
The input terminal 203 is supplied with code index data obtained by weighted vector quantization of the spectrum envelope (Am) via the CRC code comparing section & frame masking section 15, and the input terminal 204 is provided with the CRC terminal. The data of the pitch parameter PCH is supplied via the code comparison unit & frame mask unit 15, and the input terminal 205 is supplied with the V / UV determination data via the CRC code comparison unit & frame mask unit 15.

【0165】入力端子203からのスペクトルエンベロ
ープAmのベクトル量子化されたインデクスデータは、
逆ベクトル量子化器212に送られて逆ベクトル量子化
が施され、上記データ数変換に対応する逆変換が施され
て、スペクトルエンベロープのデータとなって、有声音
合成部211のサイン波合成回路215に送られてい
る。
The vector-quantized index data of the spectral envelope Am from the input terminal 203 is
The data is sent to the inverse vector quantizer 212, subjected to inverse vector quantization, subjected to an inverse transform corresponding to the above-described data number conversion, becomes spectral envelope data, and becomes a sine wave synthesizing circuit of the voiced sound synthesizer 211. 215.

【0166】なお、エンコード時にスペクトルのベクト
ル量子化に先だってフレーム間差分をとっている場合に
は、ここでの逆ベクトル量子化後にフレーム間差分の復
号を行ってからデータ数変換を行い、スペクトルエンベ
ロープのデータを得る。
If the inter-frame difference is obtained prior to the vector quantization of the spectrum at the time of encoding, the decoding of the inter-frame difference is performed after the inverse vector quantization, and the number of data is converted to obtain the spectrum envelope. To get the data.

【0167】サイン波合成回路215には、入力端子2
04からのピッチ及び入力端子205からの上記V/U
V判定データが供給されている。サイン波合成回路21
5からは、上述した図2、図3のLPC逆フィルタ11
1からの出力に相当するLPC残差データが取り出さ
れ、これが加算器218に送られている。このサイン波
合成の具体的な手法については、例えば本件出願人が先
に提案した、特願平4−91422号の明細書及び図
面、あるいは特願平6−198451号の明細書及び図
面に開示されている。
The sine wave synthesizing circuit 215 has an input terminal 2
04 and the V / U from the input terminal 205
V determination data is supplied. Sine wave synthesis circuit 21
5, the LPC inverse filter 11 shown in FIGS.
LPC residual data corresponding to the output from 1 is extracted and sent to the adder 218. The specific method of the sine wave synthesis is disclosed in, for example, the specification and drawings of Japanese Patent Application No. 4-91422 or the specification and drawings of Japanese Patent Application No. 6-198451, which were previously proposed by the present applicant. Have been.

【0168】また、逆ベクトル量子化器212からのエ
ンベロープのデータと、入力端子204、205からの
ピッチ、V/UV判定データとは、有声音(V)部分の
ノイズ加算のためのノイズ合成回路216に送られてい
る。このノイズ合成回路216からの出力は、重み付き
重畳加算回路217を介して加算器218に送ってい
る。これは、サイン波合成によって有声音のLPC合成
フィルタへの入力となるエクサイテイション(Excitati
on:励起、励振)を作ると、男声等の低いピッチの音で
鼻づまり感がある点、及びV(有声音)とUV(無声
音)とで音質が急激に変化し不自然に感じる場合がある
点を考慮し、有声音部分のLPC合成フィルタ入力すな
わちエクサイテイションについて、音声符号化データに
基づくパラメータ、例えばピッチ、スペクトルエンベロ
ープ振幅、フレーム内の最大振幅、残差信号のレベル等
を考慮したノイズをLPC残差信号の有声音部分に加え
ているものである。
Also, the envelope data from the inverse vector quantizer 212 and the pitch and V / UV judgment data from the input terminals 204 and 205 are combined with a noise synthesis circuit for adding noise in a voiced (V) portion. 216. The output from the noise synthesis circuit 216 is sent to an adder 218 via a weighted superposition addition circuit 217. This is an excitation (Excitati) which is input to the LPC synthesis filter of voiced sound by sine wave synthesis.
When on (excitation, excitation) is made, there is a case where there is a feeling of nasal congestion with a low pitch sound such as a male voice, and the sound quality changes suddenly between V (voiced sound) and UV (unvoiced sound) and feels unnatural. Considering a certain point, the LPC synthesis filter input of the voiced sound portion, that is, the excitation, was considered in consideration of parameters based on the speech coded data, for example, pitch, spectrum envelope amplitude, maximum amplitude in a frame, residual signal level, and the like. Noise is added to the voiced portion of the LPC residual signal.

【0169】加算器218からの加算出力は、LPC合
成フィルタ214の有声音用の合成フィルタ236に送
られてLPCの合成処理が施されることにより時間波形
データとなり、さらに有声音用ポストフィルタ238v
でフィルタ処理された後、加算器239に送られる。
The addition output from the adder 218 is sent to the voiced sound synthesis filter 236 of the LPC synthesis filter 214 and subjected to LPC synthesis processing to become time waveform data, and further to the voiced sound post filter 238v.
, And sent to the adder 239.

【0170】次に、図24の入力端子207s及び20
7gには、UVデータとしてのシェイプインデクス及び
ゲインインデクスがそれぞれ供給され、無声音合成部2
20に送られている。端子207sからのシェイプイン
デクスは、無声音合成部220の雑音コードブック22
1に、端子207gからのゲインインデクスはゲイン回
路222にそれぞれ送られている。雑音コードブック2
21から読み出された代表値出力は、無声音のLPC残
差に相当するノイズ信号成分であり、これがゲイン回路
222で所定のゲインの振幅となり、窓かけ回路223
に送られて、上記有声音部分とのつなぎを円滑化するた
めの窓かけ処理が施される。
Next, the input terminals 207s and 207s of FIG.
7g, the shape index and the gain index as UV data are supplied, respectively, and the unvoiced sound synthesis unit 2
20. The shape index from the terminal 207s is stored in the noise codebook 22 of the unvoiced sound synthesizer 220.
1, the gain index from the terminal 207g is sent to the gain circuit 222, respectively. Noise codebook 2
21 is a noise signal component corresponding to the LPC residual of the unvoiced sound. The noise signal component has a predetermined gain amplitude in the gain circuit 222 and the windowing circuit 223.
And a windowing process for smoothing the connection with the voiced sound portion is performed.

【0171】窓かけ回路223からの出力は、無声音合
成部220からの出力として、LPC合成フィルタ21
4のUV(無声音)用の合成フィルタ237に送られ
る。合成フィルタ237では、LPC合成処理が施され
ることにより無声音部分の時間波形データとなり、この
無声音部分の時間波形データは無声音用ポストフィルタ
238uでフィルタ処理された後、加算器239に送ら
れる。
The output from the windowing circuit 223 is output from the unvoiced sound synthesizing section 220 as the LPC synthesis filter 21.
4 is sent to the synthesis filter 237 for UV (unvoiced sound). The synthesis filter 237 performs LPC synthesis processing to obtain unvoiced sound time waveform data. The unvoiced sound time waveform data is filtered by the unvoiced sound post filter 238u, and then sent to the adder 239.

【0172】加算器239では、有声音用ポストフィル
タ238vからの有声音部分の時間波形信号と、無声音
用ポストフィルタ238uからの無声音部分の時間波形
データとが加算され、出力端子201より取り出され
る。
In the adder 239, the time waveform signal of the voiced sound portion from the voiced post filter 238 v and the time waveform data of the unvoiced sound portion from the unvoiced sound post filter 238 u are added and extracted from the output terminal 201.

【0173】この出力端子201から取り出された音声
復号化出力は、D/A変換器18によりアナログ音声信
号とされ、スピーカ19から音声として発せられる。
The audio decoded output extracted from the output terminal 201 is converted into an analog audio signal by the D / A converter 18 and is output from the speaker 19 as audio.

【0174】図25及び図26には、上記携帯電話装置
が行う符号化方法と、音声復号化方法をまとめたフロー
チャートを示す。
FIGS. 25 and 26 show flowcharts summarizing the encoding method and the audio decoding method performed by the portable telephone device.

【0175】すなわち、携帯電話装置の符号化装置側が
実行する音声符号化処理とは、ステップS1の音声符号
化工程により入力音声信号を符号化し、ステップS2で
ステップS1からの複数種類の音声符号化パラメータの
内で伝送路誤りに対して聴感上のビット感度が高い重要
なビット群を選択し、この重要ビット群からCRC検査
符号を計算し、ステップS3でステップS2で計算した
CRC検査符号と上記重要ビット群に畳み込み符号化を
行う処理である。
That is, the voice coding process executed by the coding device side of the portable telephone device means that the input voice signal is coded in the voice coding step of step S1, and a plurality of types of voice coding from step S1 are performed in step S2. An important bit group having a high audible bit sensitivity to a transmission path error is selected from the parameters, a CRC is calculated from this important bit group, and the CRC and the CRC calculated in step S2 are calculated in step S3. This is a process of performing convolutional encoding on the important bit group.

【0176】また、上記携帯電話装置の復号化装置側が
実行する音声復号化処理とは、ステップS11で他の携
帯電話装置からの畳み込み符号化出力に畳み込み復号化
を施した後、ステップS12でCRC保護ビットを持つ
クラスはCRC符号比較によりエラー検出が行われる。
その際、ステップS13でクラスIのエラー検出結果に
応じてフレームマスキング状態変数stateが更新され
る。ここで、もしクラスIにエラーが検出された場合に
はステップS14に進み、パラメータ置換によるフレー
ムマスキングが施されてからステップS15に進み音声
が復号化される。
The speech decoding process executed by the decoding device side of the portable telephone device includes the convolutional decoding of the convolutional coded output from another portable telephone device in step S11 and the CRC in step S12. For the class having the protection bit, error detection is performed by CRC code comparison.
At that time, in step S13, the frame masking state variable state is updated according to the result of the class I error detection. Here, if an error is detected in the class I, the process proceeds to step S14, where frame masking by parameter replacement is performed, and then the process proceeds to step S15, where speech is decoded.

【0177】一方、ステップS13でクラスIにエラー
が検出されなかった場合、ステップS16に進み、もし
更新されてstate=7ならステップS17に進んで、変
数muteが全フレームの変数mute(p)と1との平均をとっ
た結果0.8を越えたか否かをステップS18で判定し、
越えなかった場合には平均がセットされ、0.8を越えた
場合にはステップS19に進んでmute=0.8をセットす
る。
On the other hand, if no error is detected in the class I in step S13, the process proceeds to step S16, and if updated and state = 7, the process proceeds to step S17, where the variable mute is set to the variable mute (p) of all frames. It is determined in step S18 whether or not the result of averaging with 1 exceeds 0.8.
If not, the average is set. If it exceeds 0.8, the process proceeds to step S19, where mute = 0.8 is set.

【0178】次に、ステップS20でLSP4=1と判断
し、差分モードであるときには、ステップS21に進
み、直前のクラスIのエラー数に応じて補間係数がセッ
トされ、ステップS22でLSP復号される。このとき誤
差分に当たるLSP2,LSP3,LSP5による成分は加算さ
れない。また、ステップS20でLSP=1でない場合に
は、ステップS23に進み、通常のLSP復号が行われ
る。
Next, it is determined in step S20 that LSP4 = 1, and if the mode is the difference mode, the process proceeds to step S21, where an interpolation coefficient is set according to the number of errors of the immediately preceding class I, and LSP decoding is performed in step S22. . At this time, the components by LSP2, LSP3, and LSP5 corresponding to the error are not added. If LSP is not 1 in step S20, the process proceeds to step S23, and normal LSP decoding is performed.

【0179】状態変数stateが0或いは7で上記処理後
に、ステップS24でvoiced frame(VUV>0)であるな
ら、ステップS25に進み、LPC残差スペクトルAmをidS
0,idS1,idGより復号する、がもしステップS26で
idS0とidS1に個別に付加されたCRCビットより同時にエ
ラーが検出された場合、ステップS27で低域抑圧をか
ける。
If the state variable state is 0 or 7 and the voiced frame (VUV> 0) in step S24 after the above processing, the flow advances to step S25 to convert the LPC residual spectrum Am into idS
0, idS1 and idG are decoded.
If an error is detected simultaneously from the CRC bits individually added to idS0 and idS1, low-frequency suppression is performed in step S27.

【0180】ところで、上記Amは固定次元に変換された
ものなのでピッチに基づく本来の次元に戻すためステッ
プS28で次元変換が行われる。
Since Am is converted to a fixed dimension, dimension conversion is performed in step S28 to return to the original dimension based on the pitch.

【0181】さらにステップS29でレートが4kbpsで
あるときにはステップS30に進み、Amの拡張成分であ
るidS2_4k,idS3_4k,idS4_4kをカバーするCRCビッ
トがチェックされるが、その結果エラーが検出されなか
った場合のみステップS31で拡張成分が加算される。
If the rate is 4 kbps in step S29, the flow advances to step S30 to check the CRC bits covering idS2_4k, idS3_4k, and idS4_4k, which are the extended components of Am, but only when no error is detected as a result. In step S31, an extended component is added.

【0182】さらにステップS32でstate=7であ
り、かつ前フレームのVUVであるprevVUV=0、つまりun
voicedであるとき、ステップS33に進みAmの抑圧が施
される。
Further, in step S32, state = 7 and prevVUV = 0 which is the VUV of the previous frame, that is, un
If voiced, the process proceeds to step S33, where Am is suppressed.

【0183】このように、伝送路符号化器4と、符号化
器3を符号化装置として送信側に備える携帯電話装置で
は、伝送路の誤りに強い符号化データを出力することが
できる。
As described above, the transmission path encoder 4 and the portable telephone device provided with the encoder 3 as an encoding apparatus on the transmission side can output encoded data that is resistant to errors in the transmission path.

【0184】また、本発明に係る復号化方法及び装置を
適用した伝送路復号化器と、音声復号化器とを復号化装
置として受信側に備えた携帯電話装置では、伝送路誤り
による品質の低下を抑えた音声を復号できる。
Further, in a portable telephone device having a transmission line decoder to which the decoding method and apparatus according to the present invention is applied and a speech decoder as a decoding device on the receiving side, the quality due to the transmission line error is reduced. It is possible to decode the voice with suppressed reduction.

【0185】以上、本発明の復号装置及び方法の具体例
となる復号装置を備えた携帯電話装置について説明して
きたが、本発明は携帯電話装置の復号装置にのみ適用が
限定されるものではない。例えば、伝送システムにも適
用できる。
[0185] Although the portable telephone device provided with the decoding device as a specific example of the decoding device and method of the present invention has been described above, the application of the present invention is not limited only to the decoding device of the portable telephone device. . For example, the present invention can be applied to a transmission system.

【0186】図27は、本発明を適用した伝送システム
(システムとは、複数の装置が論理的に集合したものを
いい、各構成の装置が同一筐体中にあるか否かは問わな
い)の一実施の形態の構成例を示している。
FIG. 27 shows a transmission system to which the present invention is applied (a system refers to a logical collection of a plurality of devices, irrespective of whether the devices of each configuration are in the same housing or not). 1 shows a configuration example of one embodiment.

【0187】この伝送システムでは、上記復号装置をク
ライアント端末63が備え、上記符号化装置をサーバ6
1が備えている。クライアント端末63とサーバ61
は、例えば、インターネットや、ISDN(Integrated
Service Digital Network)、LAN(Local Area Net
work)、PSTN(Public Switched Telephone Networ
k) などのネットワーク62で接続されている。
In this transmission system, the client terminal 63 includes the decoding device, and the server 6
1 is provided. Client terminal 63 and server 61
Is, for example, the Internet or ISDN (Integrated
Service Digital Network), LAN (Local Area Net)
work), PSTN (Public Switched Telephone Networ
k) and the like.

【0188】クライアント端末63からサーバ1に対し
て、ネットワーク62を介して、例えば、曲などのオー
ディオ信号の要求があると、サーバ61において、その
要求のあった曲に対応するオーディオ信号の符号化パラ
メータを、ネットワーク62上の伝送路誤りに対するビ
ットの聴感上の感度に応じて保護し、クライアント端末
63に伝送する。クライアント端末63では、上記復号
方法に応じてサーバー61から伝送路誤りに対して保護
されてきた符号化パラメータを復号して例えばスピーカ
のような出力装置から音声として出力する。
When a request for an audio signal such as a song is made from the client terminal 63 to the server 1 via the network 62, the server 61 encodes the audio signal corresponding to the requested song. The parameters are protected according to the perceptual sensitivity of the bits to transmission path errors on the network 62 and transmitted to the client terminal 63. The client terminal 63 decodes the encoding parameters protected from the transmission path error from the server 61 in accordance with the above-described decoding method, and outputs the decoded parameters as audio from an output device such as a speaker.

【0189】図28は、図27のサーバ61のハードウ
ェア構成例を示している。
FIG. 28 shows an example of the hardware configuration of the server 61 in FIG.

【0190】ROM(Read Only Memory)71には、例
えば、IPL(Initial Program Loading) プログラム
などが記憶されている。CPU(Central Processing U
nit)72は、例えば、ROM71に記憶されているI
PLプログラムにしたがって、外部記憶装置76に記憶
(記録)されたOS(Operating System)のプログラム
を実行し、さらに、そのOSの制御の下、外部記憶装置
76に記憶された所定のアプリケーションプログラムを
実行することで、オーディオ信号の符号化処理やその符
号化により得られた符号化パラメータに対して保護処理
を施し、その符号化データの、クライアント端末63へ
の送信処理などを行う。RAM(RandomAccess Memor
y)73は、CPU72の動作上必要なプログラムやデ
ータなどを記憶する。入力装置74は、例えば、キーボ
ードやマウス、マイク、外部インターフェースなどで構
成され、必要なデータやコマンドを入力するときに操作
される。さらに、入力装置74は、外部から、クライア
ント端末63に対して提供するディジタルオーディオ信
号の入力を受け付けるインターフェースとしても機能す
るようになされている。出力装置75は、例えば、ディ
スプレイや、スピーカ、プリンタなどで構成され、必要
な情報を表示、出力する。外部記憶装置76は、例え
ば、ハードディスクなどでなり、上述したOSや所定の
アプリケーションプログラムなどを記憶している。ま
た、外部記憶装置76は、その他、CPU72の動作上
必要なデータなども記憶する。通信装置77は、ネット
ワーク62を介しての通信に必要な制御を行う。
A ROM (Read Only Memory) 71 stores, for example, an IPL (Initial Program Loading) program. CPU (Central Processing U
nit) 72 is, for example, I stored in the ROM 71.
According to the PL program, an OS (Operating System) program stored (recorded) in the external storage device 76 is executed, and further, under the control of the OS, a predetermined application program stored in the external storage device 76 is executed. By doing so, a protection process is performed on the audio signal encoding process and the encoding parameters obtained by the encoding, and a process of transmitting the encoded data to the client terminal 63 is performed. RAM (RandomAccess Memor
y) 73 stores programs and data necessary for the operation of the CPU 72. The input device 74 includes, for example, a keyboard, a mouse, a microphone, and an external interface, and is operated when inputting necessary data and commands. Further, the input device 74 also functions as an interface for receiving an input of a digital audio signal provided to the client terminal 63 from outside. The output device 75 includes, for example, a display, a speaker, a printer, and the like, and displays and outputs necessary information. The external storage device 76 is, for example, a hard disk or the like, and stores the above-described OS and predetermined application programs. In addition, the external storage device 76 also stores data necessary for the operation of the CPU 72 and the like. The communication device 77 performs control necessary for communication via the network 62.

【0191】外部記憶装置76に記憶されている所定の
アプリケーションプログラムとは、上記図1に示した、
音声符号化器3と、伝送路符号化器4と、変調器7の機
能をCPU72に実行させるためのプログラムである。
The predetermined application program stored in the external storage device 76 is as shown in FIG.
This is a program for causing the CPU 72 to execute the functions of the speech encoder 3, the transmission path encoder 4, and the modulator 7.

【0192】また、図29は、図27のクライアント端
末63のハードウェア構成例を示している。
FIG. 29 shows an example of the hardware configuration of the client terminal 63 shown in FIG.

【0193】クライアント端末63は、ROM81乃至
通信装置87で構成され、上述したROM71乃至通信
装置77で構成されるサーバ61と基本的に同様に構成
されている。
The client terminal 63 is composed of the ROM 81 to the communication device 87, and has basically the same configuration as the server 61 composed of the ROM 71 to the communication device 77 described above.

【0194】但し、外部記憶装置86には、アプリケー
ションプログラムとして、サーバ61からの符号化デー
タを復号するための、本発明に係る復号方法を実行する
ためのプログラムや、その他の後述するような処理を行
うためのプログラムなどが記憶されており、CPU82
では、これらのアプリケーションプログラムが実行され
ることで、伝送路誤りに対して保護された符号化データ
の復号、再生処理などが行われるようになされている。
However, the external storage device 86 includes, as an application program, a program for executing the decoding method according to the present invention for decoding encoded data from the server 61, and other processing as described later. And a program for performing the operation.
By executing these application programs, decoding, reproduction processing, and the like of encoded data protected against transmission path errors are performed.

【0195】すなわち、外部記憶装置86には、上記図
1に示した、復調器13と、伝送路復号化器14と、音
声復号化器17の機能をCPU82に実行させるための
アプリケーションプログラムが記憶されている。
That is, the external storage device 86 stores an application program for causing the CPU 82 to execute the functions of the demodulator 13, the transmission path decoder 14, and the audio decoder 17 shown in FIG. Have been.

【0196】このため、クライアント端末63では、外
部記憶装置86に記憶されている復号方法を、上記図1
に示したハードウェア構成を必要とせず、ソフトウェア
として実現することができる。
For this reason, the client terminal 63 uses the decryption method stored in the external storage device 86 according to FIG.
Can be realized as software without requiring the hardware configuration shown in FIG.

【0197】なお、クライアント端末63では、外部記
憶装置86にサーバ61から伝送されてきた上記符号化
データを記憶しておいて所望の時間にその符号化データ
を読み出して上記復号方法を実行し所望の時間に音声を
出力装置85から出力するようにしてもよい。また、上
記符号化データを外部記憶装置86とは別の外部記憶装
置、例えば光磁気ディスクや他の記録媒体に記録してお
いてもよい。
The client terminal 63 stores the encoded data transmitted from the server 61 in the external storage device 86, reads out the encoded data at a desired time, executes the decoding method, and executes the decoding method. The audio may be output from the output device 85 at the time. Further, the encoded data may be recorded on an external storage device different from the external storage device 86, for example, a magneto-optical disk or another recording medium.

【0198】また、上述の実施の形態においては、サー
バ61の外部記憶装置76としても、光記録媒体、光磁
気記録媒体、磁気記録媒体等の記録可能な媒体を使用し
て、この記録媒体に符号化された符号化データを記録し
ておいてもよい。
Further, in the above-described embodiment, a recordable medium such as an optical recording medium, a magneto-optical recording medium, and a magnetic recording medium is used as the external storage device 76 of the server 61, and the recording medium is stored in the storage medium. Encoded data may be recorded.

【0199】[0199]

【発明の効果】本発明に係る復号装置及び方法によれ
ば、音声信号としての連続性を保ち、高品質の音声を復
号することができる。
According to the decoding apparatus and method of the present invention, high quality speech can be decoded while maintaining continuity as a speech signal.

【0200】また、本発明に係るプログラム提供媒体を
用いることにより、コンピュータシステムにおいて、音
声信号としての連続性を保ち、高品質の音声を復号する
ことができる。
Further, by using the program providing medium according to the present invention, it is possible to maintain continuity as an audio signal and decode high-quality audio in a computer system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態となる携帯電話装置の構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a mobile phone device according to an embodiment of the present invention.

【図2】上記携帯電話装置を構成する音声符号化器の基
本的な構成を示すブロック図である。
FIG. 2 is a block diagram showing a basic configuration of a speech encoder constituting the mobile phone device.

【図3】上記音声符号化器の詳細な構成を示すブロック
図である。
FIG. 3 is a block diagram showing a detailed configuration of the speech encoder.

【図4】ビットレート2kbps及び4kbpsに共通のパラメ
ータを示す図である。
FIG. 4 is a diagram showing parameters common to bit rates of 2 kbps and 4 kbps.

【図5】4kbpsにのみ固有のパラメータを示す図であ
る。
FIG. 5 is a diagram showing parameters specific to only 4 kbps.

【図6】ビットレート2kbpsのときの有声音パラメータ
のクラス分割を示す図である。
FIG. 6 is a diagram illustrating class division of voiced sound parameters at a bit rate of 2 kbps.

【図7】ビットレート2kbpsのときの無声音パラメータ
のクラス分割を示す図である。
FIG. 7 is a diagram showing class division of unvoiced sound parameters at a bit rate of 2 kbps.

【図8】ビットレート4kbpsのときの有声音パラメータ
のクラス分割を示す図である。
FIG. 8 is a diagram showing class division of voiced sound parameters at a bit rate of 4 kbps.

【図9】ビットレート4kbpsのときの無声音パラメータ
のクラス分割を示す図である。
FIG. 9 is a diagram illustrating class division of unvoiced sound parameters at a bit rate of 4 kbps.

【図10】ビットレート2kbpsのときの有声音パラメー
タのチャネルコーダへの入力順を示す図である。
FIG. 10 is a diagram showing an input order of voiced sound parameters to a channel coder at a bit rate of 2 kbps.

【図11】ビットレート2kbpsのときの無声音パラメー
タのチャネルコーダへの入力順を示す図である。
FIG. 11 is a diagram showing an input order of unvoiced sound parameters to a channel coder at a bit rate of 2 kbps.

【図12】ビットレート4kbpsのときの有声音パラメー
タのクラスIビットのチャネルコーダへの入力順を示す
図である。
FIG. 12 is a diagram showing an input order of class I bits of a voiced sound parameter to a channel coder at a bit rate of 4 kbps.

【図13】ビットレート4kbpsのときの有声音パラメー
タのクラスII〜クラスVビットのチャネルコーダへの入
力順を示す図である。
FIG. 13 is a diagram showing the order of input of voiced sound parameters from class II to class V bits to a channel coder at a bit rate of 4 kbps.

【図14】ビットレート4kbpsのときの有声音パラメー
タのクラスVI,クラスVIIビットのチャネルコーダへの
入力順を示す図である。
FIG. 14 is a diagram showing the order of input of voiced sound parameter class VI and class VII bits to a channel coder at a bit rate of 4 kbps.

【図15】ビットレート4kbpsのときの無声音パラメー
タのクラスIビットのチャネルコーダへの入力順を示す
図である。
FIG. 15 is a diagram illustrating an input order of class I bits of unvoiced sound parameters to a channel coder at a bit rate of 4 kbps.

【図16】ビットレート4kbpsのときの無声音パラメー
タのクラスII〜クラスVビットのチャネルコーダへの入
力順を示す図である。
FIG. 16 is a diagram showing the order of input of unvoiced sound parameters of class II to class V bits to a channel coder at a bit rate of 4 kbps.

【図17】ビットレート4kbpsのときの無声音パラメー
タのクラスVI,クラスVIIビットのチャネルコーダへの
入力順を示す図である。
FIG. 17 is a diagram showing an input order of class VI and class VII bits of an unvoiced sound parameter to a channel coder at a bit rate of 4 kbps.

【図18】2kbpsの有声音のクラスI〜クラスVIまで、
4kbpsの有声音のクラスII〜クラスVIIまでのビットア
サインメントを示す図である。
FIG. 18 shows 2 kbps voiced sounds from class I to class VI.
It is a figure which shows the bit assignment of the class II-class VII of the voiced sound of 4 kbps.

【図19】上記携帯電話装置を構成する伝送路復号化器
の動作を説明するための状態遷移図である。
FIG. 19 is a state transition diagram for explaining the operation of the transmission line decoder constituting the mobile phone device.

【図20】上記(7)式にて使用される、補間係数Pの
値を示す図である。
FIG. 20 is a diagram showing a value of an interpolation coefficient P used in the above equation (7).

【図21】状態変数stateの値に応じて、出力音の音量
を制御するミュート変数muteの設定を説明するための図
である。
FIG. 21 is a diagram for explaining setting of a mute variable mute for controlling a volume of an output sound according to a value of a state variable state.

【図22】上記(10)式にて使用される、s[i]の値を
示す図である。
FIG. 22 is a diagram showing a value of s [i] used in the above equation (10).

【図23】上記音声復号化器の基本的な構成を示すブロ
ック図である。
FIG. 23 is a block diagram showing a basic configuration of the speech decoder.

【図24】上記音声復号化器の詳細な構成を示すブロッ
ク図である。
FIG. 24 is a block diagram showing a detailed configuration of the audio decoder.

【図25】上記携帯電話装置が行う符号化方法を説明す
るためのフローチャートである。
FIG. 25 is a flowchart illustrating an encoding method performed by the mobile phone device.

【図26】上記携帯電話装置が行う復号化方法を説明す
るためのフローチャートである。
FIG. 26 is a flowchart illustrating a decoding method performed by the mobile phone device.

【図27】本発明を適用できる伝送システムのブロック
図である。
FIG. 27 is a block diagram of a transmission system to which the present invention can be applied.

【図28】上記伝送システムを構成するサーバのブロッ
ク図である。
FIG. 28 is a block diagram of a server constituting the transmission system.

【図29】上記伝送システムを構成するクライアント端
末のブロック図である。
FIG. 29 is a block diagram of a client terminal constituting the transmission system.

【符号の説明】[Explanation of symbols]

3 音声符号化器、4 伝送路符号化器、5 CRC符
号計算部、6 畳み込み符号化器、14 伝送路復号化
器、15 CRC符号比較部&フレームマスク部、16
畳み込み復号化器、23 クラス分割&入力順決定部
Reference Signs List 3 audio encoder, 4 transmission line encoder, 5 CRC code calculation unit, 6 convolutional encoder, 14 transmission line decoder, 15 CRC code comparison unit & frame mask unit, 16
Convolutional decoder, 23 class division & input order determination unit

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 符号化装置により入力音声信号が時間軸
上の所定の符号化単位で区分されて符号化され、かつ伝
送路誤りに対するビットの聴感上の感度に応じてクラス
分けされて伝送されてきた符号化パラメータを復号する
復号装置において、 所定のクラスの上記符号化パラメータに付加されている
誤り検査符号を用いて誤りを検出し、上記符号化単位内
で発生した上記符号化パラメータの誤りに応じてフレー
ムマスク処理を異ならせる伝送路復号手段を備えること
を特徴とする復号装置。
An encoding apparatus separates and encodes an input speech signal in a predetermined coding unit on a time axis, and classifies the input speech signal in accordance with the audibility of a bit with respect to a transmission path error and transmits the signal. A decoding device that decodes the obtained coding parameter, wherein an error is detected using an error check code added to the coding parameter of a predetermined class, and an error of the coding parameter generated in the coding unit is detected. A transmission path decoding means for making a frame masking process different according to the decoding method.
【請求項2】 上記符号化装置における符号化処理は複
数個のベクトル量子化器を用いて行われたものであり、
各コードベクトルを表すインデクスが、伝送路誤りに対
するビットの聴感上の感度に応じてクラス分けされて伝
送されて来ることにより、上記伝送路復号手段は所定の
クラスの上記インデクスに付加されてくる誤り検査符号
を検出し、上記符号化単位内で発生した上記インデクス
の誤りに応じてフレームマスク処理を異ならせることを
特徴とする請求項1記載の復号装置。
2. The encoding process in the encoding device is performed using a plurality of vector quantizers.
Since the index representing each code vector is transmitted after being divided into classes according to the perceptual sensitivity of the bit to the transmission path error, the transmission path decoding means allows the transmission path decoding means to add the error added to the index of the predetermined class. 2. The decoding apparatus according to claim 1, wherein a check code is detected, and a frame mask process is changed in accordance with the index error generated in the coding unit.
【請求項3】 上記符号化装置から伝送されてくるイン
デクスは、伝送路誤りに対するビットの聴感上の感度に
応じて誤り検査符号を掛けた後畳み込み符号化が施され
るクラスと、誤り検査符号が掛けられるだけのクラス
と、何もされないクラスに分けられていることを特徴と
する請求項2記載の復号装置。
3. An index transmitted from the encoding device includes: a class to which an error check code is applied according to an audibility of a bit with respect to a transmission path error, and then a convolutional coding is performed; 3. The decoding device according to claim 2, wherein the class is divided into a class that can only be applied and a class that does nothing.
【請求項4】 上記伝送路復号手段は、所定個数以上の
符号化単位内で誤りが検出されたときにフレームマスク
処理を行い、それ以外のときには誤ったインデクスをそ
のまま使用することを特徴とする請求項2記載の復号装
置。
4. The transmission path decoding means performs frame mask processing when an error is detected in a predetermined number or more of coding units, and otherwise uses an erroneous index as it is. Item 3. The decoding device according to Item 2.
【請求項5】 上記符号化装置における符号化処理は交
互学習によって作成された多段ベクトル量子化器を用い
て行われたものであり、各コードベクトルを表すインデ
クスが、伝送路誤りに対するビットの聴感上の感度に応
じてクラス分けされて伝送されて来ることにより、上記
伝送路復号手段は所定のクラスの上記インデクスに付加
されてくる誤り検査符号を検出し、複数個のインデクス
に誤りが検出されたか否かに応じてフレームマスク処理
を異ならせることを特徴とする請求項1記載の復号装
置。
5. The encoding process in the encoding device is performed by using a multi-stage vector quantizer created by alternate learning, and an index representing each code vector is used as a bit perception of a transmission path error. The transmission path decoding means detects an error check code added to the index of a predetermined class by being transmitted in a class according to the above sensitivity, and an error is detected in a plurality of indexes. 2. The decoding device according to claim 1, wherein the frame mask processing is changed depending on whether the frame mask processing has been performed.
【請求項6】 上記符号化装置における符号化処理は、
音声のスペクトル情報を、交互学習による2段ベクトル
量子化器で量子化伝送する符号化処理であり、上記伝送
路復号手段は二つのベクトル量子化器の出力であるコー
ドベクトルを表すインデクスが同時に誤った場合に低域
を抑圧するフレームマスク処理を施すことを特徴とする
請求項5記載の復号装置。
6. An encoding process in the encoding device,
This is a coding process for quantizing and transmitting audio spectrum information by a two-stage vector quantizer based on alternate learning, and the transmission path decoding means simultaneously detects inaccurate indexes representing code vectors output from the two vector quantizers. 6. The decoding device according to claim 5, wherein a frame mask process for suppressing a low frequency band is performed in a case where the decoding is performed.
【請求項7】 上記伝送路復号手段は、1個以上の連続
する上記時間軸上の所定の符号化単位であるフレームか
ら誤りが検出された後、最初の正常なフレームが受信さ
れたときに、そのフレームが有声音で、かつ誤る前の最
後の正常なフレームが無声音だったときに信号のレベル
を抑圧するフレームマスク処理を施すことを特徴とする
請求項1記載の復号装置。
7. The transmission line decoding means according to claim 1, wherein when an error is detected from one or more consecutive frames which are predetermined coding units on said time axis, a first normal frame is received. 2. The decoding apparatus according to claim 1, wherein when the frame is a voiced sound and the last normal frame before the error is unvoiced, a frame masking process for suppressing a signal level is performed.
【請求項8】 符号化装置により入力音声信号が時間軸
上の所定の符号化単位で区分されて符号化され、かつ伝
送路誤りに対するビットの聴感上の感度に応じてクラス
分けされて伝送されてきた符号化パラメータを復号する
ための復号方法において、 所定のクラスの上記符号化パラメータに付加されている
誤り検査符号を用いて誤りを検出し、上記符号化単位内
で発生した上記符号化パラメータの誤りに応じてフレー
ムマスク処理を異ならせる伝送路復号工程を備えること
を特徴とする復号方法。
8. An encoding apparatus encodes an input speech signal by dividing the speech signal into predetermined coding units on a time axis, classifying the input speech signal into classes according to the audibility of bits with respect to a transmission path error, and transmitting the class. A decoding method for decoding the coding parameters, wherein an error is detected using an error check code added to the coding parameters of a predetermined class, and the coding parameters generated in the coding unit are detected. A transmission line decoding step of making a frame mask process different according to the error of (1).
【請求項9】 上記符号化装置における符号化処理は複
数個のベクトル量子化器を用いて行われたものであり、
各コードベクトルを表すインデクスが、伝送路誤りに対
するビットの聴感上の感度に応じてクラス分けされて伝
送されて来ることにより、上記伝送路復号工程は所定の
クラスの上記インデクスに付加されてくる誤り検査符号
を検出し、上記符号化単位内で発生した上記インデクス
の誤りに応じてフレームマスク処理を異ならせることを
特徴とする請求項8記載の復号方法。
9. The encoding process in the encoding device is performed using a plurality of vector quantizers.
Since the index representing each code vector is transmitted after being classified into classes according to the perceptual sensitivity of the bit to the transmission path error, the transmission path decoding step performs the error added to the index of the predetermined class. 9. The decoding method according to claim 8, wherein a check code is detected, and a frame mask process is changed according to the index error generated in the coding unit.
【請求項10】 上記符号化装置における符号化処理は
交互学習によって作成された多段ベクトル量子化器を用
いて行われたものであり、各コードベクトルを表すイン
デクスが、伝送路誤りに対するビットの聴感上の感度に
応じてクラス分けされて伝送されて来ることにより、上
記伝送路復号工程は所定のクラスの上記インデクスに付
加されてくる誤り検査符号を検出し、複数個のインデク
スに誤りが検出されたか否かに応じてフレームマスク処
理を異ならせることを特徴とする請求項8記載の復号方
法。
10. The encoding process in the encoding device is performed by using a multi-stage vector quantizer created by alternate learning, and an index representing each code vector is used as a bit perception of a transmission path error. By being transmitted by being classified according to the above sensitivity, the transmission path decoding step detects an error check code added to the index of a predetermined class, and an error is detected in a plurality of indexes. 9. The decoding method according to claim 8, wherein the frame mask processing is made different depending on whether or not the decoding is performed.
【請求項11】 符号化装置により入力音声信号が時間
軸上の所定の符号化単位で区分されて符号化され、かつ
伝送路誤りに対するビットの聴感上の感度に応じてクラ
ス分けされて伝送されてきた符号化パラメータを復号す
るための復号プログラムを提供するためのプログラム提
供媒体において、 所定のクラスの上記符号化パラメータに付加されている
誤り検査符号を用いて誤りを検出し、上記符号化単位内
で発生した上記符号化パラメータの誤りに応じてフレー
ムマスク処理を異ならせる伝送路復号ステップを備える
プログラムを提供することを特徴とするプログラム提供
媒体。
11. An encoding apparatus encodes an input audio signal by dividing the input audio signal into predetermined coding units on a time axis and classifying the input audio signal into classes according to the audibility of bits with respect to a transmission path error. A program providing medium for providing a decoding program for decoding the obtained coding parameter, wherein an error is detected using an error check code added to the coding parameter of a predetermined class, and the coding unit A program providing medium, comprising: providing a program having a transmission path decoding step of changing a frame mask process according to an error of the encoding parameter generated in the program.
【請求項12】 上記符号化装置における符号化処理は
複数個のベクトル量子化器を用いて行われたものであ
り、各コードベクトルを表すインデクスが、伝送路誤り
に対するビットの聴感上の感度に応じてクラス分けされ
て伝送されて来ることにより、上記伝送路復号ステップ
は所定のクラスの上記インデクスに付加されてくる誤り
検査符号を検出し、上記符号化単位内で発生した上記イ
ンデクスの誤りに応じてフレームマスク処理を異ならせ
るプログラムを提供することを特徴とする請求項11記
載のプログラム提供媒体。
12. The encoding process in the encoding device is performed by using a plurality of vector quantizers, and an index representing each code vector has a sensitivity to a perceptual sensitivity of a bit to a transmission path error. The transmission path decoding step detects an error check code added to the index of a predetermined class, and detects an error of the index generated in the coding unit. 12. The program providing medium according to claim 11, wherein a program for making a frame mask process different in accordance with the program is provided.
【請求項13】 上記符号化装置における符号化処理は
交互学習によって作成された多段ベクトル量子化器を用
いて行われたものであり、各コードベクトルを表すイン
デクスが、伝送路誤りに対するビットの聴感上の感度に
応じてクラス分けされて伝送されて来ることにより、上
記伝送路復号ステップは所定のクラスの上記インデクス
に付加されてくる誤り検査符号を検出し、複数個のイン
デクスに誤りが検出されたか否かに応じてフレームマス
ク処理を異ならせるプログラムを提供することを特徴と
する請求項11記載のプログラム提供媒体。
13. The encoding process in the encoding device is performed by using a multi-stage vector quantizer created by alternate learning, and an index representing each code vector is a bit audibility of a bit with respect to a transmission path error. The transmission path decoding step detects an error check code added to the index of a predetermined class by being transmitted in a class according to the above sensitivity, and an error is detected in a plurality of indexes. 12. The program providing medium according to claim 11, wherein a program for making a frame mask process different depending on whether or not the program is executed is provided.
JP17057499A 1999-06-17 1999-06-17 Decoding apparatus and method, and program providing medium Expired - Lifetime JP4218134B2 (en)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP17057499A JP4218134B2 (en) 1999-06-17 1999-06-17 Decoding apparatus and method, and program providing medium
DE60026660T DE60026660T2 (en) 1999-06-17 2000-06-15 Error detection and error concealment for coded voice data
EP00305063A EP1061503B1 (en) 1999-06-17 2000-06-15 Error detection and error concealment for encoded speech data
EP05016949A EP1596364B1 (en) 1999-06-17 2000-06-15 Error detection and error concealment for encoded speech data
DE60038913T DE60038913D1 (en) 1999-06-17 2000-06-15 Error detection and error concealment for coded voice data
TW089111891A TW466843B (en) 1999-06-17 2000-06-16 Decoding method and apparatus and program furnishing medium
US09/595,215 US6658378B1 (en) 1999-06-17 2000-06-16 Decoding method and apparatus and program furnishing medium
KR1020000033320A KR100718712B1 (en) 1999-06-17 2000-06-16 Decoding device and method, and medium for providing a program
CNB2004100834989A CN100512022C (en) 1999-06-17 2000-06-17 Decoding method and equipment
CNB00126270XA CN1201288C (en) 1999-06-17 2000-06-17 Decoding method and equipment and program facility medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17057499A JP4218134B2 (en) 1999-06-17 1999-06-17 Decoding apparatus and method, and program providing medium

Publications (3)

Publication Number Publication Date
JP2000357999A true JP2000357999A (en) 2000-12-26
JP2000357999A5 JP2000357999A5 (en) 2006-04-20
JP4218134B2 JP4218134B2 (en) 2009-02-04

Family

ID=15907371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17057499A Expired - Lifetime JP4218134B2 (en) 1999-06-17 1999-06-17 Decoding apparatus and method, and program providing medium

Country Status (7)

Country Link
US (1) US6658378B1 (en)
EP (2) EP1596364B1 (en)
JP (1) JP4218134B2 (en)
KR (1) KR100718712B1 (en)
CN (2) CN1201288C (en)
DE (2) DE60026660T2 (en)
TW (1) TW466843B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310088A (en) * 2003-04-01 2004-11-04 Digital Voice Systems Inc Half-rate vocoder
CN114915380A (en) * 2022-07-19 2022-08-16 中国科学院宁波材料技术与工程研究所 CAN bus-based low-cost high-real-time automatic error correction communication system and method

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6681203B1 (en) * 1999-02-26 2004-01-20 Lucent Technologies Inc. Coupled error code protection for multi-mode vocoders
WO2002058245A2 (en) * 2001-01-17 2002-07-25 Koninklijke Philips Electronics N.V. Method and apparatus for protecting lossless transmission of a data stream
JP4711099B2 (en) * 2001-06-26 2011-06-29 ソニー株式会社 Transmission device and transmission method, transmission / reception device and transmission / reception method, program, and recording medium
KR100467326B1 (en) * 2002-12-09 2005-01-24 학교법인연세대학교 Transmitter and receiver having for speech coding and decoding using additional bit allocation method
US7778826B2 (en) * 2005-01-13 2010-08-17 Intel Corporation Beamforming codebook generation system and associated methods
US7475103B2 (en) 2005-03-17 2009-01-06 Qualcomm Incorporated Efficient check node message transform approximation for LDPC decoder
BRPI0612579A2 (en) * 2005-06-17 2012-01-03 Matsushita Electric Ind Co Ltd After-filter, decoder and after-filtration method
KR101244310B1 (en) * 2006-06-21 2013-03-18 삼성전자주식회사 Method and apparatus for wideband encoding and decoding
EP2092790B1 (en) * 2006-12-07 2010-07-07 AKG Acoustics GmbH Dropout concealment for a multi-channel arrangement
CN101232347B (en) * 2007-01-23 2011-01-12 联芯科技有限公司 Method of speech transmission and AMR system
CN101141644B (en) * 2007-10-17 2010-12-08 清华大学 Encoding integration system and method and decoding integration system and method
US20090287489A1 (en) * 2008-05-15 2009-11-19 Palm, Inc. Speech processing for plurality of users
MX2011000375A (en) * 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Audio encoder and decoder for encoding and decoding frames of sampled audio signal.
WO2010103854A2 (en) * 2009-03-13 2010-09-16 パナソニック株式会社 Speech encoding device, speech decoding device, speech encoding method, and speech decoding method
TWI392373B (en) * 2009-09-04 2013-04-01 Nat Univ Chung Cheng The Method of Reverse Conversion and Sub - sampling of Low Computational Complexity
US9117458B2 (en) * 2009-11-12 2015-08-25 Lg Electronics Inc. Apparatus for processing an audio signal and method thereof
JP5850216B2 (en) 2010-04-13 2016-02-03 ソニー株式会社 Signal processing apparatus and method, encoding apparatus and method, decoding apparatus and method, and program
CN102325224B (en) * 2011-09-16 2014-01-22 成都摩宝网络科技有限公司 Audio data transmission system, audio data transmission method and application thereof
CN103138880B (en) * 2011-11-30 2016-03-16 北京东方广视科技股份有限公司 Decoding method and equipment
US9105270B2 (en) * 2013-02-08 2015-08-11 Asustek Computer Inc. Method and apparatus for audio signal enhancement in reverberant environment
TWI557724B (en) * 2013-09-27 2016-11-11 杜比實驗室特許公司 A method for encoding an n-channel audio program, a method for recovery of m channels of an n-channel audio program, an audio encoder configured to encode an n-channel audio program and a decoder configured to implement recovery of an n-channel audio pro
MY188538A (en) 2013-12-27 2021-12-20 Sony Corp Decoding device, method, and program
EP2922056A1 (en) 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation
EP2922055A1 (en) 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information
EP2922054A1 (en) 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation
DE102015113020B4 (en) * 2015-08-07 2023-10-05 Digital Endoscopy Gmbh Endoscope head
US10361717B2 (en) * 2016-06-17 2019-07-23 Huawei Technologies Co., Ltd. Apparatus and methods for error detection coding
US10880062B2 (en) * 2017-06-29 2020-12-29 Qualcomm Incorporated Providing protection for information delivered in demodulation reference signals (DMRS)
CN110190857B (en) * 2019-04-28 2023-04-11 深圳大学 CRC (Cyclic redundancy check) auxiliary check polarization code decoding method and intelligent terminal

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734789A (en) * 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
US5255343A (en) * 1992-06-26 1993-10-19 Northern Telecom Limited Method for detecting and masking bad frames in coded speech signals
JP3343965B2 (en) * 1992-10-31 2002-11-11 ソニー株式会社 Voice encoding method and decoding method
JP2746033B2 (en) * 1992-12-24 1998-04-28 日本電気株式会社 Audio decoding device
KR100287494B1 (en) * 1993-06-30 2001-04-16 이데이 노부유끼 Digital signal encoding method and apparatus, decoding method and apparatus and recording medium of encoded signal
KR100352351B1 (en) * 1994-02-05 2003-01-06 소니 가부시끼 가이샤 Information encoding method and apparatus and Information decoding method and apparatus
JP3680380B2 (en) * 1995-10-26 2005-08-10 ソニー株式会社 Speech coding method and apparatus
US5754734A (en) * 1995-10-31 1998-05-19 Motorola, Inc. Method of transmitting voice coding information using cyclic redundancy check bits
JP3475985B2 (en) * 1995-11-10 2003-12-10 ソニー株式会社 Information encoding apparatus and method, information decoding apparatus and method
JP2838994B2 (en) * 1995-12-27 1998-12-16 日本電気株式会社 Data signal receiving device
JPH11122120A (en) * 1997-10-17 1999-04-30 Sony Corp Coding method and device therefor, and decoding method and device therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310088A (en) * 2003-04-01 2004-11-04 Digital Voice Systems Inc Half-rate vocoder
CN114915380A (en) * 2022-07-19 2022-08-16 中国科学院宁波材料技术与工程研究所 CAN bus-based low-cost high-real-time automatic error correction communication system and method

Also Published As

Publication number Publication date
CN1283007A (en) 2001-02-07
EP1061503B1 (en) 2006-03-15
CN1604483A (en) 2005-04-06
DE60026660T2 (en) 2006-12-07
KR20010007417A (en) 2001-01-26
US6658378B1 (en) 2003-12-02
EP1061503A2 (en) 2000-12-20
JP4218134B2 (en) 2009-02-04
DE60026660D1 (en) 2006-05-11
DE60038913D1 (en) 2008-06-26
CN1201288C (en) 2005-05-11
EP1596364B1 (en) 2008-05-14
CN100512022C (en) 2009-07-08
EP1596364A1 (en) 2005-11-16
TW466843B (en) 2001-12-01
KR100718712B1 (en) 2007-05-15
EP1061503A3 (en) 2003-05-14

Similar Documents

Publication Publication Date Title
JP4218134B2 (en) Decoding apparatus and method, and program providing medium
US6230124B1 (en) Coding method and apparatus, and decoding method and apparatus
JP4438127B2 (en) Speech encoding apparatus and method, speech decoding apparatus and method, and recording medium
JPH1091194A (en) Method of voice decoding and device therefor
KR20120121928A (en) Audio codec post-filter
JP4733939B2 (en) Signal decoding apparatus and signal decoding method
US10607624B2 (en) Signal codec device and method in communication system
WO2005112005A1 (en) Scalable encoding device, scalable decoding device, and method thereof
JPH10124094A (en) Voice analysis method and method and device for voice coding
US20130246055A1 (en) System and Method for Post Excitation Enhancement for Low Bit Rate Speech Coding
JPH1097296A (en) Method and device for voice coding, and method and device for voice decoding
EP3279895B1 (en) Audio encoding based on an efficient representation of auto-regressive coefficients
EP2127088B1 (en) Audio quantization
JP3350340B2 (en) Voice coding method and voice decoding method
JPH11119798A (en) Method of encoding speech and device therefor, and method of decoding speech and device therefor
JPH11119796A (en) Method of detecting speech signal section and device therefor
Fumoto et al. A low‐bit‐rate speech codec using multiband excitation and LPC modeling of harmonic magnitudes for private mobile radio
JPH07143075A (en) Voice coding communication system and device therefor
JPH11316600A (en) Method and device for encoding lag parameter and code book generating method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081021

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081103

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4218134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term