JP2010539792A - Speech enhancement - Google Patents

Speech enhancement Download PDF

Info

Publication number
JP2010539792A
JP2010539792A JP2010524855A JP2010524855A JP2010539792A JP 2010539792 A JP2010539792 A JP 2010539792A JP 2010524855 A JP2010524855 A JP 2010524855A JP 2010524855 A JP2010524855 A JP 2010524855A JP 2010539792 A JP2010539792 A JP 2010539792A
Authority
JP
Japan
Prior art keywords
speech
channel
audio signal
spectrum
flattening
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010524855A
Other languages
Japanese (ja)
Inventor
ブラウン、シー・フィリップ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Publication of JP2010539792A publication Critical patent/JP2010539792A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

スピーチを増強する方法であって、オーディオ信号の中央チャンネルを抽出して、中央チャンネルのスペクトルを平坦化して、平坦化されたスピーチ・チャンネルにオーディオ信号を混合することにより、オーディオ信号における任意のスピーチを増強することを含む。また、複数のチャンネルによりオーディオ信号から音の中央チャンネルを抽出する方法、オーディオ信号のスペクトルを平坦化する方法、及びオーディオ信号におけるスピーチを検出する方法が開示される。更に、スピーチエンハンサが開示され、これはオーディオ信号の中央チャンネルを抽出するための抽出器と、前記中央チャンネルのスペクトルを平坦化するためのスペクトル平坦化器と、前記中央チャンネルにおけるスピーチ検出における信頼度を生成するスピーチ信頼度生成器と、前記平坦化されたスピーチ・チャンネルを原オーディオ信号に、検出されたスピーチの信頼度に比例して混合することにより、オーディオ信号における任意のスピーチを増強するミキサとを備える。
【選択図】図1
A method of enhancing speech, by extracting the center channel of an audio signal, flattening the spectrum of the center channel, and mixing the audio signal into the flattened speech channel, thereby allowing arbitrary speech in the audio signal. Including strengthening. Also disclosed are a method of extracting a central channel of sound from an audio signal by a plurality of channels, a method of flattening the spectrum of the audio signal, and a method of detecting speech in the audio signal. Furthermore, a speech enhancer is disclosed, which includes an extractor for extracting a central channel of an audio signal, a spectral flattener for flattening the spectrum of the central channel, and a reliability in speech detection in the central channel. And a mixer that enhances any speech in the audio signal by mixing the flattened speech channel into the original audio signal in proportion to the reliability of the detected speech With.
[Selection] Figure 1

Description

発明の詳細な説明Detailed Description of the Invention

発明の開示
本明細書は、複数のチャンネルでオーディオ信号から音の中央チャンネルを抽出して、オーディオ信号のスペクトルを平坦化して、オーディオ信号におけるスピーチ(発話)を検出して、スピーチを引き立たせる方法及び装置を説明する。複数のチャンネルによりオーディオ信号から音の中央チャンネルを抽出する方法は、(1)候補中央チャンネルの比αより小さいオーディオ信号の第1のチャンネル及び(2)候補中央チャンネルの比αより小さいオーディオ信号の第2のチャンネルの共役を乗じて、αを概ね最小化して、候補中央チャンネルにその概ね最小化されたαを乗じることにより、抽出された中央チャンネルを形成することを含む。
DISCLOSURE OF THE INVENTION The present specification relates to a method for extracting a central channel of sound from an audio signal by a plurality of channels, flattening the spectrum of the audio signal, detecting speech in the audio signal, and enhancing the speech. And the apparatus will be described. The method of extracting a central channel of sound from an audio signal by a plurality of channels includes (1) a first channel of an audio signal smaller than a ratio α of candidate central channels and (2) an audio signal smaller than a ratio α of candidate central channels. Multiplying the conjugate of the second channel to approximately minimize α and multiplying the candidate center channel by the generally minimized α to form an extracted center channel.

オーディオ信号のスペクトルを平坦化する方法は、推定されたスピーチ・チャンネルを知覚帯域に分離して、知覚帯域のうちの何れが最も多くのエネルギを有しているかを判定し、より少ないエネルギを有する知覚帯域の利得を増大させることにより、オーディオ信号における任意のスピーチのスペクトルを平坦化させることを含んでもよい。この増大は、より少ないエネルギを有する知覚帯域の利得を最大まで増大することを含んでもよい。   A method for flattening the spectrum of an audio signal separates the estimated speech channel into perceptual bands to determine which of the perceptual bands has the most energy and has less energy It may include flattening the spectrum of any speech in the audio signal by increasing the gain of the perceptual band. This increase may include increasing the gain of the perceptual band having less energy to a maximum.

オーディオ信号におけるスピーチを検出する方法は、オーディオ信号の候補中央チャンネルにおけるスペクトル変動を測定し、候補中央チャンネルよりも少ないオーディオ信号のスペクトル変動を測定して、これらスペクトル変動を比較することにより、オーディオ信号におけるスピーチを検出することを含んでもよい。   A method for detecting speech in an audio signal measures the spectral variation in a candidate central channel of the audio signal, measures the spectral variation of the audio signal less than the candidate central channel, and compares these spectral variations to determine the audio signal Detecting speech at.

スピーチを増強する方法は、オーディオ信号の中央チャンネルを抽出して、中央チャンネルのスペクトルを平坦化して、平坦化されたスピーチ・チャンネルにオーディオ信号を混合することにより、オーディオ信号における任意のスピーチを増強することを含んでもよい。この方法は、中央チャンネルにおけるスピーチ検出に信頼度を生成することを更に含んでもよく、その混合は、平坦化されたスピーチ・チャンネルにオーディオ信号を、検出されたスピーチを有する信頼度に比例させて混合することを含んでもよい。その信頼度は、可能性確率が最も低いものから可能性確率が最も高いものまで変動し得るので、その生成は、最低可能性確率よりも高く、且つ最高可能性確率よりも低い値に対して生成された信頼度を制限することを更に含んでもよい。その抽出は、上述した方法を用いて、オーディオ信号の中央チャンネルを抽出することを含んでもよい。上述の平坦化は、上述の方法を用いて中央チャンネルのスペクトルを平坦化することを含んでもよい。上述の生成は、上述の方法を用いて中央チャンネルにおけるスピーチ検出に信頼度を生成することを含んでもよい。   The method of enhancing speech enhances any speech in the audio signal by extracting the center channel of the audio signal, flattening the spectrum of the center channel, and mixing the audio signal into the flattened speech channel May include. The method may further include generating a confidence level for speech detection in the center channel, the mixing of the audio signal in the flattened speech channel proportional to the confidence level with the detected speech. Mixing may be included. Its confidence can vary from the lowest likelihood probability to the highest likelihood probability, so its generation is for values that are higher than the lowest probability probability and lower than the highest probability probability. It may further include limiting the generated confidence. The extraction may include extracting the center channel of the audio signal using the method described above. The flattening described above may include flattening the center channel spectrum using the method described above. The generation described above may include generating confidence in speech detection in the center channel using the method described above.

上述の抽出は、上述の方法を用いてオーディオ信号の中央チャンネルを抽出することを含んでもよく、上述の平坦化は、上述の方法を用いて中央チャンネルのスペクトルを平坦化することを含んでもよく、上述の生成は、上述の方法を用いて中央チャンネルにおけるスピーチ検出に信頼度を生成することを含んでもよい。   The extraction described above may include extracting the center channel of the audio signal using the method described above, and the flattening described above may include flattening the spectrum of the center channel using the method described above. , Generating as described above may include generating confidence in speech detection in the center channel using the method described above.

本明細書は、上述の方法の何れかを実行するコンピュータ・プログラムが格納されたコンピュータ読み取り可能な記録媒体のみならず、CPU、該記録媒体、及びこれらCPUと記録媒体とを結合するバスとを含むコンピュータ・システムを教示する。     This specification includes not only a computer-readable recording medium storing a computer program for executing any of the above-described methods, but also a CPU, the recording medium, and a bus that couples the CPU and the recording medium. Teach computer system including.

本発明の一つの実施例によるスピーチ・エンハンサーの機能ブロック図である。FIG. 3 is a functional block diagram of a speech enhancer according to one embodiment of the present invention. 計40帯域をもたらす間隔1ERBのフィルタの適宜なセットを表す図である。FIG. 5 represents a suitable set of filters with a spacing of 1 ERB that provides a total of 40 bands. 本発明の一つの実施例による混合プロセスを説明する図である。FIG. 6 illustrates a mixing process according to one embodiment of the present invention. 本発明の一つの実施例によるコンピュータ・システムを例示する図である。FIG. 3 illustrates a computer system according to one embodiment of the invention.

発明を実施するための最良の形態
図1は本発明の一つの実施例によるスピーチ・エンハンサーの機能ブロック図である。スピーチ・エンハンサー1は、入力信号17、離散フーリエ変換器10a,10b、中央チャンネル抽出器11、スペクトル平坦化器12、発声活動検出器13、可変利得増幅器15,15c、逆離散フーリエ変換器18a,18b及び出力信号18を含む。入力信号17はそれぞれ左右のチャンネ17a,17bから成り、同様に出力信号18はそれぞれ左右のチャンネル18a,18bから成る。
BEST MODE FOR CARRYING OUT THE INVENTION FIG. 1 is a functional block diagram of a speech enhancer according to one embodiment of the present invention. The speech enhancer 1 includes an input signal 17, discrete Fourier transformers 10a and 10b, a center channel extractor 11, a spectrum flattener 12, a speech activity detector 13, variable gain amplifiers 15 and 15c, an inverse discrete Fourier transformer 18a, 18b and an output signal 18. The input signal 17 comprises left and right channels 17a and 17b, respectively. Similarly, the output signal 18 comprises left and right channels 18a and 18b, respectively.

各々の離散フーリエ変換器18は、入力として入力信号17の左右チャンネル17a,17bを受け取って、出力として変換19a,19bを形成する。中央チャンネル抽出器11は、変換19を受け取って、出力として仮の中央チャンネルC20を形成する。スペクトル平坦化器12は入力として仮の中央チャンネルC20を受け取って、成形された中央チャンネル24を出力として形成し、一方、発声活動検出器13は同じ入力C20を受け取って、一方では可変利得増幅器14a及び14cのための制御信号22を、他方では可変利得増幅器14bのための制御信号21を、出力として形成する。     Each discrete Fourier transformer 18 receives the left and right channels 17a, 17b of the input signal 17 as input and forms transforms 19a, 19b as outputs. The center channel extractor 11 receives the transformation 19 and forms a temporary center channel C20 as output. Spectral flattener 12 receives as input a temporary central channel C20 and forms a shaped central channel 24 as an output, while vocal activity detector 13 receives the same input C20, while variable gain amplifier 14a. And the control signal 22 for the variable gain amplifier 14b on the other hand are formed as outputs.

増幅器14aは、入力及び制御信号として、左チャンネル変換19a及び発声活動検出器13の出力制御信号22をそれぞれ受け取る。同様に、増幅器14cは、入力及び制御信号として、右チャンネル変換19b及び発声活動検出器出力制御信号22をそれぞれ受け取る。増幅器14bは、入力及び制御信号として、スペクトル的に成形された中央チャンネル24及びスペクトル平坦化器12の出力発声活動検出器制御信号21を受け取る。   The amplifier 14a receives the left channel conversion 19a and the output control signal 22 of the vocal activity detector 13 as input and control signals, respectively. Similarly, amplifier 14c receives right channel conversion 19b and voicing activity detector output control signal 22 as input and control signals, respectively. The amplifier 14b receives the spectrally shaped central channel 24 and the output speech activity detector control signal 21 of the spectral flattener 12 as input and control signals.

ミキサー15aは、増幅器14からの出力である利得調整された左変換23aと、利得調整されたスペクトル的に成形された中央チャンネル25とを受け取って、出力として信号26aを形成する。同様に、ミキサー15bは、増幅器14cからの利得調整された右変換23bと、利得調整されたスペクトル的に成形された中央チャンネル25とを受け取って、出力として信号26bを形成する。   The mixer 15a receives the gain adjusted left transform 23a, which is the output from the amplifier 14, and the gain adjusted spectrally shaped central channel 25 and forms the signal 26a as output. Similarly, mixer 15b receives gain adjusted right conversion 23b from amplifier 14c and gain adjusted spectrally shaped center channel 25 and forms signal 26b as an output.

逆変換器18a,18bは、各々の信号26a,26bを受け取って、それぞれ導出された左及び右チャンネル信号L’18a及びR’18bを形成する。   Inverters 18a and 18b receive the respective signals 26a and 26b and form derived left and right channel signals L'18a and R'18b, respectively.

スピーチ・エンハンサー1の操作を以下に更に詳細に説明する。中央チャンネル抽出、スペクトル平坦化、発声活動検出及び混合の処理については、一つの実施例に沿って最初は概略的に次いでより詳細に順番に説明する。 The operation of the speech enhancer 1 will be described in further detail below. The process of center channel extraction, spectral flattening, vocal activity detection and mixing will be described in order, first generally and then in more detail, according to one embodiment.

中央チャンネル抽出
以下のように仮定する。
Center channel extraction Assuming that:

(1)対象17の信号はスピーチを包含する。 (1) The signal of the object 17 includes speech.

(2)多重チャンネル信号(即ち、左及び右、又はステレオ)の場合、スピーチは中央にパンされる。 (2) For multi-channel signals (ie left and right, or stereo), the speech is panned to the center.

(3)実際のパンされた中央は、音源左右信号の比アルファ(α)から成る。 (3) The actual panned center consists of the sound source left / right signal ratio alpha (α).

(4)その比の減算の結果は一対の直交信号である。 (4) The result of the ratio subtraction is a pair of orthogonal signals.

これらの仮定の下に操作して、中央チャンネル抽出器11はステレオ信号17から中央にパンされたコンテンツC20を抽出する。中央にパンされたコンテンツのために、左右両方のチャンネルの同一の領域は、その中央にパンされたコンテンツを含む。中央にパンされたコンテンツは、左右両方のチャンネルから同一部分を除去することにより抽出される。 Operating under these assumptions, the center channel extractor 11 extracts from the stereo signal 17 the center panned content C20. For content that is panned to the center, the same area of both the left and right channels contains the content panned to the center. The content panned to the center is extracted by removing the same part from both the left and right channels.

残りの左右信号について(ブロックのフレーム上で、或いは新しいブロックが入る毎に連続的に更新される方法を用いて)、LR*=0(ここで*は共役を示す)を計算し、比αが零に充分に近い値になるまで調整するようにしてもよい。   For the remaining left and right signals (using a method that is continuously updated on the frame of the block or each time a new block enters), calculate LR * = 0 (where * indicates the conjugate) and calculate the ratio α Adjustment may be made until the value becomes sufficiently close to zero.

スペクトル平坦化
聴覚フィルタは、推定されたスピーチ・チャンネルにおけるスピーチを知覚帯域へ分離する。最も多くのエネルギを有する帯域、データの各々のブロックについて判定される。そのブロックについてのスピーチ・チャンネルのスペクトル形状は、残りの帯域における低エネルギを補償するために修正される。このスペクトルは平坦化される。低エネルギを有すr帯域は、或る最大限まで増大された利得を持つ。一つの実施形態においては、全ての帯域は最大利得を共有してもよい。代替的な実施形態においては、各々の帯域は、それ自身の最大利得を有してもよい。(全ての帯域が同じエネルギを有するという望ましくない場合には、スペクトルは既に平坦である。スペクトル成形が生じないか、或いはスペクトル成形が同一の機能により達成されることも考慮されるであろう。)
スペクトル平坦化はチャンネルのコンテンツとは無関係に生じる。非スピーチを処理してもよいが、これがシステムにおいて後で用いられることはない。非スピーチは、スピーチとは非常に異なるスペクトルを有するので、非スピーチのための平坦化は、通常はスピーチについてのものと同じではない。
Spectral flattening The auditory filter separates speech in the estimated speech channel into perceptual bands. The band with the most energy is determined for each block of data. The spectral shape of the speech channel for that block is modified to compensate for the low energy in the remaining bands. This spectrum is flattened. The r band with low energy has a gain increased to some maximum. In one embodiment, all bands may share maximum gain. In an alternative embodiment, each band may have its own maximum gain. (If it is not desirable that all bands have the same energy, the spectrum is already flat. It would also be considered that no spectral shaping occurs or that the spectral shaping is achieved by the same function. )
Spectral flattening occurs independently of the channel content. Non-speech may be processed, but this is not used later in the system. Since non-speech has a very different spectrum than speech, the flattening for non-speech is usually not the same as for speech.

発声活動検出器
推定されたスピーチが単独のチャンネルへ分離されると、それはスピーチ・コンテンツについて分析される(それはスピーチを包含するか?)。コンテンツはスペクトル平坦化とは独立に分析される。スピーチ・コンテンツは、データの隣接するフレームにおけるスペクトル変動を測定することにより判定される。(各々のフレームはデータの多くのブロックから成り得るが、フレームは一般に48kHzサンプル・レートの2、4、又は8ブロックである。)
スピーチ・チャンネルがステレオから抽出されるところでは、残りのステレオ信号がスピーチ分析に役立つであろう。この概念は、任意の多重チャンネル源における隣接するチャンネルにより一般的に適用される。
Speech Activity Detector Once the estimated speech is separated into a single channel, it is analyzed for speech content (does it include speech?). Content is analyzed independently of spectral flattening. Speech content is determined by measuring spectral variations in adjacent frames of data. (Each frame can consist of many blocks of data, but a frame is typically 2, 4, or 8 blocks at a 48 kHz sample rate.)
Where the speech channel is extracted from stereo, the remaining stereo signal will be useful for speech analysis. This concept is generally applied by adjacent channels in any multi-channel source.

ミキシング
スピーチが存在すると見做されるとき、平坦化されたスピーチ・チャンネルは、スピーチ・チャンネルが実際にスピーチを包含するという信頼度に関連する或る割合で原信号と混合される。一般に、信頼度が高いときは、より多くの平坦化スピーチ・チャンネルが用いられる。信頼度が低いときは、より少ない平坦化スピーチ・チャンネルが用いられる。
When mixing speech is considered to be present, the flattened speech channel is mixed with the original signal at a rate that is related to the confidence that the speech channel actually contains speech. In general, when the reliability is high, more flattened speech channels are used. When the confidence level is low, fewer flattened speech channels are used.

中央チャンネル抽出、スペクトル平坦化、発性声活動検出及び混合の処理について、一つの実施例によって更に詳細に順番に説明する。   The process of center channel extraction, spectral flattening, vocal activity detection and mixing will be described in turn in more detail by one embodiment.

2チャンネル源からの仮の中央及びサラウンド・チャンネル抽出
スピーチ増強によれば、中央にパンされたオーディオのみを抽出、処理、及び再挿入することが望まれる。ステレオ混合においては、スピーチは最も頻繁に中央へパンされる。
Temporary center and surround channel extraction from a two-channel source With speech enhancement, it is desirable to extract, process, and reinsert only center-panned audio. In stereo mixing, speech is most often panned to the center.

ここで、中央にパンされたオーディオ(仮の中央チャンネル)の2チャンネル混合物からの抽出について説明する。数学的な証明は第1の部分を構成する。第2の部分は、この証明を実環境ステレオ信号に適用して、仮の中央を導出する。 Here, the extraction from the two-channel mixture of the audio panned in the center (provisional center channel) will be described. Mathematical proof forms the first part. The second part applies this proof to the real environment stereo signal to derive a temporary center.

仮の中央が原ステレオから取り去られると、直交チャンネルを有するステレオ信号が残る。類似の方法は、周辺にパンされたオーディオから仮のサラウンド・チャンネルを導出する。   When the temporary center is removed from the original stereo, a stereo signal having orthogonal channels remains. A similar method derives a temporary surround channel from the audio panned to the periphery.

中央チャンネル抽出−数学的証明
或る2チャンネル信号が与えられると、そのチャンネルは左(L)と右(R)に分けられるであろう。この左右のチャンネルの各々は、共通の情報のみならず、各々に固有の情報を包含する。共通の情報をC(中央にパンされている)、固有の情報を左のみ右のみについてそれぞれL及びRとして表すことができる。

Figure 2010539792
Center channel extraction-mathematical proof Given a two channel signal, the channel will be divided into left (L) and right (R). Each of the left and right channels includes not only common information but also unique information. Common information can be represented as C (panned in the center) and unique information can be represented as L and R for left only and right only, respectively.
Figure 2010539792

「固有」とはL及びRが互いに直交することを意味する。

Figure 2010539792
“Inherent” means that L and R are orthogonal to each other.
Figure 2010539792

L及びRを実数と虚数部分とへ分けると、

Figure 2010539792
Dividing L and R into real and imaginary parts,
Figure 2010539792

ここで、LrはLの実数部分、LiはLの虚数部分であり、Rについても同様である。いま、中央にパンされたCをL及びRから減じることにより、非直交対(L及びR)から直交対(L及びR)が形成されたものと見做す。

Figure 2010539792
Here, Lr is the real part of L, Li is the imaginary part of L, and the same applies to R. Now, it is considered that an orthogonal pair (L and R) is formed from a non-orthogonal pair (L and R) by subtracting C panned in the center from L and R.
Figure 2010539792

ここでC=αC(但し、Cは推定された中央チャンネルであり、αは倍率である)とすると、

Figure 2010539792
Where C = αC (where C is the estimated center channel and α is the magnification)
Figure 2010539792

式(6)及び式(7)を式(3)へ代入すると、

Figure 2010539792
Substituting Equation (6) and Equation (7) into Equation (3),
Figure 2010539792

式(8)は二次方程式の形になり、

Figure 2010539792
Equation (8) takes the form of a quadratic equation,
Figure 2010539792

ここで累乗根は以下のように得られる。

Figure 2010539792
Here, the power root is obtained as follows.
Figure 2010539792

ここで式(6)及び式(7)におけるCを、

Figure 2010539792
Here, C in Equation (6) and Equation (7) is
Figure 2010539792

として、実数と虚数とに分けると、

Figure 2010539792
As follows:
Figure 2010539792

すると、二次方程式(9)においては、

Figure 2010539792
Then, in the quadratic equation (9),
Figure 2010539792

式(14)、式(15)及び式(16)を式(10)へ代入して、αについて解くと、

Figure 2010539792
Substituting Equation (14), Equation (15) and Equation (16) into Equation (10) and solving for α,
Figure 2010539792

αに対する解について負の根を選び、周辺にパンされた情報による混乱を避けるためαを範囲{0,0.5}に限定する(但し、その値は本発明には重要ではない)。仮の中央チャンネル式は以下のようになる。

Figure 2010539792
A negative root is chosen for the solution for α and α is limited to the range {0, 0.5} to avoid confusion due to information panned around it (however, its value is not important to the present invention). The provisional central channel type is as follows.
Figure 2010539792

ここで、

Figure 2010539792
here,
Figure 2010539792

である。(min{ }及びmax{ }関数は、αを範囲{0,0.5}に制限するが、その値は本発明には重要ではない。)
仮のサラウンド・チャンネルは同様にして以下のように導ける。
It is. (The min {} and max {} functions limit α to the range {0, 0.5}, but its value is not important to the present invention.)
The temporary surround channel can be derived as follows.

Figure 2010539792
Figure 2010539792

ここでSは、原ステレオ対(L,R)において周囲にパンされたオーディオであり、且つSは(L−R)になるものと仮定する。この場合も、βに対する解について負の根を選び、周辺にパンされた情報による混乱を避けるためβを範囲{0,0.5}に限定する(但し、その値は本発明には重要ではない)。     Where S is the audio panned around in the original stereo pair (L, R) and S is assumed to be (LR). Again, a negative root is chosen for the solution for β and β is limited to the range {0, 0.5} to avoid confusion due to information panned to the periphery (however, that value is not important to the present invention). Absent).

いまやC及びSが導出されたので、これらを原ステレオ対(L及びR)から除去して、二つの原チャンネルからオーディオの四つのチャンネルを形成することができる。即ち、

Figure 2010539792
Now that C and S have been derived, they can be removed from the original stereo pair (L and R) to form four channels of audio from the two original channels. That is,
Figure 2010539792

ここでL’は導出された左チャンネル、Cは導出された中央チャンネル、R’は導出された右チャンネル、Sは導出されたサラウンド・チャンネルである。     Where L 'is a derived left channel, C is a derived center channel, R' is a derived right channel, and S is a derived surround channel.

中央チャンネル抽出−適用
上述のように、スピーチ増強方法にとって、その主要な懸念は中央チャンネルの抽出である。この部分において、上述の技術は、オーディオ信号の複雑な周波数領域表現に適用される。
Central Channel Extraction-Application As mentioned above, for speech enhancement methods, the main concern is the extraction of the central channel. In this part, the techniques described above are applied to complex frequency domain representations of audio signals.

仮の中央チャンネル抽出の第1段階は、オーディオ・サンプルのブロックでDFTを実行し、その結果として生じる変換係数を得ることである。DFTのブロック・サイズはサンプリング・レートに依存する。例えば48kHzのサンプリング・レートfにおいては、N=512サンプルのブロック・サイズが可能である。ハミング・ウインドウのようなウィンドーイング関数w[n]により、変換の適用に先立ってサンプルのブロックを重み付けする。 The first stage of tentative center channel extraction is to perform a DFT on the block of audio samples and obtain the resulting transform coefficients. The DFT block size depends on the sampling rate. For example, at a sampling rate f S of 48 kHz, a block size of N = 512 samples is possible. A block of samples is weighted prior to applying the transform by a windowing function w [n], such as a Hamming window.

Figure 2010539792
Figure 2010539792

ここでnは整数であり、Nはブロックにおけるサンプルの数である。     Where n is an integer and N is the number of samples in the block.

DFT係数を次式(25)で以下のように計算する。     The DFT coefficient is calculated by the following equation (25) as follows.

Figure 2010539792
Figure 2010539792

ここでx[n,c]はブロックmのチャンネルcにおけるサンプル番号nであり、jは虚数単位(j=−1)であり、X[k,c]はブロックmにおけるサンプルについてのチャンネルcにおける変換係数kである。チャンネルの数は三つ、即ち、左、右、及び仮の中央(x[n,c]の場合においては、左及び右のみ)であることに留意されたい。以下の方程式において、左チャンネルはc=1として表され、仮の中央チャンネルはc=2(未だ導出されていない)、右チャンネルはc=3として表される。また、高速フーリエ変換(FFT)はDFTを効率的に実行する。 Where x [n, c] is the sample number n in channel c of block m, j is the imaginary unit (j 2 = −1), and X m [k, c] is the channel for the sample in block m. The conversion coefficient k in c. Note that the number of channels is three: left, right, and tentative center (in the case of x [n, c], only left and right). In the following equations, the left channel is represented as c = 1, the temporary center channel is represented as c = 2 (not yet derived), and the right channel is represented as c = 3. Fast Fourier transform (FFT) efficiently performs DFT.

左と右との和及び差は、原則として周波数ビン毎に求めた。実数及び虚数部分はグループ分けして二乗した。各ビンは、αを計算するのに先立ってブロック間で平滑化した。この平滑化は、可聴なアーチファクト(これは、ビンにおけるパワーがデータのブロック間で急激に変化したときに生じる)を低減させる。平滑化は、例えば、漏れ積分回路(leaky integrator)、非線形スムーザー、線形且つ多極のローパス・スムーザー、或いは更に精巧なスムーザーで実行してもよい。

Figure 2010539792
In principle, the sum and difference between left and right were determined for each frequency bin. The real and imaginary parts were grouped and squared. Each bin was smoothed between blocks prior to calculating α. This smoothing reduces audible artifacts (which occur when the power in the bin changes abruptly between blocks of data). Smoothing may be performed, for example, with a leaky integrator, a non-linear smoother, a linear and multipolar low-pass smoother, or a more sophisticated smoother.
Figure 2010539792

ここでRe{ }は実数部分であり、Im{ }は虚数部分であり、λは漏れ積分回路係数である。漏れ積分回路はローパス・フィルタリング効果を有し、λについての代表的な値は0.9である。次に、ブロックmについての抽出係数αは式(19)を用いて以下のように導かれる。

Figure 2010539792
Here, Re {} is a real part, Im {} is an imaginary part, and λ 1 is a leaky integration circuit coefficient. The leakage integrator circuit has a low-pass filtering effect, with a typical value for λ 1 being 0.9. Next, the extraction coefficient α for the block m is derived as follows using Equation (19).
Figure 2010539792

そして、ブロックmについての仮の中央チャンネルは式(18)を用いて以下のように導かれる。

Figure 2010539792
And the temporary center channel about the block m is derived | led-out as follows using Formula (18).
Figure 2010539792

スペクトル平坦化
以下、本発明のスペクトル平坦化の実施例を説明する。大部分がスピーチである単独のチャンネルを仮定し、そのスピーチ信号を離散フーリエ変換(DFT)又は関連した変換によって周波数領域へ変換する。振幅スペクトルは、変換周波数ビンを二乗することによってパワースペクトルへ変換する。
Spectral flattening Examples of spectral flattening according to the present invention will be described below. Assuming a single channel that is mostly speech, the speech signal is transformed to the frequency domain by a discrete Fourier transform (DFT) or related transform. The amplitude spectrum is converted to a power spectrum by squaring the conversion frequency bin.

次いで、周波数ビンは臨界若しくは聴覚フィルタ・スケールで可能な帯域へ分類する。スピーチ信号を臨界帯域へ分割することは、人間の聴覚系(特に蝸牛)によく似ている。これらのフィルタは、概ね丸められた指数形を示して、等価長矩形帯域幅(ERB)スケールで均一に間隔をあけられる。このERBスケールは、音響心理学で用いられる単なる尺度であって、聴覚フィルタの帯域幅及び間隔を概算する。図2は1ERBの間隔を有するフィルタの適宜なセットを表しており、合計40の帯域がもたらされる。オーディオ・データの帯域化も可聴なアーチファクト(これは、原則としてビン毎に処理するときに生じる)を除去するのに役立つ。次いで、臨界帯域パワーを時間に対して平滑化する。即ち、隣接するブロックに亘って平滑化する。   The frequency bins are then classified into bands that are possible with a critical or auditory filter scale. Dividing a speech signal into critical bands is very similar to the human auditory system (especially the cochlea). These filters exhibit a generally rounded exponential shape and are evenly spaced on an equivalent length rectangular bandwidth (ERB) scale. This ERB scale is just a measure used in psychoacoustics and approximates the bandwidth and spacing of the auditory filter. FIG. 2 represents a suitable set of filters with 1 ERB spacing, resulting in a total of 40 bands. Audio data banding also helps eliminate audible artifacts (which in principle occur when processing bin by bin). The critical band power is then smoothed over time. That is, smoothing is performed over adjacent blocks.

平滑化された臨界帯域のうちの最大出力を求めて、対応する利得を残りの(非最大)帯域について計算して、それらの出力を最大出力へ近似させる。利得補償は、基底膜の圧縮(非線形)特性に類似する。これらの利得は、飽和を避けるために、最大値へ制限される。これらの利得を原信号へ適用するためには、これらを変換してDFTフォーマットへ戻さねばならない。従って、帯域毎出力利得は最初に周波数ビン出力利得へ変換して戻し、次いでビン毎出力利得を各ビンの平方根を採ることにより振幅利得へ変換する。かくして原信号変換ビンには、計算されたビン毎振幅利得を乗じることができる。次いでスペクトル平坦化信号を変換して周波数領域から時間領域へ戻す。仮の中央の場合、これは時間領域へ復帰させるのに先立って、先ず原信号と混合する。図3はその処理を説明している。
上述のスペクトル平坦化システムは、入力された信号の特性を考慮していない。非スピーチ信号が平坦化されるならば、音質における知覚可能な変化は深刻なものとなろう。非スピーチ信号の処理を避けるために、上述の方法は、発声活動検出器13に結び付けることができる。発声活動検出器13がスピーチの存在を示すとき、平坦化スピーチが用いられる。
Find the maximum output of the smoothed critical bands and calculate the corresponding gain for the remaining (non-maximum) bands to approximate those outputs to the maximum output. Gain compensation is similar to the compression (nonlinear) characteristics of the basement membrane. These gains are limited to maximum values to avoid saturation. In order to apply these gains to the original signal, they must be converted back to the DFT format. Thus, the per band output gain is first converted back to a frequency bin output gain, and then the per bin output gain is converted to an amplitude gain by taking the square root of each bin. Thus, the original signal conversion bin can be multiplied by the calculated per-bin amplitude gain. The spectral flattening signal is then transformed back from the frequency domain to the time domain. In the tentative center, this is first mixed with the original signal prior to returning to the time domain. FIG. 3 illustrates the process.
The spectral flattening system described above does not take into account the characteristics of the input signal. If the non-speech signal is flattened, the perceptible change in sound quality will be severe. In order to avoid processing of non-speech signals, the method described above can be tied to the speech activity detector 13. When speech activity detector 13 indicates the presence of speech, flattened speech is used.

平坦化すべき信号は、上述のようにして周波数領域へ既に変換されていると仮定する。単純化のために、上記に用いられたチャンネル表記法は省略した。DFT係数を出力へ変換して、次いでDFT領域から臨界帯域へ変換する。

Figure 2010539792
Assume that the signal to be flattened has already been transformed to the frequency domain as described above. For simplicity, the channel notation used above is omitted. The DFT coefficients are converted to output and then converted from the DFT domain to the critical band.
Figure 2010539792

ここでH[k,p]はP臨界帯域フィルタである。 Here, H [k, p] is a P critical band filter.

次いで各帯域における出力を、脳の皮質レベルで生じる時間積分と同様に、ブロック間で平滑化する。平滑化は、例えば、漏れ積分回路、非線形スムーザー、線形且つ多極ローパス・スムーザー、或いは更に精巧なスムーザーにより実行してもよい。この平滑化も遷移挙動(これは、利得にブロック間の急激な変動を引き起こし、可聴なポンピングをもたらす)を除去するのに役立つ。次にピーク出力は以下のように求められる。

Figure 2010539792
The output in each band is then smoothed between blocks, similar to the time integration that occurs at the cortical level of the brain. Smoothing may be performed, for example, by a leaky integration circuit, a non-linear smoother, a linear and multipole low-pass smoother, or a more sophisticated smoother. This smoothing also helps to eliminate the transition behavior, which causes the gain to suddenly fluctuate between blocks, resulting in audible pumping. Next, the peak output is obtained as follows.
Figure 2010539792

ここでE[p]は平滑化された臨界帯域出力、λは漏れ積分回路係数、及びEmaxはピーク出力である。漏れ積分回路はローパス・フィルタリング効果を有しており、その利得はλについての代表的な値が0.9である。 Here, E m [p] is the smoothed critical band output, λ 2 is the leakage integrator circuit coefficient, and E max is the peak output. The leakage integrator circuit has a low-pass filtering effect, and its gain is typically 0.9 for λ 2 .

次に帯域毎出力利得を求め、最大利得を過度な補償を避けるように制限すると、

Figure 2010539792
Then find the band-by-band output gain and limit the maximum gain to avoid excessive compensation,
Figure 2010539792

を得る。ここでG[p]は各帯域へ適用すべき出力利得、Gmaxは許容できる最大出力利得であり、γはスペクトルの平坦化の度合を決定する。実際には、γは1に近似する。指定された利得の量に対する他の汎用制限のみならず、システムが処理を実行するならば、Gmaxはダイナミック・レンジ(又は無歪限界)に依存する。Gmaxについての代表的な値は20dBである。 Get. Here, G m [p] is an output gain to be applied to each band, G max is an allowable maximum output gain, and γ determines the degree of spectrum flattening. In practice, γ approximates 1. G max depends on the dynamic range (or no distortion limit) if the system performs processing as well as other general limits on the amount of gain specified. A typical value for G max is 20 dB.

次に帯域毎出力利得をビン毎出力に変換して、平方根を採ってビン毎振幅利得を得る。

Figure 2010539792
Next, the output gain per band is converted into the output per bin, and the square root is taken to obtain the amplitude gain per bin.
Figure 2010539792

ここでY[k]はビン毎振幅利得である。 Here, Y m [k] is an amplitude gain per bin.

次に振幅利得を発声活動検出器出力21,22に基づいて修正する。発声活動検出のための方法を本発明の一つの実施例によって以下に説明する。   The amplitude gain is then modified based on the voice activity detector outputs 21,22. A method for voicing activity detection is described below according to one embodiment of the present invention.

発声活動検出
スペクトル束は、信号の出力スペクトルが変化する速度を測定し、オーディオの隣接するフレームの間の出力を比較する。(フレームは、オーディオ・データの複数のブロックである。)スペクトル束は、発声活動検出、或いは「スピーチ対オーディオ分類における他の判定がなされたもの」を示す。多くの場合、付加的な指標が用いられ、その結果は、オーディオが本当にスピーチであるか否かの判定をなすために集積される。
Voice activity detection The spectral bundle measures the rate at which the output spectrum of the signal changes and compares the output between adjacent frames of audio. (A frame is a plurality of blocks of audio data.) Spectral bundles indicate voicing activity detection or “other decisions in speech vs. audio classification”. In many cases, additional indicators are used and the results are accumulated to make a determination as to whether the audio is really speech.

一般に、スピーチのスペクトル束は音楽のそれよりも若干高い。即ち、音楽スペクトルは、フレーム間でスピーチ・スペクトルよりも安定する傾向にある。   In general, the spectral bundle of speech is slightly higher than that of music. That is, the music spectrum tends to be more stable than the speech spectrum between frames.

ステレオの場合、スペクトルの中央チャンネルが抽出されるところで、DFT係数は先ず中央と横のオーディオ(原ステレオから仮の中央を減じたもの)に分けられる。これは、伝統的な中間/横ステレオ処理とは異なっており、伝統的な中間/横ステレオ処理が一般に(L+R)/2,(L−R)/2であるのに対し、中央/横処理はC,L+R−2Cである。      In the case of stereo, where the center channel of the spectrum is extracted, the DFT coefficients are first divided into center and side audio (original stereo minus the temporary center). This is different from traditional mid / horizontal stereo processing, where traditional mid / horizontal stereo processing is typically (L + R) / 2, (LR) / 2, whereas center / lateral processing. Is C, L + R-2C.

上述したように周波数領域へ変換された信号によれば、DFT係数は出力へ変換されて、次いでDFT領域から臨界帯域領域へ変換される。臨界帯域出力は次いで中央と横との両方のスペクトル束を計算するのに用いられる。

Figure 2010539792
According to the signal converted to the frequency domain as described above, the DFT coefficients are converted to the output, and then converted from the DFT domain to the critical band domain. The critical band output is then used to calculate both the central and lateral spectral bundles.
Figure 2010539792

ここでX[p]は仮の中央の臨界帯域表現、S[p]は残りの信号(左と右との和から中央を減じたもの)の臨界帯域表現であり、H[k,p]は上述したようにP臨界帯域フィルタである。 Where X m [p] is a temporary central critical band representation, S m [p] is the critical band representation of the remaining signal (the sum of left and right subtracted from the center), and H [k, p] is a P critical band filter as described above.

データの穿孔する2Jブロックから(中央及び横振幅について)二つのフレーム・バッファを形成する。

Figure 2010539792
Two frame buffers are formed (for center and lateral amplitude) from the 2J block of data to puncture.
Figure 2010539792

次の段階は、現在のフレームと先行するフレームとの平均出力から中央チャンネルについての加重Wを計算する。これは帯域の限られた範囲に亘ってなされる。

Figure 2010539792
The next stage calculates the weight W for the center channel from the average output of the current frame and the previous frame. This is done over a limited range of bands.
Figure 2010539792

帯域バンドの範囲は、スピーチの主要な帯域幅約100−8000Hzに限定される。中央と側方との両方についての非加重スペクトル束は次のように計算される。 The range of the band is limited to the main bandwidth of speech, about 100-8000 Hz. The unweighted spectral bundle for both the center and the side is calculated as follows:

Figure 2010539792
Figure 2010539792

ここでF(m)は中央の非加重スペクトル束であり、F(m)は側面の非加重スペクトル束である。 Here, F x (m) is a center unweighted spectrum bundle, and F s (m) is a side unweighted spectrum bundle.

従ってスペクトル束の偏った推定値は以下のように計算される。   Therefore, an estimated value with a biased spectrum bundle is calculated as follows.

Figure 2010539792
Figure 2010539792

であるならば、

Figure 2010539792
If it is,
Figure 2010539792

さもなければ、

Figure 2010539792
Otherwise,
Figure 2010539792

である。ここでFTot(m)は全束推定値であり、Wminは許容される最小加重である。Wminはダイナミック・レンジに依存するが、代表的な値はWmin=―60dBである。 It is. Here, F Tot (m) is the total bundle estimated value, and W min is the allowable minimum weight. W min depends on the dynamic range, but a typical value is W min = −60 dB.

スペクトル束についての最終的な平滑化値は、単純な一次IIRローパス・フィルタによりFTot(m)の値をローパス・フィルタリングすることにより計算される。このフィルタは信号のサンプル・レート及びブロックの大きさに依存するが、一実施形態においては、f=48kHzについて0.025*fの正規化カットオフを有する一次ローパス・フィルタにより規定できる。ここでfはディジタル・システムのサンプル・レートである。 The final smoothed value for the spectral bundle is calculated by low pass filtering the value of F Tot (m) with a simple first order IIR low pass filter. This filter is dependent on the size of the sample rate and block signals, in one embodiment, can be defined by the primary low-pass filter with a normalized cutoff f s = 48kHz for 0.025 * f s. Where f s is the sample rate of the digital system.

Tot(m)はかくして次の範囲に短縮される。即ち、

Figure 2010539792
F Tot (m) is thus shortened to the following range: That is,
Figure 2010539792

であるから、

Figure 2010539792
Because
Figure 2010539792

(min{}及びmax{}関数は、本実施例によればFTot(m)を{0,1}に制限する。)
混合
平坦化された中央チャンネルは、発声活動検出器の出力に基づいて原オーディオン信号と混合される。
(The min {} and max {} functions limit F Tot (m) to {0, 1} according to this embodiment.)
Mixing The flattened center channel is mixed with the original audion signal based on the output of the vocal activity detector.

(上述に示す通りの)スペクトル平坦化についてのビン当りの振幅利得Y[k]は、(上述のように導かれるように)仮の中央チャンネルX[k,2]へ適用される。

Figure 2010539792
The amplitude gain Y m [k] per bin for spectral flattening (as described above) is applied to the temporary central channel X m [k, 2] (as derived above).
Figure 2010539792

発声活動検出器13が、スピーチを検知するときはFTot(m)=1とし、非スピーチを検知するときはFTot(m)=0とする。0と1との間の値が可能であり、これは発声活動検出器13がスピーチの存在について軟判定をなす場合に得られる。 When the speech activity detector 13 detects speech, F Tot (m) = 1, and when it detects non-speech, F Tot (m) = 0. Values between 0 and 1 are possible, which is obtained when the speech activity detector 13 makes a soft decision on the presence of speech.

左チャンネルについて、

Figure 2010539792
For the left channel
Figure 2010539792

同様に、右チャンネルについて、

Figure 2010539792
Similarly, for the right channel,
Figure 2010539792

実際には、FTotは値の狭い範囲に限定される。例えば

Figure 2010539792
In practice, F Tot is limited to a narrow range of values. For example
Figure 2010539792

は最終的混合体における平坦化信号と原信号との両方の少量を保存する。   Preserves a small amount of both the flattening signal and the original signal in the final mixture.

次にビン毎振幅利得を原入力信号へ適用し、これを逆DFTを介して変換して時間領域へ戻す。

Figure 2010539792
A bin-by-bin amplitude gain is then applied to the original input signal, which is transformed via the inverse DFT back to the time domain.
Figure 2010539792

ここで

Figure 2010539792
here
Figure 2010539792

はxの増強された形態であり、原ステレオ入力信号である。   Is an enhanced form of x, the original stereo input signal.

図4は本発明の一実施例に係るコンピュータ4を示す。このコンピュータ4はメモリ41、CPU42及びバス43を含む。バス43はメモリ41及びCPU42に交信するように接続する。メモリ41は上述に説明した任意の方法を実行するためのコンピュータ・プログラムを保存する。   FIG. 4 shows a computer 4 according to an embodiment of the present invention. The computer 4 includes a memory 41, a CPU 42, and a bus 43. The bus 43 is connected so as to communicate with the memory 41 and the CPU 42. The memory 41 stores a computer program for executing any method described above.

本発明の幾つかの実施形態について説明した。それでもなお、当業者には本発明の要旨及び目的から逸脱することなく、説明された実施形態に如何にして様々な修正を加えるかを理解されたい。例えば説明は離散フーリエ変換器を含むが、当業者には時間領域から周波数領域及びその逆の変換の様々な代替的方法を理解される。   Several embodiments of the invention have been described. Nevertheless, those skilled in the art will understand how to make various modifications to the described embodiments without departing from the spirit and scope of the present invention. For example, although the description includes a discrete Fourier transformer, those skilled in the art will understand various alternative methods of transforming from the time domain to the frequency domain and vice versa.

従来技術

Schaub,A.and P.,”Spectral sharpening for speech enhancement noise reduction”,Proc.ICASSP.1991,Toronto,Canada,May 1991,pp.993−996.

Sondhi,, ”New methods of pitch extraction”, Audio and Electroacoustics, IEEE Transactions, June 1968, Volume 16, Issue 2, pp 262−266.
Villchur, E., ”Signal Processing to Improve Speech Intelligibility for the Hearing Impaired”, 99th Audio Engineering Society Convention, September 1995.

Thomas, I. and Niederjohn, R., ”Preprocessing of Speech for Added Intelligibility in High Ambient Noise”, 34th Audio Engineering Society Convention, March 1968.

Moore, B. et. al., ”A Model for the Prediction of Thresholds, Loudness, and Partial Loudness”, J. Audio Eng. Soc, Vol. 45, No. 4, April 1997.

Moore, B. and Oxenham, A., ”Psychoacoustic consequences of compression in the peripheral auditory system”, The Journal of the Acoustical Society of America − December 2002 − Volume 112, Issue 6, pp. 2962−2966


従来技術 スペクトル平坦化
米国特許
米国特許第6732073 B1号 発明の名称”Spectralenhancement of acoustic signals to provide improved recognition of speech”

米国特許第0993480 B1号 発明の名称”Voice intelligibility enhancement system”

米国特許2006/026320 A1号 発明の名称”Apparatus and method for noise reduction and speech enhancement with microphones and loudspeakers”


米国特許第07191122号 発明の名称”Speech compression system and method”

米国特許第2007/0094017号 発明の名称”Frequency domain format enhancement”

国際特許

WO 2004/013840 Al号 発明の名称”Digital Signal Processing Techniques For Improving Audio Clarity And Intelligibility”

WO 2003/015082号 発明の名称”Sound Intelligibility Enhancement Using A Psychoacoustic Model And An Oversampled Filterbank”


論文

Sallberg, B. et. al; ”Analog Circuit Implementation for Speech Enhancement Purposes Signals”; Systems and Computers, 2004. Conference Record of the Thirty−Eighth Asilomar Conference.

Magotra, N. and Sirivara, S.; ”Real−time digital speech processing strategies for the hearing impaired”; Acoustics, Speech, and Signal Processing. 1997. ICASSP−97., 1997 page(s): 1211−1214 vol. 2

Walker, G., Byrne, D., and Dillon, H.; ”The effects of multichannel compression/expansion amplification on the intelligibility of nonsense syllables in noise”; The Journal of the Acoustical Society of America − September 1984 − Volume 76, Issue 3, pp. 746−757

従来技術 中央抽出

Adobe Audition has a vocal/instrument extraction function
http://www.adobeforums.eom/cgi−bin/webx/.3bc3a3e5

winampのための「中央カット」
http://www.hvdrogenaudio.org/forums/lofiversion/index.php/tl7450.html

従来技術 スペクトル束

Vinton, M, and Robinson C; ”Automated Speech/Other Discrimination for Loudness Monitoring,” AES 118th Convention. 2005

Scheirer E., and Slaney M., ”Construction and evaluation of a robust multifeature speech/music discriminator”, IEEE Transactions on Acoustics, Speech, and Signal Processing (ICASSP’97), 1997, pp. 1331 −− 1334.
Conventional technology

Schaub, A.M. and P.M. , “Spectral sharpening for speech enhancement noise reduction”, Proc. ICASSP. 1991, Toronto, Canada, May 1991, pp. 993-996.

Sondhi, "New methods of pitch extraction", Audio and Electroacoustics, IEEE Transactions, June 1968, Volume 16, Issue 2, pp 266-266.
Villchul, E .; , "Signal Processing to Improve Speech Integility for the Healing Implied", 99th Audio Engineering Society Convention, 1995.

Thomas, I.D. and Niederjohn, R.A. , “Preprocessing of Speech for Added Intelligent in High Ambient Noise”, 34th Audio Engineering Society Convention, March 1968.

Moore, B.B. et. al. "A Model for the Prediction of Thresholds, Loudness, and Partial Loudness", J. et al. Audio Eng. Soc, Vol. 45, no. 4, April 1997.

Moore, B.B. and Oxenham, A.A. , “Psychoacoustic consensus of compression in the peripheral auditory system, The Journal of the Austicum of Ace. 2962-2966


Prior Art Spectral Flattening U.S. Pat. No. 6,673,073 B1 Title of invention “Spectral enhancement of acoustic signals to provided recognition of speech”

U.S. Patent No. 0993480 B1 Title of Invention "Voice intelligence enhancement system"

US Patent No. 2006/026320 A1 “Apparatus and method for noise reduction and speech enhancement with microphones and loudspeakers”


U.S. Pat. No. 07191122 Name of invention “Speech compression system and method”

US Patent No. 2007/0094017 Title of invention “Frequency domain format enhancement”

International patent

WO 2004/013840 Al No. of Invention “Digital Signal Processing Technologies For Improving Audio Clarity And Intelligence”

WO 2003/015082 Title of Invention “Sound Intelligent Enhancement Using A Psychoacoustic Model And An Oversampled Filterbank”


paper

Sallberg, B.M. et. “Analog Circuit Implementation for Speech Enhancement Proposals Signals”; Systems and Computers, 2004. al; Conference Record of the Thirty-Eighth Asilomar Conference.

Magotra, N .; and Sirivara, S .; "Real-time digital speech processing strategies for the sharing implied"; Acoustics, Speed, and Signal Processing. 1997. ICASSP-97. 1997 page (s): 1211-1214 vol. 2

Walker, G.M. Byrne, D .; , And Dillon, H .; ; "The effects of multichannel compression / expansion amplification on the intelligibility of nonsense syllables in noise"; The Journal of the Acoustical Society of America - September 1984 - Volume 76, Issue 3, pp. 746-757

Conventional technology Central extraction

Adobe Audit has a vocal / instrument extraction function
http: // www. Adobeforms. eom / cgi-bin / webx /. 3bc3a3e5

"Center cut" for winamp
http: // www. hvdrogenaudio. org / forums / loversion / index. php / tl7450. html

Prior art Spectrum bundle

Vinton, M, and Robinson C; “Automated Speech / Other Discrimination for Loudness Monitoring,” AES 118th Conv. 2005

Scheiler E. , And Slaney M .; , “Construction and evaluation of a robotic multi-spec feature / music discriminator”, IEEE Transactions on Acoustics, Speech, and Signal Prop. 1331 --- 1334.

Claims (14)

複数のチャンネルによりオーディオ信号から音の中央チャンネルを抽出する方法であって、
(1)候補中央チャンネルの比αより小さいオーディオ信号の第1のチャンネルと、
(2)候補中央チャンネルの比αより小さいオーディオ信号の第2のチャンネルの共役とを乗じて、
αを概ね最小化して、
候補中央チャンネルを概ね最小化されたαに乗じることにより、抽出された中央チャンネルを形成することを含む方法。
A method for extracting a central channel of sound from an audio signal by a plurality of channels,
(1) a first channel of an audio signal smaller than the ratio α of the candidate center channel;
(2) Multiply by the conjugate of the second channel of the audio signal less than the ratio α of the candidate center channel,
α is generally minimized,
Forming the extracted center channel by multiplying the candidate center channel by a substantially minimized α.
オーディオ信号のスペクトルを平坦化する方法であって、
推定されたスピーチ・チャンネルを知覚帯域に分離して、
知覚帯域のうちの何れが最も多くのエネルギを有しているかを判定し、
より少ないエネルギを有する知覚帯域の利得を増大させることにより、オーディオ信号における任意のスピーチのスペクトルを平坦化させることを含む方法。
A method for flattening the spectrum of an audio signal,
Separating the estimated speech channel into perceptual bands,
Determine which of the perceptual bands has the most energy,
A method comprising flattening the spectrum of any speech in an audio signal by increasing the gain of a perceptual band having less energy.
請求項2の方法において、前記増大は、より少ないエネルギを有する知覚帯域の利得を最大まで増大することを含む方法。 3. The method of claim 2, wherein the increase includes increasing the gain of a perceptual band having less energy to a maximum. オーディオ信号におけるスピーチを検出する方法であって、
オーディオ信号の候補中央チャンネルにおけるスペクトル変動を測定し、
候補中央チャンネルよりも少ないオーディオ信号のスペクトル変動を測定して、
これらスペクトル変動を比較することにより、オーディオ信号におけるスピーチを検出することを含む方法。
A method for detecting speech in an audio signal,
Measure the spectral variation in the candidate center channel of the audio signal,
Measure the spectral variation of the audio signal less than the candidate center channel,
Detecting speech in the audio signal by comparing these spectral variations.
スピーチを増強する方法であって、
オーディオ信号の中央チャンネルを抽出して、
中央チャンネルのスペクトルを平坦化して、
平坦化されたスピーチ・チャンネルにオーディオ信号を混合することにより、オーディオ信号における任意のスピーチを増強することを含む方法。
A method for enhancing speech,
Extract the center channel of the audio signal
Flatten the center channel spectrum,
A method comprising enhancing any speech in an audio signal by mixing the audio signal into a flattened speech channel.
請求項5の方法において、
中央チャンネルにおけるスピーチ検出に信頼度を生成すると共に、
前記混合は、
平坦化されたスピーチ・チャンネルにオーディオ信号を、検出されたスピーチを有する信頼度に比例させて混合することを更に含む方法。
The method of claim 5, wherein
While generating confidence in speech detection in the center channel,
The mixing is
A method further comprising mixing the audio signal into the flattened speech channel in proportion to the confidence level with the detected speech.
請求項6の方法において、
前記信頼度は、可能性確率が最も低いものから可能性確率が最も高いものまで変動すると共に、
前記生成は、
最低可能性確率よりも高く、且つ最高可能性確率よりも低い値に対して生成された信頼度を更に制限することを含む方法。
The method of claim 6, wherein
The reliability varies from the lowest possibility probability to the highest possibility probability,
The generation is
Further comprising further limiting the confidence level generated for values higher than the lowest probability of probability and lower than the highest probability of probability.
請求項5の方法において、前記抽出は、請求項1の方法を用いてオーディオ信号の中央チャンネルを抽出することを含む方法。 6. The method of claim 5, wherein the extracting comprises extracting a central channel of the audio signal using the method of claim 1. 請求項5の方法において、前記平坦化は、請求項2の方法を用いて前記中央チャンネルのスペクトルを平坦化することを含む方法。 6. The method of claim 5, wherein the flattening comprises flattening the spectrum of the central channel using the method of claim 2. 請求項5の方法において、前記生成は、請求項3の方法を用いて前記中央チャンネルにおけるスピーチ検出に信頼度を生成することを含む方法。 6. The method of claim 5, wherein the generating comprises generating confidence in speech detection in the central channel using the method of claim 3. 請求項5の方法において、前記抽出は、請求項1の方法を用いてオーディオ信号の中央チャンネルを抽出することを含み、
前記平坦化は、請求項2の方法を用いて前記中央チャンネルのスペクトルを平坦化することを含み、
前記生成は、請求項3の方法を用いて前記中央チャンネルにおけるスピーチ検出に信頼度を生成することを含む方法。
6. The method of claim 5, wherein the extracting comprises extracting a central channel of an audio signal using the method of claim 1;
Said flattening comprises flattening the spectrum of said central channel using the method of claim 2;
The method includes generating confidence in speech detection in the center channel using the method of claim 3.
請求項1乃至11の何れか一項に記載の方法を実行するコンピュータ・プログラムが格納されたコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium storing a computer program for executing the method according to any one of claims 1 to 11. コンピュータ・システムであり、
CPUと、
請求項12の記録媒体と、
前記CPUと前記記録媒体とを結合するバスとを含むコンピュータ・システム。
A computer system,
CPU,
A recording medium according to claim 12;
A computer system including a bus for coupling the CPU and the recording medium.
スピーチエンハンサであって、
オーディオ信号の中央チャンネルを抽出するための抽出器と、
前記中央チャンネルのスペクトルを平坦化するためのスペクトル平坦化器と、
前記中央チャンネルにおけるスピーチ検出における信頼度を生成するスピーチ信頼度生成器と、
前記平坦化されたスピーチ・チャンネルを原オーディオ信号に、検出されたスピーチの信頼度に比例して混合することにより、オーディオ信号における任意のスピーチを増強するミキサとを備えるスピーチエンハンサ。
A speech enhancer,
An extractor for extracting the central channel of the audio signal;
A spectrum flattener for flattening the spectrum of the central channel;
A speech confidence generator for generating confidence in speech detection in the central channel;
A speech enhancer comprising: a mixer that enhances any speech in the audio signal by mixing the flattened speech channel with the original audio signal in proportion to the reliability of the detected speech.
JP2010524855A 2007-09-12 2008-09-10 Speech enhancement Pending JP2010539792A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US99360107P 2007-09-12 2007-09-12
PCT/US2008/010591 WO2009035615A1 (en) 2007-09-12 2008-09-10 Speech enhancement

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012040093A Division JP5507596B2 (en) 2007-09-12 2012-02-27 Speech enhancement

Publications (1)

Publication Number Publication Date
JP2010539792A true JP2010539792A (en) 2010-12-16

Family

ID=40016128

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010524855A Pending JP2010539792A (en) 2007-09-12 2008-09-10 Speech enhancement
JP2012040093A Active JP5507596B2 (en) 2007-09-12 2012-02-27 Speech enhancement

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012040093A Active JP5507596B2 (en) 2007-09-12 2012-02-27 Speech enhancement

Country Status (6)

Country Link
US (1) US8891778B2 (en)
EP (1) EP2191467B1 (en)
JP (2) JP2010539792A (en)
CN (1) CN101960516B (en)
AT (1) ATE514163T1 (en)
WO (1) WO2009035615A1 (en)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2232700B1 (en) 2007-12-21 2014-08-13 Dts Llc System for adjusting perceived loudness of audio signals
EP2151822B8 (en) * 2008-08-05 2018-10-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an audio signal for speech enhancement using a feature extraction
US8406462B2 (en) * 2008-08-17 2013-03-26 Dolby Laboratories Licensing Corporation Signature derivation for images
US9215538B2 (en) * 2009-08-04 2015-12-15 Nokia Technologies Oy Method and apparatus for audio signal classification
US8538042B2 (en) 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
US9324337B2 (en) * 2009-11-17 2016-04-26 Dolby Laboratories Licensing Corporation Method and system for dialog enhancement
KR101690252B1 (en) * 2009-12-23 2016-12-27 삼성전자주식회사 Signal processing method and apparatus
JP2012027101A (en) * 2010-07-20 2012-02-09 Sharp Corp Sound playback apparatus, sound playback method, program, and recording medium
ES2526320T3 (en) 2010-08-24 2015-01-09 Dolby International Ab Hiding intermittent mono reception of FM stereo radio receivers
US9384749B2 (en) * 2011-09-09 2016-07-05 Panasonic Intellectual Property Corporation Of America Encoding device, decoding device, encoding method and decoding method
JP5617042B2 (en) * 2011-09-16 2014-10-29 パイオニア株式会社 Audio processing device, playback device, audio processing method and program
US20130253923A1 (en) * 2012-03-21 2013-09-26 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Multichannel enhancement system for preserving spatial cues
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
CN104078050A (en) 2013-03-26 2014-10-01 杜比实验室特许公司 Device and method for audio classification and audio processing
RU2740359C2 (en) 2013-04-05 2021-01-13 Долби Интернешнл Аб Audio encoding device and decoding device
ES2700246T3 (en) * 2013-08-28 2019-02-14 Dolby Laboratories Licensing Corp Parametric improvement of the voice
US9269370B2 (en) * 2013-12-12 2016-02-23 Magix Ag Adaptive speech filter for attenuation of ambient noise
CN106170991B (en) * 2013-12-13 2018-04-24 无比的优声音科技公司 Device and method for sound field enhancing
US9344825B2 (en) 2014-01-29 2016-05-17 Tls Corp. At least one of intelligibility or loudness of an audio program
AU2014413559B2 (en) * 2014-12-12 2018-10-18 Huawei Technologies Co., Ltd. A signal processing apparatus for enhancing a voice component within a multi-channel audio signal
TWI569263B (en) * 2015-04-30 2017-02-01 智原科技股份有限公司 Method and apparatus for signal extraction of audio signal
EP3522572A1 (en) 2015-05-14 2019-08-07 Dolby Laboratories Licensing Corp. Generation and playback of near-field audio content
JP6687453B2 (en) * 2016-04-12 2020-04-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Stereo playback device
CN115881146A (en) * 2021-08-05 2023-03-31 哈曼国际工业有限公司 Method and system for dynamic speech enhancement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205500A (en) * 1992-10-15 1994-07-22 Philips Electron Nv Center channel signal guiding device
JPH06253398A (en) * 1993-01-27 1994-09-09 Philips Electron Nv Audio signal processor
JP2003084790A (en) * 2001-09-17 2003-03-19 Matsushita Electric Ind Co Ltd Speech component emphasizing device
JP2005258158A (en) * 2004-03-12 2005-09-22 Advanced Telecommunication Research Institute International Noise removing device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04149598A (en) * 1990-10-12 1992-05-22 Pioneer Electron Corp Sound field correction device
JP3284747B2 (en) 1994-05-12 2002-05-20 松下電器産業株式会社 Sound field control device
US6993480B1 (en) * 1998-11-03 2006-01-31 Srs Labs, Inc. Voice intelligibility enhancement system
US6732073B1 (en) * 1999-09-10 2004-05-04 Wisconsin Alumni Research Foundation Spectral enhancement of acoustic signals to provide improved recognition of speech
US6959274B1 (en) * 1999-09-22 2005-10-25 Mindspeed Technologies, Inc. Fixed rate speech compression system and method
US20030023429A1 (en) 2000-12-20 2003-01-30 Octiv, Inc. Digital signal processing techniques for improving audio clarity and intelligibility
US20030028386A1 (en) * 2001-04-02 2003-02-06 Zinser Richard L. Compressed domain universal transcoder
US7668317B2 (en) * 2001-05-30 2010-02-23 Sony Corporation Audio post processing in DVD, DTV and other audio visual products
CA2354755A1 (en) 2001-08-07 2003-02-07 Dspfactory Ltd. Sound intelligibilty enhancement using a psychoacoustic model and an oversampled filterbank
JP2005502247A (en) * 2001-09-06 2005-01-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Audio playback device
US7257231B1 (en) * 2002-06-04 2007-08-14 Creative Technology Ltd. Stream segregation for stereo signals
FI118370B (en) * 2002-11-22 2007-10-15 Nokia Corp Equalizer network output equalization
CA2454296A1 (en) 2003-12-29 2005-06-29 Nokia Corporation Method and device for speech enhancement in the presence of background noise
US20060206320A1 (en) * 2005-03-14 2006-09-14 Li Qi P Apparatus and method for noise reduction and speech enhancement with microphones and loudspeakers

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205500A (en) * 1992-10-15 1994-07-22 Philips Electron Nv Center channel signal guiding device
JPH06253398A (en) * 1993-01-27 1994-09-09 Philips Electron Nv Audio signal processor
JP2003084790A (en) * 2001-09-17 2003-03-19 Matsushita Electric Ind Co Ltd Speech component emphasizing device
JP2005258158A (en) * 2004-03-12 2005-09-22 Advanced Telecommunication Research Institute International Noise removing device

Also Published As

Publication number Publication date
WO2009035615A1 (en) 2009-03-19
ATE514163T1 (en) 2011-07-15
JP2012110049A (en) 2012-06-07
JP5507596B2 (en) 2014-05-28
CN101960516B (en) 2014-07-02
EP2191467A1 (en) 2010-06-02
CN101960516A (en) 2011-01-26
US8891778B2 (en) 2014-11-18
US20100179808A1 (en) 2010-07-15
EP2191467B1 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP5507596B2 (en) Speech enhancement
US8971551B2 (en) Virtual bass synthesis using harmonic transposition
JP4818335B2 (en) Signal band expander
KR101935183B1 (en) A signal processing apparatus for enhancing a voice component within a multi-channal audio signal
JP5341128B2 (en) Improved stability in hearing aids
RU2507608C2 (en) Method and apparatus for processing audio signal for speech enhancement using required feature extraction function
RU2520420C2 (en) Method and system for scaling suppression of weak signal with stronger signal in speech-related channels of multichannel audio signal
KR101378696B1 (en) Determining an upperband signal from a narrowband signal
RU2731372C2 (en) Method and system for decomposing an acoustic signal into sound objects, as well as a sound object and use thereof
JP5127754B2 (en) Signal processing device
US7970144B1 (en) Extracting and modifying a panned source for enhancement and upmix of audio signals
KR101670313B1 (en) Signal separation system and method for selecting threshold to separate sound source
JP2009518684A (en) Extraction of voice channel using inter-channel amplitude spectrum
CN102610232B (en) Method for adjusting self-adaptive audio sensing loudness
EP2720477B1 (en) Virtual bass synthesis using harmonic transposition
Kates Modeling the effects of single-microphone noise-suppression
EP2828853B1 (en) Method and system for bias corrected speech level determination
JP2008072600A (en) Acoustic signal processing apparatus, acoustic signal processing program, and acoustic signal processing method
JPH07146700A (en) Pitch emphasizing method and device and hearing acuity compensating device
US8175282B2 (en) Method of evaluating perception intensity of an audio signal and a method of controlling an input audio signal on the basis of the evaluation
JP2002049399A (en) Digital signal processing method, learning method, and their apparatus, and program storage media therefor
Jiang et al. Speech noise reduction algorithm in digital hearing aids based on an improved sub-band SNR estimation
Muhsina et al. Signal enhancement of source separation techniques
US20240161762A1 (en) Full-band audio signal reconstruction enabled by output from a machine learning model
US20240163529A1 (en) Dolby atmos master compressor/limiter

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20111025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111226

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120106

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120123

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120206

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120515