JP2010539792A - Speech enhancement - Google Patents
Speech enhancement Download PDFInfo
- Publication number
- JP2010539792A JP2010539792A JP2010524855A JP2010524855A JP2010539792A JP 2010539792 A JP2010539792 A JP 2010539792A JP 2010524855 A JP2010524855 A JP 2010524855A JP 2010524855 A JP2010524855 A JP 2010524855A JP 2010539792 A JP2010539792 A JP 2010539792A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- channel
- audio signal
- spectrum
- flattening
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 55
- 230000005236 sound signal Effects 0.000 claims abstract description 46
- 230000003595 spectral effect Effects 0.000 claims abstract description 32
- 238000001228 spectrum Methods 0.000 claims abstract description 31
- 238000001514 detection method Methods 0.000 claims abstract description 13
- 239000003623 enhancer Substances 0.000 claims abstract description 7
- 230000002708 enhancing effect Effects 0.000 claims abstract description 5
- 230000001965 increasing effect Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 238000005728 strengthening Methods 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 15
- 238000000605 extraction Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 210000002469 basement membrane Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000005405 multipole Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000005086 pumping Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
スピーチを増強する方法であって、オーディオ信号の中央チャンネルを抽出して、中央チャンネルのスペクトルを平坦化して、平坦化されたスピーチ・チャンネルにオーディオ信号を混合することにより、オーディオ信号における任意のスピーチを増強することを含む。また、複数のチャンネルによりオーディオ信号から音の中央チャンネルを抽出する方法、オーディオ信号のスペクトルを平坦化する方法、及びオーディオ信号におけるスピーチを検出する方法が開示される。更に、スピーチエンハンサが開示され、これはオーディオ信号の中央チャンネルを抽出するための抽出器と、前記中央チャンネルのスペクトルを平坦化するためのスペクトル平坦化器と、前記中央チャンネルにおけるスピーチ検出における信頼度を生成するスピーチ信頼度生成器と、前記平坦化されたスピーチ・チャンネルを原オーディオ信号に、検出されたスピーチの信頼度に比例して混合することにより、オーディオ信号における任意のスピーチを増強するミキサとを備える。
【選択図】図1A method of enhancing speech, by extracting the center channel of an audio signal, flattening the spectrum of the center channel, and mixing the audio signal into the flattened speech channel, thereby allowing arbitrary speech in the audio signal. Including strengthening. Also disclosed are a method of extracting a central channel of sound from an audio signal by a plurality of channels, a method of flattening the spectrum of the audio signal, and a method of detecting speech in the audio signal. Furthermore, a speech enhancer is disclosed, which includes an extractor for extracting a central channel of an audio signal, a spectral flattener for flattening the spectrum of the central channel, and a reliability in speech detection in the central channel. And a mixer that enhances any speech in the audio signal by mixing the flattened speech channel into the original audio signal in proportion to the reliability of the detected speech With.
[Selection] Figure 1
Description
発明の開示
本明細書は、複数のチャンネルでオーディオ信号から音の中央チャンネルを抽出して、オーディオ信号のスペクトルを平坦化して、オーディオ信号におけるスピーチ(発話)を検出して、スピーチを引き立たせる方法及び装置を説明する。複数のチャンネルによりオーディオ信号から音の中央チャンネルを抽出する方法は、(1)候補中央チャンネルの比αより小さいオーディオ信号の第1のチャンネル及び(2)候補中央チャンネルの比αより小さいオーディオ信号の第2のチャンネルの共役を乗じて、αを概ね最小化して、候補中央チャンネルにその概ね最小化されたαを乗じることにより、抽出された中央チャンネルを形成することを含む。
DISCLOSURE OF THE INVENTION The present specification relates to a method for extracting a central channel of sound from an audio signal by a plurality of channels, flattening the spectrum of the audio signal, detecting speech in the audio signal, and enhancing the speech. And the apparatus will be described. The method of extracting a central channel of sound from an audio signal by a plurality of channels includes (1) a first channel of an audio signal smaller than a ratio α of candidate central channels and (2) an audio signal smaller than a ratio α of candidate central channels. Multiplying the conjugate of the second channel to approximately minimize α and multiplying the candidate center channel by the generally minimized α to form an extracted center channel.
オーディオ信号のスペクトルを平坦化する方法は、推定されたスピーチ・チャンネルを知覚帯域に分離して、知覚帯域のうちの何れが最も多くのエネルギを有しているかを判定し、より少ないエネルギを有する知覚帯域の利得を増大させることにより、オーディオ信号における任意のスピーチのスペクトルを平坦化させることを含んでもよい。この増大は、より少ないエネルギを有する知覚帯域の利得を最大まで増大することを含んでもよい。 A method for flattening the spectrum of an audio signal separates the estimated speech channel into perceptual bands to determine which of the perceptual bands has the most energy and has less energy It may include flattening the spectrum of any speech in the audio signal by increasing the gain of the perceptual band. This increase may include increasing the gain of the perceptual band having less energy to a maximum.
オーディオ信号におけるスピーチを検出する方法は、オーディオ信号の候補中央チャンネルにおけるスペクトル変動を測定し、候補中央チャンネルよりも少ないオーディオ信号のスペクトル変動を測定して、これらスペクトル変動を比較することにより、オーディオ信号におけるスピーチを検出することを含んでもよい。 A method for detecting speech in an audio signal measures the spectral variation in a candidate central channel of the audio signal, measures the spectral variation of the audio signal less than the candidate central channel, and compares these spectral variations to determine the audio signal Detecting speech at.
スピーチを増強する方法は、オーディオ信号の中央チャンネルを抽出して、中央チャンネルのスペクトルを平坦化して、平坦化されたスピーチ・チャンネルにオーディオ信号を混合することにより、オーディオ信号における任意のスピーチを増強することを含んでもよい。この方法は、中央チャンネルにおけるスピーチ検出に信頼度を生成することを更に含んでもよく、その混合は、平坦化されたスピーチ・チャンネルにオーディオ信号を、検出されたスピーチを有する信頼度に比例させて混合することを含んでもよい。その信頼度は、可能性確率が最も低いものから可能性確率が最も高いものまで変動し得るので、その生成は、最低可能性確率よりも高く、且つ最高可能性確率よりも低い値に対して生成された信頼度を制限することを更に含んでもよい。その抽出は、上述した方法を用いて、オーディオ信号の中央チャンネルを抽出することを含んでもよい。上述の平坦化は、上述の方法を用いて中央チャンネルのスペクトルを平坦化することを含んでもよい。上述の生成は、上述の方法を用いて中央チャンネルにおけるスピーチ検出に信頼度を生成することを含んでもよい。 The method of enhancing speech enhances any speech in the audio signal by extracting the center channel of the audio signal, flattening the spectrum of the center channel, and mixing the audio signal into the flattened speech channel May include. The method may further include generating a confidence level for speech detection in the center channel, the mixing of the audio signal in the flattened speech channel proportional to the confidence level with the detected speech. Mixing may be included. Its confidence can vary from the lowest likelihood probability to the highest likelihood probability, so its generation is for values that are higher than the lowest probability probability and lower than the highest probability probability. It may further include limiting the generated confidence. The extraction may include extracting the center channel of the audio signal using the method described above. The flattening described above may include flattening the center channel spectrum using the method described above. The generation described above may include generating confidence in speech detection in the center channel using the method described above.
上述の抽出は、上述の方法を用いてオーディオ信号の中央チャンネルを抽出することを含んでもよく、上述の平坦化は、上述の方法を用いて中央チャンネルのスペクトルを平坦化することを含んでもよく、上述の生成は、上述の方法を用いて中央チャンネルにおけるスピーチ検出に信頼度を生成することを含んでもよい。 The extraction described above may include extracting the center channel of the audio signal using the method described above, and the flattening described above may include flattening the spectrum of the center channel using the method described above. , Generating as described above may include generating confidence in speech detection in the center channel using the method described above.
本明細書は、上述の方法の何れかを実行するコンピュータ・プログラムが格納されたコンピュータ読み取り可能な記録媒体のみならず、CPU、該記録媒体、及びこれらCPUと記録媒体とを結合するバスとを含むコンピュータ・システムを教示する。 This specification includes not only a computer-readable recording medium storing a computer program for executing any of the above-described methods, but also a CPU, the recording medium, and a bus that couples the CPU and the recording medium. Teach computer system including.
発明を実施するための最良の形態
図1は本発明の一つの実施例によるスピーチ・エンハンサーの機能ブロック図である。スピーチ・エンハンサー1は、入力信号17、離散フーリエ変換器10a,10b、中央チャンネル抽出器11、スペクトル平坦化器12、発声活動検出器13、可変利得増幅器15,15c、逆離散フーリエ変換器18a,18b及び出力信号18を含む。入力信号17はそれぞれ左右のチャンネ17a,17bから成り、同様に出力信号18はそれぞれ左右のチャンネル18a,18bから成る。
BEST MODE FOR CARRYING OUT THE INVENTION FIG. 1 is a functional block diagram of a speech enhancer according to one embodiment of the present invention. The
各々の離散フーリエ変換器18は、入力として入力信号17の左右チャンネル17a,17bを受け取って、出力として変換19a,19bを形成する。中央チャンネル抽出器11は、変換19を受け取って、出力として仮の中央チャンネルC20を形成する。スペクトル平坦化器12は入力として仮の中央チャンネルC20を受け取って、成形された中央チャンネル24を出力として形成し、一方、発声活動検出器13は同じ入力C20を受け取って、一方では可変利得増幅器14a及び14cのための制御信号22を、他方では可変利得増幅器14bのための制御信号21を、出力として形成する。
Each discrete Fourier transformer 18 receives the left and right channels 17a, 17b of the input signal 17 as input and forms transforms 19a, 19b as outputs. The center channel extractor 11 receives the transformation 19 and forms a temporary center channel C20 as output.
増幅器14aは、入力及び制御信号として、左チャンネル変換19a及び発声活動検出器13の出力制御信号22をそれぞれ受け取る。同様に、増幅器14cは、入力及び制御信号として、右チャンネル変換19b及び発声活動検出器出力制御信号22をそれぞれ受け取る。増幅器14bは、入力及び制御信号として、スペクトル的に成形された中央チャンネル24及びスペクトル平坦化器12の出力発声活動検出器制御信号21を受け取る。
The amplifier 14a receives the left channel conversion 19a and the output control signal 22 of the
ミキサー15aは、増幅器14からの出力である利得調整された左変換23aと、利得調整されたスペクトル的に成形された中央チャンネル25とを受け取って、出力として信号26aを形成する。同様に、ミキサー15bは、増幅器14cからの利得調整された右変換23bと、利得調整されたスペクトル的に成形された中央チャンネル25とを受け取って、出力として信号26bを形成する。
The
逆変換器18a,18bは、各々の信号26a,26bを受け取って、それぞれ導出された左及び右チャンネル信号L’18a及びR’18bを形成する。
スピーチ・エンハンサー1の操作を以下に更に詳細に説明する。中央チャンネル抽出、スペクトル平坦化、発声活動検出及び混合の処理については、一つの実施例に沿って最初は概略的に次いでより詳細に順番に説明する。
The operation of the
中央チャンネル抽出
以下のように仮定する。
Center channel extraction Assuming that:
(1)対象17の信号はスピーチを包含する。 (1) The signal of the object 17 includes speech.
(2)多重チャンネル信号(即ち、左及び右、又はステレオ)の場合、スピーチは中央にパンされる。 (2) For multi-channel signals (ie left and right, or stereo), the speech is panned to the center.
(3)実際のパンされた中央は、音源左右信号の比アルファ(α)から成る。 (3) The actual panned center consists of the sound source left / right signal ratio alpha (α).
(4)その比の減算の結果は一対の直交信号である。 (4) The result of the ratio subtraction is a pair of orthogonal signals.
これらの仮定の下に操作して、中央チャンネル抽出器11はステレオ信号17から中央にパンされたコンテンツC20を抽出する。中央にパンされたコンテンツのために、左右両方のチャンネルの同一の領域は、その中央にパンされたコンテンツを含む。中央にパンされたコンテンツは、左右両方のチャンネルから同一部分を除去することにより抽出される。 Operating under these assumptions, the center channel extractor 11 extracts from the stereo signal 17 the center panned content C20. For content that is panned to the center, the same area of both the left and right channels contains the content panned to the center. The content panned to the center is extracted by removing the same part from both the left and right channels.
残りの左右信号について(ブロックのフレーム上で、或いは新しいブロックが入る毎に連続的に更新される方法を用いて)、LR*=0(ここで*は共役を示す)を計算し、比αが零に充分に近い値になるまで調整するようにしてもよい。 For the remaining left and right signals (using a method that is continuously updated on the frame of the block or each time a new block enters), calculate LR * = 0 (where * indicates the conjugate) and calculate the ratio α Adjustment may be made until the value becomes sufficiently close to zero.
スペクトル平坦化
聴覚フィルタは、推定されたスピーチ・チャンネルにおけるスピーチを知覚帯域へ分離する。最も多くのエネルギを有する帯域、データの各々のブロックについて判定される。そのブロックについてのスピーチ・チャンネルのスペクトル形状は、残りの帯域における低エネルギを補償するために修正される。このスペクトルは平坦化される。低エネルギを有すr帯域は、或る最大限まで増大された利得を持つ。一つの実施形態においては、全ての帯域は最大利得を共有してもよい。代替的な実施形態においては、各々の帯域は、それ自身の最大利得を有してもよい。(全ての帯域が同じエネルギを有するという望ましくない場合には、スペクトルは既に平坦である。スペクトル成形が生じないか、或いはスペクトル成形が同一の機能により達成されることも考慮されるであろう。)
スペクトル平坦化はチャンネルのコンテンツとは無関係に生じる。非スピーチを処理してもよいが、これがシステムにおいて後で用いられることはない。非スピーチは、スピーチとは非常に異なるスペクトルを有するので、非スピーチのための平坦化は、通常はスピーチについてのものと同じではない。
Spectral flattening The auditory filter separates speech in the estimated speech channel into perceptual bands. The band with the most energy is determined for each block of data. The spectral shape of the speech channel for that block is modified to compensate for the low energy in the remaining bands. This spectrum is flattened. The r band with low energy has a gain increased to some maximum. In one embodiment, all bands may share maximum gain. In an alternative embodiment, each band may have its own maximum gain. (If it is not desirable that all bands have the same energy, the spectrum is already flat. It would also be considered that no spectral shaping occurs or that the spectral shaping is achieved by the same function. )
Spectral flattening occurs independently of the channel content. Non-speech may be processed, but this is not used later in the system. Since non-speech has a very different spectrum than speech, the flattening for non-speech is usually not the same as for speech.
発声活動検出器
推定されたスピーチが単独のチャンネルへ分離されると、それはスピーチ・コンテンツについて分析される(それはスピーチを包含するか?)。コンテンツはスペクトル平坦化とは独立に分析される。スピーチ・コンテンツは、データの隣接するフレームにおけるスペクトル変動を測定することにより判定される。(各々のフレームはデータの多くのブロックから成り得るが、フレームは一般に48kHzサンプル・レートの2、4、又は8ブロックである。)
スピーチ・チャンネルがステレオから抽出されるところでは、残りのステレオ信号がスピーチ分析に役立つであろう。この概念は、任意の多重チャンネル源における隣接するチャンネルにより一般的に適用される。
Speech Activity Detector Once the estimated speech is separated into a single channel, it is analyzed for speech content (does it include speech?). Content is analyzed independently of spectral flattening. Speech content is determined by measuring spectral variations in adjacent frames of data. (Each frame can consist of many blocks of data, but a frame is typically 2, 4, or 8 blocks at a 48 kHz sample rate.)
Where the speech channel is extracted from stereo, the remaining stereo signal will be useful for speech analysis. This concept is generally applied by adjacent channels in any multi-channel source.
ミキシング
スピーチが存在すると見做されるとき、平坦化されたスピーチ・チャンネルは、スピーチ・チャンネルが実際にスピーチを包含するという信頼度に関連する或る割合で原信号と混合される。一般に、信頼度が高いときは、より多くの平坦化スピーチ・チャンネルが用いられる。信頼度が低いときは、より少ない平坦化スピーチ・チャンネルが用いられる。
When mixing speech is considered to be present, the flattened speech channel is mixed with the original signal at a rate that is related to the confidence that the speech channel actually contains speech. In general, when the reliability is high, more flattened speech channels are used. When the confidence level is low, fewer flattened speech channels are used.
中央チャンネル抽出、スペクトル平坦化、発性声活動検出及び混合の処理について、一つの実施例によって更に詳細に順番に説明する。 The process of center channel extraction, spectral flattening, vocal activity detection and mixing will be described in turn in more detail by one embodiment.
2チャンネル源からの仮の中央及びサラウンド・チャンネル抽出
スピーチ増強によれば、中央にパンされたオーディオのみを抽出、処理、及び再挿入することが望まれる。ステレオ混合においては、スピーチは最も頻繁に中央へパンされる。
Temporary center and surround channel extraction from a two-channel source With speech enhancement, it is desirable to extract, process, and reinsert only center-panned audio. In stereo mixing, speech is most often panned to the center.
ここで、中央にパンされたオーディオ(仮の中央チャンネル)の2チャンネル混合物からの抽出について説明する。数学的な証明は第1の部分を構成する。第2の部分は、この証明を実環境ステレオ信号に適用して、仮の中央を導出する。 Here, the extraction from the two-channel mixture of the audio panned in the center (provisional center channel) will be described. Mathematical proof forms the first part. The second part applies this proof to the real environment stereo signal to derive a temporary center.
仮の中央が原ステレオから取り去られると、直交チャンネルを有するステレオ信号が残る。類似の方法は、周辺にパンされたオーディオから仮のサラウンド・チャンネルを導出する。 When the temporary center is removed from the original stereo, a stereo signal having orthogonal channels remains. A similar method derives a temporary surround channel from the audio panned to the periphery.
中央チャンネル抽出−数学的証明
或る2チャンネル信号が与えられると、そのチャンネルは左(L)と右(R)に分けられるであろう。この左右のチャンネルの各々は、共通の情報のみならず、各々に固有の情報を包含する。共通の情報をC(中央にパンされている)、固有の情報を左のみ右のみについてそれぞれL及びRとして表すことができる。
「固有」とはL及びRが互いに直交することを意味する。
L及びRを実数と虚数部分とへ分けると、
ここで、LrはLの実数部分、LiはLの虚数部分であり、Rについても同様である。いま、中央にパンされたCをL及びRから減じることにより、非直交対(L及びR)から直交対(L及びR)が形成されたものと見做す。
ここでC=αC(但し、Cは推定された中央チャンネルであり、αは倍率である)とすると、
式(6)及び式(7)を式(3)へ代入すると、
式(8)は二次方程式の形になり、
ここで累乗根は以下のように得られる。
ここで式(6)及び式(7)におけるCを、
として、実数と虚数とに分けると、
すると、二次方程式(9)においては、
式(14)、式(15)及び式(16)を式(10)へ代入して、αについて解くと、
αに対する解について負の根を選び、周辺にパンされた情報による混乱を避けるためαを範囲{0,0.5}に限定する(但し、その値は本発明には重要ではない)。仮の中央チャンネル式は以下のようになる。
ここで、
である。(min{ }及びmax{ }関数は、αを範囲{0,0.5}に制限するが、その値は本発明には重要ではない。)
仮のサラウンド・チャンネルは同様にして以下のように導ける。
It is. (The min {} and max {} functions limit α to the range {0, 0.5}, but its value is not important to the present invention.)
The temporary surround channel can be derived as follows.
ここでSは、原ステレオ対(L,R)において周囲にパンされたオーディオであり、且つSは(L−R)になるものと仮定する。この場合も、βに対する解について負の根を選び、周辺にパンされた情報による混乱を避けるためβを範囲{0,0.5}に限定する(但し、その値は本発明には重要ではない)。 Where S is the audio panned around in the original stereo pair (L, R) and S is assumed to be (LR). Again, a negative root is chosen for the solution for β and β is limited to the range {0, 0.5} to avoid confusion due to information panned to the periphery (however, that value is not important to the present invention). Absent).
いまやC及びSが導出されたので、これらを原ステレオ対(L及びR)から除去して、二つの原チャンネルからオーディオの四つのチャンネルを形成することができる。即ち、
ここでL’は導出された左チャンネル、Cは導出された中央チャンネル、R’は導出された右チャンネル、Sは導出されたサラウンド・チャンネルである。 Where L 'is a derived left channel, C is a derived center channel, R' is a derived right channel, and S is a derived surround channel.
中央チャンネル抽出−適用
上述のように、スピーチ増強方法にとって、その主要な懸念は中央チャンネルの抽出である。この部分において、上述の技術は、オーディオ信号の複雑な周波数領域表現に適用される。
Central Channel Extraction-Application As mentioned above, for speech enhancement methods, the main concern is the extraction of the central channel. In this part, the techniques described above are applied to complex frequency domain representations of audio signals.
仮の中央チャンネル抽出の第1段階は、オーディオ・サンプルのブロックでDFTを実行し、その結果として生じる変換係数を得ることである。DFTのブロック・サイズはサンプリング・レートに依存する。例えば48kHzのサンプリング・レートfSにおいては、N=512サンプルのブロック・サイズが可能である。ハミング・ウインドウのようなウィンドーイング関数w[n]により、変換の適用に先立ってサンプルのブロックを重み付けする。 The first stage of tentative center channel extraction is to perform a DFT on the block of audio samples and obtain the resulting transform coefficients. The DFT block size depends on the sampling rate. For example, at a sampling rate f S of 48 kHz, a block size of N = 512 samples is possible. A block of samples is weighted prior to applying the transform by a windowing function w [n], such as a Hamming window.
ここでnは整数であり、Nはブロックにおけるサンプルの数である。 Where n is an integer and N is the number of samples in the block.
DFT係数を次式(25)で以下のように計算する。 The DFT coefficient is calculated by the following equation (25) as follows.
ここでx[n,c]はブロックmのチャンネルcにおけるサンプル番号nであり、jは虚数単位(j2=−1)であり、Xm[k,c]はブロックmにおけるサンプルについてのチャンネルcにおける変換係数kである。チャンネルの数は三つ、即ち、左、右、及び仮の中央(x[n,c]の場合においては、左及び右のみ)であることに留意されたい。以下の方程式において、左チャンネルはc=1として表され、仮の中央チャンネルはc=2(未だ導出されていない)、右チャンネルはc=3として表される。また、高速フーリエ変換(FFT)はDFTを効率的に実行する。 Where x [n, c] is the sample number n in channel c of block m, j is the imaginary unit (j 2 = −1), and X m [k, c] is the channel for the sample in block m. The conversion coefficient k in c. Note that the number of channels is three: left, right, and tentative center (in the case of x [n, c], only left and right). In the following equations, the left channel is represented as c = 1, the temporary center channel is represented as c = 2 (not yet derived), and the right channel is represented as c = 3. Fast Fourier transform (FFT) efficiently performs DFT.
左と右との和及び差は、原則として周波数ビン毎に求めた。実数及び虚数部分はグループ分けして二乗した。各ビンは、αを計算するのに先立ってブロック間で平滑化した。この平滑化は、可聴なアーチファクト(これは、ビンにおけるパワーがデータのブロック間で急激に変化したときに生じる)を低減させる。平滑化は、例えば、漏れ積分回路(leaky integrator)、非線形スムーザー、線形且つ多極のローパス・スムーザー、或いは更に精巧なスムーザーで実行してもよい。
ここでRe{ }は実数部分であり、Im{ }は虚数部分であり、λ1は漏れ積分回路係数である。漏れ積分回路はローパス・フィルタリング効果を有し、λ1についての代表的な値は0.9である。次に、ブロックmについての抽出係数αは式(19)を用いて以下のように導かれる。
そして、ブロックmについての仮の中央チャンネルは式(18)を用いて以下のように導かれる。
スペクトル平坦化
以下、本発明のスペクトル平坦化の実施例を説明する。大部分がスピーチである単独のチャンネルを仮定し、そのスピーチ信号を離散フーリエ変換(DFT)又は関連した変換によって周波数領域へ変換する。振幅スペクトルは、変換周波数ビンを二乗することによってパワースペクトルへ変換する。
Spectral flattening Examples of spectral flattening according to the present invention will be described below. Assuming a single channel that is mostly speech, the speech signal is transformed to the frequency domain by a discrete Fourier transform (DFT) or related transform. The amplitude spectrum is converted to a power spectrum by squaring the conversion frequency bin.
次いで、周波数ビンは臨界若しくは聴覚フィルタ・スケールで可能な帯域へ分類する。スピーチ信号を臨界帯域へ分割することは、人間の聴覚系(特に蝸牛)によく似ている。これらのフィルタは、概ね丸められた指数形を示して、等価長矩形帯域幅(ERB)スケールで均一に間隔をあけられる。このERBスケールは、音響心理学で用いられる単なる尺度であって、聴覚フィルタの帯域幅及び間隔を概算する。図2は1ERBの間隔を有するフィルタの適宜なセットを表しており、合計40の帯域がもたらされる。オーディオ・データの帯域化も可聴なアーチファクト(これは、原則としてビン毎に処理するときに生じる)を除去するのに役立つ。次いで、臨界帯域パワーを時間に対して平滑化する。即ち、隣接するブロックに亘って平滑化する。 The frequency bins are then classified into bands that are possible with a critical or auditory filter scale. Dividing a speech signal into critical bands is very similar to the human auditory system (especially the cochlea). These filters exhibit a generally rounded exponential shape and are evenly spaced on an equivalent length rectangular bandwidth (ERB) scale. This ERB scale is just a measure used in psychoacoustics and approximates the bandwidth and spacing of the auditory filter. FIG. 2 represents a suitable set of filters with 1 ERB spacing, resulting in a total of 40 bands. Audio data banding also helps eliminate audible artifacts (which in principle occur when processing bin by bin). The critical band power is then smoothed over time. That is, smoothing is performed over adjacent blocks.
平滑化された臨界帯域のうちの最大出力を求めて、対応する利得を残りの(非最大)帯域について計算して、それらの出力を最大出力へ近似させる。利得補償は、基底膜の圧縮(非線形)特性に類似する。これらの利得は、飽和を避けるために、最大値へ制限される。これらの利得を原信号へ適用するためには、これらを変換してDFTフォーマットへ戻さねばならない。従って、帯域毎出力利得は最初に周波数ビン出力利得へ変換して戻し、次いでビン毎出力利得を各ビンの平方根を採ることにより振幅利得へ変換する。かくして原信号変換ビンには、計算されたビン毎振幅利得を乗じることができる。次いでスペクトル平坦化信号を変換して周波数領域から時間領域へ戻す。仮の中央の場合、これは時間領域へ復帰させるのに先立って、先ず原信号と混合する。図3はその処理を説明している。
上述のスペクトル平坦化システムは、入力された信号の特性を考慮していない。非スピーチ信号が平坦化されるならば、音質における知覚可能な変化は深刻なものとなろう。非スピーチ信号の処理を避けるために、上述の方法は、発声活動検出器13に結び付けることができる。発声活動検出器13がスピーチの存在を示すとき、平坦化スピーチが用いられる。
Find the maximum output of the smoothed critical bands and calculate the corresponding gain for the remaining (non-maximum) bands to approximate those outputs to the maximum output. Gain compensation is similar to the compression (nonlinear) characteristics of the basement membrane. These gains are limited to maximum values to avoid saturation. In order to apply these gains to the original signal, they must be converted back to the DFT format. Thus, the per band output gain is first converted back to a frequency bin output gain, and then the per bin output gain is converted to an amplitude gain by taking the square root of each bin. Thus, the original signal conversion bin can be multiplied by the calculated per-bin amplitude gain. The spectral flattening signal is then transformed back from the frequency domain to the time domain. In the tentative center, this is first mixed with the original signal prior to returning to the time domain. FIG. 3 illustrates the process.
The spectral flattening system described above does not take into account the characteristics of the input signal. If the non-speech signal is flattened, the perceptible change in sound quality will be severe. In order to avoid processing of non-speech signals, the method described above can be tied to the
平坦化すべき信号は、上述のようにして周波数領域へ既に変換されていると仮定する。単純化のために、上記に用いられたチャンネル表記法は省略した。DFT係数を出力へ変換して、次いでDFT領域から臨界帯域へ変換する。
ここでH[k,p]はP臨界帯域フィルタである。 Here, H [k, p] is a P critical band filter.
次いで各帯域における出力を、脳の皮質レベルで生じる時間積分と同様に、ブロック間で平滑化する。平滑化は、例えば、漏れ積分回路、非線形スムーザー、線形且つ多極ローパス・スムーザー、或いは更に精巧なスムーザーにより実行してもよい。この平滑化も遷移挙動(これは、利得にブロック間の急激な変動を引き起こし、可聴なポンピングをもたらす)を除去するのに役立つ。次にピーク出力は以下のように求められる。
ここでEm[p]は平滑化された臨界帯域出力、λ2は漏れ積分回路係数、及びEmaxはピーク出力である。漏れ積分回路はローパス・フィルタリング効果を有しており、その利得はλ2についての代表的な値が0.9である。 Here, E m [p] is the smoothed critical band output, λ 2 is the leakage integrator circuit coefficient, and E max is the peak output. The leakage integrator circuit has a low-pass filtering effect, and its gain is typically 0.9 for λ 2 .
次に帯域毎出力利得を求め、最大利得を過度な補償を避けるように制限すると、
を得る。ここでGm[p]は各帯域へ適用すべき出力利得、Gmaxは許容できる最大出力利得であり、γはスペクトルの平坦化の度合を決定する。実際には、γは1に近似する。指定された利得の量に対する他の汎用制限のみならず、システムが処理を実行するならば、Gmaxはダイナミック・レンジ(又は無歪限界)に依存する。Gmaxについての代表的な値は20dBである。 Get. Here, G m [p] is an output gain to be applied to each band, G max is an allowable maximum output gain, and γ determines the degree of spectrum flattening. In practice, γ approximates 1. G max depends on the dynamic range (or no distortion limit) if the system performs processing as well as other general limits on the amount of gain specified. A typical value for G max is 20 dB.
次に帯域毎出力利得をビン毎出力に変換して、平方根を採ってビン毎振幅利得を得る。
ここでYm[k]はビン毎振幅利得である。 Here, Y m [k] is an amplitude gain per bin.
次に振幅利得を発声活動検出器出力21,22に基づいて修正する。発声活動検出のための方法を本発明の一つの実施例によって以下に説明する。 The amplitude gain is then modified based on the voice activity detector outputs 21,22. A method for voicing activity detection is described below according to one embodiment of the present invention.
発声活動検出
スペクトル束は、信号の出力スペクトルが変化する速度を測定し、オーディオの隣接するフレームの間の出力を比較する。(フレームは、オーディオ・データの複数のブロックである。)スペクトル束は、発声活動検出、或いは「スピーチ対オーディオ分類における他の判定がなされたもの」を示す。多くの場合、付加的な指標が用いられ、その結果は、オーディオが本当にスピーチであるか否かの判定をなすために集積される。
Voice activity detection The spectral bundle measures the rate at which the output spectrum of the signal changes and compares the output between adjacent frames of audio. (A frame is a plurality of blocks of audio data.) Spectral bundles indicate voicing activity detection or “other decisions in speech vs. audio classification”. In many cases, additional indicators are used and the results are accumulated to make a determination as to whether the audio is really speech.
一般に、スピーチのスペクトル束は音楽のそれよりも若干高い。即ち、音楽スペクトルは、フレーム間でスピーチ・スペクトルよりも安定する傾向にある。 In general, the spectral bundle of speech is slightly higher than that of music. That is, the music spectrum tends to be more stable than the speech spectrum between frames.
ステレオの場合、スペクトルの中央チャンネルが抽出されるところで、DFT係数は先ず中央と横のオーディオ(原ステレオから仮の中央を減じたもの)に分けられる。これは、伝統的な中間/横ステレオ処理とは異なっており、伝統的な中間/横ステレオ処理が一般に(L+R)/2,(L−R)/2であるのに対し、中央/横処理はC,L+R−2Cである。 In the case of stereo, where the center channel of the spectrum is extracted, the DFT coefficients are first divided into center and side audio (original stereo minus the temporary center). This is different from traditional mid / horizontal stereo processing, where traditional mid / horizontal stereo processing is typically (L + R) / 2, (LR) / 2, whereas center / lateral processing. Is C, L + R-2C.
上述したように周波数領域へ変換された信号によれば、DFT係数は出力へ変換されて、次いでDFT領域から臨界帯域領域へ変換される。臨界帯域出力は次いで中央と横との両方のスペクトル束を計算するのに用いられる。
ここでXm[p]は仮の中央の臨界帯域表現、Sm[p]は残りの信号(左と右との和から中央を減じたもの)の臨界帯域表現であり、H[k,p]は上述したようにP臨界帯域フィルタである。 Where X m [p] is a temporary central critical band representation, S m [p] is the critical band representation of the remaining signal (the sum of left and right subtracted from the center), and H [k, p] is a P critical band filter as described above.
データの穿孔する2Jブロックから(中央及び横振幅について)二つのフレーム・バッファを形成する。
次の段階は、現在のフレームと先行するフレームとの平均出力から中央チャンネルについての加重Wを計算する。これは帯域の限られた範囲に亘ってなされる。
帯域バンドの範囲は、スピーチの主要な帯域幅約100−8000Hzに限定される。中央と側方との両方についての非加重スペクトル束は次のように計算される。 The range of the band is limited to the main bandwidth of speech, about 100-8000 Hz. The unweighted spectral bundle for both the center and the side is calculated as follows:
ここでFx(m)は中央の非加重スペクトル束であり、Fs(m)は側面の非加重スペクトル束である。 Here, F x (m) is a center unweighted spectrum bundle, and F s (m) is a side unweighted spectrum bundle.
従ってスペクトル束の偏った推定値は以下のように計算される。 Therefore, an estimated value with a biased spectrum bundle is calculated as follows.
であるならば、
さもなければ、
である。ここでFTot(m)は全束推定値であり、Wminは許容される最小加重である。Wminはダイナミック・レンジに依存するが、代表的な値はWmin=―60dBである。 It is. Here, F Tot (m) is the total bundle estimated value, and W min is the allowable minimum weight. W min depends on the dynamic range, but a typical value is W min = −60 dB.
スペクトル束についての最終的な平滑化値は、単純な一次IIRローパス・フィルタによりFTot(m)の値をローパス・フィルタリングすることにより計算される。このフィルタは信号のサンプル・レート及びブロックの大きさに依存するが、一実施形態においては、fs=48kHzについて0.025*fsの正規化カットオフを有する一次ローパス・フィルタにより規定できる。ここでfsはディジタル・システムのサンプル・レートである。 The final smoothed value for the spectral bundle is calculated by low pass filtering the value of F Tot (m) with a simple first order IIR low pass filter. This filter is dependent on the size of the sample rate and block signals, in one embodiment, can be defined by the primary low-pass filter with a normalized cutoff f s = 48kHz for 0.025 * f s. Where f s is the sample rate of the digital system.
FTot(m)はかくして次の範囲に短縮される。即ち、
であるから、
(min{}及びmax{}関数は、本実施例によればFTot(m)を{0,1}に制限する。)
混合
平坦化された中央チャンネルは、発声活動検出器の出力に基づいて原オーディオン信号と混合される。
(The min {} and max {} functions limit F Tot (m) to {0, 1} according to this embodiment.)
Mixing The flattened center channel is mixed with the original audion signal based on the output of the vocal activity detector.
(上述に示す通りの)スペクトル平坦化についてのビン当りの振幅利得Ym[k]は、(上述のように導かれるように)仮の中央チャンネルXm[k,2]へ適用される。
発声活動検出器13が、スピーチを検知するときはFTot(m)=1とし、非スピーチを検知するときはFTot(m)=0とする。0と1との間の値が可能であり、これは発声活動検出器13がスピーチの存在について軟判定をなす場合に得られる。
When the
左チャンネルについて、
同様に、右チャンネルについて、
実際には、FTotは値の狭い範囲に限定される。例えば
は最終的混合体における平坦化信号と原信号との両方の少量を保存する。 Preserves a small amount of both the flattening signal and the original signal in the final mixture.
次にビン毎振幅利得を原入力信号へ適用し、これを逆DFTを介して変換して時間領域へ戻す。
ここで
はxの増強された形態であり、原ステレオ入力信号である。 Is an enhanced form of x, the original stereo input signal.
図4は本発明の一実施例に係るコンピュータ4を示す。このコンピュータ4はメモリ41、CPU42及びバス43を含む。バス43はメモリ41及びCPU42に交信するように接続する。メモリ41は上述に説明した任意の方法を実行するためのコンピュータ・プログラムを保存する。
FIG. 4 shows a computer 4 according to an embodiment of the present invention. The computer 4 includes a memory 41, a
本発明の幾つかの実施形態について説明した。それでもなお、当業者には本発明の要旨及び目的から逸脱することなく、説明された実施形態に如何にして様々な修正を加えるかを理解されたい。例えば説明は離散フーリエ変換器を含むが、当業者には時間領域から周波数領域及びその逆の変換の様々な代替的方法を理解される。 Several embodiments of the invention have been described. Nevertheless, those skilled in the art will understand how to make various modifications to the described embodiments without departing from the spirit and scope of the present invention. For example, although the description includes a discrete Fourier transformer, those skilled in the art will understand various alternative methods of transforming from the time domain to the frequency domain and vice versa.
従来技術
Schaub,A.and P.,”Spectral sharpening for speech enhancement noise reduction”,Proc.ICASSP.1991,Toronto,Canada,May 1991,pp.993−996.
Sondhi,, ”New methods of pitch extraction”, Audio and Electroacoustics, IEEE Transactions, June 1968, Volume 16, Issue 2, pp 262−266.
Villchur, E., ”Signal Processing to Improve Speech Intelligibility for the Hearing Impaired”, 99th Audio Engineering Society Convention, September 1995.
Thomas, I. and Niederjohn, R., ”Preprocessing of Speech for Added Intelligibility in High Ambient Noise”, 34th Audio Engineering Society Convention, March 1968.
Moore, B. et. al., ”A Model for the Prediction of Thresholds, Loudness, and Partial Loudness”, J. Audio Eng. Soc, Vol. 45, No. 4, April 1997.
Moore, B. and Oxenham, A., ”Psychoacoustic consequences of compression in the peripheral auditory system”, The Journal of the Acoustical Society of America − December 2002 − Volume 112, Issue 6, pp. 2962−2966
従来技術 スペクトル平坦化
米国特許
米国特許第6732073 B1号 発明の名称”Spectralenhancement of acoustic signals to provide improved recognition of speech”
米国特許第0993480 B1号 発明の名称”Voice intelligibility enhancement system”
米国特許2006/026320 A1号 発明の名称”Apparatus and method for noise reduction and speech enhancement with microphones and loudspeakers”
米国特許第07191122号 発明の名称”Speech compression system and method”
米国特許第2007/0094017号 発明の名称”Frequency domain format enhancement”
国際特許
WO 2004/013840 Al号 発明の名称”Digital Signal Processing Techniques For Improving Audio Clarity And Intelligibility”
WO 2003/015082号 発明の名称”Sound Intelligibility Enhancement Using A Psychoacoustic Model And An Oversampled Filterbank”
論文
Sallberg, B. et. al; ”Analog Circuit Implementation for Speech Enhancement Purposes Signals”; Systems and Computers, 2004. Conference Record of the Thirty−Eighth Asilomar Conference.
Magotra, N. and Sirivara, S.; ”Real−time digital speech processing strategies for the hearing impaired”; Acoustics, Speech, and Signal Processing. 1997. ICASSP−97., 1997 page(s): 1211−1214 vol. 2
Walker, G., Byrne, D., and Dillon, H.; ”The effects of multichannel compression/expansion amplification on the intelligibility of nonsense syllables in noise”; The Journal of the Acoustical Society of America − September 1984 − Volume 76, Issue 3, pp. 746−757
従来技術 中央抽出
Adobe Audition has a vocal/instrument extraction function
http://www.adobeforums.eom/cgi−bin/webx/.3bc3a3e5
winampのための「中央カット」
http://www.hvdrogenaudio.org/forums/lofiversion/index.php/tl7450.html
従来技術 スペクトル束
Vinton, M, and Robinson C; ”Automated Speech/Other Discrimination for Loudness Monitoring,” AES 118th Convention. 2005
Scheirer E., and Slaney M., ”Construction and evaluation of a robust multifeature speech/music discriminator”, IEEE Transactions on Acoustics, Speech, and Signal Processing (ICASSP’97), 1997, pp. 1331 −− 1334.
Conventional technology
Schaub, A.M. and P.M. , “Spectral sharpening for speech enhancement noise reduction”, Proc. ICASSP. 1991, Toronto, Canada, May 1991, pp. 993-996.
Sondhi, "New methods of pitch extraction", Audio and Electroacoustics, IEEE Transactions, June 1968, Volume 16, Issue 2, pp 266-266.
Villchul, E .; , "Signal Processing to Improve Speech Integility for the Healing Implied", 99th Audio Engineering Society Convention, 1995.
Thomas, I.D. and Niederjohn, R.A. , “Preprocessing of Speech for Added Intelligent in High Ambient Noise”, 34th Audio Engineering Society Convention, March 1968.
Moore, B.B. et. al. "A Model for the Prediction of Thresholds, Loudness, and Partial Loudness", J. et al. Audio Eng. Soc, Vol. 45, no. 4, April 1997.
Moore, B.B. and Oxenham, A.A. , “Psychoacoustic consensus of compression in the peripheral auditory system, The Journal of the Austicum of Ace. 2962-2966
Prior Art Spectral Flattening U.S. Pat. No. 6,673,073 B1 Title of invention “Spectral enhancement of acoustic signals to provided recognition of speech”
U.S. Patent No. 0993480 B1 Title of Invention "Voice intelligence enhancement system"
US Patent No. 2006/026320 A1 “Apparatus and method for noise reduction and speech enhancement with microphones and loudspeakers”
U.S. Pat. No. 07191122 Name of invention “Speech compression system and method”
US Patent No. 2007/0094017 Title of invention “Frequency domain format enhancement”
International patent
WO 2004/013840 Al No. of Invention “Digital Signal Processing Technologies For Improving Audio Clarity And Intelligence”
WO 2003/015082 Title of Invention “Sound Intelligent Enhancement Using A Psychoacoustic Model And An Oversampled Filterbank”
paper
Sallberg, B.M. et. “Analog Circuit Implementation for Speech Enhancement Proposals Signals”; Systems and Computers, 2004. al; Conference Record of the Thirty-Eighth Asilomar Conference.
Magotra, N .; and Sirivara, S .; "Real-time digital speech processing strategies for the sharing implied"; Acoustics, Speed, and Signal Processing. 1997. ICASSP-97. 1997 page (s): 1211-1214 vol. 2
Walker, G.M. Byrne, D .; , And Dillon, H .; ; "The effects of multichannel compression / expansion amplification on the intelligibility of nonsense syllables in noise"; The Journal of the Acoustical Society of America - September 1984 - Volume 76, Issue 3, pp. 746-757
Conventional technology Central extraction
Adobe Audit has a vocal / instrument extraction function
http: // www. Adobeforms. eom / cgi-bin / webx /. 3bc3a3e5
"Center cut" for winamp
http: // www. hvdrogenaudio. org / forums / loversion / index. php / tl7450. html
Prior art Spectrum bundle
Vinton, M, and Robinson C; “Automated Speech / Other Discrimination for Loudness Monitoring,” AES 118th Conv. 2005
Scheiler E. , And Slaney M .; , “Construction and evaluation of a robotic multi-spec feature / music discriminator”, IEEE Transactions on Acoustics, Speech, and Signal Prop. 1331 --- 1334.
Claims (14)
(1)候補中央チャンネルの比αより小さいオーディオ信号の第1のチャンネルと、
(2)候補中央チャンネルの比αより小さいオーディオ信号の第2のチャンネルの共役とを乗じて、
αを概ね最小化して、
候補中央チャンネルを概ね最小化されたαに乗じることにより、抽出された中央チャンネルを形成することを含む方法。 A method for extracting a central channel of sound from an audio signal by a plurality of channels,
(1) a first channel of an audio signal smaller than the ratio α of the candidate center channel;
(2) Multiply by the conjugate of the second channel of the audio signal less than the ratio α of the candidate center channel,
α is generally minimized,
Forming the extracted center channel by multiplying the candidate center channel by a substantially minimized α.
推定されたスピーチ・チャンネルを知覚帯域に分離して、
知覚帯域のうちの何れが最も多くのエネルギを有しているかを判定し、
より少ないエネルギを有する知覚帯域の利得を増大させることにより、オーディオ信号における任意のスピーチのスペクトルを平坦化させることを含む方法。 A method for flattening the spectrum of an audio signal,
Separating the estimated speech channel into perceptual bands,
Determine which of the perceptual bands has the most energy,
A method comprising flattening the spectrum of any speech in an audio signal by increasing the gain of a perceptual band having less energy.
オーディオ信号の候補中央チャンネルにおけるスペクトル変動を測定し、
候補中央チャンネルよりも少ないオーディオ信号のスペクトル変動を測定して、
これらスペクトル変動を比較することにより、オーディオ信号におけるスピーチを検出することを含む方法。 A method for detecting speech in an audio signal,
Measure the spectral variation in the candidate center channel of the audio signal,
Measure the spectral variation of the audio signal less than the candidate center channel,
Detecting speech in the audio signal by comparing these spectral variations.
オーディオ信号の中央チャンネルを抽出して、
中央チャンネルのスペクトルを平坦化して、
平坦化されたスピーチ・チャンネルにオーディオ信号を混合することにより、オーディオ信号における任意のスピーチを増強することを含む方法。 A method for enhancing speech,
Extract the center channel of the audio signal
Flatten the center channel spectrum,
A method comprising enhancing any speech in an audio signal by mixing the audio signal into a flattened speech channel.
中央チャンネルにおけるスピーチ検出に信頼度を生成すると共に、
前記混合は、
平坦化されたスピーチ・チャンネルにオーディオ信号を、検出されたスピーチを有する信頼度に比例させて混合することを更に含む方法。 The method of claim 5, wherein
While generating confidence in speech detection in the center channel,
The mixing is
A method further comprising mixing the audio signal into the flattened speech channel in proportion to the confidence level with the detected speech.
前記信頼度は、可能性確率が最も低いものから可能性確率が最も高いものまで変動すると共に、
前記生成は、
最低可能性確率よりも高く、且つ最高可能性確率よりも低い値に対して生成された信頼度を更に制限することを含む方法。 The method of claim 6, wherein
The reliability varies from the lowest possibility probability to the highest possibility probability,
The generation is
Further comprising further limiting the confidence level generated for values higher than the lowest probability of probability and lower than the highest probability of probability.
前記平坦化は、請求項2の方法を用いて前記中央チャンネルのスペクトルを平坦化することを含み、
前記生成は、請求項3の方法を用いて前記中央チャンネルにおけるスピーチ検出に信頼度を生成することを含む方法。 6. The method of claim 5, wherein the extracting comprises extracting a central channel of an audio signal using the method of claim 1;
Said flattening comprises flattening the spectrum of said central channel using the method of claim 2;
The method includes generating confidence in speech detection in the center channel using the method of claim 3.
CPUと、
請求項12の記録媒体と、
前記CPUと前記記録媒体とを結合するバスとを含むコンピュータ・システム。 A computer system,
CPU,
A recording medium according to claim 12;
A computer system including a bus for coupling the CPU and the recording medium.
オーディオ信号の中央チャンネルを抽出するための抽出器と、
前記中央チャンネルのスペクトルを平坦化するためのスペクトル平坦化器と、
前記中央チャンネルにおけるスピーチ検出における信頼度を生成するスピーチ信頼度生成器と、
前記平坦化されたスピーチ・チャンネルを原オーディオ信号に、検出されたスピーチの信頼度に比例して混合することにより、オーディオ信号における任意のスピーチを増強するミキサとを備えるスピーチエンハンサ。 A speech enhancer,
An extractor for extracting the central channel of the audio signal;
A spectrum flattener for flattening the spectrum of the central channel;
A speech confidence generator for generating confidence in speech detection in the central channel;
A speech enhancer comprising: a mixer that enhances any speech in the audio signal by mixing the flattened speech channel with the original audio signal in proportion to the reliability of the detected speech.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US99360107P | 2007-09-12 | 2007-09-12 | |
PCT/US2008/010591 WO2009035615A1 (en) | 2007-09-12 | 2008-09-10 | Speech enhancement |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012040093A Division JP5507596B2 (en) | 2007-09-12 | 2012-02-27 | Speech enhancement |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010539792A true JP2010539792A (en) | 2010-12-16 |
Family
ID=40016128
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010524855A Pending JP2010539792A (en) | 2007-09-12 | 2008-09-10 | Speech enhancement |
JP2012040093A Active JP5507596B2 (en) | 2007-09-12 | 2012-02-27 | Speech enhancement |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012040093A Active JP5507596B2 (en) | 2007-09-12 | 2012-02-27 | Speech enhancement |
Country Status (6)
Country | Link |
---|---|
US (1) | US8891778B2 (en) |
EP (1) | EP2191467B1 (en) |
JP (2) | JP2010539792A (en) |
CN (1) | CN101960516B (en) |
AT (1) | ATE514163T1 (en) |
WO (1) | WO2009035615A1 (en) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2232700B1 (en) | 2007-12-21 | 2014-08-13 | Dts Llc | System for adjusting perceived loudness of audio signals |
EP2151822B8 (en) * | 2008-08-05 | 2018-10-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for processing an audio signal for speech enhancement using a feature extraction |
US8406462B2 (en) * | 2008-08-17 | 2013-03-26 | Dolby Laboratories Licensing Corporation | Signature derivation for images |
US9215538B2 (en) * | 2009-08-04 | 2015-12-15 | Nokia Technologies Oy | Method and apparatus for audio signal classification |
US8538042B2 (en) | 2009-08-11 | 2013-09-17 | Dts Llc | System for increasing perceived loudness of speakers |
US9324337B2 (en) * | 2009-11-17 | 2016-04-26 | Dolby Laboratories Licensing Corporation | Method and system for dialog enhancement |
KR101690252B1 (en) * | 2009-12-23 | 2016-12-27 | 삼성전자주식회사 | Signal processing method and apparatus |
JP2012027101A (en) * | 2010-07-20 | 2012-02-09 | Sharp Corp | Sound playback apparatus, sound playback method, program, and recording medium |
ES2526320T3 (en) | 2010-08-24 | 2015-01-09 | Dolby International Ab | Hiding intermittent mono reception of FM stereo radio receivers |
US9384749B2 (en) * | 2011-09-09 | 2016-07-05 | Panasonic Intellectual Property Corporation Of America | Encoding device, decoding device, encoding method and decoding method |
JP5617042B2 (en) * | 2011-09-16 | 2014-10-29 | パイオニア株式会社 | Audio processing device, playback device, audio processing method and program |
US20130253923A1 (en) * | 2012-03-21 | 2013-09-26 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry | Multichannel enhancement system for preserving spatial cues |
US9312829B2 (en) | 2012-04-12 | 2016-04-12 | Dts Llc | System for adjusting loudness of audio signals in real time |
CN104078050A (en) | 2013-03-26 | 2014-10-01 | 杜比实验室特许公司 | Device and method for audio classification and audio processing |
RU2740359C2 (en) | 2013-04-05 | 2021-01-13 | Долби Интернешнл Аб | Audio encoding device and decoding device |
ES2700246T3 (en) * | 2013-08-28 | 2019-02-14 | Dolby Laboratories Licensing Corp | Parametric improvement of the voice |
US9269370B2 (en) * | 2013-12-12 | 2016-02-23 | Magix Ag | Adaptive speech filter for attenuation of ambient noise |
CN106170991B (en) * | 2013-12-13 | 2018-04-24 | 无比的优声音科技公司 | Device and method for sound field enhancing |
US9344825B2 (en) | 2014-01-29 | 2016-05-17 | Tls Corp. | At least one of intelligibility or loudness of an audio program |
AU2014413559B2 (en) * | 2014-12-12 | 2018-10-18 | Huawei Technologies Co., Ltd. | A signal processing apparatus for enhancing a voice component within a multi-channel audio signal |
TWI569263B (en) * | 2015-04-30 | 2017-02-01 | 智原科技股份有限公司 | Method and apparatus for signal extraction of audio signal |
EP3522572A1 (en) | 2015-05-14 | 2019-08-07 | Dolby Laboratories Licensing Corp. | Generation and playback of near-field audio content |
JP6687453B2 (en) * | 2016-04-12 | 2020-04-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Stereo playback device |
CN115881146A (en) * | 2021-08-05 | 2023-03-31 | 哈曼国际工业有限公司 | Method and system for dynamic speech enhancement |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06205500A (en) * | 1992-10-15 | 1994-07-22 | Philips Electron Nv | Center channel signal guiding device |
JPH06253398A (en) * | 1993-01-27 | 1994-09-09 | Philips Electron Nv | Audio signal processor |
JP2003084790A (en) * | 2001-09-17 | 2003-03-19 | Matsushita Electric Ind Co Ltd | Speech component emphasizing device |
JP2005258158A (en) * | 2004-03-12 | 2005-09-22 | Advanced Telecommunication Research Institute International | Noise removing device |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04149598A (en) * | 1990-10-12 | 1992-05-22 | Pioneer Electron Corp | Sound field correction device |
JP3284747B2 (en) | 1994-05-12 | 2002-05-20 | 松下電器産業株式会社 | Sound field control device |
US6993480B1 (en) * | 1998-11-03 | 2006-01-31 | Srs Labs, Inc. | Voice intelligibility enhancement system |
US6732073B1 (en) * | 1999-09-10 | 2004-05-04 | Wisconsin Alumni Research Foundation | Spectral enhancement of acoustic signals to provide improved recognition of speech |
US6959274B1 (en) * | 1999-09-22 | 2005-10-25 | Mindspeed Technologies, Inc. | Fixed rate speech compression system and method |
US20030023429A1 (en) | 2000-12-20 | 2003-01-30 | Octiv, Inc. | Digital signal processing techniques for improving audio clarity and intelligibility |
US20030028386A1 (en) * | 2001-04-02 | 2003-02-06 | Zinser Richard L. | Compressed domain universal transcoder |
US7668317B2 (en) * | 2001-05-30 | 2010-02-23 | Sony Corporation | Audio post processing in DVD, DTV and other audio visual products |
CA2354755A1 (en) | 2001-08-07 | 2003-02-07 | Dspfactory Ltd. | Sound intelligibilty enhancement using a psychoacoustic model and an oversampled filterbank |
JP2005502247A (en) * | 2001-09-06 | 2005-01-20 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Audio playback device |
US7257231B1 (en) * | 2002-06-04 | 2007-08-14 | Creative Technology Ltd. | Stream segregation for stereo signals |
FI118370B (en) * | 2002-11-22 | 2007-10-15 | Nokia Corp | Equalizer network output equalization |
CA2454296A1 (en) | 2003-12-29 | 2005-06-29 | Nokia Corporation | Method and device for speech enhancement in the presence of background noise |
US20060206320A1 (en) * | 2005-03-14 | 2006-09-14 | Li Qi P | Apparatus and method for noise reduction and speech enhancement with microphones and loudspeakers |
-
2008
- 2008-09-10 CN CN200880106533.0A patent/CN101960516B/en active Active
- 2008-09-10 EP EP08831097A patent/EP2191467B1/en active Active
- 2008-09-10 JP JP2010524855A patent/JP2010539792A/en active Pending
- 2008-09-10 AT AT08831097T patent/ATE514163T1/en not_active IP Right Cessation
- 2008-09-10 US US12/676,410 patent/US8891778B2/en active Active
- 2008-09-10 WO PCT/US2008/010591 patent/WO2009035615A1/en active Application Filing
-
2012
- 2012-02-27 JP JP2012040093A patent/JP5507596B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06205500A (en) * | 1992-10-15 | 1994-07-22 | Philips Electron Nv | Center channel signal guiding device |
JPH06253398A (en) * | 1993-01-27 | 1994-09-09 | Philips Electron Nv | Audio signal processor |
JP2003084790A (en) * | 2001-09-17 | 2003-03-19 | Matsushita Electric Ind Co Ltd | Speech component emphasizing device |
JP2005258158A (en) * | 2004-03-12 | 2005-09-22 | Advanced Telecommunication Research Institute International | Noise removing device |
Also Published As
Publication number | Publication date |
---|---|
WO2009035615A1 (en) | 2009-03-19 |
ATE514163T1 (en) | 2011-07-15 |
JP2012110049A (en) | 2012-06-07 |
JP5507596B2 (en) | 2014-05-28 |
CN101960516B (en) | 2014-07-02 |
EP2191467A1 (en) | 2010-06-02 |
CN101960516A (en) | 2011-01-26 |
US8891778B2 (en) | 2014-11-18 |
US20100179808A1 (en) | 2010-07-15 |
EP2191467B1 (en) | 2011-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5507596B2 (en) | Speech enhancement | |
US8971551B2 (en) | Virtual bass synthesis using harmonic transposition | |
JP4818335B2 (en) | Signal band expander | |
KR101935183B1 (en) | A signal processing apparatus for enhancing a voice component within a multi-channal audio signal | |
JP5341128B2 (en) | Improved stability in hearing aids | |
RU2507608C2 (en) | Method and apparatus for processing audio signal for speech enhancement using required feature extraction function | |
RU2520420C2 (en) | Method and system for scaling suppression of weak signal with stronger signal in speech-related channels of multichannel audio signal | |
KR101378696B1 (en) | Determining an upperband signal from a narrowband signal | |
RU2731372C2 (en) | Method and system for decomposing an acoustic signal into sound objects, as well as a sound object and use thereof | |
JP5127754B2 (en) | Signal processing device | |
US7970144B1 (en) | Extracting and modifying a panned source for enhancement and upmix of audio signals | |
KR101670313B1 (en) | Signal separation system and method for selecting threshold to separate sound source | |
JP2009518684A (en) | Extraction of voice channel using inter-channel amplitude spectrum | |
CN102610232B (en) | Method for adjusting self-adaptive audio sensing loudness | |
EP2720477B1 (en) | Virtual bass synthesis using harmonic transposition | |
Kates | Modeling the effects of single-microphone noise-suppression | |
EP2828853B1 (en) | Method and system for bias corrected speech level determination | |
JP2008072600A (en) | Acoustic signal processing apparatus, acoustic signal processing program, and acoustic signal processing method | |
JPH07146700A (en) | Pitch emphasizing method and device and hearing acuity compensating device | |
US8175282B2 (en) | Method of evaluating perception intensity of an audio signal and a method of controlling an input audio signal on the basis of the evaluation | |
JP2002049399A (en) | Digital signal processing method, learning method, and their apparatus, and program storage media therefor | |
Jiang et al. | Speech noise reduction algorithm in digital hearing aids based on an improved sub-band SNR estimation | |
Muhsina et al. | Signal enhancement of source separation techniques | |
US20240161762A1 (en) | Full-band audio signal reconstruction enabled by output from a machine learning model | |
US20240163529A1 (en) | Dolby atmos master compressor/limiter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20111025 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111226 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120106 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120123 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120206 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120213 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120515 |