JP4760160B2 - Sound collector - Google Patents
Sound collector Download PDFInfo
- Publication number
- JP4760160B2 JP4760160B2 JP2005189809A JP2005189809A JP4760160B2 JP 4760160 B2 JP4760160 B2 JP 4760160B2 JP 2005189809 A JP2005189809 A JP 2005189809A JP 2005189809 A JP2005189809 A JP 2005189809A JP 4760160 B2 JP4760160 B2 JP 4760160B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- signal
- sound source
- sound collecting
- collected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 claims abstract description 56
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 9
- 238000005070 sampling Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
この発明は、マイクロホンアレイを備えた集音装置、特に、受信した音声信号から音源方向を検出し、音源方向の受信指向性を高める集音装置に関するものである。 The present invention relates to a sound collection device including a microphone array, and more particularly to a sound collection device that detects a sound source direction from a received audio signal and increases reception directivity in the sound source direction.
従来、複数のマイクを用いて、話者等の音源からの音声を、他のノイズ等と区別して集音する装置やシステムが各種開示されている。 Conventionally, various devices and systems that use a plurality of microphones to collect sound from a sound source such as a speaker while distinguishing it from other noises are disclosed.
特許文献1には、音声作動スイッチング装置として、複数の指向性マイクロホンから最も強い音声信号を受信しているマイクロホンを判定して、このマイクロホンで受信した音声信号に対して、他のマイクロホンで受信した音声信号よりも強い重み付け処理をして出力する装置が開示されている。
In
特許文献2には、直交円形マイクアレイシステムおよびこれを用いた音源の3次元方向検出方法として、経度方向に配列されたアレイマイクと、緯度方向に配列されたアレイマイクとで受信した音声信号から音源方向を検出し、これらとは別の超指向性マイクを検出した音源方向に機械的に向けるシステムおよび方法が開示されている。
しかしながら、特許文献1に記載の装置では、指向性マイクロホンを用いることで特定方向からの音声しか集音できず、任意方向への集音指向性を実現することができなかった。このため、音源が移動した場合の音源方向追尾を行うことができなかった。また、特許文献2に記載の装置では、任意方向への集音指向性を実現するために、超指向性のマイクロホンを目的とする方向へ向けるように機械的に回転させなければならなかった。さらに、特許文献2に記載の装置は、目的とする方向を検出するために、3次元配置されたマイクロホンからなるアレイマイクを使用し、複雑な音声信号処理を行わなければならなかった。
However, the apparatus described in
したがって、本発明の目的は、比較的簡素な構造および音声信号処理を用いて、音源方向を検出してこの音源方向に対する集音指向性を任意に実現し、音源が移動した場合に追尾しながら集音することができる集音装置を提供することにある。 Therefore, an object of the present invention is to detect a sound source direction using a relatively simple structure and audio signal processing, and arbitrarily realize sound collection directivity with respect to the sound source direction, while tracking when the sound source moves. An object of the present invention is to provide a sound collecting device that can collect sound.
この発明の集音装置は、複数のマイクロホンを所定パターンに配列して構成されるマイクロホンアレイと、前記複数のマイクロホンが集音した音声信号をそれぞれ所定の遅延時間で遅延して合成することにより、特定方向に強い指向性の集音ビームを形成するビーム形成部であって、並列にそれぞれ独立した遅延時間を設定することで同時に複数方向に集音ビームを形成するビーム形成部と、複数エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、信号レベルが最も高い集音ビームに対応するエリアを複数の小エリアに再分割し、該小エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、これら小エリアに対応する複数の集音ビームのうち、信号レベルが最も高い集音ビームが集音する音声信号を選択して後段に出力する信号選択部と、を備えたことを特徴としている。 Sound collection device of the invention comprises a microphone array constituted by arranging a plurality of microphones in a predetermined pattern, by said plurality of microphones of the sound signal collected for each synthesized delayed by a predetermined delay time, A beam forming unit that forms a sound collecting beam having a strong directivity in a specific direction, and a beam forming unit that simultaneously forms a sound collecting beam in a plurality of directions by setting independent delay times in parallel . The beam forming unit is controlled so as to form a sound collecting beam toward each, and an area corresponding to the sound collecting beam having the highest signal level is subdivided into a plurality of small areas, and each of the small areas is directed to. controlling the beam forming unit to form a sound collection beam, among the plurality of sound collecting beams corresponding to these small areas, the signal level is the highest sound collecting beam Is characterized by comprising a signal selecting section for outputting to the subsequent stage selects the audio signal to sound, the.
この構成では、マイクロホンアレイの正面側の領域における或る位置に話者等の音源が存在して、この音源から音声が発せられると、マイクロホンアレイを構成する各マイクが集音する。この際、音声は各マイクと音源との距離に応じた伝搬時間で伝搬されて、各マイクでは同じ音声の集音タイミングに差が生じる。 In this configuration, when a sound source such as a speaker is present at a certain position in a region on the front side of the microphone array and sound is emitted from this sound source, each microphone constituting the microphone array collects sound. At this time, the sound is propagated with a propagation time corresponding to the distance between each microphone and the sound source, and a difference occurs in the sound collection timing of the same sound in each microphone.
図9(A)は音源とマイクロホンとの位置関係と、音源から発生した音が各マイクロホンで集音される際のディレイとの関係を示した図であり、図9(B),(C)は集音された音声信号のディレイに基づくディレイ補正量の形成概念を示す図である。なお、この説明では、マイクロホンの所定配列パターンとして、マイクロホンが直線状に配列されたマイクロホンアレイについて説明する。 FIG. 9A is a diagram showing the relationship between the positional relationship between the sound source and the microphone and the delay when the sound generated from the sound source is collected by each microphone, and FIGS. 9B and 9C. FIG. 4 is a diagram showing a concept of forming a delay correction amount based on a delay of a collected audio signal. In this description, a microphone array in which microphones are linearly arranged will be described as a predetermined arrangement pattern of microphones.
具体的には、音源100Aが、図9(A)に示す位置に存在する場合、音源100Aで発生した音は、最も近いマイクロホン10Aで最初に集音される。そして、音源100Aと各マイクロホン10B〜10Iとの距離に応じて順に、各マイクロホン10B〜10Iで集音され、最も遠いマイクロホン10Jで最後に集音される。一方、音源100Bが、図9(A)に示す位置に存在する場合、音源100Bで発生した音は、最も近いマイクロホン10Jで最初に集音される。そして、音源100Bと各マイクロホン10I〜10Bとの距離に応じて順に、各マイクロホン10I〜10Bで集音され、最も遠いマイクロホン10Aで最後に集音される。このように、音源で発生した音は音源とマイクロホンとの距離に応じた遅延時間(ディレイ)で、マイクロホンに集音される。
Specifically, when the
この関係を用いることで、ビーム形成部は集音ビームを形成する。例えば、音源100Aに対しては、図9(B)に示すように、各マイクロホン10A〜10Jで集音される音声信号を遅延処理する。すなわち、図9(A)に示すディレイを補正するように、前記遅延時間に対応するディレイ補正量を設定する。また、音源100Bに対しては、図9(C)に示すように、各マイクロホン10A〜10Jで集音される音声信号を遅延処理する。すなわち、図9(A)に示すディレイを補正するように、ディレイ補正量を設定する。
By using this relationship, the beam forming unit forms a sound collecting beam. For example, for the
このように遅延処理された音声信号を合成することで、図9(B)に示すような補正を行えば、音源100A方向に強い指向性を有する集音ビームが形成され、図9(C)に示すような補正を行えば、音源100B方向に強い指向性を有する集音ビームが形成される。
By synthesizing the audio signals subjected to delay processing in this way, if correction as shown in FIG. 9B is performed, a sound collecting beam having a strong directivity in the direction of the
ビーム形成部は、このように各マイクロホンで集音される音声信号の遅延処理した信号をそれぞれに異なる組み合わせで合成することにより、複数方向の集音ビームを形成する。 The beam forming unit forms a sound collecting beam in a plurality of directions by synthesizing the signals obtained by delay processing of the sound signals collected by the respective microphones in different combinations.
信号選択部は、ビーム形成部が形成した複数の集音ビームの信号強度を比較して、信号レベルが最も高い集音ビームが集音する音声信号を選択する。または、信号選択部は、ビーム形成部が形成した複数の集音ビームの信号強度を比較して、信号レベルが最も高い集音ビームと該レベルが最も高い集音ビームに隣接する集音ビームとが集音する音声信号を選択する。ここで、信号レベルが最も高い集音ビームの指向性が向く方向は音源方向に相当する。これにより、音源方向が検出されて、該音源方向への強い集音指向性が実現される。 The signal selection unit compares the signal intensities of the plurality of sound collecting beams formed by the beam forming unit, and selects the sound signal collected by the sound collecting beam having the highest signal level. Alternatively, the signal selection unit compares the signal intensities of the plurality of sound collecting beams formed by the beam forming unit, and the sound collecting beam having the highest signal level and the sound collecting beam adjacent to the sound collecting beam having the highest level are Select the audio signal to be collected. Here, the direction in which the directivity of the sound collecting beam having the highest signal level is equivalent to the sound source direction. Thereby, the sound source direction is detected, and strong sound collection directivity in the sound source direction is realized.
この構成では、ビーム形成部は、信号選択部の制御にしたがい2段階で集音ビームを形成する。まず、ビーム形成部が予め設定されたエリア毎に対して前述のように集音ビームを形成する。信号選択部は、最も信号強度の強い集音ビームを選択して、この集音ビームに対応するエリアを検出する。信号選択部は、この検出したエリアをさらに複数の小エリアの分割し、各小エリアに対する集音ビームが形成されるように、ビーム形成部での遅延処理量を設定する。 In this configuration, the beam forming unit forms a sound collection beam in two stages according to the control of the signal selection unit. First, the beam forming unit forms a sound collecting beam for each preset area as described above. The signal selection unit selects a sound collecting beam having the strongest signal intensity and detects an area corresponding to the sound collecting beam. The signal selection unit further divides the detected area into a plurality of small areas, and sets a delay processing amount in the beam forming unit so that a sound collection beam for each small area is formed.
ビーム形成部は、新たに設定された遅延時間に応じて複数の集音ビームを形成する。信号選択部は、この新たに形成された集音ビームの信号強度を比較して、最も信号強度の強い集音ビームを形成する音声信号を選択して出力する。これにより、前述よりも詳細な方向での音源方向が検出されて、該音源方向への強い集音指向性が実現される。 The beam forming unit forms a plurality of sound collecting beams according to the newly set delay time. The signal selection unit compares the signal intensity of the newly formed sound collection beam, and selects and outputs the sound signal that forms the sound collection beam having the strongest signal intensity. Thereby, the sound source direction in a more detailed direction than that described above is detected, and a strong sound collection directivity in the sound source direction is realized.
また、この発明の集音装置は、ビーム形成部で所定タイミング毎に集音ビームを形成し、信号選択部がこの所定タイミング毎に集音する音声信号の選択を行うことを特徴としている。 In the sound collecting device of the present invention, the beam forming unit forms a sound collecting beam at every predetermined timing, and the signal selection unit selects a sound signal to be collected at each predetermined timing.
この構成では、ビーム形成部は予め設定されたタイミング毎に前述の各集音ビームの形成を行い、信号選択部は、このタイミング毎に信号強度の比較を行い、集音ビームの選択すなわち音声信号の選択を切り替える。これにより、タイミング毎に最適な集音指向性が実現される。 In this configuration, the beam forming unit forms each of the above-described sound collecting beams at each preset timing, and the signal selecting unit compares the signal intensity at each timing to select the sound collecting beam, that is, the audio signal. Switch the selection. Thereby, the optimal sound collection directivity for each timing is realized.
また、この発明の集音装置の信号選択部は、前後するタイミングで異なる集音ビームを用いて、集音する音声信号を選択する場合に、前のタイミングで集音された音声信号による合成音声信号と、後のタイミングで集音された音声信号による合成音声信号とをクロスフェード処理して出力することを特徴としている。 In addition, when the signal selection unit of the sound collection device of the present invention selects a sound signal to be collected using different sound collection beams at different timings, the synthesized sound based on the sound signal collected at the previous timing It is characterized in that the signal and a synthesized voice signal based on a voice signal collected at a later timing are subjected to crossfading processing and output.
この構成では、音源の移動に伴い選択される集音ビームが切り替えられるが、この際、移動前の集音ビームを形成する合成音声信号に対してフェードアウト処理を行うとともに、移動後の集音ビームを形成する合成音声信号に対してフェードイン処理を行う。これにより、音源の移動に伴って集音指向性の切り替わり、出力される合成音声信号の切り替えが平滑化される。すなわち、出力される音声を聞くユーザにとって、出力音声の切り替わりが滑らかになる。 In this configuration, the selected sound collecting beam is switched in accordance with the movement of the sound source. At this time, the synthesized sound signal that forms the sound collecting beam before the movement is faded out, and the sound collecting beam after the movement is moved. Fade-in processing is performed on the synthesized speech signal that forms. As a result, the sound collection directivity is switched in accordance with the movement of the sound source, and the switching of the output synthesized speech signal is smoothed. That is, for the user who listens to the output sound, the output sound is smoothly switched.
また、この発明の集音装置の信号選択部は、各音声信号の所定周波数成分のみからなる集音ビームを用いて集音する音声信号を選択することを特徴としている。 The signal selector of the sound collector of the present invention is characterized in that a sound signal to be collected is selected using a sound collecting beam consisting only of a predetermined frequency component of each sound signal.
この構成では、マイクロホンアレイの幅(配列方向の長さ)、および、マイクロホンの設置間隔に応じて、ビーム化される周波数帯域が異なることを利用し、所定の周波数成分のみバンドパスフィルタで通過することで、マイクロホンアレイの構造に基づいて設定される各集音ビームが所望の指向性に設定される。 In this configuration, by utilizing the fact that the frequency band to be beamed differs depending on the width of the microphone array (length in the arrangement direction) and the installation interval of the microphones, only a predetermined frequency component passes through the band-pass filter. Thus, each sound collection beam set based on the structure of the microphone array is set to a desired directivity.
この発明によれば、マイクロホンアレイを用いて集音される音声信号に対して時間遅延処理および組み合わせ処理をするという、簡単な構造および簡単な信号処理だけで、音源方向を検出でき、さらに、この音源方向に対して強い集音指向性を与えることができる。これにより、音源からの音声を除くノイズを抑圧し、音源からの音声を鮮明に集音し出力することができる。 According to the present invention, it is possible to detect the direction of a sound source with only a simple structure and simple signal processing in which time delay processing and combination processing are performed on an audio signal collected using a microphone array. Strong sound directivity can be given to the direction of the sound source. As a result, noise excluding sound from the sound source can be suppressed, and sound from the sound source can be clearly collected and output.
また、この発明によれば、音源が移動しても、簡素な構造および簡素な処理で音源方向を追尾することができる。これにより、移動する音源に対しても、音声を鮮明に集音し続けて出力することができる。 Moreover, according to this invention, even if a sound source moves, a sound source direction can be tracked with a simple structure and a simple process. Thereby, it is possible to continuously collect and output the sound even to the moving sound source.
本発明の実施形態に係る集音装置について図1〜図8を参照して説明する。
以下の説明では、音源検知領域全体を4つの部分領域、および各部分領域をさらに分割する4つの局所領域で音源100の検知を行うための構成について説明するが、領域の分割数は装置仕様や所望とする音源検知方向の分解能に基づいて、適宜設定すればよい。また、マイクロホンアレイ1は、マイクロホン10A〜10Mを直線状に配列したものを用いて説明する。
A sound collector according to an embodiment of the present invention will be described with reference to FIGS.
In the following description, a configuration for detecting the
図1は本実施形態の集音装置の主要部の構成を示すブロック図である。
また、図2、図3は本実施形態の音声信号処理部2の構成を示すブロック図であり、図2が集音ビームの形成、選択を行う部分を示し、図3は目的とする局所領域に対する集音ビームの選択、出力を行う部分を示す。なお、図2では、ディジタルフィルタ21A〜21Mの内のディジタルフィルタ21Aについてのみ詳細なブロック図を図示し、詳細な説明を行うが、他のディジタルフィルタ21B〜21Mについても同様の構造である。
FIG. 1 is a block diagram showing the configuration of the main part of the sound collecting device of this embodiment.
2 and 3 are block diagrams showing the configuration of the audio
図4は音声信号処理部2の他の構成(図3に対応する部分)を示す部分ブロック図である。
FIG. 4 is a partial block diagram showing another configuration (portion corresponding to FIG. 3) of the audio
図5、図6は音源方向検知方法の概念図である。図5は、図2に示すディジタルフィルタ21A〜21Mからレベル判定部27までの部分による検出概念を示す。図6は図2に示すディジタルフィルタ21A〜21Mから、図3に示すBPF28、レベル判定部29までの部分による検出概念を示す。
5 and 6 are conceptual diagrams of the sound source direction detection method. FIG. 5 shows a detection concept by the parts from the
図7は音声信号処理部2の処理フローを示すフロー図である。
FIG. 7 is a flowchart showing the processing flow of the audio
本実施形態の集音装置は、所定方向に直線状に配列された複数のマイクロホン10A〜10Mを有するマイクロホンアレイ1を備える。各マイクロホン10A〜10Mは、特に特定方向に指向性を有する指向性マイクではなく、全てが同じ無指向性マイクにより構成されている。そして、各マイクロホン10A〜10Mは、集音領域方向を正面として配置されている。また、マイクロホンアレイ1のマイクロホン配列個数および配置間隔は、集音領域の広さや、後述する音源方向の検出精度(方位分解能)、集音する音声の周波数帯域等により、適宜設定されている。
The sound collection device of the present embodiment includes a
マイクロホンアレイ1の各マイクロホン10A〜10Mは、それぞれ、図示しないA/D変換器を介して、音声信号処理部2のディジタルフィルタ21A〜21Mに接続されている。
The
音源から音声が発生すると、マイクロホン10A〜10Mはこれを集音して電気的な音声信号に変換して出力する。マイクロホン10A〜10Mから出力された音声信号は、A/D変換器にて所定のサンプリング周期でサンプリングされる。このサンプリングにより得られるディジタル音声信号x1(n),x2(n)〜xm(n)が、ディジタルフィルタ21A,21B〜21Mにそれぞれ入力される(S1)。
When sound is generated from the sound source, the
ディジタルフィルタ21Aは、予め設定されたサンプリング周期に応じた所定段のディレイバッファメモリ22Aを備える。ディレイバッファメモリ22Aの各段の遅延量に相当するサンプリング周期は、マイクロホンアレイ1におけるマイクロホン10A〜10Mの配置、および、音源検知を行う領域からマイクロホンアレイ1までの距離から設定される。ディレイバッファメモリ22Aには8段の出力が備えられており、これらの出力がFIRフィルタ231A〜238Aにそれぞれ入力される。
The
ディレイバッファメモリ22Aは、サンプリング周期に準じて、入力音声信号x1(n)に対してそれぞれに異なる遅延処理を施した音声信号を各段に記憶し、まずFIRフィルタ231A〜234Aに対して記憶された各遅延処理信号を出力する(S2)。さらに、ディレイバッファメモリ22Aは、レベル判定部27の検知結果に基づいてFIRフィルタ235A〜238Aに対して記憶された各遅延処理信号を出力する。このようなディレイバッファメモリ22Aは、例えばシフトレジスタ等で構成することができる。
The
ここで、ディレイバッファメモリ22Aにおける、FIRフィルタ231A〜234Aに入力される出力は、予め設定されている。具体的には、FIRフィルタ231Aに出力される信号は部分領域101に対応する集音ビームXc1を構成するための遅延処理信号であり、FIRフィルタ232Aに出力される信号は部分領域102に対応する集音ビームXc2を構成するための遅延処理信号である。また、FIRフィルタ233Aに出力される信号は部分領域103に対応する集音ビームXc3を構成するための遅延処理信号であり、FIRフィルタ234Aに出力される信号は部分領域104に対応する集音ビームXc4を構成するための遅延処理信号である。
Here, the outputs input to the FIR filters 231A to 234A in the
また、FIRフィルタ235Aに出力される信号は、後述するレベル判定部27で検出された部分領域104(図5,図6の場合)を再分割する局所領域141に対応する集音ビームXc5を構成するための遅延処理信号であり、FIRフィルタ236Aに出力される信号は局所領域142に対応する集音ビームXc6を構成するための遅延処理信号である。また、FIRフィルタ237Aに出力される信号は局所領域143に対応する集音ビームXc7を構成するための遅延処理信号であり、FIRフィルタ238Aに出力される信号は局所領域144に対応する集音ビームXc8を構成するための遅延処理信号である。ここで、局所領域141〜144は部分領域101〜104のうちで音源100方向が含まれる部分領域を再分割した局所領域であり、レベル判定部27の検知結果に応じて変わる。そして、これらの局所領域に応じて各集音ビームXc5〜Xc8を構成するための遅延処理信号が、検知結果に基づいて更新されながら設定される。
Further, the signal output to the
そして、これらの遅延処理信号は、図9に示すような集音ビームと遅延処理との関係により設定される。 These delay processing signals are set according to the relationship between the sound collection beam and the delay processing as shown in FIG.
FIRフィルタ231A〜238Aは全て同じ構成からなり、それぞれに入力された遅延処理信号をFIR処理して、遅延処理信号X1S1〜X1S8を出力する。このように、FIRフィルタ231A〜238AでFIR処理を行うことにより、ディレイバッファメモリ22Aでは実現できない、サンプリング周期間の詳細な遅延を実現することができる。すなわち、FIRフィルタのフィルタ内サンプリング周期とタップ数とを所望値に設定することにより、ディレイバッファメモリ22Aでのサンプリング周期を遅延時間の整数部分とする場合に、この遅延時間の小数点部分を実現することができる。これにより、ディジタルフィルタ21Aは、入力音声信号x1(n)に対して、サンプリング周期に単に準じた遅延処理よりも、さらに詳細な遅延処理を行い、遅延処理信号X1S1〜X1S8を生成することができる。
The FIR filters 231A to 238A all have the same configuration, and FIR processing is performed on the delay processing signals input thereto, and delay processing signals X1S1 to X1S8 are output. Thus, by performing FIR processing with the FIR filters 231A to 238A, it is possible to realize a detailed delay between sampling periods that cannot be realized with the
各FIRフィルタ231A〜238Aから出力された遅延処理信号X1S1〜X1S8は、それぞれアンプ241A〜248Aで増幅されて、それぞれ加算器25A〜25Hに入力される。
Delay processing signals X1S1 to X1S8 output from the FIR filters 231A to 238A are amplified by
他のディジタルフィルタ21B〜21Mも、ディジタルフィルタ21Aと同じ構造であり、それぞれに予め設定された遅延処理信号の選択条件にしたがって、入力された音声信号X2(n)〜Xm(n)から集音ビームXc1〜Xc8を形成するための遅延処理信号X2S1〜X2S8,・・・,XMS1〜XMS8を各加算器25A〜25Hに出力する。
The other
加算器25Aは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S1,X2S1,・・・,XMS1を合成して集音ビームXc1を生成し、加算器25BはX1S2,X2S2,・・・,XMS2を合成して集音ビームXc2を生成する。加算器25Cは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S3,X2S3,・・・,XMS3を合成して集音ビームXc3を生成し、加算器25DはX1S4,X2S4,・・・,XMS4を合成して集音ビームXc4を生成する(S3)。
The
バンドパスフィルタBPF26は、入力された集音ビームXc1〜Xc4のフィルタリングを行って、レベル判定部27に出力する。ここで、BPF26は、マイクロホンアレイ1の幅(配列方向の長さ)、および、マイクロホン10A〜10Mの設置間隔に応じてビーム化される周波数帯域が異なることを利用し、各集音ビームXc1〜Xc4で集音したい音声に対応する周波数帯域を通過帯域に設定している。
The band
レベル判定部27は、集音ビームXc1〜Xc4の信号強度を比較し、最も信号強度が強い集音ビームを選択する(S4)。ところで、集音ビームの信号強度が最も強いということは、この集音ビームにより集音される領域に音源が存在することを意味する。これにより、音源探知領域全体を4つの部分領域に区分した場合における、音源が存在する部分領域を検出することができる。例えば、図5の例では、部分領域104に対応する集音ビームXc4の信号強度が他の集音ビームXc1〜Xc3の信号強度よりも強いので、レベル検出部27は集音ビームXc4を選択し、部分領域104に音源100が存在することを検知する。
The
レベル判定部27は、検出した部分領域をさらに再分割した局所領域に対応する選択信号を生成し、ディジタルフィルタ21A〜21Mに出力する。より具体的に、例えば、図5,図6の例であれば、レベル判定部27は、部分領域104をさらに方位方向に4分割する局所領域141〜144に対する集音ビームXc5〜Xc8を形成するための各ディジタルフィルタ21A〜21Mから出力される遅延処理信号を選択する。そして、この選択内容が含まれる選択信号を各ディジタルフィルタ21A〜21Mに出力する。
The
各ディジタルフィルタ21A〜21Mはこの選択信号にしたがい、それぞれのディレイバッファメモリから加算器25E〜25Hに出力する遅延処理信号を選択設定する。例えば、ディジタルフィルタ21Aは、レベル判定部27から入力された選択信号にしたがい、ディレイバッファメモリ22AからFIRフィルタ235A〜238Aにそれぞれ選択された遅延処理信号を出力する。FIRフィルタ235A〜238Aは、それぞれ入力された遅延処理信号をFIR処理してアンプ245A〜248Aを介して、加算器25E〜25Hに出力する(S5)。
Each of the
加算器25Eは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S5,X2S5,・・・,XMS5を合成して集音ビームXc5を生成し、加算器25FはX1S6,X2S6,・・・,XMS6を合成して集音ビームXc6を生成する。加算器25Gは、各ディジタルフィルタ21A〜21Mから入力される遅延処理信号X1S7,X2S7,・・・,XMS7を合成して集音ビームXc7を生成し、加算器25HはX1S8,X2S8,・・・,XMS8を合成して集音ビームXc8を生成する(S6)。
The
加算器25E〜25Hのそれぞれから出力された集音ビームXc5〜Xc8は、2系統に分配され、一方はバンドパスフィルタBPF28に入力され、他方はセレクタ30に入力される。
The collected sound beams Xc5 to Xc8 output from each of the
バンドパスフィルタBPF28は、入力された集音ビームXc5〜Xc8のフィルタリングを行って、レベル判定部29に出力する。ここで、BPF28は、マイクロホンアレイ1の幅(配列方向の長さ)、および、マイクロホン10A〜10Mの設置間隔に応じてビーム化される周波数帯域が異なることを利用し、各集音ビームXc5〜Xc8で集音したい音声に対応する周波数帯域を通過帯域に設定している。
The band
レベル判定部29は、集音ビームXc5〜Xc8の信号強度を比較し、最も信号強度が強い集音ビームを選択する(S7)。ところで、集音ビームの信号強度が最も強いということは、この集音ビームにより集音される領域に音源が存在することを意味する。これにより、部分領域全体を4つの局所領域に区分した場合における、音源が存在する局所領域を検出することができる。例えば、図6の例では、部分領域104における局所領域141に対応する集音ビームXc5の信号強度が他の集音ビームXc6〜Xc8の信号強度よりも強いので、レベル検出部29は集音ビームXc5を選択し、局所領域141に音源100が存在することを検知する。
The
レベル判定部29は、検出した局所領域に対応する選択信号を生成し、セレクタ30に出力する。セレクタ30は、入力された選択信号にしたがい、検出された局所領域に対応する集音ビームを選択して出力する。例えば、図6の例であれば、局所領域141に対応する集音ビームXc5を選択して、この集音ビームXc5により形成される音声信号を出力する(S8)。
The
このような構成および処理を用いることにより、音源方向からの音声のみを集音して出力することができる。これにより、話者等の音源からの音声とは異なるノイズを抑圧して、音源からの音声のみを集音することができる。このように出力された合成信号はスピーカ5により音声として外部に放音される。
By using such a configuration and processing, only the sound from the sound source direction can be collected and output. As a result, noise different from the sound from the sound source of the speaker or the like can be suppressed, and only the sound from the sound source can be collected. The synthesized signal output in this way is emitted as sound by the
以上のように、本実施形態の構成および処理を用いることにより、音源方向を検出して、検出した音源方向に対する集音指向性を高めることができ、ノイズを抑圧して音源方向からの音声のみを集音することができる。この際、マイクロホンアレイを用いて、機械的にマイク方向を移動させることがないので、従来よりも簡単な構造で且つ簡素な処理で音源方向の検出と、音源方向に強い指向性を有する集音を行うことができる。 As described above, by using the configuration and processing of the present embodiment, the sound source direction can be detected, and the sound collection directivity with respect to the detected sound source direction can be improved. Can be collected. At this time, since the microphone direction is not mechanically moved using the microphone array, the sound source direction is detected with a simpler structure and simpler processing than before, and the sound collection having strong directivity in the sound source direction. It can be performed.
また、音源検知を2段階に分けて徐々に詳細に行うことで、一度に詳細な音源領域検知を行うよりも処理量を低減することができる。例えば、図5、図6に示したような局所領域分割を一度に処理する場合、16分割の局所領域となり、16方向の集音ビームを形成しなければならない。しかしながら、本実施形態の構成および処理方法を用いることにより、8方向の集音ビーム形成で、音源領域の検知を行うことができる。 Further, by performing the sound source detection in two stages and gradually performing the details, the processing amount can be reduced as compared to performing the detailed sound source region detection at a time. For example, when the local area division as shown in FIGS. 5 and 6 is processed at a time, it becomes a 16-division local area and a sound collecting beam in 16 directions must be formed. However, by using the configuration and processing method of the present embodiment, it is possible to detect a sound source region by forming sound collecting beams in eight directions.
なお、前述の説明では、局所領域に関するレベル判定部29で選択する集音ビームが1つの場合について説明した。しかしながら、複数の集音ビームを選択して処理してもよい。
In the above description, the case where there is one sound collection beam selected by the
図4は、複数の集音ビームを選択する場合の音声信号処理部2の部分構成を示すブロック図である。なお、この音声信号処理部2は、ディジタルフィルタ21A〜21Mから加算器25E〜25Hまでの図2に示した構成は同じであるので図示説明は省略し、異なる部分(図3に対応)のみを図示したものである。
FIG. 4 is a block diagram showing a partial configuration of the audio
レベル判定部29は、集音ビームXc5〜Xc8の信号強度を比較し、最も信号強度が強い集音ビームと、次に信号強度が強い集音ビームとの2つの集音ビームを選択する選択信号Sをセレクタ30に出力する。これと同時に、レベル判定部29は、これら2つの集音ビームの信号強度を重み付け設定部31に出力する。
The
セレクタ30は、入力された選択信号にしたがい、検出された2つの局所領域にそれぞれ対応する2つの集音ビームXca,Xcbを選択する。そして、セレクタ30は、集音ビームXcaを信号合成部32の可変アンプ321に出力し、集音ビームXcbを信号合成部32の可変アンプ322に出力する。
The
重み付け設定部31、2つの集音ビームの信号強度から重み付け係数をw1,w2を設定する。ここで、重み付け設定部31は、より信号強度が強い集音ビームが強調されるような重み付けを行う。例えば、2つの集音ビームの信号強度の比が7:3であれば、合成信号の振幅が正規化されるように、各集音ビームに対する重み付け係数をそれぞれ0.7と0.3とに設定する。
The weighting
信号合成部32は、可変アンプ321,322と加算器323とを備える。可変アンプ321は与えられた重み付け係数w1で集音ビームXcaの合成信号を増幅し、可変アンプ322は与えられた重み付け係数w2で集音ビームXcbの合成信号を増幅する。加算器323は可変増幅器321,322からの出力信号を合成し、合成信号をスピーカ5に出力する。
The
これらの処理を、図6を例に説明すると、レベル判定部29は、信号強度から集音ビームXc5,Xc6を選択する。すなわち、局所領域141,142からなる領域に音源100が存在すると検知する。セレクタ30は、入力される集音ビームXc5〜Xc8から集音ビームXc5,Xc6の2つを選択して、集音ビームXc5の合成信号を可変アンプ321に出力し、集音ビームXc6の合成信号を可変アンプ322に出力する。重み付け設定部31は、集音ビームXc5,Xc6の振幅強度の比から、集音ビームXc5に対する重み付け係数w1と、集音ビームXc6に対する重み付け係数w2を設定して、重み付け係数w1を可変アンプ321に与え、重み付け係数w2を可変アンプ322に与える。可変アンプ321は重み付け係数w1で集音ビームXc5の合成信号を増幅し、可変アンプ322は重み付け係数w2で集音ビームXc6の合成信号を増幅する。加算器323は重み付け係数w1の集音ビームXc5からなる合成信号と、重み付け係数w2の集音ビームXc6からなる合成信号とをさらに合成してスピーカ5に出力する。
These processes will be described using FIG. 6 as an example. The
このような構成および処理を用いることにより、音源方向を含む領域とこれに隣接する領域とからなる所定範囲からの音声を集音して出力することができる。これにより、音源が前述のように設定される局所領域の境界付近に存在しても、話者等の音源からの音声を強調し、それ以外のノイズを抑圧することができる。 By using such a configuration and processing, it is possible to collect and output sound from a predetermined range including a region including the sound source direction and a region adjacent thereto. Thereby, even if the sound source exists near the boundary of the local region set as described above, it is possible to enhance the sound from the sound source such as a speaker and suppress other noises.
ところで、前述の説明は音源が移動していない状態を示したが、前述の音源方向の検出処理および合成処理を、予め設定した所定タイミング周期で行うことで、音源の追尾を行うことができる。すなわち、音源が移動すれば、この移動に応じてそれぞれのタイミングで検出される音源方向も変化(移動)する。そして、この検出される音源方向の変化に応じて、集音指向性を変化させることで、実質的に集音しながら音源の追尾を行うことができる。この処理は機械的動作を含まないものであるので、装置の構成を単純化することができる。 By the way, although the above description has shown the state where the sound source has not moved, the sound source can be tracked by performing the above-described sound source direction detection processing and synthesis processing at a predetermined timing cycle set in advance. That is, if the sound source moves, the sound source direction detected at each timing also changes (moves) in accordance with this movement. Then, by changing the sound collection directivity according to the detected change of the sound source direction, the sound source can be tracked while substantially collecting the sound. Since this process does not include a mechanical operation, the configuration of the apparatus can be simplified.
この際、音声信号処理部2は、前記タイミング周期の隣り合うタイミングで検出音源方向が異なれば、先に出力した音声信号と、後に出力する音声信号とをクロスフェード処理してもよい。すなわち、先に出力している音声信号の信号強度を出力段で徐々に抑圧していくとともに、後に出力する音声信号の信号強度を出力段で徐々に増幅していく処理を行い、これらを合成して出力する。このような処理を行うことで、音源の移動に伴う音声の移動が、聴覚上滑らかに行われ、出力される音声を聞く者に違和感を与えない。ここで、音源が部分領域間を完全に移動するのではなく、部分領域の境界で音源が停止した場合には、前述のように、完全に出力信号が切り替わる処理を行う必要はない。この場合、クロスフェードを開始してから、徐々に集音ビームの比を変化させていき、最終的に互いの集音ビームの比が0.5:0.5になる合成処理を行ってもよい。
At this time, the audio
なお、前述の説明では、音源が存在する全体領域を4つの部分領域に分割し、さらに音源が存在する部分領域を4つの局所領域に分割して、音源検知を行ったが、これら分割数は、装置の仕様や、装置の適用環境(音源検知領域の広さ等)に応じて、任意に設定することができる。 In the above description, the entire area where the sound source exists is divided into four partial areas, and the partial area where the sound source exists is further divided into four local areas, and sound source detection is performed. It can be arbitrarily set according to the specifications of the apparatus and the application environment of the apparatus (such as the width of the sound source detection area).
また、前述の説明では、2段で音源検知を行ったが、1段で行っても、3段以上の複数段でおこなってもよい。また、前述の各処理は、物理的な回路素子の組み合わせで実現しても、DSP等の集積回路を用いてソフトウエア処理で実現してもよい。 In the above description, sound source detection is performed in two stages, but it may be performed in one stage or in a plurality of stages of three or more. The above-described processes may be realized by a combination of physical circuit elements, or may be realized by software processing using an integrated circuit such as a DSP.
また、前述の説明ではマイクロホンを直線状に配列したマイクロホンアレイを例に示したが、マトリクス状であってもよく、さらに、図8に示すようなマイクロホンの配置からなるマイクロホンアレイでもあってよい。 In the above description, the microphone array in which the microphones are linearly arranged is shown as an example. However, the microphone array may be a matrix or may be a microphone array having a microphone arrangement as shown in FIG.
図8(A)は1次元の円状にマイクロホンを配置したマイクホロンアレイの構成を示し、(B)は複数次元の円状にマイクロホンを配置したマイクロホンアレイの構成を示す。なお、図8では、代表するマイクロホンにのみ記号を付し、他のマイクロホンへの記号は省略する。
図8(A)に示すマイクロホンアレイ1は、各マイクロホン10が所定間隔で1つ(1次元)の円周上に配置されたものである。図8(B)に示すマイクロホンアレイ1は、各マイクロホン10が複数(複数次元)の円周上に配置されたものである。
このようにマイクロホン10が配列されたマイクロホンアレイ1に対しても、前述の構成および処理を適用することができ、音源方向の検知と、この検知音源方向からの集音を実現することができる。
FIG. 8A shows a configuration of a microphone holon array in which microphones are arranged in a one-dimensional circle, and FIG. 8B shows a configuration of a microphone array in which microphones are arranged in a multi-dimensional circle. In FIG. 8, symbols are given only to representative microphones, and symbols to other microphones are omitted.
In the
The above-described configuration and processing can also be applied to the
さらに、ここに示したマイクロホンアレイのマイクロホンの配置は一部の例にすぎず、マイクロホンが所定の配置パターンで配置されたマイクロホンアレイであれば、前述の構成および処理を実現することができ、前述の効果を奏することができる。 Furthermore, the arrangement of the microphones of the microphone array shown here is only a part of the examples, and the above-described configuration and processing can be realized if the microphone array is arranged in a predetermined arrangement pattern. The effect of can be produced.
1−マイクロホンアレイ、10A〜10M−マイクロホン、2−音声信号処理部、21A〜21M−ディジタルフィルタ、22A−ディレイバッファメモリ、231A〜238A−FIRフィルタ、241A〜248A−アンプ、25A〜25H−加算器、26,28−BPF、27,29−レベル判定部、30−セレクタ、31−重み付け設定部、32−信号合成部、321,322−可変アンプ、323−加算器、5−スピーカ、100−音源、101〜104−部分領域、141〜144−局所領域 1-microphone array, 10A-10M-microphone, 2-audio signal processor, 21A-21M-digital filter, 22A-delay buffer memory, 231A-238A-FIR filter, 241A-248A-amplifier, 25A-25H-adder , 26, 28-BPF, 27, 29-level determination unit, 30-selector, 31-weighting setting unit, 32-signal synthesis unit, 321, 322-variable amplifier, 323-adder, 5-speaker, 100-sound source 101-104 partial region, 141-144 local region
Claims (3)
前記複数のマイクロホンが集音した音声信号をそれぞれ所定の遅延時間で遅延して合成することにより、特定方向に強い指向性の集音ビームを形成するビーム形成部であって、並列にそれぞれ独立した遅延時間を設定することで同時に複数方向に集音ビームを形成するビーム形成部と、
複数エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、信号レベルが最も高い集音ビームに対応するエリアを複数の小エリアに再分割し、該小エリアのそれぞれに向けて集音ビームを形成するように前記ビーム形成部を制御し、これら小エリアに対応する複数の集音ビームのうち、信号レベルが最も高い集音ビームが集音する音声信号を選択して後段に出力する信号選択部と、
を備えた集音装置。 A microphone array configured by arranging a plurality of microphones in a predetermined pattern;
A beam forming unit that forms a sound collecting beam having a strong directivity in a specific direction by synthesizing the audio signals collected by the plurality of microphones by delaying each with a predetermined delay time. A beam forming unit that simultaneously forms a sound collecting beam in a plurality of directions by setting a delay time;
The beam forming unit is controlled to form a sound collecting beam toward each of a plurality of areas, and an area corresponding to the sound collecting beam having the highest signal level is subdivided into a plurality of small areas, selecting the controls beamformer, among the plurality of sound collecting beams corresponding to these small areas, the audio signal with the highest sound collecting beam signal level collected to form a sound collection beam towards And a signal selection unit that outputs to the subsequent stage,
Sound collector with
信号レベルが最も高い集音ビームに隣接する第二の集音ビームが集音する第二の音声信号をさらに選択し、前記信号レベルが最も高い集音ビームが集音する音声信号および第二の音声信号の二つの音声信号のレベル比に基づいた重み付けをして加算する加算部 A second sound signal collected by a second sound collecting beam adjacent to the sound collecting beam having the highest signal level is further selected, and the sound signal collected by the sound collecting beam having the highest signal level and the second sound signal are collected. Adder for weighting and adding based on the level ratio of two audio signals
を備えた請求項1に記載の集音装置。 The sound collector according to claim 1, comprising:
前記信号選択部は、前記所定タイミング毎に集音する音声信号の選択を行う請求項1または請求項2に記載の集音装置。 The beam forming unit forms a sound collecting beam at every predetermined timing,
The sound collection device according to claim 1, wherein the signal selection unit selects a sound signal to be collected at each predetermined timing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005189809A JP4760160B2 (en) | 2005-06-29 | 2005-06-29 | Sound collector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005189809A JP4760160B2 (en) | 2005-06-29 | 2005-06-29 | Sound collector |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011003075A Division JP5273162B2 (en) | 2011-01-11 | 2011-01-11 | Sound collector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007013400A JP2007013400A (en) | 2007-01-18 |
JP4760160B2 true JP4760160B2 (en) | 2011-08-31 |
Family
ID=37751340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005189809A Active JP4760160B2 (en) | 2005-06-29 | 2005-06-29 | Sound collector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4760160B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10367948B2 (en) | 2017-01-13 | 2019-07-30 | Shure Acquisition Holdings, Inc. | Post-mixing acoustic echo cancellation systems and methods |
CN110082724A (en) * | 2019-05-31 | 2019-08-02 | 浙江大华技术股份有限公司 | A kind of sound localization method, device and storage medium |
USD865723S1 (en) | 2015-04-30 | 2019-11-05 | Shure Acquisition Holdings, Inc | Array microphone assembly |
USD944776S1 (en) | 2020-05-05 | 2022-03-01 | Shure Acquisition Holdings, Inc. | Audio device |
US11297426B2 (en) | 2019-08-23 | 2022-04-05 | Shure Acquisition Holdings, Inc. | One-dimensional array microphone with improved directivity |
US11302347B2 (en) | 2019-05-31 | 2022-04-12 | Shure Acquisition Holdings, Inc. | Low latency automixer integrated with voice and noise activity detection |
US11303981B2 (en) | 2019-03-21 | 2022-04-12 | Shure Acquisition Holdings, Inc. | Housings and associated design features for ceiling array microphones |
US11310596B2 (en) | 2018-09-20 | 2022-04-19 | Shure Acquisition Holdings, Inc. | Adjustable lobe shape for array microphones |
US11438691B2 (en) | 2019-03-21 | 2022-09-06 | Shure Acquisition Holdings, Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality |
US11445294B2 (en) | 2019-05-23 | 2022-09-13 | Shure Acquisition Holdings, Inc. | Steerable speaker array, system, and method for the same |
US11552611B2 (en) | 2020-02-07 | 2023-01-10 | Shure Acquisition Holdings, Inc. | System and method for automatic adjustment of reference gain |
US11558693B2 (en) | 2019-03-21 | 2023-01-17 | Shure Acquisition Holdings, Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality |
US11678109B2 (en) | 2015-04-30 | 2023-06-13 | Shure Acquisition Holdings, Inc. | Offset cartridge microphones |
US11706562B2 (en) | 2020-05-29 | 2023-07-18 | Shure Acquisition Holdings, Inc. | Transducer steering and configuration systems and methods using a local positioning system |
Families Citing this family (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5139111B2 (en) * | 2007-03-02 | 2013-02-06 | 本田技研工業株式会社 | Method and apparatus for extracting sound from moving sound source |
JP5070960B2 (en) * | 2007-07-06 | 2012-11-14 | ヤマハ株式会社 | Sound collector |
JP5386936B2 (en) | 2008-11-05 | 2014-01-15 | ヤマハ株式会社 | Sound emission and collection device |
JP5304571B2 (en) * | 2009-09-24 | 2013-10-02 | 沖電気工業株式会社 | Sound collector, acoustic communication system, and program |
JP5105336B2 (en) * | 2009-12-11 | 2012-12-26 | 沖電気工業株式会社 | Sound source separation apparatus, program and method |
JP5417352B2 (en) | 2011-01-27 | 2014-02-12 | 株式会社東芝 | Sound field control apparatus and method |
JP5709725B2 (en) * | 2011-10-27 | 2015-04-30 | Toa株式会社 | Microphone device |
JP6481397B2 (en) * | 2015-02-10 | 2019-03-13 | 沖電気工業株式会社 | Microphone interval control device and program |
US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
JP6249047B2 (en) * | 2016-05-27 | 2017-12-20 | 株式会社Jvcケンウッド | Audio processing apparatus, video processing apparatus, audio processing method, and video processing method |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10152969B2 (en) | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
JP6701573B2 (en) | 2016-08-03 | 2020-05-27 | 株式会社リコー | Audio processing device, audio/video output device, and remote conference system |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US9743204B1 (en) | 2016-09-30 | 2017-08-22 | Sonos, Inc. | Multi-orientation playback device microphones |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
JP2018084506A (en) * | 2016-11-24 | 2018-05-31 | 株式会社リコー | Position information management system, information processing device, position information management method, and program |
US11183181B2 (en) | 2017-03-27 | 2021-11-23 | Sonos, Inc. | Systems and methods of multiple voice services |
US10248375B2 (en) * | 2017-07-07 | 2019-04-02 | Panasonic Intellectual Property Management Co., Ltd. | Sound collecting device capable of obtaining and synthesizing audio data |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10051366B1 (en) | 2017-09-28 | 2018-08-14 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
US10880650B2 (en) | 2017-12-10 | 2020-12-29 | Sonos, Inc. | Network microphone devices with automatic do not disturb actuation capabilities |
US10818290B2 (en) | 2017-12-11 | 2020-10-27 | Sonos, Inc. | Home graph |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10847178B2 (en) | 2018-05-18 | 2020-11-24 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US11297423B2 (en) | 2018-06-15 | 2022-04-05 | Shure Acquisition Holdings, Inc. | Endfire linear array microphone |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US10878811B2 (en) | 2018-09-14 | 2020-12-29 | Sonos, Inc. | Networked devices, systems, and methods for intelligently deactivating wake-word engines |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US10811015B2 (en) | 2018-09-25 | 2020-10-20 | Sonos, Inc. | Voice detection optimization based on selected voice assistant service |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US10692518B2 (en) | 2018-09-29 | 2020-06-23 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
JP7334406B2 (en) * | 2018-10-24 | 2023-08-29 | ヤマハ株式会社 | Array microphones and sound pickup methods |
JP7230427B2 (en) * | 2018-10-24 | 2023-03-01 | ヤマハ株式会社 | SOUND SIGNAL PROCESSING DEVICE, MIXER, AND SOUND SIGNAL PROCESSING METHOD |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11556307B2 (en) | 2020-01-31 | 2023-01-17 | Sonos, Inc. | Local voice data processing |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US11551700B2 (en) | 2021-01-25 | 2023-01-10 | Sonos, Inc. | Systems and methods for power-efficient keyword detection |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0591588A (en) * | 1991-09-27 | 1993-04-09 | Railway Technical Res Inst | Direction variable directional sound collecting device |
JPH09140000A (en) * | 1995-11-15 | 1997-05-27 | Nippon Telegr & Teleph Corp <Ntt> | Loud hearing aid for conference |
JP3154468B2 (en) * | 1996-03-19 | 2001-04-09 | 日本電信電話株式会社 | Sound receiving method and device |
JP3332143B2 (en) * | 1997-06-23 | 2002-10-07 | 日本電信電話株式会社 | Sound pickup method and device |
JP3302300B2 (en) * | 1997-07-18 | 2002-07-15 | 株式会社東芝 | Signal processing device and signal processing method |
-
2005
- 2005-06-29 JP JP2005189809A patent/JP4760160B2/en active Active
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11310592B2 (en) | 2015-04-30 | 2022-04-19 | Shure Acquisition Holdings, Inc. | Array microphone system and method of assembling the same |
US11832053B2 (en) | 2015-04-30 | 2023-11-28 | Shure Acquisition Holdings, Inc. | Array microphone system and method of assembling the same |
USD865723S1 (en) | 2015-04-30 | 2019-11-05 | Shure Acquisition Holdings, Inc | Array microphone assembly |
US11678109B2 (en) | 2015-04-30 | 2023-06-13 | Shure Acquisition Holdings, Inc. | Offset cartridge microphones |
USD940116S1 (en) | 2015-04-30 | 2022-01-04 | Shure Acquisition Holdings, Inc. | Array microphone assembly |
US10367948B2 (en) | 2017-01-13 | 2019-07-30 | Shure Acquisition Holdings, Inc. | Post-mixing acoustic echo cancellation systems and methods |
US11477327B2 (en) | 2017-01-13 | 2022-10-18 | Shure Acquisition Holdings, Inc. | Post-mixing acoustic echo cancellation systems and methods |
US11310596B2 (en) | 2018-09-20 | 2022-04-19 | Shure Acquisition Holdings, Inc. | Adjustable lobe shape for array microphones |
US11558693B2 (en) | 2019-03-21 | 2023-01-17 | Shure Acquisition Holdings, Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality |
US11303981B2 (en) | 2019-03-21 | 2022-04-12 | Shure Acquisition Holdings, Inc. | Housings and associated design features for ceiling array microphones |
US11438691B2 (en) | 2019-03-21 | 2022-09-06 | Shure Acquisition Holdings, Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality |
US11445294B2 (en) | 2019-05-23 | 2022-09-13 | Shure Acquisition Holdings, Inc. | Steerable speaker array, system, and method for the same |
US11302347B2 (en) | 2019-05-31 | 2022-04-12 | Shure Acquisition Holdings, Inc. | Low latency automixer integrated with voice and noise activity detection |
CN110082724B (en) * | 2019-05-31 | 2021-09-21 | 浙江大华技术股份有限公司 | Sound source positioning method, device and storage medium |
US11688418B2 (en) | 2019-05-31 | 2023-06-27 | Shure Acquisition Holdings, Inc. | Low latency automixer integrated with voice and noise activity detection |
CN110082724A (en) * | 2019-05-31 | 2019-08-02 | 浙江大华技术股份有限公司 | A kind of sound localization method, device and storage medium |
US11297426B2 (en) | 2019-08-23 | 2022-04-05 | Shure Acquisition Holdings, Inc. | One-dimensional array microphone with improved directivity |
US11750972B2 (en) | 2019-08-23 | 2023-09-05 | Shure Acquisition Holdings, Inc. | One-dimensional array microphone with improved directivity |
US11552611B2 (en) | 2020-02-07 | 2023-01-10 | Shure Acquisition Holdings, Inc. | System and method for automatic adjustment of reference gain |
USD944776S1 (en) | 2020-05-05 | 2022-03-01 | Shure Acquisition Holdings, Inc. | Audio device |
US11706562B2 (en) | 2020-05-29 | 2023-07-18 | Shure Acquisition Holdings, Inc. | Transducer steering and configuration systems and methods using a local positioning system |
Also Published As
Publication number | Publication date |
---|---|
JP2007013400A (en) | 2007-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4760160B2 (en) | Sound collector | |
JP4816221B2 (en) | Sound pickup device and audio conference device | |
JP4177413B2 (en) | Sound reproduction apparatus and sound reproduction system | |
US9961473B2 (en) | Apparatus and method for generating output signals based on an audio source signal, sound reproduction system and loudspeaker signal | |
JP4167286B2 (en) | Reverberation adjustment device, reverberation correction method, and sound reproduction system | |
US9210503B2 (en) | Audio zoom | |
JP4984683B2 (en) | Sound emission and collection device | |
JP4913140B2 (en) | Apparatus and method for controlling multiple speakers using a graphical user interface | |
JP2008028693A (en) | Audio signal processor, audio signal processing method, and program | |
CN1981558A (en) | Loudspeaker directivity control method and audio reproduction device | |
JP2005197896A (en) | Audio signal supply apparatus for speaker array | |
JP5565044B2 (en) | Speaker device | |
JP4435232B2 (en) | Audio system | |
US9355632B2 (en) | Apparatus, method and electroacoustic system for reverberation time extension | |
JP2010213031A (en) | Speaker array apparatus | |
JP2008252625A (en) | Directional speaker system | |
JP2006222669A (en) | Speaker array apparatus | |
JP5273162B2 (en) | Sound collector | |
JP7524614B2 (en) | SOUND SIGNAL PROCESSING METHOD, SOUND SIGNAL PROCESSING APPARATUS, AND SOUND SIGNAL PROCESSING PROGRAM | |
JP2016134769A (en) | Audio signal processor | |
JP2008245203A (en) | Loudspeaker system, delay time determination method of loudspeaker system and filter coefficient determination method of loudspeaker system | |
JPWO2007007414A1 (en) | Delay and sum sensor array device | |
JP2024505068A (en) | Hybrid audio beamforming system | |
JP6242262B2 (en) | Sound playback device | |
JP2008178000A (en) | Acoustic generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110111 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4760160 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |