JP2007264132A - Voice detection device and its method - Google Patents
Voice detection device and its method Download PDFInfo
- Publication number
- JP2007264132A JP2007264132A JP2006086607A JP2006086607A JP2007264132A JP 2007264132 A JP2007264132 A JP 2007264132A JP 2006086607 A JP2006086607 A JP 2006086607A JP 2006086607 A JP2006086607 A JP 2006086607A JP 2007264132 A JP2007264132 A JP 2007264132A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- signal
- input
- noise
- correlation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Abstract
Description
本発明は、複数のマイクロホンを利用した音声検出装置及びその方法に関する。 The present invention relates to an audio detection apparatus and method using a plurality of microphones.
骨伝導マイクロホンと通常の気導音マイクロホンを併用して、音声認識のための区間検出精度を向上させる方法として、特許文献1の技術が提案されている。この方法は各マイクロホン出力に対し、別個の音声区間検出処理を行い、ノイズレベルに応じてどちらの検出結果を優先するかを決め、その優先度に基き、どちらか一方の音声区間検出結果を最終結果とするという方法である。 As a method for improving the interval detection accuracy for speech recognition by using a bone conduction microphone and a normal air conduction sound microphone together, the technique of Patent Document 1 has been proposed. This method performs a separate voice segment detection process for each microphone output, decides which detection result is given priority according to the noise level, and finalizes one of the voice segment detection results based on that priority. It is a method of obtaining a result.
また、特許文献2には、単一指向性マイクロホンで受けた音信号と無指向性マイクロホンで受けた音信号との相関度を得て、その相関結果に基づいて検出対象音を検出する技術も提案されている。
特許文献1の技術では、背景雑音レベルが低い場合、気導音マイクロホンの音声区間検出結果が優先されることになる。しかし、背景雑音レベルが低い場合でも、例えば隣の人の話し声など非定常雑音がターゲット音声の前後に付加した場合には、その付加した区間も含めた区間が音声区間として検出されるという誤った音声区間検出がなされる場合がある。その場合、誤りの修正ができず、誤った音声区間の音声信号が音声認識装置に入力され、ひいては認識誤りを生じさせるといった問題点がある。 In the technique of Patent Document 1, when the background noise level is low, priority is given to the sound section detection result of the air conduction microphone. However, even when the background noise level is low, for example, when non-stationary noise such as the neighbor's speech is added before and after the target speech, it is erroneous that the section including the added section is detected as the speech section. There is a case where a voice section is detected. In such a case, there is a problem that the error cannot be corrected, and the voice signal in the wrong voice section is input to the voice recognition device, resulting in a recognition error.
また、骨伝導マイクロホン及び気導音マイクロホンから得られる音声信号に対する両方の音声区間検出処理が、全て終了して、初めてどの時刻の音声区間を音声認識装置に供するかが確定する。そのため、音声認識の実時間処理が出来ないという問題点もある。 In addition, when all the voice section detection processes for the voice signals obtained from the bone conduction microphone and the air conduction sound microphone are all finished, it is determined for the first time which voice section is provided to the voice recognition device. Therefore, there is a problem that real-time processing of voice recognition cannot be performed.
さらに、特許文献2の技術では、無指向性マイクロホンによって発話を受音するため、例えば隣の人の話し声なども検出対象音として検出され、音声認識処理に入力されることになり、正確な認識を行えないという問題点がある。
Furthermore, in the technique of
そこで、本発明は、確実に検出すべき対象音のみを検出できる音声検出装置及びその方法を提供する。 Therefore, the present invention provides a voice detection apparatus and method for detecting only a target sound that should be reliably detected.
本発明は、それぞれ特性の異なる複数のマイクロホンと、前記各マイクロホンからそれぞれ入力された入力信号の間の相関値を求める相関値計算手段と、前記相関値により前記各入力信号の間に相関があるか否かを判定し、相関があると判定された時の時刻情報を出力する判定手段と、前記時刻情報に基づいて相関があるとされた区間における前記各入力信号の中の一つの入力信号を音声信号として出力する音声区間検出手段と、を有することを特徴とする音声検出装置である。 The present invention provides a correlation between a plurality of microphones having different characteristics, correlation value calculation means for obtaining a correlation value between input signals respectively input from the microphones, and correlation between the input signals based on the correlation values. A determination means for determining whether or not there is a correlation and outputting time information when it is determined that there is a correlation; and one input signal among the input signals in a section determined to have a correlation based on the time information A voice section detecting means for outputting a voice signal as a voice signal.
本発明であると、確実に発話の内容を検出できる。 According to the present invention, the content of the utterance can be reliably detected.
本発明の一実施形態である音声検出装置100について図1から図5に基づいて説明する。
A
(1)音声検出装置100の構成
図1は、本実施形態の音声検出装置100の構成を示すブロック図である。
(1) Configuration of
音声検出装置100は、気導音マイクロホン1と骨伝導マイクロホン2の2本のマイクロホンを利用する場合について示す。そして、音声を認識したい者(以下、マイクロホン装着者という)が、骨伝導マイクロホン2を身体、特に顔付近に装着し、かつ、気導音マイクロホン1によってマイクロホン装着者の声が受音できる状態になっているとする。
The
音声検出装置100は、気導音マイクロホン1、レベル判定部2、骨伝導マイクロホン3、レベル判定部4、相関値計算部5、判定部6、音声区間検出部7、雑音特徴推定部8、雑音キャンセル部9とを備えている。なお、本実施例では、音声検出装置100に音声認識装置が接続されている状況を想定し、音声検出装置100の出力が音声認識処理に供されることを踏まえて説明する。
The
(2)気導音マイクロホン1とレベル判定部2
気導音マイクロホン1には空気中を伝わる音響信号が入力され、この音響信号が電気信号に変換され、さらにAD変換後、ディジタル信号(以下、入力音響信号という)に変換され、レベル判定部2に送られる。
(2) Air conduction sound microphone 1 and
An acoustic signal transmitted in the air is input to the air conduction microphone 1, this acoustic signal is converted into an electric signal, further AD-converted, and then converted into a digital signal (hereinafter referred to as an input acoustic signal). Sent to.
レベル判定部2では、例えば、10m秒毎に、入力音響信号の波形の振幅の2乗和によりパワーが計算される。入力音響信号のパワーと、予め設定されたパワーの閾値と比較され、閾値を超えている場合には、10m秒分の入力音響信号は相関値計算部5へ入力される。
In the
(3)骨伝導マイクロホン3とレベル判定部4
一方、時間的に同期して、骨伝導マイクロホン3へも身体を伝わる振動音が入力され、この振動音が電気信号に変換され、さらにAD変換後、ディジタル信号(以下、入力振動信号という)に変換され、レベル判定部4に送られる。
(3)
On the other hand, in synchronization with time, vibration sound transmitted through the body is also input to the
レベル判定部4では、例えば、入力振動信号の10m秒の長さを1フレームと定義して、フレーム毎に入力振動信号の波形の振幅の2乗和によりパワーが計算される。入力振動信号のパワーと、予め設定されたパワーの閾値と比較され、閾値を超えている場合には、10m秒分の入力振動信号は相関値計算部5へ入力される。 In the level determination unit 4, for example, the length of 10 ms of the input vibration signal is defined as one frame, and the power is calculated by the square sum of the amplitude of the waveform of the input vibration signal for each frame. The power of the input vibration signal is compared with a preset power threshold, and if the threshold is exceeded, the input vibration signal for 10 milliseconds is input to the correlation value calculation unit 5.
なお、各レベル判定部2,4での閾値は入力音響信号と入力振動信号のレベルが異なることから別々の値に設定される。
Note that the threshold values in the
(4)相関値計算部5と判定部6
相関値計算部5では、レベル判定処理を通過した気導音マイクロホン1からの入力音響信号及び骨伝導マイクロホン3からの入力振動信号が入力される。双方の信号が入力された場合に相関値が計算される。
(4) Correlation value calculation unit 5 and
In the correlation value calculation unit 5, the input acoustic signal from the air conduction microphone 1 and the input vibration signal from the
相関には、例えば各信号を周波数分解し得られた周波数パターン間のユークリッド距離を利用しても良いし、相関係数を求めてもよい。 For correlation, for example, the Euclidean distance between frequency patterns obtained by frequency-resolving each signal may be used, or a correlation coefficient may be obtained.
ここで、実際にマイクロホン装着者が発声した音声の場合、レベル判定部2から得られる入力音響信号は空気中を伝わる当該音声となり、レベル判定部4から得られる入力振動信号は発声された音声により骨が振動した信号となる。双方とも信号源は同じであるので、それぞれの相関値は高い値を示すと考えられる。
Here, in the case of the voice actually uttered by the microphone wearer, the input acoustic signal obtained from the
図2に示すように、マイクロホン装着者でない人の発声がなされた場合を考える。レベル判定部2から得られる入力音響信号は空気中を伝わる当該音声となり、一方、骨伝導マイクロホンへの入力はないため、レベル判定部4から出力されない。
As shown in FIG. 2, a case where a person who is not a microphone is uttered is considered. The input acoustic signal obtained from the
図3に示すように、マイクロホン装着者が発声せず、身体の摩擦などにより骨伝導マイクロホン33にのみ入力振動信号が入力された場合を考える。気導音マイクロホン1への入力はないか、あるいはあっても非常にレベルの低い信号となり、レベル判定部2からの出力はない。
As shown in FIG. 3, a case is considered where an input vibration signal is input only to the bone conduction microphone 33 due to body friction or the like, without the microphone wearer speaking. There is no input to the air-conduction sound microphone 1, or even if it exists, it becomes a very low level signal, and there is no output from the
図4に示すように、マイクロホン装着者ではない人の発声と、マイクロホン装着者の身体から発生された振動の両方が時間的に重なってしまった場合を考える。レベル判定部2,4からはそれぞれ人の声の入力音響信号と、入力振動信号が出力される。それらの信号源は異なるので相関値は非常に小さな値になると考えられる。
As shown in FIG. 4, a case is considered in which both the voice of a person who is not a microphone wearer and the vibration generated from the body of the microphone wearer overlap in time. The
相関値計算部5で計算された相関値が、判定部6で予め設定された閾値を超えた場合に両者のマイクロホン1,3に入力された信号には相関があると判定され、その時の時刻情報が音声区間検出部7及び雑音特徴推定部8に出力される。
When the correlation value calculated by the correlation value calculation unit 5 exceeds a threshold set in advance by the
以上の処理は、背景雑音のない場合に考えられる現象について説明したものである。いずれの場合にも、マイクロホン装着者の発声以外の信号が音声区間検出部7へ入力されるのを妨げることができ、確実にマイクロホン装着者が発声したと考えられる区間の時刻情報を音声区間検出部7へ知らせることができる。逆にいうと、当該時刻の時点ではマイクロホン装着者が発声していると考えてよいということになる。
The above processing describes a phenomenon that can be considered when there is no background noise. In any case, it is possible to prevent a signal other than the voice of the microphone wearer from being input to the voice
但し、マイクロホン装着者により発声された音声のうち、特に語頭の子音などは骨等がほとんど振動せず、骨伝導マイクロホン3では拾うことが難しいため、実際には相関値が高いという結果が得られた時刻より以前の時刻で音声が開始されている場合がある。また、これらの現象は語頭だけでなく、語中や語尾などでも発生する場合がある。これらの問題は、音声区間検出部7及び本音声検出装置100に接続される音声認識装置で対処することになる。
However, among the voices uttered by the person wearing the microphone, especially the consonant at the beginning of the word hardly oscillates in the bone and the like, and it is difficult to pick up with the
一方、背景雑音がある場合を考えると、マイクロホン装着者の発声がない場合でも、気導音マイクロホン1を通過した入力音響信号は雑音の影響で高いレベルの信号となっていると想定されるので、レベル判定部2を通過して相関値計算部5へ送付される。しかし、骨伝導マイクロホン3は背景雑音の影響は受けないので、マイクロホン装着者の発声がない背景雑音のみの区間ではレベル判定部4からの出力はない。したがって、背景雑音の影響は排除することができる。このように、背景雑音がある場合でも、ない場合でも、雑音に影響されることなく、レベル判定処理及び相関値による判定処理を行うことにより、マイクロホン装着者が確実に発声した時刻の情報を音声区間検出部7に出力することができる。
On the other hand, considering the case where there is background noise, the input acoustic signal that has passed through the air conduction microphone 1 is assumed to be a high-level signal due to the influence of noise even when the microphone wearer does not utter. Then, it passes through the
(5)音声区間検出部7
音声区間検出部7での処理は特に限定するものではないが、図5に基づいてその一例を示す。
(5) Voice
Although the process in the audio | voice
音声区間検出部7には、上記した音声区間と想定される時刻情報の他に、気導音マイクロホン1から出力される入力音響信号が雑音特徴推定部8を経て入力される。
In addition to the time information assumed to be the above-described speech section, an input acoustic signal output from the air conduction microphone 1 is input to the speech
また、雑音特徴推定部8を経由して雑音キャンセル部1で雑音キャンセル処理された後の信号も入力される。 Further, the signal after the noise cancellation processing by the noise cancellation unit 1 is also input via the noise feature estimation unit 8.
音声区間検出部7では、これら3種類の情報及び信号を用いて、マイクロホン装着者の正しい音声区間を検出する。
The
上記したように、判定部6から出力される音声区間の時刻情報は、語頭の子音などの区間を含まない可能性があることから、当該時刻よりも例えば30フレーム(=300m秒)前の時点から音声区間検出処理を開始するなどの制御を行う。したがって、音声区間検出部7内に、入力音響信号を例えば30フレーム分格納する記憶領域を内蔵している。音声区間検出部7では、開始フレーム毎に雑音キャンセル前の入力音響信号と雑音キャンセル後の入力音響信号の両方を用い、例えばフレーム毎のパワー、周波数パターンに基づき、当該フレームがマイクロホン装着者の発声した音声に該当するかどうかを判定する。
As described above, since the time information of the speech section output from the
音声に該当すると判定されたフレームは、音声開始フレームから逐次、音声終了フレームまで音声認識装置に送られ、音声認識のための特徴抽出及び音声認識処理が実行される。 Frames determined to correspond to speech are sequentially sent from the speech start frame to the speech end frame to the speech recognition device, and feature extraction and speech recognition processing for speech recognition are executed.
(6)雑音特徴推定部8
雑音特徴推定部8では、判定部6で当該フレームが音声区間と判定されるまで、雑音区間であるという判断のもとに、当該フレームの信号を雑音特徴推定に利用する。
(6) Noise feature estimation unit 8
The noise feature estimation unit 8 uses the signal of the frame for noise feature estimation based on the determination that the frame is a noise interval until the
具体的には、連続する雑音フレームが複数連続する続く場合、当該フレームより前の雑音特徴信号N(n−1)を、当該フレームの周波数特徴信号F(n)を用いてある更新係数αで更新することにより、当該フレームまでの雑音特徴信号N(n)とする。次のフレームが雑音フレームと判定された場合には、同様に更新する。つまり更新式は以下のようになる。 Specifically, when a plurality of continuous noise frames continue, the noise feature signal N (n−1) before the frame is changed by a certain update coefficient α using the frequency feature signal F (n) of the frame. By updating, the noise feature signal N (n) up to the frame is obtained. If the next frame is determined to be a noise frame, the same update is performed. In other words, the update formula is as follows.
N(n)=(1−α)・N(n−1)+α・F(n)
この雑音特徴信号は雑音キャンセル部9で利用される。
N (n) = (1-α) · N (n−1) + α · F (n)
This noise feature signal is used by the noise canceling unit 9.
(7)雑音キャンセル部9
雑音キャンセル部9では、雑音特徴推定部8から送られる推定された雑音特徴信号と、当該フレームが雑音なのか音声なのかの判定情報に基づき、音声フレームである場合には、気導音マイクロホン1から出力される入力信号から音声成分だけを抽出する処理を行う。
(7) Noise canceling unit 9
In the noise canceling unit 9, based on the estimated noise feature signal sent from the noise feature estimating unit 8 and determination information on whether the frame is noise or speech, if the frame is a speech frame, the air conduction microphone 1 To extract only the audio component from the input signal output from the.
例えば、スペクトルサブトラクション法などを用い、当該フレームの周波数特徴信号から、雑音特徴信号を引き算するなどの処理を行い、雑音成分をキャンセルし、音声成分だけを抽出する処理を行う。 For example, the spectral subtraction method or the like is used to perform processing such as subtracting the noise feature signal from the frequency feature signal of the frame, canceling the noise component, and extracting only the speech component.
この音声成分信号は音声区間検出で利用されると共に、音声区間検出部7を経由して、音声認識装置にも送られ、音声認識処理に利用される。
This voice component signal is used for voice section detection, and is also sent to the voice recognition device via the
(8)効果
本実施形態の音声検出装置100であると、周囲の背景雑音などの定常雑音や、人の話し声、電話音やクラクションなどの非定常雑音の影響を受けず、正確な音声区間検出が可能となり、ひいては音声認識性能を高めることが可能となる。
(8) Effects The
(9)変更例
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
(9) Modification Examples The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist thereof.
例えば、上記実施形態では、気導音マイクロホン1と骨伝導マイクロホン2の2本のマイクロホンを利用する場合について説明したが、これに代えて、無指向性の気導音マイクロホンと指向性の気導音マイクロホンと骨伝導マイクロホンの3本のマイクロホンを使用してもよい。この場合に音声か雑音かの判定は、複数の入力信号間の組み合わせの内、少なくとも過半数の組み合わせで相関があるとしたときに音声であると判定する。また、過半数の組み合わせで相関がないとしたときに雑音であると判定する。
For example, in the above embodiment, the case where two microphones, the air conduction sound microphone 1 and the
1 気導音マイクロホン
2 レベル判定部
3 骨伝導マイクロホン
4 レベル判定部
5 相関値計算部
6 判定部
7 音声区間検出部
8 雑音特徴推定部
9 雑音キャンセル部
DESCRIPTION OF SYMBOLS 1 Air conduction
Claims (6)
前記各マイクロホンからそれぞれ入力された入力信号の間の相関値を求める相関値計算手段と、
前記相関値により前記各入力信号の間に相関があるか否かを判定し、相関があると判定された時の時刻情報を出力する判定手段と、
前記時刻情報に基づいて相関があるとされた区間における前記各入力信号の中の一つの入力信号を音声信号として出力する音声区間検出手段と、
を有する
ことを特徴とする音声検出装置。 Multiple microphones with different characteristics,
Correlation value calculation means for obtaining a correlation value between input signals respectively input from the microphones;
A determination means for determining whether or not there is a correlation between the input signals based on the correlation value, and for outputting time information when it is determined that there is a correlation;
Voice section detecting means for outputting one input signal among the input signals in the section determined to be correlated based on the time information as a voice signal;
A voice detecting device characterized by comprising:
ことを特徴とする請求項1記載の音声検出装置。 The speech detection device according to claim 1, wherein at least two of the plurality of microphones are an air conduction microphone and a bone conduction microphone.
ことを特徴とする請求項2記載の音声検出装置。 The voice detection device according to claim 2, wherein the input signal output as a voice signal in the voice section means is an input signal of the air conduction microphone.
ことを特徴とする請求項3記載の音声検出装置。 The voice detection device according to claim 3, further comprising noise canceling means for removing noise from the input signal of the air conduction microphone and outputting the removed input signal to the voice section detection means.
前記雑音キャンセル手段は、前記雑音特徴信号に基づいて前記気導音マイクロホンの入力信号の雑音を除去する
ことを特徴とする請求項4記載の音声検出装置。 Noise feature estimation means for estimating a noise feature signal from an input signal of the air conduction microphone in a section determined to have no correlation in the determination means;
The voice detection device according to claim 4, wherein the noise cancellation unit removes noise from an input signal of the air conduction microphone based on the noise characteristic signal.
前記相関値により前記各入力信号の間に相関があるか否かを判定し、相関があると判定された時の時刻情報を出力し、
前記時刻情報に基づいて相関があるとされた区間における前記各入力信号の中の一つの入力信号を音声信号として出力する
ことを特徴とする音声検出方法。
Find the correlation value between the input signals respectively input from multiple microphones with different characteristics,
It is determined whether there is a correlation between the input signals by the correlation value, and outputs time information when it is determined that there is a correlation,
A voice detection method, wherein one input signal among the input signals in a section that is correlated based on the time information is output as a voice signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006086607A JP2007264132A (en) | 2006-03-27 | 2006-03-27 | Voice detection device and its method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006086607A JP2007264132A (en) | 2006-03-27 | 2006-03-27 | Voice detection device and its method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007264132A true JP2007264132A (en) | 2007-10-11 |
Family
ID=38637207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006086607A Abandoned JP2007264132A (en) | 2006-03-27 | 2006-03-27 | Voice detection device and its method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007264132A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012231468A (en) * | 2011-04-26 | 2012-11-22 | Parrot | Combined microphone and earphone audio headset having means for denoising near speech signal, in particular for "hands-free" telephony system |
CN111354356A (en) * | 2018-12-24 | 2020-06-30 | 北京搜狗科技发展有限公司 | Voice data processing method and device |
CN111988702A (en) * | 2020-08-25 | 2020-11-24 | 歌尔科技有限公司 | Audio signal processing method, electronic device and storage medium |
-
2006
- 2006-03-27 JP JP2006086607A patent/JP2007264132A/en not_active Abandoned
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012231468A (en) * | 2011-04-26 | 2012-11-22 | Parrot | Combined microphone and earphone audio headset having means for denoising near speech signal, in particular for "hands-free" telephony system |
CN111354356A (en) * | 2018-12-24 | 2020-06-30 | 北京搜狗科技发展有限公司 | Voice data processing method and device |
CN111354356B (en) * | 2018-12-24 | 2024-04-30 | 北京搜狗科技发展有限公司 | Voice data processing method and device |
CN111988702A (en) * | 2020-08-25 | 2020-11-24 | 歌尔科技有限公司 | Audio signal processing method, electronic device and storage medium |
CN111988702B (en) * | 2020-08-25 | 2022-02-25 | 歌尔科技有限公司 | Audio signal processing method, electronic device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6034793B2 (en) | Audio signal generation system and method | |
JP5622744B2 (en) | Voice recognition device | |
TWI398855B (en) | Multiple microphone voice activity detector | |
JP5870476B2 (en) | Noise estimation device, noise estimation method, and noise estimation program | |
US9959886B2 (en) | Spectral comb voice activity detection | |
JP4825552B2 (en) | Speech recognition device, frequency spectrum acquisition device, and speech recognition method | |
JP2012189907A (en) | Voice discrimination device, voice discrimination method and voice discrimination program | |
JP6206271B2 (en) | Noise reduction apparatus, noise reduction method, and noise reduction program | |
JP5251808B2 (en) | Noise removal device | |
JP2007264132A (en) | Voice detection device and its method | |
CN113767431A (en) | Speech detection | |
US11057721B2 (en) | Own voice detection in hearing instrument devices | |
KR101811716B1 (en) | Method for voice recognition and apparatus for voice recognition thereof | |
JP4752028B2 (en) | Discrimination processing method for non-speech speech in speech | |
JP2005303574A (en) | Voice recognition headset | |
JP2009089133A (en) | Sound emission and collection device | |
JP6106618B2 (en) | Speech section detection device, speech recognition device, method thereof, and program | |
JP6638248B2 (en) | Audio determination device, method and program, and audio signal processing device | |
KR20100056859A (en) | Voice recognition apparatus and method | |
JP3588929B2 (en) | Voice recognition device | |
JP5339849B2 (en) | Speech intelligibility improving method and speech intelligibility improving system | |
JP6361360B2 (en) | Reverberation judgment device and program | |
JPH10290498A (en) | Hearing aid having speech speed conversion function | |
JP2003216180A (en) | Speech recognition device and its method | |
JP2011070084A (en) | Sound/soundless determination device, sound/soundless determination method, and sound/soundless determination program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070925 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20100204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100215 |