JP2000338993A - Voice recognition device and navigation system using this device - Google Patents

Voice recognition device and navigation system using this device

Info

Publication number
JP2000338993A
JP2000338993A JP11146648A JP14664899A JP2000338993A JP 2000338993 A JP2000338993 A JP 2000338993A JP 11146648 A JP11146648 A JP 11146648A JP 14664899 A JP14664899 A JP 14664899A JP 2000338993 A JP2000338993 A JP 2000338993A
Authority
JP
Japan
Prior art keywords
recognition
dictionary
command
voice
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11146648A
Other languages
Japanese (ja)
Other versions
JP4258890B2 (en
Inventor
Taichi Sato
太一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP14664899A priority Critical patent/JP4258890B2/en
Publication of JP2000338993A publication Critical patent/JP2000338993A/en
Application granted granted Critical
Publication of JP4258890B2 publication Critical patent/JP4258890B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform a command input even if a user does not precisely memorize a command to improve the user-friendliness by storing a word dictionary data having the corresponding relation to each key word in a dictionary means. SOLUTION: A voice data inputted through a microphone 31 is outputted from an input signal processing part 32 to a recognition processing part 33. The recognition processing part 33 performs a collation by use of a dictionary data set in a dictionary management part 34 to execute a recognition processing. A word dictionary data having the corresponding relation to each key word is stored in the dictionary stored in the directionary management part 34. A recognition control part 35 performs the set of a key word related dictionary when the function of a navigation system cannot be driven from the recognition result, and retrieves operable commands from the key word relation. The retrieved operable commands are notified to an operation control part 15 and displayed on a display. A user selects the one desired by him from the operable commands and sounds it again.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばナビゲーシ
ョンシステムにおける目的地の設定などを音声によって
入力できるようにする場合などに有効な音声認識装置及
びその音声認識装置を備えたナビゲーションシステムに
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech recognition apparatus which is effective for, for example, enabling a destination setting or the like in a navigation system to be input by speech, and a navigation system having the speech recognition apparatus.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】従来よ
り、入力された音声を予め記憶されている複数の比較対
象パターン候補と比較し、一致度合の高いものを認識結
果とする音声認識装置が既に実用化されており、例えば
ナビゲーションシステムにおいて表示されている地図の
拡大や縮小の指示、目的地の設定、経路の設定など、所
定のコマンドを利用者が音声で指示入力するためなどに
用いられている。特に車載ナビゲーションシステムを運
転手自身が利用する場合、音声入力であればボタン操作
や画面注視が伴わないため、車両の走行中に行っても安
全性が高いため有効である。
2. Description of the Related Art Conventionally, there has been proposed a speech recognition apparatus which compares an inputted speech with a plurality of pattern candidates to be compared which are stored in advance and determines a speech having a high degree of coincidence as a recognition result. It has already been put into practical use, and is used by a user to input a predetermined command by voice, such as an instruction to enlarge or reduce a map displayed in a navigation system, a destination setting, a route setting, and the like. ing. In particular, when the driver uses the in-vehicle navigation system, voice input does not involve button operation or screen gaze, so that it is effective because the safety is high even when the vehicle is running.

【0003】例えば、目的地設定の具体例として、目的
地を名古屋駅に設定するコマンドを指示入力するために
「名古屋駅に行く」という音声入力が必要な場合を考え
る。この場合に、「名古屋駅」、「に」、「行く」とい
うように単語を基本とした所定単位毎に区切って発音し
なくてはならないとすると利用者にとって煩わしいの
で、コマンド単位、すなわち「名古屋駅に行く」とひと
続きで入力(一括入力)できるようにすることが考えら
れている。この場合には、認識辞書中に「名古屋駅に行
く」というコマンド単位での辞書が設けられている。
For example, as a specific example of setting a destination, consider a case where a voice input of "go to Nagoya Station" is required to instruct and input a command for setting a destination to Nagoya Station. In this case, it is troublesome for the user to have to pronounce each predetermined unit based on words such as “Nagoya Station”, “Ni”, and “Go”. Going to the station "is being considered. In this case, a dictionary for each command “go to Nagoya Station” is provided in the recognition dictionary.

【0004】しかしながら、音声認識においては、辞書
に登録されていない単語は認識されないため、上述した
コマンドを正確に入力しなくては所望の動作を指示する
ことができない。もちろん、ユーザがコマンドを正確に
入力できれば問題ないが、コマンド内容が複雑多岐にわ
たると、それらを覚えきれない状況も想定される。その
場合、その都度、説明書などを参照しなくてはならない
のでは非常に不便である。
However, in speech recognition, words that are not registered in the dictionary are not recognized, so that a desired operation cannot be instructed without correctly inputting the above-mentioned command. Of course, there is no problem if the user can input commands correctly, but if the contents of commands are complicated and diverse, there may be situations in which they cannot be remembered. In such a case, it is very inconvenient to refer to a manual or the like each time.

【0005】そこで本発明は、このような問題を解決
し、利用者がコマンドを正確に覚えていなくても、その
コマンド内容の主要な部分さえ音声入力できれば、それ
をきっかけとして最終的なコマンド入力ができるように
して、使い勝手をより向上させた音声認識装置を提供す
ることを目的とする。
Accordingly, the present invention solves such a problem. Even if the user does not memorize the command accurately, if only the main part of the command content can be input by voice, the final command input is triggered by that. It is an object of the present invention to provide a speech recognition device with improved usability.

【0006】そして、その音声認識装置を用いたナビゲ
ーションシステムを提供することも目的とする。
It is another object of the present invention to provide a navigation system using the voice recognition device.

【0007】[0007]

【課題を解決するための手段及び発明の効果】上記目的
を達成するためになされた請求項1に記載の音声認識装
置は、辞書手段が、単語毎に対応する比較対象パターン
を単語辞書データとして記憶しており、利用者が音声入
力手段を介して音声を入力すると、認識手段が、その入
力された音声を辞書手段に記憶されている複数の比較対
象パターン候補と比較して一致度合の高いものを認識結
果とする。そして、認識制御手段は、少なくとも認識手
段による認識結果を外部装置へ出力する。
Means for Solving the Problems and Effects of the Invention In order to achieve the above object, according to the first aspect of the present invention, in the speech recognition apparatus, the dictionary means uses a comparison target pattern corresponding to each word as word dictionary data. When the user inputs a voice through the voice input unit, the recognition unit compares the input voice with a plurality of comparison target pattern candidates stored in the dictionary unit and has a high matching degree. The thing is regarded as the recognition result. Then, the recognition control unit outputs at least a recognition result obtained by the recognition unit to the external device.

【0008】ここで、前記辞書手段は、外部装置にて実
行する機能を特定する上で必要なコマンド内容を操作対
象コマンド及び操作詳細コマンドという2種類のキーワ
ードに分割した場合の各キーワード間の対応関係を持た
せて、単語辞書データを記憶している。操作対象コマン
ドは、操作の対象を特定するためのコマンドであり、概
念的には「何々をどうする」の「何々」に相当する。一
方、操作詳細コマンドは、その操作対象が行う内容を特
定するためのコマンドであり、概念的には「何々をどう
する」の「どうする」に相当する。但し、その分類手法
は種々考えられ、例えばナビゲーション関連で言えば、
「名古屋駅(という地名)」を操作対象コマンドとし、
「行く」を操作詳細コマンドとする一般的なものもあれ
ば、さらに「VICS表示」という一見、操作対象コマ
ンドと操作詳細コマンドとが合体しているようなキーワ
ードも操作対象コマンドとして扱うこともできる。この
「VICS表示」という操作対象コマンドに対して、例
えば「渋滞表示」、「空き道表示」、「駐車場表示」と
いった複数の操作詳細コマンドを対応させることができ
る。
[0008] Here, the dictionary means is adapted to divide a command content necessary for specifying a function to be executed by an external device into two types of keywords, ie, an operation target command and an operation detail command, and correspond to each keyword. Word dictionary data is stored with a relationship. The operation target command is a command for specifying an operation target, and conceptually corresponds to “what” of “what to do”. On the other hand, the operation detailed command is a command for specifying the content to be performed by the operation target, and conceptually corresponds to “what to do” of “what to do”. However, various classification methods are conceivable. For example, in terms of navigation,
"Nagoya Station (place name)" is the operation target command,
There is a general command that uses “go” as an operation detail command, and a seemingly “VICS display” keyword in which an operation target command and an operation detail command are combined can also be treated as an operation detail command. . A plurality of operation details commands such as “display traffic jam”, “display empty road”, and “display parking lot” can be associated with the operation target command “display VICS”.

【0009】そして、認識制御手段中の判断手段は、認
識手段による認識結果のみで外部装置の機能を実行可能
か否かを判断し、外部装置の機能が実行可能であると判
断された場合は、当該認識結果のみを外部装置へ出力す
る。一方、実行不可能であると判断された場合は、辞書
手段におけるキーワード間の対応関係に基づき、認識結
果と対応関係にある操作対象コマンドあるいは操作詳細
コマンドを抽出する。例えば、外部装置がナビゲーショ
ン装置で、上述例の「VICS表示」が音声入力された
場合には、それだけでは機能駆動できないので、「VI
CS表示」という操作対象コマンドと対応関係にある操
作詳細コマンド(例えば上述した「渋滞表示」、「空き
道表示」、「駐車場表示」など)を抽出する。そして、
音声認識装置自らが有する報知手段を介して利用者に報
知するか、あるいは外部装置が有する報知手段を介し利
用者に報知させるために外部装置へ指示する。
The determination means in the recognition control means determines whether or not the function of the external device can be executed only by the recognition result by the recognition means. If it is determined that the function of the external device can be executed, And outputs only the recognition result to the external device. On the other hand, if it is determined that the command cannot be executed, an operation target command or an operation detailed command corresponding to the recognition result is extracted based on the correspondence between the keywords in the dictionary unit. For example, when the external device is a navigation device and the “VICS display” in the above example is input by voice, the function cannot be driven by itself, so “VIS display” is used.
An operation detailed command (for example, the above-described “congestion display”, “vacant road display”, “parking lot display”, etc.) corresponding to the operation target command “CS display” is extracted. And
Either the user is notified via the notification means of the voice recognition device itself, or an instruction is given to the external device to notify the user via the notification means of the external device.

【0010】この報知手段としては、表示にて報知する
ものを用いることが考えられる。もちろん、音声その他
の報知手法を採用してもよいが、上述したように複数の
対応する操作詳細コマンドがある場合には、それらを一
覧表示して、その中から利用者が選択し易くすることが
好ましい。
It is conceivable to use a means for notifying by display as the notifying means. Of course, a voice or other notification method may be adopted. However, when there are a plurality of corresponding operation detailed commands as described above, a list thereof is displayed to make it easier for the user to select from the list. Is preferred.

【0011】なお、操作詳細コマンドから逆に操作対象
コマンドを辿ることもできる。例えば上述した「駐車場
表示」という操作詳細コマンドに分類されるキーワード
が音声入力された場合、対応関係を逆にたどれば、駐車
場表示の対象として「VICS情報として提供される駐
車場情報の表示」なのか、「レストランに完備されてい
る駐車場」の表示なのか、「現在地周辺に存在する駐車
場」の表示なのか、などが判る。したがって、これらを
同様に一覧表示するなどして利用者に報知すればよい。
The operation target command can be traced in reverse from the operation detailed command. For example, if a keyword classified as the above-described operation detail command “parking lot display” is input by voice, if the correspondence is traced in reverse, “parking lot information provided as VICS information” Whether the display is "display", "parking space fully equipped in a restaurant", or "parking near the current location" is displayed. Therefore, it is sufficient to notify the user by displaying them in a list in the same manner.

【0012】このように、本発明の音声認識装置によれ
ば、操作対象コマンドあるいは操作詳細コマンドのいず
れか一方が利用者によって音声入力された場合、対応関
係にある操作詳細コマンドあるいは操作対象コマンドを
報知するため、その報知結果を認知した利用者は、所望
のコマンドを再度入力することができる。つまり、利用
者は、コマンドを正確に覚えていなくても、そのコマン
ド内容の主要な部分さえ音声入力できれば、それをきっ
かけとして最終的なコマンド入力ができるため、使い勝
手がより向上する。
As described above, according to the voice recognition device of the present invention, when one of the operation target command and the operation detail command is input by voice by the user, the corresponding operation detail command or operation target command is output. To notify the user, the user who has recognized the notification result can input a desired command again. In other words, even if the user does not memorize the command accurately, if only the main part of the command content can be input by voice, the user can input the final command as a trigger, thereby improving usability.

【0013】なお、判断手段が認識手段による認識結果
のみで外部装置の機能を実行可能か否かを判断する場合
には、請求項2に示すように、外部装置の状態に基づい
て判断することが考えられる。例えば、外部装置がナビ
ゲーション装置であり、VICS情報を提供するモード
に設定されている場合には、上述した「駐車場表示」と
いう操作詳細コマンドだけが音声入力されても、操作対
象がVICS表示となっているため、そのまま機能駆動
できると判断される。同様に、ナビゲーション装置が目
的地設定モードとなっていれば、「名古屋駅」という操
作対象コマンドのみで機能駆動が可能であると判断され
る。
When the determining means determines whether or not the function of the external device can be executed only by the recognition result by the recognizing means, the determination is made based on the state of the external device. Can be considered. For example, when the external device is a navigation device and is set to a mode for providing VICS information, even if only the operation detailed command of “display parking lot” described above is input by voice, the operation target is set to VICS display. Therefore, it is determined that the function can be driven as it is. Similarly, if the navigation device is in the destination setting mode, it is determined that the function can be driven only by the operation target command “Nagoya Station”.

【0014】また、認識制御手段は、認識結果のみで外
部装置の機能を実行不可能である場合に、辞書手段にお
けるキーワード間の対応関係に基づき、認識結果と対応
関係にある操作対象コマンドあるいは操作詳細コマンド
を抽出するのであるが、この際、請求項3に示すよう
に、認識制御手段が備える辞書管理手段によって次のよ
うな辞書管理を行っても良い。つまり、辞書手段に記憶
されている単語辞書データの内、キーワード間の対応関
係に基づいて抽出した操作対象コマンドあるいは操作詳
細コマンドに対応する単語辞書データのみを、認識手段
における認識の際の単語辞書データとして有効にする辞
書絞り込みを行うのである。このようにすれば、再度の
音声入力に対する誤認識が少なくなり、より適切な音声
認識を実現できる。
When the function of the external device cannot be executed only by the recognition result, the recognition control means operates the command or the operation target corresponding to the recognition result based on the correspondence between the keywords in the dictionary means. The detailed command is extracted. At this time, the following dictionary management may be performed by the dictionary management unit provided in the recognition control unit. That is, of the word dictionary data stored in the dictionary means, only the word dictionary data corresponding to the operation target command or the operation detail command extracted based on the correspondence relationship between the keywords is recognized by the recognition means. The dictionary to be validated as data is narrowed down. In this way, erroneous recognition for a second speech input is reduced, and more appropriate speech recognition can be realized.

【0015】なお、辞書管理手段が辞書の絞り込みを行
った場合、その後、通常の音声認識をする場合には適切
な単語辞書データでなくなるので、請求項4に示すよう
に、認識手段による認識結果のみで外部装置の機能を実
行可能であると判断手段にて判断された場合には、辞書
絞り込みを解除するようにすればよい。
If the dictionary management means narrows down the dictionary and then performs normal speech recognition, the data is not appropriate word dictionary data. When it is determined that the function of the external device can be executed only by the determination unit, the dictionary narrowing may be canceled.

【0016】ところで、請求項1〜4のいずれかに記載
の音声認識装置をナビゲーションシステム用として用い
る場合には、請求項5に示すように構成することが考え
られる。つまり、請求項1〜4のいずれかに記載の音声
認識装置と、ナビゲーション装置とを備え、音声認識装
置の音声入力手段を、少なくともナビゲーション装置が
ナビゲート処理をする上で指定される必要のある所定の
ナビゲート処理関連データの指示を利用者が音声にて入
力するために用いるのである。
When the speech recognition device according to any one of claims 1 to 4 is used for a navigation system, it is conceivable that the speech recognition device is configured as shown in claim 5. In other words, the voice recognition device according to any one of claims 1 to 4 and a navigation device are provided, and the voice input means of the voice recognition device needs to be specified at least when the navigation device performs a navigation process. This is used for the user to input an instruction of predetermined navigation processing-related data by voice.

【0017】この場合の「所定のナビゲート処理関連デ
ータ」としては、目的地が代表的なものとして挙げら
れ、その目的地としては、地名そのものである場合もあ
るし、あるいは施設や店舗名などの場合もある。また、
それ以外にもルート探索に関する条件選択や、上述した
VICS表示など、ナビゲート処理をする上で指定の必
要のある種々の指示が含まれる。
In this case, the "predetermined navigation processing-related data" may be a typical destination. The destination may be a place name itself, or a facility or store name. In some cases. Also,
In addition, various instructions that need to be specified in performing the navigation process, such as selection of conditions related to route search and the above-described VICS display, are included.

【0018】特に請求項6に示すように、一般的なナビ
ゲーション装置は表示装置に地図やメニューを表示可能
であるため、その表示装置を、音声認識装置からの報知
指示に応じて操作対象コマンドあるいは操作詳細コマン
ドを報知するための報知手段として機能させることが考
えられる。このようにすれば、音声認識装置自体が報知
手段を持たなくてもよい。
Particularly, since a general navigation device can display a map or a menu on a display device, the general navigation device can display an operation target command or a command in response to a notification instruction from a voice recognition device. It is conceivable to make it function as a notifying means for notifying the operation detailed command. In this case, the voice recognition device itself does not need to have the notification unit.

【0019】[0019]

【発明の実施の形態】以下、本発明が適用された実施例
について図面を用いて説明する。なお、本発明の実施の
形態は、下記の実施例に何ら限定されることなく、本発
明の技術的範囲に属する限り、種々の形態を採り得るこ
とは言うまでもない。
Embodiments of the present invention will be described below with reference to the drawings. It is needless to say that the embodiments of the present invention are not limited to the following examples, and can take various forms as long as they belong to the technical scope of the present invention.

【0020】図1は音声認識装置30を適用した車載用
のナビゲーションシステム1の概略構成を示すブロック
図である。本ナビゲーションシステム1は、音声認識装
置30と機構スイッチ2とリモコンスイッチ3とからな
る操作スイッチ部4、その操作スイッチ部4からの操作
状況などを入力し、ナビゲーションシステム全体の制御
を行う操作制御部5、自車両現在位置を算出するための
現在位置算出部6、ユーザの設定した目的地に基づき目
的地までの適切なルート(推奨ルート)を算出する経路
計算部7、経路計算部7にて計算された推奨ルートに基
づき、車両の運転を円滑に進めるために必要な案内を音
声や簡易地図などでユーザに提供する制御処理を行う案
内制御部8、地図データ検索部9、外部情報入出力装置
10、音声出力制御部11,スピーカ12、表示制御部
13及びディスプレイ14を備えている。なお操作制御
部5は通常のコンピュータとして構成されており、内部
には、周知のCPU、ROM、RAM、I/O及びこれ
らの構成を接続するバスラインが備えられている。
FIG. 1 is a block diagram showing a schematic configuration of an on-vehicle navigation system 1 to which the voice recognition device 30 is applied. The navigation system 1 includes an operation switch unit 4 including a voice recognition device 30, a mechanism switch 2, and a remote control switch 3, and an operation control unit that inputs an operation state and the like from the operation switch unit 4 and controls the entire navigation system. 5. Current position calculation unit 6 for calculating the current position of the vehicle, route calculation unit 7 for calculating an appropriate route (recommended route) to the destination based on the destination set by the user, and route calculation unit 7 Based on the calculated recommended route, a guidance control unit 8, which performs a control process of providing a user with guidance necessary for smooth driving of the vehicle by voice or a simple map, a map data search unit 9, external information input / output The apparatus includes a device 10, an audio output control unit 11, a speaker 12, a display control unit 13, and a display 14. The operation control unit 5 is configured as a normal computer, and includes a well-known CPU, ROM, RAM, I / O, and a bus line for connecting these components.

【0021】前記現在位置算出部6は、例えばいずれも
周知のジャイロスコープ、距離センサ及び衛星からの電
波に基づいて車両の位置を検出するGPS(Global Pos
itioning System )のためのGPS受信機を有してい
る。これらのセンサ等は各々が性質の異なる誤差を持っ
ているため、複数のセンサにより、各々補間しながら使
用するように構成されている。なお、精度によっては上
述した内の一部で構成してもよく、更に、地磁気セン
サ、ステアリングの回転センサ、各転動輪の車輪センサ
等を用いてもよい。
The current position calculating section 6 detects a vehicle position based on radio waves from a well-known gyroscope, a distance sensor and a satellite, for example.
), and a GPS receiver for the itioning system). Since each of these sensors and the like has an error having a different property, a plurality of sensors are used while interpolating each other. It should be noted that depending on the accuracy, it may be constituted by a part of the above, and furthermore, a geomagnetic sensor, a rotation sensor for steering, a wheel sensor for each rolling wheel, or the like may be used.

【0022】地図データ検索部9は、位置検出の精度向
上のためのいわゆるマップマッチング用データ、地図デ
ータ及び目印データを含む各種データを入力するための
装置である。媒体としては、そのデータ量からCD−R
OMやDVDを用いるのが一般的であるが、メモリカー
ド等の他の媒体を用いても良い。
The map data search unit 9 is a device for inputting various data including so-called map matching data, map data and landmark data for improving the accuracy of position detection. As a medium, CD-R
Generally, an OM or a DVD is used, but another medium such as a memory card may be used.

【0023】一方、外部情報入出力装置10は、図示し
ないラジオアンテナを介してFM放送信号を受信した
り、道路近傍に配置されたVICS(Vehicle Informat
ion and Communication System:道路交通情報システ
ム)サービス用の固定局から、電波ビーコン信号及び光
ビーコン信号を受信する。この受信した情報は操作制御
部5へ送られて処理される。また、外部へ情報を発信で
きるようにもされている。
On the other hand, the external information input / output device 10 receives an FM broadcast signal via a radio antenna (not shown), or a VICS (Vehicle Information Format) disposed near a road.
ion and Communication System) Receives a radio beacon signal and an optical beacon signal from a fixed station for service. The received information is sent to the operation control unit 5 and processed. In addition, information can be transmitted to the outside.

【0024】ディスプレイ14は例えばカラーディスプ
レイで構成されており、その画面には、現在位置算出部
6から入力された車両現在位置マークと、地図データ検
索部9より入力された地図データと、更に地図上に表示
する誘導経路や後述する設定地点の目印等の付加データ
とを重ねて表示することができる。
The display 14 is constituted by, for example, a color display. The screen displays a vehicle current position mark input from the current position calculation unit 6, a map data input from the map data search unit 9, and a map data. It is possible to superimpose and display additional data such as a guidance route displayed above and a mark of a set point described later.

【0025】機構スイッチ2は、例えば、ディスプレイ
14と一体になったタッチスイッチもしくはメカニカル
なスイッチ等が用いられ、経路計算のための目的地や各
種入力に使用される。また、リモコンスイッチ3を介し
ても機構スイッチ2と同じ指示入力をすることができる
ようにされている。そして、音声認識装置30は、上記
機構スイッチ2あるいはリモコンスイッチ3が手動操作
により目的地などを指示するために用いられるのに対し
て、ユーザが音声で入力することによっても同様に目的
地などを指示することができるようにするための装置で
ある。なお、操作スイッチ部4としては、必ずしもこれ
ら音声認識装置30、機構スイッチ2及びリモコンスイ
ッチ3の全てを備えていなくてはならないということは
なく、どれか一つだけでも所望の指示入力は可能である
が、本実施例では利便性を考えて3つを併有するものと
する。
As the mechanism switch 2, for example, a touch switch or a mechanical switch integrated with the display 14 is used, and is used for a destination for route calculation and various inputs. Further, the same instruction input as that of the mechanism switch 2 can be input via the remote control switch 3. In the voice recognition device 30, the mechanism switch 2 or the remote control switch 3 is used to manually specify a destination or the like, whereas the user can similarly input a destination by voice. This is a device that allows the user to give an instruction. Note that the operation switch unit 4 does not necessarily have to include all of the voice recognition device 30, the mechanism switch 2, and the remote control switch 3, and any one of them can input a desired instruction. However, in the present embodiment, it is assumed that three are provided for convenience.

【0026】次に、この操作スイッチ部4の一部を構成
する音声認識装置30について、図2を参照してさらに
詳しく説明する。音声認識装置30は、「音声入力手
段」としてのマイク31と、マイク31を介して入力し
た音声信号をA/D変換などによってデータ処理可能な
形態に変換処理する入力信号処理部32と、「認識手
段」としての認識処理部33と、「辞書手段」及び「辞
書管理手段」としての辞書管理部34と、「認識制御手
段」としての認識制御部35とを備えている。
Next, the speech recognition device 30 constituting a part of the operation switch section 4 will be described in more detail with reference to FIG. The voice recognition device 30 includes a microphone 31 as “voice input means”, an input signal processing unit 32 that converts a voice signal input via the microphone 31 into a form capable of data processing by A / D conversion or the like, and “ A recognition processing unit 33 as a "recognition unit", a dictionary management unit 34 as a "dictionary unit" and a "dictionary management unit", and a recognition control unit 35 as a "recognition control unit" are provided.

【0027】なお、図2には図示していないが、本実施
例における音声入力方法は、ユーザがPTT(Push-To-
Talk)スイッチを押しながらマイク31を介して音声を
入力するという使用方法である。具体的には、入力信号
処理部32はPTTスイッチが押されたかどうかを判断
しており、PTTスイッチが押されている場合にはマイ
ク31を介しての音声入力処理を実行するが、押されて
いない場合にはその音声入力処理を実行しないようにし
ている。したがって、PTTスイッチが押されている間
にマイク31を介して入力された音声データのみが認識
処理部33へ出力されることとなる。
Although not shown in FIG. 2, the voice input method according to the present embodiment uses a PTT (Push-To-
Talk) inputting a voice via the microphone 31 while pressing the switch. Specifically, the input signal processing unit 32 determines whether or not the PTT switch has been pressed. If the PTT switch has been pressed, the input signal processing unit 32 executes a voice input process via the microphone 31. If not, the voice input process is not executed. Therefore, only the voice data input via the microphone 31 while the PTT switch is pressed is output to the recognition processing unit 33.

【0028】認識処理部33は、入力信号処理部32か
ら入力された音声データを、設定された辞書データ中に
比較対象パターン候補と比較して一致度の高い上位比較
対象パターンを認識制御部35へ出力する。入力音声中
の単語系列の認識は、入力信号処理部32から入力され
た音声データを順次音響分析して音響的特徴量(例えば
ケプストラム)を抽出し、この音響分析によって得られ
た音響的特徴量時系列データを得る。そして、周知のD
Pマッチング法によって、この時系列データをいくつか
の区間に分け、各区間が辞書データとして格納されたど
の単語に対応しているかを求める。
The recognition processing unit 33 compares the voice data input from the input signal processing unit 32 with the comparison target pattern candidates in the set dictionary data, and determines a higher comparison target pattern having a high degree of coincidence with the recognition control unit 35. Output to The recognition of the word sequence in the input speech is performed by sequentially performing acoustic analysis on the speech data input from the input signal processing unit 32 to extract an acoustic feature (for example, cepstrum), and the acoustic feature obtained by the acoustic analysis. Get time series data. And the well-known D
This time series data is divided into several sections by the P matching method, and it is determined which word each section corresponds to stored in the dictionary data.

【0029】なお、認識処理部33から認識制御部35
に出力される認識結果は1つとは限らない。例えば認識
処理部33における類似判定結果の上位複数の語彙、あ
るいは認識された複数の語彙のこともある。音声認識技
術は、登録された認識対象語と取り込まれた音声のパタ
ーンマッチングであるため、一致度の高いものを認識結
果として複数出力するのが一般的である。また、認識処
理部33から認識制御部35へは、各認識結果に「認識
度」をセットにして出力される。例えば都道府県名を認
識辞書とした場合、「ワカヤマケン」と「オカヤマケ
ン」のパターンが似ていれば、「岡山県」というユーザ
の発声に対して上記2つが認識結果として出力されるこ
ともあるが、その場合に、「ワカヤマケン」は90%、
「オカヤマケン」は80%といった具合である。なお、
この具体的数値は実際の認識度を表したものではなく、
説明の便宜上用いたものにすぎない。
It should be noted that the recognition processing unit 33 switches the recognition control unit 35
Is not necessarily one. For example, there may be a plurality of vocabulary words ranked higher in the similarity determination result in the recognition processing unit 33 or a plurality of recognized vocabulary words. Since the voice recognition technology is a pattern matching between a registered recognition target word and a fetched voice, it is common to output a plurality of words having a high degree of matching as a recognition result. In addition, the recognition processing unit 33 outputs to the recognition control unit 35 a "recognition degree" set for each recognition result. For example, when a prefecture name is used as a recognition dictionary, if the patterns of "Wakayamaken" and "Okayamaken" are similar, the above two may be output as a recognition result in response to a user utterance of "Okayama Prefecture". In that case, "Wakayamaken" is 90%,
"Okayamaken" is 80%. In addition,
This specific number does not represent the actual recognition level,
It is used only for convenience of explanation.

【0030】そして、認識制御部35は、その認識結果
を操作制御部5へ出力し、逆に操作制御部5からは状態
を取得する。この状態とは、ナビゲーションシステム1
が現時点でどのような設定状態にあるのかなどを取得す
る。そして、その取得した状態に基づき、認識処理部3
3からの認識結果にてナビゲーション機能の駆動が可能
かどうかを判断する。
Then, the recognition control unit 35 outputs the recognition result to the operation control unit 5, and acquires the state from the operation control unit 5. This state means that the navigation system 1
Gets the setting status of the current state. Then, based on the acquired state, the recognition processing unit 3
It is determined whether or not the navigation function can be driven based on the recognition result from 3.

【0031】また、認識制御部35は、辞書管理部34
に対し、認識結果に対応する操作候補を要求する。ここ
で、辞書管理部34に記憶されている辞書について説明
する。この辞書には、ナビゲーション機能を駆動する上
で必要なコマンド内容を、操作対象コマンド及び操作詳
細コマンドという2種類のキーワードに分割した場合の
各キーワード間の対応関係を持たせた単語辞書データが
記憶されている。具体的には、図3(b)に示すよう
に、操作対象コマンドとして、地図表示、VICS表
示、レストラン表示、駅表示、到着予想時刻表示、目的
地表示、検索画面表示、周辺施設表示などがある。一
方、操作詳細コマンドとしては、渋滞表示、空き道表
示、規制表示、駐車場表示、全道路表示、高速限定、一
般限定などがある。図3(b)においては、VICS表
示と、上述した地図表示、VICS表示、レストラン表
示などが対応関係にあることを示しているが、同様に、
他の操作対象コマンドである地図表示やレストラン表示
などにあっても、それぞれ対応関係が設定されている。
当然ながら、操作詳細コマンドの駐車場表示は、操作対
象コマンドのVICS表示だけでなく、レストラン表示
や周辺施設表示との間にも対応関係がある。
The recognition control unit 35 includes a dictionary management unit 34
Request an operation candidate corresponding to the recognition result. Here, the dictionary stored in the dictionary management unit 34 will be described. This dictionary stores word dictionary data having a correspondence relationship between each keyword when command contents necessary for driving the navigation function are divided into two types of keywords, an operation target command and an operation detail command. Have been. Specifically, as shown in FIG. 3B, the operation target commands include a map display, a VICS display, a restaurant display, a station display, an estimated arrival time display, a destination display, a search screen display, a peripheral facility display, and the like. is there. On the other hand, detailed operation commands include traffic jam display, empty road display, regulation display, parking lot display, all road display, high speed limitation, general limitation, and the like. FIG. 3B shows that the VICS display corresponds to the above-described map display, VICS display, restaurant display, and the like.
Correspondence is set for each of the other operation target commands such as map display and restaurant display.
As a matter of course, the parking lot display of the operation detailed command has a correspondence relationship not only with the VICS display of the operation target command but also with the restaurant display and the peripheral facility display.

【0032】辞書管理部34は、認識制御部35から認
識結果に対応する操作候補を要求された場合、上述のキ
ーワード間の対応関係に基づき、対応する操作候補を認
識制御部35へ提示する。そして、認識制御部35は、
その提示された操作候補を、さらに操作制御部5へ通知
する。そして、操作制御部5では、この通知された操作
候補を、ディスプレイ14に表示してユーザに報知す
る。
When requested by the recognition control unit 35 for an operation candidate corresponding to the recognition result, the dictionary management unit 34 presents the corresponding operation candidate to the recognition control unit 35 based on the correspondence between the keywords. Then, the recognition control unit 35
The presented operation candidate is further notified to the operation control unit 5. Then, the operation control unit 5 displays the notified operation candidates on the display 14 to notify the user.

【0033】次に、本実施例のナビゲーションシステム
1の動作について説明する。なお、音声認識装置30に
関係する部分が特徴であるので、ナビゲーションシステ
ムとしての一般的な動作を簡単に説明した後、音声認識
装置30に関係する部分の動作について詳しく説明する
こととする。
Next, the operation of the navigation system 1 of this embodiment will be described. In addition, since the part related to the voice recognition device 30 is a feature, the general operation of the navigation system will be briefly described, and then the operation of the part related to the voice recognition device 30 will be described in detail.

【0034】ナビゲーションシステム1の電源オン後
に、ディスプレイ14上に表示されるメニューから、ド
ライバーが機構スイッチ2またはリモコンスイッチ3に
より、案内経路をディスプレイ14に表示させるために
経路情報表示処理を選択した場合、あるいは、音声認識
装置30を介して希望するメニューをマイク31を介し
て音声入力することで、上述したスイッチ2,3を介し
て選択されるのと同様の指示が認識制御部35から操作
制御部5へなされた場合、次のような処理を実施する。
すなわち、ドライバーがディスプレイ14上の地図に基
づいて、音声あるいはスイッチ操作によって目的地を入
力すると、現在位置算出部6にて車両の現在地が求めら
れ、目的地と現在地との間に、ダイクストラ法によりコ
スト計算して、現在地から目的地までの最も短距離の経
路を誘導経路として求める処理が行われる。そして、デ
ィスプレイ14上の道路地図に重ねて誘導経路を表示し
て、ドライバーに適切なルートを案内する。このような
誘導経路を求める計算処理や案内処理は一般的に良く知
られた処理であるので説明は省略する。
When the driver selects the route information display processing from the menu displayed on the display 14 by using the mechanism switch 2 or the remote control switch 3 after the power-on of the navigation system 1 to display the guide route on the display 14. Alternatively, by inputting a desired menu by voice through the microphone 31 through the voice recognition device 30, the same instruction as that selected through the switches 2 and 3 described above is operated and controlled by the recognition control unit 35. When the processing is performed on the unit 5, the following processing is performed.
That is, when the driver inputs the destination by voice or switch operation based on the map on the display 14, the current position of the vehicle is obtained by the current position calculation unit 6, and the distance between the destination and the current position is calculated by the Dijkstra method. The cost is calculated, and a process of obtaining the shortest route from the current position to the destination as a guidance route is performed. Then, the guidance route is displayed on the road map on the display 14 to guide the driver to an appropriate route. The calculation process and the guidance process for obtaining such a guide route are generally well-known processes, and a description thereof will be omitted.

【0035】また、操作制御部5は、外部情報入出力装
置10を介してVICSサービス用の固定局から受信し
た情報に基づく処理も行う。例えば交通規制、渋滞、空
いている道路の案内や、駐車場案内などを行う。なお、
この場合、VICSサービス用の固定局からナビゲーシ
ョンシステム1側へ一方的な情報送信のみ行うものも考
えられるが、ナビゲーションシステム1側からサービス
用固定局へ、現在位置を通知し、サービス用固定局側に
おいて、通知された位置において有効な上記交通規制、
渋滞、空いている道路や、駐車場を選択して、ナビゲー
ションシステム1側へ送信することも好ましい。このよ
うにすれば、真に必要な情報をより的確に得ることがで
きるからである。
The operation control unit 5 also performs processing based on information received from a VICS service fixed station via the external information input / output device 10. For example, it performs traffic regulation, traffic congestion, guidance on vacant roads, and parking lot guidance. In addition,
In this case, it is conceivable that only one-way information transmission from the VICS service fixed station to the navigation system 1 side is considered. However, the current position is notified from the navigation system 1 side to the service fixed station, and the service fixed station side is notified. , The above traffic restrictions in effect at the notified location,
It is also preferable that traffic jams, vacant roads and parking lots are selected and transmitted to the navigation system 1 side. This is because it is possible to more accurately obtain truly necessary information.

【0036】次に、音声認識装置30における動作につ
いて、図3のフローチャートを参照して説明する。起動
した際の最初のステップS10においては、ナビゲーシ
ョンシステム1の状態を取り込む。例えば、目的地を設
定するための画面表示をしている状態、目的地を音声入
力するようユーザに要求している状態、などを取り込
む。
Next, the operation of the speech recognition apparatus 30 will be described with reference to the flowchart of FIG. In the first step S10 upon activation, the state of the navigation system 1 is captured. For example, a state where a screen is displayed for setting a destination, a state where a user is requested to input a destination by voice, and the like are captured.

【0037】そして、続くS20では、操作詳細コマン
ドを現在認識中であるか否かを判断する。後述するS9
0にて操作可能コマンドを操作制御部5へ通知してお
り、且つ、その後にS100での要求機能の操作制御部
5への通知が未だなされていない場合に、「操作詳細コ
マンドを現在認識中である」と判断する。
Then, in S20, it is determined whether or not the operation detailed command is currently being recognized. S9 to be described later
0, the operable command is notified to the operation control unit 5, and the notification of the requested function in S100 has not been made to the operation control unit 5 after that. Is ".

【0038】操作詳細コマンドを現在認識中の場合には
(S20:YES)、辞書管理部34中の音声認識用の
辞書の絞り込みを行う(S30)が、操作詳細コマンド
を現在認識中でない場合には(S20:NO)、辞書管
理部34中の音声認識用の辞書の絞り込みを行わず、通
常の辞書設定を行う(S35)。なお、S30での認識
辞書の絞り込みについては後述する。
If the operation detailed command is currently being recognized (S20: YES), the dictionary for voice recognition in the dictionary management unit 34 is narrowed down (S30). (S20: NO), normal dictionary setting is performed without narrowing down the dictionary for voice recognition in the dictionary management unit 34 (S35). The narrowing down of the recognition dictionary in S30 will be described later.

【0039】こうして音声認識のための準備が完了する
と、S40にて音声認識を行い、S50にて音声認識が
成功したかどうかを判断する。なお、音声認識は次のよ
うに行う。上述したように、図示しないPTTスイッチ
が押されている間にマイク31を介して入力された音声
データのみが入力信号処理部32から認識処理部33へ
出力される。したがって、入力信号処理部32からの音
声データの入力があれば、認識処理部33は、辞書管理
部34にて設定された辞書データを用いて照合を行い認
識処理を実行する。この認識結果としては、上述したよ
うに複数出力されるのが一般的であり、また「認識度」
もセットにされて出力される。
When the preparation for speech recognition is completed, speech recognition is performed in S40, and it is determined in S50 whether the speech recognition has been successful. The voice recognition is performed as follows. As described above, only the audio data input via the microphone 31 while the PTT switch (not shown) is being pressed is output from the input signal processing unit 32 to the recognition processing unit 33. Therefore, when voice data is input from the input signal processing unit 32, the recognition processing unit 33 performs matching by using the dictionary data set by the dictionary management unit 34 and executes recognition processing. Generally, a plurality of recognition results are output as described above.
Are also output as a set.

【0040】そして、音声データの取込に異常がある、
あるいは辞書データを用いた照合の結果、一致するもの
がない、などの不具合が検出されれば、音声認識は失敗
であるとして(S50:NO)、そのまま本処理ルーチ
ンを終了する。一方、音声認識が成功した場合には(S
50:YES)、認識制御部35は、その認識結果から
ナビゲーションシステム1の機能を駆動可能か否かを判
断する(S60)。例えば、ナビゲーションシステム1
がその時点で目的地設定モードとなっている場合に「名
古屋駅」と音声入力すると、名古屋駅という認識結果だ
けでも機能駆動が可能であると判断される(S60:Y
ES)。そのため、S100へ移行して要求機能の通知
を行う。この場合には「名古屋駅」という認識結果のみ
を送ればよい。
Then, there is an abnormality in taking in the audio data.
Alternatively, as a result of the collation using the dictionary data, if a defect such as no match is detected, the speech recognition is determined to have failed (S50: NO), and the processing routine is terminated as it is. On the other hand, if the speech recognition is successful (S
50: YES), the recognition control unit 35 determines whether the function of the navigation system 1 can be driven based on the recognition result (S60). For example, the navigation system 1
When the user is in the destination setting mode at that time, if "Nagoya Station" is voice-inputted, it is determined that the function can be driven only by the recognition result of Nagoya Station (S60: Y
ES). Therefore, the process shifts to S100 to notify the required function. In this case, only the recognition result of "Nagoya Station" need be sent.

【0041】しかし、同様の状況(目的地設定モードに
なっている場合)で「VICS表示」とだけ音声入力し
ても、そのままでは機能駆動できない。そのため、認識
結果だけからでは機能駆動できない場合には(S60:
NO)、S70へ移行して、キーワード関連辞書の設定
を行い、さらにS80にて操作詳細コマンドの検索を行
う。
However, in the same situation (when the destination setting mode is set), even if only "VICS display" is input by voice, the function cannot be driven as it is. Therefore, when the function cannot be driven only from the recognition result (S60:
NO), the process proceeds to S70, a keyword-related dictionary is set, and a search for an operation detailed command is performed in S80.

【0042】この点を図4を参照して具体的に説明す
る。図4(a)に示すように、「VICS表示」という
音声入力がユーザによってなされた場合には、図4
(b)に示すように認識辞書を参照することで、図4
(c)に示すように、「VICS表示」という認識結果
が得られる。しかし、この場合には、「VICS表示」
という認識結果だけでは機能駆動ができないため、図4
(b)に示すキーワード関連から操作可能コマンドを検
索する。具体的には、図4(b)においてキーワード
「VICS表示」に対してリンクの張られている「渋滞
表示」、「空き道表示」、「規制表示」、「駐車場表
示」、「全道路標示」、「高速限定」、「一般限定」が
検索される(図4(d)参照)。そのため、図3のフロ
ーチャートのS90では、その検索された操作可能コマ
ンドを操作制御部5へ通知し、本処理ルーチンを一旦終
了する。
This point will be specifically described with reference to FIG. As shown in FIG. 4A, when a voice input of “VICS display” is made by the user, FIG.
By referring to the recognition dictionary as shown in FIG.
As shown in (c), a recognition result of “VICS display” is obtained. However, in this case, "VICS display"
Since the function cannot be driven only by the recognition result of
An operable command is searched from the keyword relation shown in FIG. More specifically, in FIG. 4B, “congestion display”, “free road display”, “regulation display”, “parking lot display”, and “all roads” are linked to the keyword “VICS display”. “Signage”, “high-speed limited”, and “general limited” are searched (see FIG. 4D). Therefore, in S90 of the flowchart of FIG. 3, the retrieved operable command is notified to the operation control unit 5, and the present processing routine is ended once.

【0043】操作制御部5では、その通知された操作可
能コマンドをディスプレイ14へ表示し、ユーザへの提
示を行う。その提示を見たユーザは、操作可能コマンド
の中から自分の所望のするものを選んで再度発声する。
この状況では、図3のフローチャートのS20にて肯定
判断されるため、S30にて認識辞書の絞り込みが行わ
れる。つまり、この場合には、「VICS表示」に対し
てリンクの張られた「渋滞表示」、「空き道表示」、
「規制表示」、「駐車場表示」、「全道路表示」、「高
速限定」、「一般限定」のみが認識対象の辞書として用
意される。この状態でS40の認識処理を行うため、誤
認識が発生しにくくなる。
The operation control unit 5 displays the notified operable command on the display 14 and presents it to the user. The user who sees the presentation selects a desired one from the operable commands and speaks again.
In this situation, since an affirmative determination is made in S20 of the flowchart in FIG. 3, the recognition dictionary is narrowed down in S30. In other words, in this case, "congestion display", "vacant road display", which is linked to "VICS display",
Only "regulation display", "parking lot display", "all road display", "high speed limited", and "general limited" are prepared as dictionaries to be recognized. Since the recognition process of S40 is performed in this state, erroneous recognition hardly occurs.

【0044】図4(e)に示すように、ユーザが「渋滞
表示」と発声した場合には、図4(f)に示すように絞
り込まれた辞書を参照して認識処理を行うことにより、
適切に渋滞表示という認識結果を得ることができる。そ
して、この場合の認識結果である「渋滞表示」は操作コ
マンドとしては「VICS渋滞表示」であるため、S1
00にて操作制御部5へ要求機能の通知を行う。
As shown in FIG. 4E, when the user utters "congestion display", the recognition process is performed by referring to the narrowed down dictionary as shown in FIG. 4F.
It is possible to appropriately obtain the recognition result of the traffic jam display. Since the "congestion display" as the recognition result in this case is "VICS congestion display" as the operation command, S1
At 00, the required function is notified to the operation control unit 5.

【0045】このように、本実施例のナビゲーションシ
ステム1の音声認識装置30においては、最初に音声入
力した内容だけではナビゲーション機能を駆動できない
場合であっても、辞書中において当該入力内容とキーワ
ード関連がある操作可能コマンドを検索し、ディスプレ
イ14に表示してユーザに提示することができるように
されている。そのため、その表示内容を見たユーザは、
その中の所望のコマンドを再度音声入力することができ
る。つまり、ユーザは、コマンドを正確に覚えていなく
ても、そのコマンド内容の主要な部分さえ音声入力でき
れば、それをきっかけとして最終的なコマンド入力がで
きるため、使い勝手がより向上する。
As described above, in the voice recognition device 30 of the navigation system 1 of the present embodiment, even if the navigation function cannot be driven only by the content of the first voice input, the input content and the keyword related An operable command is searched for, displayed on the display 14 and presented to the user. Therefore, the user who saw the displayed content,
The desired command among them can be input again by voice. In other words, even if the user does not memorize the command accurately, if only the main part of the command content can be input by voice, the user can input the final command as a trigger, thereby improving usability.

【0046】なお、本実施例の場合には、図3のS30
にて辞書の絞り込みを行った場合、その後、通常の音声
認識をする場合には(S20:NO)、S35にて通常
の辞書を設定するので、何ら問題ない。また、図4に示
した具体例では、操作対象コマンドである「VICS表
示」のみが音声入力された場合に、それと対応関係にあ
る操作詳細コマンド(例えば上述した「渋滞表示」、
「空き道表示」、「駐車場表示」など)を抽出するよう
にしたが、逆に、操作詳細コマンドから操作対象コマン
ドを辿ることもできる。例えば上述した「駐車場表示」
が音声入力された場合、対応関係を逆に辿るのである。
図4(b)では、操作対象コマンド「VICS表示」と
操作詳細コマンドとの対応関係しか明示していないが、
他の操作対象コマンドである、地図表示、レストラン表
示、駅表示、周辺施設表示などについても、同様に操作
詳細コマンドとの対応関係が設定されている。
Incidentally, in the case of this embodiment, S30 in FIG.
When the dictionary is narrowed down in step S5, and then when normal speech recognition is performed (S20: NO), the normal dictionary is set in step S35, so that there is no problem. Further, in the specific example shown in FIG. 4, when only the operation target command “VICS display” is input by voice, an operation detailed command (for example, the “congestion display” described above,
Although “vacant road display” and “parking lot display” are extracted, the operation target command can be traced from the operation detailed command. For example, the above-mentioned "parking lot display"
Is input, the correspondence is reversed.
In FIG. 4B, only the correspondence between the operation target command “VICS display” and the operation detail command is explicitly shown,
Correspondence with the operation detailed command is similarly set for other operation target commands such as map display, restaurant display, station display, and peripheral facility display.

【0047】したがって、例えばレストラン表示、駅表
示、周辺施設表示の3つについて、それぞれ対応する操
作詳細コマンド中に駐車場表示がある場合に、「駐車場
表示」という音声入力がされると、キーワード関連を逆
に辿ることで、「VICS情報として提供される駐車場
情報の表示」なのか、「レストランに完備されている駐
車場」の表示なのか、「現在地周辺に存在する駐車場」
の表示なのか、という操作可能コマンドを検索すること
ができる。そのため、同様にディスプレイ14に表示し
てユーザに提示すれば、その表示内容を見たユーザは、
その中の所望のコマンドを再度音声入力できる。
Therefore, for example, when a parking lot is displayed in the corresponding operation detail command for the restaurant display, the station display, and the peripheral facility display, when a voice input of “parking lot display” is input, a keyword is displayed. By tracing the relation in reverse, it is possible to display “parking information provided as VICS information”, “parking provided at a restaurant”, or “parking existing around the current location”.
Can be searched for an operable command. Therefore, if the information is similarly displayed on the display 14 and presented to the user, the user who has viewed the displayed content will
A desired command among them can be input again by voice.

【0048】[その他] (1)上述した実施例では、最初に音声入力した内容だ
けではナビゲーション機能を駆動できない場合に、辞書
中において当該入力内容とキーワード関連がある操作可
能コマンドを検索してディスプレイ14に表示するよう
にしたが、例えばスピーカ12から音声にて報知するよ
うにすることもできる。但し、上述したように複数の対
応する操作可能コマンドを報知する場合には、ディスプ
レイ14に一覧表示して、その中から利用者が選択し易
くすることが使い勝手の点でも好ましいと考えられる。
[Others] (1) In the above-described embodiment, when the navigation function cannot be driven only by the content first input by voice, an operable command having a keyword relationship with the input content is searched in the dictionary and displayed. Although the information is displayed on the display 14, for example, the notification may be made by voice from the speaker 12. However, when notifying a plurality of corresponding operable commands as described above, it is considered preferable that a list is displayed on the display 14 so that the user can easily select the command from the viewpoint of usability.

【0049】(2)また、上述した実施例では、音声認
識装置30を車載用のナビゲーションシステム1に適用
した例を説明したが、適用先としては、車載用でなくて
もよく、さらにはナビゲーション以外のシステムも考え
られる。
(2) In the above-described embodiment, an example in which the voice recognition device 30 is applied to the on-vehicle navigation system 1 has been described. However, the application destination is not limited to the on-vehicle navigation system. Other systems are also conceivable.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例としてのナビゲーションシステムの概
略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a navigation system as an embodiment.

【図2】 実施例の音声認識装置の概略構成を示すブロ
ック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of a speech recognition device according to the embodiment.

【図3】 実施例の音声認識装置における処理を示すフ
ローチャートである。
FIG. 3 is a flowchart illustrating a process performed by the voice recognition device according to the embodiment;

【図4】 音声対話の遷移を示す説明図である。FIG. 4 is an explanatory diagram showing transition of a voice dialogue.

【符号の説明】[Explanation of symbols]

1…ナビゲーションシステム 2…機構スイッ
チ 3…リモコンスイッチ 4…操作スイッ
チ部 5…操作制御部 6…現在位置算
出部 7…経路計算部 8…案内制御部 9…地図データ検索部 10…外部情報入
出力部 11…音声出力制御部 12…スピーカ 13…表示制御部 14…ディスプ
レイ 30…音声認識装置 31…マイク 32…入力信号処理部 33…認識処理
部 34…辞書管理部 35…認識制御
Reference Signs List 1 navigation system 2 mechanism switch 3 remote control switch 4 operation switch unit 5 operation control unit 6 current position calculation unit 7 route calculation unit 8 guidance control unit 9 map data search unit 10 external information input / output Unit 11 Voice output control unit 12 Speaker 13 Display control unit 14 Display 30 Voice recognition device 31 Microphone 32 Input signal processing unit 33 Recognition processing unit 34 Dictionary management unit 35 Recognition control unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 21/06 G10L 3/00 S 5J062 15/00 551Q 9A001 // G01S 5/14 Fターム(参考) 2C032 HC16 HC21 2F029 AA02 AB01 AB07 AB09 AC02 AC04 AC13 AC14 AC18 5D015 AA04 KK01 LL05 LL06 5D045 AB17 5H180 AA01 BB02 BB04 BB12 BB13 EE01 FF04 FF05 FF12 FF13 FF22 FF25 FF27 FF32 KK10 5J062 AA05 BB01 CC07 HH05 9A001 HH17 JJ78 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 21/06 G10L 3/00 S 5J062 15/00 551Q 9A001 // G01S 5/14 F-term (Reference) 2C032 HC16 HC21 2F029 AA02 AB01 AB07 AB09 AC02 AC04 AC13 AC14 AC18 5D015 AA04 KK01 LL05 LL06 5D045 AB17 5H180 AA01 BB02 BB04 BB12 BB13 EE01 FF04 FF05 FF12 FF13 FF22 FF25 FF27 AH05 FF10 AH05 FF10

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】単語毎に対応する比較対象パターンを単語
辞書データとして記憶している辞書手段と、 音声を入力するための音声入力手段と、 該音声入力手段を介して入力された音声を、予め辞書手
段に記憶されている複数の比較対象パターンと比較して
一致度合の高いものを認識結果とする認識手段と、 少なくとも前記認識手段による認識結果を外部装置へ出
力する処理を実行可能な認識制御手段とを備える音声認
識装置であって、 前記辞書手段は、 前記外部装置にて実行する機能を特定する上で必要なコ
マンド内容を操作対象コマンド及び操作詳細コマンドと
いう2種類のキーワードに分割した場合の各キーワード
間の対応関係を持たせて、前記単語辞書データを記憶し
ており、 前記認識制御手段は、 前記認識手段による認識結果のみで前記外部装置の機能
を実行可能か否かを判断する判断手段を備えており、 該判断手段にて前記外部装置の機能が実行可能であると
判断された場合は、当該認識結果のみを前記外部装置へ
出力し、一方、実行不可能であると判断された場合は、
前記辞書手段におけるキーワード間の対応関係に基づ
き、前記認識結果と対応関係にある前記操作対象コマン
ドあるいは操作詳細コマンドを抽出し、音声認識装置自
らが有する報知手段を介して利用者に報知するか、ある
いは前記外部装置が有する報知手段を介し利用者に報知
させるために前記外部装置へ指示することを特徴とする
音声認識装置。
1. A dictionary means for storing a comparison target pattern corresponding to each word as word dictionary data, a voice input means for inputting a voice, and a voice input via the voice input means. A recognition unit that compares a pattern with a high degree of coincidence with a plurality of comparison target patterns stored in advance in the dictionary unit as a recognition result; and a recognition unit capable of executing at least a process of outputting the recognition result by the recognition unit to an external device. A voice recognition device including a control unit, wherein the dictionary unit divides a command content necessary for specifying a function to be executed in the external device into two types of keywords, an operation target command and an operation detail command. The word dictionary data is stored so as to have a correspondence relationship between the respective keywords in the case, and the recognition control unit controls only the recognition result by the recognition unit. And determining means for determining whether or not the function of the external device is executable. If the determining means determines that the function of the external device is executable, only the result of the recognition is determined. Output to an external device, while if it is determined that it is not executable,
Based on the correspondence between the keywords in the dictionary means, extract the operation target command or operation detailed command in correspondence with the recognition result, and notify the user via the notification means of the voice recognition device itself, Alternatively, a voice recognition device for instructing the external device to notify a user via a notification unit included in the external device.
【請求項2】請求項1記載の音声認識装置において、 前記判断手段は、 前記認識手段による認識結果のみで前記外部装置の機能
を実行可能か否かを、前記外部装置の状態に基づいて判
断することを特徴とする音声認識装置。
2. The speech recognition device according to claim 1, wherein the determination unit determines whether or not the function of the external device can be executed only by a recognition result by the recognition unit based on a state of the external device. A speech recognition device characterized by performing.
【請求項3】請求項1又は2記載の音声認識装置におい
て、 前記認識制御手段は、 さらに、前記辞書手段に記憶されている単語辞書データ
の内、前記キーワード間の対応関係に基づいて抽出した
前記操作対象コマンドあるいは操作詳細コマンドに対応
する単語辞書データのみを、前記認識手段における認識
の際の単語辞書データとして有効にする辞書絞り込みを
行う辞書管理手段を備えていることを特徴とする音声認
識装置。
3. The speech recognition device according to claim 1, wherein said recognition control means further extracts, based on a correspondence relationship between said keywords, from word dictionary data stored in said dictionary means. Speech recognition characterized by comprising dictionary management means for narrowing down a dictionary for validating only word dictionary data corresponding to the operation target command or the operation detail command as word dictionary data at the time of recognition by the recognition means. apparatus.
【請求項4】請求項3記載の音声認識装置において、 前記辞書管理手段は、 前記判断手段により、前記認識手段による認識結果のみ
で前記外部装置の機能を実行可能であると判断された場
合には、前記辞書絞り込みを解除することを特徴とする
音声認識装置。
4. The speech recognition apparatus according to claim 3, wherein said dictionary management means is adapted to execute the function of said external device only when a result of recognition by said recognition means is executable by said determination means. Is a speech recognition device for canceling the dictionary narrowing down.
【請求項5】請求項1〜4のいずれかに記載の音声認識
装置と、当該音声認識装置が認識結果を出力する先であ
る前記外部装置としてのナビゲーション装置とを備え、 前記音声認識装置の前記音声入力手段は、少なくとも前
記ナビゲーション装置がナビゲート処理をする上で指定
される必要のある所定のナビゲート処理関連データの指
示を利用者が音声にて入力するために用いられるもので
あることを特徴とするナビゲーションシステム。
5. The voice recognition device according to claim 1, further comprising: a navigation device as the external device to which the voice recognition device outputs a recognition result. The voice input means is used by a user to input at least an instruction of predetermined navigation processing-related data which needs to be specified when the navigation device performs the navigation processing. A navigation system characterized by the following.
【請求項6】請求項5に記載のナビゲーションシステム
において、 前記ナビゲーション装置は表示装置に地図やメニューを
表示可能であり、当該表示装置が、前記音声認識装置か
らの報知指示に応じて前記操作対象コマンドあるいは操
作詳細コマンドを報知するための報知手段として機能す
ることを特徴とするナビゲーションシステム。
6. The navigation system according to claim 5, wherein the navigation device is capable of displaying a map or a menu on a display device, and the display device is configured to control the operation target in response to a notification instruction from the voice recognition device. A navigation system characterized by functioning as a notifying means for notifying a command or an operation detailed command.
JP14664899A 1999-05-26 1999-05-26 Voice recognition device and navigation system using the device Expired - Fee Related JP4258890B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14664899A JP4258890B2 (en) 1999-05-26 1999-05-26 Voice recognition device and navigation system using the device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14664899A JP4258890B2 (en) 1999-05-26 1999-05-26 Voice recognition device and navigation system using the device

Publications (2)

Publication Number Publication Date
JP2000338993A true JP2000338993A (en) 2000-12-08
JP4258890B2 JP4258890B2 (en) 2009-04-30

Family

ID=15412495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14664899A Expired - Fee Related JP4258890B2 (en) 1999-05-26 1999-05-26 Voice recognition device and navigation system using the device

Country Status (1)

Country Link
JP (1) JP4258890B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202792A (en) * 2000-12-27 2002-07-19 Aisin Aw Co Ltd On-vehicle navigation system and storage medium
KR100749088B1 (en) 2004-11-24 2007-08-13 주식회사 현대오토넷 Conversation type navigation system and method thereof
US7877262B2 (en) 2001-05-14 2011-01-25 Sony Computer Entertainment America Llc Displaying a menu of commands in a video game environment
CN105302079A (en) * 2014-06-08 2016-02-03 上海能感物联网有限公司 Controller apparatus for controlling on-site car driving by Chinese speech
CN105302082A (en) * 2014-06-08 2016-02-03 上海能感物联网有限公司 Controller apparatus for on-site automatic navigation and car driving by non-specific person foreign language speech
KR20180068850A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Electronic apparatus, method for providing guide ui of thereof, and non-transitory computer readable recording medium
KR20180096483A (en) * 2017-02-21 2018-08-29 삼성전자주식회사 Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium
WO2018155810A1 (en) * 2017-02-21 2018-08-30 삼성전자 주식회사 Electronic device, control method therefor, and non-transitory computer readable recording medium
US10521723B2 (en) 2016-12-14 2019-12-31 Samsung Electronics Co., Ltd. Electronic apparatus, method of providing guide and non-transitory computer readable recording medium
US11478706B2 (en) 2010-05-11 2022-10-25 Sony Interactive Entertainment LLC Placement of user information in a game space
US11698927B2 (en) 2018-05-16 2023-07-11 Sony Interactive Entertainment LLC Contextual digital media processing systems and methods

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202792A (en) * 2000-12-27 2002-07-19 Aisin Aw Co Ltd On-vehicle navigation system and storage medium
US7877262B2 (en) 2001-05-14 2011-01-25 Sony Computer Entertainment America Llc Displaying a menu of commands in a video game environment
KR100749088B1 (en) 2004-11-24 2007-08-13 주식회사 현대오토넷 Conversation type navigation system and method thereof
US11478706B2 (en) 2010-05-11 2022-10-25 Sony Interactive Entertainment LLC Placement of user information in a game space
CN105302079A (en) * 2014-06-08 2016-02-03 上海能感物联网有限公司 Controller apparatus for controlling on-site car driving by Chinese speech
CN105302082A (en) * 2014-06-08 2016-02-03 上海能感物联网有限公司 Controller apparatus for on-site automatic navigation and car driving by non-specific person foreign language speech
KR102429583B1 (en) * 2016-12-14 2022-08-05 삼성전자주식회사 Electronic apparatus, method for providing guide ui of thereof, and non-transitory computer readable recording medium
US10521723B2 (en) 2016-12-14 2019-12-31 Samsung Electronics Co., Ltd. Electronic apparatus, method of providing guide and non-transitory computer readable recording medium
KR20180068850A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Electronic apparatus, method for providing guide ui of thereof, and non-transitory computer readable recording medium
WO2018155810A1 (en) * 2017-02-21 2018-08-30 삼성전자 주식회사 Electronic device, control method therefor, and non-transitory computer readable recording medium
KR20180096483A (en) * 2017-02-21 2018-08-29 삼성전자주식회사 Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium
KR102490916B1 (en) * 2017-02-21 2023-01-20 삼성전자주식회사 Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium
US11698927B2 (en) 2018-05-16 2023-07-11 Sony Interactive Entertainment LLC Contextual digital media processing systems and methods

Also Published As

Publication number Publication date
JP4258890B2 (en) 2009-04-30

Similar Documents

Publication Publication Date Title
US20110288871A1 (en) Information presentation system
US6064323A (en) Navigation apparatus, navigation method and automotive vehicles
JP4997796B2 (en) Voice recognition device and navigation system
JP2000338993A (en) Voice recognition device and navigation system using this device
JP2016218361A (en) Speech recognition system, in-vehicle device, and server device
JP2003323192A (en) Device and method for registering word dictionary
JP3818352B2 (en) Navigation device and storage medium
JP3890774B2 (en) Navigation system
JP2009031065A (en) System and method for informational guidance for vehicle, and computer program
JP3624698B2 (en) Voice recognition device, navigation system and vending system using the device
JP2947143B2 (en) Voice recognition device and navigation device
JP2005227369A (en) Voice recognition device, and method, and vehicle mounted navigation system
JP3911835B2 (en) Voice recognition device and navigation system
JP4289211B2 (en) Route guidance device
JP2007033209A (en) Navigation system
JPH0942988A (en) On-vehicle map display
JP2006090867A (en) Navigation system
JP2003015688A (en) Method and device for recognizing voice
JP2003021530A (en) Search method and device for in-area facility by voice
JP2877045B2 (en) Voice recognition device, voice recognition method, navigation device, navigation method, and automobile
JP2007065206A (en) Institution retrieval system
JP2001306089A (en) Voice processor and navigation device
WO2006028171A1 (en) Data presentation device, data presentation method, data presentation program, and recording medium containing the program
JP3846588B2 (en) Navigation device
JP2000337901A (en) Navigation equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees