JPH0950291A - Voice recognition device and navigation device - Google Patents
Voice recognition device and navigation deviceInfo
- Publication number
- JPH0950291A JPH0950291A JP7219485A JP21948595A JPH0950291A JP H0950291 A JPH0950291 A JP H0950291A JP 7219485 A JP7219485 A JP 7219485A JP 21948595 A JP21948595 A JP 21948595A JP H0950291 A JPH0950291 A JP H0950291A
- Authority
- JP
- Japan
- Prior art keywords
- vocabulary
- candidate list
- candidate
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 30
- 230000003213 activating effect Effects 0.000 claims 2
- 230000005236 sound signal Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 102100022441 Sperm surface protein Sp17 Human genes 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 102100031798 Protein eva-1 homolog A Human genes 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Landscapes
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
Description
【0001】[0001]
【目次】以下の順序で本発明を説明する。 発明の属する技術分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段 発明の実施の形態(図1〜図5) 発明の効果[Table of Contents] The present invention will be described in the following order. Technical Field to which the Invention pertains Related Art Problems to be Solved by the Invention Means for Solving the Problems Embodiments of the Invention (FIGS. 1 to 5) Effects of the Invention
【0002】[0002]
【発明の属する技術分野】本発明は音声認識装置及びナ
ビゲーシヨン装置に関し、例えば車載用ナビゲーシヨン
装置に適用して好適なものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice recognition device and a navigation device, and is suitable for application to, for example, an on-vehicle navigation device.
【0003】[0003]
【従来の技術】今日、GPS(Global Positioning Sys
tem )衛星からの電波を使用して現在位置や進行方向を
地図上に重ねて表示するナビゲーシヨン装置が実用化さ
れている。特に、自動車の現在位置を表示する車載用ナ
ビゲーシヨン装置は、従来のようにユーザが周囲の状況
と地図本とを見比べて現在位置を判断するような場合に
比べて煩わしさがなく、近年非常に普及している。2. Description of the Related Art Today, GPS (Global Positioning Sys
tem) Navigation devices that use radio waves from satellites to display the current position and direction of travel on a map have been put into practical use. In particular, an in-vehicle navigation device that displays the current position of an automobile is less troublesome than the conventional case where the user determines the current position by comparing the surrounding situation with a map book, and has been extremely difficult in recent years. Is popular in
【0004】この車載用ナビゲーシヨン装置は、GPS
衛星からの電波を受信し、その受信した電波を基に自車
の現在位置を算出する。そしてCD−ROM(Compact
DiskRead Only Memory )から地図データを読み出し、
読み出した地図データに算出した位置データを合成して
デイスプレイ上に表示する。これによりユーザはデイス
プレイを見るだけで自車の現在位置を確認することがで
き、運転しながらでも容易に現在位置を確認することが
できる。This on-vehicle navigation system is equipped with a GPS
It receives radio waves from satellites and calculates the current position of the vehicle based on the received radio waves. And CD-ROM (Compact
Read the map data from DiskRead Only Memory),
The calculated position data is combined with the read map data and displayed on the display. As a result, the user can confirm the current position of the vehicle just by looking at the display, and can easily confirm the current position while driving.
【0005】[0005]
【発明が解決しようとする課題】ところでかかる構成の
車載用ナビゲーシヨン装置においては、例えば所望の地
図を表示させるような場合、リモートコマンダ又は本体
に設けられた各種操作スイツチを操作しなければならな
い。この場合、ユーザはリモートコマンダ(又は本体の
操作スイツチ)とデイスプレイの両方を見ながら操作を
しなければならず、車の運転に集中できなくなるおそれ
がある。In the in-vehicle navigation device having such a structure, for example, when displaying a desired map, various operation switches provided on the remote commander or the main body must be operated. In this case, the user has to operate while watching both the remote commander (or the operation switch of the main body) and the display, which may make it difficult to concentrate on driving the vehicle.
【0006】そこで近年、ユーザの発声した音声によつ
て操作し得るようになされた車載用ナビゲーシヨン装置
が提案されている。この車載用ナビゲーシヨン装置には
音声認識装置が設けられており、この音声認識装置によ
つてユーザが発声した音声を認識し、その認識結果に基
づいて動作するようになされている。ところがこの音声
認識装置を用いた車載用ナビゲーシヨン装置では、誤認
識が生じた場合、操作をはじめからやり直さなければな
らなかつたり、或いは何度も発声し直さなければならな
いといつた不都合があり、使い勝手の面で未だ不十分な
点がある。Therefore, in recent years, a vehicle-mounted navigation device has been proposed which can be operated by a voice uttered by a user. This in-vehicle navigation device is provided with a voice recognition device, which recognizes the voice uttered by the user and operates based on the recognition result. However, in the in-vehicle navigation device using this voice recognition device, if erroneous recognition occurs, it is necessary to restart the operation from the beginning, or there is a disadvantage that it is necessary to utter again many times, There are still insufficient points in terms of usability.
【0007】本発明は以上の点を考慮してなされたもの
で、使い勝手を向上し得る音声認識装置及びそれを用い
たナビゲーシヨン装置を提案しようとするものである。The present invention has been made in consideration of the above points, and an object thereof is to propose a voice recognition apparatus and a navigation apparatus using the same, which can improve usability.
【0008】[0008]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、入力された音声信号に基づいてユ
ーザが発声した語彙を予想し、予想され得る複数の語彙
を求め、求めた複数の語彙を確からしい順に並べた候補
リストを作成して出力する音声認識処理手段と、音声認
識処理手段から出力される候補リストのうち第1候補の
語彙に基づいた処理を行つた後、候補リストを所定の表
示手段に表示して第2候補以降の語彙をユーザによつて
選択し得るようにし、ユーザによつて第2候補以降の語
彙が選択された場合には、選択された語彙に基づいた処
理を行う制御手段とを設けるようにした。In order to solve such a problem, in the present invention, a vocabulary uttered by a user is predicted based on an input voice signal, a plurality of predictable vocabularies are calculated, and a plurality of calculated vocabulary is calculated. After performing a process based on the vocabulary of the first candidate among the voice recognition processing means for creating and outputting a candidate list in which the vocabulary is arranged in a probable order, the candidate list is displayed. The vocabulary after the second candidate is displayed on a predetermined display unit so that the vocabulary after the second candidate can be selected by the user. When the vocabulary after the second candidate is selected by the user, the vocabulary based on the selected vocabulary is used. A control means for performing processing is provided.
【0009】第1候補の語彙に基づいた処理を行つた
後、候補リストを表示手段に表示して第2候補以降の語
彙をユーザによつて選択し得るようにし、ユーザによつ
て第2候補以降の語彙が選択されれば、その語彙に基づ
いた処理を行うようにしたことにより、第1候補の語彙
が誤認識されたものの場合、従来のようにはじめからや
り直すこともなく、即座に、かつ容易に誤認識を訂正す
ることができる。After performing the processing based on the vocabulary of the first candidate, the candidate list is displayed on the display means so that the vocabulary of the second and subsequent candidates can be selected by the user, and the second candidate is selected by the user. If the subsequent vocabulary is selected, the processing based on that vocabulary is performed, so that if the vocabulary of the first candidate is erroneously recognized, there is no need to redo from the beginning as in the past, and immediately, And the misrecognition can be easily corrected.
【0010】[0010]
【発明の実施の形態】以下図面について、本発明の一実
施例を詳述する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.
【0011】図1において、1は全体として本発明を適
用した車載用ナビゲーシヨン装置を示し、アンテナ2に
よつてGPS衛星から送信された電波を受信し、その受
信信号S1をGPS受信部3に入力するようになされて
いる。GPS受信部3は入力された受信信号S1を基に
現在位置(具体的には緯度及び経度)を算出し、その算
出した位置データS2を演算処理部4に出力する。In FIG. 1, reference numeral 1 denotes an on-vehicle navigation device to which the present invention is applied as a whole, and an electric wave transmitted from a GPS satellite is received by an antenna 2 and a reception signal S1 thereof is sent to a GPS receiving section 3. It is designed to be entered. The GPS receiving unit 3 calculates the current position (specifically, latitude and longitude) based on the input reception signal S1 and outputs the calculated position data S2 to the arithmetic processing unit 4.
【0012】演算処理部4はまず位置データS2を基に
してCD−ROM5から現在位置周辺の地図データS3
を読み出す。次に演算処理部4は読み出した地図データ
S3に現在位置を表すマークを合成して表示データS4
を作成し、その表示データS4をデイスプレイ6に出力
する。デイスプレイ6は例えば液晶表示器でなり、供給
された表示データS4に基づいた画像を表示する。これ
によりデイスプレイ6には現在位置(具体的にはマーク
で表される)を地図上に重ね合わせた画像が表示され
る。The arithmetic processing unit 4 firstly, based on the position data S2, the map data S3 around the current position from the CD-ROM 5
Is read. Next, the arithmetic processing unit 4 combines the read map data S3 with a mark indicating the current position to display data S4.
Is generated and the display data S4 is output to the display 6. The display 6 is, for example, a liquid crystal display, and displays an image based on the supplied display data S4. As a result, an image in which the current position (specifically represented by a mark) is superimposed on the map is displayed on the display 6.
【0013】また演算処理部4にはリモートコマンダ7
が赤外線又は有線によつて接続されており、このリモー
トコマンダ7から各種操作情報やソフトスイツチの設定
値が演算処理部4に対して入力されるようになされてい
る。演算処理部4はこの入力された操作情報に基づいて
例えば地図を拡大したり、或いはユーザか希望する地域
の地図をデイスプレイ6に表示したりすると共に、車載
用ナビゲーシヨン装置の動作モードを決めるソフトスイ
ツチの設定値を切り換えたりする。The operation processing unit 4 also includes a remote commander 7
Are connected by infrared rays or wires, and various operation information and set values of the soft switch are input from the remote commander 7 to the arithmetic processing unit 4. Based on the input operation information, the arithmetic processing unit 4 enlarges the map or displays a map of the area desired by the user on the display 6, and software for determining the operation mode of the vehicle-mounted navigation device. Change the switch setting value.
【0014】ところでこの車載用ナビゲーシヨン装置1
には音声認識処理部8が設けられており、音声によつて
も操作情報を入力することできるようになされている。
音声認識処理部8に対してはユーザが発声した音声を入
力するためのマイク9と、その音声区間を音声認識処理
部8に知らせるためのトークスイツチ10が設けられて
いる。By the way, this on-vehicle navigation device 1
Is provided with a voice recognition processing unit 8 so that operation information can be input also by voice.
The voice recognition processing unit 8 is provided with a microphone 9 for inputting a voice uttered by a user and a talk switch 10 for notifying the voice recognition processing unit 8 of the voice section.
【0015】ユーザが音声によつて操作情報を入力する
場合、ユーザはまずトークスイツチ10をオン状態にし
て音声認識処理部8を音声検出状態にする。そしてユー
ザはマイクに向かつて操作情報を表す語彙を発声する。
この音声はマイク9によつて電気的な音声信号S5に変
換され、音声認識処理部8に入力される。音声認識処理
部8は入力された音声信号S5を基にユーザが発声した
語彙を認識し、その認識結果S6を演算処理部4に出力
する。この場合、音声認識処理部8は最も確からしい語
彙を第1候補として予想され得る語彙を例えば第5候補
まで求め、その求めた候補リストを認識結果S6として
出力する。すなわち音声認識処理部8はユーザの発声し
た語彙を予想し、予想され得る複数の語彙を求め、求め
た複数の語彙を確からしい順に並べて候補リストを作成
し、その候補リストを認識結果S6として出力する。When the user inputs the operation information by voice, the user first turns on the talk switch 10 and puts the voice recognition processing unit 8 into the voice detection state. The user then speaks into the microphone a vocabulary representing the operation information.
This voice is converted into an electric voice signal S5 by the microphone 9 and input to the voice recognition processing unit 8. The voice recognition processing unit 8 recognizes the vocabulary uttered by the user based on the input voice signal S5, and outputs the recognition result S6 to the arithmetic processing unit 4. In this case, the voice recognition processing unit 8 obtains the vocabulary that can be predicted as the most probable vocabulary as the first candidate, for example, up to the fifth candidate, and outputs the obtained candidate list as the recognition result S6. That is, the voice recognition processing unit 8 predicts a vocabulary spoken by the user, obtains a plurality of predictable vocabularies, arranges the obtained plurality of vocabularies in a certain order to create a candidate list, and outputs the candidate list as a recognition result S6. To do.
【0016】演算処理部4は候補リストのうち第1候補
にある最も確からしい語彙を基に操作情報を判別し、そ
の判別した操作情報に基づいた処理を行う。そして演算
処理部4はソフトスイツチである候補リストスイツチが
予めオン状態に設定されていれば、候補リストをデイス
プレイ6に所定時間表示し、その表示の間にユーザによ
るリモートコマンダ7の操作によつて第2候補以降の語
彙が選択されれば、その選択された語彙に基づいた処理
を行う。また表示の間に選択操作がなされなければ、第
1候補に基づいた処理に戻る。The arithmetic processing unit 4 discriminates the operation information based on the most probable vocabulary in the first candidate in the candidate list, and performs the processing based on the discriminated operation information. If the candidate list switch, which is a soft switch, is set to the ON state in advance, the calculation processing unit 4 displays the candidate list on the display 6 for a predetermined time, and the user operates the remote commander 7 during the display. If the vocabulary after the second candidate is selected, the processing based on the selected vocabulary is performed. If no selection operation is performed during the display, the process returns to the process based on the first candidate.
【0017】このように予想され得る語彙の候補リスト
を表示してユーザに第2候補以降の語彙を選択できるよ
うにした理由は、仮に第1候補の語彙が誤認識されたも
のであつても第2候補以降の語彙の中には本来ユーザが
発声した語彙が含まれている可能性が高いからである。
すなわちこの車載用ナビゲーシヨン装置1では、予想さ
れ得る語彙の候補リストを表示してその候補リストの中
から語彙を選択できるようにしたことにより、誤認識が
あつた場合でも即座に、かつ容易に誤認識を訂正でき、
従来のようにはじめから操作をやり直したり、或いは何
度も発声し直したりすることを回避できる。The reason why the candidate list of predictable vocabulary is displayed so that the user can select the vocabulary of the second and subsequent candidates is that the vocabulary of the first candidate is erroneously recognized. This is because there is a high possibility that the vocabulary originally uttered by the user is included in the vocabulary after the second candidate.
That is, in this in-vehicle navigation device 1, by displaying a candidate list of predictable vocabulary and selecting a vocabulary from the candidate list, even if misrecognition occurs, it can be immediately and easily performed. You can correct misrecognition,
It is possible to avoid redoing the operation from the beginning or re-speaking many times as in the conventional case.
【0018】ここで上述した音声による操作情報入力に
ついて、図2に示すフローチヤートを用いて説明する。
まずステツプSP1から入つてステツプSP2におい
て、ユーザがトークスイツチ10をオン状態にする。こ
れにより音声認識処理部8が音声検出状態になる。次に
ステツプSP3において、ユーザが操作情報を表す語彙
を発声する。この音声はマイク9によつて音声信号S5
に変換され、音声認識処理部8に送られる。次にステツ
プSP4において、ユーザがトークスイツチ10をオフ
状態にし、音声認識処理部8を音声検出終了状態にす
る。The operation information input by voice described above will be described with reference to the flow chart shown in FIG.
First, in step SP2, the user turns on the talk switch 10 at step SP2. As a result, the voice recognition processing unit 8 enters the voice detection state. Next, in step SP3, the user utters a vocabulary representing the operation information. This voice is transmitted by the microphone 9 as a voice signal S5.
And is sent to the voice recognition processing unit 8. Next, in step SP4, the user turns off the talk switch 10 and puts the voice recognition processing unit 8 into the voice detection end state.
【0019】次にステツプSP5において、音声認識処
理部8は音声信号S5を基にしてユーザが発声した語彙
を音声認識する。その際、音声認識処理部8は上述した
ように最も確からしい語彙を第1候補として第5候補ま
での語彙を求め、その求めた候補リストを認識結果S6
として演算処理部4に送る。Next, in step SP5, the voice recognition processing section 8 voice-recognizes the vocabulary uttered by the user based on the voice signal S5. At that time, the speech recognition processing unit 8 obtains the vocabulary up to the fifth candidate with the most probable vocabulary as the first candidate, and the obtained candidate list is used as the recognition result S6.
To the arithmetic processing unit 4.
【0020】次にステツプSP6において、演算処理部
4は候補リストのうち第1候補にある語彙を基に操作情
報(例えば所定地域の地図を表示するとか、或いは地図
を拡大する等)を判別し、次のステツプSP7において
その判別した操作情報に基づいた処理を行う。その際、
演算処理部4は候補リストスイツチがオン状態になつて
いれば候補リストを所定時間だけデイスプレイ6に表示
し、その間にユーザによる選択操作がなければステツプ
SP8に移つて処理を終了し、選択操作があればその選
択された語彙を基にした処理を行い、ステツプSP8に
移つて処理を終了する。その後、再び音声によつて操作
情報を入力する場合には、ステツプSP1から入つて処
理を繰り返す。Next, in step SP6, the arithmetic processing section 4 determines operation information (for example, displaying a map of a predetermined area or enlarging the map) based on the vocabulary in the first candidate in the candidate list. Then, in the next step SP7, processing based on the determined operation information is performed. that time,
The arithmetic processing unit 4 displays the candidate list on the display 6 for a predetermined time if the candidate list switch is in the ON state, and if there is no selection operation by the user during that time, the processing proceeds to step SP8 to end the processing, and the selection operation is performed. If there is, the processing based on the selected vocabulary is performed, and the process proceeds to step SP8 to end the processing. Then, when the operation information is input again by voice, the operation is started from step SP1 and the processing is repeated.
【0021】ここで例えばユーザが希望する地域の地図
をデイスプレイ6に表示させる場合の演算処理部4の処
理手順(図2におけるステツプSP7の部分)につい
て、図3に示すフローチヤートを用いて具体的に説明す
る。まずユーザが「北海道札幌市」の地図を見たいた
め、図2におけるステツプSP3において「北海道札幌
市」という語彙を発声したとする。この語彙の音声認識
結果を受けて、演算処理部4は図2におけるステツプS
P6において地図表示の操作情報であることを判別す
る。Here, for example, the processing procedure of the arithmetic processing unit 4 (the portion of step SP7 in FIG. 2) when the map of the area desired by the user is displayed on the display 6 will be concretely described using the flow chart shown in FIG. Explained. First, it is assumed that the user wants to see the map of "Sapporo City, Hokkaido", and therefore uttered the vocabulary "Sapporo City, Hokkaido" in step SP3 in FIG. In response to the speech recognition result of this vocabulary, the arithmetic processing unit 4 executes the step S in FIG.
In P6, it is determined that the operation information is map display operation information.
【0022】その後、演算処理部4は、図3に示すよう
にステツプSP10から入つてステツプSP11におい
て、語彙の音声認識結果である候補リストのうち第1候
補の地域の地図があるか否かを判断し、第1候補の地図
がなければステツプSP12に移行し、ここで警告音を
発声すると共に、「地図がありません」等の警告メツセ
ージをデイスプレイ6に表示した後、ステツプSP8に
移行して処理を終了する。これに対してステツプSP1
1において第1候補の地図がある場合には、ステツプS
P13に移行し、ここでCD−ROM5から地図データ
S3を読み出してデイスプレイ6に第1候補の地図を表
示する。Thereafter, as shown in FIG. 3, the arithmetic processing unit 4 enters from step SP10 and checks in step SP11 whether or not there is a map of the first candidate area in the candidate list which is the result of voice recognition of the vocabulary. If there is no map of the first candidate, the process proceeds to step SP12, where a warning sound is emitted and a warning message such as "No map" is displayed on the display 6 and then the process proceeds to step SP8. To finish. On the other hand, step SP1
If there is the first candidate map in step 1, step S
The process shifts to P13, where the map data S3 is read from the CD-ROM 5 and the map of the first candidate is displayed on the display 6.
【0023】次に演算処理部4はステツプSP14にお
いてソフトスイツチである候補リストスイツチの状態を
判別し、その結果、候補リストスイツチがオン状態に設
定されていなければステツプSP8に移行して処理を終
了し、候補リストスイツチが予めオン状態に設定されて
いれば続くステツプSP15に移行して予想され得る語
彙の候補リストをデイスプレイ6に表示する。例えば図
4に示すように、第1候補の地図11の上に予想され得
る語彙の候補リスト12を確からしい語彙順に表示す
る。その際、現状は第1候補が選択されていることを表
すため(すなわち先程表示した地図は第1候補のもので
あることを表すため)、第1候補の部分は反転表示され
ている。Next, the arithmetic processing unit 4 determines the state of the candidate list switch which is a soft switch in step SP14. As a result, if the candidate list switch is not set to the ON state, the operation proceeds to step SP8 and the processing is terminated. If the candidate list switch is set to the ON state in advance, the process proceeds to the next step SP15 and the candidate list of vocabulary that can be expected is displayed on the display 6. For example, as shown in FIG. 4, a candidate list 12 of predictable vocabulary is displayed on the first candidate map 11 in order of probable vocabulary. At that time, since the current state indicates that the first candidate is selected (that is, the map displayed earlier indicates that it is the first candidate), the first candidate portion is highlighted.
【0024】次に演算処理部4はステツプSP16にお
いて時間Ts をカウントするタイマを起動させ、続くス
テツプSP17においてユーザによる再発声があるか否
かを判別する。その結果、再発声があつた場合にはステ
ツプSP18でタイマを終了させ、ステツプSP11の
前に戻つて音声認識処理部8からの認識結果を待ち、再
発声がなかつたならばステツプSP19に移行する。Next, the arithmetic processing unit 4 activates a timer for counting the time Ts in step SP16, and determines in the following step SP17 whether or not there is a re-voice by the user. As a result, if there is a re-voice, the timer is ended in step SP18, the process returns to the step SP11 and waits for the recognition result from the voice recognition processing unit 8. If no re-voice is heard, the process proceeds to step SP19. .
【0025】ステツプSP19において、演算処理部4
はユーザによつてリモートコマンダ7が操作されたか否
かを判別し、操作された場合にはステツプSP20でタ
イマを終了させ、ステツプSP21に移行する。ステツ
プSP21では、ユーザが候補リストの中から新候補を
選択したか否かを判別し、新候補の選択でなければステ
ツプSP22で「戻る」のコマンドが選択されたか否か
を判別し、「戻る」のコマンドでもなければステツプS
P17に戻る。また「戻る」のコマンドであつた場合に
は候補リストの表示を終了させた上でステツプSP8に
移行して処理を終了する。またステツプSP21におい
て新候補の選択であつた場合には、ステツプSP23に
移行し、ここでCD−ROM5から地図データS3を読
み出して選択された新候補の語彙が表す地域の地図をデ
イスプレイ6に表示した後、ステツプSP8に移つて処
理を終了する。In step SP19, the arithmetic processing unit 4
Determines whether or not the remote commander 7 has been operated by the user. If the remote commander 7 has been operated, the timer is terminated at step SP20 and the process proceeds to step SP21. In step SP21, it is determined whether or not the user has selected a new candidate from the candidate list, and if it is not the selection of a new candidate, it is determined in step SP22 whether the "return" command has been selected, and "return" is performed. If it is not the command of step S
Return to P17. If the command is a "return" command, the display of the candidate list is terminated, and then the process proceeds to step SP8 to terminate the process. If the new candidate is selected in step SP21, the process proceeds to step SP23, where the map data S3 is read from the CD-ROM 5 and the map of the area represented by the selected new candidate vocabulary is displayed on the display 6. After that, the process proceeds to step SP8 to end the process.
【0026】これに対してステツプSP19においてユ
ーザによつてリモートコマンダ7が操作されていなけれ
ば、ステツプSP24に移行し、ここでタイマのカウン
ト時間が時間Ts よりも大きくなつたか否かを判別す
る。その結果、タイマのカウント時間が大きくなければ
ステツプSP17に戻つて処理を繰り返し、カウント時
間が大きければステツプSP25でタイマを終了させた
後、ステツプSP23で候補リストの表示を終了して第
1候補の地図を表示し、ステツプSP8に移つて処理を
終了する。On the other hand, if the remote commander 7 is not operated by the user in step SP19, the process proceeds to step SP24, where it is determined whether or not the count time of the timer is longer than the time Ts. As a result, if the count time of the timer is not large, the process returns to step SP17 and repeats the process. If the count time is large, the timer is ended in step SP25, and then the display of the candidate list is ended in step SP23 and the first candidate is selected. The map is displayed, and the process is ended by moving to step SP8.
【0027】このようにして演算処理部4では、初めに
第1候補の語彙が表す地域の地図を表示し、候補リスト
スイツチが予めオン状態に設定されていれば候補リスト
を時間Ts だけ表示し、そしてその表示の間にユーザに
よつて選択操作がされれば、選択された新候補の語彙が
表す地域の地図を表示する。これにより第1候補の語彙
が誤認識されたものであつても容易に誤認識を訂正する
ことができる。In this manner, the arithmetic processing unit 4 first displays the map of the area represented by the first candidate vocabulary, and displays the candidate list for the time Ts if the candidate list switch is set to the ON state in advance. If a selection operation is performed by the user during the display, a map of the area indicated by the selected new candidate vocabulary is displayed. As a result, even if the first candidate vocabulary is erroneously recognized, the erroneous recognition can be easily corrected.
【0028】因みに、候補リスト表示中に選択操作する
場合には、リモートコマンダ7に設けられているカーソ
ルキーを操作して選択したい部分を反転表示させ、その
後、同じくリモートコマンダ7に設けられている決定キ
ーを操作する。この操作によつてユーザの希望する語彙
候補又は「戻る」のコマンドを選択することができる。Incidentally, when performing a selection operation while the candidate list is displayed, the cursor key provided on the remote commander 7 is operated to highlight the portion to be selected, and thereafter, the remote commander 7 is also provided. Operate the Enter key. By this operation, the vocabulary candidate desired by the user or the "return" command can be selected.
【0029】以上の構成において、音声による操作情報
を入力する場合、まずユーザはマイク9をオン状態にし
て操作情報を表す語彙を発声し、その音声信号S5を音
声認識処理部8に送る。音声認識処理部8はその音声信
号S5を基にユーザが発声した語彙を認識する。その
際、音声認識処理部8は最も確からしい語彙を第1候補
として予想され得る語彙を第5候補まで求め、その求め
た候補リストを認識結果S6として演算処理部4に出力
する。In the above configuration, when inputting operation information by voice, the user first turns on the microphone 9 and utters a vocabulary representing the operation information, and sends the voice signal S5 to the voice recognition processing section 8. The voice recognition processing unit 8 recognizes the vocabulary spoken by the user based on the voice signal S5. At that time, the speech recognition processing unit 8 obtains up to the fifth candidate vocabulary that can be predicted as the most probable vocabulary as the first candidate, and outputs the obtained candidate list to the arithmetic processing unit 4 as the recognition result S6.
【0030】演算処理部4は候補リストのうち第1候補
の語彙を基に操作情報を判別し、その判別した操作情報
に基づいた処理を行う。そして演算処理部4は候補リス
トスイツチが予めオン状態に設定されていれば、候補リ
ストをデイスプレイ6上に所定時間表示し、その表示の
間にユーザの操作によつて第2候補以降の語彙が選択さ
れれば、その選択された語彙に基づいた処理を行う。The arithmetic processing unit 4 discriminates the operation information based on the vocabulary of the first candidate in the candidate list, and performs the processing based on the discriminated operation information. Then, if the candidate list switch is set to the ON state in advance, the arithmetic processing unit 4 displays the candidate list on the display 6 for a predetermined time, and the vocabulary of the second and subsequent candidates is displayed by the user's operation during the display. If selected, the processing based on the selected vocabulary is performed.
【0031】このようにこの実施例の場合には、音声認
識処理部8によつて認識された語彙のうち最も確からし
い第1候補の語彙に基づいて先ず処理を行い、その後、
予想され得る語彙の候補リストを表示し、ユーザによつ
て第2候補以降の語彙を選択して動作し得るようにして
いる。このように予想され得る語彙の候補リストを表示
して第2候補以降の語彙を選択し得るようにしたことに
より、第1候補の語彙が誤認識されたもの場合、即座
に、かつ容易に誤認識を訂正することができ、従来のよ
うにはじめからやり直したりすることもなく、使い勝手
を向上させることができる。As described above, in the case of this embodiment, the processing is first performed based on the most probable first candidate vocabulary among the vocabulary recognized by the voice recognition processing unit 8, and then,
A list of possible vocabulary candidates is displayed so that the user can select and operate the second and subsequent vocabulary words. By displaying the candidate list of possible vocabulary and selecting the vocabulary of the second and subsequent candidates, if the vocabulary of the first candidate is erroneously recognized, the vocabulary can be immediately and easily erroneously recognized. The recognition can be corrected, and the usability can be improved without having to start over from the beginning as in the past.
【0032】以上の構成によれば、入力された音声信号
S5に基づいてユーザが発声した語彙を予想し、予想さ
れ得る複数の語彙を求め、求めた複数の語彙を確からし
い順並べた候補リストを作成する音声認識処理部8と、
候補リストのうち第1候補の語彙に基づいて先ず処理を
行い、その後に候補リストを表示して第2候補以降の語
彙をユーザによつて選択し得るようにし、ユーザによつ
て第2候補以降の語彙が選択された場合にはその語彙に
基づいた処理を行う演算処理部4を設けたことにより、
第1候補の語彙が誤認識されたものの場合、即座に、か
つ容易に誤認識を訂正することができ、従来に比して使
い勝手を向上させることができる。According to the above configuration, the vocabulary uttered by the user is predicted based on the input voice signal S5, a plurality of predictable vocabularies are obtained, and the obtained plurality of vocabularies are arranged in a probable order. A voice recognition processing unit 8 for creating
First, processing is performed based on the vocabulary of the first candidate in the candidate list, and then the candidate list is displayed so that the vocabulary of the second and subsequent candidates can be selected by the user. When the vocabulary of is selected, by providing the arithmetic processing unit 4 that performs processing based on the vocabulary,
When the vocabulary of the first candidate is erroneously recognized, the erroneous recognition can be corrected immediately and easily, and the usability can be improved as compared with the related art.
【0033】なお上述の実施例においては、単に候補リ
ストを表示する場合について述べたが、本発明はこれに
限らず、候補リスト中に種類の異なるコマンドの語彙が
含まれる場合には、例えば図5に示すように、その種類
の異なるコマンドの語彙を文字色を変える等して表示を
変え、区別し得るようにしても良い。In the above embodiment, the case where the candidate list is simply displayed has been described, but the present invention is not limited to this, and when the candidate list includes vocabularies of different types of commands, for example, As shown in FIG. 5, the vocabularies of the different types of commands may be displayed differently by changing the character color so that they can be distinguished.
【0034】また上述の実施例においては、デイスプレ
イ6が液晶表示器でなる場合について述べたが、本発明
はこれに限らず、例えばCRT(Cathode-Ray Tube)デ
イスプレイ等でも良く、候補リスト等の情報が表示でき
るものであればその他の表示手段でも良い。In the above embodiment, the case where the display 6 is a liquid crystal display has been described. However, the present invention is not limited to this, and may be a CRT (Cathode-Ray Tube) display, for example, and a candidate list or the like. Other display means may be used as long as the information can be displayed.
【0035】さらに上述の実施例においては、音声認識
処理部8で第5候補まで求めた場合について述べたが、
本発明はこれに限らず、その候補数はいづれであつても
良い。Further, in the above-mentioned embodiment, the case where the voice recognition processing unit 8 obtains up to the fifth candidate has been described.
The present invention is not limited to this, and the number of candidates may be any.
【0036】また上述の実施例においては、候補リスト
スイツチがオン状態に設定されているときに候補リスト
を表示するようにした場合ついて述べたが、本発明はこ
れに限らず、ユーザの再発声の回数をカウントし、その
カウント値が所定回数以上になつたら候補リストを表示
するようにしても良い。すなわち上述の場合と同様に、
まずはじめに演算処理部4は第1候補の語彙に基づいた
処理を行う。第1候補の語彙が誤認識されたものであれ
ば、その処理はユーザの希望する処理と異なる。その結
果、ユーザはその処理を訂正するため再発声する。演算
処理部4はその再発声の回数をカウントし、誤認識の回
数が所定回数以上になれば(すなわち何度も操作のやり
直しがあれば)、候補リストを表示してユーザに選択操
作させる。このようにすることにより、誤認識があつた
場合のみ候補リストを表示させることができる。Further, in the above-mentioned embodiment, the case where the candidate list is displayed when the candidate list switch is set to the ON state has been described, but the present invention is not limited to this, and the re-voice of the user is voiced. The number of times may be counted, and the candidate list may be displayed when the count value exceeds a predetermined number. That is, as in the case above,
First, the arithmetic processing unit 4 performs processing based on the vocabulary of the first candidate. If the first candidate vocabulary is erroneously recognized, the processing is different from the processing desired by the user. As a result, the user calls back to correct the process. The arithmetic processing unit 4 counts the number of re-voices, and if the number of erroneous recognitions is equal to or more than a predetermined number (that is, if the operation is redone many times), the candidate list is displayed and the user is made to perform a selection operation. By doing so, the candidate list can be displayed only when misrecognition occurs.
【0037】さらに上述の実施例においては、演算処理
部4によつて候補リストの表示を制御した場合について
述べたが、本発明はこれに限らず、候補リストの表示を
制御できるものであればその他の制御手段でも良い。要
は、音声認識処理部8から供給された候補リストのうち
第1候補の語彙に基づいて先ず処理を行い、その後、候
補リストを表示し、ユーザの選択した語彙に基づいて処
理を行う制御手段を設けるようにすれば上述の場合と同
様の効果を得ることができる。Further, in the above-mentioned embodiment, the case where the display of the candidate list is controlled by the arithmetic processing unit 4 has been described, but the present invention is not limited to this, and the display of the candidate list can be controlled. Other control means may be used. In short, a control unit that first performs processing based on the vocabulary of the first candidate in the candidate list supplied from the voice recognition processing unit 8, then displays the candidate list, and performs processing based on the vocabulary selected by the user. By providing, the same effect as the above case can be obtained.
【0038】また上述の実施例においては、車載用ナビ
ゲーシヨン装置1に本発明を適用した場合について述べ
たが、本発明はこれに限らず、音声によつて操作情報を
入力し得るようにしたものであれば、その他のナビゲー
シヨン装置にも適用でき、さらにはその他の電子機器に
も広く適用できる。In the above embodiment, the case where the present invention is applied to the on-vehicle navigation device 1 has been described, but the present invention is not limited to this, and the operation information can be input by voice. If applicable, it can be applied to other navigation devices, and further widely applied to other electronic devices.
【0039】[0039]
【発明の効果】上述のように本発明によれば、入力され
た音声信号に基づいてユーザが発声した語彙を予想し、
予想される語彙を確からしい順に並べた候補リストを作
成する音声認識処理手段と、候補リストのうち第1候補
の語彙に基づいた処理を行つた後、候補リストを表示手
段に表示して第2候補以降の語彙をユーザによつて選択
し得るようにし、ユーザによつて第2候補以降の語彙が
選択された場合には、選択された語彙に基づいた処理を
行う制御手段とを設けるようにしたことにより、第1候
補の語彙が誤認識されたものの場合、従来のようにはじ
めからやり直すこともなく、即座に、かつ容易に誤認識
を訂正することができ、かくして従来に比して使い勝手
を向上させることができる。かくするにつき使い勝手を
向上し得る音声認識装置及びそれを用いたナビゲーシヨ
ン装置を実現することができる。As described above, according to the present invention, the vocabulary uttered by the user is predicted based on the input voice signal,
A voice recognition processing means for creating a candidate list in which the expected vocabulary is arranged in a probable order, and a processing based on the vocabulary of the first candidate in the candidate list are performed, and then the candidate list is displayed on the display means to display the second candidate. A vocabulary after the candidate is made selectable by the user, and when a vocabulary after the second candidate is selected by the user, a control means for performing processing based on the selected vocabulary is provided. As a result, when the first candidate vocabulary is erroneously recognized, it is possible to immediately and easily correct the erroneous recognition without redoing it from the beginning as in the past, and thus it is easier to use than the conventional one. Can be improved. Thus, it is possible to realize a voice recognition device and a navigation device using the same, which can improve usability.
【図1】本発明の一実施例による車載用ナビゲーシヨン
装置の構成を示すブロツク図である。FIG. 1 is a block diagram showing a configuration of a vehicle-mounted navigation device according to an embodiment of the present invention.
【図2】音声によつて操作情報を入力する場合の処理手
順を示すフローチヤートである。FIG. 2 is a flowchart showing a processing procedure when inputting operation information by voice.
【図3】地図表示の場合の演算処理部の処理手順を示す
フローチヤートである。FIG. 3 is a flow chart showing a processing procedure of an arithmetic processing unit in the case of displaying a map.
【図4】デイスプレイに表示される候補リストを示す略
線図である。FIG. 4 is a schematic diagram showing a candidate list displayed on a display.
【図5】他の実施例によつて表示される候補リストを示
す略線図である。FIG. 5 is a schematic diagram showing a candidate list displayed according to another embodiment.
1……車載用ナビゲーシヨン装置、3……GPS受信
部、4……演算処理部、5……CD−ROM、6……デ
イスプレイ、7……リモートコマンダ、8……音声認識
処理部、9……マイク、10……トークスイツチ。1 ... In-vehicle navigation device, 3 ... GPS receiving unit, 4 ... Arithmetic processing unit, 5 ... CD-ROM, 6 ... Display, 7 ... Remote commander, 8 ... Voice recognition processing unit, 9 ... Mike, 10 ... Talk switch.
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G10L 3/00 561 G10L 3/00 561E // G08G 1/0969 G08G 1/0969 Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display location G10L 3/00 561 G10L 3/00 561E // G08G 1/0969 G08G 1/0969
Claims (10)
声した語彙を予想し、予想され得る複数の語彙を求め、
求めた複数の語彙を確からしい順に並べた候補リストを
作成して出力する音声認識処理手段と、 上記音声認識処理手段から出力される候補リストのうち
第1候補の語彙に基づいた処理を行つた後、上記候補リ
ストを所定の表示手段に表示して第2候補以降の語彙を
ユーザによつて選択し得るようにし、ユーザによつて第
2候補以降の語彙が選択された場合には、選択された語
彙に基づいた処理を行う制御手段とを具えることを特徴
とする音声認識装置。1. A vocabulary spoken by a user is predicted based on an input voice signal, and a plurality of predictable vocabularies are obtained,
A speech recognition processing means for creating and outputting a candidate list in which a plurality of obtained vocabularies are arranged in a probable order, and processing based on the first candidate vocabulary in the candidate list output from the speech recognition processing means are performed. After that, the candidate list is displayed on a predetermined display unit so that the user can select the vocabulary after the second candidate, and when the vocabulary after the second candidate is selected by the user, the selection is performed. A voice recognition device, comprising: a control unit that performs a process based on the generated vocabulary.
表示の間にユーザによつて選択操作がなされなければ、
上記第1候補の語彙に基づいた処理に戻ることを特徴と
する請求項1に記載の音声認識装置。2. The control means displays the candidate list on the display means for a predetermined time,
If there is no selection operation by the user during the display,
The voice recognition device according to claim 1, wherein the process returns to the process based on the first candidate vocabulary.
所定時間だけ上記表示手段に表示することを特徴とする
請求項2に記載の音声認識装置。3. The voice recognition device according to claim 2, wherein the control means displays the candidate list on the display means for a predetermined time by activating a predetermined timer.
れば、上記候補リストを表示することを特徴とする請求
項1に記載の音声認識装置。4. The voice recognition apparatus according to claim 1, wherein the control means displays the candidate list if the candidate list display is set in advance by the user.
回数以上になつたら上記候補リストを表示することを特
徴とする請求項1に記載の音声認識装置。5. The voice recognition device according to claim 1, wherein the control means counts the number of times the user has re-voiced, and displays the candidate list when the count value reaches a predetermined number or more.
算出し、算出した位置を地図上に重ね合わせて所定の表
示手段に表示するナビゲーシヨン装置において、 入力された音声信号に基づいてユーザが発声した語彙を
予想し、予想され得る複数の語彙を求め、求めた複数の
語彙を確からしい順に並べた候補リストを作成して出力
する音声認識処理手段と、 上記音声認識処理手段から出力される候補リストのうち
第1候補の語彙に基づいた処理を行つた後、上記候補リ
ストを上記表示手段に表示して第2候補以降の語彙をユ
ーザによつて選択し得るようにし、ユーザによつて第2
候補以降の語彙が選択された場合には、選択された語彙
に基づいた処理を行う制御手段とを具え、音声によつて
も操作されるようにしたことを特徴とするナビゲーシヨ
ン装置。6. A navigation device for receiving a radio wave from a satellite to calculate the position of a moving body, superimposing the calculated position on a map and displaying the result on a predetermined display means, based on an input audio signal. From the speech recognition processing means for predicting the vocabulary uttered by the user, obtaining a plurality of predictable vocabularies, creating a candidate list in which the obtained plurality of vocabularies are arranged in a probable order, and outputting the candidate list. After performing processing based on the vocabulary of the first candidate in the output candidate list, the candidate list is displayed on the display means so that the vocabulary of the second and subsequent candidates can be selected by the user. Second by
A navigation device characterized in that when a vocabulary after a candidate is selected, the control device performs a process based on the selected vocabulary, and is operated by voice.
表示の間にユーザによつて選択操作がなされなければ、
上記第1候補の語彙に基づいた処理に戻ることを特徴と
する請求項6に記載のナビゲーシヨン装置。7. The control means displays the candidate list on the display means for a predetermined time,
If there is no selection operation by the user during the display,
7. The navigation device according to claim 6, wherein the process returns to the process based on the first candidate vocabulary.
所定時間だけ上記表示手段に表示することを特徴とする
請求項7に記載のナビゲーシヨン装置。8. The navigation device according to claim 7, wherein the control means displays the candidate list on the display means for a predetermined time by activating a predetermined timer.
れば、上記候補リストを表示することを特徴とする請求
項6に記載のナビゲーシヨン装置。9. The navigation device according to claim 6, wherein the control means displays the candidate list if the candidate list display is set in advance by the user.
回数以上になつたら上記候補リストを表示することを特
徴とする請求項6に記載のナビゲーシヨン装置。10. The navigation device according to claim 6, wherein the control means counts the number of times the user has re-voiced, and displays the candidate list when the count value reaches a predetermined number or more.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7219485A JPH0950291A (en) | 1995-08-04 | 1995-08-04 | Voice recognition device and navigation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7219485A JPH0950291A (en) | 1995-08-04 | 1995-08-04 | Voice recognition device and navigation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0950291A true JPH0950291A (en) | 1997-02-18 |
Family
ID=16736187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7219485A Pending JPH0950291A (en) | 1995-08-04 | 1995-08-04 | Voice recognition device and navigation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0950291A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11109989A (en) * | 1997-10-02 | 1999-04-23 | Toyota Motor Corp | Speech recognition device |
JPH11132783A (en) * | 1997-10-31 | 1999-05-21 | Matsushita Electric Ind Co Ltd | Onboard navigation device |
JP2000090511A (en) * | 1998-09-11 | 2000-03-31 | Victor Co Of Japan Ltd | Reservation method for av apparatus |
JP2000216734A (en) * | 1999-01-26 | 2000-08-04 | Sony Corp | Receiver, control method for receiver, transmitter, and transmitting method |
KR100384330B1 (en) * | 2001-02-05 | 2003-05-16 | 정상모 | a speech recognition device and method thereof |
JP2004213016A (en) * | 2002-12-31 | 2004-07-29 | Samsung Electronics Co Ltd | Method and device for speech recognition |
KR100467590B1 (en) * | 2002-06-28 | 2005-01-24 | 삼성전자주식회사 | Apparatus and method for updating a lexicon |
WO2007114226A1 (en) | 2006-03-31 | 2007-10-11 | Pioneer Corporation | Voice input support device, method thereof, program thereof, recording medium containing the program, and navigation device |
US7627474B2 (en) | 2006-02-09 | 2009-12-01 | Samsung Electronics Co., Ltd. | Large-vocabulary speech recognition method, apparatus, and medium based on multilayer central lexicons |
JP2011221293A (en) * | 2010-04-09 | 2011-11-04 | Mitsubishi Electric Corp | Command processing device |
CN103329196A (en) * | 2011-05-20 | 2013-09-25 | 三菱电机株式会社 | Information apparatus |
US8756058B2 (en) | 2006-02-23 | 2014-06-17 | Nec Corporation | Speech recognition system, speech recognition result output method, and speech recognition result output program |
JP2016102823A (en) * | 2014-11-27 | 2016-06-02 | アルパイン株式会社 | Information processing system, voice input device, and computer program |
JP2019144759A (en) * | 2018-02-19 | 2019-08-29 | コニカミノルタ株式会社 | Image processing apparatus, image processing apparatus control method, and program |
JP2020140620A (en) * | 2019-03-01 | 2020-09-03 | セントスタッフ株式会社 | Nursing care record creation support system and program |
-
1995
- 1995-08-04 JP JP7219485A patent/JPH0950291A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11109989A (en) * | 1997-10-02 | 1999-04-23 | Toyota Motor Corp | Speech recognition device |
JPH11132783A (en) * | 1997-10-31 | 1999-05-21 | Matsushita Electric Ind Co Ltd | Onboard navigation device |
JP2000090511A (en) * | 1998-09-11 | 2000-03-31 | Victor Co Of Japan Ltd | Reservation method for av apparatus |
JP2000216734A (en) * | 1999-01-26 | 2000-08-04 | Sony Corp | Receiver, control method for receiver, transmitter, and transmitting method |
KR100384330B1 (en) * | 2001-02-05 | 2003-05-16 | 정상모 | a speech recognition device and method thereof |
KR100467590B1 (en) * | 2002-06-28 | 2005-01-24 | 삼성전자주식회사 | Apparatus and method for updating a lexicon |
JP2004213016A (en) * | 2002-12-31 | 2004-07-29 | Samsung Electronics Co Ltd | Method and device for speech recognition |
JP4643911B2 (en) * | 2002-12-31 | 2011-03-02 | 三星電子株式会社 | Speech recognition method and apparatus |
US7627474B2 (en) | 2006-02-09 | 2009-12-01 | Samsung Electronics Co., Ltd. | Large-vocabulary speech recognition method, apparatus, and medium based on multilayer central lexicons |
US8756058B2 (en) | 2006-02-23 | 2014-06-17 | Nec Corporation | Speech recognition system, speech recognition result output method, and speech recognition result output program |
WO2007114226A1 (en) | 2006-03-31 | 2007-10-11 | Pioneer Corporation | Voice input support device, method thereof, program thereof, recording medium containing the program, and navigation device |
JP2011221293A (en) * | 2010-04-09 | 2011-11-04 | Mitsubishi Electric Corp | Command processing device |
CN103329196A (en) * | 2011-05-20 | 2013-09-25 | 三菱电机株式会社 | Information apparatus |
JP2016102823A (en) * | 2014-11-27 | 2016-06-02 | アルパイン株式会社 | Information processing system, voice input device, and computer program |
JP2019144759A (en) * | 2018-02-19 | 2019-08-29 | コニカミノルタ株式会社 | Image processing apparatus, image processing apparatus control method, and program |
JP2020140620A (en) * | 2019-03-01 | 2020-09-03 | セントスタッフ株式会社 | Nursing care record creation support system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10475448B2 (en) | Speech recognition system | |
JPH0950291A (en) | Voice recognition device and navigation device | |
JP2907079B2 (en) | Navigation device, navigation method and automobile | |
US20020069071A1 (en) | User interface for telematics systems | |
EP1450349A1 (en) | In-vehicle controller and program for instructing computer to execute operation instruction method | |
EP0875729B1 (en) | Map display controlling method and apparatus | |
US20030055643A1 (en) | Method for controlling a voice input and output | |
JP5413321B2 (en) | Communication system, in-vehicle terminal, and portable terminal | |
JP2011242594A (en) | Information presentation system | |
JPH09292255A (en) | Navigation method and navigation system | |
JP2000338993A (en) | Voice recognition device and navigation system using this device | |
JP2009023486A (en) | On-vehicle voice processing device, voice processing system, and voice processing method | |
US6282494B1 (en) | Customer-settled voice navigation apparatus | |
JPH11142178A (en) | Navigation apparatus | |
JP4237026B2 (en) | In-vehicle navigation device and input method to the device | |
JP2001027540A (en) | Navigation method to use function of voice recognition | |
JP2947143B2 (en) | Voice recognition device and navigation device | |
JP3818352B2 (en) | Navigation device and storage medium | |
US11057734B2 (en) | Geospecific information system and method | |
JP4036966B2 (en) | Navigation system and method, and recording medium recording navigation software | |
KR100749088B1 (en) | Interactive navigation system and its control method | |
JPH09114488A (en) | Device and method for speech recognition, device and method for navigation, and automobile | |
JP3676571B2 (en) | Navigation system and method, and recording medium recording navigation software | |
JP2877045B2 (en) | Voice recognition device, voice recognition method, navigation device, navigation method, and automobile | |
JP3679033B2 (en) | Navigation device |