JPH11143489A - Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function - Google Patents
Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating functionInfo
- Publication number
- JPH11143489A JPH11143489A JP9307623A JP30762397A JPH11143489A JP H11143489 A JPH11143489 A JP H11143489A JP 9307623 A JP9307623 A JP 9307623A JP 30762397 A JP30762397 A JP 30762397A JP H11143489 A JPH11143489 A JP H11143489A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- input
- user
- electronic device
- call
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Telephone Function (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、音声入力により各
種機能を操作することができる音声操作機能付き電子機
器、電子機器における音声操作方法、及び音声操作機能
付き電子機器を備える自動車に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic device having a voice operation function capable of operating various functions by voice input, a voice operation method in the electronic device, and an automobile provided with the electronic device having a voice operation function. .
【0002】[0002]
【従来の技術】近年、使用者がリモートコントローラの
キーを操作したり音声を入力することにより、ある種の
機能を操作することができるナビゲーション装置などが
各種提案されている。自動車などに搭載させるナビゲー
ション装置は、例えば道路地図データが記憶されたCD
−ROM(コンパクトディスクを用いたリードオンリー
メモリ)などの大容量のデータ記憶手段と、現在位置の
検出手段と、検出した現在位置の近傍の道路地図をデー
タ記憶手段から読出したデータに基づいて表示させるデ
ィスプレイ装置で構成される。この場合、現在位置の検
出手段としては、GPS(Global Positi
oning System)と称される測位用の人工衛
星を使用した測位システムを使用したものや、車両の走
行方向、走行速度などの情報に基づいて出発地点から現
在位置の変化を追跡する自律航法によるものなどがあ
る。2. Description of the Related Art In recent years, various navigation devices and the like have been proposed in which a user can operate a certain function by operating a key of a remote controller or inputting a voice. A navigation device mounted on an automobile or the like is, for example, a CD storing road map data.
A large-capacity data storage means such as a ROM (read-only memory using a compact disk), a current position detection means, and a road map near the detected current position is displayed based on data read from the data storage means; And a display device. In this case, as a means for detecting the current position, GPS (Global Position) is used.
onboarding system) or autonomous navigation that tracks changes in the current position from the starting point based on information such as the traveling direction and traveling speed of the vehicle. and so on.
【0003】また、ディスプレイ装置に表示される地図
としては、リモートコントローラ等のキー操作などを行
うことで、現在位置の近傍だけでなく、地図データが用
意されている限りは、所望の位置の地図を表示させるこ
とができるようにしてある。このようなナビゲーション
装置の場合には、例えば自動車用の場合、運転席の近傍
にディスプレイ装置を設置して、運転者が走行中や信号
停止などの一時停止中に現在位置の近傍の地図を見れる
ようにするのが一般的である。The map displayed on the display device is operated not only by the operation of a key of a remote controller or the like, but also by the key operation of a remote controller or the like. Can be displayed. In the case of such a navigation device, for example, in the case of an automobile, a display device is installed near the driver's seat, and the driver can see a map near the current position while the vehicle is running or temporarily stopped such as a traffic light stop. It is common to do so.
【0004】[0004]
【発明が解決しようとする課題】ところでこの種のナビ
ゲーション装置と、例えば携帯電話や自動車電話を結び
付けて、携帯電話で電話をかける作業をナビゲーション
装置を通して行うことが提案されている。この場合には
例えばディスプレイ中に表示されるメニューの中の“電
話をかける”機能キーを例えばリモートコントローラの
機能キー群の中から選択して、その次に使用者がマイク
に向って“電話番号”を言うことで、携帯電話により自
動車の中から電話をかけるようにすることが考えられ
る。By the way, it has been proposed to connect a navigation device of this type to a mobile phone or a car phone, for example, and to make a call with the mobile phone through the navigation device. In this case, for example, a "call" function key in a menu displayed on the display is selected from, for example, a group of function keys of a remote controller, and then the user calls the "phone number"", It is conceivable to make a call from within a car using a mobile phone.
【0005】しかし、このようにナビゲーション装置を
用いて電話をかける場合には、必ず使用者がリモートコ
ントローラを用いてディスプレイ装置上のメニューの中
の“電話をかける”を選択して、その後に使用者音声入
力で“電話番号”を言わなければならない。従って運転
中にこのようなディスプレイ上のメニュー中の“電話を
かける”のような“行為”を指示し、その後で電話をか
けるという行為の対象である“電話番号”を音声入力し
なければならないので、大変面倒である。つまり、電話
をかける場合には上述したようにリモートコントローラ
の機能キーの中から一つの“電話をかける”の機能キー
とを選択する必要があり、その後に音声により電話番号
を言う手順を踏まないと、電話番号をかけることができ
ない。However, when making a call using the navigation device, the user must use the remote controller to select "make a call" from a menu on the display device, and then use the remote control. Must say "phone number" by voice input. Therefore, during driving, an "act" such as "call" in the menu on the display must be instructed, and then the "telephone number" to be called must be spoken. It is very troublesome. That is, when making a call, it is necessary to select one of the function keys of the remote controller from the function keys of the remote controller as described above, and then do not follow the procedure of saying the telephone number by voice. Can not make a phone number.
【0006】また、自動車の中に携帯電話を搭載して、
この携帯電話のキーボードを操作することで使用者が携
帯電話による発信を自動車の中から行うことも考えられ
る。しかしこのような携帯電話のかけ方では、携帯電話
の機能キーなどを含む操作キーが小さな面積の中に配置
されているために、各キーは押しづらくしかもどのキー
がどのような機能を有しているかの表示文字を認識する
ことが難しい。またナビゲーション装置と携帯電話を組
み合わせた場合と、単独の場合においても、何れにして
も操作方法が分からない場合には使用者は操作マニュア
ルなどを読まなければならないという問題もある。ま
た、使用者が例えば電話番号について〔03〕を入力し
てしばらくたってから〔1234〕を入れて、またしば
らくたって〔5678〕を入力するような場合には、電
話番号をどのように入力されたかが使用者に判りずらい
という問題がある。In addition, a mobile phone is mounted in a car,
By operating the keyboard of the mobile phone, the user may make a call from the mobile phone by using the mobile phone. However, in such a method of using a mobile phone, since the operation keys including the function keys of the mobile phone are arranged in a small area, each key is hard to press and which key has what function. It is difficult to recognize the displayed characters. In addition, there is also a problem that the user must read an operation manual or the like when the operation method is not understood in any case when the navigation device and the mobile phone are combined and when the navigation device is used alone. In the case where the user enters [03] for a telephone number and then enters [1234] after a while, and then enters [5678] after a while, for example, it is difficult to determine how the telephone number was entered. There is a problem that the user is difficult to understand.
【0007】そこで本発明は上記課題を解消し、例えば
自動車から電話をかけるといった動作において使用者が
音声入力により入力しようとする内容を分けて入力で
き、分けて入力した場合でも、その入力内容の全体を音
声により使用者に報知できる音声操作機能付き電子機
器、電子機器における音声操作方法、及び音声操作機能
付き電子機器を備える自動車を提供することを目的とし
ている。Therefore, the present invention solves the above-mentioned problem, and allows the user to input contents to be input by voice input in an operation such as making a call from a car. It is an object of the present invention to provide an electronic device with a voice operation function that can notify a user of the whole by voice, a voice operation method in the electronic device, and a vehicle including the electronic device with a voice operation function.
【0008】[0008]
【課題を解決するための手段】上記目的は、本発明にあ
っては、使用者が音声により内容を入力するための音声
入力手段と、登録語を登録するためのデータ登録手段
と、音声入力手段に入力された音声信号を認識して処理
する音声認識手段と、使用者が音声入力した内容を、デ
ータ登録手段に登録されている登録語に一致するように
するために、使用者が内容を分割して順次音声入力でき
る処理手段と、を備えることを特徴とする音声操作機能
付き電子機器により、達成される。SUMMARY OF THE INVENTION The object of the present invention is to provide a voice input device for a user to input contents by voice, a data registration device for registering a registered word, and a voice input device. Voice recognition means for recognizing and processing the voice signal input to the means, and the user inputting the contents so that the contents input by the user match the registered words registered in the data registration means. And a processing unit capable of sequentially inputting voices in a divided manner.
【0009】本発明では音声入力手段は使用者の音声に
より内容を入力する。データ登録手段は、登録語を登録
する。音声認識手段は、音声入力により入力された音声
信号を認識する。処理手段は、使用者が音声入力した内
容を、データ登録手段に登録されている登録語に一致す
るようにするために、使用者が内容を分割して順次音声
入力して音声入力できるようになっている。これによ
り、使用者が音声入力しようとする内容を分けて入力し
た場合であっても、一括して入力した場合であっても対
応することができ、音声操作による使用勝手が向上す
る。本発明において、音声入力する内容が電話番号であ
れば、電話番号を分割して音声入力して、電話をかける
ことができ、スムーズに音声入力しなくてもよく使用勝
手が向上する。本発明において、好ましくは使用が分割
して音声入力した内容を、処理手段が分割した内容ごと
に音声により復唱しその後音声により一括して復唱する
ようにすれば、使用者はこの報知の内容により、分割し
て音声入力した内容を、音声で分割入力ごとにそして音
声入力が終了した後に一括して確認することができる。In the present invention, the voice input means inputs the contents by the voice of the user. The data registration means registers the registration word. The voice recognition means recognizes a voice signal input by voice input. The processing means is adapted to allow the user to divide the content and sequentially input the voice to input the voice in order to match the content input by the user by voice with the registered word registered in the data registration means. Has become. Accordingly, it is possible to cope with a case where the user inputs the contents to be input by voice separately or a case where the contents are input collectively, and the usability by voice operation is improved. In the present invention, if the content to be input by voice is a telephone number, the telephone number can be divided and input by voice to make a call, so that it is not necessary to input voice smoothly and the usability is improved. In the present invention, it is preferable that the content divided by use is input by voice, and the processing unit repeats the content by voice for each of the divided content, and then repeats the content collectively by voice. The contents of the divided voice input can be checked collectively by voice for each divided input and after the voice input is completed.
【0010】上記目的は、本発明にあっては、使用者の
音声を音声入力手段に入力することで、音声入力手段に
入力された音声信号を音声認識手段により認識して処理
する音声認識処理ステップと、使用者が音声入力した内
容を、データ登録手段に登録されている登録語に一致す
るようにするために、使用者が内容を分割して順次音声
入力できる処理ステップと、を備えることを特徴とする
電子機器における音声操作方法により、達成される。こ
れにより、使用者が音声入力しようとする内容を分けて
入力した場合であっても、一括して入力した場合であっ
ても対応することができ、音声操作による使用勝手が向
上する。本発明において、音声入力する内容が電話番号
であれば、電話番号を分割して入力しても、電話をかけ
ることができる。本発明において、好ましくは使用が分
割して音声入力した内容を、処理手段が音声により分割
入力ごとにそして一括して復唱すれば、使用者はこの報
知の内容により、分割して音声入力した内容を音声で確
認することができる。[0010] The object of the present invention is to provide a voice recognition process for recognizing and processing a voice signal input to a voice input means by inputting voice of a user to the voice input means. And a processing step of allowing the user to divide the content and sequentially input the voice so that the content input by the user by voice matches the registered word registered in the data registration unit. This is achieved by a voice operation method in an electronic device characterized by the following. Accordingly, it is possible to cope with a case where the user inputs the contents to be input by voice separately or a case where the contents are input collectively, and the usability by voice operation is improved. In the present invention, if the content to be input by voice is a telephone number, a telephone call can be made even if the telephone number is divided and input. In the present invention, preferably, if the processing means repeats the content of voice input dividedly by use for each divided input by voice and collectively, the user can divide the voice input content by the content of the notification. Can be confirmed by voice.
【0011】上記目的は、本発明にあっては、車内に音
声操作機能付き電子機器を備える自動車において、使用
者が音声により内容を入力するための音声入力手段と、
登録語を登録するためのデータ登録手段と、音声入力手
段に入力された音声信号を認識して処理する音声認識手
段と、使用者が音声入力した内容を、データ登録手段に
登録されている登録語に一致するようにするために、使
用者が内容を分割して順次音声入力できる処理手段と、
を備えることを特徴とする音声操作機能付き電子機器を
備える自動車により、達成される。これにより、使用者
が音声入力しようとする内容を分けて入力した場合であ
っても、一括して入力した場合であっても対応すること
ができ、音声操作による使用勝手が向上する。本発明に
おいて、音声入力する内容が電話番号であれば、電話番
号を分割しても、電話をかけることができる。本発明に
おいて、好ましくは使用が分割して音声入力した内容
を、処理手段が音声により分割入力ごとにそして一括し
て復唱するようにすれば、使用者はこの報知の内容によ
り、分割して音声入力した内容を音声で確認することが
できる。[0011] The object of the present invention is to provide a vehicle equipped with an electronic device having a voice operation function in a vehicle, wherein a voice input means for a user to input contents by voice;
A data registration unit for registering a registered word, a voice recognition unit for recognizing and processing a voice signal input to the voice input unit, and a registration registered in the data registration unit for contents input by a user by voice. Processing means for allowing the user to divide the content and sequentially input speech in order to match the words,
The present invention is achieved by an automobile including an electronic device with a voice operation function, characterized by comprising: Accordingly, it is possible to cope with a case where the user inputs the contents to be input by voice separately or a case where the contents are input collectively, and the usability by voice operation is improved. In the present invention, if the content to be input by voice is a telephone number, a telephone call can be made even if the telephone number is divided. In the present invention, preferably, if the processing means repeats the content of voice input divided by use for each divided input by voice and collectively, the user can divide the voice by the content of this notification. You can check the input content by voice.
【0012】[0012]
【発明の実施の形態】以下、本発明の好適な実施の形態
を添付図面に基づいて詳細に説明する。なお、以下に述
べる実施の形態は、本発明の好適な具体例であるから、
技術的に好ましい種々の限定が付されているが、本発明
の範囲は、以下の説明において特に本発明を限定する旨
の記載がない限り、これらの形態に限られるものではな
い。Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings. Note that the embodiments described below are preferred specific examples of the present invention,
Although various technically preferable limits are given, the scope of the present invention is not limited to these modes unless otherwise specified in the following description.
【0013】図1は、本発明の音声操作機能付き電子機
器の一例として、自動車に搭載されるナビゲーション機
能と携帯電話機能を有する電子機器の実施の形態を示し
ている。図1に示す電子機器100は、概略的には携帯
電話機101、ナビゲーション装置20、音声認識装置
10などを備えている。FIG. 1 shows an embodiment of an electronic device having a navigation function and a portable telephone function mounted on an automobile as an example of the electronic device with a voice operation function of the present invention. The electronic device 100 shown in FIG. 1 generally includes a mobile phone 101, a navigation device 20, a voice recognition device 10, and the like.
【0014】図2と図3は、本発明の電子機器100が
自動車50に搭載された例を示しており、この自動車5
0に対して、図1に示す電子機器100の各部分が所定
位置に配置されている。まず音声認識装置10とナビゲ
ーション装置20は、例えば図2に示すように自動車5
0の任意の空間、例えば後部のトランク内に設置されて
いる。図1のマイクロフォン11は、図2と図3に示す
自動車50の車内のサンバイザー53に取り付けられて
いる。図1の携帯電話機101は、図2と図3に示す運
転席52のセンターコンソール50C付近に着脱可能に
設定されている。FIGS. 2 and 3 show an example in which the electronic apparatus 100 of the present invention is mounted on a car 50.
Each part of the electronic device 100 shown in FIG. First, the voice recognition device 10 and the navigation device 20 are connected to the automobile 5 as shown in FIG.
0, for example, in the rear trunk. The microphone 11 in FIG. 1 is attached to a sun visor 53 in a vehicle 50 shown in FIGS. 2 and 3. The mobile phone 101 shown in FIG. 1 is detachably set near the center console 50C of the driver's seat 52 shown in FIGS.
【0015】図1のスピーカ32は、図2と図3に示す
ように運転席のセンターコンソール50C付近に設置さ
れている。図1のディスプレイ装置(表示手段)40
は、例えば液晶表示装置を用いることができ、このディ
スプレイ装置40は図2と図3に示すように運転席52
のセンターコンソール50Cに設置されている。図1の
操作キー27は、図3の運転席のステアリング51のコ
ラムの所に設けられている。図1のアンテナ21は、例
えば図2に示すように自動車50のトランク50Aに設
置されているが、これらのアンテナ21はリアウィンド
シールド内に埋め込んだりサイドウィンドシールドなど
に埋め込むような設定方法にしてもよい。The speaker 32 shown in FIG. 1 is installed near the center console 50C in the driver's seat as shown in FIGS. The display device (display means) 40 of FIG.
For example, a liquid crystal display device can be used, and the display device 40 has a driver seat 52 as shown in FIGS.
Is installed on the center console 50C. The operation key 27 in FIG. 1 is provided at a column of the steering wheel 51 of the driver's seat in FIG. The antenna 21 shown in FIG. 1 is installed, for example, in a trunk 50A of an automobile 50 as shown in FIG. 2, but these antennas 21 are embedded in a rear windshield or in a side windshield. Is also good.
【0016】図2に示す自動車50のエンジン制御コン
ピュータ54は、図1に示すナビゲーション装置20と
電気的に接続されており、エンジン制御コンピュータ5
4から車速に比例したパルス信号がナビゲーション装置
20側に供給できる。The engine control computer 54 of the automobile 50 shown in FIG. 2 is electrically connected to the navigation device 20 shown in FIG.
From 4, a pulse signal proportional to the vehicle speed can be supplied to the navigation device 20 side.
【0017】図3に示す運転席52に使用者Mが座り運
転姿勢を取った状態で、使用者Mは、携帯電話機101
及びナビゲーション装置20、音声認識装置10を介し
て、本発明の電子機器100においては音声入力のみ
で、後で説明する“対象”及びその“対象”に対応する
“特定の行為”を指定することで、例えば自動的に外部
に電話をかけることができるものである。このように音
声で各種の“対象”及び“対象”に対応する“特定の行
為”を指定するために、マイクロフォン11は、上述し
たようにフロントウインドシールドガラス50Bの付近
のサンバイザー53に対して取り付けられており、運転
席52に着席した使用者Mの話し声を拾うことができ
る。このマイクロフォンは例えば指向性が比較的狭く設
定されており、自動車50の運転席52に着席した使用
者Mの話し声だけを良好に拾うようになっており、これ
により誤動作を防ぐ。When the user M sits in the driver's seat 52 shown in FIG.
In addition, in the electronic device 100 of the present invention, through the navigation device 20 and the voice recognition device 10, the “target” described later and the “specific action” corresponding to the “target” can be designated only by voice input. Thus, for example, a telephone call can be automatically made to the outside. As described above, in order to specify various “objects” and “specific actions” corresponding to the “objects” by voice, the microphone 11 transmits the sun visor 53 near the front windshield glass 50B as described above. It is attached and can pick up the voice of the user M seated in the driver's seat 52. The microphone has, for example, a relatively narrow directivity, so that only the voice of the user M seated in the driver's seat 52 of the automobile 50 can be picked up satisfactorily, thereby preventing malfunction.
【0018】次に、図1の音声認識装置10、携帯電話
機101、ナビゲーション装置20などの各部位を説明
する。本発明の電子機器100は、上述したように音声
認識装置10、ナビゲーション装置20、マイクロフォ
ン11、ディスプレイ装置40、操作キー27などを有
しており、さらに使用者Mが携帯電話機101を音声認
識装置10とナビゲーション装置20に対して電気的に
接続することができる。携帯電話機101は、図3の自
動車50のセンターコンソール50Cの取付け用のブラ
ケット50Dに取り付けることにより、図1に示すよう
に携帯電話機101はマイクロフォン11、ナビゲーシ
ョン装置20に対して電気的に接続することができる。Next, each part of the voice recognition device 10, the mobile phone 101, the navigation device 20 and the like in FIG. 1 will be described. As described above, the electronic device 100 of the present invention includes the voice recognition device 10, the navigation device 20, the microphone 11, the display device 40, the operation keys 27, and the like. 10 and the navigation device 20 can be electrically connected. By attaching the mobile phone 101 to a bracket 50D for mounting the center console 50C of the automobile 50 in FIG. 3, the mobile phone 101 is electrically connected to the microphone 11 and the navigation device 20 as shown in FIG. Can be.
【0019】図1において、マイクロフォン11は、音
声認識装置(音声認識手段)10のノイズフィルタ11
Aを介して、A/D変換器(アナログ/デジタル変換
器)12、デジタル音声処理回路(DSP)13に接続
されている。このデジタル音声処理回路13は、音声認
識回路14に接続され、この音声認識回路14はROM
(リードオンリーメモリ)15と変換部16に接続され
ている。また音声認識回路14は接続端子10b,20
bを介してナビゲーション装置20のマイクロコンピュ
ータのような処理手段23に電気的に接続されている。
変換部16は接続端子10a,20aを介してナビゲー
ション装置20の処理手段23に接続されている。変換
部16は、RAM(ランダムアクセスメモリ)17に接
続されている。In FIG. 1, a microphone 11 is a noise filter 11 of a voice recognition device (voice recognition means) 10.
Via A, it is connected to an A / D converter (analog / digital converter) 12 and a digital audio processing circuit (DSP) 13. The digital speech processing circuit 13 is connected to a speech recognition circuit 14, and the speech recognition circuit 14
(Read only memory) 15 and a converter 16. The voice recognition circuit 14 has connection terminals 10b, 20
b, it is electrically connected to a processing means 23 such as a microcomputer of the navigation device 20.
The converter 16 is connected to the processing means 23 of the navigation device 20 via the connection terminals 10a and 20a. The conversion unit 16 is connected to a RAM (random access memory) 17.
【0020】マイクロフォン11は、図3の運転席52
に着席した使用者Mが発生する音声を入力する音声入力
手段である。音声認識装置10のノイズフィルタ11A
は、このマイクロフォン11から入力される音声信号A
Sのノイズを除去し、A/D変換器12に供給する。A
/D変換器12は、音声信号ASを所定のサンプリング
周波数のデジタル音声信号に変換する。このA/D変換
器12が出力するデジタル音声信号ADSは、デジタル
音声処理回路13において、帯域分割、フィルタリング
などの処理で、デジタル音声信号をベクトルデータとし
て、このベクトルデータを音声認識回路14に供給す
る。The microphone 11 is connected to the driver's seat 52 shown in FIG.
Is a voice input unit for inputting a voice generated by the user M who is seated in the vehicle. Noise filter 11A of voice recognition device 10
Is an audio signal A input from the microphone 11
The noise of S is removed and supplied to the A / D converter 12. A
The / D converter 12 converts the audio signal AS into a digital audio signal having a predetermined sampling frequency. The digital audio signal ADS output from the A / D converter 12 is supplied to a digital audio processing circuit 13 by performing processing such as band division and filtering, using the digital audio signal as vector data and supplying the vector data to an audio recognition circuit 14. I do.
【0021】ROM15は、音声認識データを記憶して
おり、音声認識回路14に対してその音声認識データを
供給できる。デジタル音声処理回路13から供給される
ベクトルデータと、所定の音声認識アルゴリズムに従っ
た音声認識回路14を行い、ROM15に記憶された音
声認識用音韻モデルから候補を複数選定し、その候補の
中で最も一致度の高い音韻モデルに対応して記憶された
文字データを読出す。The ROM 15 stores voice recognition data, and can supply the voice recognition data to the voice recognition circuit 14. The speech recognition circuit 14 according to the vector data supplied from the digital speech processing circuit 13 and a predetermined speech recognition algorithm is performed, and a plurality of candidates are selected from the phoneme models for speech recognition stored in the ROM 15. The character data stored corresponding to the phoneme model having the highest matching degree is read out.
【0022】音声認識データ記憶用ROM15のデータ
記憶状態としては、例えば地名や数字あるいはナビゲー
ション装置20の操作を指示するための言葉など各種の
用語が記憶されている。地名としては、例えば日本国内
の都道府県名、市町村名などが記憶されている。数字と
しては、電話番号などを認識できるように数字の音声認
識をさせるためのデータが記憶されている。As the data storage state of the voice recognition data storage ROM 15, various terms such as, for example, place names, numbers, and words for instructing the operation of the navigation device 20 are stored. As the place name, for example, the names of prefectures and municipalities in Japan are stored. As numbers, data for voice recognition of numbers is stored so that telephone numbers and the like can be recognized.
【0023】ナビゲーション装置20の操作を指示する
言葉としては、例えば“目的地”、“出発地”、“経由
地”、“自宅”などの表示位置を表示する言葉や、“今
何時”(現在時刻を聞く指令)、“今どこ”(現在位置
を聞く指令)、“次は”(次の交差点を聞く指令)、
“あとどれくらい”(目的地までの距離を聞く指令)、
“速度は”(現在速度を聞く指令)、“高度は”(現在
の高度を聞く指令)、“進行方向は”(進行方向を聞く
指令)、“一覧表”(認識できる指令の一覧表をディス
プレイに表示させるための指令)等のその他の各種操作
指令を行う言葉の文字コードと、その言葉に対応する音
韻モデルが記憶させてある。The words instructing the operation of the navigation device 20 include, for example, words indicating the display position such as "destination", "departure point", "transit point", "home", and "what time" (current time). Command to ask the time), "now where" (command to ask the current position), "next" (command to listen to the next intersection),
"How much more" (command to ask the distance to the destination),
“Speed” (command to listen to current speed), “Altitude” (command to listen to current altitude), “Progress direction” (command to listen to traveling direction), “List” (list of commands that can be recognized) A character code of a word for performing various other operation commands such as a command for displaying on a display) and a phoneme model corresponding to the word are stored.
【0024】次に、RAM17は、データ登録手段であ
り、例えば上述した変換部16における経緯度変換デー
タを記憶する。このRAM17は、次のような経緯度変
換データを記憶している。音声認識データ記憶用のRO
M15に記憶された地名の文字コードと同じ発音の文字
コード毎に記憶エリアが設定され、各文字コード毎に、
その言葉を認識した場合の動作、応答音声の文字コー
ド、音声が地名の場合のその地域の経度、緯度のデー
タ、文字として表示させるデータ(漢字などを使用した
文字コード)とが記憶させてある。Next, the RAM 17 is a data registration unit, and stores, for example, the longitude / latitude conversion data in the conversion unit 16 described above. This RAM 17 stores the following longitude / latitude conversion data. RO for storing voice recognition data
A storage area is set for each character code having the same pronunciation as the character code of the place name stored in M15, and for each character code,
The operation when the word is recognized, the character code of the response voice, the longitude and latitude data of the region when the voice is a place name, and the data to be displayed as characters (character codes using kanji) are stored. .
【0025】しかもこのRAM17は、使用者が、ナビ
ゲーション装置20の処理手段23を介して、任意のデ
ータをユーザー辞書として登録できるとともに、あらか
じめ基本辞書をも登録することができる。基本辞書と
は、例えば図12のようにすでに決定されている例えば
電話番号であり、一例としては“警察”:“110”、
“消防署”:“119”などといったような対象及び電
話番号を登録することができる。またユーザー登録とし
ては、例えば“やまだたろう”といった“対象”と、そ
のやまだたろうに対応する電話番号例えば“03−12
34−5678”を登録することができる。その登録に
際しては、使用者Mが音声入力したり操作キー27を操
作することで処理手段23を介してRAM17に登録で
きる。なお、地名毎の緯度と経度のデータとしては、そ
の地名で示される地域の役所(市役所、区役所、町役
場、村役場)の所在地の絶対位置を緯度と経度のデータ
を採用することができる。In addition, the RAM 17 allows the user to register arbitrary data as a user dictionary via the processing means 23 of the navigation device 20, and also registers a basic dictionary in advance. The basic dictionary is, for example, a telephone number that has already been determined as shown in FIG. 12, for example, “police”: “110”,
“Fire department”: A target such as “119” and a telephone number can be registered. In addition, the user registration includes, for example, a “target” such as “Yamadarou” and a telephone number corresponding to the “yamadarou”, eg, “03-12”.
34-5678 "can be registered. In the registration, the user M can register in the RAM 17 through the processing means 23 by inputting voice or operating the operation key 27. The latitude and the latitude of each place name can be registered. As the longitude data, the absolute position of the location of the local government office (city hall, ward office, town hall, village office) indicated by the place name can be adopted as latitude and longitude data.
【0026】RAM17から供給される経緯度変換デー
タ及び基本辞書やユーザー辞書内のデータは、音声認識
手段である音声認識装置10からの出力として接続端子
10aに供給でき、RAM17における上述したユーザ
ー辞書と基本辞書の内容は、変換部16を介してやはり
接続端子10a,20aを介して処理手段23に供給す
る。また音声認識回路14で認識された音声信号の文字
コードのデータは、音声認識装置10の出力として出力
端子10b,20bを介して処理手段23に供給する。The longitude / latitude conversion data supplied from the RAM 17 and the data in the basic dictionary and the user dictionary can be supplied to the connection terminal 10a as an output from the voice recognition device 10 as voice recognition means. The contents of the basic dictionary are supplied to the processing unit 23 via the conversion unit 16 and also via the connection terminals 10a and 20a. The character code data of the voice signal recognized by the voice recognition circuit 14 is supplied to the processing means 23 through the output terminals 10b and 20b as an output of the voice recognition device 10.
【0027】次に、図1のナビゲーション装置20の各
構成要素について説明する。このナビゲーション装置2
0は、GPS用アンテナ21を備え、このアンテナ21
が受信したGPS用衛星からの測位用信号を、現在位置
検出回路22で受信処理し、この受信したデータを解析
して、現在位置を検出する。この検出した現在位置のデ
ータは、処理手段23に供給されてそのときの絶対的な
位置である緯度と経度のデータとして用いる。Next, each component of the navigation device 20 of FIG. 1 will be described. This navigation device 2
0 has a GPS antenna 21,
Receives the positioning signal from the GPS satellite received by the current position detection circuit 22 and analyzes the received data to detect the current position. The data of the detected current position is supplied to the processing means 23 and used as data of the latitude and longitude, which are absolute positions at that time.
【0028】この処理手段23は、ナビゲーション装置
20による動作を制御するシステムコントローラとして
機能する回路であり、道路地図データが記憶されたCD
−ROM(光ディスク)がセットされてこのCD−RO
Mの記憶データを読出すCD−ROMドライバ24と、
データ処理に必要な各種データを記憶するRAM25
と、このナビゲーション装置が搭載された車両の動きを
検出する車速センサ26と、操作キー27とが接続させ
てある。現在位置などの経緯度の座標データが得られた
とき、処理手段23は、CD−ROMドライバ24にそ
の座標位置の近傍の道路地図データを読出す制御を行
う。そして、処理手段23は、CD−ROMドライバ2
4で読出した道路地図データをRAM25に一時記憶さ
せ、この記憶された道路地図データを使用して、道路地
図を表示させるための表示データを作成する。このとき
には、操作キー27の操作などにより設定された表示ス
ケール(縮尺)で地図を表示させるような表示データと
する。The processing means 23 is a circuit functioning as a system controller for controlling the operation of the navigation device 20, and includes a CD storing road map data.
-This CD-RO with a ROM (optical disk) set
A CD-ROM driver 24 for reading M stored data;
RAM 25 for storing various data necessary for data processing
And a vehicle speed sensor 26 for detecting the movement of a vehicle equipped with the navigation device, and an operation key 27 are connected. When the coordinate data of the latitude and longitude such as the current position is obtained, the processing unit 23 controls the CD-ROM driver 24 to read the road map data near the coordinate position. Then, the processing means 23 includes the CD-ROM driver 2
The road map data read in step 4 is temporarily stored in the RAM 25, and display data for displaying a road map is created using the stored road map data. At this time, the display data is set to display a map on a display scale (scale) set by operating the operation key 27 or the like.
【0029】処理手段23で作成された表示データを映
像信号生成回路28に供給し、この映像信号生成回路2
8で表示データに基づいて所定のフォーマットの映像信
号を生成させ、この映像信号を出力端子20cに供給す
る。The display data generated by the processing means 23 is supplied to the video signal generation circuit 28, and the video signal generation circuit 2
At step 8, a video signal of a predetermined format is generated based on the display data, and this video signal is supplied to the output terminal 20c.
【0030】この出力端子20cから出力される映像信
号は、ディスプレイ装置(表示手段)40に供給し、こ
のディスプレイ装置40で映像信号に基づいた受像処理
を行い、ディスプレイ装置40の表示パネルに道路地図
などを表示させる。The video signal output from the output terminal 20c is supplied to a display device (display means) 40, which performs an image receiving process based on the video signal, and displays a road map on a display panel of the display device 40. And so on.
【0031】このような現在位置の近傍の道路地図を表
示させる他に、操作キー27の操作などで指示された位
置の道路地図なども、処理手段23の制御に基づいて表
示できるようにしてある。また、操作キー27の操作な
どに基づいて、処理手段23は、“目的地”、“出発
地”、“経由地”、“自宅”、“ルート探索”、“電話
をかける”、“マーク設定”、“最寄り探索”などの特
定の座標位置を設定あるいは登録することができるよう
にしてある。この特定の座標位置を登録した場合には、
その登録した座標位置のデータ(経度と緯度のデータ)
をRAM17に記憶させる。In addition to displaying such a road map near the current position, a road map at a position designated by operating the operation key 27 or the like can be displayed based on the control of the processing means 23. . Further, based on the operation of the operation key 27 or the like, the processing means 23 performs “destination”, “departure point”, “intermediate point”, “home”, “route search”, “call”, “mark setting”. "," Nearest search "and the like can be set or registered. If you register this specific coordinate position,
Data of the registered coordinate position (longitude and latitude data)
Is stored in the RAM 17.
【0032】また、車速センサ26が自動車の走行を検
出したときには、処理手段23が操作キー27の操作の
内の比較的簡単な操作以外の操作を受け付けないように
してある。When the vehicle speed sensor 26 detects that the vehicle is running, the processing means 23 does not accept any operation other than the relatively simple operation of the operation keys 27.
【0033】このナビゲーション装置20は、自律航法
部29を備え、図2の自動車50側のエンジン制御用コ
ンピュータ54から供給される車速に対応したパルス信
号に基づいて、自動車の正確な走行速度を演算すると共
に、自律航法部29内のジャイロセンサの出力に基づい
て進行方向を検出し、速度と進行方向に基づいて決めら
れた位置からの自律航法による現在位置の測位を行う。
例えば現在位置検出回路22で位置検出ができない状態
になったとき、最後に現在位置検出回路22で検出でき
た位置から、自律航法による測位を行う。The navigation device 20 includes an autonomous navigation unit 29, and calculates an accurate running speed of the vehicle based on a pulse signal corresponding to the vehicle speed supplied from the engine control computer 54 of the vehicle 50 in FIG. At the same time, the traveling direction is detected based on the output of the gyro sensor in the autonomous navigation unit 29, and the current position is measured by the autonomous navigation from a position determined based on the speed and the traveling direction.
For example, when the position cannot be detected by the current position detection circuit 22, the positioning by the autonomous navigation is performed from the position last detected by the current position detection circuit 22.
【0034】処理手段23には音声合成回路31が接続
させてあり、処理手段23で音声による何らかの指示が
必要な場合には、音声合成回路31でこの指示する音声
の合成処理を実行させ、音声合成回路31に接続された
スピーカ32から音声を出力させる。例えば、“目的地
に近づきました”、“進行方向は左です”などのナビゲ
ーション装置として必要な各種指示を音声で行う。この
音声合成回路31では、音声認識装置10で認識した音
声を、供給される文字データに基づいて音声合成処理し
て、スピーカ32から音声として出力させるようにして
ある。スピーカ32は例えば使用者Mが音声入力した
“対象”や“特定の行為”(図4参照)を復唱する。A speech synthesizing circuit 31 is connected to the processing means 23. If the processing means 23 needs any instruction by voice, the speech synthesizing circuit 31 executes a synthesizing process of the instructed voice, and The sound is output from the speaker 32 connected to the synthesis circuit 31. For example, various instructions necessary for the navigation device, such as "approaching the destination" and "the traveling direction is left", are performed by voice. In the voice synthesis circuit 31, the voice recognized by the voice recognition device 10 is subjected to voice synthesis processing based on the supplied character data, and is output from the speaker 32 as voice. The speaker 32 repeats, for example, the “target” or the “specific action” (see FIG. 4) input by the user M.
【0035】このナビゲーション装置20は、音声認識
装置10の出力端子10a,10bから出力される経緯
度データとその付随データ及び文字コードのデータが供
給される入力端子20a,20bを備え、この入力端子
20a,20bに得られる経緯度データとその付随デー
タ及び文字コードのデータを、処理手段23に供給す
る。The navigation device 20 has input terminals 20a and 20b to which latitude and longitude data output from output terminals 10a and 10b of the voice recognition device 10 and its accompanying data and character code data are supplied. The latitude and longitude data obtained in 20a and 20b, the accompanying data and the character code data are supplied to the processing means 23.
【0036】処理手段23は、この経緯度データD1な
どが音声認識装置10側から供給されるとき、その経度
と緯度の近傍の道路地図データをCD−ROMドライバ
24でディスクから読出す制御を行う。そして、CD−
ROMドライバ24で読出した道路地図データをRAM
25に一時記憶させ、この記憶された道路地図データを
使用して、道路地図を表示させるための表示データを作
成する。このときには、供給される経度と緯度が中心に
表示される表示データとする。When the latitude and longitude data D1 and the like are supplied from the voice recognition device 10, the processing means 23 controls the CD-ROM driver 24 to read road map data near the longitude and latitude from the disk. . And CD-
The road map data read by the ROM driver 24 is stored in the RAM
25, and display data for displaying a road map is created using the stored road map data. At this time, it is assumed that the supplied longitude and latitude are display data displayed at the center.
【0037】この表示データに基づいて、映像信号生成
回路28で映像信号を生成させ、ディスプレイ装置40
に、音声認識装置10から指示された座標位置の道路地
図を表示させる。Based on the display data, a video signal is generated by the video signal generation circuit 28 and the display device 40
Then, a road map at the coordinate position designated by the voice recognition device 10 is displayed.
【0038】音声認識装置10の出力端子10bからナ
ビゲーション装置の操作を指示する言葉の文字コードが
供給される場合には、その操作を指示する言葉の文字コ
ードを処理手段23で判別すると、対応した制御を処理
手段23が行う。この場合、“目的地”、“出発地”、
“経由地”、“自宅”などの表示位置を指示する言葉の
文字コードである場合には、この表示位置の座標がRA
M25に登録されているか否か判断した後、登録されて
いる場合には、その位置の近傍の道路地図データをCD
−ROMドライバ24でディスクから読出す制御を行
う。When the character code of a word instructing the operation of the navigation device is supplied from the output terminal 10b of the voice recognition device 10, the character code of the word instructing the operation is determined by the processing means 23. The control is performed by the processing unit 23. In this case, "destination", "departure",
When the character code of a word indicating a display position such as “intermediate place” or “home” is, the coordinates of the display position are RA
After determining whether or not the data is registered in M25, if the data is registered, the road map data near the position is stored in a CD.
-The reading from the disk is controlled by the ROM driver 24.
【0039】処理手段23に音声認識装置10から、認
識した音声の発音を示す文字コードのデータが供給され
るときには、その文字コードで示される言葉を、音声合
成回路31で合成処理させ、音声合成回路31に接続さ
れたスピーカ32から音声として出力させる。例えば、
音声認識装置10側で“トウキョウト ブンキョウク
(東京都文京区)”と音声認識したとき、この認識した
発音の文字列のデータに基づいて“トウキョウト ブン
キョウク”と発音させる音声信号を生成させる合成処理
を、音声合成回路31で行い、その生成された音声信号
をスピーカ32から出力させる。When data of a character code indicating the pronunciation of the recognized voice is supplied from the voice recognition device 10 to the processing means 23, the words represented by the character code are synthesized by the voice synthesis circuit 31, and the voice synthesis is performed. The sound is output from a speaker 32 connected to the circuit 31 as sound. For example,
When the voice recognition device 10 recognizes the voice as “Tokyo Bunkyo (Bunkyo-ku, Tokyo)”, based on the character string data of the recognized pronunciation, a synthesis process for generating a voice signal to be pronounced as “Tokyo Bunkyo” is performed. This is performed by the voice synthesis circuit 31, and the generated voice signal is output from the speaker 32.
【0040】この場合、本例においては音声認識装置1
0で音声認識を行った場合に、ナビゲーション装置20
の端子20aに経度、緯度のデータが供給されるのと、
端子20bに認識した音声の発音を示す文字コードのデ
ータが供給されるのが、ほぼ同時であるが、処理手段2
3では最初に音声合成回路31で認識した言葉を音声合
成させる処理を実行させ、次に経度、緯度のデータに基
づいた道路地図の表示データの作成処理を実行させる。In this case, in this example, the speech recognition device 1
0 when the voice recognition is performed,
And the terminal 20a is supplied with longitude and latitude data,
Although the data of the character code indicating the pronunciation of the recognized voice is supplied to the terminal 20b almost simultaneously, the processing means 2
In step 3, a process for first synthesizing the words recognized by the speech synthesis circuit 31 is executed, and then a process for creating road map display data based on longitude and latitude data is executed.
【0041】また、図1の処理手段23に対しては、携
帯電話機101が接続される。例えば使用者Mがマイク
ロフォン11に向って、“対象”である一例として“東
京タワー”と発生すると、音声認識装置10を経て、
“東京タワー”データが処理手段23に供給される。R
AM17には、ユーザー辞書あるいは基本辞書として
“対象”としての“東京タワー”の“電話番号”が記憶
されていれば、RAM17、変換部16を介して処理手
段23に対してこの“東京タワー”に対応する“電話番
号”のデータTPDが送られる。処理手段23はこの
“電話番号”のデータTPDを携帯電話機101に送
り、携帯電話機101は、この電話番号データTPDに
基づいて、基地局に送信する。携帯電話機101として
は、デジタル通信方式の携帯電話機を採用するのが好ま
しく、携帯電話機101は、例えば800MHzあるい
は1.5GHzの周波数のデジタル電話機を採用するこ
とができる。A mobile phone 101 is connected to the processing means 23 shown in FIG. For example, when the user M is directed to the microphone 11 and generates “Tokyo Tower” as an example of “object”, the user M passes through the voice recognition device 10 and
“Tokyo Tower” data is supplied to the processing means 23. R
If the "phone number" of "Tokyo Tower" as the "target" is stored in the AM 17 as the user dictionary or the basic dictionary, the "Tokyo Tower" is sent to the processing means 23 via the RAM 17 and the conversion unit 16. Is transmitted as the data TPD of the "telephone number" corresponding to. The processing means 23 sends the data TPD of the "telephone number" to the mobile phone 101, and the mobile phone 101 transmits the data TPD to the base station based on the telephone number data TPD. It is preferable to use a digital communication type mobile phone as the mobile phone 101, and the mobile phone 101 can use a 800 MHz or 1.5 GHz frequency digital phone, for example.
【0042】次に、上述したナビゲーション機能及び電
話機能を有する電子機器100の操作方法について説明
する。ここで、上述した“対象”と、“対象”に対応す
る“特定の行為”について簡単に説明する。図4におい
て、“対象”としては、例えば呼び出したい場所などを
定義しており、地名、駅名、ランドマーク、電話番号、
マーク名称、電話登録名などの項目を挙げることができ
る。この中でランドマークとは、地図上の目立つような
建築物または建造物などを指しており、例えば一例とし
ては“東京タワー”などが挙げられる。電話番号は、市
外局番−市内局番−番号の順に配列されており、例えば
“03−1234−5678”のようなものである。マ
ーク名称とは、例えばナビゲーション装置の図1のディ
スプレイ装置40におけるある位置にマークを設定した
場合のそのマークの名称を指しており、あるマークの名
称が、例えば“やまだたろう”の住所を示すような場合
である。電話登録名とは、例えば“たなかはなこ”とい
った人名を登録しておく。Next, a method of operating the electronic device 100 having the above-described navigation function and telephone function will be described. Here, the above-mentioned “target” and “specific actions” corresponding to the “target” will be briefly described. In FIG. 4, “target” defines, for example, a place to be called, for example, a place name, a station name, a landmark, a telephone number,
Items such as a mark name and a telephone registration name can be cited. Among them, the landmark refers to a prominent building or building on a map, for example, "Tokyo Tower" or the like. The telephone numbers are arranged in the order of area code-city code-number, for example, "03-1234-5678". The mark name indicates, for example, the name of the mark when the mark is set at a certain position on the display device 40 in FIG. 1 of the navigation device, and the name of the certain mark indicates, for example, the address of “Yamadarou”. This is the case. As the telephone registration name, for example, a personal name such as "Takanaka Hanako" is registered.
【0043】これに対して“特定の行為”とは、各種コ
マンドを示しており、例えば“ルート探索”、“目的地
設定”、“経由地設定”、“電話(かける)”、“マー
ク設定”、“最寄り探索”コマンドなどがある。On the other hand, "specific action" indicates various commands, for example, "route search", "destination setting", "transit point setting", "telephone (call)", "mark setting". "," Nearest search "command, and the like.
【0044】本発明の実施の形態においては、図3の使
用者Mが音声によりまず呼び出したい“対象”を先に音
声入力し、その次に特定の“行為”を指定することがで
きる。このような音声入力による指定順序は矢印RBで
示している。また本発明の実施の形態においては、この
矢印RBの音声入力順に限らず、矢印RAで示すように
使用者Mが“特定の行為”を先に音声入力して指定した
後に、“対象”を指定することも勿論できる。In the embodiment of the present invention, the user M shown in FIG. 3 can first input the "target" to be called by voice, and then specify a specific "action". The designation order by such voice input is indicated by an arrow RB. Further, in the embodiment of the present invention, after the user M first specifies the "specific action" by voice input as shown by the arrow RA, the "target" is not limited to the voice input order of the arrow RB. Of course, it can also be specified.
【0045】図4における矢印RBの音声入力手順に従
うと、使用者Mは“対象”を指定した後に“特定の行
為”を指定する。この例としては、例えば“対象”にお
ける“やまだたろう”を呼び出してから、“特定の行
為”である“電話(かける)”コマンドを言う場合や、
“対象”である“品川駅”を呼び出してから、“特定の
行為”である“ルート探索”コマンドを言うような場合
である。これに対して矢印RAの音声入力手順の場合に
は、“電話”コマンドを言ってから“やまだたろう”を
呼び出したり、“ルート探索”コマンドを言ってから、
“品川駅”を呼び出すような場合である。According to the voice input procedure indicated by the arrow RB in FIG. 4, the user M specifies a "target" and then a "specific action". As an example of this, for example, after calling "Yamadarou" in "subject", say "telephone (call)" command which is "specific action",
This is a case where after calling the "target""ShinagawaStation", a "route search" command which is a "specific action" is said. On the other hand, in the case of the voice input procedure of the arrow RA, after calling the "telephone" command and then calling "Yamadarou" or the "route search" command,
This is the case when you call “Shinagawa Station”.
【0046】次に図5は、使用者Mによる音声操作によ
り、図1の携帯電話機101とナビゲーション装置20
を用いて、図1の自動車50の運転席52に座っている
使用者Mが、外部へ電話する場合の操作例を示してい
る。図5においてステップS1では、図3の使用者Mが
マイクロフォン11に対して音声入力を開始し、ステッ
プS2において図4の“対象”である“ランドマーク”
や“地名”を入れれば、音声認識装置10からナビゲー
ション装置20の処理手段23に対して信号が送られて
処理手段23はディスプレイ装置40に対してステップ
S7のように地図を表示する。ステップS2におけるこ
の地名としては、例えば“東京都港区港南1−7−4”
や“東京タワー”などである。Next, FIG. 5 shows the portable telephone 101 and the navigation device 20 shown in FIG.
1 shows an operation example when the user M sitting in the driver's seat 52 of the automobile 50 in FIG. 1 calls outside. In FIG. 5, in step S1, the user M in FIG. 3 starts voice input to the microphone 11, and in step S2, the "landmark" which is the "object" in FIG.
If "place name" is entered, a signal is sent from the voice recognition device 10 to the processing means 23 of the navigation device 20, and the processing means 23 displays a map on the display device 40 as in step S7. As the place name in step S2, for example, "1-7-4 Konan, Minato-ku, Tokyo"
And "Tokyo Tower".
【0047】次に、ステップS3において使用者Mが
“そこに”と音声入力すると、上述した“対象”である
例えば地名としての“東京タワー”がステップS8にお
いて対象選択して確定される。ステップS4において使
用者Mが“電話(かける)”というふうに“特定の行
為”を音声入力すると、図6〜図9に示す電話プロセス
(図5のステップS9)が開始する。その他に、使用者
MがステップS5のように“特定の行為”として“ルー
ト探索”と音声入力すると、ステップS91のようにル
ート探索プロセスに入る。ステップS6のように使用者
Mが“特定の行為”である“マーク設定”と音声入力す
ると、ステップS92のようにマーク設定プロセスに入
る。Next, in step S3, when the user M voices "here", the above-mentioned "object", for example, "Tokyo Tower" as a place name is selected and determined in step S8. When the user M inputs a "specific action" by voice, such as "call (call)" in step S4, the telephone process (step S9 in FIG. 5) shown in FIGS. 6 to 9 starts. In addition, when the user M voice-inputs “route search” as “specific action” as in step S5, the process enters a route search process as in step S91. When the user M voice-inputs "mark setting" as a "specific action" as in step S6, a mark setting process starts as in step S92.
【0048】次に、図6〜図8を参照して、上記の電話
プロセスについて説明する。図4と図6における矢印R
B方向に音声入力するプロセスと、矢印RAの方向に音
声入力するプロセスの場合がある。図6の矢印RBの方
向に音声入力する場合には、使用者Mは、“対象”であ
る例えば“ランドマーク(東京タワー)”を音声入力
し、“そこに”をさらにキーワードとして入力してその
“東京タワー”を確定し、そして“特定の行為”である
“電話(かける)”コマンドを音声入力する。この場合
には、使用者Mは“そこに”のキーワードを入力してい
るので、フラグが“1”になる。これに対して上述のよ
うに“ランドマーク”や“そこに”などを入力しない
で、使用者Mが直接“特定の行為”である“電話(かけ
る)”コマンドを音声入力した場合には、フラグは無
い。Next, the telephone process will be described with reference to FIGS. Arrow R in FIGS. 4 and 6
There are a process of inputting voice in the direction B and a process of inputting voice in the direction of arrow RA. In the case of voice input in the direction of arrow RB in FIG. 6, the user M voice-inputs “object”, for example, “landmark (Tokyo Tower)” and further inputs “there” as a keyword. The “Tokyo Tower” is confirmed, and a “call (call)” command as a “specific action” is input by voice. In this case, since the user M has entered the keyword "there", the flag is set to "1". On the other hand, if the user M directly inputs the "call (call)" command as the "specific action" without inputting the "landmark" or "there" as described above, There are no flags.
【0049】図4の“対象”から“特定の行為”の順に
音声入力する場合の矢印RBの音声入力の手順の場合に
は、図6のステップS10の電話プロセス開始から、矢
印Cを経て、図7のルーチンを通る。これに対して、
“特定の行為”から“対象”を行う、すなわち矢印RA
の音声入力手順では、フラグが無いので、図6のステッ
プS10から矢印Kを経て、図8のルーチンを通ること
になる。In the case of the voice input procedure of arrow RB in the case where voice input is performed in the order of “target” to “specific action” in FIG. 4, from the start of the telephone process in step S10 in FIG. It goes through the routine of FIG. On the contrary,
Perform "object" from "specific action", that is, arrow RA
Since there is no flag in the voice input procedure, the routine of FIG. 8 passes through the arrow K from step S10 of FIG.
【0050】まず図6と図7を参照して、使用者Mが
“対象”から“特定の行為”の順に矢印RBに沿って音
声入力した場合について説明する。図6において、使用
者Mが“対象”として、“東京タワー”と音声入力し、
確定用のキーワードとして、さらに“そこに”と入力す
ると、“対象”としては“東京タワー”が音声入力確定
される。そして使用者Mがさらに“特定の行為”として
“電話(かける)”コマンドを入力すると、フラグが
“1”になり、ステップS10の電話プロセスが開始す
る。First, with reference to FIGS. 6 and 7, a case where the user M inputs voice along the arrow RB in the order of “target” to “specific action” will be described. In FIG. 6, the user M voice-inputs "Tokyo Tower" as the "target",
If "there" is further input as a keyword for determination, "Tokyo Tower" is voice-determined as the "target". When the user M further inputs a "call (call)" command as a "specific action", the flag is set to "1" and the telephone process in step S10 is started.
【0051】図6のステップS11,S11−1では、
図1の携帯電話機101がスタンバイ状態であるかを見
て、電話中もしくは携帯電話機101がナビゲーション
装置20側に接続されていない場合には、矢印Gを経
て、図8のメインループに到達して処理が終了してしま
う。ステップS11において、そうでなく携帯電話機1
01がスタンバイ状態である場合には、ステップS12
においてすでに“対象”が“東京タワー”として入力し
て確定されているので、矢印Cに沿って図7のルーチン
に移る。In steps S11 and S11-1 of FIG.
It is determined whether the mobile phone 101 in FIG. 1 is in the standby state. If the mobile phone 101 is in a call or is not connected to the navigation device 20, the mobile phone 101 reaches the main loop in FIG. Processing ends. In step S11, the mobile phone 1
If 01 is in the standby state, step S12
Since the "object" has already been input and determined as "Tokyo Tower" in the above, the processing moves to the routine of FIG.
【0052】図7のステップS13において“対象”が
“東京タワー”であることを確認した後に、ステップS
14,S14−1においてこの東京タワーに対応して、
図1の処理手段23がRAM17において“東京タワ
ー”の電話番号が登録されているかどうかを判断する。
“東京タワー”の電話番号があらかじめユーザー登録に
よりユーザー辞書に登録されておらずかつ基本辞書とし
て登録されていない場合には、矢印Jを経て図8のメイ
ンループに戻る。After confirming that the "object" is "Tokyo Tower" in step S13 of FIG.
14, In response to this Tokyo Tower in S14-1,
The processing means 23 of FIG. 1 determines whether the telephone number of “Tokyo Tower” is registered in the RAM 17.
If the telephone number of “Tokyo Tower” is not registered in the user dictionary in advance by user registration and is not registered as a basic dictionary, the process returns to the main loop of FIG.
【0053】そうでなくステップS14において“東京
タワー”に対応する電話番号がすでに例えばユーザー辞
書に図1のRAM17に登録されている場合には、ステ
ップS15において、処理手段23がスピーカ32を用
いて“電話します”と発声する。ステップS16では図
10に示す符号の定義のように待機時間Tを0にリセッ
トし、そしてステップS17,S18で使用者Mが音声
入力を行うかどうかを確認する。ステップS17におけ
る音声入力はステップS18において認識されるが、そ
の音声入力の内容は、ステップS19、ステップS2
0、あるいはステップS21のような、訂正語、発信語
あるいは中止語である。On the other hand, if the telephone number corresponding to "Tokyo Tower" is already registered in the user dictionary, for example, in the RAM 17 of FIG. 1 in step S14, the processing means 23 uses the speaker 32 in step S15. Say "I'll call you." In step S16, the standby time T is reset to 0 as defined by the reference symbols shown in FIG. 10, and it is confirmed in steps S17 and S18 whether the user M performs voice input. The voice input in step S17 is recognized in step S18, and the content of the voice input is determined in steps S19 and S2.
0, or a correction word, a transmission word, or a stop word as in step S21.
【0054】使用者Mが用いる訂正語、中止語及び発信
語の例としては図11に示している。訂正語としては例
えば“違う”などであり、中止語としては“キャンセ
ル”などであり、さらに発信語としては“かける”や
“発信”などである。そこで、使用者MがステップS1
7において例えば“違う”という訂正語を音声入力した
場合には、矢印Dに沿って図6のステップS25に移
る。FIG. 11 shows an example of the correction word, the stop word, and the transmission word used by the user M. The correction word is, for example, "differential", the cancellation word is "cancel", and the transmission word is "call" or "transmission". Then, the user M determines in step S1
If, for example, a corrected word “difference” is input as a voice in step 7, the process proceeds to step S25 in FIG.
【0055】ステップS19において訂正語が音声入力
されず、“かける”などの発信語が音声入力された場合
にはステップS23に移って、そのまま電話をかける発
信動作を行い、矢印Jに沿ってメインループに戻る。こ
れにより“対象”である“東京タワー”に対して使用者
Mが音声入力で直接電話番号を入力しなくても、簡単に
かつ自動的に音声入力だけで“東京タワー”に対して電
話をかけることができる。In step S19, if the corrected word is not input by voice and a transmitted word such as "call" is input by voice, the process proceeds to step S23 to perform a call operation for making a telephone call as it is, and the main operation is performed along arrow J. Return to the loop. As a result, even if the user M does not directly input a telephone number by voice input to the "Tokyo Tower" which is the "target", a telephone call to the "Tokyo Tower" can be easily and automatically input only by voice input. You can call.
【0056】そうでなくステップS20において使用者
Mが発信語を音声入力しない場合にはステップS21に
移り、ステップS21において使用者Mが“キャンセ
ル”のような中止語を音声入力した場合には、矢印Fに
沿って図8のステップS26に移り、電子機器100の
処理手段23は、電話をかける処理を取り消し、メイン
ループに戻る。図7のステップS21において使用者M
が“キャンセル”と音声入力しなかった場合にはステッ
プS22において、待機時間TがN秒例えば5秒以上経
過した場合、すなわち使用者Mが訂正語、発信語、中止
語を5秒以上全く入力しなかった場合には、ステップS
23において自動的に電話をかける発信動作に移る。こ
れにより、処理手段23が携帯電話機101に“電話番
号”のデータTPDを与えて、局側に発信する。ステッ
プS22において、待機時間Tが5秒に達するまでに再
び使用者MがステップS17において音声入力を行った
場合には、ステップS18〜ステップS22のステップ
を繰り返すことになる。Otherwise, if the user M does not input a speech word in step S20, the process proceeds to step S21. If the user M inputs a stop word such as "cancel" in step S21, The process proceeds to step S26 in FIG. 8 along the arrow F, and the processing unit 23 of the electronic device 100 cancels the process of making the call and returns to the main loop. In step S21 of FIG. 7, the user M
Is not input as "cancel" in step S22, if the standby time T has passed N seconds, for example, 5 seconds or more, that is, the user M has input at least 5 seconds of the correction word, the transmission word, and the stop word. If not, step S
At 23, the operation shifts to a calling operation for automatically making a telephone call. As a result, the processing means 23 gives the data TPD of the "telephone number" to the mobile phone 101 and transmits the data to the office. In step S22, if the user M performs voice input again in step S17 before the standby time T reaches 5 seconds, the steps in steps S18 to S22 are repeated.
【0057】このようにして、図6の矢印PBで示すよ
うに使用者Mが“対象”である“東京タワー”、“そこ
に”そして“特定の行為”である“電話(かける)”コ
マンドを音声入力することにより、電話番号を直接音声
入力しなくても訂正や中止を行わない限り自動的にステ
ップS23において電話をかける発信を行うことができ
る。In this way, as shown by the arrow PB in FIG. 6, the user M has the "target""TokyoTower","there" and the "specific action""call(call)" command. By voice input, it is possible to automatically make a call in step S23 unless correction or cancellation is performed without directly inputting the telephone number by voice.
【0058】次に、図6の矢印RAで示すように使用者
Mが単に“電話(かける)”コマンドを発した場合につ
いて説明する。つまり図4の“特定の行為”から矢印R
Aに沿って“対象”に沿って入力処理をする例を今から
説明する。まずステップS10,S11及びS12を経
て、ステップS12においてフラグが“1”なのでステ
ップS24に移る。ステップS24では、図1のRAM
17において認識用の辞書、すなわち基本辞書(共通辞
書)とユーザー登録辞書(ユーザー登録語)を参照し
て、まだ“対象”である地名を使用者Mが音声入力して
いないので、電子機器100の処理手段23がスピーカ
32を用いてステップS25において“どちらにおかけ
ですか”とガイダンス用の発音をする。そしてステップ
S27で、図10の電話番号または登録語Pをクリアー
にして、かつ入力カウントCを0にするとともにステッ
プS27では待機時間Tを0にする。この入力カウント
Cとは、図1のRAM17に登録されている登録語を何
回言ったかを表す符号である。そして矢印Kに沿って図
8に示すステップS29に移り、このステップS29で
は、使用者Mが例えばユーザー登録語である“東京タワ
ー”あるいは“電話番号”と音声入力する。ステップS
30で認識が行われステップS31において“電話番
号”と入力された場合にはステップS32の電話番号プ
ロセス(A)に進む。しかしステップS31において使
用者Mが“電話番号”と音声入力していない場合にはス
テップS33に進む。Next, a case where the user M simply issues a "call (call)" command as shown by an arrow RA in FIG. 6 will be described. That is, the arrow R from the “specific action” in FIG.
An example in which input processing is performed along “object” along A will be described below. First, after steps S10, S11 and S12, since the flag is "1" in step S12, the process proceeds to step S24. In step S24, the RAM of FIG.
Referring to the recognition dictionary, that is, the basic dictionary (common dictionary) and the user registration dictionary (user registration word) at 17, the user M has not input the place name as the “target” yet by voice. The processing means 23 uses the speaker 32 to produce a guidance sound, "Which place do you want to call?", In step S25. Then, in step S27, the telephone number or the registered word P in FIG. 10 is cleared, the input count C is set to 0, and the standby time T is set to 0 in step S27. The input count C is a code indicating how many times a registered word registered in the RAM 17 of FIG. 1 is said. Then, the process proceeds to the step S29 shown in FIG. 8 along the arrow K. In this step S29, the user M voice-inputs, for example, the user registration word "Tokyo Tower" or "telephone number". Step S
When the recognition is performed in step 30 and "telephone number" is input in step S31, the process proceeds to the telephone number process (A) in step S32. However, if the user M has not input the voice of "telephone number" in step S31, the process proceeds to step S33.
【0059】まず本発明の実施の形態の特徴部分である
図8のステップS32の電話番号プロセス(A)につい
て説明する。この電話番号プロセス(A)の詳細は、図
9に示している。ステップS32の次のステップS34
において、認識辞書として図1のRAM17では、共通
辞書(基本辞書)と電話番号(例えばユーザー辞書)を
参照し、図10に示す電話番号または登録語Pをクリア
ーにし、音声入力回数Bを0にリセットして、そして入
力カウント数を0とする(ステップS35)。First, the telephone number process (A) in step S32 in FIG. 8, which is a characteristic part of the embodiment of the present invention, will be described. The details of the telephone number process (A) are shown in FIG. Step S34 following step S32
In the RAM 17 of FIG. 1, a common dictionary (basic dictionary) and a telephone number (for example, a user dictionary) are referred to as a recognition dictionary, the telephone number or the registered word P shown in FIG. 10 is cleared, and the number of voice inputs B is set to 0. It is reset, and the input count is set to 0 (step S35).
【0060】そして図1の処理手段23の指示でスピー
カ32がステップS36において“電話番号をどうぞ”
とガイダンスのために発声する。そしてステップS37
では、待機時間Tを0にリセットし、ステップS38,
S39において使用者Mが音声入力をするかどうかを確
認すると、ステップS39では音声認識装置10が音声
認識をする。ステップS40において使用者Mが音声入
力したのが“電話番号例えば03−1234−567
8”である場合には、ステップS41において処理手段
23がスピーカ32を用してガイダンスと確認用に復唱
する。例えば使用者Mが電話番号03−1234−56
78を連続して一括して入力した場合には、ステップS
41では、やはり03−1234−5678と一括して
復唱する。Then, in response to an instruction from the processing means 23 shown in FIG.
And say for guidance. And step S37
Then, the standby time T is reset to 0, and step S38,
After confirming whether or not the user M performs voice input in S39, the voice recognition device 10 performs voice recognition in step S39. The voice input by the user M in step S40 is "telephone number, for example, 03-1234-567.
If it is 8 ", in step S41, the processing means 23 repeats for guidance and confirmation using the speaker 32. For example, the user M has the telephone number 03-1234-56.
If 78 are continuously and collectively input, step S
At 41, the song is repeated in a batch with 03-1234-5678.
【0061】そうでなく使用者Mが例えば“03”と、
“1234”そして“5678”を分割して入力した場
合には、ステップS41,S42においてその分割番号
毎に復唱することになる。つまり、ステップS42を通
ることで、電話番号が分割されて入力された場合には、
例えば“03”を入力した後にステップS41で“0
3”を復唱し、再びステップS37に戻り、次に使用者
が“1234”を入力すると、ステップS41において
“1234”を復唱し、そしてまたステップS37に戻
り、さらに使用者が“5678”を音声入力すると、ス
テップS41で“5678”を復唱することになる。Otherwise, if the user M is, for example, "03",
When "1234" and "5678" are divided and input, the steps are repeated for each division number in steps S41 and S42. That is, when the telephone number is divided and input by passing through step S42,
For example, after inputting "03", "0"
3 ", and the process returns to step S37. When the user inputs" 1234 "," 1234 "is read again in step S41, and the process returns to step S37. When input, "5678" is repeated in step S41.
【0062】次に、ステップS43で図11の訂正語、
例えば“違う”を使用者Mが音声入力すると、ステップ
S44において、電子機器100側が“もう一度どう
ぞ”とガイダンス用にガイダンス発声し、ステップS4
5,ステップS46を通ることにより、ステップS38
において音声入力した電話番号部分を再びステップS3
7〜ステップS40で再度入力する。ステップS43に
おいて訂正語の入力がなく、ステップS47で発信語で
ある“電話をかける”の音声入力があった場合にはステ
ップS51において、音声入力回数が1である場合、す
なわち一括して電話番号である“03−1234−56
78”が一括して入力されている場合にはステップS5
3にショートカットして移り、図7の電話番号プロセス
(B)に移る。そうでなく、音声入力回数Bが1ではな
く、“03”、“1234”そして“5678”が分割
して音声入力されている場合にはステップS52を通
り、重要なことは、一括して電子機器100が“03−
1234−5678”を復唱してステップS53に移る
ことである。Next, in step S43, the corrected word in FIG.
For example, when the user M inputs "no" by voice, in step S44, the electronic device 100 utters a guidance message "Please try again" for guidance, and step S4.
5, through step S46, step S38
In step S3, the telephone number part input by voice in
Input again in steps 7 to S40. If there is no correction word input in step S43 and there is a voice input of the calling word "call" in step S47, then in step S51 if the number of voice inputs is 1, that is, the telephone number "03-1234-56
If "78" are input collectively, step S5
3 and moves to a telephone number process (B) in FIG. On the other hand, if the voice input count B is not 1, but "03", "1234" and "5678" are voice input separately, the process goes through step S52 and what is important is that the electronic If the device 100 is "03-
1234-5678 ", and the process moves to step S53.
【0063】本発明の実施の形態においては、電子機器
の処理手段において、使用者が音声入力した内容を、デ
ータ登録手段に登録されている登録語に一致するように
するために、使用者が内容を分割して順次音声入力し、
又は使用者が内容を一括して音声入力した場合であって
も対応することができる。そして使用者が音声入力する
内容として電話番号であれば、この電話番号に基づいて
正しく電話をかけることができる。しかも、使用者が分
割して音声入力した内容は、処理手段が音声により一括
して報知することができるので、使用者はその報知した
内容により分割して入力した例えば電話番号のような内
容あるいは他の種類の内容であっても使用者が音声によ
り確実に確認することができる。ステップS53の電話
番号プロセス(B)は、図7のすでに述べたステップS
15〜ステップS23を同様にして処理することによ
り、使用者Mは自動的に電話をかけることができる。In the embodiment of the present invention, in the processing means of the electronic device, in order for the contents input by the user to match the registered words registered in the data registration means, Divide the content and input the voice sequentially,
Alternatively, it is possible to cope with the case where the user collectively inputs the contents by voice. If the user inputs a telephone number as a voice input, the telephone can be correctly called based on the telephone number. In addition, since the processing means can collectively notify by voice the contents that the user has divided and input by voice, the user can divide and input the contents such as a telephone number or the like by the notified contents. Even if the content is of another type, the user can surely confirm it by voice. The telephone number process (B) in step S53 is the same as step S53 in FIG.
The user M can automatically make a telephone call by performing the steps 15 to S23 in the same manner.
【0064】図9に戻り、ステップS47において発信
語の音声入力がないが、中止語である“キャンセル”の
音声入力があった場合には、図9と図8のキャンセルプ
ロセスS100に移り、ステップS26の“電話取り消
しました”のガイダンス発声処理を経てメインループに
戻る。Returning to FIG. 9, if there is no voice input of the outgoing word in step S47, but there is a voice input of the cancel word "cancel", the process proceeds to the cancel process S100 of FIGS. 9 and 8. The process returns to the main loop via the guidance utterance process of "Call canceled" in S26.
【0065】図9のステップS48で中止“キャンセ
ル”の音声入力がない場合には、待機時間TがN秒(例
えば5秒)を下回る場合にはステップS37に戻り再度
ステップS38以降で使用者Mが音声入力をすることが
できる。そうでなく待機時間Tが5秒以上になると、ス
テップS50において、音声入力回数Bが0でない場合
にはステップS51に移り、ステップS51以降の処理
を行う。そうでなくステップS50において音声入力回
数Bが0である場合には、音声入力がなしと判断して、
そしてステップS54で入力カウントCが0でない場合
にはステップS100のキャンセルプロセスに移るが、
入力カウントC=0である場合にはステップS55にお
いて入力カウントCを1つインクリメントしてステップ
S36に戻し、再びステップS36以降の処理を再度行
う。If there is no speech input of "Cancel" in step S48 in FIG. 9, if the standby time T is shorter than N seconds (for example, 5 seconds), the process returns to step S37 and again from step S38 onward. Can make voice input. Otherwise, when the standby time T becomes 5 seconds or longer, in step S50, if the number of voice inputs B is not 0, the process proceeds to step S51, and the processing after step S51 is performed. Otherwise, if the voice input count B is 0 in step S50, it is determined that there is no voice input,
If the input count C is not 0 in step S54, the process proceeds to a cancellation process in step S100.
If the input count C is 0, the input count C is incremented by one in step S55, the process returns to step S36, and the processes in and after step S36 are performed again.
【0066】次に図8に戻り、図8のステップS31,
S33において、使用者Mが“電話番号”でなく他の登
録語“対象”を言った場合には、ステップS56におい
て、その例えば登録語“東京タワー”を電子機器100
が復唱する。その“東京タワー”はステップS57,S
58で、待機時間Tを0にリセットし、使用者Mが音声
入力をステップS59で行うかどうか確認する。図1の
音声認識装置10がステップS60でその入力された音
声を認識し、その認識の結果ステップS61において発
信語である“電話をかける”である場合には矢印Eに沿
って図7のステップS15〜ステップS23の発信処理
に移る。そうでなくステップS61において発信語が音
声入力されず、ステップS62において中止語である
“キャンセル”が音声入力されると、ステップS26に
おいて“電話を取り消しました”と電子機器100がガ
イダンス発声してメインループに戻る。ステップS62
において中止語が音声入力されずステップS63におい
て訂正語である“違う”が音声入力されると、ステップ
S65において電子機器100が“もう一度どうぞ”と
ガイダンス発声した後に、矢印Hに沿って図6のステッ
プS27に戻り、以降の処理を再び行う。そうでなく、
ステップS63において訂正語が音声入力されない場合
に、待機時間Tが5秒未満の場合にはステップS59に
戻り再度使用者Mが音声入力することになる。そうでな
く待機時間Tが5秒以上であると、矢印E方向に沿って
図7のステップS15〜ステップS23の電話の発信処
理を行う。これにより電話をかけることができる。図8
に戻り、図8のステップS33において使用者Mがステ
ップS29で音声入力した言葉が登録語でない場合に、
ステップS66で中止語である“キャンセル”が音声入
力されると、ステップS26において“電話を取り消し
ました”をガイダンス発音しメインループに戻る。中止
語が音声入力されずしかも待機時間Tが5秒以内の場合
には、ステップS29に戻り、使用者Mは再度音声入力
することができる。待機時間Tが5秒以上である場合に
は、ステップS67−1において入力カウントCが0で
ない場合にはステップS26に移る。ステップS67−
1において入力カウントCが0の場合には、使用者Mが
ステップS29〜ステップS67において一度も登録語
を言っていない場合には、ステップS68において、電
子機器100は次のような案内をスピーカ32を用いて
行う。すなわち、ステップS68において、「携帯電話
機101に登録されている“名称”もしくは“電話番
号”と言ってから電話番号をどうぞ」というふうに音声
により案内する。このように案内するのは、ステップS
29,30,31,33,67,68のルーチンを通過
した場合の使用者Mは図1の電子機器100を扱うこと
に関して初心者であると判断して、このような案内を使
用ガイダンスとして音声で告知するのである。これによ
り使用者Mはこのような手順に従って矢印Iに沿って図
6のステップS28から再び音声入力動作を実施するこ
とができる。Next, returning to FIG. 8, step S31 in FIG.
In a case where the user M has referred to another registered word “target” instead of “telephone number” in S33, in step S56, for example, the registered word “Tokyo Tower” is stored in the electronic device 100.
Repeats. The “Tokyo Tower” is executed in steps S57 and S57.
At 58, the standby time T is reset to 0, and it is confirmed whether or not the user M performs voice input in step S59. The voice recognition device 10 of FIG. 1 recognizes the input voice in step S60. If the result of the recognition is “calling” which is the originating word in step S61, the voice recognition device 10 follows the arrow E in FIG. The process proceeds to the transmission process from S15 to step S23. Otherwise, if the outgoing word is not voice-inputted in step S61 and the cancel word "cancel" is voice-inputted in step S62, the electronic device 100 utters "guidance of telephone cancellation" in step S26. Return to the main loop. Step S62
In step S63, when the stop word is not speech-inputted and the correct word "no" is speech-inputted, in step S65, the electronic device 100 utters the guidance "Please again", and then follows the arrow H in FIG. Returning to step S27, the subsequent processing is performed again. Otherwise,
If the corrected word is not input by voice in step S63, and if the standby time T is less than 5 seconds, the process returns to step S59 and the user M again inputs voice. Otherwise, if the standby time T is 5 seconds or longer, the telephone call processing of steps S15 to S23 in FIG. This allows you to make a call. FIG.
Returning to step S33 in FIG. 8, if the word input by the user M in step S29 is not a registered word,
When the cancel word "cancel" is input by voice in step S66, the guidance sound is pronounced in step S26, "the call has been canceled", and the process returns to the main loop. If the stop word is not input by voice and the standby time T is within 5 seconds, the process returns to step S29, and the user M can input voice again. If the standby time T is equal to or longer than 5 seconds, the process proceeds to step S26 if the input count C is not 0 in step S67-1. Step S67-
If the input count C is 0 at 1, if the user M has never said a registered word at steps S29 to S67, at step S68, the electronic device 100 gives the following guidance to the speaker 32. This is performed using That is, in step S68, voice guidance is given, such as "Please say" name "or" telephone number "registered in mobile phone 101 and then enter the telephone number." This guidance is made in step S
When passing through the routines 29, 30, 31, 33, 67, and 68, the user M is determined to be a novice in handling the electronic device 100 of FIG. 1, and such guidance is spoken as usage guidance. Announce. Thus, the user M can perform the voice input operation again from step S28 in FIG. 6 along the arrow I according to such a procedure.
【0067】以上のようにして図6の矢印PBの場合、
すなわち“対象”を音声入力してから“特定の行為”を
入力する方式と、矢印RAに示すように“特定の行為”
を入力してから“対象”を入力するいずれにおいても、
音声入力だけで図1の電子機器100のナビゲーション
装置20を利用して携帯電話機101を用いて電話をか
けることができる。As described above, in the case of the arrow PB in FIG.
That is, a method of inputting a “specific action” after inputting a “target” by voice, and a method of inputting a “specific action” as indicated by an arrow RA.
And then enter the “target”,
It is possible to make a call using the mobile phone 101 using the navigation device 20 of the electronic device 100 of FIG. 1 only by voice input.
【0068】次に図13〜図19を参照して、音声によ
る電話をかける行為の実際の例を簡単に示しておく。図
13は、図6の矢印RBに示す“対象”音声入力後に、
“特定の行為”を音声入力する場合のやり取りの一例で
ある。使用者M(ユーザーに相当)と、電子機器100
とのやり取りにおいて、“対象”である“東京タワー”
を使用者Mが音声入力すると、電子機器側は“東京タワ
ー”をガイダンスのために復唱しそして地図を表示す
る。そして使用者Mが“そこに”と音声入力すると、
“東京タワー”という対象が選択されることになる。そ
してユーザーが、特定の行為である“電話(をかけ
る)”と音声入力すると、電子機器側は“電話します”
とガイダンス音声で答えて5秒待つと、発信を行う。Next, with reference to FIGS. 13 to 19, an actual example of the act of making a voice call will be briefly described. FIG. 13 shows the state after the “target” voice input indicated by the arrow RB in FIG.
This is an example of an exchange when a “specific action” is input by voice. User M (corresponding to user) and electronic device 100
"Tokyo Tower" which is the "target"
Is input by the user M, the electronic device repeats "Tokyo Tower" for guidance and displays a map. Then, when the user M inputs a voice “to there”,
The object "Tokyo Tower" will be selected. Then, when the user speaks out a specific action, “call (make a call)”, the electronic device “calls”.
After answering with the guidance voice and waiting for 5 seconds, the call is made.
【0069】図14は、図4における“対象”の電話登
録名が例えば“たなかはなこ”にユーザー登録されてい
る場合の使用者(ユーザー)と電子機器100側とのや
り取りの一例を示している。図15は、本発明の実施の
形態における特徴部分であり、使用者(ユーザー)が、
電話番号03−1234−5678をそれぞれ区切って
音声入力した場合の一例を示している。図16は、本発
明の実施の形態における特徴部分であり、使用者(ユー
ザー)が、電話番号を“03−1234−5678”の
ように連続で一括して音声入力した場合の例を示してい
る。図15の分割入力の場合と図16の一括入力の場合
のいずれにおいても、電子機器はその入力された内容を
音声で復唱している。これにより使用者Mは、分割して
入力した内容や一括して入力した内容の確認を音声で行
えるので、確実に内容を電子機器側に入力できる。した
がって正しい内容に基いて電話をかけることができる。FIG. 14 shows an example of an exchange between the user (user) and the electronic device 100 when the telephone registration name of the “target” in FIG. 4 is registered as a user, for example, in “Tanakahanako”. . FIG. 15 shows a characteristic portion in the embodiment of the present invention, in which a user (user)
An example is shown in which a voice input is made while separating telephone numbers 03-1234-5678. FIG. 16 shows a characteristic part in the embodiment of the present invention, and shows an example in which the user (user) continuously and collectively inputs the telephone number as "03-1234-5678". I have. In both the case of the divided input in FIG. 15 and the case of the collective input in FIG. 16, the electronic device repeats the input content by voice. Thus, the user M can confirm the content that has been divided and input or the content that has been input collectively by voice, so that the content can be reliably input to the electronic device side. Therefore, a telephone call can be made based on the correct contents.
【0070】図17は、図1の電子機器100を用い
て、電話をかける場合に使用者(ユーザー)が電子機器
100を操作するのに関して初心者である場合のやり取
りの一例を示している。図17において使用者(ユーザ
ー)が、音声入力のように“電話”と音声入力すると、
図6の矢印RAの処理を行うことになり、図6のステッ
プS25において、電子機器100が“どちらにおかけ
ですか”と音声で知らせると、これに使用者が答えずに
無言であって5秒経つと、図8のステップS68では、
電子機器100側が“電話機に登録された名称もしくは
電話番号と言ってから電話番号をどうぞ”と音声で案内
する。これにより使用者は初めて“電話番号”と音声入
力すると、電子機器100側は次に“電話番号をどう
ぞ”と音声で知らせる。そこで使用者が“03−123
4−なんだっけ?”と言って誤って入力すると、電子機
器100側は“03−1234−6578”ですかとガ
イダンス音声で知らせる。そこで使用者がかけたい正し
い番号は“03−1234−5678”である場合に
は、電子機器が知らせた“03−1234−6578”
は違っているので、使用者は“違う”と音声入力する。
そうすると電子機器100は“もう一度どうぞ”とガイ
ダンス音声で案内し、それにより使用者は“03−12
34−5678”と正しい電話番号を再度音声入力す
る。そうすると電子機器100側は“03−1234−
5678”とガイダンスのために復唱する。FIG. 17 shows an example of an exchange in the case where a user is a novice in operating the electronic device 100 when making a call using the electronic device 100 of FIG. In FIG. 17, when the user voice-inputs "telephone" like voice input,
The process of arrow RA in FIG. 6 is performed, and in step S25 in FIG. 6, when the electronic device 100 notifies the user of “Where do you want to call?” After a lapse of seconds, in step S68 of FIG.
The electronic device 100 provides voice guidance "Please say the name or telephone number registered in the telephone and then enter the telephone number." As a result, when the user voice-inputs "telephone number" for the first time, the electronic device 100 notifies the user of "please enter the telephone number" by voice. Then, the user enters "03-123
4-What? ", The electronic device 100 informs the guidance voice of whether it is" 03-1234-6578 ". If the correct number that the user wants to call is" 03-1234-5678 ", “03-1234-6578” notified by electronic equipment
Are different, the user utters “no”.
Then, the electronic device 100 guides the user with “Please try again” with the guidance voice, and thereby the user can select “03-12”.
The correct telephone number is input again by voice as “34-5678.” Then, the electronic device 100 side receives “03-1234-
Repeat 5678 "for guidance.
【0071】その次に再び使用者が無言のままで5秒経
つと電子機器100側は“電話します”と答え、さらに
使用者が無言で5秒経過すると、実際に図7のステップ
S23において発信を始めるのである。このようにする
ことで、全く図1の電子機器100を使用したことのな
い使用者であっても、マニュアルやガイドブックあるい
はディスプレイ装置に表示される案内を参照しなくても
音声による入力操作だけで簡単にかつ確実に電話をかけ
ることができる。Next, if the user remains silent for 5 seconds, the electronic device 100 will answer "call". If the user is silent for 5 seconds, the electronic device 100 will actually return to step S23 in FIG. Start sending. By doing so, even a user who has never used the electronic device 100 of FIG. 1 can perform only a voice input operation without referring to a manual, a guidebook, or a guide displayed on a display device. You can easily and reliably make phone calls.
【0072】図18は、使用者が電話番号の訂正を行う
場合の一例を示している。この場合には使用者は訂正語
である“違う”を音声入力することにより番号を訂正し
ていくことができる。このような訂正のルーチンは、図
9のステップS43,44,45,46により行うこと
ができる。図19は電話登録名の訂正の例を示してい
る。FIG. 18 shows an example in which the user corrects a telephone number. In this case, the user can correct the number by voice-inputting the correction word “different”. Such a correction routine can be performed by steps S43, S44, S45, and S46 in FIG. FIG. 19 shows an example of correction of the telephone registration name.
【0073】ところで本発明は上記実施の形態に限定さ
れるものではない。上述した実施の形態では、図4にお
ける“対象”としての電話登録名の一例を採用して、
“対象”を音声入力してから、“特定の行為”である
“電話(かける)”を音声入力することで電話をかける
ようにしている。しかしこれに限らず例えばランドマー
クタワーとして“東京タワー”を入力した後に例えば
“特定の行為”として“電話(かける)”を音声入力す
るようにしても、例えば東京タワーに対して簡単に電話
をかけることができる。その他に図4の“対象”の項目
の地名、駅名、電話番号、マーク名称などを音声入力し
ても、“特定の行為”である“電話(かける)”を音声
入力すれば電話をかけることができる。また特定の行為
として、ルート探索、目的地設定、経由地設定、マーク
設定あるいは最寄探索などの特定の行為も指定すること
ができる。The present invention is not limited to the above embodiment. In the above-described embodiment, an example of the telephone registration name as the “target” in FIG.
A voice call is made by inputting the "target" by voice, and then by voice inputting the "specific action" of "phone (call)". However, the present invention is not limited to this. For example, after inputting "Tokyo Tower" as a landmark tower, and then inputting "telephone (call)" as a "specific action" by voice, for example, it is possible to easily call the Tokyo Tower. Can be. In addition, even if the place name, station name, telephone number, mark name, etc. of the "object" item in FIG. Can be. As a specific action, a specific action such as a route search, a destination setting, a transit point setting, a mark setting, or a nearest search can also be designated.
【0074】逆に、図4の特定の行為、例えば“電話
(かける)”を音声入力してから“対象”である例えば
電話登録名を呼び出すことも勿論可能である。その他特
定の行為のルート探索、目的地設定、経由地設定、マー
ク設定、最寄探索設定を先に入力してから、矢印RAに
沿って呼び出したい“対象”の項目である地名、駅名、
ランドマーク、電話番号、マーク名称あるいは電話登録
名を呼び出すことは勿論できる。On the contrary, it is of course possible to input a specific action shown in FIG. 4, for example, "telephone (call)" by voice, and then call a "target", for example, a telephone registered name. After inputting the route search, destination setting, transit point setting, mark setting, and nearest search setting of the specific action first, the place name, station name,
Of course, landmarks, telephone numbers, mark names or telephone registered names can be called.
【0075】また図示の実施の形態では、自動車に搭載
したナビゲーション装置に対して携帯電話機を設定しそ
して携帯電話機により自動車の中から外部に電話をかけ
る例を説明している。しかしこれに限らず他の種類の電
子機器、例えば本発明の音声操作機能付きの電子機器
は、図示した通常の乗用車に限らず、本発明における、
一例として飛行機、船などの他の種類のものにも搭載す
ることができる。また搭載して移動するタイプの電子機
器に限らず、固定機器としてある場所に設定する種類の
電子機器においても、同様に例えば電話をかける機能に
限らず他の種類の機能を発揮する場合でも、本発明は適
用できる。In the illustrated embodiment, an example is described in which a portable telephone is set for a navigation device mounted on a car and a call is made from the inside of the car to the outside by the portable telephone. However, not limited to this, other types of electronic devices, for example, the electronic device with a voice operation function of the present invention is not limited to the illustrated ordinary passenger car, the present invention,
For example, it can be mounted on other types such as an airplane and a ship. Not only electronic devices of the type that are mounted and moved, but also electronic devices of the type set at a certain place as fixed devices, similarly, for example, when performing other types of functions without being limited to the function of making calls, The present invention is applicable.
【0076】本発明の電子機器としては、ナビゲーショ
ン装置と携帯電話を組み合わせた例に限らず、携帯電話
とテレビジョンセットを組み合わせたり、その他の音響
機器と電話機を組み合わせたりなどの応用例も考えられ
る。本発明の実施の形態は、音声認識機能を内蔵した電
話又は電話付きカーナビゲーション装置において、ユー
ザが電話番号の数桁を発話するのを受けて、その部分を
音声認識する毎に細切れに復唱すると共に、最終的に認
識済み電話番号の全桁通して一括して復唱してからオー
トダイヤルする音声インターフェイス処理を行える。The electronic apparatus of the present invention is not limited to an example in which a navigation device is combined with a mobile phone, but may be applied to a combination of a mobile phone and a television set, or a combination of other audio equipment and a telephone. . An embodiment of the present invention provides a telephone or a car navigation system with a telephone having a voice recognition function, when a user utters several digits of a telephone number, and repeats the portion in a fragmented manner every time the voice is recognized. At the same time, voice interface processing can be performed in which all digits of the recognized telephone number are passed through and all the digits are read at once and then auto-dial.
【0077】[0077]
【発明の効果】以上説明したように、本発明によれば、
例えば自動車から電話をかけるといった動作において使
用者が音声入力により入力しようとする内容を分けて入
力でき、分けて入力した場合でもその入力内容の全体を
音声により使用者に報知できる。このことから、使用者
は内容の確認を行うことができ、音声操作による動作を
確実に行える。As described above, according to the present invention,
For example, in an operation such as making a call from a car, the user can separately input the content to be input by voice input, and even when the user inputs separately, the entire input content can be notified to the user by voice. From this, the user can confirm the contents, and can reliably perform the operation by the voice operation.
【図1】本発明の音声操作機能付き電子機器の好ましい
実施の形態を示すブロック図。FIG. 1 is a block diagram showing a preferred embodiment of an electronic device with a voice operation function of the present invention.
【図2】図1の電子機器を備える自動車の一例を示す斜
視図。FIG. 2 is an exemplary perspective view showing an example of an automobile including the electronic device of FIG. 1;
【図3】図2の自動車の内部を示す斜視図。FIG. 3 is an exemplary perspective view showing the inside of the automobile shown in FIG. 2;
【図4】本発明における“対象”と“行為”の一例を示
す図。FIG. 4 is a diagram showing an example of “object” and “act” in the present invention.
【図5】本発明の電子機器における音声入力により地名
から電話をかけるなどのプロセスを示す図。FIG. 5 is a view showing a process of making a call from a place name by voice input in the electronic apparatus of the present invention.
【図6】使用者が音声入力だけで電話をかけるための流
れの一部を示す図。FIG. 6 is a diagram showing a part of a flow for a user to make a telephone call only by voice input.
【図7】図6に続く流れを示す図。FIG. 7 is a view showing a flow following FIG. 6;
【図8】図6と図7に続く流れを示す図。FIG. 8 is a view showing a flow following FIGS. 6 and 7;
【図9】図7と図8に関連する電話番号プロセス(A)
の流れを示す図。FIG. 9 is a telephone number process (A) associated with FIGS. 7 and 8;
FIG.
【図10】図6〜図9における符号の定義を示す図。FIG. 10 is a diagram showing definitions of reference numerals in FIGS. 6 to 9;
【図11】訂正語、中止語、発信語の一例を示す図。FIG. 11 is a diagram showing an example of a correction word, a stop word, and a transmission word.
【図12】登録語、基本辞書、ユーザー辞書、電話番号
識別語の一例を示す図。FIG. 12 is a diagram showing an example of a registered word, a basic dictionary, a user dictionary, and a telephone number identification word.
【図13】“対象”を音声入力してから“特定の行為”
を音声入力する例を示す図。FIG. 13: “Specific action” after voice input of “target”
FIG. 4 is a diagram showing an example of inputting a voice.
【図14】“対象”が登録語である場合に電話をかける
例を示す図。FIG. 14 is a diagram illustrating an example of making a call when “target” is a registered word.
【図15】使用者が電話番号を区切って音声入力した場
合を示す図。FIG. 15 is a diagram showing a case where a user inputs voice by separating telephone numbers.
【図16】使用者が電話番号を一括して音声入力した場
合に電話をかける手順を示す図。FIG. 16 is a diagram showing a procedure for making a call when a user inputs a telephone number collectively by voice.
【図17】初心者が電話番号を言って電話をかける例を
示す図。FIG. 17 is a diagram showing an example in which a beginner makes a telephone call by saying a telephone number.
【図18】電話番号を訂正する例を示す図。FIG. 18 is a diagram showing an example of correcting a telephone number.
【図19】登録語を訂正する場合の一例を示す図。FIG. 19 is a diagram showing an example of a case where a registered word is corrected.
10・・・音声認識装置(音声認識手段)、11・・・
マイクロフォン(音声入力手段)、17・・・RAM
(データ登録手段)、20・・・ナビゲーション装置、
23・・・処理手段、40・・・ディスプレイ、100
・・・電子機器、101・・・携帯電話機10 ... voice recognition device (voice recognition means), 11 ...
Microphone (voice input means), 17 ... RAM
(Data registration means), 20 ... navigation device,
23 ... processing means, 40 ... display, 100
... Electronic equipment, 101 ... Mobile phone
フロントページの続き (51)Int.Cl.6 識別記号 FI G08G 1/0969 G08G 1/0969 H04M 1/27 H04M 1/27 Continued on the front page (51) Int.Cl. 6 Identification code FI G08G 1/0969 G08G 1/0969 H04M 1/27 H04M 1/27
Claims (9)
の音声入力手段と、登録語を登録するためのデータ登録
手段と、 音声入力手段に入力された音声信号を認識して処理する
音声認識手段と、 使用者が音声入力した内容を、データ登録手段に登録さ
れている登録語に一致するようにするために、使用者が
内容を分割して順次音声入力できる処理手段と、を備え
ることを特徴とする音声操作機能付き電子機器。1. A voice input means for a user to input contents by voice, a data registration means for registering a registered word, and a voice recognition for recognizing and processing a voice signal input to the voice input means. Means, and processing means for allowing the user to divide the content and sequentially input the voice so that the content input by the user by voice matches the registered word registered in the data registration means. An electronic device having a voice operation function.
である請求項1に記載の音声操作機能付き電子機器。2. The electronic device with a voice operation function according to claim 1, wherein the content input by voice by the user is a telephone number.
処理手段が分割した内容ごとに音声により復唱しその後
音声により一括して復唱する請求項1に記載の音声操作
機能付き電子機器。3. The contents that the user divides and inputs by voice,
The electronic device with a voice operation function according to claim 1, wherein the processing unit repeats the voice by voice for each of the divided contents, and then repeats the voice collectively by voice.
ナビゲーション装置である請求項1に記載の音声操作機
能付き電子機器。4. The electronic device with a voice operation function according to claim 1, wherein the electronic device is a navigation device including a mobile phone for making a call.
ことで、音声入力手段に入力された音声信号を音声認識
手段により認識して処理する音声認識処理ステップと、 使用者が音声入力した内容を、データ登録手段に登録さ
れている登録語に一致するようにするために、使用者が
内容を分割して順次音声入力音声入力できる処理ステッ
プと、 を備えることを特徴とする電子機器における音声操作方
法。5. A voice recognition processing step of recognizing and processing a voice signal input to the voice input means by the voice recognition means by inputting a voice of the user to the voice input means; A processing step in which the user can divide the content and sequentially input the voice to input the content so that the content matches the registered word registered in the data registration unit. Voice operation method.
である請求項5に記載の電子機器における音声操作方
法。6. The voice operation method for an electronic device according to claim 5, wherein the content input by voice by the user is a telephone number.
処理手段が分割した内容ごとに音声により復唱しその後
音声により一括して復唱する請求項1に記載の電子機器
における音声操作方法。7. The contents which the user divided and input by voice,
2. The voice operation method in an electronic device according to claim 1, wherein the processing unit repeats the voice by voice for each of the divided contents, and then repeats the voice by voice collectively.
る自動車において、 使用者が音声により内容を入力するための音声入力手段
と、 登録語を登録するためのデータ登録手段と、 音声入力手段に入力された音声信号を認識して処理する
音声認識手段と、 使用者が音声入力した内容を、データ登録手段に登録さ
れている登録語に一致するようにするために、使用者が
内容を分割して順次音声入力できる処理手段と、を備え
ることを特徴とする音声操作機能付き電子機器を備える
自動車。8. A vehicle equipped with an electronic device having a voice operation function in a vehicle, wherein a voice input means for a user to input contents by voice, a data registration means for registering a registered word, and a voice input means. Speech recognition means for recognizing and processing the input speech signal And a processing unit capable of sequentially inputting voice.
ナビゲーション装置である請求項8に記載の音声操作機
能付き電子機器を備える自動車。9. A vehicle equipped with the electronic device with a voice operation function according to claim 8, which is a navigation device provided with a mobile phone for making a call.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9307623A JPH11143489A (en) | 1997-11-10 | 1997-11-10 | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9307623A JPH11143489A (en) | 1997-11-10 | 1997-11-10 | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11143489A true JPH11143489A (en) | 1999-05-28 |
Family
ID=17971269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9307623A Pending JPH11143489A (en) | 1997-11-10 | 1997-11-10 | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11143489A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001034289A (en) * | 1999-07-16 | 2001-02-09 | Nec Corp | Interactive system using natural language |
JP2011027905A (en) * | 2009-07-23 | 2011-02-10 | Denso Corp | Speech recognition device and navigation device using the same |
US9796710B2 (en) | 2014-10-14 | 2017-10-24 | Vitae Pharmaceuticals, Inc. | Dihydropyrrolopyridine inhibitors of ROR-gamma |
-
1997
- 1997-11-10 JP JP9307623A patent/JPH11143489A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001034289A (en) * | 1999-07-16 | 2001-02-09 | Nec Corp | Interactive system using natural language |
JP2011027905A (en) * | 2009-07-23 | 2011-02-10 | Denso Corp | Speech recognition device and navigation device using the same |
US9796710B2 (en) | 2014-10-14 | 2017-10-24 | Vitae Pharmaceuticals, Inc. | Dihydropyrrolopyridine inhibitors of ROR-gamma |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2907079B2 (en) | Navigation device, navigation method and automobile | |
EP0875729B1 (en) | Map display controlling method and apparatus | |
JPH09114489A (en) | Device and method for speech recognition, device and method for navigation, and automobile | |
JPH09292255A (en) | Navigation method and navigation system | |
JP3474089B2 (en) | Navigation device | |
JP4788561B2 (en) | Information communication system | |
JP2003323192A (en) | Device and method for registering word dictionary | |
JPH07129894A (en) | Information device for vehicle | |
JPH11143492A (en) | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function | |
JPH11143489A (en) | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function | |
JPH11142165A (en) | Electronic apparatus with speech operation function, speech operation method in electronic apparatus, and automobile equipped with electronic apparatus with speech operation function | |
JP2947143B2 (en) | Voice recognition device and navigation device | |
JP2002281145A (en) | Telephone number input device | |
JPH11143494A (en) | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function | |
JP3677833B2 (en) | Navigation device, navigation method, and automobile | |
JPH11143490A (en) | Electronic equipment with sound operating function, sound operating method in electronic equipment, and automobile having electronic equipment with sound operating function | |
JP4113698B2 (en) | Input device, program | |
JP2000122685A (en) | Navigation system | |
JP4300596B2 (en) | Car navigation system | |
JPH09114488A (en) | Device and method for speech recognition, device and method for navigation, and automobile | |
JP2877045B2 (en) | Voice recognition device, voice recognition method, navigation device, navigation method, and automobile | |
JPH11231889A (en) | Speech recognition device | |
JPH1062198A (en) | Navigation apparatus | |
KR20060057726A (en) | Interactive navigation system and its control method | |
JP3484818B2 (en) | Voice recognition device and navigation device |