[go: up one dir, main page]

JP2006010509A - Navigation system - Google Patents

Navigation system Download PDF

Info

Publication number
JP2006010509A
JP2006010509A JP2004188231A JP2004188231A JP2006010509A JP 2006010509 A JP2006010509 A JP 2006010509A JP 2004188231 A JP2004188231 A JP 2004188231A JP 2004188231 A JP2004188231 A JP 2004188231A JP 2006010509 A JP2006010509 A JP 2006010509A
Authority
JP
Japan
Prior art keywords
voice
voice data
recorded
guidance
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004188231A
Other languages
Japanese (ja)
Inventor
Keisuke Nishimoto
圭輔 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2004188231A priority Critical patent/JP2006010509A/en
Priority to CN 200510082399 priority patent/CN1713242A/en
Publication of JP2006010509A publication Critical patent/JP2006010509A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a navigation system capable of guiding with the voice that the user recorded for all audio assist. <P>SOLUTION: The system comprises a voice input means 2 for inputting recorded voice data, a voice data base 6 storing preliminarily formed initial guiding voice data and input record voice data, a matching information altering means 9 for matching the recorded data input from the voice input means with initial guiding voice data and storing in the voice data base, a route survey means for surveying the route from the present position to a destination, a guiding voice acquiring means 7 for acquiring the recorded voice data when there is recorded voice data matched with the initial guiding voice data from the voice data base in the case that audio assist is necessary during running along the route surveyed with the route survey means and acquiring initial guiding voice data when it does not exist, and a voice output means 10 outputting the guiding voice based on the initial guiding voice data acquired with the guiding voice acquiring means or the recorded voice data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、ナビゲーションシステムに関し、特にユーザが録音した音声で案内する技術に関する。   The present invention relates to a navigation system, and more particularly, to a technique for guiding with a voice recorded by a user.

従来、例えば車両に搭載されて目的地まで運転者を地図と音声で案内する車載用ナビゲーションシステムが知られている。このような音声で案内を行う車載用ナビゲーションシステムの1つとして、走行中に予め設定した地点で音声出力される予め設定した音声データを任意の地点で確認できるナビゲーション装置が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, for example, an in-vehicle navigation system that is mounted on a vehicle and guides a driver to a destination with a map and voice is known. As one of in-vehicle navigation systems that perform such guidance by voice, a navigation device that can confirm preset voice data that is output by voice at a preset point during travel at any point is known (for example, , See Patent Document 1).

このナビゲーション装置は、複数の目的地・経由地の位置を記憶する目的地・経由地メモリと、目的地・経由地のいずれか1つを選択する選択手段と、目的地・経由地の数だけ音声データを記憶可能な音声データメモリと、キー操作にて音声を録音する音声データ入力手段と、キー操作にて音声を再生させる音声データ出力手段と、目的地・経由地に近づいたとき音声を再生する音声誘導手段とを備えている。   This navigation device includes a destination / waypoint memory for storing the positions of a plurality of destinations / waypoints, selection means for selecting one of the destinations / waypoints, and the number of destinations / waypoints. Voice data memory capable of storing voice data, voice data input means for recording voice by key operation, voice data output means for reproducing voice by key operation, and voice when approaching a destination / route Voice guidance means for reproduction.

また、他の車載用ナビゲーションシステムとして、特許文献2は、車両のナビゲーションシステムを開示している。このナビゲーションシステムは、車両の現在位置および進行方向を検知して予め指定したチェックポイントに差し掛かるとテレビ画面の地図上に表示し、或いは音声によりドライバに警告するものであって、ドライバからの音声を受付状態として往路におけるチェックポイント付近の目印を録音し、同じ経路で帰還する際に往路と同じチェックポイントに差し掛かった時に録音した往路のチェックポイントを、往路と位置関係を逆にしてメッセージとして警告する道路案内手段を備えている。   As another in-vehicle navigation system, Patent Document 2 discloses a vehicle navigation system. This navigation system detects the current position of the vehicle and the direction of travel and displays it on a map on the TV screen when it reaches a pre-specified checkpoint, or warns the driver by voice. As a reception status, a mark near the checkpoint in the outbound route is recorded, and when returning to the same route, the checkpoint of the outbound route recorded when arriving at the same checkpoint as the outbound route is warned as a message with the positional relationship with the outbound route reversed Road guidance means is provided.

特開平5−232871号公報JP-A-5-2322871 実開平2−55115号公報Japanese Utility Model Publication No. 2-55115

しかしながら、上述した従来のものでは、録音した音声は、目的地、経由地、チェックポイントといった地点に対する対応付けしか行うことができない。「ユーザが録音した音声を再生する」という機能は、「システムにユーザ固有の色づけを行うことができる」という意味合いが強いが、音声を地点に対応付けることしかできない従来の装置では、その地点周辺以外の場所では予め録音された音声で案内が行われる。その結果、音声に対応付けられた地点周辺のみでしか、「システムにユーザ固有の色づけを行う」という効果は発揮されない。そこで、全ての音声案内について、ユーザが録音した音声で案内できるシステムの開発が望まれている。   However, with the above-described conventional one, the recorded voice can only be associated with points such as destinations, waypoints, and checkpoints. The function of “playing back the voice recorded by the user” has a strong meaning of “can perform user-specific coloring in the system”, but in the conventional apparatus that can only associate the voice with the point, it is not around the point. Guidance is given at pre-recorded voices. As a result, the effect of “user-specific coloring for the system” is exhibited only in the vicinity of the point associated with the voice. Therefore, it is desired to develop a system capable of guiding all voice guidance by voice recorded by the user.

この発明は、上述した要請に応えるためになされたものであり、全ての音声案内について、ユーザが録音した音声で案内できるナビゲーションシステムを提供することを目的とする。   The present invention has been made to meet the above-described demand, and an object thereof is to provide a navigation system capable of guiding all voice guidance by voice recorded by a user.

この発明に係るナビゲーションシステムは、録音音声データを入力する音声入力手段と、予め作成された初期誘導音声データと音声入力手段から入力された録音音声データとを記憶する音声データベースと、音声入力手段から入力された録音音声データを、音声データベースに記憶されている初期誘導音声データに対応付けて該音声データベースに格納する対応情報変更手段と、現在位置から目的地までの経路を探索する経路探索手段と、経路探索手段で探索された経路に沿って走行中に音声案内が必要であることが判断された場合に、音声データベースから、初期誘導音声データに対応付けられた録音音声データが存在する場合は該録音音声データを、存在しない場合は初期誘導音声データを取得する誘導音声取得手段と、誘導音声取得手段で取得された初期誘導音声データまたは録音音声データに基づき案内音声を出力する音声出力手段とを備えている。   The navigation system according to the present invention includes a voice input means for inputting recorded voice data, a voice database for storing previously prepared initial guidance voice data and recorded voice data inputted from the voice input means, and a voice input means. Corresponding information changing means for storing the input recorded voice data in the voice database in association with the initial guidance voice data stored in the voice database; and path search means for searching for a route from the current position to the destination. When it is determined that voice guidance is necessary during traveling along the route searched by the route search means, when recorded voice data associated with the initial guidance voice data exists from the voice database If the recorded voice data does not exist, a guidance voice acquisition means for acquiring initial guidance voice data and a guidance voice acquisition procedure And an audio output unit in outputting a guidance voice based on the obtained initial lag audio data or recording audio data.

この発明によれば、音声データベースに予め格納されている初期誘導音声データに、ユーザが入力した音声を表す録音音声データを、対応付けテーブルを用いて対応付けて格納し、経路探索手段で探索された経路に沿って走行中に音声案内が必要になった場合に、音声データベースから、初期誘導音声データに対応付けられた録音音声データが存在する場合は該録音音声データを、存在しない場合は初期誘導音声データを取得して案内音声を出力するようにしたので、ユーザが音声を入力さえすれば、カーナビゲーションによる全ての音声案内に対しユーザが録音した全ての音声を発話させることが可能になる。その結果、運転で疲弊したユーザに対して精神的安堵感を与えることが可能になる。   According to the present invention, the recorded voice data representing the voice input by the user is stored in association with the initial guidance voice data stored in advance in the voice database using the correspondence table, and searched by the route search means. When voice guidance is required while traveling along the route, if the recorded voice data associated with the initial guidance voice data exists from the voice database, the recorded voice data is displayed. Since the guidance voice data is acquired and the guidance voice is output, all the voices recorded by the user can be uttered for all the voice guidance by the car navigation as long as the user inputs the voice. . As a result, it becomes possible to give a mental relief to the user who is exhausted by driving.

以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係るナビゲーションシステムの構成を示すブロック図である。
このナビゲーションシステムは、メイン処理部1、音声入力手段2、記憶手段3、自車位置検出手段4、入力手段5、音声データベース6、誘導音声取得手段7、この誘導音声取得手段7に設けられた対応付けテーブル8、対応情報変更手段9、音声出力手段10、表示手段11および通信手段12から構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a navigation system according to Embodiment 1 of the present invention.
This navigation system is provided in the main processing unit 1, voice input means 2, storage means 3, own vehicle position detection means 4, input means 5, voice database 6, guidance voice acquisition means 7, and guidance voice acquisition means 7. The correspondence table 8 includes correspondence information changing means 9, voice output means 10, display means 11, and communication means 12.

メイン処理部1は、例えばマイクロコンピュータから構成されており、ナビゲーションシステムの全体を制御する。この発明の経路探索手段は、メイン処理部1により実現されており、現在位置から目的地までの経路を探索する経路探索処理を実行する。このメイン処理部1で行われる処理の詳細は後述する。   The main processing unit 1 is composed of a microcomputer, for example, and controls the entire navigation system. The route search means of the present invention is realized by the main processing unit 1 and executes route search processing for searching for a route from the current position to the destination. Details of processing performed in the main processing unit 1 will be described later.

音声入力手段2は、例えばマイクロフォンから構成されており、ユーザが音声を入力するために使用される。この音声入力手段2から入力された音声は電気信号に変換され、録音音声データとしてメイン処理部1に送られる。   The voice input means 2 is composed of a microphone, for example, and is used by a user to input voice. The voice input from the voice input means 2 is converted into an electrical signal and sent to the main processing unit 1 as recorded voice data.

記憶手段3は、例えば、CD−ROMやDVD−ROMといった記録媒体に記録された地図データやその他のデータを読み出すディスクドライブから構成されている。この記憶手段3に記憶されている地図データやその他のデータは、メイン処理部1によって読み出される。   The storage means 3 is composed of a disk drive that reads map data and other data recorded on a recording medium such as a CD-ROM or DVD-ROM. Map data and other data stored in the storage means 3 are read out by the main processing unit 1.

自車位置検出手段4は、車速センサ、GPS受信機、ジャイロ等から構成されており、車速センサで検出された車両の速度を表す速度データ、GPS受信機で検出された現在位置を表す現在位置データおよびジャイロで検出された車両の進行方位を表す方位データに基づいて自車位置を検出する。この自車位置検出手段4で検出された自車の現在位置を表す位置データは、メイン処理部1に送られる。   The own vehicle position detection means 4 is composed of a vehicle speed sensor, a GPS receiver, a gyro, and the like. Speed data indicating the speed of the vehicle detected by the vehicle speed sensor and a current position indicating the current position detected by the GPS receiver. The vehicle position is detected based on the data and the direction data representing the traveling direction of the vehicle detected by the gyro. Position data representing the current position of the host vehicle detected by the host vehicle position detection unit 4 is sent to the main processing unit 1.

入力手段5は、例えば表示手段11の表示画面上に載置されたタッチパネルから構成されており、ユーザがナビゲーションシステムに種々の指示を与えるために使用される。この入力手段5から入力されたデータは、メイン処理部1に送られる。なお、入力手段5としては、タッチパネルに限らず、例えば、リモートコントローラ、操作スイッチ等を用いることができる。   The input means 5 is composed of, for example, a touch panel placed on the display screen of the display means 11, and is used by the user to give various instructions to the navigation system. Data input from the input unit 5 is sent to the main processing unit 1. The input unit 5 is not limited to a touch panel, and for example, a remote controller, an operation switch, or the like can be used.

音声データベース6は、音声データを記憶する。音声データには、当該ナビゲーションシステムで予め用意されている初期誘導音声データとユーザが音声入力手段2を用いて入力した録音音声データとが含まれる。録音音声データは、誘導音声取得手段7の内部に設けられた対応付けテーブル8によって、初期誘導音声データに対応付けられている。この対応付けテーブル8と音声データベース6との関係を、図2および図3を参照しながら説明する。   The voice database 6 stores voice data. The voice data includes initial guidance voice data prepared in advance by the navigation system and recorded voice data input by the user using the voice input means 2. The recorded voice data is associated with the initial guidance voice data by the correspondence table 8 provided inside the guidance voice acquisition means 7. The relationship between the association table 8 and the voice database 6 will be described with reference to FIGS.

図2は、初期状態の対応付けテーブル8および音声データベース6を示している。初期状態の対応付けテーブル8では、図2(a)に示すように、ID1に対し初期誘導音声データD1が、ID2に対し初期誘導音声データD2が、ID3に対し初期誘導音声データD3が、ID4に対し初期誘導音声データD4がそれぞれ対応付けられている。そして、音声データベース6には、図2(b)に示すように、初期誘導音声データD1として「右方向です」、初期誘導音声データD2として「左方向です」、初期誘導音声データD3として「まもなく」、初期誘導音声データD4として「その先」というフレーズがそれぞれ格納されている。   FIG. 2 shows the association table 8 and the voice database 6 in the initial state. In the correspondence table 8 in the initial state, as shown in FIG. 2A, the initial guidance voice data D1 for ID1, the initial guidance voice data D2 for ID2, and the initial guidance voice data D3 for ID3 are ID4. Are respectively associated with the initial guidance voice data D4. In the voice database 6, as shown in FIG. 2B, the initial guidance voice data D1 is “right”, the initial guidance voice data D2 is “left”, and the initial guidance voice data D3 is “soon. ", The phrase" beyond "is stored as the initial guidance voice data D4.

図3は、ユーザにより録音音声データが入力された後の対応付けテーブル8および音声データベース6を示している。この状態における対応付けテーブル8では、図3(a)に示すように、ID1に対し録音音声データD5が、ID2に対し録音音声データD6が、ID3に対し録音音声データD7が、ID4に対し録音音声データD8がそれぞれ対応付けられている。そして、音声データベース6には、図2(b)に示すように、録音音声データD5として「右だよ」、録音音声データD6として「左だよ」、録音音声データD7として「もうすぐ」、録音音声データD8として「その先」というフレーズがそれぞれ格納されている。   FIG. 3 shows the association table 8 and the voice database 6 after the recorded voice data is input by the user. In the association table 8 in this state, as shown in FIG. 3A, the recorded voice data D5 for ID1, the recorded voice data D6 for ID2, the recorded voice data D7 for ID3, and the recorded voice for ID4 are recorded. Audio data D8 is associated with each other. In the voice database 6, as shown in FIG. 2 (b), the recording voice data D5 is "right", the recording voice data D6 is "left", the recording voice data D7 is "soon", the recording The phrase “beyond” is stored as the audio data D8.

図1に示す誘導音声取得手段7は、メイン処理部1からの指示に応答して、対応付けテーブル8の内容に従って音声データベース6から初期誘導音声データまたは録音音声データを取得し、該取得した初期誘導音声データまたは録音音声データに基づいて音声信号を生成する。この誘導音声取得手段7で生成された音声信号は、音声出力手段10に送られる。   The guidance voice acquisition means 7 shown in FIG. 1 acquires initial guidance voice data or recorded voice data from the voice database 6 according to the contents of the association table 8 in response to an instruction from the main processing unit 1, and the acquired initial voice A voice signal is generated based on the guidance voice data or the recorded voice data. The voice signal generated by the guided voice acquisition unit 7 is sent to the voice output unit 10.

対応情報変更手段9は、音声入力手段2からメイン処理部1を経由して送られてくる音声データを録音音声データとして音声データベース6に格納するとともに、この録音音声データの格納に伴って対応付けテーブル8の内容を変更する。この対応情報変更手段9において実行される処理の詳細は後述する。   The correspondence information changing means 9 stores the voice data sent from the voice input means 2 via the main processing unit 1 in the voice database 6 as the recorded voice data, and is associated with the storage of the recorded voice data. The contents of table 8 are changed. Details of processing executed in the correspondence information changing unit 9 will be described later.

音声出力手段10は、例えばスピーカから構成されており、誘導音声取得手段7から送られてくる音声信号に基づき誘導音声を発生する。   The audio output means 10 is composed of, for example, a speaker, and generates a guidance voice based on the voice signal sent from the guidance voice acquisition means 7.

表示手段11は、例えば液晶パネルから構成されており、メイン処理部1から送られてくる表示データに従って地図や種々のメッセージを表示する。この表示手段11の画面上には、上述したように、入力手段11としてのタッチパネルが載置されている。   The display means 11 is composed of, for example, a liquid crystal panel, and displays a map and various messages according to display data sent from the main processing unit 1. As described above, the touch panel as the input unit 11 is placed on the screen of the display unit 11.

通信手段12は、当該ナビゲーションシステムを、インターネットやその他の各種コンピュータネットワーク、VICSシステム、カーナビ向け情報提供サービス網(例えば「MONET」)といった情報配信源に接続するために使用される。   The communication means 12 is used to connect the navigation system to an information distribution source such as the Internet and other various computer networks, a VICS system, and an information providing service network for car navigation (for example, “MONET”).

次に、上記のように構成される、この発明の実施の形態1に係るナビゲーションシステムの動作を説明する。   Next, an operation of the navigation system according to Embodiment 1 of the present invention configured as described above will be described.

まず、対応情報変更手段9において実行される対応情報変更処理の詳細を、図4に示すフローチャートを参照しながら説明する。   First, details of the correspondence information changing process executed by the correspondence information changing means 9 will be described with reference to the flowchart shown in FIG.

この対応情報変更処理では、まず、音声情報を生成すべき旨の要求があるかどうかが調べられる(ステップST11)。即ち、メイン処理部1は、入力手段5から音声情報を生成すべき旨の指示が入力されたかどうかを調べる。このステップST11で、音声情報を生成すべき旨の要求がないことが判断されると、以下、ステップST11の繰り返し実行による待機状態に入る。   In this correspondence information changing process, it is first checked whether or not there is a request to generate voice information (step ST11). That is, the main processing unit 1 checks whether or not an instruction to generate voice information is input from the input unit 5. If it is determined in step ST11 that there is no request to generate audio information, a standby state is entered through repeated execution of step ST11.

このステップST11の繰り返し実行による待機状態において、音声情報を生成すべき旨の要求が有ることが判断されると、対応付けテーブル8の内容がユーザに提示される(ステップST12)。具体的には、メイン処理部1は、入力手段5から入力された音声情報を生成すべき旨の要求を対応情報変更手段9に送る。対応情報変更手段9は、この要求に応答して、誘導音声取得手段7内の対応付けテーブル8からその内容を読み出し、メイン処理部1を介して表示手段11に送る。   When it is determined that there is a request to generate voice information in the standby state by repeatedly executing step ST11, the contents of the association table 8 are presented to the user (step ST12). Specifically, the main processing unit 1 sends a request to the voice information input means 5 to generate voice information to the correspondence information changing means 9. In response to this request, the correspondence information changing unit 9 reads the content from the correspondence table 8 in the guidance voice obtaining unit 7 and sends it to the display unit 11 via the main processing unit 1.

これにより、表示手段11に、例えば図5に示すような、対応付けテーブル8のID1〜ID4に割り当てられている初期誘導音声データD1〜D4のフレーズが表示され、音声入力の案内が行われる。ユーザは、この表示手段11に表示されたフレーズの中から、変更したいフレーズを選択することができる。従って、例えば、誤って「右方向です」という初期誘導音声データに「左方向です」という録音音声データを割り当てるといった危険な設定がなされ難くなる。   As a result, the phrases of the initial guidance voice data D1 to D4 assigned to ID1 to ID4 of the association table 8 as shown in FIG. 5, for example, are displayed on the display means 11, and guidance for voice input is performed. The user can select a phrase to be changed from the phrases displayed on the display means 11. Therefore, for example, it is difficult to make a dangerous setting such as accidentally assigning the recorded voice data “to the left” to the initial guidance voice data “to the right”.

次いで、フレーズが選択されたかどうかが調べられる(ステップST13)。ここで、選択されていないことが判断されると、このステップST13を繰り返し実行しながら待機する。このステップST13の繰り返し実行による待機状態で、フレーズが選択されたことが判断されると、次いで、音声データが入力されたかどうかが調べられる(ステップST14)。ここで、音声データが入力されていないことが判断されると、このステップST14を繰り返し実行しながら待機する。ユーザは、このステップST14の繰り返し実行による待機状態において、音声入力手段2を用いて音声を入力する。   Next, it is checked whether or not a phrase has been selected (step ST13). Here, if it is determined that it has not been selected, the process waits while repeatedly executing this step ST13. If it is determined that a phrase has been selected in a standby state due to repeated execution of step ST13, it is then checked whether voice data has been input (step ST14). Here, if it is determined that no audio data is input, the process waits while repeatedly executing step ST14. The user inputs voice using the voice input means 2 in a standby state by repeatedly executing step ST14.

ステップST14の繰り返し実行による待機状態において、音声データが入力されたことが判断されると、その入力された音声データが、録音音声データとして音声データベース6に格納される(ステップST15)。今、ID1に対応する初期誘導音声データD1の「右方向です」というフレーズがステップST13において選択された状態で、ステップST14において「右だよ」というフレーズが音声入力手段2から入力されたとすると、対応情報変更手段9は、このフレーズに対応する音声データを、メイン処理部1を経由して取得し、録音音声データとして音声データベース6に格納する。   If it is determined that voice data has been input in a standby state due to repeated execution of step ST14, the input voice data is stored in the voice database 6 as recorded voice data (step ST15). Now, assuming that the phrase “It is right” in the initial guidance voice data D1 corresponding to ID1 is selected in Step ST13, and the phrase “It is right” is input from the voice input means 2 in Step ST14. Correspondence information changing means 9 obtains voice data corresponding to the phrase via the main processing unit 1 and stores it in the voice database 6 as recorded voice data.

次いで、対応付けテーブル8の内容が更新される(ステップST16)。即ち、対応情報変更手段9は、上記の例で言えば、図2(a)に示すように、初期状態においてID1に対し「右方向です」というフレーズの初期誘導音声データD1が対応付けられていた対応付けテーブル8の内容を、図3(a)に示すように、ID1に対し「右だよ」というフレーズの録音音声データD5を対応付けるように変更する。以上により、対応情報変更処理は終了する。   Next, the contents of the association table 8 are updated (step ST16). That is, in the above example, as shown in FIG. 2A, the correspondence information changing means 9 is associated with the initial guidance voice data D1 of the phrase “rightward” with respect to ID1 in the initial state. As shown in FIG. 3A, the content of the association table 8 is changed to associate the recorded voice data D5 of the phrase “right” with ID1. Thus, the correspondence information change process ends.

次に、このナビゲーションシステムにおいて実行される経路案内処理を、図6に示すフローチャートを参照しながら説明する。   Next, route guidance processing executed in this navigation system will be described with reference to the flowchart shown in FIG.

経路案内処理では、まず、経路探索処理が実行される(ステップST21)。即ち、メイン処理部1は、自車位置検出手段4で検出された自車位置から、入力手段5によって入力された目的地までの経路を、記憶手段3から読み出した地図データに基づいて検索する。この検索により得られた経路を表す経路データは、メイン処理部1の内部に記憶される。その後、自車が移動を開始することにより、経路案内が開始される。   In the route guidance process, a route search process is first executed (step ST21). That is, the main processing unit 1 searches the route from the vehicle position detected by the vehicle position detection unit 4 to the destination input by the input unit 5 based on the map data read from the storage unit 3. . The route data representing the route obtained by this search is stored in the main processing unit 1. Then, route guidance is started when the own vehicle starts moving.

経路案内が開始されると、まず、自車位置が検出される(ステップST22)。即ち、メイン処理部1は、自車位置検出手段4から自車の現在位置を表す位置データを取得する。次いで、誘導音声案内が必要であるかどうかが調べられる(ステップST23)。具体的には、メイン処理部1は、ステップST21で得られた経路データと、ステップST22で取得した位置データとを照合することにより、誘導音声案内を出力するべき地点に到達したかどうかを調べる。このステップST23で、誘導音声案内が必要でないことが判断されると、シーケンスはステップST22に戻り、上述した処理が繰り返される。   When route guidance is started, first, the vehicle position is detected (step ST22). That is, the main processing unit 1 acquires position data representing the current position of the own vehicle from the own vehicle position detecting means 4. Next, it is checked whether or not guidance voice guidance is necessary (step ST23). Specifically, the main processing unit 1 checks whether or not the point where the guidance voice guidance should be output has been reached by comparing the route data obtained in step ST21 and the position data obtained in step ST22. . If it is determined in this step ST23 that guidance voice guidance is not necessary, the sequence returns to step ST22 and the above-described processing is repeated.

上記ステップST22およびST23の繰り返し実行の途中で、ステップST23において、誘導音声案内が必要であることが判断されると、音声データのリストの生成が行われる(ステップST24)。即ち、メイン処理部1は、ステップST21で得られた経路データに基づき、現在位置で発生すべき誘導音声を構成する音声データのリストを生成する。例えば、現在位置において、「まもなく、右方向です。その先、左方向です」という誘導音声を発生すべき場合は、「ID3−ID1−ID4−ID2」というデータ列を音声データのリストとして生成する。この音声データのリストは、誘導音声取得手段7に送られる。   If it is determined in step ST23 that guidance voice guidance is necessary during the repeated execution of steps ST22 and ST23, a list of voice data is generated (step ST24). That is, the main processing unit 1 generates a list of voice data constituting the guidance voice that should be generated at the current position, based on the route data obtained in step ST21. For example, in the current position, if a guidance voice “soon to the right, then to the left” is to be generated, a data string “ID3-ID1-ID4-ID2” is generated as a list of voice data. . This list of voice data is sent to the guide voice acquisition means 7.

次いで、音声データの取得が行われる(ステップST25)。即ち、誘導音声取得手段7は、対応付けテーブル8を参照することにより、メイン処理部1から受け取った「ID3−ID1−ID4−ID2」というデータ列に対応する初期誘導音声データまたは録音音声データを音声データベース6から取得する。今、対応付けテーブル8の内容が、図2に示すような初期状態であるとすると、「まもなく、右方向です。その先、左方向です」というフレーズの初期誘導音声データが音声データベース6から取得される。   Next, audio data is acquired (step ST25). That is, the guidance voice acquisition unit 7 refers to the association table 8 to obtain the initial guidance voice data or the recorded voice data corresponding to the data string “ID3-ID1-ID4-ID2” received from the main processing unit 1. Obtained from the voice database 6. Assuming that the contents of the association table 8 are in the initial state as shown in FIG. 2, the initial guidance voice data of the phrase “Soon, right direction, then left direction” is acquired from the voice database 6. Is done.

一方、対応付けテーブル8の内容が、図3に示すように変更された状態であるとすると、「もうすぐ、右だよ。その先、左だよ」というフレーズの録音音声データが音声データベース6から取得される。誘導音声取得手段7は、音声データベース6から取得した初期誘導音声データまたは録音音声データに基づき音声信号を生成して音声出力手段10に送る。   On the other hand, if the contents of the association table 8 are changed as shown in FIG. 3, the recorded voice data of the phrase “coming soon, right now, then left” is obtained from the voice database 6. To be acquired. The guidance voice acquisition means 7 generates a voice signal based on the initial guidance voice data or the recorded voice data acquired from the voice database 6 and sends it to the voice output means 10.

次いで、誘導音声の出力が行われる(ステップST26)。即ち、音声出力手段10は、誘導音声取得手段7から送られてくる音声信号に基づいて誘導音声を発生する。以上により、現在位置における誘導音声による経路案内が終了する。以上の経路案内処理は、所定周期で実行される。従って、自車が経路データで示される経路上の誘導音声案内を出力するべき地点に到達する毎に、その地点に応じた誘導音声による経路案内が行われる。   Next, a guidance voice is output (step ST26). That is, the voice output unit 10 generates a guide voice based on the voice signal sent from the guide voice acquisition unit 7. This completes the route guidance using the guidance voice at the current position. The above route guidance processing is executed at a predetermined cycle. Therefore, every time the vehicle reaches a point where the guidance voice guidance on the route indicated by the route data is to be output, the route guidance by the guidance voice corresponding to the point is performed.

以上説明したように、この発明の実施の形態1に係るナビゲーションシステムによれば、音声データベース6に予め格納されている初期誘導音声データに、ユーザが音声入力手段2を用いて入力した音声を表す録音音声データを、対応付けテーブル8を用いて対応付けて音声データベース6に格納し、経路探索手段で探索された経路に沿って走行中に音声案内が必要になった場合に、音声データベース6から、初期誘導音声データに対応付けられた録音音声データが存在する場合はその録音音声データを、存在しない場合は初期誘導音声データを取得して音声出力手段10で案内音声を出力するようにしたので、ユーザが音声を入力さえすれば、カーナビゲーションによる全ての音声案内に対しユーザが録音した全ての音声を発話させることが可能になる。   As described above, according to the navigation system according to the first embodiment of the present invention, the initial guidance voice data stored in advance in the voice database 6 represents the voice input by the user using the voice input means 2. When the recorded voice data is stored in the voice database 6 in association with the correspondence table 8 and voice guidance is required during traveling along the route searched by the route search means, the voice database 6 Since the recorded voice data associated with the initial guidance voice data exists, the recorded voice data is obtained. When the recorded voice data does not exist, the initial guidance voice data is acquired and the voice output means 10 outputs the guidance voice. , If the user only inputs voice, all voices recorded by the user are spoken for all voice guidance by car navigation Possible to become.

その結果、そのナビゲーションシステムがユーサ固有のものであるという印象をよりユーザに与えることができ、既存のナレータの音声による誘導と比べて、より高い精神的安堵感(癒し効果)や満足感をユーザに与えることが可能になる。例えば、単身赴任中の会社員の場合、愛娘の声で録音した録音音声データを音声案内に使用するといった用途が考えられる。   As a result, it is possible to give the user the impression that the navigation system is unique to the user, and higher psychological relief (healing effect) and satisfaction than the existing narrator's voice guidance. Can be given to. For example, in the case of a company employee who is assigned as a single employee, it is possible to use recorded voice data recorded with the voice of his daughter for voice guidance.

なお、上述した実施の形態1に係るナビゲーションシステムでは、音声入力手段2として、ユーザが音声を入力するマイクロフォン等を用いたが、予め録音音声データが記録されたCD−ROM、DVD−ROMといった記録媒体を用いることもできる。この場合、対応情報変更手段9は、記録媒体から入力された録音音声データを音声データベース6に格納する際に、対応付けテーブル8の内容を変更して、その録音音声データを初期誘導音声データに対応付ける。この構成によれば、例えばユーザが好むアニメーションのキャラクタやアイドルの声によって録音された記録媒体を利用することにより、ユーザは自己が好む音声で誘導案内を受けることが可能になる。また、記録媒体から録音音声データを取得する代わりに、ネットワーク上のサイトから通信手段12を介して録音音声データを取得するように構成することもできる。   In the navigation system according to the first embodiment described above, a microphone or the like for inputting voice by the user is used as the voice input unit 2, but recording such as a CD-ROM or DVD-ROM in which recorded voice data is recorded in advance. A medium can also be used. In this case, the correspondence information changing means 9 changes the contents of the association table 8 when storing the recorded voice data input from the recording medium in the voice database 6 and changes the recorded voice data to the initial guidance voice data. Associate. According to this configuration, for example, by using a recording medium recorded by an animated character or an idol's voice that the user likes, the user can receive guidance guidance with a voice that the user likes. Further, instead of acquiring the recorded voice data from the recording medium, the recorded voice data can be acquired from the site on the network via the communication unit 12.

実施の形態2.
この発明の実施の形態2に係るナビゲーションシステムは、実施の形態1に係るナビゲーションシステムにおいて、対応付けテーブル8の内容を初期状態に戻すことができるようにしたものである。
Embodiment 2. FIG.
The navigation system according to Embodiment 2 of the present invention is such that the contents of the association table 8 can be returned to the initial state in the navigation system according to Embodiment 1.

実施の形態2に係るナビゲーションシステムの構成は、図1に示した実施の形態1に係るナビゲーションシステムの構成と同じである。   The configuration of the navigation system according to the second embodiment is the same as the configuration of the navigation system according to the first embodiment shown in FIG.

次に、この発明の実施の形態2に係るナビゲーションシステムの動作を説明する。実施の形態2に係るナビゲーションシステムの動作は、対応情報変更手段9において実行される対応情報変更処理の内容が実施の形態1に係るナビゲーションシステムのそれと異なるのみである。従って、以下では、異なる部分を主体に説明する。   Next, the operation of the navigation system according to Embodiment 2 of the present invention will be described. The operation of the navigation system according to the second embodiment is different from that of the navigation system according to the first embodiment only in the content of the correspondence information changing process executed by the correspondence information changing means 9. Therefore, in the following, different parts will be mainly described.

図7は、実施の形態2に係るナビゲーションシステムの対応情報変更手段9において実行される対応情報変更処理の詳細を示すフローチャートである。   FIG. 7 is a flowchart showing details of the correspondence information changing process executed in the correspondence information changing means 9 of the navigation system according to the second embodiment.

この対応情報変更処理では、まず、音声情報を生成すべき旨の要求があるかどうかが調べられる(ステップST11)。ここで、音声情報を生成すべき旨の要求がないことが判断されると、次いで、初期化要求があるかどうかが調べられる(ステップST17)。即ち、メイン処理部1は、入力手段5から初期化すべき旨の指示が入力されたかどうかを調べる。このステップST17で、初期化すべき旨の要求がないことが判断されると、シーケンスはステップST11に戻り、以下、ステップST11およびST17の繰り返し実行による待機状態に入る。   In this correspondence information changing process, it is first checked whether or not there is a request to generate voice information (step ST11). Here, if it is determined that there is no request to generate audio information, it is then checked whether there is an initialization request (step ST17). That is, the main processing unit 1 checks whether or not an instruction to be initialized is input from the input unit 5. If it is determined in step ST17 that there is no request for initialization, the sequence returns to step ST11, and thereafter enters a standby state by repeated execution of steps ST11 and ST17.

このステップST11およびST17の繰り返し実行による待機状態で、ステップST11において、音声情報を生成すべき旨の要求が有ることが判断されると、上述した実施の形態1に係るナビゲーションシステムと同様に、録音音声データの音声データベース6への格納および対応付けテーブル8の更新が行われる(ステップST12〜ST16)。一方、ステップST11およびST17の繰り返し実行による待機状態で、ステップST17において、初期化すべき旨の要求が有ることが判断されると、対応付けテーブル8を初期化する初期化処理(ステップST18〜ST20)が行われる。この初期化処理は、この発明の初期化手段に対応する。   If it is determined in step ST11 that there is a request to generate voice information in a standby state by repeatedly executing steps ST11 and ST17, recording is performed in the same manner as in the navigation system according to the first embodiment described above. The voice data is stored in the voice database 6 and the association table 8 is updated (steps ST12 to ST16). On the other hand, when it is determined in step ST17 that there is a request to be initialized in a standby state by repeatedly executing steps ST11 and ST17, initialization processing for initializing the association table 8 (steps ST18 to ST20). Is done. This initialization process corresponds to the initialization means of the present invention.

初期化処理では、まず、問い合わせが行われる(ステップST18)。具体的には、メイン処理部1は、初期化すべき旨の要求を対応情報変更手段9に送る。対応情報変更手段9は、この要求に応答して、問い合わせ画面用の表示データを生成し、メイン処理部1を介して表示手段11に送る。これにより、例えば図8に示すような、「音声データを初期化しますか?」という問い合わせメッセージと、「はい」および「いいえ」というボタンとが含まれた問い合わせ画面が表示手段11に表示される。ユーザは、この問い合わせ画面上の「はい」または「いいえ」のボタンを押すことにより、対応付けテーブル8を初期化するかどうかを指示する。   In the initialization process, an inquiry is first made (step ST18). Specifically, the main processing unit 1 sends a request for initialization to the correspondence information changing unit 9. In response to this request, the correspondence information changing unit 9 generates display data for an inquiry screen and sends it to the display unit 11 via the main processing unit 1. Thereby, for example, as shown in FIG. 8, an inquiry screen including an inquiry message “Do you want to initialize audio data?” And buttons “Yes” and “No” is displayed on the display means 11. . The user instructs whether to initialize the association table 8 by pressing the “Yes” or “No” button on the inquiry screen.

次いで、初期化指示があったかどうかが調べられる(ステップST19)。即ち、対応情報変更手段9は、初期化の指示があるかどうかを調べる。ここで、初期化の指示がない、つまり、「いいえ」のボタンが押されたことが判断されると、対応付けテーブル8の初期化は行われずに初期化処理は終了する。   Next, it is checked whether or not there is an initialization instruction (step ST19). That is, the correspondence information changing unit 9 checks whether there is an instruction for initialization. Here, if there is no instruction for initialization, that is, it is determined that the “No” button has been pressed, initialization of the association table 8 is terminated without the initialization of the association table 8.

一方、ステップST19において、初期化の指示が有る、つまり、「はい」のボタンが押されたことが判断されると、対応付けテーブル8の初期化が行われる(ステップST20)。この初期化により、対応付けテーブル8および音声データベース6は、例えば図3に示すようなユーザにより録音音声データが入力された状態から、図2に示すような初期状態に戻される。以上により初期化処理は終了する。   On the other hand, if it is determined in step ST19 that there is an instruction for initialization, that is, the “Yes” button has been pressed, the association table 8 is initialized (step ST20). By this initialization, the association table 8 and the voice database 6 are returned to the initial state as shown in FIG. 2, for example, from the state where the recorded voice data is input by the user as shown in FIG. Thus, the initialization process ends.

以上説明したように、この発明の実施の形態2に係るナビゲーションシステムによれば、ユーザの指示によって対応付けテーブル8および音声データベース6を初期状態に戻すことができる。従って、万が一「右方向です」というID1の初期誘導音声データに対して「左方向です」という録音音声データを娯って登録してしまった場合などは、初期化を行うことにより、安全な音声案内を行うようにすることが可能になる。   As described above, according to the navigation system of the second embodiment of the present invention, the association table 8 and the voice database 6 can be returned to the initial state according to a user instruction. Therefore, in the unlikely event that the recorded voice data of “I am left” is registered for the initial guidance voice data of ID1 “I am right”, it is safe to perform the initialization by performing initialization. It is possible to provide guidance.

実施の形態3.
この発明の実施の形態3に係るナビゲーションシステムは、実施の形態2に係るナビゲーションシステムにおいて、録音音声データを編集できるようにしたものである。
Embodiment 3 FIG.
The navigation system according to Embodiment 3 of the present invention is such that the recorded voice data can be edited in the navigation system according to Embodiment 2.

実施の形態3に係るナビゲーションシステムの構成は、図1に示した実施の形態1に係るナビゲーションシステムの構成と同じである。   The configuration of the navigation system according to Embodiment 3 is the same as that of the navigation system according to Embodiment 1 shown in FIG.

次に、この発明の実施の形態3に係るナビゲーションシステムの動作を説明する。実施の形態3に係るナビゲーションシステムの動作は、対応情報変更手段9において実行される対応情報変更処理の内容が実施の形態1および実施の形態2に係るナビゲーションシステムのそれと異なるのみである。従って、以下では、異なる部分を主体に説明する。   Next, the operation of the navigation system according to Embodiment 3 of the present invention will be described. The operation of the navigation system according to the third embodiment is different from that of the navigation system according to the first and second embodiments only in the content of the correspondence information changing process executed by the corresponding information changing means 9. Therefore, in the following, different parts will be mainly described.

図9は、実施の形態3に係るナビゲーションシステムの対応情報変更手段9において実行される対応情報変更処理の詳細を示すフローチャートである。   FIG. 9 is a flowchart showing details of the correspondence information changing process executed by the correspondence information changing means 9 of the navigation system according to the third embodiment.

この対応情報変更処理では、まず、音声情報を生成すべき旨の要求があるかどうかが調べられる(ステップST11)。このステップST11で、音声情報を生成すべき旨の要求がないことが判断されると、次いで、初期化要求があるかどうかが調べられる(ステップST17)。このステップST17で、初期化要求がないことが判断されると、次いで、編集要求があるかどうかが調べられる(ステップST31)。即ち、メイン処理部1は、入力手段5から編集を行う旨の指示が入力されたかどうかを調べる。このステップST31で、編集要求がないことが判断されると、シーケンスはステップST11に戻り、以下、ステップST11、ST17およびST31の繰り返し実行による待機状態に入る。   In this correspondence information changing process, it is first checked whether or not there is a request to generate voice information (step ST11). If it is determined in step ST11 that there is no request to generate audio information, it is then checked whether there is an initialization request (step ST17). If it is determined in step ST17 that there is no initialization request, it is then checked whether there is an editing request (step ST31). That is, the main processing unit 1 checks whether an instruction to edit is input from the input unit 5. If it is determined in step ST31 that there is no editing request, the sequence returns to step ST11, and then enters a standby state by repeatedly executing steps ST11, ST17, and ST31.

このステップST11、ST17およびST31の繰り返し実行による待機状態で、ステップST11において、音声情報を生成すべき旨の要求が有ることが判断されると、上述した実施の形態1に係るナビゲーションシステムと同様に、録音音声データの音声データベース6への格納および対応付けテーブル8の更新が行われる(ステップST12〜ST16)。上記ステップST11,ST17およびST31の繰り返し実行による待機状態で、ステップST17において、初期化すべき旨の要求が有ることが判断されると、上述した実施の形態2に係るナビゲーションシステムと同様に、初期化処理が行われる(ステップST18〜ST20)。   If it is determined in step ST11 that there is a request to generate voice information in a standby state by repeatedly executing steps ST11, ST17, and ST31, as in the navigation system according to the first embodiment described above. The recorded voice data is stored in the voice database 6 and the association table 8 is updated (steps ST12 to ST16). If it is determined in step ST17 that there is a request for initialization in the standby state by repeatedly executing steps ST11, ST17, and ST31, initialization is performed in the same manner as in the navigation system according to the second embodiment described above. Processing is performed (steps ST18 to ST20).

上記ステップST11,ST17およびST31の繰り返し実行による待機状態で、ステップST31において、編集要求が有ることが判断されると、編集処理が行われる(ステップST32)。この編集処理は、この発明の編集手段に対応する。編集処理では、音声データベース6に格納されている録音音声データの編集が行われる。この編集では、音声レベルの均一化、雑音除去、音声合成などを行うことができる。   If it is determined in step ST31 that there is an editing request in a standby state by repeatedly executing steps ST11, ST17, and ST31, an editing process is performed (step ST32). This editing process corresponds to the editing means of the present invention. In the editing process, the recorded voice data stored in the voice database 6 is edited. In this editing, voice level equalization, noise removal, voice synthesis, and the like can be performed.

以上説明したように、この発明の実施の形態3に係るナビゲーションシステムによれば、通常に録音した録音音声データより高品質な音声データを誘導音声データとして使用することが可能になる。例えば、音声レベルの均一化を行うことにより、録音音声データを収録した際に音声の出カレベルに多少の差があっても、違和感の無い誘導音声を発生させることができる。また、雑音除去を行うことにより、録音音声データを収録した際に多少の雑音があっても、違和感の無い誘導音声を発生させることができる。さらに、音声合成を行うことにより、発話者が照れくさくて収録すべき内容を発話できないといった場合でも、違和感の無い誘導音声を発生させることができる。   As described above, according to the navigation system of the third embodiment of the present invention, it is possible to use higher-quality voice data as the guidance voice data than the normally recorded voice data. For example, by making the sound level uniform, even when there is a slight difference in the sound output level when recording sound data is recorded, it is possible to generate a guided sound without a sense of incongruity. Also, by removing noise, it is possible to generate a guidance voice that does not feel uncomfortable even if there is some noise when recording voice data is recorded. Furthermore, by performing speech synthesis, it is possible to generate a guidance voice without a sense of incongruity even when the speaker is shy and cannot utter the content to be recorded.

この発明の実施の形態1に係るナビゲーションシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the navigation system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るナビゲーションシステムの初期状態における対応付けテーブルおよび音声データベースを説明するための図である。It is a figure for demonstrating the matching table and audio | voice database in the initial state of the navigation system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るナビゲーションシステムの音声入力が行われた後の対応付けテーブルおよび音声データベースを説明するための図である。It is a figure for demonstrating the matching table and audio | voice database after the audio | voice input of the navigation system which concerns on Embodiment 1 of this invention is performed. この発明の実施の形態1に係るナビゲーションシステムの対応情報変更手段において実行される対応情報変更処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the corresponding | compatible information change process performed in the corresponding | compatible information change means of the navigation system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るナビゲーションシステムにおいて対応情報変更に使用される画面例を示す図である。It is a figure which shows the example of a screen used for correspondence information change in the navigation system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るナビゲーションシステムにおいて実行される経路案内処理を示すフローチャートである。It is a flowchart which shows the route guidance process performed in the navigation system which concerns on Embodiment 1 of this invention. この発明の実施の形態2に係るナビゲーションシステムの対応情報変更手段において実行される対応情報変更処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the corresponding information change process performed in the corresponding information change means of the navigation system which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係るナビゲーションシステムにおいて初期化処理に使用される画面例を示す図である。It is a figure which shows the example of a screen used for the initialization process in the navigation system which concerns on Embodiment 2 of this invention. この発明の実施の形態3に係るナビゲーションシステムの対応情報変更手段において実行される対応情報変更処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the corresponding information change process performed in the corresponding information change means of the navigation system which concerns on Embodiment 3 of this invention.

符号の説明Explanation of symbols

1 メイン処理部、2 音声入力手段、3 記憶手段、4 自車位置検出手段、5 入力手段、6 音声データベース、7 誘導音声取得手段、8 対応付けテーブル、9 対応情報変更手段、10 音声出力手段、11 表示手段、12 通信手段。   DESCRIPTION OF SYMBOLS 1 Main processing part, 2 Voice input means, 3 Storage means, 4 Vehicle position detection means, 5 Input means, 6 Voice database, 7 Guidance voice acquisition means, 8 Correlation table, 9 Correspondence information change means, 10 Voice output means 11 Display means, 12 Communication means.

Claims (5)

録音音声データを入力する音声入力手段と、
予め作成された初期誘導音声データと前記音声入力手段から入力された録音音声データとを記憶する音声データベースと、
前記音声入力手段から入力された録音音声データを、前記音声データベースに記憶されている初期誘導音声データに対応付けて該音声データベースに格納する対応情報変更手段と、
現在位置から目的地までの経路を探索する経路探索手段と、
前記経路探索手段で探索された経路に沿って走行中に音声案内が必要であることが判断された場合に、前記音声データベースから、初期誘導音声データに対応付けられた録音音声データが存在する場合は該録音音声データを、存在しない場合は初期誘導音声データを取得する誘導音声取得手段と、
前記誘導音声取得手段で取得された初期誘導音声データまたは録音音声データに基づき案内音声を出力する音声出力手段
とを備えたナビゲーションシステム。
Voice input means for inputting recorded voice data;
A voice database for storing the initial guidance voice data created in advance and the recorded voice data inputted from the voice input means;
Corresponding information changing means for storing the recorded voice data input from the voice input means in association with the initial guidance voice data stored in the voice database;
Route search means for searching for a route from the current position to the destination;
When it is determined that voice guidance is required during traveling along the route searched by the route search means, there is recorded voice data associated with the initial guidance voice data from the voice database. Is a voice recording means for acquiring the recorded voice data, initial voice data if it does not exist,
A navigation system comprising: voice output means for outputting guidance voice based on the initial guidance voice data or the recorded voice data acquired by the guidance voice acquisition means.
音声入力手段は、音声を入力するためのマイクロフォンから成り、
前記対応情報変更手段は、音声データベースに格納されている初期誘導音声データを提示して前記マイクロフォンによる音声入力の案内を行うことを特徴とする請求項1記載のナビゲーションシステム。
The voice input means includes a microphone for inputting voice,
2. The navigation system according to claim 1, wherein the correspondence information changing unit presents initial guidance voice data stored in a voice database to guide voice input by the microphone.
音声入力手段は、予め録音音声データが記録された記録媒体から成り、
前記対応情報変更手段は、前記記録媒体から入力された録音音声データを音声データベースに格納する際に、該録音音声データを初期誘導音声データに対応付ける
ことを特徴とする請求項1記載のナビゲーションシステム。
The voice input means comprises a recording medium on which recorded voice data is recorded in advance.
The navigation system according to claim 1, wherein the correspondence information changing unit associates the recorded voice data with the initial guidance voice data when the recorded voice data input from the recording medium is stored in a voice database.
対応情報変更手段によって対応付けられた音声データベースの中の初期誘導音声データと録音音声データとの対応付けを初期化する初期化手段を備えたことを特徴とする請求項1記載のナビゲーションシステム。   2. The navigation system according to claim 1, further comprising initialization means for initializing the correspondence between the initial guidance voice data and the recorded voice data in the voice database associated by the correspondence information changing means. 音声データベースに格納されている録音音声データを編集する編集手段を備えたことを特徴とする請求項1記載のナビゲーションシステム。   The navigation system according to claim 1, further comprising editing means for editing the recorded voice data stored in the voice database.
JP2004188231A 2004-06-25 2004-06-25 Navigation system Pending JP2006010509A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004188231A JP2006010509A (en) 2004-06-25 2004-06-25 Navigation system
CN 200510082399 CN1713242A (en) 2004-06-25 2005-06-24 Navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004188231A JP2006010509A (en) 2004-06-25 2004-06-25 Navigation system

Publications (1)

Publication Number Publication Date
JP2006010509A true JP2006010509A (en) 2006-01-12

Family

ID=35718835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004188231A Pending JP2006010509A (en) 2004-06-25 2004-06-25 Navigation system

Country Status (2)

Country Link
JP (1) JP2006010509A (en)
CN (1) CN1713242A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284677A (en) * 2005-03-31 2006-10-19 Clarion Co Ltd Voice guiding device, and control method and control program for voice guiding device
JP2008014756A (en) * 2006-07-05 2008-01-24 Xanavi Informatics Corp Navigation device and voice output method thereof
JP2008170210A (en) * 2007-01-10 2008-07-24 Pioneer Electronic Corp Navigation device, its method, its program, and recording medium
CN1956056B (en) * 2006-10-16 2010-05-12 同济大学 Speech synthesis device, speech synthesis method and GPS speech guide system
CN102542631A (en) * 2010-12-31 2012-07-04 上海博泰悦臻电子设备制造有限公司 Method and system for recording event in voice
KR101621328B1 (en) 2014-12-09 2016-05-16 주식회사 에이스테크놀로지 Device for saving driving information and voice information service method using the same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855768A (en) * 2011-06-29 2013-01-02 比亚迪股份有限公司 Vehicle-mounted voice information issuing method, vehicle-mounted voice information reading method, vehicle-mounted terminal and server
JP2017103598A (en) 2015-12-01 2017-06-08 ソニー株式会社 Information processing apparatus, information processing method, and program
CN109916418A (en) * 2017-12-12 2019-06-21 上海博泰悦臻网络技术服务有限公司 Adjust the method and apparatus of navigation routine

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006284677A (en) * 2005-03-31 2006-10-19 Clarion Co Ltd Voice guiding device, and control method and control program for voice guiding device
JP4705398B2 (en) * 2005-03-31 2011-06-22 クラリオン株式会社 Voice guidance device, control method and program for voice guidance device
JP2008014756A (en) * 2006-07-05 2008-01-24 Xanavi Informatics Corp Navigation device and voice output method thereof
CN1956056B (en) * 2006-10-16 2010-05-12 同济大学 Speech synthesis device, speech synthesis method and GPS speech guide system
JP2008170210A (en) * 2007-01-10 2008-07-24 Pioneer Electronic Corp Navigation device, its method, its program, and recording medium
CN102542631A (en) * 2010-12-31 2012-07-04 上海博泰悦臻电子设备制造有限公司 Method and system for recording event in voice
KR101621328B1 (en) 2014-12-09 2016-05-16 주식회사 에이스테크놀로지 Device for saving driving information and voice information service method using the same

Also Published As

Publication number Publication date
CN1713242A (en) 2005-12-28

Similar Documents

Publication Publication Date Title
JP4292646B2 (en) User interface device, navigation system, information processing device, and recording medium
US5592389A (en) Navigation system utilizing audio CD player for data storage
RU2425329C2 (en) Navigation device and method of receiving and reproducing audio images
US6937982B2 (en) Speech recognition apparatus and method using two opposite words
JPWO2008072412A1 (en) Navigation device
JP2006047237A (en) On-vehicle equipment, and voice output method therefor
JPH09114489A (en) Device and method for speech recognition, device and method for navigation, and automobile
US20070156331A1 (en) Navigation device
WO2016174955A1 (en) Information processing device and information processing method
JP4084550B2 (en) Navigation device
JP2006010509A (en) Navigation system
JP3693326B2 (en) Map display system, voice guidance support device, map display device
JP3815270B2 (en) Navigation device and control program
JP2007205894A (en) Onboard navigation device and displaying method for retrieved facility
JP2001117584A (en) Voice processor
JP4942406B2 (en) Navigation device and voice output method thereof
JP2001027540A (en) Navigation method to use function of voice recognition
JP2002039779A (en) Navigation system
JP2007078408A (en) In-car navigation apparatus
JP4093394B2 (en) Voice recognition device
JPH0696389A (en) Speech path guide device for automobile
JP2002116041A (en) Navigation device and voice guide document creating method
JP3982440B2 (en) Navigation device
JP4760200B2 (en) Driving support device
JP2008152417A (en) Information acquisition device and information acquisition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061018

RD04 Notification of resignation of power of attorney

Effective date: 20071015

Free format text: JAPANESE INTERMEDIATE CODE: A7424

RD04 Notification of resignation of power of attorney

Effective date: 20080718

Free format text: JAPANESE INTERMEDIATE CODE: A7424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Written amendment

Effective date: 20091023

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Effective date: 20091117

Free format text: JAPANESE INTERMEDIATE CODE: A02