JP2007333603A - ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体 - Google Patents
ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体 Download PDFInfo
- Publication number
- JP2007333603A JP2007333603A JP2006166855A JP2006166855A JP2007333603A JP 2007333603 A JP2007333603 A JP 2007333603A JP 2006166855 A JP2006166855 A JP 2006166855A JP 2006166855 A JP2006166855 A JP 2006166855A JP 2007333603 A JP2007333603 A JP 2007333603A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- voice data
- guide
- data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 46
- 238000007405 data analysis Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 10
- 102100031798 Protein eva-1 homolog A Human genes 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Navigation (AREA)
- Telephone Function (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】例えばカーナビゲーション装置に適用して、ガイド音声、通話相手の音声が聞き取り難くならないようにする。
【解決手段】通話対象の音声に対して、音の高さの相違が大きくなるようにガイド用の音声データによる音声の高さを可変する、また音声データを女性の音声と男性の音声とで切り換えることにより、音声の高さを可変にする、あるいはガイド用の音声データをピッチシフトさせることにより、音声の高さを可変にする。
【選択図】図1
【解決手段】通話対象の音声に対して、音の高さの相違が大きくなるようにガイド用の音声データによる音声の高さを可変する、また音声データを女性の音声と男性の音声とで切り換えることにより、音声の高さを可変にする、あるいはガイド用の音声データをピッチシフトさせることにより、音声の高さを可変にする。
【選択図】図1
Description
本発明は、ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体に関し、例えばカーナビゲーション装置に適用することができる。本発明は、通話対象の音声に対して、音の高さの相違が大きくなるようにガイド用の音声データによる音声の高さを可変することにより、ガイド音声、通話相手の音声が聞き取り難くならないようにする。
従来、カーナビゲーション装置は、GPS(Global Positioning System )で取得した現在位置情報に基づいて、液晶表示パネル等の表示部で地図を表示してユーザーを目的地に道案内するように構成されており、また右折、左折等の案内を音声により提供するものが提供されている。また近年、カーナビゲーション装置は、マイクで取得したユーザーの音声を解析して目的地等の入力を受け付けるものが提供されている。
このような音声入力可能なカーナビゲーション装置では、目的地等の音声入力手段、ガイド音声用の音声出力手段を携帯電話の通話用に利用して、これら音声入力手段、音声出力手段で携帯電話のハンズフリーシステムを構成するものが提供されている。
このような目的地等の音声入力手段、ガイド音声用の音声出力手段を用いて携帯電話のハンズフリーシステムを構成するカーナビゲーション装置では、従来、通話中にはガイド音声を出力しないように構成されている。これに対して特開平10−145486号公報には、ハンズフリーシステムを構成する車載装置に関して、通話中には、この車載装置本来の音声出力を停止する構成が開示されている。
ところでこの種のハンズフリーシステムを構成するカーナビゲーション装置において、通話中に、ガイド音声を出力しないようにすると、高速道路を降りるタイミング、右折、左折等の進路変更のタイミングをユーザーに通知できなくなる。このためユーザーを適切に道案内できなくなる問題がある。
この問題を解決する1つの方法として、通話中でもガイド音声を出力する方法が考えられるが、この場合、ガイド音声によって通話相手の音声が聞き取り難くなったり、これとは逆に通話によりガイド音声が聞き取り難くなったりする問題がある。
特開平10−145486号公報
本発明は以上の点を考慮してなされたもので、ガイド音声、通話相手の音声が聞き取り難くならないようにすることができるナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体を提案しようとするものである。
上記の課題を解決するため請求項1の発明は、マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置に適用して、ガイド用の音声データを生成する音声データ生成手段と、前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力手段と、前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析手段と、前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析手段の解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変手段とを備えるようにする。
また請求項5の発明は、マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置の制御方法に適用して、ガイド用の音声データを生成する音声データ生成のステップと、前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力のステップと、前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析のステップと、前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析のステップの解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変のステップとを有するようにする。
また請求項6の発明は、マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置の制御方法のプログラムに適用して、ガイド用の音声データを生成する音声データ生成のステップと、前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力のステップと、前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析のステップと、前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析のステップの解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変のステップとを有するようにする。
また請求項7の発明は、マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置の制御方法のプログラムを記録した記録媒体に適用して、前記ナビゲーション装置の制御方法は、ガイド用の音声データを生成する音声データ生成のステップと、前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力のステップと、前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析のステップと、前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析のステップの解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変のステップとを有するようにする。
請求項1、請求項5、請求項6又は請求項7の構成によれば、例えば通話対象の音声が高い場合には、低い音声でガイド用の音声が提供され、またこれとは逆に通話対象の音声が低い場合には、高い音声でガイド用の音声が提供される。従って同じような高さで通話対象との音声とガイド用の音声とが提供されるようなことが無くなり、ガイド音声、通話相手の音声が聞き取り難くならないようにすることができる。
本発明によれば、ガイド音声、通話相手の音声が聞き取り難くならないようにすることができる。
以下、適宜図面を参照しながら本発明の実施例を詳述する。
(1)実施例の構成
図2は、本発明の実施例のカーナビゲーション装置を示すブロック図である。このカーナビゲーション装置1は、目的地等を音声入力可能に構成され、またガイド音声によりユーザーを道案内する。すなわちこのカーナビゲーション装置1において、GPS(Global Positioning System )部2は、中央処理ユニット(CPU)3により現在位置の位置情報を取得して中央処理ユニット3に通知する。
図2は、本発明の実施例のカーナビゲーション装置を示すブロック図である。このカーナビゲーション装置1は、目的地等を音声入力可能に構成され、またガイド音声によりユーザーを道案内する。すなわちこのカーナビゲーション装置1において、GPS(Global Positioning System )部2は、中央処理ユニット(CPU)3により現在位置の位置情報を取得して中央処理ユニット3に通知する。
表示部、操作部4は、例えば液晶表示パネル、この液晶表示パネルに設けられたタッチパネル、操作パネルに設けられた操作子により形成され、地図、各種グラフィカルユーザーインターフェースを表示し、またユーザーの各種操作を中央処理ユニット3に通知する。
音声回路6は、中央処理ユニット3の制御で動作を切り換え、中央処理ユニット3から出力されるガイド用の音声データをディジタルアナログ変換処理してスピーカ7を駆動し、ガイド用の音声をスピーカ7から出力する。また携帯電話接続部8から出力される通話相手の音声データをディジタルアナログ変換処理してスピーカ7を駆動し、通話相手の音声をスピーカ7から出力する。またマイク8で取得した音声信号をアナログディジタル変換処理して音声データに変換し、音声入力用の音声データ又は通話用の音声データを取得する。音声回路6は、通話中は、この音声データを携帯電話接続部8に出力するのに対し、通話中以外は、この音声データを音声入力として中央処理ユニット3に出力する。
携帯電話接続部8は、有線又は無線で、携帯電話9との間で種々のデータを送受するインターフェースであり、携帯電話9から得られる着信等の通知を中央処理ユニット3に通知する。また中央処理ユニット3から出力される回線接続等の各種制御データを携帯電話9に通知する。また回線を接続した後は、携帯電話9から出力される通話相手の音声データを音声回路6に出力し、また音声回路6から出力される通話用の音声データを携帯電話9に出力する。
これらGPS部2、音声回路6等の構成により、このカーナビゲーション装置1では、図3(A)に示すように、GPS部2で取得した現在位置の位置情報に基づいて、表示部4で目的地までのルート等を表示する。またこの現在位置の位置情報に基づいて、進路変更が必要になると、右折、左折等を指示するガイド用の音声データを中央処理ユニット3から出力し、この音声データによる音声をスピーカ7から出力する。また各種ユーザーの音声、操作子による指示を中央処理ユニット3に通知する。
これに対して携帯電話9のハンドセットとして機能する場合には、図3(B)に示すように、携帯電話9を中央処理ユニット3で制御し、スピーカ7、マイク8を用いて通話対象との間で音声データを入出力する。
電源部11は、このカーナビゲーション装置1の各部に動作用の電源を供給する。中央処理ユニット3は、このカーナビゲーション装置1の動作を制御する制御手段である。中央処理ユニット3は、ランダムアクセスメモリ(RAM)14にワークエリアを確保して、リードオンリメモリ(ROM)13に記録されたプログラムを実行する。なおこのプログラムは、このカーナビゲーション装置1に事前にインストールされて提供されるものの、これに代えて光ディスク、磁気ディスク、メモリカード等の記録媒体に記録して提供するようにしてもよく、またインターネット等のネットワークを介したダウンロードにより提供するようにしてもよい。
中央処理ユニット3は、このプログラムの実行により、ユーザーの操作に応動して表示部4の表示を切り換えて地図等を表示する。またユーザーの指示により道案内の処理を開始し、各種ガイド用の音声データを出力する。また携帯電話9の着信をユーザーに通知し、ユーザーの指示により携帯電話9を制御して回線を接続する。またマイク8で取得した音声データを携帯電話9に出力し、携帯電話9から得られる通話相手の音声データでスピーカ7を駆動する。
これにより中央処理ユニット3は、音声回路6の動作を制御して通話対象の音声、ガイド用の音声をユーザーに提供する。このとき中央処理ユニット3は、通話対象の音声と、ガイド用の音声とを同時にユーザーに提供する場合、通話対象の音声の高さに対してガイド用の音声の高さが大きく相違するように、ガイド用の音声の高さを可変する。このため中央処理ユニット3は、図1の処理手順の実行により着信の処理を実行し、通話対象の音声の高さを検出してガイド用の音声の高さを設定する。
すなわち中央処理ユニット3は、携帯電話9からの着信の通知によりこの処理手順を開始してステップSP1からステップSP2に移る。ここで中央処理ユニット3は、携帯電話9から着信の通知を受け付け、またこの着信をユーザーに通知する。また中央処理ユニット3は、ユーザーの通話開始の操作に応動して続くステップSP3に移り、ここで音声データを携帯電話9との間で入出力するように音声回路6の動作を設定する。また続くステップSP4で携帯電話9に回線の接続を指示し、通話を開始する。
続いて中央処理ユニット3は、ステップSP5に移り、一定時間分、通話対象の音声データを取得して解析し、この音声データの基本波の周波数を検出する。なおこの音声データの解析は、例えばFFT(高速フーリエ変換)等の手法を適用することができる。続いて中央処理ユニット3は、ステップSP6に移り、ステップSP5で検出した基本波の周波数の高低を判定する。ここでこの実施例では、男性の音声における基本波の周波数の一般値である周波数120〔Hz〕と、女性の音声における基本波の周波数の一般値である周波数240〔Hz〕とを基準にして、ステップSP5で検出した基本波の周波数が、これら2つの周波数120〔Hz〕、240〔Hz〕の何れに近いかを判定して基本波の周波数の高低を判定する。
ここでステップSP5で検出した基本波の周波数が周波数120〔Hz〕に近い場合、中央処理ユニット3は、ステップSP6からステップSP7に移り、通話対象を男性と判断する。またガイド用の音声を女性の音声にセットした後、ステップSP8に移る。これに対してステップSP5で検出した基本波の周波数が周波数240〔Hz〕に近い場合、中央処理ユニット3は、ステップSP6からステップSP9に移り、通話対象を女性と判断する。またガイド用の音声を男性の音声にセットした後、ステップSP8に移る。
ステップSP8において、中央処理ユニット3は、携帯電話9からの通知、ユーザーの操作により、通話を終了したか否か判断し、ここで通話中の場合、ステップSP8からステップSP5に戻る。これに対して通話を終了した場合、中央処理ユニット3は、ステップSP8からステップSP10に移り、携帯電話9の動作を制御して通話終了の一連の処理を実行し、ステップSP11に移ってこの処理手順を終了する。
中央処理ユニット3は、何ら通話していない状態で、ガイド音声を出力する場合、ディフォルトの設定に従ってガイド音声をユーザーに提供する。すなわちこの実施例では、目的地、進路変更する地点に接近すると、ガイド音声を出力してユーザーを案内するように設定されており、中央処理ユニット3は、GPS部2から検出される現在位置情報、車両の走行速度等を基準にして、ガイド音声を発生するタイミングか否か判断する。
またガイド音声を発生するタイミングとなると、音声データを格納したメモリをアクセスしてガイド用の音声データを取得し、この音声データを音声回路6に出力する。このとき、中央処理ユニット3は、通話中で無い場合には、例えば女性の音声データを格納した領域から対応する音声データを取得し、女性の音声によりガイド用の音声をユーザーに提供する。
これに対して通話中を開始すると、中央処理ユニット3は、図4の処理手順を一定の時間間隔で実行し、通話対象の音声に応じて、音声を切り換えてガイド音声を出力する。すなわち中央処理ユニット3は、この処理手順を開始すると、ステップSP21からステップSP22に移り、ガイド音声を発生するタイミングか否か判断する。
ここで否定結果が得られると、中央処理ユニット3は、ステップSP22からステップSP23に移ってこの処理手順を終了する。これに対してステップSP22で肯定結果が得られると、中央処理ユニット3は、ステップSP22からステップSP24に移る。ここで中央処理ユニット3は、ユーザーに提供するガイド用音声を決定する。具体的に、例えば交差点での進路変更をユーザーに通知する場合、「この先、300mを右折です」とのガイド用音声をユーザーに提供する旨、決定する。中央処理ユニット3は、このガイド音声の決定を、例えばユーザーに提供するガイド音声を記録したメモリ空間の下位側、所定ビットのアドレス(abcd)で決定する。
続いて中央処理ユニット3は、ステップSP25に移り、図1の処理手順で設定された音声ガイドが女性の音声か否か判断する。ここで肯定結果が得られると、中央処理ユニット3は、ステップSP25からステップSP26に移り、ステップSP24で決定したアドレスに対して所定値v1を加算し、これにより男性の音声が記録されたメモリ空間の対応する音声データのアドレスを計算する。
続いて中央処理ユニット3は、ステップSP27に移り、音声データを格納したメモリをこの計算したアドレスでアクセスして音声データをロードし、このロードした音声データを音声回路6に出力する。これにより中央処理ユニット3は、男性の音声でガイド用の音声をユーザーに提供し、ステップSP23に移ってこの処理手順を終了する。
これに対してステップSP25で否定結果が得られると、中央処理ユニット3は、ステップSP25からステップSP28に移る。ここで中央処理ユニット3は、ステップSP24で決定したアドレスに対して所定値v2を加算し、これにより女性の音声が記録されたメモリ空間の対応する音声データのアドレスを計算する。
続いて中央処理ユニット3は、ステップSP27に移り、音声データを格納したメモリをこの計算したアドレスでアクセスして音声データをロードし、このロードした音声データを音声回路6に出力する。これにより中央処理ユニット3は、この場合、女性の音声でガイド用の音声をユーザーに提供し、ステップSP23に移ってこの処理手順を終了する。
この図1及び図4の処理手順の実行により、中央処理ユニット3は、通話中にガイド音声を出力する場合、通話対象の音声の高さに対してガイド用の音声の高さが大きく相違するように、ガイド用の音声の高さを設定してガイド音声をユーザーに提供する。
これに対して通話中で無い場合、中央処理ユニット3は、図5及び図6の処理手順を一定の時間間隔で実行し、ディフォルトの設定に従ってガイド音声をユーザーに提供する。またこの図5の処理手順の実行により、ガイド音声をユーザーに提供している状態で、通話を開始した場合、通話対象の音声に応じて、途中で音声を切り換えてガイド音声を出力する。
すなわち中央処理ユニット3は、この処理手順を開始すると、ステップSP41からステップSP42に移り、ガイド音声をディフォルトの設定に戻す。続いて中央処理ユニット3は、ステップSP43に移り、ガイド音声を発生するタイミングか否か判断する。ここで否定結果が得られると、中央処理ユニット3は、ステップSP43からステップSP44に移り、この処理手順を終了する。
これに対してステップSP43で肯定結果が得られると、中央処理ユニット3は、ステップSP43からステップSP45に移る。ここで中央処理ユニット3は、ステップSP24と同様にしてユーザーに提供するガイド用音声を決定する。また続くステップSP46において、ガイド音声の長さを決定する。なおここでこの長さは、途中でガイド音声が男性の音声から女性の音声に切り換わった場合でも、またこれとは逆に途中でガイド音声が女性の音声から男性の音声に切り換わった場合でも、ユーザーが不自然さを感じない長さに設定される。従って例えば1つの操作をユーザーに指示する1つの文節を単位に設定される。具体的に、例えば「300m先を右折です。渋滞に注意して下さい。」との2つの文節によるガイド音声をユーザーに提供する場合、先頭側の文節「300m先を右折です。」がこの長さに設定される。
続いて中央処理ユニット3は、ステップSP47に移り、ステップSP46で設定した長さの分だけ、直前に設定した音声データの設定に応じて、男性又は女性の音声が記録されたメモリ空間の対応する音声データを取得する。また続くステップSP48で、この取得した音声データを音声回路6に出力し、ガイド音声をユーザーに提供する。
続いて中央処理ユニット3は、ステップSP49に移り、メモリから音声データをリードするアドレスを歩進し、続くステップSP50でこのアドレスの値を判定することにより、ガイド音声が終了したか否か判断する。ここで肯定結果が得られると、中央処理ユニット3は、ステップSP50からステップSP44に移り、この処理手順を終了する。
これに対してステップSP50で否定結果が得られると、中央処理ユニット3は、ステップSP50からステップSP51に移り、ハンズフリーにより通話中か否か判断する。ここで中央処理ユニット3は、この図5の処理手順を実行している途中で、着信があった場合、図1について説明したと同様にしてユーザーの操作に応動して回線を接続して通話対象との間で音声データの送受を開始する。これによりこの処理手順を開始して通話対象との間で音声データの送受を開始している場合、このステップSP51で肯定結果が得られるのに対し、何ら通話を開始していない場合、さらには開始した通話を終了した場合、このステップSP51で否定結果を得ることができる。
中央処理ユニット3は、このステップSP51で否定結果が得られると、ステップSP51からステップSP47に移り、次の文節のガイド音声をユーザーに提供する。
これに対してステップSP51で肯定結果が得られると、中央処理ユニット3は、ステップSP51からステップSP52に移り、ステップSP50と同様に、一定時間分、通話対象の音声データを取得して解析し、この音声データの基本波の周波数を検出する。また続くステップSP53において、検出した基本波の周波数が、周波数120〔Hz〕、240〔Hz〕の何れに近いかを判定して基本波の周波数の高低を判定する。
また基本波の周波数が周波数120〔Hz〕に近い場合、中央処理ユニット3は、ステップSP53からステップSP54に移り、通話対象を男性と判断し、ガイド用の音声を女性の音声にセットした後、ステップSP47に戻る。これに対して検出した基本波の周波数が周波数240〔Hz〕に近い場合、中央処理ユニット3は、ステップSP53からステップSP55に移り、通話対象を女性と判断し、ガイド用の音声を男性の音声にセットした後、ステップSP47に戻る。
(2)実施例の動作
以上の構成において、このカーナビゲーション装置1では、ユーザーが目的地を設定して道案内を指示すると、この目的地までのルートが検索される。またGPS部2で現在位置の位置情報が検出され、この現在位置の位置情報に基づいて、ユーザーを目的地まで道案内する。このとき目的地、進路変更等の箇所に近づくと、中央処理ユニット3でガイド用の音声データが生成され、このガイド用の音声データでスピーカ7が駆動され、これにより音声によるガイドでユーザーを道案内する。
以上の構成において、このカーナビゲーション装置1では、ユーザーが目的地を設定して道案内を指示すると、この目的地までのルートが検索される。またGPS部2で現在位置の位置情報が検出され、この現在位置の位置情報に基づいて、ユーザーを目的地まで道案内する。このとき目的地、進路変更等の箇所に近づくと、中央処理ユニット3でガイド用の音声データが生成され、このガイド用の音声データでスピーカ7が駆動され、これにより音声によるガイドでユーザーを道案内する。
またカーナビゲーション装置1では、携帯電話9を接続した場合には、ユーザーの操作に応じて中央処理ユニット3で携帯電話9を制御し、目的地等の音声入力手段であるマイク8で取得した音声データが携帯電話9を介して通話対象に送出され、また通話対象の音声データが携帯電話9より取得されてスピーカ7から出力される。これによりカーナビゲーション装置1では、音声入力手段、音声出力手段を用いて携帯電話9のハンズフリーシステムが構成される。
しかしながらこのようにガイド音声でユーザーを道案内するようにして、携帯電話9のハンズフリーシステムを構成する場合、通話対象の音声とガイド音声とが同時にスピーカ7から出力される場合も予測され、この場合、通話対象の音声を聞き取り難くなったり、これとは逆にガイド音声を聞き取り難くなったりする恐れがある。
このためこのカーナビゲーション装置1では、通話を開始すると、一定周期で通話対象の音声データを解析し、通話対象の音声の高低が判定される。またこの判定結果に基づいて、通話対象の音声とガイド用の音声とを同時にユーザーに提供する場合、通話対象の音声の高さに対してガイド用の音声の高さが大きく相違するように、ガイド用の音声の高さが可変される。
これによりカーナビゲーション装置1では、同じような高さで通話対象との音声とガイド用の音声とが提供されるようなことが無くなり、ガイド音声、通話相手の音声が聞き取り難くならないようにすることができる。すなわちユーザーは、通話対象の音声とガイド用の音声等を同時に提供する場合でも、これら2つの音声の音の高さの相違により、これら2つの音声を明瞭に聞き分けることができる。
より具体的に、このカーナビゲーション装置1では、通話対象の音声の高低を2段階で判定し、通話対象の音声を男性の音声と女性の音声とで判定し、通話対象の音声が男性の音声の場合、女性の音声でガイド用の音声を提供する。またこれとは逆に、通話対象の音声が女性の音声の場合、男性の音声でガイド用の音声を提供する。これによりこのように通話対象の音声の高さに対してガイド用の音声の高さが大きく相違するようにガイド用の音声の高さを可変する場合に、ユーザーに違和感を与えることなく、ガイド用の音声の高さを可変することができる。
すなわちカーナビゲーション装置1では、通話を開始すると、一定周期で通話対象の音声を解析し、この解析結果に基づいてガイド音声が男性又は女性の音声に設定される(図1)。また通話中にガイド音声を出力する場合には、この通話中の設定による男性又は女性の音声でガイド音声が出力される(図4)。
これに対して何ら通話していない状態でガイド音声を出力する場合には、ディフォルトの設定により男性又は女性の音声で、文節で区切ってガイド音声を提供する。また途中で通話を開始した場合には、一定周期で通話対象の音声を解析し、この解析結果に基づいて、文節の区切りで、ガイド音声が男性又は女性の音声に設定される(図5)。
(3)実施例の効果
以上の構成によれば、通話対象の音声に対して、音の高さの相違が大きくなるようにガイド用の音声データによる音声の高さを可変することにより、目的地等の音声入力手段、ガイド音声用の音声出力手段を使用して携帯電話のハンズフリーシステムを構成するナビゲーション装置において、ガイド音声、通話相手の音声が聞き取り難くならないようにすることができる。
以上の構成によれば、通話対象の音声に対して、音の高さの相違が大きくなるようにガイド用の音声データによる音声の高さを可変することにより、目的地等の音声入力手段、ガイド音声用の音声出力手段を使用して携帯電話のハンズフリーシステムを構成するナビゲーション装置において、ガイド音声、通話相手の音声が聞き取り難くならないようにすることができる。
またこの通話対象の音声の高低を2段階で判定し、通話対象の音声を男性の音声と女性の音声とで判定することにより、通話対象の音声が男性の音声の場合、女性の音声でガイド用の音声を提供し、通話対象の音声が女性の音声の場合、男性の音声でガイド用の音声を提供するようにして、ユーザーに違和感を与えること無く、ガイド用の音声の高低を可変することができる。
なお上述の実施例においては、メモリから読み出す音声データを切り換えてガイド用の音声の高低を切り換える場合について述べたが、本発明はこれに限らず、例えば音声データをピッチシフトさせて音声の高低を可変するピッチシフター等、音声の高低を可変する種々の構成を広く適用することができる。
また上述の実施例においては、音声データの高低を2段階で可変する場合について述べたが、本発明はこれに限らず、3段階以上で可変するようにしてもよい。
また上述の実施例においては、進路変更等のガイド音声を提供する場合について述べたが、本発明はこれに限らず、渋滞情報等のガイド音声を提供する場合にも広く適用することができる。
また上述の実施例においては、音声入力手段としてのマイクを通話に兼用する場合について述べたが、本発明はこれに限らず、操作子の操作により目的地等を入力するようにして、通話専用にマイクを設ける場合にも広く適用することができる。
また上述の実施例においては、別体に構成された携帯電話のハンズフリーシステムを構成する場合について述べたが、本発明はこれに限らず、通話機能を内蔵したカーナビゲーション装置にも広く適用することができる。また携帯電話に限らず、種々の無線、有線による通話のハンズフリーシステムに広く適用することができる。
また上述の実施例においては、本発明をカーナビゲーション装置に適用した場合にについて述べたが、本発明はこれに限らず、種々のナビゲーション装置に広く適用することができる。
本発明は、例えばカーナビゲーション装置に適用することができる。
1……カーナビゲーション装置、2……GPS部、3……中央処理ユニット、7……スピーカ、8……マイク、9……携帯電話
Claims (7)
- マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置において、
ガイド用の音声データを生成する音声データ生成手段と、
前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力手段と、
前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析手段と、
前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析手段の解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変手段とを備える
ことを特徴とするナビゲーション装置。 - 前記音声データ可変手段は、
前記ガイド用の音声データを女性の音声と男性の音声とで切り換えることにより、前記ガイド用の音声データによる音声の高さを可変する
ことを特徴とする請求項1に記載のナビゲーション装置。 - 前記音声データ可変手段は、
前記音声データ生成手段で生成する音声データの切り換えにより、前記ガイド用の音声データによる音声の高さを可変する
ことを特徴とする請求項1に記載のナビゲーション装置。 - 前記音声データ可変手段は、
前記ガイド用の音声データをピッチシフトさせることにより、前記ガイド用の音声データによる音声の高さを可変する
ことを特徴とする請求項1に記載のナビゲーション装置。 - マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置の制御方法において、
ガイド用の音声データを生成する音声データ生成のステップと、
前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力のステップと、
前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析のステップと、
前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析のステップの解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変のステップとを有する
ことを特徴とするナビゲーション装置の制御方法。 - マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置の制御方法のプログラムにおいて、
ガイド用の音声データを生成する音声データ生成のステップと、
前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力のステップと、
前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析のステップと、
前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析のステップの解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変のステップとを有する
ことを特徴とするナビゲーション装置の制御方法のプログラム。 - マイクで取得したユーザーの音声データを通話対象に送出すると共に、前記通話対象の音声データを受信して前記ユーザーに提供するナビゲーション装置の制御方法のプログラムを記録した記録媒体において、
前記ナビゲーション装置の制御方法は、
ガイド用の音声データを生成する音声データ生成のステップと、
前記ガイド用の音声データによる音声を前記ユーザーに提供する音声出力のステップと、
前記通話対象の音声データを解析して、前記通話対象の音声の高低を判定する音声データ解析のステップと、
前記通話対象の音声データによる音声と、前記ガイド用の音声データによる音声とを同時に前記ユーザーに提供する場合、前記音声データ解析のステップの解析結果に基づいて、前記通話対象の音声の高さに対する前記ガイド用の音声データによる音声の高さの相違が大きくなるように、前記ガイド用の音声データによる音声の高さを可変する音声データ可変のステップとを有する
ことを特徴とするナビゲーション装置の制御方法のプログラムを記録した記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006166855A JP2007333603A (ja) | 2006-06-16 | 2006-06-16 | ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体 |
US11/746,843 US20070293189A1 (en) | 2006-06-16 | 2007-05-10 | Navigation device, navigation-device-control method, program of navigation-device-control method, and recording medium recording program of navigation-device-control method |
EP07110308A EP1867954A3 (en) | 2006-06-16 | 2007-06-14 | Navigation device and associated control method, program for the control method and associated recording medium. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006166855A JP2007333603A (ja) | 2006-06-16 | 2006-06-16 | ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007333603A true JP2007333603A (ja) | 2007-12-27 |
Family
ID=38508884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006166855A Pending JP2007333603A (ja) | 2006-06-16 | 2006-06-16 | ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20070293189A1 (ja) |
EP (1) | EP1867954A3 (ja) |
JP (1) | JP2007333603A (ja) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008172579A (ja) * | 2007-01-12 | 2008-07-24 | Brother Ind Ltd | 通信装置 |
JP2010008859A (ja) * | 2008-06-30 | 2010-01-14 | Yamaha Corp | コンテンツ再生システム |
WO2011039884A1 (ja) * | 2009-10-01 | 2011-04-07 | 富士通株式会社 | 音声通話装置 |
JP2017016683A (ja) * | 2011-09-30 | 2017-01-19 | アップル インコーポレイテッド | ハンズフリーインタラクションに対するユーザインターフェースの自動適合化 |
JP2017187686A (ja) * | 2016-04-07 | 2017-10-12 | 日本放送協会 | 音声選択装置及びプログラム |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
CN110160551A (zh) * | 2019-05-14 | 2019-08-23 | 深兰科技(上海)有限公司 | 一种导航方法及装置 |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006056190A1 (de) * | 2005-11-30 | 2007-07-12 | Mitac International Corp., Kuei San | Verfahren zum Betreiben einer Navigationsvorrichtung |
US20100057465A1 (en) * | 2008-09-03 | 2010-03-04 | David Michael Kirsch | Variable text-to-speech for automotive application |
US9628415B2 (en) * | 2015-01-07 | 2017-04-18 | International Business Machines Corporation | Destination-configured topic information updates |
JP7139904B2 (ja) * | 2018-11-15 | 2022-09-21 | トヨタ自動車株式会社 | 情報処理装置及び情報処理プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0820265B2 (ja) * | 1987-07-10 | 1996-03-04 | アイシン・エィ・ダブリュ株式会社 | 車両用ナビゲーション装置 |
JP3287281B2 (ja) * | 1997-07-31 | 2002-06-04 | トヨタ自動車株式会社 | メッセージ処理装置 |
JP2003233387A (ja) * | 2002-02-07 | 2003-08-22 | Nissan Motor Co Ltd | 音声報知装置 |
JP4315894B2 (ja) * | 2004-11-30 | 2009-08-19 | シャープ株式会社 | 携帯端末装置 |
-
2006
- 2006-06-16 JP JP2006166855A patent/JP2007333603A/ja active Pending
-
2007
- 2007-05-10 US US11/746,843 patent/US20070293189A1/en not_active Abandoned
- 2007-06-14 EP EP07110308A patent/EP1867954A3/en not_active Withdrawn
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008172579A (ja) * | 2007-01-12 | 2008-07-24 | Brother Ind Ltd | 通信装置 |
JP2010008859A (ja) * | 2008-06-30 | 2010-01-14 | Yamaha Corp | コンテンツ再生システム |
WO2011039884A1 (ja) * | 2009-10-01 | 2011-04-07 | 富士通株式会社 | 音声通話装置 |
US8526578B2 (en) | 2009-10-01 | 2013-09-03 | Fujitsu Limited | Voice communication apparatus |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
JP2017016683A (ja) * | 2011-09-30 | 2017-01-19 | アップル インコーポレイテッド | ハンズフリーインタラクションに対するユーザインターフェースの自動適合化 |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
JP2017187686A (ja) * | 2016-04-07 | 2017-10-12 | 日本放送協会 | 音声選択装置及びプログラム |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10332518B2 (en) | 2017-05-09 | 2019-06-25 | Apple Inc. | User interface for correcting recognition errors |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10789945B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Low-latency intelligent automated assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
CN110160551B (zh) * | 2019-05-14 | 2021-09-24 | 深兰科技(上海)有限公司 | 一种导航方法及装置 |
CN110160551A (zh) * | 2019-05-14 | 2019-08-23 | 深兰科技(上海)有限公司 | 一种导航方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20070293189A1 (en) | 2007-12-20 |
EP1867954A2 (en) | 2007-12-19 |
EP1867954A3 (en) | 2012-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007333603A (ja) | ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御方法のプログラム、ナビゲーション装置の制御方法のプログラムを記録した記録媒体 | |
JP2009536721A (ja) | ナビゲーションデバイス、及びオーディオ機能をナビゲーションデバイスに実装する方法 | |
JP2007525897A (ja) | マルチモーダル埋め込み型インタフェースの交換可能なカスタマイズ用の方法及び装置 | |
WO2005033630A1 (ja) | ナビゲーション装置、ナビゲーション方法およびプログラム | |
KR20080065879A (ko) | 오디오신호의 에프엠 전송 장치 및 방법 | |
JP2014219617A (ja) | 音声案内システム及び音声案内方法 | |
JP4513610B2 (ja) | 車載装置及び車載装置の制御方法 | |
JP2010112762A (ja) | ナビゲーション装置およびナビゲーション装置の音楽再生方法 | |
JP7002823B2 (ja) | 案内音声出力制御システムおよび案内音声出力制御方法 | |
JP2005520459A (ja) | テキスト音声変換システムを備える携帯電話に使用される半導体チップ、携帯電話から聴覚的に通知またはテキストメッセージを表示する方法、及び携帯電話 | |
US20190196780A1 (en) | Sound outputting device, sound outputting method, and sound outputting program storage medium | |
JP3791474B2 (ja) | 音声出力制御システムおよびコンピュータプログラム | |
JP2018087871A (ja) | 音声出力装置 | |
CN112540741A (zh) | 指令动态推荐方法、移动终端和计算机存储介质 | |
KR100749088B1 (ko) | 대화형 네비게이션 시스템 및 그 제어방법 | |
JP2007323512A (ja) | 情報提供システム、携帯端末及びプログラム | |
US20050187709A1 (en) | Route guidance information storing and reproducing apparatus | |
JP4018060B2 (ja) | ナビゲーション装置 | |
JP6559051B2 (ja) | 発声機能を備えたロボット装置、発声制御方法およびプログラム | |
JP3838193B2 (ja) | 文章読み上げ装置、同装置のためのプログラム及び記録媒体 | |
JP2006157474A (ja) | 携帯端末装置 | |
JPH1021049A (ja) | 音声合成装置 | |
JP2005164291A5 (ja) | ||
JP2004120156A (ja) | ハンズフリーシステム、車載ユニット、車載ユニットの着信音出力方法、制御プログラムおよび記録媒体 | |
JP2015052749A (ja) | 音声認識システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080630 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080724 |