[go: up one dir, main page]

JP2010130223A - 音声操作システムおよび音声操作方法 - Google Patents

音声操作システムおよび音声操作方法 Download PDF

Info

Publication number
JP2010130223A
JP2010130223A JP2008301496A JP2008301496A JP2010130223A JP 2010130223 A JP2010130223 A JP 2010130223A JP 2008301496 A JP2008301496 A JP 2008301496A JP 2008301496 A JP2008301496 A JP 2008301496A JP 2010130223 A JP2010130223 A JP 2010130223A
Authority
JP
Japan
Prior art keywords
voice
terminal device
voice recognition
unit
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008301496A
Other languages
English (en)
Other versions
JP2010130223A5 (ja
Inventor
Satoshi Ota
悟司 太田
Noriaki Inoue
典昭 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008301496A priority Critical patent/JP2010130223A/ja
Publication of JP2010130223A publication Critical patent/JP2010130223A/ja
Publication of JP2010130223A5 publication Critical patent/JP2010130223A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Abstract

【課題】運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができること。
【解決手段】音声操作システムおよび音声操作方法は、利用者が発する音声を入力し、入力した音声を音声認識し、音声認識した音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行する。また、車載装置は、音声入力手段、音声認識手段ならびにコマンド実行手段が装置内に存在するか否かを、装置を識別する装置識別子と対応付けた振分情報を記憶し、振分情報に基づいて音声入力手段からの出力を音声認識手段へ、音声認識手段からの出力をコマンド実行手段へ、それぞれ振り分けるように構成する。
【選択図】 図3

Description

この発明は、車載装置を用いて携帯端末装置の音声操作を行う音声操作システムおよび音声操作方法に関し、特に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる音声操作システムおよび音声操作方法に関する。
GPS(Global Positioning System)を利用したカーナビゲーションシステムの普及に伴い、車両には、ナビゲーション機能を有する車載装置が搭載される場合が多くなってきた。同時に、運転中のドライバーが安全に操作できることも必要不可欠となってきている。
たとえば、音声でナビゲーション機能の操作ができるように、入力された音声を認識し、文字データに変換する音声認識エンジンを搭載する車載装置もあるが、車載装置の高価格化を招くため、ユーザにとって好ましいものではない。
一方、携帯電話などの携帯端末装置は、低価格でありながら、音声認識エンジンを搭載するものや、ナビゲーション機能を搭載するものも普及してきている。また、ブルートゥース(登録商標)などの近距離無線通信機能を搭載する携帯端末装置も普及してきている。
これらのことから、かかる近距離無線通信機能で携帯端末装置と車載装置とを連携させ、携帯端末装置側の機能を車載装置側で利用する取り組みもなされている。これにより、車載装置の低価格化を図ることが可能となる。
たとえば、特許文献1には、携帯端末装置の画面に表示される表示画面を車載装置へ送信し、車載装置のディスプレイに対して携帯端末装置で生成された表示画面を表示する技術が開示されている。
特開2003−244343号公報
しかしながら、特許文献1の連携システムでは、車載装置の操作画面を用いて携帯端末装置を遠隔操作しようとするものであるが、携帯端末装置を音声操作できないという問題があった。
たとえば、車載装置に音声認識エンジンが搭載されておらず、ドライバーの携帯端末装置には音声認識エンジンが搭載されている場合について、説明する。
この場合、ドライバーは、運転中に携帯端末装置を操作することが法律で禁じられていることから、携帯端末装置に触れることができない。このため、車載装置から携帯端末装置の音声認識エンジンを利用することは不可能である。
また、ドライバーの携帯端末装置にナビゲーション機能が搭載されていて、同乗者の携帯端末装置にはナビゲーション機能が搭載されていない場合に、同乗者が、ドライバーの携帯端末装置を操作して、ナビゲーション機能を利用してもよい。
しかし、携帯端末装置にはアドレス帳、発着信履歴やメール及びその履歴などの個人のプライバシーに関する情報を有するので、所有者以外が操作するのは、好ましいものではない。
これらのことから、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーでも安全に音声操作することができるとともに、同乗者の携帯端末装置からでも、ドライバーの携帯端末装置に搭載するアプリケーションを操作することができる音声操作システムおよび音声操作方法をいかにして実現するかが大きな課題となっている。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる音声操作システムおよび音声操作方法を提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明は、車載装置を用いて携帯端末装置の音声操作を行う音声操作システムであって、利用者が発する音声を入力する音声入力手段と、前記音声を音声認識する音声認識手段と、前記音声認識手段による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行手段とを備え、前記車載装置は、前記音声入力手段、前記音声認識手段ならびに前記コマンド実行手段が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶手段と、前記振分情報に基づいて前記音声入力手段からの出力を前記音声認識手段へ、前記音声認識手段からの出力を前記コマンド実行手段へ、それぞれ振り分ける振分手段とを備えたことを特徴とする。
本発明によれば、利用者が発する音声を入力し、入力した音声を音声認識し、音声認識した音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行する。車載装置は、音声入力手段、音声認識手段ならびにコマンド実行手段が装置内に存在するか否かを、装置を識別する装置識別子と対応付けた振分情報を記憶し、振分情報に基づいて音声入力手段からの出力を音声認識手段へ、音声認識手段からの出力をコマンド実行手段へ、それぞれ振り分けることができる音声操作システムおよび音声操作方法を提供することができるという効果を奏する。
以下に添付図面を参照して、本発明にかかる音声操作システムおよび音声操作方法の好適な実施例を詳細に説明する。なお、以下では、自動車に搭載されるDA(display Audio)と呼ばれる車載装置と、携帯端末装置とが、近距離無線通信機能で連携する音声操作システムについて説明することとする。
ここで、DAとは、表示機能やオーディオ再生機能、携帯端末装置との通信機能といった基礎的な機能のみを実装し、携帯端末装置と連携することで多機能化する車載装置のことを指す。
また、以下では、本発明にかかる音声操作システムの概要について図1を用いて説明した後に、本発明にかかる音声操作システムについての実施例を図2〜図16を用いて説明することとする。
携帯端末装置と車載装置とを連携させる従来の操作システムでは、ドライバーの携帯端末装置にナビゲーション機能が搭載されていても、自身の携帯端末装置を操作することができなかった。
そこで、今回の本発明にかかる音声操作装置および音声操作システムでは、音声操作によって携帯端末装置に搭載されたナビゲーション機能などのアプリケーション(以下、単に「アプリケーション」と記載する)を操作する。
図1は、本実施例にかかる音声操作システムの概要を示す図である。同図上部の表に示すように、車載装置は、音声認識エンジンならびにアプリケーションが装置内に存在するか否かおよび結果出力表示先を指定する情報等を、装置を識別する装置識別子と対応付けて振分情報として記憶している。
この場合、音声認識エンジンは、装置識別子が「333」である装置に搭載されており、ナビゲーション機能のアプリケーションは、装置識別子が「222」である装置に搭載されており、音声認識結果は、装置識別子が「111」である装置に出力するように設定されている場合について説明する。
たとえば、装置識別子が「222」と割り当てられた同乗者の携帯端末Aのマイクから、同乗者が「目的地 自宅」というコマンドを発した場合(同図の(1)参照)、装置識別子が「111」と割り当てられたDAに入力音声データが送信される。
そして、DAは、音声認識エンジンがどの装置に存在するかの振分情報に基づいて、入力音声データを送信する。この場合、装置識別子が「333」と割り当てられたドライバーの携帯端末Bに入力音声データを送信する(同図の(2)参照)。
携帯端末Bに搭載された音声認識エンジンは、受信した入力音声データを音声認識して(同図の(3)参照)、「目的地 自宅」という文字列に変換した音声認識結果をDAに送信する(同図の(4)参照)。
一方、音声認識結果を受信したDAは、振分情報の結果出力表示先の装置情報に基づいて、音声認識結果を表示する。この場合、DAのディスプレイに音声認識結果「目的地 自宅」というコマンド文字列を表示する(同図の(5)参照)。
そして、同乗者は、表示された音声認識結果に対して、再び携帯端末Aのマイクから応答を行う。この場合、音声認識結果が正しかったので、同乗者は「OK」と発して、応答を行う(同図の(6)参照)。
その後、入力音声データはDAに送信され、DAでは、上述した(2)〜(4)までの音声認識処理と同様に、「OK」の入力音声データを、携帯端末Bに搭載された音声認識エンジンによって文字列に変換し、携帯端末Bは、音声認識結果をDAに送信する。
そして、DAは、アプリケーションがどの装置に存在するかの振分情報に基づいて、コマンド文字列を送信する。この場合、携帯端末Aにアプリケーションが存在するので、DAは、携帯端末Aにコマンド文字列を送信する。
一方、携帯端末Aでは、受信したコマンド文字列「目的地 自宅」に基づいて、目的地が「自宅」である、地図の表示や経路案内を行うなどの処理を実行する(同図の(7)参照)。
なお、ここでは、音声入力を同乗者の携帯端末Aのマイクから行うようにしたが、DAに搭載されたマイクを、ハンズフリーのマイクに接続して、ドライバーがコマンドを発してもよい。
このように、音声認識エンジンおよびアプリケーションが、いずれかの携帯端末装置に存在する場合に、運転中のドライバーでも安全に携帯端末装置の音声操作をすることができるとともに、同乗者も所定の携帯端末装置を簡単に音声操作することができる。
次に、図2を用いて、本実施例にかかる音声操作システムの装置構成について説明する。図2は、本実施例にかかる音声操作システムの装置構成パターンを示す図である。
実施例1では、同図の(A)に示すように、車両には、マイク、スピーカーおよびアプリケーションを搭載した携帯端末装置と音声認識エンジンを搭載した携帯端末装置とが存在し、それぞれDAと通信処理ができる装置構成の場合を説明する。
実施例2では、同図の(B)に示すように、車両には、マイク、ディスプレイを搭載した携帯端末装置と、音声認識エンジンを搭載した携帯端末装置と、アプリケーションを搭載した携帯端末装置とが存在し、それぞれDAと通信処理ができる装置構成の場合を説明する。
実施例3では、同図の(C)に示すように、車両には、アプリケーションおよび音声認識エンジンを搭載した携帯端末装置が存在し、マイクおよびタッチパネルディスプレイを搭載したDAと通信処理ができる装置構成の場合を説明する。
以下では、本発明にかかる音声操作システムおよび音声操作方法の実施例1について図3〜図8を用いて詳細に説明する。図3は、実施例1にかかる音声操作システムの構成を示すブロック図である。同図に示すように、音声操作システムは、車載装置10と、携帯端末装置20と、携帯端末装置30とを含んでいる。
まず、車載装置10の構成について説明する。同図に示すように、車載装置10は、近距離通信部11と、記憶部12と、制御部13とを備えている。また、記憶部12は、振分情報12aをさらに備えており、制御部13は、受信部13aと、振分部13bとをさらに備えている。
近距離通信部11は、ブルートゥース(登録商標)などの近距離無線通信を用いて携帯端末装置20および携帯端末装置30との通信リンクをそれぞれ確立するとともに、確立した各通信リンクを用いて車載装置10/各携帯端末装置間の通信処理を行う。
ここで、ブルートゥース(Bluetooth:登録商標)とは、2.4GHzの周波数帯を用いて半径数10m程度の無線通信を行う近距離無線通信規格であり、近年では、携帯電話やパーソナルコンピュータなどの電子機器に広く適用されている。
なお、実施例1では、ブルートゥース(登録商標)を用いて車載装置10/各携帯端末装置間の通信を行う場合について説明するが、Wi−Fi(ワイファイ:登録商標)、ZigBee(ジグビー:登録商標)といった他の無線通信規格を用いることとしてもよい。また、車載装置10/各携帯端末装置間の通信を有線通信で行うこととしてもよい。
記憶部12は、不揮発性RAM(Random Access Memory)や、HDD(Hard Disk Drive)等で構成される記憶部であり、振分情報12aを記憶する。
振分情報12aは、音声認識エンジンならびにアプリケーションが装置内に存在するか否か、音声入力元装置および音声認識結果出力先装置を指定する情報を、装置を識別する装置識別子と対応付けられた情報であり、記憶部12へ蓄積される。
記憶部12に蓄積された振分情報12aは、DAのディスプレイ等から設定の変更を行うことができる。なお、振分情報12aの詳細な項目の説明については、図4を用いて、後述することとする。
受信部13aは、近距離通信部11経由で携帯端末装置20および携帯端末装置30から入力音声データおよび音声認識結果データを受信し、受信した各種データを、振分部13bへ渡す処理を行う処理部である。
振分部13bは、受信部13aから各種データを受信し、受信したデータを、振分情報12aに基づいて、近距離通信部11経由で携帯端末装置20および携帯端末装置30へ送信する処理を行う処理部である。
次に、携帯端末装置20の構成について説明する。同図に示すように、携帯端末装置20は、車載装置10との通信を行う近距離通信部21と、マイク22と、スピーカー23と、操作コマンド情報24と、音声入力部25と、音声出力部26と、アプリケーション27とを備えている。
なお、実際の携帯端末装置20では、図示した機能部以外の機能部(例えば、操作部、表示部など)を有するが、図3では、実施例1にかかる携帯端末装置20の特徴を説明するために必要な構成要素のみを抜粋している。
近距離通信部21は、車載装置10の近距離通信部11と同様に、ブルートゥース(登録商標)などの近距離無線通信を用いて車載装置10との通信リンクを確立するとともに、確立した通信リンクを用いて携帯端末装置20/車載装置10間の通信処理を行う。
マイク22は、音声を電気信号に変換する機器であり、変換した電気信号を音声データとして音声入力部25へ渡す。スピーカー23は、音声出力部26からの電気信号である音声データを物理振動に変えて、音として再生する機器である。
操作コマンド情報24は、アプリケーション27が実行可能な形式に変換されたコマンド(以下、「操作コマンド」と記載する)毎に、操作コマンドに対応付けられたコマンド文字列および操作コマンドの実行制限を設定しておく情報が、不揮発性RAM等に記憶される。操作コマンド情報24については、図5を用いて、後述することとする。
音声入力部25は、マイク22からの入力音声データを近距離通信部21へ渡す処理を行う処理部である。音声出力部26は、近距離通信部21経由で受信した音声データをスピーカー23へ渡す処理を行う処理部である。
アプリケーション27は、携帯端末装置20上で動作するアプリケーションである。ここで、アプリケーションとしては、GPS(Global Positioning System)アンテナを用いた現在位置を取得し、現在位置と地図情報を重ねあわせて目的地までの経路案内を行うナビアプリや、楽曲などの音楽を再生する音楽再生アプリなどがある。
アプリケーション27では、近距離通信部21経由で受信したコマンド文字列に基づいて、携帯端末装置20上で動作するために、装置内部で処理が実行可能な操作コマンドに変換して、変換したコマンドおよび操作コマンド情報24に基づいて、処理を実行する。
つづいて、携帯端末装置30の構成について説明する。同図に示すように、携帯端末装置30は、車載装置10との通信を行う近距離通信部31と、音声認識部32と、結果生成部33とを備えている。
なお、実際の携帯端末装置30では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図3では、実施例1にかかる携帯端末装置30の特徴を説明するために必要な構成要素のみを抜粋している。
近距離通信部31は、近距離通信部21と同様であるので、ここでは説明を省略する。音声認識部32は、近距離通信部31経由で受信した入力音声データのノイズ除去等、解析しやすい音声データに調整してから、人間の話す音声言語を解析し、文字列データとして取り出す(以下、「音声認識する」と記載する)処理処理を行う処理部である。
結果生成部33は、音声認識部32で認識した音声認識結果を、結果表示用に画像データまたは結果音声出力用に音声データに変換する処理を行う処理部である。
なお、本発明請求項記載の車載装置は車載装置10、携帯端末装置は携帯端末装置20および携帯端末装置30、音声入力手段はマイク22および音声入力部25、音声認識手段は音声認識部32、コマンド実行手段はアプリケーション27、振分手段は振分部13bに相当するものである。
次に、振分情報12aについて、図4を用いて、詳細に説明する。図4は、振分情報を示す図である。同図に示すように、振分情報12aは、装置識別子毎に、「音声認識」項目、「アプリケーション」項目、「入力優先順位」項目、「出力表示」項目および「出力音声」項目の情報を含んでいて、DAのディスプレイに表示をして、設定の変更を行うことができる。
装置識別子は、装置を識別する装置識別子であり、DAが、通信処理を行う各装置を認識した際に、所定の装置識別子を割り当てる。「音声認識」項目は、音声認識エンジンが装置内に存在するか否かを示す情報である。
「アプリケーション」項目は、アプリケーションが装置内に存在するか否かを示す情報である。「入力優先順位」項目は、各装置から同時に音声を発せられた場合、どの装置の音声を優先で処理するかを、DAが判定する為の情報である。
たとえば、装置識別子「222」および装置識別子「444」である装置から、同時に音声が発せられた場合、装置識別子「222」の「入力優先順位」は「1」であり、また、装置識別子「444」の「入力優先順位」は「3」であることから、DAは、優先順位の高い装置識別子「222」の装置からの音声に対して処理を行うこととする。
「出力表示」項目は、音声認識結果を表示する装置の設定を行う。たとえば、音声入力された装置がいずれであっても、装置識別子「111」である装置のディスプレイに表示しようとする場合、装置識別子「111」の「出力表示」項目に「a」と設定する。
また、音声入力された携帯端末装置のディスプレイに表示しようとする場合には、所定の携帯端末装置の「出力表示」項目に「b」と設定しておくと、「b」と設定された携帯端末装置の中から、音声入力された携帯端末装置のディスプレイに表示する。
さらに、指定したすべての携帯端末装置のディスプレイに表示しようとする場合には、所定の携帯端末装置の「出力表示」項目に「c」と設定しておくと、「c」と設定された携帯端末装置すべてのディスプレイに表示する。
「出力音声」項目は、音声認識結果を音声によって出力する装置の設定を行う。これも、「出力表示」項目と同様で、音声入力された装置がいずれであっても、音声認識結果を音声出力する端末には、「出力音声」項目に「a」を設定する。
また、音声入力された携帯端末装置に音声出力しようとする場合、所定の携帯端末装置の「出力音声」項目に「b」と設定し、指定したすべての携帯端末装置に音声出力しようとする場合、所定の携帯端末装置の「出力音声」項目に「c」と設定する。
ここでは、「出力表示」項目および「出力音声」項目の設定を、「a」、「b」および「c」としたが、他の文字や数値等で表現することとしてもよい。
また、この振分情報12aは、DAのディスプレイに表示して設定の変更を行えるようにしたが、DAが、振分情報12aを所定の携帯端末装置に送信して、受信した携帯端末装置で、設定の変更を行えるようにしてもよい。
次に、操作コマンド情報24について、図5を用いて、詳細に説明する。図5は、操作コマンド変更画面を示す図である。同図の表に示すように、操作コマンド情報24は、操作コマンド毎に、「文字列」項目、「使用」項目の情報を含んでいる。
「文字列」項目は、操作コマンドに対応付けられた、コマンド文字列である。「文字列」項目のコマンド文字列を音声入力すると、対応する操作コマンドがアプリケーション27で実行される。
「使用」項目は、コマンドの操作制限を設定しておく情報であり、操作コマンドが音声操作によって実行してもよいか否かを設定しておく。たとえば、「コマンド:30」の「音楽 再生」を「使用不可」(ここでは「×」)に設定しておくと、「音楽 再生」と音声入力された場合には、「音楽 再生」に対応する操作は実行されない。
アプリケーション27が搭載されている携帯端末装置20には、たとえば、同図下部に示すように、「追加」ボタン、「更新」ボタンおよび「終了」ボタンを備えた操作コマンドの設定画面によって、操作コマンドを設定することができる。
「追加」ボタンが押下されると、操作コマンド情報24に新規に操作コマンドを登録することができる。また、「更新」ボタンが押下されると、操作コマンド情報24を変更した後、操作コマンドを更新することができる。
具体的には、同図に示すように、「コマンド:10」のコマンド文字列は「OK」に設定されているが、「実行」または「はい」等の他のコマンド文字列に変更することによって、「実行」または「はい」と音声入力することで、「コマンド:10」が実行される。
「終了」ボタンが押下されると、操作コマンドの設定処理を終了する。なお、携帯端末装置20の出荷時に、あらかじめアプリケーションで使用される共通の操作コマンドを初期設定しておくこととしてもよい。
ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報12aの設定状態を、図6に示す。図6は、実施例1にかかる振分情報を示す図である。
この場合、車載装置10は、装置識別子「111」に割り当てられ、同乗者の携帯端末を携帯端末装置20とすると、装置識別子「222」に割り当てられ、ドライバーの携帯端末を携帯端末装置30とすると、装置識別子「333」に割り当てられているものとする。
音声認識エンジンは、携帯端末装置30に搭載されており、アプリケーションは携帯端末装置20に搭載されている。「入力優先順位」は、携帯端末装置20が「1」、車載装置10が「2」と設定されているものとする。また、音声認識結果は、携帯端末装置20から、音声によって出力するよう設定されているものとして、以下を説明する。
まず、音声操作システムが行う操作コマンド入力処理手順について、図7を用いて説明する。図7は、実施例1にかかる操作コマンド入力処理手順を示すシーケンス図である。
車載装置10では、まず、図示しない車載装置10に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。
同図に示すように、同乗者が、携帯端末装置20から、コマンド文字列を音声入力すると(ステップS101)、携帯端末装置20は、近距離通信部21を経由して、入力音声データを車載装置10へ送る。
そして、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置30と判定し(ステップS102)、近距離通信部11を経由して、入力音声データをステップS102で判定した携帯端末装置30へ送る。
一方、携帯端末装置30の音声認識部32は、受信した入力音声データを、音声認識して(ステップS103)、コマンド文字列に変換し、さらに、結果生成部33では、音声出力用にコマンド文字列の音声データを生成して(ステップS104)、近距離通信部31を経由して、音声データおよびコマンド文字列を車載装置10に送る。
その後、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識結果の出力先装置およびアプリケーションの搭載されている装置を共に携帯端末装置20と判定し(ステップS105)、近距離通信部11を経由して、音声データおよびコマンド文字列を携帯端末装置20に送る。
そして、携帯端末装置20は、受信した音声データをスピーカー23によって出力し(ステップS106)、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS107)。
図7の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図8を用いて説明する。図8は、実施例1にかかる結果確認処理手順を示すシーケンス図である。
同図に示すように、同乗者が、携帯端末装置20から、確認文字列を音声入力すると(ステップS201)、携帯端末装置20は、近距離通信部21を経由して、入力音声データを車載装置10へ送る。
そして、車載装置10の振分部13bは、振分情報12aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置30と判定し(ステップS202)、近距離通信部11を経由して、入力音声データをステップS202で判定した携帯端末装置30へ送る。
一方、携帯端末装置30の音声認識部32は、受信した入力音声データを、音声認識して(ステップS203)、結果生成部33では、音声確認結果を確認文字列として文字列データ生成を行い(ステップS204)、近距離通信部31を経由して、確認文字列を車載装置10に送る。
その後、車載装置10の振分部13bは、振分情報12aに基づいて、アプリケーションの搭載されている装置を携帯端末装置20と判定し(ステップS205)、近距離通信部11を経由して、確認文字列を携帯端末装置20に送る。
そして、携帯端末装置20のアプリケーション27は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報24に基づいて、操作コマンドを生成し(ステップS206)、操作コマンドに基づいて、アプリケーションを実行する(ステップS207)。
このように、実施例1では、音声認識エンジンがドライバーの携帯端末装置30に搭載されており、アプリケーションが同乗者の携帯端末装置20に搭載されている場合、同乗者の携帯端末装置20から音声入力を行って、車載装置10が、音声認識エンジンが搭載されている携帯端末装置30にデータを振り分けるよう構成した。
これにより、たとえば、後部座席に乗車している同乗者が、ドライバーの携帯端末装置30に触れることなく音声操作することができ、また、車両前方に設置されている車載装置10を操作する必要がない。したがって、同乗者は、前方に乗り出す等の、ドライバーの運転を妨害するような行動をとることなく、自由な姿勢で音声操作することができる。
なお、実施例1においては、同乗者の携帯端末装置から音声入力するようにしたが、車載装置10に接続した、ヘッドセットマイクなどのハンズフリーユニットから音声入力するようにしてもよい。
さて、上記の実施例1では、車載装置10と2台の携帯端末装置20、30とが、近距離無線通信機能で連携する音声操作システムについて説明したが、車載装置と3台以上の携帯端末装置とを連携させてもよい。
そこで、実施例2では、車載装置と3台の携帯端末装置とが、近距離無線通信機能で連携する場合について、図9〜図12を用いて詳細に説明する。図9は、実施例2にかかる音声操作システムの構成を示すブロック図である。
同図に示すように、音声操作システムは、車載装置110と、携帯端末装置120と、携帯端末装置130と、携帯端末装置140とを含んでいる。
車載装置110および携帯端末装置130については、実施例1の車載装置10および携帯端末装置30と同様であるので、ここでは説明を省略する。
次に、携帯端末装置120の構成について説明する。同図に示すように、携帯端末装置120は、車載装置110との通信を行う近距離通信部121と、マイク122と、ディスプレイ123と、音声入力部124と、表示部125とを備えている。
なお、実際の携帯端末装置120では、図示した機能部以外の機能部(例えば、操作部、スピーカーなど)を有するが、図9では、実施例2にかかる携帯端末装置120の特徴を説明するために必要な構成要素のみを抜粋している。
近距離通信部121は、実施例1の近距離通信部21と同様であるので、ここでは説明を省略する。また、マイク122は、実施例1のマイク22と同様であるので、ここでは説明を省略する。ディスプレイ123は、表示部125からの画像データを表示する機器である。
音声入力部124は、マイク122からの入力音声データを近距離通信部121へ渡す処理を行う処理部である。表示部125は、近距離通信部21経由で受信した画像データをディスプレイ123へ渡す処理を行う処理部である。
つづいて、携帯端末装置140の構成について説明する。同図に示すように、携帯端末装置140は、車載装置110との通信を行う近距離通信部141と、アプリケーション142と、操作コマンド情報143とを備えている。
なお、実際の携帯端末装置140では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図9では、実施例2にかかる携帯端末装置140の特徴を説明するために必要な構成要素のみを抜粋している。
操作コマンド情報143は、実施例1の操作コマンド情報24と同様であるので、ここでは説明を省略する。また、アプリケーション142は、実施例1のアプリケーション27と同様であるので、ここでは説明を省略する。
なお、本発明請求項記載の車載装置は車載装置110、携帯端末装置は携帯端末装置120、携帯端末装置130および携帯端末装置140、音声入力手段はマイク122および音声入力部124、音声認識手段は音声認識部132、コマンド実行手段はアプリケーション142、振分手段は振分部113bに相当するものである。
ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報112aの設定状態を、図10に示す。図10は、実施例2にかかる振分情報を示す図である。
この場合、車載装置110は、装置識別子「111」に割り当てられ、同乗者の携帯端末を携帯端末装置120および携帯端末装置140とすると、装置識別子「222」および装置識別子「444」に割り当てられ、ドライバーの携帯端末を携帯端末装置130とすると、装置識別子「333」に割り当てられているものとする。
音声認識エンジンは、携帯端末装置130に搭載されており、アプリケーションは携帯端末装置140に搭載されている。「入力優先順位」は、携帯端末装置120が「1」、携帯端末装置140が「2」、車載装置110が「3」と設定されているものとする。また、音声認識結果は、携帯端末装置120から、ディスプレイによって表示するよう設定されているものとして、以下を説明する。
まず、音声操作システムが行う操作コマンド入力処理手順について、図11を用いて説明する。図11は、実施例2にかかる操作コマンド入力処理手順を示すシーケンス図である。
車載装置110では、まず、図示しない車載装置110に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。
同図に示すように、同乗者が、携帯端末装置120から、コマンド文字列を音声入力すると(ステップS301)、携帯端末装置120は、近距離通信部121を経由して、入力音声データを車載装置110へ送る。
そして、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置130と判定し(ステップS302)、近距離通信部111を経由して、入力音声データをステップS302で判定した携帯端末装置130へ送る。
一方、携帯端末装置130の音声認識部132は、受信した入力音声データを、音声認識して(ステップS303)、コマンド文字列に変換し、さらに、結果生成部133では、表示用に音声認識結果の確認を促す画像データを生成して(ステップS304)、近距離通信部131を経由して、画像データおよびコマンド文字列を車載装置110に送る。
その後、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識結果の出力先装置を携帯端末装置120と判定し、また、アプリケーションの搭載されている装置を携帯端末装置140と判定し(ステップS305)、近距離通信部111を経由して、画像データを携帯端末装置120に送る。
そして、携帯端末装置120は、受信した画像データをディスプレイ123によって表示する(ステップS306)。たとえば、図1のDA(111)に表示したような画像を、携帯端末装置120のディスプレイ123に表示する。
その後、車載装置110は、近距離通信部111を経由して、コマンド文字列を携帯端末装置140に送り、携帯端末装置140は、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS307)。
図11の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図12を用いて説明する。図12は、実施例2にかかる結果確認処理手順を示すシーケンス図である。
同図に示すように、同乗者が、携帯端末装置120から、確認文字列を音声入力すると(ステップS401)、携帯端末装置120は、入力音声データを車載装置110へ送る。
そして、車載装置110の振分部113bは、振分情報112aに基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置130と判定し(ステップS402)、近距離通信部111を経由して、入力音声データをステップS402で判定した携帯端末装置130へ送る。
一方、携帯端末装置130の音声認識部132は、受信した入力音声データを、音声認識して(ステップS403)、結果生成部133では、音声確認結果を確認文字列として文字列データ生成を行い(ステップS404)、近距離通信部131を経由して、確認文字列を車載装置110に送る。
その後、車載装置110の振分部113bは、振分情報112aに基づいて、アプリケーションの搭載されている装置を携帯端末装置140と判定し(ステップS405)、近距離通信部111を経由して、確認文字列を携帯端末装置120に送る。
そして、携帯端末装置140のアプリケーション142は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報143に基づいて、操作コマンドを生成し(ステップS406)、操作コマンドに基づいて、アプリケーションを実行する(ステップS407)。
このように、実施例2では、音声認識エンジン、アプリケーションおよび音声入力/表示を行う装置がいずれにあっても、車載装置110が、それぞれの処理を各装置で行えるよう、振り分け処理するよう構成した。
これにより、同乗者が、ドライバーの携帯端末装置130に触れることなく音声操作することができるとともに、音声認識エンジンやアプリケーションを搭載していない携帯端末装置からも音声操作することができる。さらには、同乗者自身の持つ携帯端末装置を使用することで、音声操作システムを使用する装置を新たに購入する必要がなく、多くの同乗者が利用することができる。
ところで、これまでは、同乗者の携帯端末装置から、音声入力を行う場合について説明してきたが、ドライバーだけが乗車しているような場合、すなわち、車載装置と1台の携帯端末装置とを連携させるようにしてもよい。
そこで、実施例3では、車載装置と1台の携帯端末装置とが、近距離無線通信機能で連携する場合について、図13〜図16を用いて詳細に説明する。図13は、実施例3にかかる音声操作システムの構成を示すブロック図である。
同図に示すように、音声操作システムは、車載装置210と、携帯端末装置220とを含んでいる。まず、車載装置210の構成について説明する。同図に示すように、車載装置210は、近距離通信部211と、マイク212と、ディスプレイ213と、制御部214とを備えている。
また、制御部214は、受信部214aと、振分部214bと、音声入力部214cと、表示操作部214dとをさらに備えている。近距離通信部211については、実施例1の近距離通信部11と同様であるので、ここでは説明を省略する。
マイク212は、ヘッドセットマイクなどのハンズフリーユニットで、ドライバーが運転中にも音声操作が可能な入力デバイスで構成され、音声を電気信号に変換し、変換した電気信号を音声データとして音声入力部214cへ渡す。
ディスプレイ213は、タッチパネルディスプレイなどの入出力デバイスで構成され、表示操作部214dからの画像データを表示するとともに、表示した表示画面に対するタッチ情報等を取得する。
ここで、タッチ情報とは、タッチされたディスプレイ上の座標位置情報や、タッチから次のタッチまでの時間間隔などを含んだ情報である。なお、ディスプレイ213は、取得したタッチ情報を表示操作部214dへ渡す。
受信部214aは、近距離通信部11経由で携帯端末装置220から音声認識結果データを受信し、音声入力部214cから入力音声データを受信し、さらに、表示操作部214dからは座標位置情報等を受信し、受信した各種データを、振分部214bへ渡す処理を行う処理部である。
振分部214bは、受信部214aから各種データを受信し、受信したデータを、図示しない振分情報に基づいて、表示操作部214dまたは携帯端末装置220へ送信する処理を行う処理部である。
音声入力部214cは、マイク212からの入力音声データを受信部214aへ渡す処理を行う処理部である。表示操作部214dは、振分部214bから受信した画像データをディスプレイ213へ渡し、また、ディスプレイ213から受信したタッチ情報を受信部214aへ渡す処理を行う処理部である。
次に、携帯端末装置220の構成について説明する。同図に示すように、携帯端末装置220は、車載装置210との通信を行う近距離通信部221と、音声認識部222と、結果生成部223と、アプリケーション224と、操作コマンド情報225とを備えている。
なお、実際の携帯端末装置220では、図示した機能部以外の機能部(例えば、操作部、表示部、スピーカー、マイク等の音声入力手段など)を有するが、図13では、実施例3にかかる携帯端末装置220の特徴を説明するために必要な構成要素のみを抜粋している。
近距離通信部221、音声認識部222、結果生成部223、アプリケーション224および操作コマンド情報225は、実施例1の近距離通信部21、音声認識部32、結果生成部33、アプリケーション27および操作コマンド情報24と同様であるので、ここでは説明を省略する。
なお、本発明請求項記載の車載装置は車載装置210、携帯端末装置は携帯端末装置220、音声入力手段はマイク212および音声入力部214c、音声認識手段は音声認識部222、コマンド実行手段はアプリケーション224、振分手段は振分部214bに相当するものである。
ここで、音声操作システムが行う操作コマンド入力処理手順および結果確認処理手順を説明する際の、振分情報の設定状態を、図14に示す。図14は、実施例3にかかる振分情報を示す図である。
この場合、車載装置210は、装置識別子「111」に割り当てられ、ドライバーの携帯端末を携帯端末装置220とすると、装置識別子「222」に割り当てられているものとする。
音声認識エンジンおよびアプリケーションは、携帯端末装置220に搭載されている。「入力優先順位」は、ドライバーは携帯端末装置220を使用することができないので、車載装置210に「1」とだけ設定されているものとする。また、音声認識結果は、上記と同様の理由から車載装置210のディスプレイ213によって表示するよう設定されているものとして、以下を説明する。
まず、音声操作システムが行う操作コマンド入力処理手順について、図15を用いて説明する。図15は、実施例3にかかる操作コマンド入力処理手順を示すシーケンス図である。
車載装置210では、まず、図示しない車載装置210に備える音声操作を開始するボタンが割り当てられており、音声操作の開始ボタンが押下されたことによって、音声操作が行えるような状態になっているとする。
同図に示すように、ドライバーが、ハンズフリーのマイク212から、コマンド文字列を音声入力すると(ステップS501)、車載装置210の振分部214bは、振分情報に基づいて、音声認識エンジンがいずれの装置に搭載されているかを携帯端末装置220と判定し(ステップS502)、近距離通信部211を経由して、入力音声データをステップS502で判定した携帯端末装置220へ送る。
一方、携帯端末装置220の音声認識部222は、受信した入力音声データを、音声認識して(ステップS503)、コマンド文字列に変換し、さらに、結果生成部223では、表示用に音声認識結果の確認を促す画像データを生成して(ステップS504)、近距離通信部221を経由して、画像データおよびコマンド文字列を車載装置210に送る。
その後、車載装置210の振分部214bは、振分情報に基づいて、音声認識結果の出力先装置を車載装置210と判定し、また、アプリケーションの搭載されている装置を携帯端末装置220と判定する(ステップS505)。
そして、車載装置210は、画像データをディスプレイ213によって表示する(ステップS506)。たとえば、図1のDA(111)に表示したような画像を、車載装置210のディスプレイ213に表示する。
その後、車載装置210は、近距離通信部211を経由して、コマンド文字列を携帯端末装置220に送り、携帯端末装置220は、受信したコマンド文字列を一時記憶メモリ等に記憶しておく(ステップS507)。
図15の処理手順につづいて、音声操作システムが行う結果確認処理手順について、図16を用いて説明する。図16は、実施例3にかかる結果確認処理手順を示すシーケンス図である。
同図に示すように、ドライバーが、音声認識結果の確認を促す画像が表示されているディスプレイ213の「OK」部分をタッチすることにより確認入力を行う(ステップS601)。
車載装置210のディスプレイ213は、ディスプレイ213からタッチ情報としてタッチされたディスプレイ上の座標位置情報を取得し(ステップS602)、座標位置情報を表示操作部214dへ送る。
そして、車載装置210の表示操作部214dは、取得した座標位置情報および音声認識結果の確認を促す画像データに基づいて、確認結果を判別し(ステップS603)、確認結果を文字列に変換して、変換した確認文字列を受信部214aに送る。
その後、車載装置210の振分部214bでは、振分情報に基づいて、アプリケーションの搭載されている装置を携帯端末装置220と判定し(ステップS604)、近距離通信部211を経由して、確認文字列を携帯端末装置220に送る。
そして、携帯端末装置220のアプリケーション224は、受信した確認文字列が「OK」であれば、一時記憶メモリ等に記憶しておいたコマンド文字列を、操作コマンド情報225に基づいて、操作コマンドを生成し(ステップS605)、操作コマンドに基づいて、アプリケーションを実行する(ステップS606)。
このように、実施例3では、ドライバーの携帯端末装置に、音声認識エンジン、アプリケーションが搭載されており、車載装置210で、音声入力/表示を行い、ドライバーの携帯端末装置の機能を利用できるよう構成した。
これにより、運転中のドライバーでも安全に携帯端末装置220の音声操作をすることができるとともに、携帯端末装置220の機能を利用することによって、ハード構成及びソフト構成の両面において車載装置210の構成を簡素化し、廉価な価格で製品提供することができる。
なお、上記実施例においては、音声操作する操作コマンドについて、アプリケーションの操作について説明したが、DAに表示または備えている入力項目、たとえば、数字キー、十字キーなどにも対応するようにしてもよく、この場合、DAの機能を音声操作することにより、ドライバーがより安全に運転することができる。
また、上記実施例においては、音声認識結果の確認を行う際、音声入力により「OK」と発する、または、DAのディスプレイをタッチすることで、確認操作を認識してアプリケーションを実行していた。
ところが、音声認識結果を表示または出力した後、たとえば、一定時間、操作がなければ「OK」とみなす、あるいは、一定時間、操作がなければ「キャンセル」とみなすとすることで、操作者の動作を簡略化することができ、ドライバーがより安全に運転することができる。
また、上記実施例においては、入力音声データのノイズ除去を携帯端末装置で行うようにしていたが、DAで行うようにすることで、音声認識処理を行う携帯端末装置の処理負荷を軽減することができる。
また、上記実施例においては、携帯端末装置に搭載された音声認識エンジンを使用するようにしていたが、DAに音声認識エンジンを搭載することで、アプリケーションを搭載する携帯端末装置さえ存在すればよいので、ドライバーや同乗者が携帯端末装置を購入する際の負担を軽減することができる。
また、上記実施例においては、DAに音声操作を開始するボタンを備えるように構成していたが、携帯端末装置、または、ヘッドセットマイクなどのハンズフリーユニットに音声操作を開始するボタンを割り当ててもよい。
あるいは、携帯端末装置、または、DAのディスプレイに開始ボタンを表示させてもよい。この場合、DAに音声操作用のボタンを備えずに済むことから、ハード構成及びソフト構成の両面において、DAの構成を簡素化し、廉価な価格で製品提供することができる。
以上のように、本発明にかかる音声操作システムおよび音声操作方法は、車載装置を用いて携帯端末装置の操作を行う場合に、運転中のドライバーの安全性を損なうことなく音声操作できるとともに、特に、音声認識エンジンおよびアプリケーションが、いずれの携帯端末装置に存在する場合であっても、ドライバーや同乗者が、自身の携帯端末装置から簡単に音声操作したい場合に適している。
本実施例にかかる音声操作システムの概要を示す図である。 本実施例にかかる音声操作システムの装置構成パターンを示す図である。 実施例1にかかる音声操作システムの構成を示すブロック図である。 振分情報を示す図である。 操作コマンド変更画面を示す図である。 実施例1にかかる振分情報を示す図である。 実施例1にかかる操作コマンド入力処理手順を示すシーケンス図である。 実施例1にかかる結果確認処理手順を示すシーケンス図である。 実施例2にかかる音声操作システムの構成を示すブロック図である。 実施例2にかかる振分情報を示す図である。 実施例2にかかる操作コマンド入力処理手順を示すシーケンス図である。 実施例2にかかる結果確認処理手順を示すシーケンス図である。 実施例3にかかる音声操作システムの構成を示すブロック図である。 実施例3にかかる振分情報を示す図である。 実施例3にかかる操作コマンド入力処理手順を示すシーケンス図である。 実施例3にかかる結果確認処理手順を示すシーケンス図である。
符号の説明
10 車載装置
11 近距離通信部
12 記憶部
12a 振分情報
13 制御部
13a 受信部
13b 振分部
20 携帯端末装置
21 近距離通信部
22 マイク
23 スピーカー
24 操作コマンド情報
25 音声入力部
26 音声出力部
27 アプリケーション
30 携帯端末装置
31 近距離通信部
32 音声認識部
33 結果生成部


Claims (5)

  1. 車載装置を用いて携帯端末装置の音声操作を行う音声操作システムであって、
    利用者が発する音声を入力する音声入力手段と、
    前記音声を音声認識する音声認識手段と、
    前記音声認識手段による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行手段と
    を備え、
    前記車載装置は、
    前記音声入力手段、前記音声認識手段ならびに前記コマンド実行手段が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶手段と、
    前記振分情報に基づいて前記音声入力手段からの出力を前記音声認識手段へ、前記音声認識手段からの出力を前記コマンド実行手段へ、それぞれ振り分ける振分手段と
    を備えたことを特徴とする音声操作システム。
  2. 前記音声認識手段は、
    前記音声認識結果を利用者に対して通知して確認を得る結果確認手段
    をさらに備え、
    前記振分情報は、
    前記結果確認手段による通知先となる装置の前記装置識別子をさらに含むものであって、
    前記振分手段は、
    前記振分情報に基づき、前記音声認識手段からの出力を前記コマンド実行手段へ振り分ける前に、当該出力を前記結果確認手段へ振り分けることを特徴とする請求項1に記載の音声操作システム。
  3. 前記振分情報は、
    前記音声入力手段が複数の装置に設けられていて、複数の利用者がそれぞれの前記音声入力手段によって同時に音声を入力した場合に、どの前記音声入力手段からの前記音声を優先的に用いるかを示す入力優先順位をさらに含むものであって、
    前記振分手段は、
    前記振分情報に基づき、前記音声入力手段によって入力された前記音声を取捨選択することを特徴とする請求項1または2に記載の音声操作システム。
  4. 前記コマンド実行手段が実行する前記操作コマンドと前記音声認識手段による前記音声認識結果との対応付けを変更する変更手段
    をさらに備えたことを特徴とする請求項1、2または3のいずれか1項に記載の音声操作システム。
  5. 車載装置を用いて携帯端末装置の音声操作を行う音声操作方法であって、
    利用者が発する音声を入力する音声入力工程と、
    前記音声を音声認識する音声認識工程と、
    前記音声認識工程による音声認識結果を操作コマンドに変換したうえで当該操作コマンドを実行するコマンド実行工程と
    を備え、
    前記車載装置は、
    前記音声入力工程、前記音声認識工程ならびに前記コマンド実行工程が装置内に存在するか否かを、前記装置を識別する装置識別子と対応付けた振分情報を記憶する振分情報記憶工程と、
    前記振分情報に基づいて前記音声入力工程からの出力を前記音声認識工程へ、前記音声認識工程からの出力を前記コマンド実行工程へ、それぞれ振り分ける振分工程と
    を備えたことを特徴とする音声操作方法。
JP2008301496A 2008-11-26 2008-11-26 音声操作システムおよび音声操作方法 Pending JP2010130223A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008301496A JP2010130223A (ja) 2008-11-26 2008-11-26 音声操作システムおよび音声操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008301496A JP2010130223A (ja) 2008-11-26 2008-11-26 音声操作システムおよび音声操作方法

Publications (2)

Publication Number Publication Date
JP2010130223A true JP2010130223A (ja) 2010-06-10
JP2010130223A5 JP2010130223A5 (ja) 2012-08-09

Family

ID=42330307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008301496A Pending JP2010130223A (ja) 2008-11-26 2008-11-26 音声操作システムおよび音声操作方法

Country Status (1)

Country Link
JP (1) JP2010130223A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150456A (ja) * 2011-01-19 2012-08-09 Denso Corp 車両の統合操作装置による携帯端末の遠隔的な操作方法、および車両の統合操作装置
JP2012213132A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置および情報表示システム
JP2013198085A (ja) * 2012-03-22 2013-09-30 Sony Corp 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
WO2014103015A1 (ja) * 2012-12-28 2014-07-03 パイオニア株式会社 携帯端末装置、車載器、情報提示方法及び情報提示プログラム
EP2755201A2 (en) 2013-01-11 2014-07-16 Clarion Co., Ltd. Information processing apparatus, sound operating system, and sound operating method for information processing apparatus
WO2017022879A1 (ko) * 2015-08-05 2017-02-09 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
KR101755376B1 (ko) 2010-12-23 2017-07-26 엘지전자 주식회사 음성 명령 기능을 이용한 이동단말기 제어 방법 및 그 이동단말기
JP2018042254A (ja) * 2017-10-12 2018-03-15 ソニー株式会社 端末装置
CN111433736A (zh) * 2017-12-01 2020-07-17 雅马哈株式会社 机器控制系统、机器控制方法、以及程序
JP2020191641A (ja) * 2019-02-07 2020-11-26 ソニー株式会社 端末装置
JP2021177636A (ja) * 2020-07-03 2021-11-11 ソニーグループ株式会社 端末装置
JP2023016952A (ja) * 2012-07-19 2023-02-02 住友建機株式会社 ショベル用のプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837687A (ja) * 1994-07-22 1996-02-06 Nippondenso Co Ltd 制御機能付き車両用電話機
JP2002150039A (ja) * 2000-08-31 2002-05-24 Hitachi Ltd サービス仲介装置
JP2005181391A (ja) * 2003-12-16 2005-07-07 Sony Corp 音声処理装置および音声処理方法
JP2005266192A (ja) * 2004-03-18 2005-09-29 Matsushita Electric Ind Co Ltd 音声認識装置および音声認識方法
JP2006003696A (ja) * 2004-06-18 2006-01-05 Toyota Motor Corp 音声認識装置、音声認識方法、及び音声認識プログラム
WO2008076765A2 (en) * 2006-12-13 2008-06-26 Johnson Controls, Inc. Source content preview in a media system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0837687A (ja) * 1994-07-22 1996-02-06 Nippondenso Co Ltd 制御機能付き車両用電話機
JP2002150039A (ja) * 2000-08-31 2002-05-24 Hitachi Ltd サービス仲介装置
JP2005181391A (ja) * 2003-12-16 2005-07-07 Sony Corp 音声処理装置および音声処理方法
JP2005266192A (ja) * 2004-03-18 2005-09-29 Matsushita Electric Ind Co Ltd 音声認識装置および音声認識方法
JP2006003696A (ja) * 2004-06-18 2006-01-05 Toyota Motor Corp 音声認識装置、音声認識方法、及び音声認識プログラム
WO2008076765A2 (en) * 2006-12-13 2008-06-26 Johnson Controls, Inc. Source content preview in a media system
JP2010514271A (ja) * 2006-12-13 2010-04-30 ジョンソン コントロールズ テクノロジー カンパニー メディアシステムのソースコンテンツプレビュー

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755376B1 (ko) 2010-12-23 2017-07-26 엘지전자 주식회사 음성 명령 기능을 이용한 이동단말기 제어 방법 및 그 이동단말기
JP2012150456A (ja) * 2011-01-19 2012-08-09 Denso Corp 車両の統合操作装置による携帯端末の遠隔的な操作方法、および車両の統合操作装置
JP2012213132A (ja) * 2011-03-23 2012-11-01 Denso Corp 車両用装置および情報表示システム
US8700408B2 (en) 2011-03-23 2014-04-15 Denso Corporation In-vehicle apparatus and information display system
JP2013198085A (ja) * 2012-03-22 2013-09-30 Sony Corp 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
US12067332B2 (en) 2012-03-22 2024-08-20 Sony Group Corporation Information processing device, information processing method, information processing program, and terminal device
US11327712B2 (en) 2012-03-22 2022-05-10 Sony Corporation Information processing device, information processing method, information processing program, and terminal device
JP2023016952A (ja) * 2012-07-19 2023-02-02 住友建機株式会社 ショベル用のプログラム
WO2014103015A1 (ja) * 2012-12-28 2014-07-03 パイオニア株式会社 携帯端末装置、車載器、情報提示方法及び情報提示プログラム
US9739625B2 (en) 2013-01-11 2017-08-22 Clarion Co., Ltd. Information processing apparatus, operating system, and operating method for information processing apparatus
US9248788B2 (en) 2013-01-11 2016-02-02 Clarion Co., Ltd. Information processing apparatus, operating system, and operating method for information processing apparatus
EP2755201A2 (en) 2013-01-11 2014-07-16 Clarion Co., Ltd. Information processing apparatus, sound operating system, and sound operating method for information processing apparatus
KR20170017178A (ko) * 2015-08-05 2017-02-15 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
KR101910383B1 (ko) * 2015-08-05 2018-10-22 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
WO2017022879A1 (ko) * 2015-08-05 2017-02-09 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
JP2018042254A (ja) * 2017-10-12 2018-03-15 ソニー株式会社 端末装置
CN111433736A (zh) * 2017-12-01 2020-07-17 雅马哈株式会社 机器控制系统、机器控制方法、以及程序
CN111433736B (zh) * 2017-12-01 2024-05-07 雅马哈株式会社 机器控制系统以及机器控制方法
JP2020191641A (ja) * 2019-02-07 2020-11-26 ソニー株式会社 端末装置
JP2021177636A (ja) * 2020-07-03 2021-11-11 ソニーグループ株式会社 端末装置
JP7243764B2 (ja) 2020-07-03 2023-03-22 ソニーグループ株式会社 車載装置、携帯端末装置、情報処理システム、車載装置の制御方法およびプログラム

Similar Documents

Publication Publication Date Title
JP2010130223A (ja) 音声操作システムおよび音声操作方法
JP5652913B2 (ja) 車載端末装置
JP6501217B2 (ja) 情報端末システム
WO2015102040A1 (ja) 音声処理装置、音声処理システム、音声処理方法、音声処理用のプログラム製品
JP5413321B2 (ja) 通信システム、車載端末、および携帯端末
JP2009300537A (ja) 音声作動システム、音声作動方法および車載装置
JP2013102373A (ja) ハンズフリー装置
JP2006154926A (ja) キャラクタ表示を利用した電子機器操作システム及び電子機器
JPWO2010092662A1 (ja) 車載情報処理装置及び方法
JP2012124578A (ja) 車載装置、車載システム及び携帯端末
US9262796B2 (en) Communication apparatus
JP2013191979A (ja) 車載器、携帯端末および携帯端末用のプログラム
JP2020154082A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP6896540B2 (ja) 車載システム
CN111731320B (zh) 智能体系统、智能体服务器及其控制方法、存储介质
JP2020144274A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP4478146B2 (ja) 音声認識システム、音声認識方法およびそのプログラム
JP2020144264A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2019159559A (ja) 情報提供装置
JP2016083984A (ja) 車載空調装置の操作装置、車載空調システム
KR20190074344A (ko) 대화 시스템 및 대화 처리 방법
US20200307620A1 (en) Agent device, agent system, method for controlling agent device, and storage medium
JP2002335342A (ja) 車両用通信装置
CN111667823A (zh) 智能体装置、智能体装置的控制方法及存储介质
KR102329888B1 (ko) 음성 인식 장치, 이를 포함하는 차량, 및 음성 인식 장치의 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111020

A521 Written amendment

Effective date: 20120618

Free format text: JAPANESE INTERMEDIATE CODE: A523

A977 Report on retrieval

Effective date: 20130307

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20130326

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Effective date: 20131001

Free format text: JAPANESE INTERMEDIATE CODE: A02