[go: up one dir, main page]

JP2015231083A - 音声合成通話システム、通信端末および音声合成通話方法 - Google Patents

音声合成通話システム、通信端末および音声合成通話方法 Download PDF

Info

Publication number
JP2015231083A
JP2015231083A JP2014115527A JP2014115527A JP2015231083A JP 2015231083 A JP2015231083 A JP 2015231083A JP 2014115527 A JP2014115527 A JP 2014115527A JP 2014115527 A JP2014115527 A JP 2014115527A JP 2015231083 A JP2015231083 A JP 2015231083A
Authority
JP
Japan
Prior art keywords
voice
unit
communication terminal
text
call
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014115527A
Other languages
English (en)
Inventor
友里 松本
Yuri Matsumoto
友里 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014115527A priority Critical patent/JP2015231083A/ja
Publication of JP2015231083A publication Critical patent/JP2015231083A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】音声通話をしていた相手と通話状態を維持しながら、一方が声を出さなくてもリアルタイムでやりとりを続けることができる、音声合成通話システム、通信端末および音声合成通話方法を提供する。【解決手段】音声合成通話システム1000は、発信者端末100(図2参照)が、テキストの入力を受け付けるテキスト入力部170と、音声通話状態を維持しつつ、テキスト入力部170によるテキスト入力に切り替える音声テキスト切替部160と、を備える。メディア処理装置(音声配信サーバ)200は、テキストを音声データに変換する音声合成部220と、変換した音声データを着信者端末300に送信する音声送信部230と、を備える。着信者端末300は、音声データを受信した場合、前記音声通話状態の音声通話と当該音声データによる音声通話とを合せて出力する。【選択図】図2

Description

本発明は、音声合成通話システム、通信端末および音声合成通話方法に関する。
特許文献1には、携帯機器各々に音声合成手段を搭載せずに、また、回線を占有することなく、携帯機器でメールの内容を自動的に読み上げる電子メール読み上げシステムが記載されている。特許文献1に記載の電子メール読み上げシステムは、音声合成エンジンが、メールサーバに着信したメールのコピーを音声ファイルに変換し、蓄積サーバに格納する。携帯機器は、メール着信通知を受けると音声ファイル要求をサーバシステムに送出して未ダウンロードの音声ファイルが蓄積サーバに存在することを確認し、ダウンロードする。
特開2007−233435号公報
特許文献1に記載の技術では、あらかじめテキスト編集ソフト等により入力された文章を着信側の携帯機器に送信し、音声合成により再生することができる。しかしながら、もともと音声通話をしていた場合には、その通話を一度切断して、メールやテキスト編集ソフトに切り替えてテキスト文章を送る処理を行わなければならない。例えば、直前まで相手と電話で通話していたが、一方の人物が電車に乗る等して、音声では話せなくなるが、相手とのやりとりは継続したい時がある。
そこで、それまでに音声通話をしていた相手と通話状態を維持しながら、一方または双方が声を出さなくてもリアルタイムでやりとりを続けられる方法が必要である。
このような背景を鑑みて本発明がなされたのであり、本発明は、音声通話をしていた端末と通話状態を維持しながら、一方が声を出さなくてもリアルタイムで音声によるやりとりを続けることができる、音声合成通話システム、通信端末および音声合成通話方法を提供することを課題とする。
前記した課題を解決するため、請求項1に記載の発明は、ネットワークに接続可能な第1および第2の通信端末を有し、前記第1および第2の通信端末は、音声配信サーバを介して音声通話を行う音声通話部を備える音声合成通話システムであって、発信側の通信端末である前記第1の通信端末は、テキストの入力を受け付けるテキスト入力部と、音声通話状態を維持しつつ、前記テキスト入力部によるテキスト入力に切り替える音声テキスト切替部と、を備え、前記第1の通信端末または前記音声配信サーバは、前記テキストを音声データに変換する音声合成部と、前記変換した音声データを、受信側の通信端末である前記第2の通信端末に送信する音声送信部と、を備え、前記第2の通信端末の前記音声通話部は、前記音声データを受信した場合、前記音声通話状態の音声通話と当該音声データによる音声通話とを合せて出力することを特徴とする音声合成通話システムとした。
また、請求項3に記載の発明は、ネットワークに接続可能な第1および第2の通信端末を有し、前記第1および第2の通信端末は、音声配信サーバを介して音声通話を行う音声合成通話システムの音声合成通話方法であって、発信側の通信端末である前記第1の通信端末は、前記音声配信サーバを介して音声通話を行うステップと、音声通話状態を維持しつつ、テキスト入力に切り替えるステップと、テキストの入力を受け付けるステップと、を実行し、前記第1の通信端末または前記音声配信サーバは、前記テキストを音声データに変換するステップと、前記変換した音声データを、受信側の通信端末である第2の通信端末に送信するステップと、を実行し、前記第2の通信端末は、前記音声データを受信した場合、前記音声通話状態の音声通話と当該音声データによる音声通話とを合せて出力するステップを実行することを特徴とする音声合成通話方法とした。
このようにすることで、本発明の音声合成通話システムによれば、それまでに音声通話をしていた相手と通話状態を維持しながら、一方または双方が声を出さなくてもリアルタイムでやりとりを続けることができる。
また、請求項2に記載の発明は、音声配信サーバを介して音声通話を行う音声通話部と、テキストの入力を受け付けるテキスト入力部と、音声通話状態を維持しつつ、前記テキスト入力部によるテキスト入力に切り替える音声テキスト切替部と、前記テキストを音声データに変換する音声合成部と、前記変換した音声データを前記音声配信サーバに送信する音声送信部と、を備えることを特徴とする通信端末とした。
このようにすることで、本発明の通信端末によれば、それまでに音声通話をしていた相手と通話状態を維持しながら、一方が声を出さなくてもリアルタイムでやりとりを続けることができる。
本発明によれば、音声通話をしていた相手と通話状態を維持しながら、一方が声を出さなくてもリアルタイムでやりとりを続けることができる、音声合成通話システム、通信端末および音声合成通話方法を提供することができる。
本発明の概要を説明するための図である。 本実施形態に係る音声合成通話システムの全体構成と処理概要を説明するための図である。 本実施形態に係る音声合成通話システムの相手先アドレス情報格納部のデータ構成例を示す図である。 本実施形態に係る音声合成通話システムの処理の流れを示すシーケンス図である。 本実施形態に係る音声合成通話システムの音声合成手段がネットワーク側にある場合の全体構成と処理概要を説明するための図である。 本実施形態に係る音声合成通話システムの音声合成手段が端末側にある場合の全体構成と処理概要を説明するための図である。
次に、本発明を実施するための形態(以下、「本実施形態」という。)における音声合成通話システム1000等について説明する。
<システム構成と処理概要>
図1は、本発明の概要を示す図である。
本実施形態に係る音声合成通話システム1000では、音声で通話していた発信者が備える端末と着信者が備える端末とが、その通話を切断せずに、一方の端末にテキスト文を入力すると、他方の端末にそのテキスト文が音声合成された音声データがリアルタイムで配信される。
ここで、本発明の音声合成手段3(後記する図2等のテキスト受信部210、音声合成部220および音声送信部230)を双方の端末側が備えることで、双方が声を出さなくてもリアルタイムでやりとりを続けることができる。なお、以下で、本発明の音声合成手段3を一方の端末が備える例について説明する。
図1に示すように、ユーザAは、音声通話/テキスト入力可能な携帯電話やスマートフォン等の通信端末1を持ち、ユーザBは、音声通話可能な携帯電話やスマートフォン等の通信端末2を持ち、音声通話を行っている。
通信端末1または通信ネットワーク(NW)2上には、音声通話の途中で通話状態を維持しながら、テキスト文を音声データに音声合成する音声合成手段3を備える。音声合成手段3は、通信端末1に内蔵した音声合成装置を利用する方法と、通信ネットワーク(NW)2上に設置された音声合成サーバを使用する方法とがある。
通信端末1(ユーザA)が、電車内等の声を出せない環境に移行しても、元々通話していた通信端末2(ユーザB)と通話状態を保持しながら、音声対音声の通話ではなくテキスト対音声の通話に切り替え、そのテキストを音声として合成し、音声によるやりとりが継続できる。
図2は、本実施形態に係る音声合成通話システム1000の全体構成と処理概要を説明するための図である。
図2に示すように、本実施形態に係る音声合成通話システム1000は、ネットワークに接続可能な発信者端末100(第1の通信端末)と、メディア処理装置200(音声配信サーバ)と、ネットワークに接続可能な着信者端末300(第2の通信端末)と、を含んで構成される。
発信者端末100は、音声通話/テキスト入力可能な携帯電話やスマートフォン等の通信端末である。発信者端末100は、受信部110と、送信部120と、相互に音声通話を行う音声通話部130と、相手先アドレス情報格納部140と、切替ボタン150と、音声テキスト切替部160と、テキスト入力部170と、を備えて構成される。
受信部110および送信部120は、受信/送信のための物理的なインタフェース(I/F)である。音声通話部130は、音声通話を行うためのソフトウェアまたはミドルウェアからなる。音声通話部130は、受信部110を介して入力された音声を受話する受話機能(後記図5の受話部101参照)と、送信部120に音声を出力する発話機能(後記図5の発話部102参照)と、を有する。
切替ボタン150は、例えば図示しない表示部の表示画面内で、任意の位置を指示するためのタッチパネルに割り当てられたソフトキーである。このタッチキーの場合、ユーザが切替ボタン150として設定されたユーザ画面155(図4参照)を指で押したり、スライドしたり、離したりすることにより各操作を指示する。また、切替ボタン150は、キーボード等のキーのほか、専用に割り当てられた機能キーであってもよい。
また、本実施形態では、テキスト入力は、スマートフォン端末やフィーチャーフォン(携帯電話)にデフォルトで内蔵されている言語入力用キーボードを利用するものとして説明する。
テキスト入力部170は、テキスト入力画面が表示され、端末付属の文字入力機能(キーパッド等)によりテキスト文を受け付ける。
音声テキスト切替部160は、音声通話状態を維持しつつ、テキスト入力に切り替える。音声テキスト切替部160は、テキスト入力部170から取得したテキスト入力結果を音声合成手段3に送信する。
音声通話部130、音声テキスト切替部160およびテキスト入力部170は、ROM(Read Only Memory)等に格納されたプログラムをCPU(Central Processing Unit)がメインメモリであるRAM(Random Access Memory)に展開し実行することで実現される。また、相手先アドレス情報格納部140は、具体的にはハードディスクやフラッシュメモリ、RAM等の記憶手段からなる。
メディア処理装置200は、ネットワーク上のメディアサーバ等である。メディア処理装置200は、音声合成手段3を含む。この音声合成手段3は、テキスト受信部210と、テキストからアナログ音声を生成する音声合成エンジンからなる音声合成部220と、テキストから変換した音声データを着信者端末300に送信する音声送信部230と、を備えて構成される。なお、図6に示すように、この音声合成手段3を発信者端末100(通信端末A)に備えるようにしてもよい。
着信者端末300は、音声通話可能な携帯電話やスマートフォン、固定電話等である。着信者端末300は、受信部310と、送信部320と、音声通話部330と、を備えて構成される。
受信部310および送信部320は、受信/送信のための物理的なインタフェース(I/F)である。音声通話部330は、音声通話を行うためのソフトウェアまたはミドルウェアからなる。音声通話部330は、受信部310を介して入力された音声を受話する受話機能(後記図5の受話部301参照)と、送信部320に音声を出力する発話機能(後記図5の発話部302参照)と、を有する。
音声通話部330は、音声データを受信した場合、音声通話状態の音声通話と音声データによる音声通話とを合せて出力する。これにより、音声通話部330は、音声データを受信した場合、音声通話状態を維持しつつ、音声データによる音声通話を継続する。
図3は、本実施形態に係る相手先アドレス情報格納部140のデータ構成例を示す図である。
図3に示すように、相手先アドレス情報格納部140には、各ユーザのユーザID141に対応付けて、相手先アドレス情報142や電話番号143等のユーザ端末識別情報が格納される。ここで、相手先アドレス情報142は、例えば、着信者端末300のIPアドレスである。また、電話番号143は、着信者端末300がスマートフォン等のように携帯電話機能を備える場合、その携帯電話番号が格納される。
以下、図2を参照して、音声合成通話システム1000の処理概要を説明する。
まず、発信者端末100は、通話確立時に、ユーザIDやその発信者端末100に固有なユーザ端末識別情報(IP(Internet Protocol)アドレスや電話番号等)を含む相手先アドレス情報を、相手先アドレス情報格納部140に保持する(図2の符号a参照)。
発信者端末100は、切替ボタン150の操作による切替指示を受け付ける(ステップS1:切替指示)。
切替指示を受信した、発信者端末100の音声テキスト切替部160は、テキスト入力部170に対してテキスト入力機能の起動指示を行う(ステップS2:起動指示)。
起動指示を受信した、発信者端末100のテキスト入力部170は、音声テキスト切替部160に入力結果を返却する(ステップS3:入力結果返却)。テキスト入力部170は、具体的には、スマートフォン端末やフィーチャーフォンにデフォルトで内蔵されている言語入力用キーボードを利用してテキスト入力を行う。
また、発信者端末100の音声テキスト切替部160は、相手先アドレス情報格納部140に保持されている相手先アドレス情報を参照する(ステップS4:相手先アドレス情報参照)。
そして、発信者端末100の音声テキスト切替部160は、メディア処理装置200に対して相手先アドレス情報を付与してテキスト入力結果を送信する(ステップS5:テキスト入力結果送信)。
次に、メディア処理装置200のテキスト受信部210は、発信者端末100からのテキスト入力結果を受信し、音声合成部220に対して、テキストデータから音声データへの変換指示を行う(ステップS6:変換指示)。
変換指示を受信した、メディア処理装置200の音声合成部220は、テキストデータを音声データに変換し、音声送信部230に対して送出指示を行う(ステップS7:送出指示)。
そして、メディア処理装置200の音声送信部230は、送出指示に従って着信者端末300に対して音声合成された音声データを送出する(ステップS8:音声データ送出)。
着信者端末300は、受信部310が送出された音声を受信し、音声通話部330は、音声通話状態の音声通話と音声データによる音声通話とを合せて出力する。
このようにすることにより、本実施形態に係る音声合成通話システム1000は、発信者端末100のユーザが、それまでに音声通話をしていた着信者端末300のユーザと通話状態を維持しながら、一方または双方が声を出さなくてもリアルタイムでやりとりを続けることができる。例えば、音声通話中に、その音声通話を継続できない状況が生じた場合に、発信者端末100のユーザは、切替ボタン150を操作してテキスト入力画面に切替え、テキスト文を入力すると、入力されたテキスト文はメディア処理装置200にリアルタイムで送出される。メディア処理装置200の音声合成部220は、テキスト文を音声データに変換し、着信者端末300にリアルタイムで送信する。
<処理の流れ>
次に、本実施形態に係る音声合成通話システム1000の処理の流れについて詳細に説明する。
図4は、本実施形態に係る音声合成通話システム1000の処理の流れを示すシーケンス図である。
図4に示すように、発信者端末100と着信者端末300との間で、通話が確立されている(ステップS101)。また、通話確立時には、発信者端末100の相手先アドレス情報格納部140に相手先アドレス情報が保持されている。
まず、発信者端末100は、通話確立時に、ユーザ画面155をタッチして切替ボタン150を押す等の切替指示を受け付け(ステップS102)、発信者端末100の音声テキスト切替部160に出力する。
音声テキスト切替部160は、発信者端末100のテキスト入力部170に対してテキスト入力機能の起動指示を行う(ステップS103)。
テキスト入力部170は、ユーザ画面155をテキスト入力が可能なテキスト入力画面に表示切替する(ステップS104)。
発信者端末100のユーザは、ユーザ画面155へのテキスト入力結果をテキスト入力部170に出力する(ステップS105)。
テキスト入力部170は、テキスト入力結果を音声テキスト切替部160に出力する(ステップS106)。
音声テキスト切替部160は、相手先アドレス情報格納部140に保持されている相手先アドレス情報を参照する(ステップS107)。
そして、音声テキスト切替部160は、メディア処理装置200のテキスト受信部210に対して相手先アドレス情報を付与してテキスト入力結果を送信する(ステップS108)。
メディア処理装置200のテキスト受信部210は、発信者端末100からのテキスト入力結果を受信し、音声合成部220に対して、テキストから音声への変換指示を行う(ステップS109)。
音声合成部220は、変換指示に従って受信したテキストデータを音声データに変換する(ステップS110)。
そして、音声合成部220は、メディア処理装置200の音声送信部230に対して送出指示を行う(ステップS111)。
音声送信部230は、送出指示に従って着信者端末300に対して音声合成された音声データを送出する(ステップS112)。
着信者端末300は、受信部310が送出された音声データを受信し、音声通話部330が、音声通話状態の音声通話と音声データによる音声通話とを合せて出力する。
[適用例1]
図5は、音声合成手段3(音声合成部220等)がネットワーク(NW)側にある場合の音声合成通話システム1000Aの全体構成と処理概要を説明するための図である。図2と同一構成部分には同一符号を付している。
図5に示すように、音声合成手段3(音声合成部220等)がNW側にある場合の音声合成通話システム1000Aは、発信者端末である通信端末100A(第1の通信端末)と、NW上の音声配信サーバ200Aと、着信者端末である通信端末300A(第2の通信端末)とを含んで構成される。
通信端末100Aは、音声通話やテキスト入力可能な携帯電話やスマートフォン等である。通信端末100Aは、受話部101(音声通話部130)、発話部102(音声通話部130)、相手先アドレス情報格納部140、切替ボタン150、音声テキスト切替部160、およびテキスト入力部170を備えて構成される。
音声配信サーバ200Aは、図2のメディア処理装置200であり、音声合成手段3を含む。この音声合成手段3は、テキスト受信部210、音声合成部220、および音声送信部230を備えて構成される。
通信端末300Aは、音声通話可能な携帯電話、スマートフォン、固定電話等である。通信端末300Aは、受話部301(音声通話部)、および発話部302(音声通話部)を備えて構成される。
以下、図5を参照して、音声合成通話システム1000Aの処理概要を説明する。
図5に示すように、通信端末100Aと通信端末300Aとの間は、通話確立しており、呼接続状態にある。この呼接続状態では、通信端末300Aの発話部302から通信端末100Aの受話部101に音声データが送信され(図5の符号a参照)、また通信端末100Aの発話部102から通信端末300Aの受話部301に音声データが送信される(図5の符号b参照)。
また、図5の符号cに示すように、通信端末100Aは、通話確立時に、ユーザIDやその通信端末に固有なユーザ端末識別情報(IPアドレスや電話番号等)を含む相手先アドレス情報を、相手先アドレス情報格納部140に保持する。
通信端末100Aは、切替ボタン150の操作による切替指示を受け付ける(ステップS1:切替指示)。例えば、通信端末100Aのユーザが画面上でボタンをクリックする等してオンにする。
切替指示を受信した、発信者端末100の音声テキスト切替部160は、テキスト入力部170に対してテキスト入力機能の起動指示を行う(ステップS2:起動指示)。
起動指示を受信した、通信端末100Aのテキスト入力部170は、音声テキスト切替部160に入力結果を返却する(ステップS3:入力結果返却)。具体的には、テキスト入力部170は、テキスト入力画面が表示され、端末付属の文字入力機能(キーパッド等)によりテキスト文を受け付ける。
また、通信端末100Aの音声テキスト切替部160は、相手先アドレス情報格納部140に保持されている相手先アドレス情報を参照する(ステップS4:相手先アドレス情報参照)。
そして、通信端末100Aの音声テキスト切替部160は、音声配信サーバ200Aに対して相手先アドレス情報を付与してテキスト入力結果を送信する(ステップS5:テキスト入力結果送信)。具体的には、音声テキスト切替部160は、送信等と描かれたボタンが押されることによりテキスト入力結果を送信する。
次に、音声配信サーバ200Aのテキスト受信部210は、通信端末100Aからのテキスト入力結果を受信し、音声合成部220に対して、テキストデータから音声データへの変換指示を行う(ステップS6:変換指示)。
変換指示を受信した、音声配信サーバ200Aの音声合成部220は、テキスト入力結果を音声データに変換し、また音声送信部230に対して送出指示を行う(ステップS7:送出指示)。
そして、音声配信サーバ200Aの音声送信部230は、送出指示に従って通信端末300Aに対して音声合成された音声データを送出する(ステップS8:音声データ送出)。
このように、音声配信サーバ200Aは、通信端末100Aからテキスト入力結果を受信した場合、音声合成部220によりテキスト入力結果を音声データに変換してから通信端末300Aに送信する。
通信端末300Aの受話部301は、音声配信サーバ200Aからの音声データを受信し、音声通話状態の音声通話(図5の符号b参照)に合せて、受信した音声データを出力する。
このようにすることにより、本実施形態に係る音声合成通話システム1000Aは、それまでに音声通話をしていた相手と通話状態を維持しながら、一方または双方が声を出さなくてもリアルタイムでやりとりを続けることができる。
また、本適用例1では、通信端末100Aが、音声合成手段3(音声合成部220等)を備えていないので、既存の携帯端末等の軽微な変更で使用することができる。したがって、通信端末100Aについては低コストで運用することができる。
[適用例2]
図6は、音声合成手段3(音声合成部220等)が端末側にある場合の音声合成通話システム1000Bの全体構成と処理概要を説明するための図である。図2および図5と同一構成部分には同一符号を付している。また、図6では、通信端末100B側にのみ音声合成手段3を備える例として説明するが、通信端末300B側に音声合成手段3を備えるようにしてもよい。このように構成すれば、双方が声を出さなくてもリアルタイムでやりとりを続けることができる。
図6に示すように、音声合成部220が端末側にある場合の音声合成通話システム1000Bは、発信者端末である通信端末100B(第1の通信端末)と、NW上の音声配信サーバ200Bと、着信者端末である通信端末300B(第2の通信端末)とを含んで構成される。なお、通信端末300Bは、図5の通信端末300Aと同一構成である。
通信端末100Bは、音声通話やテキスト入力可能な携帯電話やスマートフォン等である。通信端末100Bは、受話部101(音声通信部130)、発話部102(音声通信部130)、相手先アドレス情報格納部140、切替ボタン150、音声テキスト切替部160、テキスト入力部170、テキスト受信部210、音声合成部220、および音声送信部230を備えて構成される。
音声配信サーバ200Bは、図2のメディア処理装置200である。
以下、図6を参照して、音声合成通話システム1000Bの処理概要を説明する。
図6に示すように、通信端末100Bと通信端末300Bとの間は、通話確立しており、呼接続状態にある。この呼接続状態では、通信端末300Bの発話部302から通信端末100Bの受話部101に音声データが送信され(図6の符号a参照)、また通信端末100Bの発話部102から通信端末300Bの受話部301に音声データが送信される(図6の符号b参照)。
また、図6の符号cに示すように、通信端末100Bは、通話確立時に、ユーザIDやその通信端末に固有なユーザ端末識別情報(IPアドレスや電話番号等)を含む相手先アドレス情報を、相手先アドレス情報格納部140に保持する。
通信端末100Bは、切替ボタン150の操作による切替指示を受け付ける(ステップS1:切替指示)。例えば、通信端末100Bのユーザが画面上でボタンをクリックする等してオンにする。
切替指示を受信した、通信端末100Bの音声テキスト切替部160は、テキスト入力部170に対してテキスト入力機能の起動指示を行う(ステップS2:起動指示)。
起動指示を受信した、通信端末100Bのテキスト入力部170は、音声テキスト切替部160に入力結果を返却する(ステップS3:入力結果返却)。具体的には、テキスト入力部170は、テキスト入力画面が表示され、端末付属の文字入力機能(キーパッド等)によりテキスト文を受け付ける。
また、通信端末100Bの音声テキスト切替部160は、相手先アドレス情報格納部140に保持されている相手先アドレス情報を参照する(ステップS4:相手先アドレス情報参照)。
そして、通信端末100Bの音声テキスト切替部160は、テキスト受信部210に対して相手先アドレス情報を付与してテキスト入力結果を出力する(ステップS5:テキスト入力結果出力)。具体的には、音声テキスト切替部160は、送信等と描かれたボタンが押されることにより、テキスト入力結果を送信する。
次に、テキスト受信部210は、音声テキスト切替部160からのテキスト入力結果を受信し、音声合成部220に対して、テキストデータから音声データへの変換指示を行う(ステップS6:変換指示)。
変換指示を受信した、音声合成部220は、テキスト入力結果を音声データに変換し、また音声送信部230に対して送出指示を行う(ステップS7:送出指示)。
そして、音声送信部230は、送出指示に従って通信端末300Bに向けて音声合成された音声データを送出する(ステップS8:音声データ送出)。
このように、通信端末100Bは、音声合成部220によりテキスト入力結果を音声データに変換してから通信端末300Bに送信する。
通信端末300Bの受話部301は、音声配信サーバ200Bからの音声データを受信し、音声通話状態の音声通話(図6の符号b参照)に合せて、受信した音声データを出力する。
このようにすることにより、本実施形態に係る音声合成通話システム1000Bは、それまでに音声通話をしていた相手と通話状態を維持しながら、一方または双方が声を出さなくてもリアルタイムでやりとりを続けることができる。
また、本適用例2では、通信端末100Bが、音声合成手段3(音声合成部220等)を備えるので、新たな機能を有する音声配信サーバ200Bを導入することなく、既存のサーバをそのまま使用することができる。したがって、音声配信サーバ200Bについては低コストでシステムを構築することができる。
以上説明したように、本実施形態に係る音声合成通話システム1000は、発信者端末100(図2参照)が、テキストの入力を受け付けるテキスト入力部170と、音声通話状態を維持しつつ、テキスト入力部170によるテキスト入力に切り替える音声テキスト切替部160と、を備える。メディア処理装置(音声配信サーバ)200は、テキストを音声データに変換する音声合成部220と、変換した音声データを着信者端末300に送信する音声送信部230と、を備える。着信者端末300は、音声データを受信した場合、音声通話状態の音声通話と当該音声データによる音声通話とを合せて出力する。これにより、音声通話中に、その音声通話を継続できない状況が生じた場合に、発信者端末100のユーザは、切替ボタン150を操作してテキスト入力画面に切替え、テキスト文を入力すると、音声合成部220は、テキスト文を音声データに変換し、音声送信部230が着信者端末300にリアルタイムで送信する。
したがって、音声通話の途中で通話状態を維持しながら、テキスト対音声の通話に切り替えることで、通話相手が車内などの声を出せない環境に移行しても会話を継続することができる。すなわち、元々通話していた相手と通話状態を保持しながら、やりとりが継続できる。通話相手から見ても、切り替え前と変わらず音声通話でやりとりが継続できる。
3 音声合成手段
100 発信者端末(第1の通信端末)
100A,100B 通信端末(第1の通信端末)
101,301 受話部(音声通話部)
102,302 発話部(音声通話部)
110,310 受信部
120,320 送信部
130,330 音声通話部
140 相手先アドレス情報格納部
150 切替ボタン
160 音声テキスト切替部
170 テキスト入力部
200 メディア処理装置(音声配信サーバ)
200A,200B 音声配信サーバ
210 テキスト受信部
220 音声合成部
230 音声送信部
300 着信者端末(第2の通信端末)
300A,300B 通信端末(第2の通信端末)
1000,1000A,1000B 音声合成通話システム

Claims (3)

  1. ネットワークに接続可能な第1および第2の通信端末を有し、前記第1および第2の通信端末は、音声配信サーバを介して音声通話を行う音声通話部を備える音声合成通話システムであって、
    発信側の通信端末である前記第1の通信端末は、
    テキストの入力を受け付けるテキスト入力部と、
    音声通話状態を維持しつつ、前記テキスト入力部によるテキスト入力に切り替える音声テキスト切替部と、を備え、
    前記第1の通信端末または前記音声配信サーバは、
    前記テキストを音声データに変換する音声合成部と、
    前記変換した音声データを、受信側の通信端末である前記第2の通信端末に送信する音声送信部と、を備え、
    前記第2の通信端末の前記音声通話部は、
    前記音声データを受信した場合、前記音声通話状態の音声通話と当該音声データによる音声通話とを合せて出力すること
    を特徴とする音声合成通話システム。
  2. 音声配信サーバを介して音声通話を行う音声通話部と、
    テキストの入力を受け付けるテキスト入力部と、
    前記音声通話状態を維持しつつ、前記テキスト入力部によるテキスト入力に切り替える音声テキスト切替部と、
    前記テキストを音声データに変換する音声合成部と、
    前記変換した音声データを、前記音声配信サーバに送信する音声送信部と、を備えること
    を特徴とする通信端末。
  3. ネットワークに接続可能な第1および第2の通信端末を有し、前記第1および第2の通信端末は、音声配信サーバを介して音声通話を行う音声合成通話システムの音声合成通話方法であって、
    発信側の通信端末である前記第1の通信端末は、
    音声配信サーバを介して音声通話を行うステップと、
    音声通話状態を維持しつつ、テキスト入力に切り替えるステップと、
    テキストの入力を受け付けるステップと、を実行し、
    前記第1の通信端末または前記音声配信サーバは、
    前記テキストを音声データに変換するステップと、
    前記変換した音声データを受信側の通信端末である第2の通信端末に送信するステップと、を実行し、
    前記第2の通信端末は、
    前記音声データを受信した場合、前記音声通話状態の音声通話と当該音声データによる音声通話とを合せて出力するステップを実行すること
    を特徴とする音声合成通話方法。
JP2014115527A 2014-06-04 2014-06-04 音声合成通話システム、通信端末および音声合成通話方法 Pending JP2015231083A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014115527A JP2015231083A (ja) 2014-06-04 2014-06-04 音声合成通話システム、通信端末および音声合成通話方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014115527A JP2015231083A (ja) 2014-06-04 2014-06-04 音声合成通話システム、通信端末および音声合成通話方法

Publications (1)

Publication Number Publication Date
JP2015231083A true JP2015231083A (ja) 2015-12-21

Family

ID=54887684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014115527A Pending JP2015231083A (ja) 2014-06-04 2014-06-04 音声合成通話システム、通信端末および音声合成通話方法

Country Status (1)

Country Link
JP (1) JP2015231083A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020150386A (ja) * 2019-03-13 2020-09-17 Necプラットフォームズ株式会社 音声通話システム、音声通話制御装置、音声通話プログラム、及び音声通話方法
JP7577700B2 (ja) 2022-02-01 2024-11-05 Kddi株式会社 オンライン会議中に発話できないユーザを補助するプログラム、端末及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020150386A (ja) * 2019-03-13 2020-09-17 Necプラットフォームズ株式会社 音声通話システム、音声通話制御装置、音声通話プログラム、及び音声通話方法
JP7577700B2 (ja) 2022-02-01 2024-11-05 Kddi株式会社 オンライン会議中に発話できないユーザを補助するプログラム、端末及び方法

Similar Documents

Publication Publication Date Title
US7792253B2 (en) Communications involving devices having different communication modes
US20040204068A1 (en) Mobile communication system and method, mobile communication terminal, server apparatus and program
CN104869216A (zh) 接打电话的方法和移动终端
JP6218568B2 (ja) 通信装置、通信システム、通信方法、および通信プログラム
US20050049879A1 (en) Communication device capable of interworking between voice communications and text communications
CN101867641A (zh) 信息显示暨回复的系统及其方法
CA2796598C (en) Communication device, method and system for providing previews of voice calls
JP2015231083A (ja) 音声合成通話システム、通信端末および音声合成通話方法
JP2007201906A (ja) 携帯端末装置及び画像表示方法
WO2008071939A1 (en) Improved text handling for mobile devices
JP6805663B2 (ja) 通信装置、通信システム、通信方法及びプログラム
JP4569655B2 (ja) 情報通信端末
JP5136823B2 (ja) 定型メッセージ機能付きPoCシステム、通信方法、通信プログラム、端末、PoCサーバ
JP5440828B2 (ja) 処理装置および処理制御方法
KR100691861B1 (ko) Pc를 이용한 휴대 단말기의 호 제어 시스템 및 방법
JP2010193391A (ja) 通話システム、通話方法、通話プログラム、電話端末及び交換機
JP5119813B2 (ja) 通話中に電話帳機能を操作出来る電話装置
JP2007165991A (ja) 携帯電話機および移動交換機
JP2006270891A (ja) メッセージ変換システム、メッセージ変換方法及びプログラム
KR102128814B1 (ko) 보이스 메일로 정보를 전송하기 위한 방법 및 그 전자 장치
JP2006295468A (ja) 携帯通信端末装置
JP6659066B1 (ja) 音声通話システム、音声通話制御装置、音声通話プログラム、及び音声通話方法
JP6521397B2 (ja) 電話システム、電話機、及び電話転送方法
KR20050075569A (ko) 전화번호 전송 기능을 가지는 무선통신단말기 및 그 방법
JP2006060431A (ja) 携帯電話端末および携帯電話端末におけるメール受信通報方法