JP2015173857A - Electronic apparatus and information processing method - Google Patents
Electronic apparatus and information processing method Download PDFInfo
- Publication number
- JP2015173857A JP2015173857A JP2014053231A JP2014053231A JP2015173857A JP 2015173857 A JP2015173857 A JP 2015173857A JP 2014053231 A JP2014053231 A JP 2014053231A JP 2014053231 A JP2014053231 A JP 2014053231A JP 2015173857 A JP2015173857 A JP 2015173857A
- Authority
- JP
- Japan
- Prior art keywords
- person
- animal
- past
- image
- existed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 4
- 238000003672 processing method Methods 0.000 title claims description 4
- 241001465754 Metazoa Species 0.000 claims abstract description 86
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 28
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 28
- 230000008921 facial expression Effects 0.000 claims description 38
- 230000014509 gene expression Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 19
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 230000006855 networking Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 abstract description 20
- 230000006870 function Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 7
- 206010037180 Psychiatric symptoms Diseases 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000033764 rhythmic process Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 229910052698 phosphorus Inorganic materials 0.000 description 2
- 239000011574 phosphorus Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明の実施形態は、音声や画像を処理する電子機器、及び該機器に適用される情報処理方法に関する。 Embodiments described herein relate generally to an electronic device that processes sound and images, and an information processing method applied to the device.
仏壇のような祭礼用具は、例えば、家族が亡くなったときに購入され、残された家族が亡くなった家族を供養するために用いられている。また、近年では、死んだペットのための仏壇も普及してきている。このような仏壇には、戒名や遺影のような故人情報を表示できるものも提案されている。 Festival utensils such as Buddhist altars are purchased, for example, when a family dies, and are used to provide for the family where the remaining family has died. In recent years, Buddhist altars for dead pets have become popular. Such Buddhist altars have also been proposed that can display deceased information such as ritual names and relics.
しかし仏壇では、残された家族が、仏壇に向かって亡くなった家族や死んだペットを供養するためのお参りを行うことはできたとしても、その残された家族(特に、一人暮らしの高齢者)の孤独感や悲しみを軽減することは難しい。したがって、残された家族の孤独感や悲しみを軽減するために、過去に存在した人や動物(ペット)との擬似的なコミュニケーションを実現することが期待される場合がある。 However, in the Buddhist altar, even if the remaining family was able to make a visit to feed the family who died towards the Buddhist altar or the dead pet, the remaining family (especially the elderly living alone) It is difficult to reduce loneliness and sadness. Therefore, in order to reduce the loneliness and sadness of the remaining family, it may be expected to realize pseudo communication with people and animals (pets) that existed in the past.
本発明は、過去に存在した人や動物との擬似的なコミュニケーションを実現できる電子機器及び情報処理方法を提供することを目的とする。 An object of this invention is to provide the electronic device and information processing method which can implement | achieve pseudo | simulation communication with the person and animal which existed in the past.
実施形態によれば、電子機器は、記憶手段と音声認識手段と音声合成手段とを具備する。記憶手段は、過去に存在した人又は動物に関する情報を記憶する。音声認識手段は、ユーザの発話内容に応答するためのセンテンスを生成する。音声合成手段は、前記記憶手段に記憶した情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する。 According to the embodiment, the electronic device includes a storage unit, a voice recognition unit, and a voice synthesis unit. The storage means stores information on a person or animal that has existed in the past. The voice recognition means generates a sentence for responding to the user's utterance content. The voice synthesizing unit synthesizes the human or animal voice based on the information stored in the storage unit and the generated sentence.
以下、実施の形態について図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.
まず、図1を参照して、一実施形態に係る電子機器を備える、過去に存在した人(故人)との対話システムの概要を説明する。この電子機器は、例えば、タブレットコンピュータ、ノートブック型のパーソナルコンピュータ、スマートフォン、PDA、デジタルテレビジョン受信機、または各種電子機器に内蔵される組み込みシステムとして実現され得る。以下では、この電子機器がタブレットコンピュータ2として実現されている場合を想定する。
First, with reference to FIG. 1, the outline | summary of the dialogue system with the person (deceased) who existed in the past provided with the electronic device which concerns on one Embodiment is demonstrated. This electronic device can be realized as, for example, a tablet computer, a notebook personal computer, a smartphone, a PDA, a digital television receiver, or an embedded system incorporated in various electronic devices. Below, the case where this electronic device is implement | achieved as the
本タブレットコンピュータ2は、例えば仏壇1や墓石のような、亡くなった人を供養するための祭礼用具に組み込まれている。タブレットコンピュータ2は仏壇1に固定されるものであってもよいし、仏壇1に対して取り外し可能に設置されるものであってもよい。つまり、タブレットコンピュータ2は、仏壇1に組み込まれた状態で提供(販売)されてもよいし、従来の仏壇1(例えば、家庭に既にある仏壇)にオプションとして設置されるようにしてもよい。
The
タブレットコンピュータ2には、AC外部電源又はバッテリーから電力が供給される。仏壇1内のタブレットコンピュータ2を設置する位置には、タブレットコンピュータ2にAC外部電源からの電力を供給し、バッテリーを充電するためのクレードル(充電器)が設けられていてもよい。
The
タブレットコンピュータ2は、カメラ16、タッチスクリーンディスプレイ17、スピーカー18A,18B、及びマイク19A,19Bを備える。カメラ16は、仏壇1にお参りする人の画像(顔画像)、すなわち、カメラ16の前方にいる人の画像を取得する。マイク19A,19Bは、その人の発話による音声を取得する。タブレットコンピュータ2は、取得されたお参りする人の画像と音声とに基づいて、亡くなった人との人工的な(擬似的な)対話のために、亡くなった人の顔画像を合成し、亡くなった人の音声を合成する。そして、タブレットコンピュータ2は、合成された顔画像と合成された音声とを用いて、顔画像をタッチスクリーンディスプレイ17の画面に表示し、音声をスピーカー18A,18Bから出力する。なお、タッチスクリーンディスプレイ17の画面には、亡くなった人の画像だけでなく、位牌、花立、火立、香炉、供物、花仏水器、りん、等の仏具の画像が表示されてもよい。
The
これによりユーザは、対話技術が融合された仏壇1によって、亡くなった人との擬似的なコミュニケーションを図ることができるので、悲しみや孤独感を軽減することができる。 As a result, the user can achieve pseudo communication with the deceased person by the Buddhist altar 1 in which the dialogue techniques are integrated, so that sadness and loneliness can be reduced.
なお、お参りする人の画像と音声とに基づいて、亡くなった人の顔画像を合成する処理と亡くなった人の音声を合成する処理とは、クラウドサーバ3に設けられた対話エンジンによって実行されてもよい。その場合、タブレットコンピュータ2は、取得されたお参りする人の画像と音声のデータを、ネットワークを介してクラウドサーバ3に送信する。そして、タブレットコンピュータ2は、クラウドサーバ3によって合成された、亡くなった人の顔画像と音声のデータを受信し、そのデータを用いて、亡くなった人の顔画像をタッチスクリーンディスプレイ17の画面に表示し、亡くなった人の音声をスピーカー18A,18Bから出力する。
Note that the process of synthesizing the face image of the deceased person and the process of synthesizing the sound of the deceased person based on the image and sound of the visiting person are executed by the dialogue engine provided in the cloud server 3. Also good. In this case, the
また、図2に示すように、仏壇1は、死んだ動物を供養するための仏壇であってもよい。タブレットコンピュータ2は、取得されたお参りする人の画像と音声とを用いて、死んだ動物との人工的な(擬似的な)コミュニケーションのために、その動物の画像(顔画像又は全身画像)を合成し、その動物の音声を合成する。そして、タブレットコンピュータ2は、合成された画像と合成された音声とを用いて、画像をタッチスクリーンディスプレイ17の画面に表示し、音声をスピーカー18A,18Bから出力する。
In addition, as shown in FIG. 2, the altar 1 may be an altar for feeding dead animals. The
次いで、図3を参照して、ユーザ(お参りする人)と、過去に存在した人や動物との擬似的な対話(コミュニケーション)が開始されるトリガの例を説明する。 Next, an example of a trigger for starting a pseudo dialogue (communication) between a user (person who visits) and a person or animal that has existed in the past will be described with reference to FIG.
タブレットコンピュータ2は、例えば、カメラモジュール16によって取得される画像からユーザの顔画像が検出された場合に対話を開始する。また、タブレットコンピュータ2は、例えば、マイク19A,19Bによって取得される音声からユーザによる発話が検出された場合に対話を開始する。なお、検出される発話は、亡くなった人や死んだ動物の名前の呼びかけのような、所定の言葉を含む発話であってもよい。
For example, the
さらに、タブレットコンピュータ2は、例えば、マイク19A,19Bによって取得される音声から、仏壇1の近傍に配置される「りん」5の音が検出された場合に、亡くなった人や死んだ動物との対話を開始してもよい。また、通信機能を有する「りん」5とタブレットコンピュータ2との間で、Bluetooth(登録商標)のような通信接続(有線又は無線)を確立し、ユーザが「りん」5を使用した操作に応じて、対話の開始を要求する信号がタブレットコンピュータ2に送信されるようにしてもよい。
Furthermore, when the sound of “Rin” 5 arranged in the vicinity of the Buddhist altar 1 is detected from the sound acquired by the
図4は、タブレットコンピュータ2のシステム構成を示す図である。
タブレットコンピュータ2は、図4に示されるように、CPU100、システムコントローラ101、タッチコントローラ102、メモリ103、表示コントローラ104、BIOS−ROM105、エンベデッドマルチメディアカード(eMMC)106、電源管理IC(PMIC)108、Audio Codec110、3G/LTEモジュール111、LANモジュール112、BTモジュール113、カードコントローラ114、USBコネクタ115、カメラモジュール16、等を備える。
FIG. 4 is a diagram showing a system configuration of the
As shown in FIG. 4, the
CPU100は、タブレットコンピュータ2内の各種コンポーネントの動作を制御するプロセッサーである。CPU100は、ストレージデバイスであるeMMC106からメモリ103にロードされる各種ソフトウェアを実行する。eMMC106は、フラッシュメモリを利用した、組み込み機器向けの外部記憶装置であり、マルチメディアカード(MMC)と同一のインタフェースで外部と接続される。ソフトウェアには、オペレーティングシステム(OS)201、及び各種アプリケーションプログラムが含まれている。また、アプリケーションプログラムには、対話アプリケーションプログラム202が含まれている。この対話アプリケーションプログラム202は、例えば、タブレットコンピュータ2を使用するユーザ(例えば、仏壇1にお参りする人)に、過去に存在した人や動物との擬似的な対話を提供する機能を有する。
The
また、CPU100は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
The
システムコントローラ101は、CPU100のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ101には、メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ101は、PCI EXPRESS規格のシリアルバスなどを介して表示コントローラ104との通信を実行する機能も有している。
The
表示コントローラ104は、本タブレットコンピュータ2のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。この表示コントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上にはタッチパネル17Bが配置されている。タッチコントローラ102は、タッチパネル17B上での指等を用いた操作に応じて、タッチパネル17B上の操作位置を示す操作信号をシステムコントローラ101に出力する。
The
さらに、システムコントローラ101は、Audio Codec110との通信を実行する機能も有している。Audio Codec110は、マイク19A,19Bによって検出された音声(例えば、ユーザが発話したことによる音声)を符号化することによって、所定の形式のオーディオデータを生成する。また、Audio Codec110は、再生対象のオーディオデータを復号し、復号された音声をスピーカー18A,18Bから出力する。システムコントローラ101は、USBコネクタ115に接続されたUSB2.0規格のケーブルを介して外部機器との通信を実行するためのUSBコントローラも内蔵している。
Furthermore, the
PMIC108は、AC又はバッテリー108Aから供給される電力を管理するためのワンチップマイクロコンピュータである。PMIC108は、ユーザによるパワーボタンの操作に応じて本タブレットコンピュータ2を電源オン又は電源オフする機能を有している。
The
カメラモジュール16は、画像を撮影し、撮影された画像のデータをシステムコントローラ101に出力する。カメラモジュール16は、動画像(映像)のような、連続した複数の画像を撮影することもできる。
The
3G/LTEモジュール111は、アンテナ111Aを介して、3G移動通信又はLTE通信を実行するように構成されたデバイスである。LANモジュール112は、アンテナ112Aを介して、例えばIEEE 802.11g規格の無線通信や、IEEE 802.3規格の有線通信を実行する通信デバイスである。Bluetoothモジュール110は、アンテナ113Aを介して、外部機器とのBluetooth通信を実行する通信デバイスである。
The 3G /
カードコントローラ114は、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。人感センサ116は、例えば、タブレットコンピュータ2の画面の前方に人が存在するか否かを検出するセンサである。
The card controller 114 writes and reads data to and from a memory card such as an SD card inserted into a card slot provided in the computer main body 11. The
次いで、図5を参照して、本タブレットコンピュータ2によって実行される対話アプリケーションプログラム202の機能構成を説明する。上述したように、対話アプリケーションプログラム202は、例えば、タブレットコンピュータ2を使用するユーザ(例えば、仏壇1にお参りする人)に、過去に存在した人や動物との擬似的な対話を提供する機能、等を有する。対話アプリケーションプログラム202は、音声認識部302、意図理解部303、顔・人物認識部305、表情認識部306、対話制御部307、音声合成部308、顔生成部310、表情合成部311、等を備える。
Next, the functional configuration of the
まず、音声認識部302及び顔・人物認識部305は、過去に存在した人や動物との対話が要求されたか否かを判定する。音声認識部302は、例えば、マイク19A,19Bによって生成された音声から所定の音声が検出された場合に、過去に存在した人との対話が要求されたことを決定する。顔・人物認識部305は、例えば、カメラモジュール16で撮影された画像から人が検出された場合に、過去に存在した人との対話が要求されたことを決定する。なお、人感センサ116によって人が検出された場合に、過去に存在した人との対話が要求されたことが決定されてもよい。
First, the
過去に存在した人との対話が要求されている場合、マイク19A,19Bを用いた音声入力301によって、ユーザの発話による音声(音声データ)が入力され、カメラモジュール16を用いた画像入力304によって、当該ユーザの画像(画像データ)が入力される。音声認識部302、意図理解部303及び対話制御部307は、ユーザの発話内容に応答するためのセンテンスを生成する。音声合成部308は、データベース404〜414に記憶された、亡くなった人又は動物(すなわち、過去に存在した人又は動物)に関する情報と、生成されたセンテンスとに基づいて、その亡くなった人又は動物の音声を合成する。また、顔生成部310及び表情合成部311は、データベース404〜414に記憶された、亡くなった人又は動物に関する情報と、生成されたセンテンスとに基づいて、その亡くなった人又は動物の画像(顔画像)を合成する。
When dialogue with a person who has existed in the past is requested, voice (voice data) from the user's utterance is inputted by
音声認識部302は、音声認識辞書401を用いて、ユーザの発話による音声に音声認識処理を施すことによって、音声に対応するテキストを生成する。音声認識辞書401には、例えば、言葉の音の最小単位である音素と特徴量との対応を示す情報と、音素列と単語との対応を示す情報とが含まれている。
The
より具体的には、まず、音声認識部302は音声から雑音を除去し、特徴量を算出する。音声認識部302は、音声認識辞書401を用いて、算出された特徴量に基づいて音声に対応する音素列を生成する。そして、音声認識部302は、音声認識辞書401を用いて、変換された音素列に対応する単語を決定する。なお、音声認識部302は、音素列に対応する複数の単語の候補を決定し、連続する単語のつながりの尤もらしさに基づいて、音素列に対応する単語列(テキスト)を決定するようにしてもよい。
More specifically, first, the
次いで、意図理解部303は、知識データベース402と意図理解データベース403とを用いて、生成されたテキスト(単語列)の意図を検出する。知識データベース402は、単語に対応する内容や特徴のような知識を示す情報を含む。意図理解データベース403は、単語に対応する知識を示す情報から、テキスト(単語列)の内容(意図)を決定するための情報を含む。意図理解部303は、例えば、生成されたテキストが、挨拶の言葉であることや、過去に存在した人や動物の名前の呼びかけであることを検出する。
Next, the
また、顔・人物認識部305は、顔/表情データベース404を用いて、入力されたユーザの画像に顔認識処理を施すことによって、画像から顔画像の領域を検出し、当該顔画像に対応する人物を決定する。そして、表情認識部306は、顔/表情データベース404を用いて、ユーザの顔画像に表情認識処理を施すことによって、顔画像に対応する表情を決定する。顔/表情データベース404には、例えば、タブレットコンピュータ2を使用する1以上の人物に対応する顔画像を示す情報と表情を識別するための情報とが格納されている。これら情報は、画像自体ではなく、例えば特徴量として格納されている。
In addition, the face /
より具体的には、顔・人物認識部302は、ユーザの顔画像を用いて、人物を認識するための特徴量を算出する。そして、顔・人物認識部302は、算出された特徴量と、顔/表情データベース404に格納された人物の顔画像に対応する特徴量との類似度を算出し、顔/表情データベース404に顔画像が格納されている人物から、最も高い類似度を有する顔画像の人物を決定する。
More specifically, the face /
表情認識部306は、ユーザの顔画像に対応する表情を識別する。識別される表情には、例えば、喜び、驚き、恐怖、嫌悪、怒り、悲しみ、無表情、等の複数の表情が含まれる。表情認識部306は、ユーザの顔画像を用いて、表情を認識するための特徴量を算出する。表情認識部306は、ユーザの顔画像に対応する特徴量と、各表情に対応する特徴量との類似度を算出し、複数の表情から、最も高い類似度を有する表情を決定する。
The
次いで、対話制御部307は、ユーザの発話内容に応答するためのセンテンスを生成する。対話制御部307は、ユーザの発話による音声に対応するテキストと、データベース405〜410に格納された、過去に存在した人又は動物に関する情報とに基づいて、ユーザの発話内容に応答するためのセンテンスを生成する。また、音声合成部308は、データベース411〜413に格納された、過去に存在した人又は動物に関する情報と、生成されたセンテンスとに基づいて、過去に存在した人又は動物の音声を合成する。つまり、対話制御部307及び音声合成部308は、ユーザの発話による音声に対応するテキストと、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の音声を合成する。
Next, the
なお、対話制御部307は、ユーザの発話による音声に対応するテキストと、ユーザの顔画像に対応する人物と、当該顔画像に対応する表情と、過去に存在した人又は動物に関する情報とに基づいて、ユーザの発話内容に応答するためのセンテンスを生成してもよい。つまり、対話制御部307及び音声合成部308は、ユーザの発話による音声に対応するテキストと、ユーザの顔画像に対応する人物と、当該顔画像に対応する表情と、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の音声を合成してもよい。
The
また、顔生成部310及び表情合成部311は、データベース414に格納された、過去に存在した人又は動物に関する情報と、対話制御部307によって生成されたセンテンスとに基づいて、過去に存在した人又は動物の画像を合成する。つまり、対話制御部307、顔生成部310及び表情合成部311は、ユーザの発話による音声に対応するテキストと、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の画像を合成する。なお、対話制御部307、顔生成部310及び表情合成部311は、ユーザの発話による音声に対応するテキストと、ユーザの顔画像に対応する人物と、ユーザの顔画像に対応する表情と、過去に存在した人又は動物に関する情報とに基づいて、過去に存在した人又は動物の画像を合成してもよい。
In addition, the
より具体的には、ユーザが過去に存在した人(亡くなった人)と対話しようとする場合、対話制御部307は、家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、雑談用データベース408、会話履歴データベース409、及び会話人物データベース410の少なくとも一つを用いて、意図理解部303によって検出されたテキストの意図と、ユーザの顔画像から決定された人物及び表情とに基づいて、ユーザの発話内容に応答するためのセンテンス(文章)を生成する。
More specifically, when the user wants to talk with a person who has existed in the past (a person who died), the
家族/人物データベース405は、過去に存在した人の家族構成を示す家系図と友人関係とを示す情報や、過去に存在した動物(ペット)と家族等との関係を示す情報を含む。故人嗜好データベース406は、過去に存在した人の趣味、好きなもの、嫌いなもの、等を示す情報や、過去に存在した動物の好きなもの、嫌いなもの、等を示す情報を含む。故人経験データベース407は、過去に存在した人が経験した出来事や過去に存在した動物との思い出を示す情報を含む。雑談用データベース408は、雑談に用いられ得る会話や言葉を示す情報を含む。会話履歴データベース409は、過去に存在した人との会話の履歴を示す情報や、過去に存在した動物に話しかけた言葉の履歴を示す情報を含む。会話人物データベース410は、ユーザ(すなわち、過去に存在した人や動物と対話する人)に関する情報(例えば、年齢、性別、職業、趣味、等)を含む。
The family / person database 405 includes information indicating a family tree showing a family structure of a person who has existed in the past and a friend relationship, and information indicating a relationship between an animal (pet) and a family existing in the past. The deceased
なお、対話制御部307は、ニュースや天気のような新たな情報や、現在の日付(例えば、日付に対応する季節、日付に対応するイベント)をさらに用いて、ユーザの発話内容に応答するためのセンテンスを生成してもよい。
The
そして、音声合成部308は、合成辞書411、似声データベース412及び話方データベース413を用いて、対話制御部307によって生成されたセンテンスを音声出力するための、過去に存在した人の音声を合成する。合成辞書411は、単語と音素列との対応を示す情報と、音素と音声信号(音声データ)との対応を示す情報とを含む。似声データベース412は、過去に存在した人の声(声質)を示す情報や、過去に存在した動物の鳴き声の声質を示す情報を含む。話方データベース413は、過去に存在した人の話し方のイントネーションやリズムを示す情報や、過去に存在した動物の鳴き方のリズムを示す情報を含む。
The
また、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成されたセンテンスと、決定された人物及び表情とに基づいて、過去に存在した人の顔画像を合成する。故人顔/表情データベース414は、過去に存在した人の顔画像と様々な表情(例えば、喜び、驚き、恐怖、嫌悪、怒り、悲しみ、無表情、等)とを示す情報や、死んだ動物の画像(顔画像)と様々な表情や仕種とを示す情報を含む。
In addition, the
なお、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成されたセンテンスと、決定された人物及び表情とに基づいて、合成された音声に応じて変化する過去に存在した人の動画像(顔の動画像)を合成してもよい。顔生成部310及び表情合成部311は、例えば、合成された音声の抑揚やリズム、当該音声で話される内容に応じて、表情が変化する動画像を合成する。
The
次いで、スピーカー18A,18Bを用いた音声出力309によって、スピーカー18A,18Bから合成された故人の音声が出力され、LCD17Aを用いた顔出力(画像出力)312によって、LCD17Aの画面に合成された故人の顔画像が表示される。
Next, the voice of the deceased synthesized from the
上述した家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、会話履歴データベース409、会話人物データベース410、似声データベース412、話方データベース413、故人顔/表情データベース414は、例えば、人が亡くなる前や動物が死ぬ前に予め収集された画像、音声(会話の音声)、テキスト等を含むライフログや、その人が回答したアンケート結果等を用いて作成される。ライフログでは、例えば、日付、イベント、画像、一緒にいた人、場所、等が関連付けて記録されていることがある。このような情報を用いて、亡くなった人の思い出や経験、特徴を表す情報、又は過去に存在した動物との思い出や特徴を表す情報が格納されたデータベース405〜407、409、410、412〜414を構築することができる。
The above-mentioned family / person database 405, deceased
また、これらデータベース405〜407、409、410、412〜414は、人が亡くなった後や動物が死んだ後に、その人や動物(又は動物の飼い主)に関連するソーシャルネットワーキングサービス(SNS)のサイト(例えば、Facebook(登録商標)、Twitter(登録商標)、各種のブログ、等)、ローカルやネットワーク上のストレージ、等に保存された画像、映像、音声、テキスト、等の情報を用いて作成されてもよい。ソーシャルネットワーキングサービスのサイトでも、例えば、日付、イベント、画像、一緒にいた人、場所、等が関連付けて記録されていることがあり、このような情報を用いてデータベース405〜407、409、410、412〜414を構築することができる。
このようなデータベースを用いることにより、過去に存在した人や動物とのより現実的な対話(コミュニケーション)を実現するができる。
These databases 405 to 407, 409, 410, 412 to 414 are sites of social networking services (SNS) related to the person or animal (or the owner of the animal) after the death of the person or the animal. (For example, Facebook (registered trademark), Twitter (registered trademark), various blogs, etc.), created using information such as images, video, audio, text, etc. stored locally or on a network storage May be. Even in a site of a social networking service, for example, a date, an event, an image, a person who was together, a place, and the like may be recorded in association with each other, and using such information, the databases 405 to 407, 409, 410, 412 to 414 can be constructed.
By using such a database, a more realistic dialogue (communication) with people and animals that existed in the past can be realized.
また、ユーザが過去に存在した動物と対話しようとする場合、対話制御部307は、家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、雑談用データベース408、会話履歴データベース409、及び会話人物データベース410の少なくとも一つを用いて、意図理解部303によって検出されたテキストの意図と、ユーザの顔画像から決定された人物及び表情とに基づいて、ユーザに応答するための鳴き声(鳴き方)や仕種を決定する。そして、音声合成部308は、似声データベース412及び話方データベース413を用いて、対話制御部307によって決定された鳴き声を音声出力するための、過去に存在した動物の鳴き声を合成する。
When the user tries to talk with an animal that has existed in the past, the
また、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、決定された鳴き声及び仕種と、ユーザの顔画像から決定された人物及び表情とに応じた、過去に存在した動物の画像を合成する。顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成されたセンテンスと、ユーザの顔画像から決定された人物及び表情とに基づいて、合成された音声に応じて変化する動物の動画像を合成してもよい。顔生成部310及び表情合成部311は、例えば、合成された音声の抑揚やリズム、当該音声の内容に応じて、表情や仕種が変化する動画像を合成する。
In addition, the
そして、スピーカー18A,18Bを用いた音声出力309によって、スピーカー18A,18Bから合成された動物の音声が出力され、LCD17Aを用いた顔出力(画像出力)312によって、LCD17Aの画面上に合成された動物の画像が表示される。
Then, the audio of the animal synthesized from the
なお、1つの仏壇1で、複数の過去に存在した人や動物のそれぞれとの対話が行われる場合も想定される。その場合、対話制御部307は、対話しようとするユーザに応じて、対話の相手となる過去に存在した人や動物を決定するようにしてもよい。対話制御部307、音声合成部308、顔生成部310、及び表情合成部311は、決定された過去に存在した人や動物に対応する合成された音声をスピーカー18A,18Bから出力し、合成された画像をLCD17Aの画面に表示する。
In addition, the case where the conversation with each of the several person and animal which existed in the past is performed by one Buddhist altar 1 is also assumed. In that case, the
次いで、図6のフローチャートを参照して、タブレットコンピュータ2によって実行される対話制御処理の手順の例を説明する。
Next, an example of the procedure of the dialogue control process executed by the
まず、音声認識部302及び顔・人物認識部305は、亡くなった人との対話が要求されたか否かを判定する(ブロックB101)。音声認識部302及び顔・人物認識部305は、例えば、カメラモジュール16で撮影された画像から人が検出された場合、マイク19A,19Bによって生成された音声から所定の音声が検出された場合、人感センサ116によって人が検出された場合、等に、亡くなった人との対話が要求されたことを決定する。
First, the
対話が要求されていない場合(ブロックB101のNO)、ブロックB101に戻り、対話が要求されたか否かが再度判定される。 When the dialogue is not requested (NO in block B101), the process returns to block B101, and it is determined again whether the dialogue is requested.
一方、亡くなった人との対話が要求されている場合(ブロックB101のYES)、マイク19A,19Bを用いた音声入力301によって、ユーザの発話による音声が入力され、カメラモジュール16を用いた画像入力304によって、当該ユーザの画像が入力される(ブロックB102)。
On the other hand, when a dialogue with a deceased person is requested (YES in block B101), voice input by the user is input by
音声認識部302は、音声認識辞書401を用いて、入力された音声に対応するテキストを生成する(ブロックB103)。そして、意図理解部303は、知識データベース402と意図理解データベース403とを用いて、生成されたテキストの意図を検出する(ブロックB104)。
The
また、顔・人物認識部305は、顔/表情データベース404を用いて、入力された画像から顔画像を検出し、その顔画像に対応する人物を決定する(ブロックB105)。そして、表情認識部306は、顔/表情データベース404を用いて、顔・人物認識部305によって検出された顔画像に対応する表情を決定する(ブロックB106)。
Further, the face /
次いで、対話制御部307は、家族/人物データベース405、故人嗜好データベース406、故人経験データベース407、雑談用データベース408、会話履歴データベース409、及び会話人物データベース410を用いて、検出されたテキストの意図と、決定された人物及び表情とに応じた、ユーザに応答するための文章(センテンス)を生成する(ブロックB107)。音声合成部308は、合成辞書411、似声データベース412及び話方データベース413を用いて、生成された文章を音声出力するための故人の音声を合成する(ブロックB108)。
Next, the
また、顔生成部310及び表情合成部311は、故人顔/表情データベース414を用いて、生成された文章と、決定された人物及び表情とに応じた、故人の顔画像を合成する(ブロックB109)。そして、スピーカー18A,18Bを用いた音声出力309によって、スピーカー18A,18Bから合成された故人の音声が出力され、LCD17Aを用いた顔出力(映像出力)312によって、LCD17Aの画面に合成された故人の顔画像が表示される(ブロックB110)。
Further, the
上述した対話制御処理は、タブレットコンピュータ2ではなく、タブレットコンピュータ2とネットワークを介して接続されたクラウドサーバ3によって実行されてもよい。その場合、タブレットコンピュータ2では、クラウドサーバ3による処理結果に基づいて、故人の合成された音声がスピーカー18A,18Bから出力され、故人の合成された画像がLCD17Aの画面に表示される。
The dialogue control process described above may be executed not by the
なお、上述した説明では、過去に存在した人との対話の処理の例について記載したが、過去に存在した動物との対話(コミュニケーション)も同様の処理によって実現することができる。過去に存在した動物との対話の場合には、対話制御部307は、ユーザに応答する文章(センテンス)の代わりに、例えば、ユーザに応答する鳴き声や仕種を決定する。
In the above description, an example of a dialogue process with a person who has existed in the past has been described, but a dialogue (communication) with an animal that has existed in the past can also be realized by a similar process. In the case of a dialogue with an animal that has existed in the past, the
また、図7に示すように、本実施形態の電子機器はテレビジョン受信機50として実現されてもよい。このテレビジョン受信機50は、上述した過去に存在した人や動物との対話を実現する対話機能を有する。テレビジョン受信機50に設けられるLCD58の画面には、過去に存在した人や動物の画像だけでなく、仏壇の画像や、位牌、花立、火立、香炉、供物、花仏水器、りん、等の仏具の画像が表示されてもよい。
Further, as shown in FIG. 7, the electronic device of the present embodiment may be realized as a
デジタルテレビジョン受信機50は、薄い箱形の筐体を有している。デジタルテレビジョン受信機50の前面には、この箱形の筐体に重ね合わせるように、LCD58が設けられている。デジタルテレビジョン受信機50の前面下部には、受光部51、LED52、人感センサ54、マイク55などが配置されている。受光部51は、リモートコントローラによって送信される信号を受信する。LED52は、電源のオン/オフ、待機状態等を示す。人感センサ54は、テレビジョン受信機50の前方に人が存在することを検出する。マイク55は、テレビジョン受信機50を使用する人(例えば、テレビジョン受信機50に画面に表示される仏壇にお参りする人)の発声による音声を取得する。また、デジタルテレビジョン受信機50の前面上部には、テレビジョン受信機50を使用する人の画像(顔画像)を撮影するカメラモジュール53が設けられている。
The
さらに、デジタルテレビジョン受信機50の側面には、操作部56とスピーカー57とが設けられている。操作部56には、テレビジョン受信機50を操作するための各種のボタンが設けられる。操作部56は、例えば、デジタルテレビジョン受信機50を電源オン/電源オフするための主電源ボタン、チャンネルを切り替えるためのチャンネルボタン等を備える。スピーカー56は音声を出力する。
Further, an operation unit 56 and a
デジタルテレビジョン受信機50で上述の対話機能が利用される場合、例えば、このデジタルテレビジョン受信機50内に設けられるプロセッサーによって、図5を参照して説明した対話アプリケーションプログラム202が実行される。これにより、マイク55によって取得されるユーザの発声による音声と、カメラモジュール53によって取得されるユーザの顔画像と、過去に存在した人や動物に関する情報とに基づいて、スピーカー57から過去に存在した人や動物の合成された(人工的な)音声が出力され、LCD58の画面に過去に存在した人や動物の合成された画像が表示される。
したがってユーザは、テレビジョン受信機50を用いて、亡くなった人や死んだ動物に対するお参りや、亡くなった人や死んだ動物との擬似的な対話を行うことができる。
When the above interactive function is used in the
Therefore, the user can use the
以上説明したように、本実施形態によれば、過去に存在した人や死んだ動物との擬似的なコミュニケーションを実現することができる。データベース405〜414は、過去に存在した人又は動物に関する情報を記憶する。音声認識部302、意図理解部303及び対話制御部307は、ユーザの発話内容に応答するためのセンテンスを生成する。音声合成部308は、データベース405〜414に記憶された情報と、生成されたセンテンスとに基づいて、その過去に存在した人又は動物の音声を合成する。
As described above, according to the present embodiment, it is possible to realize pseudo communication with a person who has existed in the past or a dead animal. The databases 405 to 414 store information related to people or animals that existed in the past. The
ユーザ(仏壇1にお参りする人)は、合成された音声によって、過去に存在した人や動物との擬似的な会話を行うことができるので、家族やペットを亡くした悲しみや孤独感を軽減することができる。また、このような対話機能によって、故人や先祖を供養する機会が増え、またユーザは過去に存在した人や動物との出来事を思い出すことができる。 Users (people who visit the Buddhist altar 1) can perform simulated conversations with people and animals that existed in the past by means of synthesized speech, thus reducing the sadness and loneliness of losing their family and pets. be able to. In addition, such an interactive function increases the chances of providing the deceased and ancestors, and allows the user to remember events with people and animals that existed in the past.
さらに、この対話機能は、仏壇1や墓石の新たな機能として、祭礼用具を製造・販売する業界のビジネスの機会を広げることに貢献できる。また、タブレットコンピュータ2やスマートフォン上で実行される対話アプリケーションプログラム202として、亡くなった人や死んだ動物に対する供養の新たな機会をユーザに提供することができる。
Furthermore, this interactive function can contribute to expanding business opportunities in the industry for manufacturing and selling festival tools as new functions of the Buddhist altar 1 and the tombstone. In addition, as a
なお、本実施形態の対話制御処理の手順は全てソフトウェアによって実行することができる。このため、対話制御処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。 Note that all the procedures of the dialog control process of the present embodiment can be executed by software. For this reason, it is possible to easily realize the same effect as that of the present embodiment only by installing and executing this program on a normal computer through a computer-readable storage medium storing the program for executing the procedure of the interactive control process. Can do.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
202…対話アプリケーションプログラム、301…音声入力、302…音声認識部、303…意図理解部、304…画像入力、305…顔・人物認識部、306…表情認識部、307…対話制御部、308…音声合成部、309…音声出力、310…顔生成部、311…表情合成部、312…顔出力、401…音声認識辞書、402…知識データベース、403…意図理解データベース、404…顔/表情データベース、405…家族/人物データベース、406…故人嗜好データベース、407…故人経験データベース、408…雑談用データベース、409…会話履歴データベース、410…会話人物データベース、411…合成辞書、412…似声データベース、413…話方データベース、414…故人顔/表情データベース 202 ... Dialog application program, 301 ... Voice input, 302 ... Voice recognition unit, 303 ... Intent understanding unit, 304 ... Image input, 305 ... Face / person recognition unit, 306 ... Expression recognition unit, 307 ... Dialog control unit, 308 ... Speech synthesis unit, 309 ... voice output, 310 ... face generation unit, 311 ... facial expression synthesis unit, 312 ... face output, 401 ... speech recognition dictionary, 402 ... knowledge database, 403 ... intention understanding database, 404 ... face / expression database, 405 ... Family / person database, 406 ... Deceased person preference database, 407 ... Deceased person experience database, 408 ... Chatting database, 409 ... Conversation history database, 410 ... Conversation person database, 411 ... Synthetic dictionary, 412 ... Voice database, 413 ... Talk database, 414 ... Deceased face / expression database
Claims (11)
ユーザの発話内容に応答するためのセンテンスを生成する音声認識手段と、
前記記憶手段に記憶した情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する音声合成手段とを具備する電子機器。 Storage means for storing information about a person or animal that existed in the past;
Speech recognition means for generating a sentence for responding to the user's utterance content;
An electronic device comprising: information stored in the storage means; and voice synthesis means for synthesizing the human or animal voice based on the generated sentence.
前記音声認識手段は、前記テキストと、前記顔画像に対応する人物と、前記顔画像に対応する表情と、前記記憶手段に記憶した情報とに基づいて、前記センテンスを生成する請求項2記載の電子機器。 Further comprising face recognition means for determining a person corresponding to the face image and a facial expression corresponding to the face image using the user's face image;
The speech recognition unit generates the sentence based on the text, a person corresponding to the face image, a facial expression corresponding to the face image, and information stored in the storage unit. Electronics.
ユーザの発話内容に応答するためのセンテンスを生成し、
前記記憶装置に記憶された情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する情報処理方法。 Store information about people or animals that existed in the past in the storage device,
Generate a sentence to respond to the user's utterance,
An information processing method for synthesizing the voice of the person or animal based on the information stored in the storage device and the generated sentence.
過去に存在した人又は動物に関する情報を記憶する手順と、
ユーザの発話内容に応答するためのセンテンスを生成する手順と、
前記記憶した情報と、生成した前記センテンスに基づいて、前記人又は動物の音声を合成する手順とを前記コンピュータに実行させるプログラム。 A program executed by a computer, wherein the program is
A procedure for storing information about people or animals that existed in the past;
A procedure for generating a sentence to respond to the user's utterance,
A program that causes the computer to execute the stored information and a procedure for synthesizing the voice of the person or animal based on the generated sentence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014053231A JP2015173857A (en) | 2014-03-17 | 2014-03-17 | Electronic apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014053231A JP2015173857A (en) | 2014-03-17 | 2014-03-17 | Electronic apparatus and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015173857A true JP2015173857A (en) | 2015-10-05 |
Family
ID=54253620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014053231A Pending JP2015173857A (en) | 2014-03-17 | 2014-03-17 | Electronic apparatus and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015173857A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6388269B1 (en) * | 2017-12-07 | 2018-09-12 | 株式会社小泉製作所 | Information transmission system by Orin |
JP2021140703A (en) * | 2020-03-09 | 2021-09-16 | 株式会社エータイ | Message providing method, message providing device, message providing program, and recording medium |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5677834A (en) * | 1995-01-26 | 1997-10-14 | Mooneyham; Martin | Method and apparatus for computer assisted sorting of parcels |
JP2001212783A (en) * | 2000-02-01 | 2001-08-07 | Sony Corp | Robot apparatus and control method therefor |
JP2001265210A (en) * | 2000-03-16 | 2001-09-28 | Takayuki Takada | Method and device for assisting sutra chanting and evolving of the holly name and recording medium |
JP2002024371A (en) * | 2000-07-11 | 2002-01-25 | Sakaguchi Seisakusho:Kk | Method and device for having virtual conversation with the deceased |
JP2002272794A (en) * | 2001-03-15 | 2002-09-24 | Hida Ham:Kk | Method for producing cinerary urn |
JP2003023588A (en) * | 2001-07-09 | 2003-01-24 | Hokusei:Kk | Playback equipment and recording/playback equipment |
JP2003331074A (en) * | 2002-05-16 | 2003-11-21 | Yamatake Corp | Grave visiting system |
JP2009193448A (en) * | 2008-02-15 | 2009-08-27 | Oki Electric Ind Co Ltd | Dialog system, method, and program |
JP2010072578A (en) * | 2008-09-22 | 2010-04-02 | Toshiba Corp | Dialogue generation apparatus and dialogue generation method |
JP2012155616A (en) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | Content provision system, content provision method, and content provision program |
JP2012213828A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Robot control device and program |
JP2013099823A (en) * | 2011-11-09 | 2013-05-23 | Panasonic Corp | Robot device, robot control method, robot control program and robot system |
JP2014044729A (en) * | 2013-09-24 | 2014-03-13 | Nec Corp | Screen display control method, screen display control system, electronic apparatus, and program |
JP2014044519A (en) * | 2012-08-24 | 2014-03-13 | Denso Corp | Baggage delivery system |
-
2014
- 2014-03-17 JP JP2014053231A patent/JP2015173857A/en active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5677834A (en) * | 1995-01-26 | 1997-10-14 | Mooneyham; Martin | Method and apparatus for computer assisted sorting of parcels |
JP2001212783A (en) * | 2000-02-01 | 2001-08-07 | Sony Corp | Robot apparatus and control method therefor |
JP2001265210A (en) * | 2000-03-16 | 2001-09-28 | Takayuki Takada | Method and device for assisting sutra chanting and evolving of the holly name and recording medium |
JP2002024371A (en) * | 2000-07-11 | 2002-01-25 | Sakaguchi Seisakusho:Kk | Method and device for having virtual conversation with the deceased |
JP2002272794A (en) * | 2001-03-15 | 2002-09-24 | Hida Ham:Kk | Method for producing cinerary urn |
JP2003023588A (en) * | 2001-07-09 | 2003-01-24 | Hokusei:Kk | Playback equipment and recording/playback equipment |
JP2003331074A (en) * | 2002-05-16 | 2003-11-21 | Yamatake Corp | Grave visiting system |
JP2009193448A (en) * | 2008-02-15 | 2009-08-27 | Oki Electric Ind Co Ltd | Dialog system, method, and program |
JP2010072578A (en) * | 2008-09-22 | 2010-04-02 | Toshiba Corp | Dialogue generation apparatus and dialogue generation method |
JP2012155616A (en) * | 2011-01-27 | 2012-08-16 | Panasonic Corp | Content provision system, content provision method, and content provision program |
JP2012213828A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Robot control device and program |
JP2013099823A (en) * | 2011-11-09 | 2013-05-23 | Panasonic Corp | Robot device, robot control method, robot control program and robot system |
JP2014044519A (en) * | 2012-08-24 | 2014-03-13 | Denso Corp | Baggage delivery system |
JP2014044729A (en) * | 2013-09-24 | 2014-03-13 | Nec Corp | Screen display control method, screen display control system, electronic apparatus, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6388269B1 (en) * | 2017-12-07 | 2018-09-12 | 株式会社小泉製作所 | Information transmission system by Orin |
JP2019096275A (en) * | 2017-12-07 | 2019-06-20 | 株式会社小泉製作所 | Information transmission system using orin (buddhist bell) |
JP2021140703A (en) * | 2020-03-09 | 2021-09-16 | 株式会社エータイ | Message providing method, message providing device, message providing program, and recording medium |
JP7407625B2 (en) | 2020-03-09 | 2024-01-04 | 株式会社エータイ | Message providing method, message providing device, message providing program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102763625B1 (en) | Electronic device and method for communicating with chatbot | |
CN112331193B (en) | Voice interaction method and related device | |
KR102356623B1 (en) | Virtual assistant electronic device and control method thereof | |
CN110998720B (en) | Voice data processing method and electronic device supporting the same | |
US10079014B2 (en) | Name recognition system | |
KR102341144B1 (en) | Electronic device which ouputus message and method for controlling thereof | |
TW201913300A (en) | Human-computer interaction method and human-computer interaction system | |
CN110910887B (en) | Voice wake-up method and device | |
WO2019242414A1 (en) | Voice processing method and apparatus, storage medium, and electronic device | |
KR102508677B1 (en) | System for processing user utterance and controlling method thereof | |
CN105190745A (en) | Methods and systems for sharing of adapted voice profiles | |
KR20190068133A (en) | Electronic device and method for speech recognition | |
KR102740847B1 (en) | Method for processing user input and electronic device supporting the same | |
US11298080B2 (en) | Reproduction terminal and reproduction method | |
CN113612677A (en) | Information processing system and information processing method | |
JP6166889B2 (en) | Dialog support apparatus, dialog system, dialog support method and program | |
JP2015176058A (en) | Electronic apparatus and method and program | |
CN109377979B (en) | Method and system for updating welcome words | |
KR20210057367A (en) | Apparatus for Processing Data between Neighbors based on Artificial Intelligence and Method for Processing Data between Neighbors Using the Same | |
US10002611B1 (en) | Asynchronous audio messaging | |
JP6598369B2 (en) | Voice management server device | |
JP2015173857A (en) | Electronic apparatus and information processing method | |
CN112219235A (en) | System comprising an electronic device for processing a user's speech and a method for controlling speech recognition on an electronic device | |
JP2014109998A (en) | Interactive apparatus and computer interactive method | |
JP2021018664A (en) | Information processing system, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180717 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20181206 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20181207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190212 |