JP2018167339A - 発話制御プログラム、情報処理装置及び発話制御方法 - Google Patents
発話制御プログラム、情報処理装置及び発話制御方法 Download PDFInfo
- Publication number
- JP2018167339A JP2018167339A JP2017065157A JP2017065157A JP2018167339A JP 2018167339 A JP2018167339 A JP 2018167339A JP 2017065157 A JP2017065157 A JP 2017065157A JP 2017065157 A JP2017065157 A JP 2017065157A JP 2018167339 A JP2018167339 A JP 2018167339A
- Authority
- JP
- Japan
- Prior art keywords
- information
- topic
- utterance
- acquired
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Manipulator (AREA)
Abstract
Description
図1は、情報処理システム10の全体構成を示す図である。図1に示す情報処理システム10は、情報処理装置1(以下、発話制御装置1とも呼ぶ)と、話題生成装置2と、記憶装置3と、ロボット4が含まれている。
次に、情報処理システム10のハードウエア構成について説明する。図2は、情報処理装置1のハードウエア構成を説明する図である。また、図3は、話題生成装置2のハードウエア構成を説明する図である。
次に、情報処理システム10のソフトウエア構成について説明する。図4は、情報処理装置1の機能ブロック図である。また、図5は、話題生成装置2の機能ブロック図である。
次に、第1の実施の形態の概略について説明する。図6は、第1の実施の形態における発話制御処理の概略を説明するフローチャートである。また、図7及び図8は、第1の実施の形態における発話制御処理の概略を説明する図である。図7及び図8を参照しながら、図6の第1の実施の形態における発話制御処理の説明を行う。
初めに、発話制御処理の概略について説明を行う。図6は、第1の実施の形態における発話制御処理の概略を説明するフローチャートである。
次に、第1の実施の形態の詳細について説明する。図9から図14は、第1の実施の形態における発話制御処理の詳細を説明するフローチャートである。また、図15から図23は、第1の実施の形態における発話制御処理の詳細を説明する図である。図15から図23を参照しながら、図9から図14に示す発話制御処理を説明する。
初めに、情報処理装置1における発話制御処理のうち、第2取得情報132を取得する処理(以下、情報取得処理とも呼ぶ)について説明を行う。図9は、情報取得処理を説明するフローチャートである。
図15は、第2取得情報132の具体例を説明する図である。図15に示す第2取得情報132は、第2取得情報132に含まれる各情報を識別する「項番」と、第2取得情報132に含まれる各情報の種別を示す「情報種別」と、「情報種別」に設定された種別に対応する情報が設定される「値」とを項目として有する。また、図15に示す第2取得情報132は、「値」に設定された情報に対応するキーワードが設定される「キーワード」を項目として有する。
次に、情報処理装置1における発話制御処理のうち、利用者に対して発話を行う処理(以下、発話実行処理とも呼ぶ)について説明を行う。図10から図14は、発話実行処理を説明するフローチャートである。
図16は、S22の処理で取得した情報の具体例を説明する図である。図16に示す情報は、各情報を識別する「項番」と、発話を行った利用者を特定する「利用者識別情報」と、利用者が発話した内容が設定される「発話内容」とを項目として有する。
図13は、話題生成装置2における発話実行処理を説明するフローチャートである。
図17は、嗜好情報231の具体例を説明する図である。図17に示す嗜好情報231は、情報格納領域230に記憶された嗜好情報231のうち、図16で説明した第1取得情報131に対応する発話を行った利用者(図16で説明した第1取得情報131における「利用者識別情報」が「003」である利用者)に関する嗜好情報231の具体例である。
図18は、話題情報133の具体例を説明する図である。図18に示す話題情報133は、話題情報133に含まれる各情報を識別する「項番」と、話題生成部212が生成した話題の内容が設定される「話題」とを項目として有している。
次に、情報処理装置1における発話実行処理のうち、S25以降の処理について説明を行う。
図19は、S26の処理が行われた後の話題情報133の具体例を説明する図である。
図14は、S31の処理の詳細について説明する図である。
図20は、現在ベクター情報134及び話題ベクター情報135の具体例を説明する図である。図20(A)は、現在ベクター情報134の具体例を説明する図である。また、図20(B)は、話題ベクター情報135の具体例を説明する図である。
図21は、S53の処理の具体例を説明する図である。話題特定部114は、図21に示すように、図20(A)で説明した現在ベクター情報134を1×n次元行列として表現した行列と、図20(B)で説明した話題ベクター情報135を示す行列との積として、例えば、「4.21」を算出する。同様に、話題特定部114は、図20(A)で説明した現在ベクター情報134を1×n次元行列として表現して行列と、S52の処理で生成した複数の話題ベクター情報135を示す行列との積をそれぞれ算出する。
図22及び図23は、蓄積情報136の具体例を説明する図である。図22等に示す蓄積情報136は、蓄積情報136に含まれる各情報を識別する「項番」と、各話題が設定される「話題」と、「話題」に設定された内容についてロボット4が過去に発話した際の利用者の反応を示す情報が設定される「利用者の反応」とを項目として有する。
次に、第2の実施の形態における発話制御処理について説明する。図24から図26は、第2の実施の形態における発話制御処理を説明するフローチャートである。また、図27及び図28は、第2の実施の形態における発話制御処理を説明する図である。図27及び図28を参照しながら、図24から図26に示す発話制御処理を説明する。
情報送受信部112は、自発的発話タイミングまで待機する(S61のNO)。自発的発話タイミングは、例えば、利用者による発話が最後に行われてから所定時間が経過しており、かつ、ロボット4の近傍に利用者がいるタイミングであってよい。
図27は、第2の実施の形態における話題情報133の具体例を説明する図である。具体的に、図27は、S64の処理で受信した話題情報133の具体例を説明する図である。
次に、S66の処理で無言を示す情報を追加した話題情報133の具体例について説明を行う。図28は、S66の処理で無言を示す情報を追加した話題情報133の具体例を説明する図である。
ロボットの発話を制御する処理をコンピュータに実行させる発話制御プログラムにおいて、
人物に関する第1及び第2の情報を取得し、
取得した前記第1の情報を、話題の生成を行う話題生成部に送信し、
前記第1の情報に基づいて前記話題生成部によって生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定し、
特定した前記話題に応じた発話を前記ロボットに実行させる指示を出力する、
処理を前記コンピュータに実行させることを特徴とする発話制御プログラム。
付記1において、
前記第1の情報は、前記人物の発話、動作、状態または状況に関する情報であり、
前記第2の情報は、前記人物の動作、状態または状況に関する情報である、
ことを特徴とする発話制御プログラム。
付記1において、
前記第1の情報は、前記人物の発話、動作、状態または状況に関する情報であり、
前記第2の情報は、前記人物の発話、動作、状態または状況に関する情報のうち、前記第1の情報と異なる情報である、
ことを特徴とする発話制御プログラム。
付記1において、
前記話題生成部は、互いに異なる複数の話題生成部を含み、
前記話題を特定する処理では、前記第1の情報に基づいて前記話題生成部によってそれぞれ生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定する、
ことを特徴とする発話制御プログラム。
付記1において、
前記第1及び第2の情報を取得する処理では、前記人物が発話したことに応じて、前記第1の情報と前記第2の情報との取得を行う、
ことを特徴とする発話制御プログラム。
付記1において、
前記話題を特定する処理では、前記第2の情報に応じた話題、または、前記人物に対して発話をしないことを示す情報を特定し、
前記指示を出力する処理では、前記第2の情報に応じた話題が特定された場合に、特定した前記話題に応じた発話を前記ロボットに実行させる指示の出力を行う、
ことを特徴とする発話制御プログラム。
付記2において、さらに、
前記ロボットによって前記話題に応じた発話が行われたことに応じて、前記人物の状態に関する情報を取得し、
取得した前記人物の状態に関する情報と、特定した前記第2の情報に応じた話題とを対応付けて記憶部に記憶し、
前記話題を特定する処理では、
特定した前記第2の情報に応じた話題が前記記憶部に記憶されている場合、特定した前記第2の情報に応じた話題に対応する前記人物の状態に関する情報が特定種別の情報であるか否かを判定し、
前記人物の状態に関する情報が前記特定種別の情報を示していると判定した場合、前記複数の話題のうち、特定した前記第2の情報に応じた話題以外の話題から、前記第2の情報に応じた話題の特定を再度行う、
処理を前記コンピュータに実行させることを特徴とする発話制御プログラム。
付記1において、
前記情報を取得する処理では、前記人物が最後に発話してから所定時間が経過したことに応じて前記情報を取得する、
ことを特徴とする発話制御プログラム。
付記1において、
前記情報を取得する処理では、前記人物が最後に発話してから所定時間が経過する毎に前記情報を取得する、
ことを特徴とする発話制御プログラム。
ロボットの発話を制御する情報処理装置において、
人物に関する第1及び第2の情報を取得し、
取得した前記第1の情報を、話題の生成を行う話題生成部に送信する情報送信部と、
前記第1の情報に基づいて前記話題生成部によって生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定する話題特定部と、
特定した前記話題に応じた発話を前記ロボットに実行させる指示を出力する指示出力部と、を有する、
ことを特徴とする情報処理装置。
ロボットの発話を制御する発話制御方法において、
人物に関する第1及び第2の情報を取得し、
取得した前記第1の情報を、話題の生成を行う話題生成部に送信し、
前記第1の情報に基づいて前記話題生成部によって生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定し、
特定した前記話題に応じた発話を前記ロボットに実行させる指示を出力する、
ことを特徴とする発話制御方法。
3:記憶装置 4:ロボット
4a:撮像装置 4b:集音装置
4c:出力装置
Claims (10)
- ロボットの発話を制御する処理をコンピュータに実行させる発話制御プログラムにおいて、
人物に関する第1及び第2の情報を取得し、
取得した前記第1の情報を、話題の生成を行う話題生成部に送信し、
前記第1の情報に基づいて前記話題生成部によって生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定し、
特定した前記話題に応じた発話を前記ロボットに実行させる指示を出力する、
処理を前記コンピュータに実行させることを特徴とする発話制御プログラム。 - 請求項1において、
前記第1の情報は、前記人物の発話、動作、状態または状況に関する情報であり、
前記第2の情報は、前記人物の動作、状態または状況に関する情報である、
ことを特徴とする発話制御プログラム。 - 請求項1において、
前記第1の情報は、前記人物の発話、動作、状態または状況に関する情報であり、
前記第2の情報は、前記人物の発話、動作、状態または状況に関する情報のうち、前記第1の情報と異なる情報である、
ことを特徴とする発話制御プログラム。 - 請求項1において、
前記話題生成部は、互いに異なる複数の話題生成部を含み、
前記話題を特定する処理では、前記第1の情報に基づいて前記話題生成部によってそれぞれ生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定する、
ことを特徴とする発話制御プログラム。 - 請求項1において、
前記第1及び第2の情報を取得する処理では、前記人物が発話したことに応じて、前記第1の情報と前記第2の情報との取得を行う、
ことを特徴とする発話制御プログラム。 - 請求項1において、
前記話題を特定する処理では、前記第2の情報に応じた話題、または、前記人物に対して発話をしないことを示す情報を特定し、
前記指示を出力する処理では、前記第2の情報に応じた話題が特定された場合に、特定した前記話題に応じた発話を前記ロボットに実行させる指示の出力を行う、
ことを特徴とする発話制御プログラム。 - 請求項2において、さらに、
前記ロボットによって前記話題に応じた発話が行われたことに応じて、前記人物の状態に関する情報を取得し、
取得した前記人物の状態に関する情報と、特定した前記第2の情報に応じた話題とを対応付けて記憶部に記憶し、
前記話題を特定する処理では、
特定した前記第2の情報に応じた話題が前記記憶部に記憶されている場合、特定した前記第2の情報に応じた話題に対応する前記人物の状態に関する情報が特定種別の情報であるか否かを判定し、
前記人物の状態に関する情報が前記特定種別の情報を示していると判定した場合、前記複数の話題のうち、特定した前記第2の情報に応じた話題以外の話題から、前記第2の情報に応じた話題の特定を再度行う、
処理を前記コンピュータに実行させることを特徴とする発話制御プログラム。 - 請求項1において、
前記情報を取得する処理では、前記人物が最後に発話してから所定時間が経過したことに応じて前記情報を取得する、
ことを特徴とする発話制御プログラム。 - ロボットの発話を制御する情報処理装置において、
人物に関する第1及び第2の情報を取得し、
取得した前記第1の情報を、話題の生成を行う話題生成部に送信する情報送信部と、
前記第1の情報に基づいて前記話題生成部によって生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定する話題特定部と、
特定した前記話題に応じた発話を前記ロボットに実行させる指示を出力する指示出力部と、を有する、
ことを特徴とする情報処理装置。 - ロボットの発話を制御する発話制御方法において、
人物に関する第1及び第2の情報を取得し、
取得した前記第1の情報を、話題の生成を行う話題生成部に送信し、
前記第1の情報に基づいて前記話題生成部によって生成された複数の話題を取得すると、取得した前記複数の話題から、取得した前記第2の情報に応じた話題を特定し、
特定した前記話題に応じた発話を前記ロボットに実行させる指示を出力する、
ことを特徴とする発話制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017065157A JP2018167339A (ja) | 2017-03-29 | 2017-03-29 | 発話制御プログラム、情報処理装置及び発話制御方法 |
US15/935,377 US10902849B2 (en) | 2017-03-29 | 2018-03-26 | Non-transitory computer-readable storage medium, information processing apparatus, and utterance control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017065157A JP2018167339A (ja) | 2017-03-29 | 2017-03-29 | 発話制御プログラム、情報処理装置及び発話制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018167339A true JP2018167339A (ja) | 2018-11-01 |
Family
ID=63670133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017065157A Pending JP2018167339A (ja) | 2017-03-29 | 2017-03-29 | 発話制御プログラム、情報処理装置及び発話制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10902849B2 (ja) |
JP (1) | JP2018167339A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7576290B1 (ja) | 2023-06-09 | 2024-10-31 | 株式会社サイバーエージェント | 話題モジュールセット作成装置、対話装置、話題モジュールセット作成方法、対話方法及びコンピュータプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005022065A (ja) * | 2003-07-03 | 2005-01-27 | Sony Corp | 音声対話装置及び方法並びにロボット装置 |
JP2008158697A (ja) * | 2006-12-21 | 2008-07-10 | Nec Corp | ロボット制御装置 |
WO2013190963A1 (ja) * | 2012-06-18 | 2013-12-27 | エイディシーテクノロジー株式会社 | 音声応答装置 |
US20170041523A1 (en) * | 2015-08-07 | 2017-02-09 | Google Inc. | Speech and computer vision-based control |
JP2017049427A (ja) * | 2015-09-01 | 2017-03-09 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
JP2018156272A (ja) * | 2017-03-16 | 2018-10-04 | 国立研究開発法人情報通信研究機構 | 対話システム、対話装置及びそのためのコンピュータプログラム |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7725307B2 (en) * | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US7398209B2 (en) * | 2002-06-03 | 2008-07-08 | Voicebox Technologies, Inc. | Systems and methods for responding to natural language speech utterance |
US7260537B2 (en) * | 2003-03-25 | 2007-08-21 | International Business Machines Corporation | Disambiguating results within a speech based IVR session |
US7899671B2 (en) * | 2004-02-05 | 2011-03-01 | Avaya, Inc. | Recognition results postprocessor for use in voice recognition systems |
WO2007013521A1 (ja) * | 2005-07-26 | 2007-02-01 | Honda Motor Co., Ltd. | ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム |
JP4826275B2 (ja) | 2006-02-16 | 2011-11-30 | 株式会社豊田中央研究所 | 応答生成装置、方法及びプログラム |
US9907473B2 (en) * | 2015-04-03 | 2018-03-06 | Koninklijke Philips N.V. | Personal monitoring system |
US20130024408A1 (en) * | 2008-11-21 | 2013-01-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Action execution based on user modified hypothesis |
US8626511B2 (en) * | 2010-01-22 | 2014-01-07 | Google Inc. | Multi-dimensional disambiguation of voice commands |
US8417524B2 (en) * | 2010-02-11 | 2013-04-09 | International Business Machines Corporation | Analysis of the temporal evolution of emotions in an audio interaction in a service delivery environment |
US8825020B2 (en) * | 2012-01-12 | 2014-09-02 | Sensory, Incorporated | Information access and device control using mobile phones and audio in the home environment |
EP2839391A4 (en) * | 2012-04-20 | 2016-01-27 | Maluuba Inc | CONVERSATION AGENT |
US9674331B2 (en) * | 2012-06-08 | 2017-06-06 | Apple Inc. | Transmitting data from an automated assistant to an accessory |
US9142215B2 (en) * | 2012-06-15 | 2015-09-22 | Cypress Semiconductor Corporation | Power-efficient voice activation |
JP6037325B2 (ja) | 2012-06-22 | 2016-12-07 | 公立大学法人首都大学東京 | 行動促進システム、行動促進方法、及び行動促進システム用のプログラム |
CN103543979A (zh) * | 2012-07-17 | 2014-01-29 | 联想(北京)有限公司 | 一种输出语音的方法、语音交互的方法及电子设备 |
JPWO2014073612A1 (ja) * | 2012-11-08 | 2016-09-08 | 日本電気株式会社 | 会話文生成装置、会話文生成方法及び会話文生成プログラム |
US9521258B2 (en) * | 2012-11-21 | 2016-12-13 | Castel Communications, LLC | Real-time call center call monitoring and analysis |
US9047871B2 (en) * | 2012-12-12 | 2015-06-02 | At&T Intellectual Property I, L.P. | Real—time emotion tracking system |
US9378741B2 (en) * | 2013-03-12 | 2016-06-28 | Microsoft Technology Licensing, Llc | Search results using intonation nuances |
US9112984B2 (en) * | 2013-03-12 | 2015-08-18 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US9201865B2 (en) * | 2013-03-15 | 2015-12-01 | Bao Tran | Automated assistance for user request that determines semantics by domain, task, and parameter |
WO2014197336A1 (en) * | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9443507B2 (en) * | 2013-07-15 | 2016-09-13 | GM Global Technology Operations LLC | System and method for controlling a speech recognition system |
EP3036594B1 (en) * | 2013-08-21 | 2021-05-26 | Ademco Inc. | Devices and methods for interacting with an hvac controller |
US20150100581A1 (en) * | 2013-10-08 | 2015-04-09 | Chacha Search, Inc | Method and system for providing assistance to a responder |
US9698999B2 (en) * | 2013-12-02 | 2017-07-04 | Amazon Technologies, Inc. | Natural language control of secondary device |
US9929873B2 (en) * | 2013-12-06 | 2018-03-27 | Vivint, Inc. | Voice control using multi-media rooms |
US9607137B2 (en) * | 2013-12-17 | 2017-03-28 | Lenovo (Singapore) Pte. Ltd. | Verbal command processing based on speaker recognition |
US10078691B2 (en) * | 2013-12-27 | 2018-09-18 | Futurewei Technologies, Inc. | System and method for biometrics-based music recommendation |
US10321842B2 (en) * | 2014-04-22 | 2019-06-18 | Interaxon Inc. | System and method for associating music with brain-state data |
US9648061B2 (en) * | 2014-08-08 | 2017-05-09 | International Business Machines Corporation | Sentiment analysis in a video conference |
US9646198B2 (en) * | 2014-08-08 | 2017-05-09 | International Business Machines Corporation | Sentiment analysis in a video conference |
US10019672B2 (en) * | 2014-08-27 | 2018-07-10 | International Business Machines Corporation | Generating responses to electronic communications with a question answering system |
US9786299B2 (en) * | 2014-12-04 | 2017-10-10 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
US20160162807A1 (en) * | 2014-12-04 | 2016-06-09 | Carnegie Mellon University, A Pennsylvania Non-Profit Corporation | Emotion Recognition System and Method for Modulating the Behavior of Intelligent Systems |
JP5974312B1 (ja) * | 2015-04-07 | 2016-08-23 | パナソニックIpマネジメント株式会社 | 販売管理装置、販売管理システムおよび販売管理方法 |
KR102398488B1 (ko) * | 2015-06-26 | 2022-05-13 | 엘지전자 주식회사 | 복수의 디바이스에 대한 원격제어를 수행할 수 있는 이동 단말기 |
US9558734B2 (en) * | 2015-06-29 | 2017-01-31 | Vocalid, Inc. | Aging a text-to-speech voice |
US10108702B2 (en) * | 2015-08-24 | 2018-10-23 | International Business Machines Corporation | Topic shift detector |
US10083535B2 (en) * | 2015-09-01 | 2018-09-25 | Animated Codes Made Easy LLC | Animation of customer-provided codes |
US10331312B2 (en) * | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
KR102429260B1 (ko) * | 2015-10-12 | 2022-08-05 | 삼성전자주식회사 | 음성 에이전트 기반의 제어 명령 처리 장치 및 방법과, 에이전트 장치 |
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
CN106910513A (zh) * | 2015-12-22 | 2017-06-30 | 微软技术许可有限责任公司 | 情绪智能聊天引擎 |
US11783524B2 (en) * | 2016-02-10 | 2023-10-10 | Nitin Vats | Producing realistic talking face with expression using images text and voice |
US10432998B2 (en) * | 2016-03-11 | 2019-10-01 | DISH Technologies L.L.C. | Online backup and restoration of television receiver storage and configuration data |
US10239205B2 (en) * | 2016-06-29 | 2019-03-26 | International Business Machines Corporation | System, method, and recording medium for corpus curation for action manifestation for cognitive robots |
US10074368B2 (en) * | 2016-08-17 | 2018-09-11 | International Business Machines Corporation | Personalized situation awareness using human emotions and incident properties |
US10741175B2 (en) * | 2016-11-30 | 2020-08-11 | Lenovo (Singapore) Pte. Ltd. | Systems and methods for natural language understanding using sensor input |
US10657166B2 (en) * | 2017-02-07 | 2020-05-19 | International Business Machines Corporation | Real-time sentiment analysis for conflict mitigation using cognative analytics and identifiers |
US10798545B2 (en) * | 2017-03-02 | 2020-10-06 | Amazon Technologies, Inc. | Techniques for device discovery and configuration |
-
2017
- 2017-03-29 JP JP2017065157A patent/JP2018167339A/ja active Pending
-
2018
- 2018-03-26 US US15/935,377 patent/US10902849B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005022065A (ja) * | 2003-07-03 | 2005-01-27 | Sony Corp | 音声対話装置及び方法並びにロボット装置 |
JP2008158697A (ja) * | 2006-12-21 | 2008-07-10 | Nec Corp | ロボット制御装置 |
WO2013190963A1 (ja) * | 2012-06-18 | 2013-12-27 | エイディシーテクノロジー株式会社 | 音声応答装置 |
US20170041523A1 (en) * | 2015-08-07 | 2017-02-09 | Google Inc. | Speech and computer vision-based control |
JP2017049427A (ja) * | 2015-09-01 | 2017-03-09 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
JP2018156272A (ja) * | 2017-03-16 | 2018-10-04 | 国立研究開発法人情報通信研究機構 | 対話システム、対話装置及びそのためのコンピュータプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7576290B1 (ja) | 2023-06-09 | 2024-10-31 | 株式会社サイバーエージェント | 話題モジュールセット作成装置、対話装置、話題モジュールセット作成方法、対話方法及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10902849B2 (en) | 2021-01-26 |
US20180286399A1 (en) | 2018-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11430438B2 (en) | Electronic device providing response corresponding to user conversation style and emotion and method of operating same | |
US11308955B2 (en) | Method and apparatus for recognizing a voice | |
JP6754184B2 (ja) | 音声認識装置及び音声認識方法 | |
JP6505748B2 (ja) | 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット | |
US11367443B2 (en) | Electronic device and method for controlling electronic device | |
KR102628211B1 (ko) | 전자 장치 및 그 제어 방법 | |
US11475878B2 (en) | Electronic device and operating method thereof | |
KR102544249B1 (ko) | 발화의 문맥을 공유하여 번역을 수행하는 전자 장치 및 그 동작 방법 | |
US10923113B1 (en) | Speechlet recommendation based on updating a confidence value | |
US12198683B2 (en) | Device-specific skill processing | |
KR20210066651A (ko) | 전자 장치 및 이의 제어 방법 | |
KR20210064594A (ko) | 전자장치 및 그 제어방법 | |
US20200143235A1 (en) | System and method for providing smart objects virtual communication | |
CN110020423A (zh) | 基于语义地生成的结果集合路由音频流 | |
WO2016206642A1 (zh) | 机器人的控制数据的生成方法及装置 | |
US10269349B2 (en) | Voice interactive device and voice interaction method | |
JP2018167339A (ja) | 発話制御プログラム、情報処理装置及び発話制御方法 | |
JP6645779B2 (ja) | 対話装置および対話プログラム | |
US12073830B2 (en) | Electronic apparatus and control method thereof | |
KR20210029354A (ko) | 전자장치 및 그 제어방법 | |
JP7605119B2 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
US10950231B1 (en) | Skill enablement | |
KR20210044606A (ko) | 웨이크업 모델 생성 방법 및 이를 위한 전자 장치 | |
JP3241556U (ja) | 言語データ処理システム | |
JP2020067877A (ja) | 対話装置および対話装置の制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210728 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210817 |