JP6993314B2 - 対話システム、装置、及びプログラム - Google Patents
対話システム、装置、及びプログラム Download PDFInfo
- Publication number
- JP6993314B2 JP6993314B2 JP2018211609A JP2018211609A JP6993314B2 JP 6993314 B2 JP6993314 B2 JP 6993314B2 JP 2018211609 A JP2018211609 A JP 2018211609A JP 2018211609 A JP2018211609 A JP 2018211609A JP 6993314 B2 JP6993314 B2 JP 6993314B2
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- feature amount
- user
- control
- listening pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 68
- 230000004044 response Effects 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 24
- 238000012545 processing Methods 0.000 description 97
- 230000002996 emotional effect Effects 0.000 description 45
- 230000008451 emotion Effects 0.000 description 43
- 230000008569 process Effects 0.000 description 29
- 238000004422 calculation algorithm Methods 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000006399 behavior Effects 0.000 description 12
- 230000008921 facial expression Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 10
- 230000003993 interaction Effects 0.000 description 9
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000000284 resting effect Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000000467 autonomic pathway Anatomy 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008035 nerve activity Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 230000003727 cerebral blood flow Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Description
専用の対話信号取得装置110、120と、対話インタフェースを実現する専用の対話出力装置130、140を用いなくても同様の対話システムを実現できる。例えば、対話信号取得装置110、120及び対話出力装置130、140と同等の機能を有するスマートフォン及びタブレット端末を用いればよい。この場合、スマートフォン及びタブレット端末には、対話インタフェースを実現するためのソフトウェアがインストールされる。
対話インタフェースの応答行動における制御項目及び調整値の組を傾聴パターンとして設定していたが、これに限定されない。制御項目及び算出フラグの組を傾聴パターンとして設定してもよい。算出フラグは、制御項目の制御値を算出するか否かを示すフラグである。例えば、制御項目の制御値を算出する場合、算出フラグを「1」とし、制御項目の制御値を算出しない場合、算出フラグを「0」とする。
(1)ユーザとの対話を行う対話インタフェースを提供する対話システムの制御方法であって、
前記対話システムは、演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続される接続インタフェースを有する計算機と、前記ユーザの状態に関連する情報を取得する情報取得装置と、を含み、
前記記憶装置は、前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースの対話における応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を格納し、
前記対話システムの制御方法は、
前記演算装置が、前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出する第1のステップと、
前記演算装置が、前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出する第2のステップと、
前記演算装置が、前記複数の第二特徴量の中から、ターゲット第二特徴量を選択する第3のステップと、
前記演算装置が、前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択する第4のステップと、
前記演算装置が、前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成する第5のステップと、
前記演算装置が、前記出力情報に基づいて、前記対話インタフェースを制御する第6のステップと、を含むことを特徴とする対話システムの制御方法。
(2)(1)に記載の対話システムの制御方法であって、
前記第3のステップは、前記演算装置が、前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択するステップを含むことを特徴とする対話システムの制御方法。
(3)(1)に記載の対話システムの制御方法であって、
前記第5のステップは、
前記演算装置が、前記第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の各々の制御値を算出するステップと、
前記演算装置が、前記傾聴パターンに基づいて少なくとも一つの前記制御項目の前記制御値を補正するステップと、
前記演算装置が、前記複数の制御項目の制御値を含む前記出力情報を生成するステップと、を含むことを特徴とする対話システムの制御方法。
(4)(1)に記載のプログラムであって、
前記第5のステップは、
前記演算装置が、前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定するステップと、
前記演算装置が、前記第一特徴量に基づいて、前記特定された制御項目の制御値を算出するステップと、
前記演算装置が、前記特定された制御項目の制御値を含む前記出力情報を生成するステップと、を含むことを特徴とする対話システムの制御方法。
(5)(1)に記載の対話システムの制御方法であって、
前記傾聴パターンは、前記ターゲット第二特徴量を変化させるために応答行動を実現するための前記インタフェースの複数の制御項目及び調整値から構成されることを特徴とする対話システムの制御方法。
101 対話信号処理モジュール
102 出力情報生成モジュール
110、120 対話信号取得装置
130、140 対話出力装置
150 入力装置
201 演算装置
202 記憶装置
203 入力インタフェース
204 出力インタフェース
211 対話信号情報
212 対話特徴量情報
213 共感特徴量情報
214 発話情報
215 傾聴パターン定義情報
216 出力情報
1200 スマートフォン
1201 カメラ
1202 ディスプレイ
1203 マイク
1204 スピーカ
1205 ボタン
1210 画像
1301、1302 感情信号取得装置
1400 感情信号情報
1500 感情特徴量情報
1700 GUI
Claims (14)
- ユーザと対話を行う対話インタフェースを提供する対話システムであって、
演算装置、前記演算装置に接続される記憶装置、及び前記演算装置に接続される接続デバイスを有する計算機と、前記ユーザの状態に関連する情報を取得する情報取得装置と、を備え、
前記記憶装置は、前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースが前記ユーザに対して行う応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を格納し、
前記演算装置は、
前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出し、
前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出し、
前記複数の第二特徴量の中からターゲット第二特徴量を選択し、
前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択し、
前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成し、
前記出力情報に基づいて、前記対話インタフェースを制御することを特徴とする対話システム。 - 請求項1に記載の対話システムであって、
前記演算装置は、前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択することを特徴とする対話システム。 - 請求項1に記載の対話システムであって、
前記演算装置は、
前記少なくとも一つの第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の制御値を算出し、
前記傾聴パターンに基づいて少なくとも一つの前記制御項目の制御値を補正し、
前記複数の制御項目の制御値を含む前記出力情報を生成することを特徴とする対話システム。 - 請求項1に記載の対話システムであって、
前記演算装置は、
前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定し、
前記少なくとも一つの第一特徴量に基づいて、前記特定された制御項目の制御値を算出し、
前記特定された制御項目の制御値を含む前記出力情報を生成することを特徴とする対話システム。 - 請求項1に記載の対話システムであって、
前記傾聴パターンは、任意の第二特徴量を変化させる前記応答行動を実現するための前記対話インタフェースの複数の制御項目及び調整値から構成されることを特徴とする対話システム。 - ユーザと対話を行う対話インタフェースを提供する装置であって、
演算装置、前記演算装置に接続される記憶装置、及び前記ユーザの状態に関連する情報を取得する情報取得装置を備え、
前記記憶装置は、前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースが前記ユーザに対して行う応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を格納し、
前記装置は、
前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出し、
前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出し、
前記複数の第二特徴量の中からターゲット第二特徴量を選択し、
前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択し、
前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成し、
前記出力情報に基づいて、前記対話インタフェースを制御することを特徴とする装置。 - 請求項6に記載の装置であって、
前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択することを特徴とする装置。 - 請求項6に記載の装置であって、
前記少なくとも一つの第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の制御値を算出し、
前記傾聴パターンに基づいて少なくとも一つの前記制御項目の制御値を補正し、
前記複数の制御項目の制御値を含む前記出力情報を生成することを特徴とする装置。 - 請求項6に記載の装置であって、
前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定し、
前記少なくとも一つの第一特徴量に基づいて、前記特定された制御項目の制御値を算出し、
前記特定された制御項目の制御値を含む前記出力情報を生成することを特徴とする装置。 - 請求項6に記載の装置であって、
前記傾聴パターンは、任意の第二特徴量を変化させる前記応答行動を実現するための前記対話インタフェースの複数の制御項目及び調整値から構成されることを特徴とする装置。 - ユーザと対話を行う対話インタフェースを提供する計算機に実行させるためのプログラムであって、
前記計算機は、
演算装置、前記演算装置に接続される記憶装置、及び前記ユーザの状態に関連する情報を取得する情報取得装置を有し、
前記対話インタフェースに対する前記ユーザの共感の程度を示す指標である第二特徴量の種別と、前記対話インタフェースが前記ユーザに対して行う応答行動の傾向を定義する傾聴パターンとを対応づけたデータを管理する傾聴パターン定義情報を保持し、
前記プログラムは、
前記情報取得装置が取得した情報に基づいて、前記ユーザの発話における状態変化を評価するための指標である第一特徴量を少なくとも一つ算出する第1の手順と、
前記少なくとも一つの第一特徴量に基づいて、前記複数の第二特徴量を算出する第2の手順と、
前記複数の第二特徴量の中からターゲット第二特徴量を選択する第3の手順と、
前記傾聴パターン定義情報を参照して、前記ターゲット第二特徴量に対応する前記傾聴パターンを選択する第4の手順と、
前記少なくとも一つの第一特徴量及び前記選択された傾聴パターンに基づいて前記対話インタフェースを制御するための出力情報を生成する第5の手順と、
前記出力情報に基づいて、前記対話インタフェースを制御する第6の手順と、を前記計算機に実行させることを特徴とするプログラム。 - 請求項11に記載のプログラムであって、
前記第3の手順は、前記複数の第二特徴量の値の大きさに基づいて前記ターゲット第二特徴量を選択する手順を含むことを特徴とするプログラム。 - 請求項11に記載のプログラムであって、
前記第5の手順は、
前記少なくとも一つの第一特徴量に基づいて、前記対話インタフェースの複数の制御項目の制御値を算出する手順と、
前記傾聴パターンに基づいて少なくとも一つの前記制御項目の制御値を補正する手順と、
前記複数の制御項目の制御値を含む前記出力情報を生成する手順と、を含むことを特徴とするプログラム。 - 請求項11に記載のプログラムであって、
前記第5の手順は、
前記傾聴パターンに基づいて、前記対話インタフェースの複数の制御項目の中から制御対象の制御項目を特定する手順と、
前記少なくとも一つの第一特徴量に基づいて、前記特定された制御項目の制御値を算出する手順と、
前記特定された制御項目の制御値を含む前記出力情報を生成する手順と、を含むことを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211609A JP6993314B2 (ja) | 2018-11-09 | 2018-11-09 | 対話システム、装置、及びプログラム |
US16/596,809 US11276420B2 (en) | 2018-11-09 | 2019-10-09 | Interaction system, apparatus, and non-transitory computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018211609A JP6993314B2 (ja) | 2018-11-09 | 2018-11-09 | 対話システム、装置、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020076923A JP2020076923A (ja) | 2020-05-21 |
JP2020076923A5 JP2020076923A5 (ja) | 2021-04-08 |
JP6993314B2 true JP6993314B2 (ja) | 2022-01-13 |
Family
ID=70550685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018211609A Active JP6993314B2 (ja) | 2018-11-09 | 2018-11-09 | 対話システム、装置、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11276420B2 (ja) |
JP (1) | JP6993314B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11887574B2 (en) | 2021-02-01 | 2024-01-30 | Samsung Electronics Co., Ltd. | Wearable electronic apparatus and method for controlling thereof |
GB2628841A (en) * | 2023-04-06 | 2024-10-09 | Nanu Ltd | Real-time linguistic assessment and dynamic feedback system for improved conversational engagement with participants in a meeting |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000187435A (ja) | 1998-12-24 | 2000-07-04 | Sony Corp | 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 |
JP2003271174A (ja) | 2002-03-15 | 2003-09-25 | Sony Corp | 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置 |
JP2015099304A (ja) | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム |
JP2016038501A (ja) | 2014-08-08 | 2016-03-22 | 国立大学法人京都大学 | 音声対話方法、及び音声対話システム |
Family Cites Families (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001249945A (ja) * | 2000-03-07 | 2001-09-14 | Nec Corp | 感情生成方法および感情生成装置 |
US7640164B2 (en) * | 2002-07-04 | 2009-12-29 | Denso Corporation | System for performing interactive dialog |
JP3924583B2 (ja) * | 2004-02-03 | 2007-06-06 | 松下電器産業株式会社 | ユーザ適応型装置およびその制御方法 |
JP4629560B2 (ja) * | 2004-12-01 | 2011-02-09 | 本田技研工業株式会社 | 対話型情報システム |
US8965762B2 (en) * | 2007-02-16 | 2015-02-24 | Industrial Technology Research Institute | Bimodal emotion recognition method and system utilizing a support vector machine |
US9282377B2 (en) * | 2007-05-31 | 2016-03-08 | iCommunicator LLC | Apparatuses, methods and systems to provide translations of information into sign language or other formats |
US9634855B2 (en) * | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
US10796176B2 (en) * | 2010-06-07 | 2020-10-06 | Affectiva, Inc. | Personal emotional profile generation for vehicle manipulation |
US10628741B2 (en) * | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
US20170011258A1 (en) * | 2010-06-07 | 2017-01-12 | Affectiva, Inc. | Image analysis in support of robotic manipulation |
US10204625B2 (en) * | 2010-06-07 | 2019-02-12 | Affectiva, Inc. | Audio analysis learning using video data |
US10401860B2 (en) * | 2010-06-07 | 2019-09-03 | Affectiva, Inc. | Image analysis for two-sided data hub |
JP4725936B1 (ja) * | 2011-02-01 | 2011-07-13 | 有限会社Bond | 入力支援装置、入力支援方法及びプログラム |
JP2012181697A (ja) | 2011-03-01 | 2012-09-20 | Nec Corp | 対話システム、対話制御方法およびプログラム |
US9493130B2 (en) * | 2011-04-22 | 2016-11-15 | Angel A. Penilla | Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input |
EP2817962A4 (en) * | 2012-02-23 | 2015-09-02 | Collegenet Inc | ASYNCHRONOUS VIDEO INTERVIEW SYSTEM |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
US20170206064A1 (en) * | 2013-03-15 | 2017-07-20 | JIBO, Inc. | Persistent companion device configuration and deployment platform |
US20150162000A1 (en) * | 2013-12-10 | 2015-06-11 | Harman International Industries, Incorporated | Context aware, proactive digital assistant |
US20160260147A1 (en) * | 2014-03-06 | 2016-09-08 | Todd King | Determining the Credibility of an On-Line User's Review |
US20170213190A1 (en) * | 2014-06-23 | 2017-07-27 | Intervyo R&D Ltd. | Method and system for analysing subjects |
US9226090B1 (en) * | 2014-06-23 | 2015-12-29 | Glen A. Norris | Sound localization for an electronic call |
US9277180B2 (en) * | 2014-06-30 | 2016-03-01 | International Business Machines Corporation | Dynamic facial feature substitution for video conferencing |
KR101870849B1 (ko) * | 2014-07-02 | 2018-06-25 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 정보 전송 방법 및 전송 장치 |
US9646198B2 (en) * | 2014-08-08 | 2017-05-09 | International Business Machines Corporation | Sentiment analysis in a video conference |
US10116748B2 (en) * | 2014-11-20 | 2018-10-30 | Microsoft Technology Licensing, Llc | Vehicle-based multi-modal interface |
US10137902B2 (en) * | 2015-02-12 | 2018-11-27 | Harman International Industries, Incorporated | Adaptive interactive voice system |
US20180293312A1 (en) * | 2015-03-04 | 2018-10-11 | Tony Tateossian | Computerized Method and System for Organizing Video Files |
US10382804B2 (en) * | 2015-08-31 | 2019-08-13 | Orcam Technologies Ltd. | Systems and methods for identifying exposure to a recognizable item |
US20180077095A1 (en) * | 2015-09-14 | 2018-03-15 | X Development Llc | Augmentation of Communications with Emotional Data |
CN108475404B (zh) * | 2016-01-25 | 2023-02-10 | 索尼公司 | 通信系统和通信控制方法 |
US10852813B2 (en) * | 2016-02-26 | 2020-12-01 | Sony Corporation | Information processing system, client terminal, information processing method, and recording medium |
US10460732B2 (en) * | 2016-03-31 | 2019-10-29 | Tata Consultancy Services Limited | System and method to insert visual subtitles in videos |
US11052547B2 (en) * | 2016-04-20 | 2021-07-06 | Sony Interactive Entertainment Inc. | Robot and housing |
US20170364484A1 (en) * | 2016-06-21 | 2017-12-21 | VTCSecure LLC | Enhanced text metadata system and methods for using the same |
US10042604B2 (en) * | 2016-07-01 | 2018-08-07 | Metrik LLC | Multi-dimensional reference element for mixed reality environments |
EP3493534B1 (en) * | 2016-07-28 | 2023-04-05 | Sony Group Corporation | Information processing device, information processing method, and program |
US10390096B2 (en) * | 2016-09-16 | 2019-08-20 | DISH Technologies L.L.C. | Collecting media consumer data |
US11071915B2 (en) * | 2016-09-30 | 2021-07-27 | Sony Interactive Entertainment Inc. | Delivery of spectator feedback content to virtual reality environments provided by head mounted display |
US10242672B2 (en) * | 2016-10-28 | 2019-03-26 | Microsoft Technology Licensing, Llc | Intelligent assistance in presentations |
US11321890B2 (en) * | 2016-11-09 | 2022-05-03 | Microsoft Technology Licensing, Llc | User interface for generating expressive content |
US20180133900A1 (en) * | 2016-11-15 | 2018-05-17 | JIBO, Inc. | Embodied dialog and embodied speech authoring tools for use with an expressive social robot |
US9812151B1 (en) * | 2016-11-18 | 2017-11-07 | IPsoft Incorporated | Generating communicative behaviors for anthropomorphic virtual agents based on user's affect |
US20180168498A1 (en) * | 2016-12-15 | 2018-06-21 | Analytic Measures Inc. | Computer Automated Method and System for Measurement of User Energy, Attitude, and Interpersonal Skills |
US20180174055A1 (en) * | 2016-12-19 | 2018-06-21 | Giridhar S. Tirumale | Intelligent conversation system |
US10170111B2 (en) * | 2017-01-19 | 2019-01-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Adaptive infotainment system based on vehicle surrounding and driver mood and/or behavior |
US20180250815A1 (en) * | 2017-03-03 | 2018-09-06 | Anki, Inc. | Robot animation layering |
US10096319B1 (en) * | 2017-03-13 | 2018-10-09 | Amazon Technologies, Inc. | Voice-based determination of physical and emotional characteristics of users |
US10170100B2 (en) * | 2017-03-24 | 2019-01-01 | International Business Machines Corporation | Sensor based text-to-speech emotional conveyance |
JP6768597B2 (ja) * | 2017-06-08 | 2020-10-14 | 株式会社日立製作所 | 対話システム、対話システムの制御方法、及び装置 |
JP6841167B2 (ja) * | 2017-06-14 | 2021-03-10 | トヨタ自動車株式会社 | コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム |
US20210201696A1 (en) * | 2017-07-18 | 2021-07-01 | Intel Corporation | Automated speech coaching systems and methods |
US11004461B2 (en) * | 2017-09-01 | 2021-05-11 | Newton Howard | Real-time vocal features extraction for automated emotional or mental state assessment |
US20190087870A1 (en) * | 2017-09-15 | 2019-03-21 | Oneva, Inc. | Personal video commercial studio system |
US20190095775A1 (en) * | 2017-09-25 | 2019-03-28 | Ventana 3D, Llc | Artificial intelligence (ai) character system capable of natural verbal and visual interactions with a human |
US10460748B2 (en) * | 2017-10-04 | 2019-10-29 | The Toronto-Dominion Bank | Conversational interface determining lexical personality score for response generation with synonym replacement |
US10339931B2 (en) * | 2017-10-04 | 2019-07-02 | The Toronto-Dominion Bank | Persona-based conversational interface personalization using social network preferences |
US10553208B2 (en) * | 2017-10-09 | 2020-02-04 | Ricoh Company, Ltd. | Speech-to-text conversion for interactive whiteboard appliances using multiple services |
EP3616619A4 (en) * | 2017-10-27 | 2020-12-16 | Wehireai Inc. | PROCESS FOR PREPARING RECOMMENDATIONS FOR DECISION-MAKING BASED ON A COMPUTERIZED ASSESSMENT OF USER CAPACITIES |
US11029834B2 (en) * | 2017-12-20 | 2021-06-08 | International Business Machines Corporation | Utilizing biometric feedback to allow users to scroll content into a viewable display area |
WO2019144542A1 (en) * | 2018-01-26 | 2019-08-01 | Institute Of Software Chinese Academy Of Sciences | Affective interaction systems, devices, and methods based on affective computing user interface |
US10522143B2 (en) * | 2018-02-27 | 2019-12-31 | Microsoft Technology Licensing, Llc | Empathetic personal virtual digital assistant |
US11633863B2 (en) * | 2018-04-06 | 2023-04-25 | Digital Dream Labs, Llc | Condition-based robot audio techniques |
US10762339B2 (en) * | 2018-09-14 | 2020-09-01 | Adp, Llc | Automatic emotion response detection |
US20200092339A1 (en) * | 2018-09-17 | 2020-03-19 | International Business Machines Corporation | Providing device control instructions for increasing conference participant interest based on contextual data analysis |
US11279041B2 (en) * | 2018-10-12 | 2022-03-22 | Dream Face Technologies, Inc. | Socially assistive robot |
US11238885B2 (en) * | 2018-10-29 | 2022-02-01 | Microsoft Technology Licensing, Llc | Computing system for expressive three-dimensional facial animation |
US11817005B2 (en) * | 2018-10-31 | 2023-11-14 | International Business Machines Corporation | Internet of things public speaking coach |
-
2018
- 2018-11-09 JP JP2018211609A patent/JP6993314B2/ja active Active
-
2019
- 2019-10-09 US US16/596,809 patent/US11276420B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000187435A (ja) | 1998-12-24 | 2000-07-04 | Sony Corp | 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 |
JP2003271174A (ja) | 2002-03-15 | 2003-09-25 | Sony Corp | 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置 |
JP2015099304A (ja) | 2013-11-20 | 2015-05-28 | 日本電信電話株式会社 | 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム |
JP2016038501A (ja) | 2014-08-08 | 2016-03-22 | 国立大学法人京都大学 | 音声対話方法、及び音声対話システム |
Also Published As
Publication number | Publication date |
---|---|
US11276420B2 (en) | 2022-03-15 |
US20200152225A1 (en) | 2020-05-14 |
JP2020076923A (ja) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2953539C (en) | Voice affect modification | |
JP2021027917A (ja) | 情報処理装置、情報処理システム、および機械学習装置 | |
Al Osman et al. | Multimodal affect recognition: Current approaches and challenges | |
JP2004310034A (ja) | 対話エージェントシステム | |
JP6993291B2 (ja) | 計算機及び感情推定方法 | |
JP2021157172A (ja) | 感情を込めて応答する仮想パーソナルアシスタント | |
JP6993314B2 (ja) | 対話システム、装置、及びプログラム | |
KR20130082701A (ko) | 인공지능을 이용한 감성인지 아바타 서비스 장치 및 방법 | |
WO2019017922A1 (en) | AUTOMATED VOICE ACCOMPANIMENT SYSTEMS AND METHODS | |
JP6768597B2 (ja) | 対話システム、対話システムの制御方法、及び装置 | |
JP7204984B1 (ja) | プログラム、方法、情報処理装置 | |
Al-Hudhud | Affective command-based control system integrating brain signals in commands control systems | |
US12213930B2 (en) | Adaptive speech and biofeedback control of sexual stimulation devices | |
JP7194371B1 (ja) | プログラム、方法、情報処理装置 | |
US12033042B2 (en) | Apparatus for bias eliminated performance determination | |
WO2020178411A1 (en) | Virtual agent team | |
US20220331196A1 (en) | Biofeedback-based control of sexual stimulation devices | |
JP6689215B2 (ja) | システム及び対話情報の出力方法 | |
WO2021062210A1 (en) | Virtual reality behavioral health platform | |
KR102610257B1 (ko) | 특정 상황에 대한 대처 스킬을 향상시키는 반응형 컨텐츠를 제공하기 위한 방법 및 컴퓨팅 장치 | |
KR102610262B1 (ko) | 메타버스를 활용하여 특정 실제 사용자의 특정 아바타에게 상담 서비스를 제공하는 방법 및 장치 | |
CN110648264B (zh) | 包含或挂接情绪调节成分的课件、调节情绪的方法和装置 | |
JP7348027B2 (ja) | 対話システム、対話プログラムおよび対話システムの制御方法 | |
US20240331842A1 (en) | Digital Technology Enhancing Health and Well-Being Through Collective Mindfulness Practices Powered by Big Data | |
JP2025058927A (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6993314 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |