JP6023684B2 - 感情情報表示制御装置、その方法及びプログラム - Google Patents
感情情報表示制御装置、その方法及びプログラム Download PDFInfo
- Publication number
- JP6023684B2 JP6023684B2 JP2013211506A JP2013211506A JP6023684B2 JP 6023684 B2 JP6023684 B2 JP 6023684B2 JP 2013211506 A JP2013211506 A JP 2013211506A JP 2013211506 A JP2013211506 A JP 2013211506A JP 6023684 B2 JP6023684 B2 JP 6023684B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion information
- person
- emotion
- persons
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims description 288
- 238000000034 method Methods 0.000 title claims description 36
- 230000009471 action Effects 0.000 description 57
- 230000006870 function Effects 0.000 description 30
- 230000006399 behavior Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 26
- 230000008921 facial expression Effects 0.000 description 18
- 230000014509 gene expression Effects 0.000 description 18
- 230000008859 change Effects 0.000 description 15
- 230000000692 anti-sense effect Effects 0.000 description 14
- 230000002889 sympathetic effect Effects 0.000 description 12
- 230000003068 static effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000002996 emotional effect Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000012447 hatching Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Image Analysis (AREA)
Description
図1は、第一実施形態に係る感情情報表示制御装置100の配置例を示す。感情情報表示制御装置100は、N人以上が撮影された映像を入力とし、表示装置3に、感情情報を付加した映像を出力する。Nは3以上の整数である。なお、感情情報は、複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを表す。なお、2人の人物の間において相互に共通する感情を対象とし、この実施形態では、感情として「共感」「反感」「何れでもない」の3種類の感情を用いる。ここでは、共感は二者の感情状態が類似している状態、反感はそれらが異なっている状態とする。この3種類の感情の度合いを感情情報とする。この感情情報は、対話者間の共感状態を示しているといってもよい。
感情情報取得部110は、N人が撮影された映像を受け取り、この映像からN人のうちの2人の間の感情情報を求め(s1)、求めた感情情報を制御部120に出力する。なお、N人が撮影された映像は、各対話者について一台のカメラを用意して、複数のカメラにより撮影した複数の映像を多重化した映像でもよいし(図1参照)、魚眼レンズを用いるなどした全方位カメラ一台で対話者全員を撮影した映像であってもよい。例えば、図1のように、カメラ1−n(ただしn=1,2,…,Nである)から人物2−nを撮影し、N個の映像を多重化したものを入力としてもよいし、1つの映像の中に複数人の人物が映っているものを入力としてもよい。
感情情報取得部110は、対話の状態を推定して、映像から2人の間の感情情報(「共感」「反感」「何れでもない」の3種類の感情の度合い)を求める。この感情情報取得部110の対話状態推定技術における一番のポイントは、対話二者間での与え手の行動表出とそれに対する受け手の反応表出との間での行動の時間差と、対話二者間でそれらの行動が一致しているか否かを示す一致性によって、その二者を見た外部観察者がその対話の状態をどう解釈するのかを確率的にモデル化したことである。この背後にあるのは、外部観察者が二者の間の対話状態を解釈する際に、人が相手の働きかけに対してどのように反応するかというこれまでに得られている心理学分野の知見を、意識的あるいは無意識的に利用しているであろうという仮説である。このモデルにより、対話二者の行動の時系列が与えられたときに、外部観察者の集団が各時刻において共感状態をどう解釈するのかの得票率が推定できる。
図4を参照して、この実施形態の感情情報取得部110の構成例について説明する。感情情報取得部110は入力部10と行動認識部20と共感解釈付与部30とパラメタ学習部40と事後確率推定部50と出力部60と学習用映像記憶部70と推定用映像記憶部72とモデルパラメタ記憶部74とを備える。学習用映像記憶部70と推定用映像記憶部72は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリなどの半導体メモリ素子により構成される補助記憶装置、などにより構成することができる。モデルパラメタ記憶部74は、学習用映像記憶部70と同様に構成してもよいし、リレーショナルデータベースやキーバリューストアなどのミドルウェア、などにより構成してもよい。
図6を参照して、感情情報取得部110の学習フェーズにおける動作例を説明する。
この実施形態のモデルについて詳述する。この実施形態では、外部観察者が与える共感解釈は対話二者の組み合わせ毎に独立であることを仮定する。よって、以下では対話者が二人のみの場合を想定する。なお、対話者が三人以上の場合には、それぞれの対話二者の組み合わせのみに注目して学習と推定を行えばよい。
この実施形態における行動チャネルbについてのタイミングモデルは式(2)のように定義される。
時間差関数P(d~tt b|ct b,et)は、対話二者間の行動が行動チャネルbにおいて一致しているか否かを示す一致性cとその時間差dtによって共感解釈eがどの種類となりやすいかの尤度を表す。この実施形態では、外部観察者の共感解釈の時系列をヒストグラム化した際のビン番号d~tt bを使用している。ビンサイズについては例えば200ミリ秒とする。
変化タイミング関数πはどのタイミングで共感解釈eが変化するかを表す。別の見方をすると、変化タイミング関数πは時間差関数がどの範囲にわたってどの程度の強さで式(1)における共感解釈eの推定に寄与するかを決定する。
静的モデルP(bt|et)は、時刻tに行動チャネルbについて対話二者間で特定の行動が共起した場合に、共感解釈eがどの程度の尤度で生成されるかをモデル化したものである。
この実施形態では、いずれのモデルについても離散状態として記述されているため、学習フェーズではその離散状態が学習サンプル中に何回出現したかの頻度を取り、最後にその頻度を正規化(確率化)すればよい。
図7を参照して、感情情報取得部110の推定フェーズにおける動作例を説明する。
制御部120は、N人が撮影された映像と感情情報とを受け取り、(1)感情情報のうち、N人のうちの1人である第一の人物2−i(iは1,2,…,Nの何れか)と他者2−j(j=1,2,…,N、ただし、i≠j)との間の感情情報σi,j、(2)感情情報σi,j以外の感情情報σi",j"(i”=1,2,…,N、ただしi”≠i、j”=1,2,…,N、ただし、i”≠j”かつi≠j”)、(3)全ての感情情報σi',j'(i’=1,2,…,N、j’=1,2,…,N、ただし、i’≠j’)を切り替えて、表示装置3に表示するように制御する(s2)。
「以下の中から表示する感情情報を選択してください
1.第一の人物と他者との間の共感情報
2.1.以外の共感情報
3.全ての共感情報」
と表示し、利用者が図示しない入力部(マウスやキーボード等)を操作して入力した情報に対応する感情情報を表示装置3に表示するように制御する。なお、この際、第一の人物を選択する処理を追加してもよい。例えば、感情情報表示制御装置100の図示しない表示部に「第一の人物を選択してください」と表示し、利用者が図示しない入力部を操作して入力した情報に基づき第一の人物を特定する。なお、第一の人物を選択する処理は、表示する感情情報を選択する前でも後でもよい。
このような構成により、感情情報を把握しやすくすることができる。例えば、第一の人物と他者との間の感情情報σi,jを表示することで、第一の人物の感情情報を把握しやすくすることができ、第一の人物のコミュニケーション能力等を見る際に有効である。第一の人物が、表示装置を見る場合には、自分自身と他者との感情状態を容易に把握することができる。第一の人物に対して他者全員が反感し、第一の人物と他者との間の感情情報以外の感情情報が全て共感である場合、第一の人物が自分自身だけ異なる意見を有することを即座に察知して話題を変えるなどの対応ができ、場の円満を図ることができる。また、第一の人物と他者との間の感情情報以外の感情情報σi",j"を表示することで、第一の人物以外の人物の感情情報を把握しやすくすることができ、第一の人物以外の人物間で行われている対話の状況やそれら人物のコミュニケーション能力等を見る際に有効である。感情情報σi,jとσi",j"とを切り替えて表示することで、第一の人物の感情情報を把握しつつ、第一の人物以外の人物の間の感情情報を把握しやすくなる。例えば、ディスカッション等の司会者や進行役を第一の人物として設定し、感情情報σi,jとσi",j"とを切り替えて表示することで、感情情報σi,jにより司会者等の司会進行が上手くいっているか確認しつつ、感情情報σi",j"により参加者間の話し合いの状況を把握しやすくすることができる。
本実施形態では、共感を二者の感情状態が類似している状態、反感をそれらが異なっている状態と定義したが、外部観測者がある二者を見たときにその二者が「共感」していると感じられるものを『共感』と定義し、「反感」していると感じられるものを『反感』と定義してもよい。つまり、ここでは、観測者各々の内部にある共感・反感の定義に従うこととしている。これは、観測者各々の間で共感・反感の定義や共感・反感を読み取る能力がまちまちであり、むしろ、そのばらつきがあること自体がコミュニケーションの本質であり、複数の観測者による共感・反感の解釈を集めたものでもって客観的な共感・反感の定義とするという立場である。つまり、ここでモデル化したい『共感・反感』という事象には、対話の場における対話者間の共感・反感の不確定性と、外部観測者による共感・反感の定義・解釈の不確定性の両者がたたみ込まれている。
第一実施形態と異なる部分を中心に説明する。
制御部120は、N人が撮影された映像と感情情報とを受け取り、感情情報のうち、N人のうちの1人である第一の人物2−iと他者2−jとの間の感情情報σi,jを、M台の表示装置3−mのうちの1つである表示装置3−pに表示するように制御する(s2−1)。
このような構成により、感情情報を把握しやすくすることができる。例えば、第一の人物と他者との間の感情情報σi,jを表示することで、第一の人物の感情情報を把握しやすくすることができ、第一の人物のコミュニケーション能力等を見る際に有効である。第一の人物が、表示装置を見る場合には、自分自身と他者との感情状態を容易に把握することができる。第一の人物に対して他者全員が反感し、第一の人物と他者との間の感情情報以外の感情情報が全て共感である場合、第一の人物が自分自身だけ異なる意見を有することを即座に察知して話題を変えるなどの対応ができ、場の円満を図ることができる。また、第一の人物と他者との間の感情情報以外の感情情報σi",j"を表示することで、第一の人物以外の人物の感情情報を把握しやすくすることができ、第一の人物以外の人物間で行われている対話の状況やそれら人物のコミュニケーション能力等を見る際に有効である。感情情報σi,jとσi",j"とを同時にそれぞれ表示装置3−pと3−p’とに表示することで、第一の人物の感情情報を把握を把握しつつ、第一の人物以外の人物の間の感情情報を把握しやすくなる。例えば、ディスカッション等の司会者や進行役を第一の人物として設定し、感情情報σi,jとσi",j"とを同時にそれぞれ表示装置3−pと3−p’とに表示することで、感情情報σi,jにより司会者等の司会進行が上手くいっているか確認しつつ、感情情報σi",j"により参加者間の話し合いの状況を把握しやすくすることができる。
第二実施形態と異なる部分を中心に説明する。
制御部120は、N人が撮影された映像と感情情報とを受け取り、感情情報のうち、N人のうちの1人である第一の人物2−iと他者2−jとの間の感情情報σi,jを、M台の表示装置3−mのうちの1つである表示装置3−pに表示するように制御する(s2−1)。
このような構成により、第二実施形態と同様の効果を得ることができる。さらに、全ての感情情報σi',j'を、表示装置3−p”に表示することで、会話全体における、第一の人物や第一の人物以外の人物のコミュニケーション能力等やその役割等を容易に把握することができる。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (7)
- 複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを感情情報とし、3人以上が撮影された映像から、前記3人以上のうちの2人の間の感情情報を求める感情情報取得部と、
前記感情情報のうち、前記3人以上のうちの1人である第一の人物と2人以上の他者との間の感情情報を、前記第一の人物用の複数の表示装置のうちの1つである第一の表示装置に表示し、同時に、前記感情情報のうち、前記第一の人物と前記他者との間の前記感情情報以外の感情情報を、前記第一の人物用の前記複数の表示装置のうちの前記第一の表示装置以外の1つである第二の表示装置に表示するように制御する制御部とを含む、
感情情報表示制御装置。 - 請求項1の感情情報表示制御装置であって、
3≦N<N’、N’人が撮影された映像を入力とし、N’人の一部であるN人のうちの1人を前記第一の人物とし、前記N人のうちの第一の人物以外の(N−1)人を他者とする、
感情情報表示制御装置。 - 請求項1または請求項2の感情情報表示制御装置であって、
前記感情情報には、複数の種類の感情の度合いが含まれるものとし、前記感情情報取得部は、全ての種類の感情の度合いを前記感情情報として求め、
前記制御部は、前記感情情報取得部で求めた全ての種類の感情の度合いを前記感情情報として表示するように制御する、
感情情報表示制御装置。 - 複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを感情情報とし、3人以上が撮影された映像から、前記3人以上のうちの2人の間の感情情報を求める感情情報取得ステップと、
前記感情情報のうち、前記3人以上のうちの1人である第一の人物と2人以上の他者との間の感情情報を、前記第一の人物用の複数の表示装置のうちの1つである第一の表示装置に表示し、同時に、前記感情情報のうち、前記第一の人物と前記他者との間の前記感情情報以外の感情情報を、前記第一の人物用の前記複数の表示装置のうちの前記第一の表示装置以外の1つである第二の表示装置に表示するように制御する制御ステップとを含む、
感情情報表示制御方法。 - 請求項4の感情情報表示制御方法であって、
3≦N<N’、N’人が撮影された映像を入力とし、N’人の一部であるN人のうちの1人を前記第一の人物とし、前記N人のうちの第一の人物以外の(N−1)人を他者とする、
感情情報表示制御方法。 - 請求項4または請求項5の感情情報表示制御方法であって、
前記感情情報には、複数の種類の感情の度合いが含まれるものとし、前記感情情報取得ステップは、全ての種類の感情の度合いを前記感情情報として求め、
前記制御ステップは、前記感情情報取得ステップで求めた全ての種類の感情の度合いを前記感情情報として表示するように制御する、
感情情報表示制御方法。 - 請求項1から3の何れかの感情情報表示制御装置として、コンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013211506A JP6023684B2 (ja) | 2013-10-09 | 2013-10-09 | 感情情報表示制御装置、その方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013211506A JP6023684B2 (ja) | 2013-10-09 | 2013-10-09 | 感情情報表示制御装置、その方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015075907A JP2015075907A (ja) | 2015-04-20 |
JP6023684B2 true JP6023684B2 (ja) | 2016-11-09 |
Family
ID=53000724
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013211506A Active JP6023684B2 (ja) | 2013-10-09 | 2013-10-09 | 感情情報表示制御装置、その方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6023684B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6930277B2 (ja) * | 2017-08-09 | 2021-09-01 | 沖電気工業株式会社 | 提示装置、提示方法、通信制御装置、通信制御方法及び通信制御システム |
JP6774917B2 (ja) * | 2017-09-06 | 2020-10-28 | Kddi株式会社 | 所定行動に対するグループ内の同調圧力を推定するプログラム、装置及び方法 |
JP6664757B1 (ja) * | 2019-05-09 | 2020-03-13 | 株式会社Empath | 営業支援装置、営業支援方法、営業支援プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003248841A (ja) * | 2001-12-20 | 2003-09-05 | Matsushita Electric Ind Co Ltd | バーチャルテレビ通話装置 |
JP2009129338A (ja) * | 2007-11-27 | 2009-06-11 | Sony Corp | 対人関係評価装置、対人関係評価方法、対人関係評価システム、端末装置 |
-
2013
- 2013-10-09 JP JP2013211506A patent/JP6023684B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015075907A (ja) | 2015-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6023685B2 (ja) | 感情情報表示制御装置、その方法及びプログラム | |
US11546550B2 (en) | Virtual conference view for video calling | |
US12053301B2 (en) | Classifying facial expressions using eye-tracking cameras | |
JP5195106B2 (ja) | 画像修正方法、画像修正システム、及び画像修正プログラム | |
Storey et al. | 3DPalsyNet: A facial palsy grading and motion recognition framework using fully 3D convolutional neural networks | |
EP3298509B1 (en) | Prioritized display of visual content in computer presentations | |
Le et al. | Live speech driven head-and-eye motion generators | |
CN107831903B (zh) | 多人参与的人机交互方法及装置 | |
JP5437297B2 (ja) | 対話状態推定装置、方法、及びプログラム | |
EP2704429B1 (en) | Video conference systems implementing orchestration models | |
JP7278307B2 (ja) | コンピュータプログラム、サーバ装置、端末装置及び表示方法 | |
Koh et al. | Developing a hand gesture recognition system for mapping symbolic hand gestures to analogous emojis in computer-mediated communication | |
CN113703585A (zh) | 交互方法、装置、电子设备及存储介质 | |
JP6023684B2 (ja) | 感情情報表示制御装置、その方法及びプログラム | |
CN107622300B (zh) | 多模态虚拟机器人的认知决策方法和系统 | |
JP5930946B2 (ja) | 対話状態推定装置、対話状態推定方法、およびプログラム | |
US20240291892A1 (en) | Systems and methods for recommending interactive sessions based on social inclusivity | |
JP5840186B2 (ja) | 感情検索装置、方法及びプログラム | |
JP2015075906A (ja) | 感情情報表示制御装置、その方法及びプログラム | |
JP5931021B2 (ja) | 対人認知傾向モデル学習装置、対人認知状態推定装置、対人認知傾向モデル学習方法、対人認知状態推定方法及びプログラム | |
Gatica-Perez et al. | 25 Analysis of Small Groups | |
JP5909472B2 (ja) | 共感解釈推定装置、方法、プログラム | |
JP5921507B2 (ja) | 対話傾向得点化装置、方法及びプログラム | |
Begole | Responsive media: media experiences in the age of thinking machines | |
US12057956B2 (en) | Systems and methods for decentralized generation of a summary of a vitrual meeting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150908 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160405 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6023684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |