JP2015075908A - 感情情報表示制御装置、その方法及びプログラム - Google Patents
感情情報表示制御装置、その方法及びプログラム Download PDFInfo
- Publication number
- JP2015075908A JP2015075908A JP2013211507A JP2013211507A JP2015075908A JP 2015075908 A JP2015075908 A JP 2015075908A JP 2013211507 A JP2013211507 A JP 2013211507A JP 2013211507 A JP2013211507 A JP 2013211507A JP 2015075908 A JP2015075908 A JP 2015075908A
- Authority
- JP
- Japan
- Prior art keywords
- emotion information
- persons
- person
- emotion
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】感情情報表示制御装置は、複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを感情情報とし、2人以上が撮影された映像から、2人以上のうちの2人の間の感情情報を求める感情情報取得部と、2人以上のうちの1人である第一の人物と他者との間の感情情報に応じて、その他者の映像の大きさを変化させて表示装置に表示するように制御する制御部とを含む。
【選択図】図2
Description
図1は、第一実施形態に係る感情情報表示制御装置100の配置例を示す。感情情報表示制御装置100は、N人が撮影された映像を入力とし、表示装置3に、感情情報に応じて変更を加えた映像を出力する。Nは2以上の整数である。なお、感情情報は、複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを表す。なお、2人の人物の間において相互に共通する感情を対象とし、この実施形態では、感情として「共感」「反感」「何れでもない」の3種類の感情を用いる。ここでは、共感は二者の感情状態が類似している状態、反感はそれらが異なっている状態とする。この3種類の感情の度合いを感情情報とする。この感情情報は、対話者間の共感状態を示しているといってもよい。
感情情報取得部110は、N人が撮影された映像を受け取り、この映像からN人のうちの2人の間の感情情報を求め(s1)、求めた感情情報を制御部120に出力する。なお、N人が撮影された映像は、各対話者について一台のカメラを用意して、複数のカメラにより撮影した複数の映像を多重化した映像でもよいし(図1参照)、魚眼レンズを用いるなどした全方位カメラ一台で対話者全員を撮影した映像であってもよい。例えば、図1のように、カメラ1−n(ただしn=1,2,…,Nである)から人物2−nを撮影し、N個の映像を多重化したものを入力としてもよいし、1つの映像の中に複数人の人物が映っているものを入力としてもよい。
感情情報取得部110は、対話の状態を推定して、映像から2人の間の感情情報(「共感」「反感」「何れでもない」の3種類の感情の度合い)を求める。この感情情報取得部110の対話状態推定技術における一番のポイントは、対話二者間での与え手の行動表出とそれに対する受け手の反応表出との間での行動の時間差と、対話二者間でそれらの行動が一致しているか否かを示す一致性によって、その二者を見た外部観察者がその対話の状態をどう解釈するのかを確率的にモデル化したことである。この背後にあるのは、外部観察者が二者の間の対話状態を解釈する際に、人が相手の働きかけに対してどのように反応するかというこれまでに得られている心理学分野の知見を、意識的あるいは無意識的に利用しているであろうという仮説である。このモデルにより、対話二者の行動の時系列が与えられたときに、外部観察者の集団が各時刻において共感状態をどう解釈するのかの得票率が推定できる。
図4を参照して、この実施形態の感情情報取得部110の構成例について説明する。感情情報取得部110は入力部10と行動認識部20と共感解釈付与部30とパラメタ学習部40と事後確率推定部50と出力部60と学習用映像記憶部70と推定用映像記憶部72とモデルパラメタ記憶部74とを備える。学習用映像記憶部70と推定用映像記憶部72は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリなどの半導体メモリ素子により構成される補助記憶装置、などにより構成することができる。モデルパラメタ記憶部74は、学習用映像記憶部70と同様に構成してもよいし、リレーショナルデータベースやキーバリューストアなどのミドルウェア、などにより構成してもよい。
図6を参照して、感情情報取得部110の学習フェーズにおける動作例を説明する。
この実施形態のモデルについて詳述する。この実施形態では、外部観察者が与える共感解釈は対話二者の組み合わせ毎に独立であることを仮定する。よって、以下では対話者が二人のみの場合を想定する。なお、対話者が三人以上の場合には、それぞれの対話二者の組み合わせのみに注目して学習と推定を行えばよい。
この実施形態における行動チャネルbについてのタイミングモデルは式(2)のように定義される。
時間差関数P(d~tt b|ct b,et)は、対話二者間の行動が行動チャネルbにおいて一致しているか否かを示す一致性cとその時間差dtによって共感解釈eがどの種類となりやすいかの尤度を表す。この実施形態では、外部観察者の共感解釈の時系列をヒストグラム化した際のビン番号d~tt bを使用している。ビンサイズについては例えば200ミリ秒とする。
変化タイミング関数πはどのタイミングで共感解釈eが変化するかを表す。別の見方をすると、変化タイミング関数πは時間差関数がどの範囲にわたってどの程度の強さで式(1)における共感解釈eの推定に寄与するかを決定する。
静的モデルP(bt|et)は、時刻tに行動チャネルbについて対話二者間で特定の行動が共起した場合に、共感解釈eがどの程度の尤度で生成されるかをモデル化したものである。
この実施形態では、いずれのモデルについても離散状態として記述されているため、学習フェーズではその離散状態が学習サンプル中に何回出現したかの頻度を取り、最後にその頻度を正規化(確率化)すればよい。
図7を参照して、感情情報取得部110の推定フェーズにおける動作例を説明する。
制御部120は、N人が撮影された映像と感情情報とを受け取り、感情情報のうち、N人のうちの1人である第一の人物2−i(iは1,2,…,Nの何れか)と他者2−j(j=1,2,…,N、ただし、i≠j)との間の感情情報σi,jに応じて、他者2−jの映像の大きさを変化させて表示装置3に表示するように制御する(s2)。他者2−jの映像の大きさを変化させることで、表示装置3の視聴者は、第一の人物2−iと他者2−jとの間の感情を直感的に把握することができる。以下、制御方法を四つ提示する。
制御部120は、「共感」の度合いが「反感」の度合いよりも大きい他者2−jの映像ほど大きく表示装置3に表示するように制御する。言い換えると、「共感」の度合いが「反感」の度合いよりも大きい他者2−jの映像を、「反感」の度合いが「共感」の度合いよりも大きい他者2−jの映像よりも大きく表示装置3に表示するように制御する。例えば、「共感」の度合いが所定の閾値T1よりも大きい場合に他者2−jの映像の大きさSjを基準となる大きさSsよりも大きく表示装置に表示するように制御する。このときSj←Sbig>Ssである。また、制御部120は、「反感」の度合いが所定の閾値T2よりも大きい場合に他者2−jの映像の大きさSjを基準となる大きさSsよりも小さく、表示装置に表示するように制御する。このときSj←Ssmall<Ssである。
この制御方法では、制御方法1と同様に、感情情報σi,jとして、共感解釈eの事後確率分布P(et|B)を用いる。
制御部120は、共感スコアstの大きい他者を、共感スコアstの小さい他者よりも(言い換えると、共感スコアstの大きい他者であるほど)大きく表示装置3に表示するように制御する。
αは0<α<1の定数であり、例えば、α=0.2とすればよい。
この制御方法では、感情情報σi,jとして、事後確率が最も高い共感解釈の種類、すなわちe~t=argmax e_t P(et|B)を用いる。
制御部120は、「共感」の度合い、または、「反感」の度合いが大きい他者2−jの映像ほど大きく表示装置に表示するように制御する。言い換えると、「共感」の度合い、または、「反感」の度合いが大きい他者2−jの映像を、「共感」の度合いも「反感」の度合いも小さい他者2−jの映像よりも大きく表示装置に表示するように制御する。例えば、以下のように制御する。
(1)時刻tにおいて状態が共感である事後確率P(et=1|B)、または、反感である事後確率P(et=3|B)が所定の閾値T4よりも大きい場合に他者2−jの映像の大きさSjを基準となる大きさSsよりも大きく、表示装置に表示するように制御する。
(2)事後確率が最も高い共感解釈の種類、すなわちe~t=argmaxe_t P(et|B)が、「共感」、または、「反感」を表すとき、他者2−jの映像の大きさSjを基準となる大きさSsよりも大きく、表示装置に表示するように制御する。
(3)時刻tにおいて状態がどちらでもよいである事後確率P(et=2|B)が所定の閾値T5よりも大きい場合に他者2−jの映像の大きさSjを基準となる大きさSsよりも小さく、表示装置に表示するように制御する。
(4)e~tが「どちらでもよい」を表すとき、他者2−jの映像の大きさSjを基準となる大きさSsよりも小さく、表示装置に表示するように制御する。
なお、事後確率P(et=2|B)が所定の閾値T5よりも大きい場合や、e~tが「どちらでもよい」を表すときには、「共感」の度合い、または、「反感」の度合いが相対的に小さいと考えられるため、(3)(4)では、他者2−jの映像の大きさSjを基準となる大きさSsよりも小さくする。
このような構成により、第一の人物の感情情報を直感的に把握しやすくすることができる。さらに、第一の人物自身が、表示装置を見る場合には、表示装置3として、ヘッドマウントディスプレイを用いることで、より直感的な把握が可能となる。
本実施形態では、共感を二者の感情状態が類似している状態、反感をそれらが異なっている状態と定義したが、外部観測者がある二者を見たときにその二者が「共感」していると感じられるものを『共感』と定義し、「反感」していると感じられるものを『反感』と定義してもよい。つまり、ここでは、観測者各々の内部にある共感・反感の定義に従うこととしている。これは、観測者各々の間で共感・反感の定義や共感・反感を読み取る能力がまちまちであり、むしろ、そのばらつきがあること自体がコミュニケーションの本質であり、複数の観測者による共感・反感の解釈を集めたものでもって客観的な共感・反感の定義とするという立場である。つまり、ここでモデル化したい『共感・反感』という事象には、対話の場における対話者間の共感・反感の不確定性と、外部観測者による共感・反感の定義・解釈の不確定性の両者がたたみ込まれている。
第一実施形態と異なる部分を中心に説明する。
制御部120は、N人が撮影された映像と感情情報とを受け取り、感情情報のうち、感情情報σn,n'に応じて、その人物間の距離を変化させて表示装置3に表示するように制御する(s2)。ただし、n=1,2,…,N、n'=1,2,…,N、n≠n'である。人物間の距離を変化させることで、表示装置3の視聴者は、人物間の感情を直感的に把握することができる。以下、制御方法を四つ提示する。
制御部120は、「共感」の度合いが「反感」の度合いよりも大きい人物間の距離ほど小さく表示装置3に表示するように制御する。言い換えると、「共感」の度合いが「反感」の度合いよりも大きい人物間の距離を、「反感」の度合いが「共感」の度合いよりも大きい人物間の距離よりも小さく表示装置3に表示するように制御する。例えば、「共感」の度合いが所定の閾値T1よりも大きい場合に対応する人物間の距離dn,n'を基準となる距離dsよりも小さく表示装置に表示するように制御する。このときdn,n'←dsh<dsである。また、制御部120は、「反感」の度合いが所定の閾値T2よりも大きい場合に対応する人物間の距離dn,n'を基準となる距離dsよりも大きく表示装置に表示するように制御する。このときdn,n'←dlo>dsである。
この制御方法では、制御方法1と同様に、感情情報σn,n'として、共感解釈eの事後確率分布P(et|B)を用いる。
制御部120は、共感スコアstの大きい人物間の距離を、共感スコアstの小さい人物間の距離よりも小さく(言い換えると、共感スコアstの大きい人物間の距離ほど小さく)表示装置3に表示するように制御する。
距離行列DはN×Nの行列である。ここでNは対話者数を表す。距離行列Dの(n,n')成分をdn,n'とすると、dn,n'=(1-β・sn,n')等とすればよい。ここで、βは0<β<1の定数であり、例えばβ=0.5等とする。また、sn,n'は人物2−nと人物2−n’のペアにおける共感スコアstであり、sn,n=0である(なお、時刻tは省略している)。
二重中心化行列Bを
座標行列XをX=Σ・Λ1/2として算出する。ここで、Σは二重中心化行列Bの固有値を対角成分に並べた対角行列であり、ΛはΣに対応する二重中心化行列Bの固有ベクトルを並べた行列である。
この制御方法では、感情情報σn,n'として、事後確率が最も高い共感解釈の種類、すなわちe~t=argmax e_t P(et|B)を用いる。
制御部120は、「共感」の度合い、または、「反感」の度合いが大きい人物間の距離ほど小さく表示装置に表示するように制御する。言い換えると、「共感」の度合い、または、「反感」の度合いが人物間の距離を、「共感」の度合い、または、「反感」の度合いが小さい人物間の距離よりも小さく表示装置に表示するように制御する。例えば、以下のように制御する。
(1)時刻tにおいて状態が共感である事後確率P(et=1|B)、または、反感である事後確率P(et=3|B)が所定の閾値T4よりも大きい場合に対応する人物間の距離dn,n'を基準となる距離dsよりも小さく、表示装置に表示するように制御する。
(2)事後確率が最も高い共感解釈の種類、すなわちe~t=argmaxe_t P(et|B)が、「共感」、または、「反感」を表すとき、対応する人物間の距離dnn'を基準となる距離dsよりも小さく、表示装置に表示するように制御する。
(3)時刻tにおいて状態がどちらでもよいである事後確率P(et=2|B)が所定の閾値T5よりも大きい場合に対応する人物間の人物間の距離dnn'を基準となる距離dsよりも大きく、表示装置に表示するように制御する。
(4)e~tが「どちらでもよい」を表すとき、対応する人物間の人物間の距離dnn'を基準となる距離dsよりも大きく、表示装置に表示するように制御する。
なお、事後確率P(et=2|B)が所定の閾値T5よりも大きい場合や、e~tが「どちらでもよい」を表すときには、「共感」の度合い、または、「反感」の度合いが相対的に小さいと考えられるため、(3)(4)では、対応する人物間の人物間の距離dnn'を基準となる距離dsよりも大きくする。
このような構成により、人物間の感情情報やグループの構造を直感的に把握しやすくすることができる。なお、本実施形態についても第一実施形態の変形例と同様の変形が可能である。例えば、感情情報に応じて、人物間の距離を変化させることで利用者が「共感」「反感」の状態を知ることができればよいので、「共感」している人物間の距離を大きくし、「反感」している人物間の距離を小さくするように制御してもよい。ただし、距離が小さいほうが、共感していると認識されやすいと考えられる。そのため、より直感的に把握しやすい。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (12)
- 複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを感情情報とし、2人以上が撮影された映像から、前記2人以上のうちの2人の間の感情情報を求める感情情報取得部と、
前記2人以上のうちの1人である第一の人物と他者との間の感情情報に応じて、その他者の映像の大きさを変化させて表示装置に表示するように制御する制御部とを含む、
感情情報表示制御装置。 - 請求項1の感情情報表示制御装置であって、
前記感情情報には、肯定的関係を表す情報と否定的関係を表す情報とが含まれるものとし、前記制御部は、前記感情情報に含まれる肯定的関係を表す情報と否定的関係を表す情報とに応じて映像の大きさを変化させて前記表示装置に表示するように制御する、
感情情報表示制御装置。 - 請求項1の感情情報表示制御装置であって、
前記感情情報には、肯定的関係を表す情報と否定的関係を表す情報とが含まれるものとし、前記制御部は、前記肯定的関係を表す情報と前記否定的関係を表す情報とから共感スコアを求め、求めた共感スコアに応じて映像の大きさを変化させて前記表示装置に表示するように制御する、
感情情報表示制御装置。 - 請求項2または3感情情報表示制御装置であって、
前記制御部は、肯定的関係が否定的関係よりも強い人物ほど、または、共感スコアの高い人物であるほど、または、肯定的関係若しくは否定的関係が強い人物ほど大きく前記表示装置に表示するように制御する、
感情情報表示制御装置。 - 複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを感情情報とし、2人以上が撮影された映像から、前記2人以上のうちの2人の間の感情情報を求める感情情報取得部と、
感情情報に応じて、対応する人物間の距離を変化させて表示装置に表示するように制御する制御部とを含む、
感情情報表示制御装置。 - 請求項5の感情情報表示制御装置であって、
前記感情情報には、肯定的関係を表す情報と否定的関係を表す情報とが含まれるものとし、前記制御部は、前記感情情報に含まれる肯定的関係を表す情報と否定的関係を表す情報とに応じて、対応する人物間の距離を変化させて前記表示装置に表示するように制御する、
感情情報表示制御装置。 - 請求項5の感情情報表示制御装置であって、
前記感情情報には、肯定的関係を表す情報と否定的関係を表す情報とが含まれるものとし、前記肯定的関係を表す情報と前記否定的関係を表す情報とから共感スコアを求め、求めた共感スコアに応じて、対応する人物間の距離を変化させて前記表示装置に表示するように制御する、
感情情報表示制御装置。 - 請求項6または7の感情情報表示制御装置であって、
前記制御部は、
肯定的関係が否定的関係よりも強い人物間の距離ほど、または、共感スコアの高い人物間の距離ほど、または、肯定的関係若しくは否定的関係が強い人物間の距離ほど小さく前記表示装置に表示するように制御する、
感情情報表示制御装置。 - 請求項2から4及び請求項6から8の何れかの感情情報表示制御装置であって、
前記肯定的関係を表す情報は2人の間の「共感」の度合いであり、前記否定的関係を表す情報は2人の間の「反感」の度合いである、
感情情報表示制御装置。 - 複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを感情情報とし、2人以上が撮影された映像から、前記2人以上のうちの2人の間の感情情報を求める感情情報取得ステップと、
前記2人以上のうちの1人である第一の人物と他者との間の感情情報に応じて、その他者の映像の大きさを変化させて表示方法に表示するように制御する制御ステップとを含む、
感情情報表示制御方法。 - 複数の人物の中の2人の人物から構成される各ペアについてのその各ペアを構成する2人の人物の間の感情の度合いを感情情報とし、2人以上が撮影された映像から、前記2人以上のうちの2人の間の感情情報を求める感情情報取得ステップと、
感情情報に応じて、その人物間の距離を変化させて表示方法に表示するように制御する制御ステップとを含む、
感情情報表示制御方法。 - 請求項1から9の何れかの感情情報表示制御装置として、コンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013211507A JP6023685B2 (ja) | 2013-10-09 | 2013-10-09 | 感情情報表示制御装置、その方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013211507A JP6023685B2 (ja) | 2013-10-09 | 2013-10-09 | 感情情報表示制御装置、その方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015075908A true JP2015075908A (ja) | 2015-04-20 |
JP6023685B2 JP6023685B2 (ja) | 2016-11-09 |
Family
ID=53000725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013211507A Active JP6023685B2 (ja) | 2013-10-09 | 2013-10-09 | 感情情報表示制御装置、その方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6023685B2 (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016178329A1 (ja) * | 2015-05-07 | 2016-11-10 | ソニー株式会社 | 情報処理システム、制御方法、および記憶媒体 |
WO2019103484A1 (ko) * | 2017-11-24 | 2019-05-31 | 주식회사 제네시스랩 | 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체 |
KR20190060630A (ko) * | 2017-11-24 | 2019-06-03 | 주식회사 제네시스랩 | 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체 |
WO2019130437A1 (ja) * | 2017-12-26 | 2019-07-04 | 株式会社ウフル | 地域別笑顔度表示システム、地域別笑顔度表示方法及びプログラム |
WO2019130436A1 (ja) * | 2017-12-26 | 2019-07-04 | 株式会社ウフル | 笑顔伝染判定システム、笑顔伝染判定方法及びプログラム |
KR20200085696A (ko) * | 2018-01-02 | 2020-07-15 | 주식회사 제네시스랩 | 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법 |
JPWO2022024956A1 (ja) * | 2020-07-27 | 2022-02-03 | ||
WO2022064620A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064622A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | 感情解析システム |
WO2022064621A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064617A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064618A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064619A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022074785A1 (ja) * | 2020-10-08 | 2022-04-14 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022137502A1 (ja) * | 2020-12-25 | 2022-06-30 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022145038A1 (ja) * | 2020-12-31 | 2022-07-07 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022145044A1 (ja) * | 2020-12-31 | 2022-07-07 | 株式会社I’mbesideyou | 反応通知システム |
WO2022145043A1 (ja) * | 2020-12-31 | 2022-07-07 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
JP2022124632A (ja) * | 2021-02-16 | 2022-08-26 | Necソリューションイノベータ株式会社 | 影響度分析装置、影響度可視化システム装置、影響度分析方法、影響度可視化方法、プログラム及び記録媒体 |
WO2023145350A1 (ja) * | 2022-01-25 | 2023-08-03 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理システムおよびプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129338A (ja) * | 2007-11-27 | 2009-06-11 | Sony Corp | 対人関係評価装置、対人関係評価方法、対人関係評価システム、端末装置 |
JP2009301407A (ja) * | 2008-06-16 | 2009-12-24 | Takenaka Komuten Co Ltd | 情報距離報知装置及び情報距離報知プログラム |
JP2013017722A (ja) * | 2011-07-13 | 2013-01-31 | Hitachi Ltd | 複数脳賦活観測システム |
JP2013168184A (ja) * | 2011-12-05 | 2013-08-29 | Konami Digital Entertainment Co Ltd | メッセージ管理システム、メッセージ表示装置、メッセージの表示方法、及びプログラム |
-
2013
- 2013-10-09 JP JP2013211507A patent/JP6023685B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009129338A (ja) * | 2007-11-27 | 2009-06-11 | Sony Corp | 対人関係評価装置、対人関係評価方法、対人関係評価システム、端末装置 |
JP2009301407A (ja) * | 2008-06-16 | 2009-12-24 | Takenaka Komuten Co Ltd | 情報距離報知装置及び情報距離報知プログラム |
JP2013017722A (ja) * | 2011-07-13 | 2013-01-31 | Hitachi Ltd | 複数脳賦活観測システム |
JP2013168184A (ja) * | 2011-12-05 | 2013-08-29 | Konami Digital Entertainment Co Ltd | メッセージ管理システム、メッセージ表示装置、メッセージの表示方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
JPN6015035901; 熊野史朗 外3名: '複数人対話を対象とした顔表情の共起パターンの確率モデルに基づく共感状態の推定' 画像の認識・理解シンポジウム(MIRU2011) , 20110720, 第739-746頁, 情報処理学会 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2016178329A1 (ja) * | 2015-05-07 | 2018-02-22 | ソニー株式会社 | 情報処理システム、制御方法、および記憶媒体 |
WO2016178329A1 (ja) * | 2015-05-07 | 2016-11-10 | ソニー株式会社 | 情報処理システム、制御方法、および記憶媒体 |
US11475710B2 (en) | 2017-11-24 | 2022-10-18 | Genesis Lab, Inc. | Multi-modal emotion recognition device, method, and storage medium using artificial intelligence |
WO2019103484A1 (ko) * | 2017-11-24 | 2019-05-31 | 주식회사 제네시스랩 | 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체 |
KR20190060630A (ko) * | 2017-11-24 | 2019-06-03 | 주식회사 제네시스랩 | 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체 |
US10740598B2 (en) | 2017-11-24 | 2020-08-11 | Genesis Lab, Inc. | Multi-modal emotion recognition device, method, and storage medium using artificial intelligence |
KR102133728B1 (ko) * | 2017-11-24 | 2020-07-21 | 주식회사 제네시스랩 | 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체 |
JPWO2019130436A1 (ja) * | 2017-12-26 | 2020-07-16 | 株式会社ウフル | 笑顔伝染判定システム、笑顔伝染判定方法及びプログラム |
JPWO2019130437A1 (ja) * | 2017-12-26 | 2020-07-16 | 株式会社ウフル | 地域別笑顔度表示システム、地域別笑顔度表示方法及びプログラム |
WO2019130436A1 (ja) * | 2017-12-26 | 2019-07-04 | 株式会社ウフル | 笑顔伝染判定システム、笑顔伝染判定方法及びプログラム |
WO2019130437A1 (ja) * | 2017-12-26 | 2019-07-04 | 株式会社ウフル | 地域別笑顔度表示システム、地域別笑顔度表示方法及びプログラム |
KR20200085696A (ko) * | 2018-01-02 | 2020-07-15 | 주식회사 제네시스랩 | 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법 |
KR102290186B1 (ko) | 2018-01-02 | 2021-08-17 | 주식회사 제네시스랩 | 사람의 감성 상태를 결정하기 위하여 영상을 처리하는 감성인식 방법 |
JPWO2022024956A1 (ja) * | 2020-07-27 | 2022-02-03 | ||
WO2022024956A1 (ja) * | 2020-07-27 | 2022-02-03 | 株式会社I’mbesideyou | 感情解析システムおよび感情解析装置 |
WO2022024194A1 (ja) * | 2020-07-27 | 2022-02-03 | 株式会社I’mbesideyou | 感情解析システム |
JP7165463B2 (ja) | 2020-07-27 | 2022-11-04 | 株式会社I’mbesideyou | 感情解析システムおよび感情解析装置 |
WO2022064622A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | 感情解析システム |
WO2022064621A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064617A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064618A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022064619A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
JPWO2022064622A1 (ja) * | 2020-09-24 | 2022-03-31 | ||
JP7553128B2 (ja) | 2020-09-24 | 2024-09-18 | 株式会社I’mbesideyou | 感情解析システム |
WO2022064620A1 (ja) * | 2020-09-24 | 2022-03-31 | 株式会社I’mbesideyou | ビデオミーティング評価システム及びビデオミーティング評価サーバ |
WO2022074785A1 (ja) * | 2020-10-08 | 2022-04-14 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022137502A1 (ja) * | 2020-12-25 | 2022-06-30 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022145038A1 (ja) * | 2020-12-31 | 2022-07-07 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022145043A1 (ja) * | 2020-12-31 | 2022-07-07 | 株式会社I’mbesideyou | ビデオミーティング評価端末、ビデオミーティング評価システム及びビデオミーティング評価プログラム |
WO2022145044A1 (ja) * | 2020-12-31 | 2022-07-07 | 株式会社I’mbesideyou | 反応通知システム |
JP2022124632A (ja) * | 2021-02-16 | 2022-08-26 | Necソリューションイノベータ株式会社 | 影響度分析装置、影響度可視化システム装置、影響度分析方法、影響度可視化方法、プログラム及び記録媒体 |
JP7677696B2 (ja) | 2021-02-16 | 2025-05-15 | Necソリューションイノベータ株式会社 | 影響度分析装置、影響度可視化システム装置、影響度分析方法、影響度可視化方法、プログラム及び記録媒体 |
WO2023145350A1 (ja) * | 2022-01-25 | 2023-08-03 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理システムおよびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6023685B2 (ja) | 2016-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6023685B2 (ja) | 感情情報表示制御装置、その方法及びプログラム | |
CN110850983B (zh) | 视频直播中的虚拟对象控制方法、装置和存储介质 | |
US12053301B2 (en) | Classifying facial expressions using eye-tracking cameras | |
CN110348420B (zh) | 手语识别方法、装置、计算机可读存储介质和计算机设备 | |
CN112889108B (zh) | 使用视听数据进行说话分类 | |
Le et al. | Live speech driven head-and-eye motion generators | |
JP6467965B2 (ja) | 感情推定装置及び感情推定方法 | |
JP5437297B2 (ja) | 対話状態推定装置、方法、及びプログラム | |
CN111833418A (zh) | 动画交互方法、装置、设备以及存储介质 | |
JP7278307B2 (ja) | コンピュータプログラム、サーバ装置、端末装置及び表示方法 | |
CN108875539B (zh) | 表情匹配方法、装置和系统及存储介质 | |
Koh et al. | Developing a hand gesture recognition system for mapping symbolic hand gestures to analogous emojis in computer-mediated communication | |
JP7098949B2 (ja) | 情報処理装置及び情報処理プログラム | |
CN113703585A (zh) | 交互方法、装置、电子设备及存储介质 | |
US20250181228A1 (en) | Image processing method and apparatus, device, medium, and program product | |
Kondo et al. | Siamese-structure deep neural network recognizing changes in facial expression according to the degree of smiling | |
JP6023684B2 (ja) | 感情情報表示制御装置、その方法及びプログラム | |
JP2016213631A (ja) | 理解状態推定装置及びプログラム | |
JP2015075906A (ja) | 感情情報表示制御装置、その方法及びプログラム | |
JP5840186B2 (ja) | 感情検索装置、方法及びプログラム | |
CN107622300B (zh) | 多模态虚拟机器人的认知决策方法和系统 | |
JP5930946B2 (ja) | 対話状態推定装置、対話状態推定方法、およびプログラム | |
JP5931021B2 (ja) | 対人認知傾向モデル学習装置、対人認知状態推定装置、対人認知傾向モデル学習方法、対人認知状態推定方法及びプログラム | |
JP5909472B2 (ja) | 共感解釈推定装置、方法、プログラム | |
Gatica-Perez et al. | 25 Analysis of Small Groups |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6023685 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |