JP2015219698A - Apparatus, program, and method for estimating emotion based on degree of influence of parts - Google Patents
Apparatus, program, and method for estimating emotion based on degree of influence of parts Download PDFInfo
- Publication number
- JP2015219698A JP2015219698A JP2014102496A JP2014102496A JP2015219698A JP 2015219698 A JP2015219698 A JP 2015219698A JP 2014102496 A JP2014102496 A JP 2014102496A JP 2014102496 A JP2014102496 A JP 2014102496A JP 2015219698 A JP2015219698 A JP 2015219698A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- distribution
- expression
- image
- expression image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】キャラクタに対しても高い効率で感情を推定することができ、とり得る感情全体の中での推定される感情の位置を容易に把握可能な感情推定装置を提供する。【解決手段】本感情推定装置は、表現体画像に含まれ得るパーツの各々に対する感情評価結果から、各パーツについて当該パーツに対するパーツ感情値分布を決定する手段と、分析対象の表現体画像に対する感情評価結果から、この表現体画像に対する表現体感情値分布を決定する手段と、決定された表現体感情値分布はこの表現体画像に含まれるパーツに対するパーツ感情値分布を重み付けして重畳させた結果であるとして、分析対象の表現体画像に含まれる各パーツについて重みとしての影響度を算出する手段と、推定対象の表現体画像に対する表現体感情値分布を、この表現体画像に含まれる各パーツに対するパーツ感情値分布と、各パーツについて算出された影響度とに基づいて算出する手段とを有する。【選択図】図2There is provided an emotion estimation device capable of estimating an emotion with respect to a character with high efficiency and easily grasping an estimated emotion position in all possible emotions. The emotion estimation apparatus is configured to determine, for each part, a part emotion value distribution for each part from an emotion evaluation result for each part that can be included in the expression image, and an emotion for the analysis target expression image. From the evaluation result, a means for determining the expression emotion value distribution for this expression image, and the determined expression emotion value distribution obtained by weighting and superimposing the part emotion value distribution for the parts included in this expression image Means for calculating the degree of influence as a weight for each part included in the representation object image to be analyzed, and the expression emotion value distribution for the estimation object representation image, each part included in the expression image And means for calculating based on the part emotion value distribution and the degree of influence calculated for each part. [Selection] Figure 2
Description
本発明は、キャラクタ等の表現体が表現する感情を推定する技術に関する。 The present invention relates to a technique for estimating an emotion expressed by an expression such as a character.
画像として表示されたキャラクタ等の表情は、人間の実際の表情と同様に内面的な状態や感情を表現することができるため、ユーザとのコミュニケーションにおいて非常に重要な役割を果たす。画像に表現されたバリエーション豊かな表情は、ビジュアルキャラクタを用いた会話エージェントやアニメ−ションにおいても、高い品質のサービスを提供する上で重要な要素となっている。 Expressions such as characters displayed as images can play an extremely important role in communication with the user because they can express internal states and emotions in the same way as human actual expressions. Expressions rich in variations expressed in images are an important factor in providing high quality services even in conversation agents and animations using visual characters.
従来、人間の表情については、そこから感情を推定する技術が種々考案されている。例えば、特許文献1には、人間の顔の表情から心理状態を推定する技術が開示されている。この技術では、最初に、人間の顔画像における口及び左右の眼の形状をそれぞれ、フーリエ記述子を用いて定量的に表す。次いで、このフーリエ記述子を用いた線形判別式を用い、口及び左右の眼のそれぞれの形状において、予め設定された複数の基本感情についての判定得点を算出して正規化する。最後に、それぞれの形状についての各基本感情に関する感情確信度を、表情要素毎の重要度を加味した重回帰式に当てはめて算出し、その結果から人間の心理状態を推定している。
Conventionally, various techniques have been devised for estimating human emotions. For example,
また、特許文献2には、不特定人物の表情を認識し、その人物の感情を推定する感情推定技術が開示されている。この技術では、所定の感情に関連付けられた特定人物の表情画像を学習してニューラルネットワークによる表情マップを生成する。次いで、生成された表情マップを所定の感情に基づいて複数の領域に区分し、不特定人物の表情画像と、区分された領域を有する複数の表情マップとに基づいて不特定人物の感情を推定する。
しかしながら、特許文献1及び2に開示されたような従来技術は、人間の表情からの感情推定にとどまっており、例えば、画像として表示されたキャラクタ等の表情に対して適するものではない。
However, the conventional techniques disclosed in
実際、特許文献1及び2に開示された技術では、ビジュアルキャラクタのモデルデータに対し、感情を付与することが何ら想定されていない。例えば、これらの技術では、感情を推定する対象の顔画像において、表情を特徴量化するための計測処理が必要となる。しかしながら、表情のモデルデータが予め設定されているビジュアルキャラクタでは、この処理が逆に多大な負担となってしまう。このように、ビジュアルキャラクタに対する上述した従来技術の適用は、非常に非効率なものとなる。
Actually, in the techniques disclosed in
さらに、特許文献1及び2に示したような従来技術では、感情を予め複数の基本感情や区分領域に分類し、分類問題的に感情を推定する。そのため、例えば表情及び表情の変化を設計する際、とり得る感情全体の中で、ある表情についての感情値が占める位置や変化の方向を認識しつつ、所望の感情を表す刻々の表情を決定することは難しい。その結果、表情又はその変化によって、微妙な感情又はその推移を表現することが非常に困難となる。
Furthermore, in the prior art as shown in
そこで、本発明は、表情のモデルデータが予め設定されているキャラクタに対しても高い効率で感情を推定することができ、とり得る感情全体の中での推定される感情の位置を容易に把握可能な感情推定装置、プログラム及び方法を提供することを目的とする。 Therefore, the present invention can estimate emotions with high efficiency even for characters for which facial expression model data is set in advance, and easily grasps the estimated emotion position in all possible emotions. An object is to provide a possible emotion estimation apparatus, program, and method.
本発明によれば、複数のパーツを含む表現体画像において表現された感情を推定する感情推定装置であって、
当該表現体画像に含まれ得る複数のパーツの各々に対する複数の感情評価結果から、当該複数のパーツの各々について、当該パーツに対する感情値の分布であるパーツ感情値分布を決定するパーツ感情分布決定手段と、
分析対象の表現体画像に対する複数の感情評価結果から、当該分析対象の表現体画像に対する感情値の分布である表現体感情値分布を決定する表現体感情分布決定手段と、
決定された表現体感情値分布は、当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布を重み付けして重畳させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、重みとしての影響度を算出する影響度算出手段と、
推定対象の表現体画像に対する表現体感情値分布を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布と、当該推定対象の表現体画像に含まれるパーツの各々について算出された影響度とに基づいて算出する感情値算出手段と
を有する感情推定装置が提供される。
According to the present invention, there is an emotion estimation device for estimating an emotion expressed in an expression body image including a plurality of parts,
Part emotion distribution determining means for determining, for each of the plurality of parts, a part emotion value distribution, which is a distribution of emotion values for the part, from a plurality of emotion evaluation results for each of the plurality of parts that can be included in the expression image. When,
Expression emotion distribution determination means for determining an expression emotion value distribution, which is a distribution of emotion values for the analysis target expression image, from a plurality of emotion evaluation results for the analysis target expression image,
The determined expression body emotion value distribution is a result of weighting and superimposing the part emotion value distributions on the parts included in the analysis object expression image, and the distribution of the parts included in the analysis object expression image. For each, an influence degree calculating means for calculating an influence degree as a weight,
The expression emotion value distribution for the estimation target expression image is calculated for each part emotion value distribution for each part included in the estimation target expression image and for each part included in the estimation target expression image. An emotion estimation device having emotion value calculation means for calculating based on the degree of influence obtained is provided.
この本発明による感情推定装置において、パーツ感情分布決定手段は、当該パーツに対するパーツ感情値分布における平均値を決定し、
表現体感情分布決定手段は、当該分析対象の表現体画像に対する表現体感情値分布における平均値を決定し、
影響度算出手段は、当該表現体感情値分布における平均値が当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布における平均値を重み付けして結合させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、平均値での重みとしての平均値影響度を算出し、
感情値算出手段は、推定対象の表現体画像に対する感情値を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布における平均値と、当該推定対象の表現体画像に含まれるパーツの各々について算出された平均値影響度とに基づいて算出することも好ましい。
In the emotion estimation device according to the present invention, the part emotion distribution determining means determines an average value in the part emotion value distribution for the part,
The expression body emotion distribution determining means determines an average value in the expression body emotion value distribution for the expression body image to be analyzed,
The influence degree calculation means assumes that the average value in the expression body emotion value distribution is a result of weighting and combining the average values in the part emotion value distribution with respect to parts included in the expression body image to be analyzed. For each part contained in the expression image of, calculate the average value influence as a weight in the average value,
The emotion value calculation means includes an emotion value for the estimation target expression image included in the average value in the part emotion value distribution for each part included in the estimation target expression image and the estimation target expression image. It is also preferable to calculate based on the average value influence degree calculated for each part.
さらに、本発明による感情推定装置において、パーツ感情分布決定手段は、当該パーツに対するパーツ感情値分布における分散共分散行列を決定し、
表現体感情分布決定手段は、当該分析対象の表現体画像に対する表現体感情値分布における分散共分散行列を決定し、
影響度算出手段は、当該表現体感情値分布における分散共分散行列が当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布における分散共分散行列を重み付けして結合させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、分散共分散行列での重みとしての分散共分散行列影響度を算出し、
感情値算出手段は、推定対象の表現体画像に対する感情値の分散の程度を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布における分散共分散行列と、当該推定対象の表現体画像に含まれるパーツの各々について算出された分散共分散行列影響度とに基づいて算出することも好ましい。
Furthermore, in the emotion estimation apparatus according to the present invention, the part emotion distribution determining means determines a variance covariance matrix in the part emotion value distribution for the part,
The expression emotion distribution determination means determines a variance covariance matrix in the expression emotion value distribution for the analysis target expression image,
The degree of influence calculation means that the variance covariance matrix in the expression body emotion value distribution is a result of weighted and combined with the variance covariance matrix in the part emotion value distribution for the parts included in the analysis subject expression image , For each of the parts included in the expression image to be analyzed, calculate the variance-covariance matrix influence as a weight in the variance-covariance matrix,
The emotion value calculation means determines the degree of variance of the emotion value for the estimation target expression image, the variance covariance matrix in the part emotion value distribution for each of the parts included in the estimation target expression image, and the estimation target It is also preferable to calculate based on the variance-covariance matrix influence degree calculated for each part included in the representation image.
また、本発明の感情推定装置における一実施形態として、算出された感情値が感情空間内において所定範囲内にある複数の表現体画像について、算出された分散共分散行列の小さい表現体画像ほどより高い優先度をもって提示を行う表現体画像提示手段を更に有することも好ましい。 Further, as one embodiment of the emotion estimation apparatus of the present invention, for a plurality of expression images whose calculated emotion values are within a predetermined range in the emotion space, the expression image having a smaller calculated variance-covariance matrix is more It is also preferable to further include a representational image presenting means for presenting with high priority.
さらに、影響度算出手段についての一実施形態として、影響度算出手段は、当該分析対象の表現体画像に対する表現体感情値分布を規定する値を目的変数とし、当該分析対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布を規定する値を説明変数として、重回帰分析を実行し、当該説明変数の係数として影響度を算出することも好ましい。 Furthermore, as one embodiment of the influence degree calculating means, the influence degree calculating means uses a value that defines the expression body emotion value distribution for the analysis target expression image as an objective variable, and is included in the analysis target expression image. It is also preferable to perform a multiple regression analysis using a value defining the part emotion value distribution for each of the parts to be explained as an explanatory variable, and to calculate the influence as a coefficient of the explanatory variable.
また、影響度算出手段についての他の実施形態として、影響度算出手段は、当該分析対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布を規定する値xと、当該分析対象の表現体画像に対する表現体感情値分布を規定する値yとの組をサンプル(x,y)として、当該サンプルと回帰曲線f(x)=x・w+b(bは定数項)との残差rのε許容誤差ξ(r)と、当該回帰曲線における重みwとを含む所定の関数Σξ(y−f(x))+λ|w|2/2を最小化する重みwに基づいて、影響度を算出することも好ましい。 As another embodiment of the influence degree calculating means, the influence degree calculating means includes a value x that defines a part emotion value distribution for each of the parts included in the expression image of the analysis target, and a representation of the analysis target. A set of the value y that defines the expression emotion value distribution for the body image is a sample (x, y), and the residual r between the sample and the regression curve f (x) = x · w + b (b is a constant term) and ε tolerance xi] (r), the weight w and a predetermined function including Σξ in the regression curve (y-f (x)) + λ | w | 2/2 on the basis of the weight w for minimizing a degree of influence It is also preferable to calculate.
さらに、パーツ感情分布決定手段についての一実施形態として、パーツ感情分布決定手段は、感情評価の基準となる標準表現体画像において、感情評価対象のパーツに対応するパーツを、当該感情評価対象のパーツに置き換えたパーツ評価用画像に対する複数の感情評価結果から、当該感情評価対象のパーツに対するパーツ感情値分布を決定することも好ましい。 Furthermore, as one embodiment of the part emotion distribution determining unit, the part emotion distribution determining unit is configured to select a part corresponding to the emotion evaluation target part in the standard expression image as a reference for the emotion evaluation. It is also preferable to determine the part emotion value distribution for the emotion evaluation target part from a plurality of emotion evaluation results for the part evaluation image replaced with.
また、本発明による感情推定装置においては、パーツ感情値分布及び影響度の規定された新たなパーツを用いて生成された新たな表現体画像の表現体感情値分布は、新たな感情評価試験を必要とせず自動的に生成されることも好ましい。 Further, in the emotion estimation apparatus according to the present invention, the expression emotion value distribution of a new expression image generated using a new part in which the part emotion value distribution and the degree of influence are defined is a new emotion evaluation test. It is also preferred that it be generated automatically without the need.
本発明によれば、さらに、複数のパーツを含む表現体画像において表現された感情を推定する装置に搭載されたコンピュータを機能させるプログラムであって、
当該表現体画像に含まれ得る複数のパーツの各々に対する複数の感情評価結果から、当該複数のパーツの各々について、当該パーツに対する感情値の分布であるパーツ感情値分布を決定するパーツ感情分布決定手段と、
分析対象の表現体画像に対する複数の感情評価結果から、当該分析対象の表現体画像に対する感情値の分布である表現体感情値分布を決定する表現体感情分布決定手段と、
決定された表現体感情値分布は、当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布を重み付けして重畳させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、重みとしての影響度を算出する影響度算出手段と、
推定対象の表現体画像に対する表現体感情値分布を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布と、当該推定対象の表現体画像に含まれるパーツの各々について算出された影響度とに基づいて算出する感情値算出手段と
してコンピュータを機能させる感情推定プログラムが提供される。
According to the present invention, there is further provided a program for causing a computer mounted on an apparatus for estimating an emotion expressed in an expression image including a plurality of parts to function.
Part emotion distribution determining means for determining, for each of the plurality of parts, a part emotion value distribution, which is a distribution of emotion values for the part, from a plurality of emotion evaluation results for each of the plurality of parts that can be included in the expression image. When,
Expression emotion distribution determination means for determining an expression emotion value distribution, which is a distribution of emotion values for the analysis target expression image, from a plurality of emotion evaluation results for the analysis target expression image,
The determined expression body emotion value distribution is a result of weighting and superimposing the part emotion value distributions on the parts included in the analysis object expression image, and the distribution of the parts included in the analysis object expression image. For each, an influence degree calculating means for calculating an influence degree as a weight,
The expression emotion value distribution for the estimation target expression image is calculated for each part emotion value distribution for each part included in the estimation target expression image and for each part included in the estimation target expression image. An emotion estimation program for causing a computer to function as emotion value calculation means for calculating based on the degree of influence obtained is provided.
本発明によれば、さらにまた、複数のパーツを含む表現体画像において表現された感情を推定する方法であって、
当該表現体画像に含まれ得る複数のパーツの各々に対する複数の感情評価結果から、当該複数のパーツの各々について、当該パーツに対する感情値の分布であるパーツ感情値分布を決定し、また、分析対象の表現体画像に対する複数の感情評価結果から、当該分析対象の表現体画像に対する感情値の分布である表現体感情値分布を決定する第1のステップと、
決定された表現体感情値分布は、当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布を重み付けして重畳させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、重みとしての影響度を算出する第2のステップと、
推定対象の表現体画像に対する表現体感情値分布を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布と、当該推定対象の表現体画像に含まれるパーツの各々について算出された影響度とに基づいて算出する第3のステップと
を有する感情推定方法が提供される。
According to the present invention, there is further provided a method for estimating an emotion expressed in an expression image including a plurality of parts,
From a plurality of emotion evaluation results for each of a plurality of parts that can be included in the expression image, for each of the plurality of parts, a part emotion value distribution that is a distribution of emotion values for the part is determined and analyzed. A first step of determining an expression emotion value distribution, which is a distribution of emotion values for the analysis target expression image, from a plurality of emotion evaluation results for the expression image of
The determined expression body emotion value distribution is a result of weighting and superimposing the part emotion value distributions on the parts included in the analysis object expression image, and the distribution of the parts included in the analysis object expression image. For each, a second step of calculating the influence as a weight;
The expression emotion value distribution for the estimation target expression image is calculated for each part emotion value distribution for each part included in the estimation target expression image and for each part included in the estimation target expression image. And a third step of calculating based on the degree of influence.
本発明の感情推定装置、プログラム及び方法によれば、表情のモデルデータが予め設定されているキャラクタに対しても高い効率で感情を推定することができ、また、とり得る感情全体の中での推定される感情の位置を容易に把握することができる。 According to the emotion estimation apparatus, program, and method of the present invention, it is possible to estimate an emotion with high efficiency even for a character for which facial expression model data is set in advance. It is possible to easily grasp the estimated emotion position.
以下では、本発明の実施形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明による感情推定方法の一実施形態における顔表情画像の生成を示す模式図である。 FIG. 1 is a schematic diagram showing generation of a facial expression image in an embodiment of an emotion estimation method according to the present invention.
図1によれば、本実施形態では、感情を表現可能な表現体画像としての顔表情画像2が、ベースパーツ21と、複数の顔パーツ22とから生成されている。ベースパーツ21は、顔の輪郭を規定するパーツであり、このベースパーツ21の上に各顔パーツ22が重畳して顔表情画像2が生成される。複数の顔パーツ22はそれぞれ、顔を構成する複数の部位(図1ではスキンカラー、目、口、眉)に対応する顔構成部位データである。
According to FIG. 1, in the present embodiment, a
本発明の感情推定方法は、複数のパーツ(顔パーツ22)を含む表現体画像(顔表情画像2)において表現された感情を推定する方法である。具体的には、最初に、
(ア)表現体画像(顔表情画像2)に含まれ得る複数のパーツ(顔パーツ22)の各々に対する複数の感情評価結果から、これら複数のパーツの各々について、当該パーツに対する感情値の分布である「パーツ感情値分布」を決定し、また、
(イ)分析対象の表現体画像(顔表情画像2)に対する複数の感情評価結果から、この分析対象の表現体画像に対する感情値の分布である「表現体感情値分布」を決定する。
The emotion estimation method of the present invention is a method for estimating an emotion expressed in an expression body image (face expression image 2) including a plurality of parts (face parts 22). Specifically, first,
(A) From a plurality of emotion evaluation results for each of a plurality of parts (face part 22) that can be included in the expression body image (face expression image 2), for each of the plurality of parts, distribution of emotion values for the part Determine a “parts emotion value distribution”,
(A) From a plurality of emotion evaluation results for the expression body image (face expression image 2) to be analyzed, an “expression body emotion value distribution” that is a distribution of emotion values for the expression body image to be analyzed is determined.
ここで、感情評価結果は、例えば、感情の主観評価実験の結果として取得される。この主観評価実験は、評価者が、複数のパーツの各々(又は表現体画像)を見た際に感得した感情を感情値として記録する実験である。複数の感情評価結果は、この場合、評価対象である1つのパーツ(又は表現体画像)を見た複数の評価者によって記録された複数の感情値の集合となる。この複数の感情値の集合から、感情空間における感情値分布としての「パーツ感情値分布(表現体感情値分布)」が決定される。 Here, the emotion evaluation result is acquired, for example, as a result of an emotional subjective evaluation experiment. This subjective evaluation experiment is an experiment in which an evaluator records emotions felt when he / she views each of a plurality of parts (or an expression image) as emotion values. In this case, the plurality of emotion evaluation results are a set of a plurality of emotion values recorded by a plurality of evaluators who viewed one part (or expression image) that is an evaluation target. From this set of emotion values, a “part emotion value distribution (expression body emotion value distribution)” as an emotion value distribution in the emotion space is determined.
次いで、
(ウ)決定された「表現体感情値分布」は、この分析対象の表現体画像に含まれるパーツに対する「パーツ感情値分布」を重み付けして重畳させた結果であるとして、この分析対象の表現体画像に含まれるパーツの各々について、重みとしての「影響度」を算出する。
Then
(C) The determined “expression body emotion value distribution” is a result of weighting and superimposing the “part emotion value distribution” on the parts included in the analysis object image of the analysis object. For each part included in the body image, an “influence” as a weight is calculated.
例えば、顔表情画像2の「表現体感情値分布」は、顔表情画像2を構成する顔パーツ22それぞれの「パーツ感情値分布」の畳み込みの結果であるとみなすことも好ましい。各顔パーツ22の「影響度」は、当該顔パーツの「パーツ感情値分布」を畳み込む際の重みとして算出される。
For example, it is preferable that the “expression body emotion value distribution” of the
最後に、
(エ)推定対象の表現体画像(顔表情画像2)に対する「表現体感情値分布」を、この推定対象の表現体画像(顔表情画像2)に含まれるパーツ(顔パーツ22)の各々に対する「パーツ感情値分布」と、この推定対象の表現体画像に含まれるパーツ(顔パーツ22)の各々について算出された「影響度」とに基づいて算出する。
ここで、算出された「表現体感情値分布」が、推定対象の表現体画像(顔表情画像2)の感情推定結果となる。
Finally,
(D) “Expression emotion value distribution” for the expression object image (face expression image 2) to be estimated is assigned to each part (face part 22) included in the expression object image (face expression image 2) to be estimated. The calculation is performed based on the “part emotion value distribution” and the “degree of influence” calculated for each part (face part 22) included in the expression image to be estimated.
Here, the calculated “expression body emotion value distribution” is the emotion estimation result of the expression body image (face expression image 2) to be estimated.
このように、本発明によれば、表現体画像(顔表情画像2)の感情を推定する際、例えば予め複数の基本感情を設定し、表現体画像がどの基本感情の範疇に分類されるのかとの分類問題として感情を推定するのではない。そうではなく、本発明では、最初に、感情空間における感情値の分布を示す「表現体感情値分布」及び「パーツ感情値分布」を決定するのである。 Thus, according to the present invention, when estimating the emotion of the expression body image (face expression image 2), for example, a plurality of basic emotions are set in advance, and the expression body image is classified into which category of basic emotion. The emotion is not estimated as a heel classification problem. Instead, in the present invention, first, “expression emotion value distribution” and “part emotion value distribution” indicating the distribution of emotion values in the emotion space are determined.
次いで、両分布を結びつける各パーツ(顔パーツ22)の「影響度」を算出する。これにより、推定対象の表現体画像(顔表情画像2)に含まれる各パーツ(顔パーツ22)の「パーツ感情値分布」及び「影響度」が確定し、これらを用いることによって、感情推定結果としての「表現体感情値分布」を算出することができるのである。 Next, the “degree of influence” of each part (face part 22) connecting both distributions is calculated. Thereby, the “part emotion value distribution” and the “influence degree” of each part (face part 22) included in the expression object image (face expression image 2) to be estimated are determined, and by using these, an emotion estimation result is obtained. The “expression body emotion value distribution” can be calculated.
このように、本感情推定方法は、表現体画像(顔表情画像2)及び各パーツ(顔パーツ22)を、感情空間での感情値の分布に対応付けて捉えるので、例えば表情の特徴量化等の処理を実施する必要がない。従って、例えば表情のモデルデータが予め設定されているビジュアルキャラクタへの適用について高い親和性を発揮することができ、より高い効率で感情を推定することが可能となる。 In this way, the emotion estimation method captures the expression body image (face expression image 2) and each part (face part 22) in association with the distribution of emotion values in the emotion space. It is not necessary to carry out the process. Accordingly, for example, high affinity can be exhibited for application to a visual character in which facial expression model data is set in advance, and emotion can be estimated with higher efficiency.
さらに、感情値分布の形で感情が推定されるので、とり得る感情全体の中での推定される感情の位置を容易に把握することができる。また、それ故に、表現体画像における感情の強度を規定したり、表現体画像間の感情距離を定義して、感情の類似度を規定したりすることも可能となる。 Furthermore, since the emotion is estimated in the form of the emotion value distribution, it is possible to easily grasp the position of the estimated emotion in all possible emotions. Therefore, it is also possible to define the emotion strength in the expression image or to define the emotion similarity by defining the emotion distance between the expression images.
さらに、本感情推定方法においては、「パーツ感情値分布」及び「影響度」の規定された新たなパーツを用いて生成された新たな表現体画像の「表現体感情値分布」は、新たな感情評価試験を必要とせず自動的に生成される。その結果、種々のパーツを様々に組み合わせることで、「表現体感情値分布」の規定された豊富なバリエーションの表情を容易に提供することができる。 Furthermore, in this emotion estimation method, the “expression emotion value distribution” of the new expression image generated using the new parts defined with “part emotion value distribution” and “influence” is a new one. Automatically generated without the need for an emotional assessment test. As a result, by combining various parts in various ways, it is possible to easily provide a wide variety of facial expressions in which the “expression body emotion value distribution” is defined.
尚、「パーツ感情値分布」を決定するパーツの中に、ベースパーツ21を入れてもよいが、本実施形態では、「パーツ感情値分布」を決定するパーツは、顔パーツ22のみとしている。この場合、顔パーツ22について算出された「影響度」は、1つのベースパーツ21を選択した下での値と解釈することができる。さらに、表現体画像は、2次元(2D)のコンピュータグラフィックスによるものに限定されず、例えば3次元コンピュータグラフィックス(3DCG)によるものでもよい。
The base part 21 may be included in the parts for determining the “part emotion value distribution”. However, in this embodiment, only the
また、パーツの形態も、当然、上述したものに限定されるものではない。例えば、ベースパーツとして、女性モデル、男性モデル又はマスコットモデル等の本体モデルについての顔、上半身又は全身といったパーツを採用してもよい。さらに、パーツとして、例えば「目及び眉」といった複数の身体部位を1つにまとめた単位をとることも可能である。さらにまた、パーツとして、CG画像以外に、写真画像や映像フレーム部分を採用してもよい。また、パーツは、身体部位に対応するデータに限定されるものではなく、例えば、服装、所持品、背景等に対応するデータとすることもできる。即ち、パーツは、感情を表現可能な表現体(オブジェクト)の部分であれば、種々の形態をとることが可能である。 Of course, the form of the parts is not limited to that described above. For example, as a base part, a part such as a face, upper body, or whole body of a body model such as a female model, a male model, or a mascot model may be employed. Furthermore, as a part, it is also possible to take a unit in which a plurality of body parts such as “eyes and eyebrows” are combined into one. Furthermore, in addition to the CG image, a photographic image or a video frame portion may be adopted as the part. Further, the parts are not limited to data corresponding to the body part, and may be data corresponding to clothes, personal belongings, backgrounds, and the like. That is, the part can take various forms as long as it is a part of an expression (object) capable of expressing emotion.
図2は、本発明による感情推定装置の一実施形態における機能構成を示す機能ブロック図である。 FIG. 2 is a functional block diagram showing a functional configuration in an embodiment of the emotion estimation apparatus according to the present invention.
図2によれば、感情推定装置としての情報端末1は、通信インタフェース101と、パーツデータ保存部102と、感情評価結果保存部103と、顔表情感情分布保存部104と、パーツ感情分布保存部105と、タッチパネル・ディスプレイ106と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは情報端末1に搭載されたコンピュータを機能させるプログラムを実行することによって、感情推定機能を実現させる。
According to FIG. 2, the
また、プロセッサ・メモリは、顔表情生成・決定部111と、パーツ感情分布決定部113と、顔表情感情分布決定部114と、影響度算出部115と、顔表情感情値算出部116と、顔表情画像提示部117と、入出力制御部121と、アプリケーション処理部122として機能する。さらに、感情評価試験実施部112として機能することも好ましい。ここで、図2によれば、各機能構成部を矢印で接続した処理の流れは、本発明による感情推定方法の一実施形態としても理解される。
The processor memory includes a facial expression generation /
尚、情報端末1は、例えば、スマートフォン、タブレット型コンピュータ、ノート型コンピュータ又はパーソナルコンピュータ(PC)、セットトップボックス(STB)、テレビ(TV)等の情報処理装置である。タッチパネル・ディスプレイ106に表示されるビジュアルキャラクタは、例えば、対話の状況に応じてバリエーション豊かな表情を示す会話エージェントであってもよい。さらに、情報端末1は、通信インタフェース101を備えていないスタンドアローンの装置であってもよい。この場合、顔パーツ22のデータ及び主観感情評価実験の結果データはそれぞれ、予めパーツデータ保存部102及び感情評価結果保存部103に保存されていてもよい。
The
通信インタフェース101は、情報端末1の通信機能部であり、例えば基地局やアクセスポイント等を介したサーバ等とのデータのやり取りを実行する。本実施形態では、特に、
(a)顔パーツ22やベースパーツ21等のパーツのデータを、これらの識別子(ID)と対応付けた形で外部から受信して、パーツデータ保存部102に保存させ、また、
(b)外部で実施された主観感情評価実験の結果を、評価対象である顔表情画像2や顔パーツ22等の識別子(ID)と対応付けた形で外部から受信して、感情評価結果保存部103に保存させる
ことも好ましい。通信インタフェース101は、さらに、情報端末1で実施された主観感情評価実験の結果や、情報端末1で生成されたパーツや顔表情画像のデータ等を外部に送信してもよい。
The
(A) Data of parts such as the
(B) The result of the subjective emotion evaluation experiment conducted outside is received from the outside in a form associated with the identifier (ID) of the
パーツデータ保存部102は、顔パーツ22やベースパーツ21等のパーツのデータを保存する。
The part
図3は、パーツデータ保存部102に保存されたパーツデータの一例である。
FIG. 3 is an example of part data stored in the part
図3に示したパーツデータは、3DCGのデータである。本実施形態では、パーツデータ保存部102のパーツデータ記憶領域において、パーツデータが、ベースパーツデータ、目パーツデータ、口パーツデータ等のパーツの種類毎に区分けして記憶されている。さらに、例えばベースパーツデータの記憶領域では、個々のベースパーツデータ(ベースパーツデータ1、・・・)が区別して記憶され、同じく例えば目パーツデータの記憶領域でも、個々の目パーツデータ(目パーツデータ1、・・・)が区別して記憶されている。
The part data shown in FIG. 3 is 3DCG data. In the present embodiment, in the part data storage area of the part
1つのパーツデータは、属性項目として「素材」、「面」及び「基準位置」を有する。ここで、「素材」で規定される属性は、テクスチャ画像や、物理効果の設定値等である。また、「面」で規定される属性は、パーツを構成する全頂点の相対位置や、各頂点のテクスチャ画像内での対応位置等である。 One part data has “material”, “surface”, and “reference position” as attribute items. Here, attributes defined by “material” are a texture image, a set value of a physical effect, and the like. The attributes defined by “surface” are the relative positions of all the vertices constituting the part, the corresponding positions of the vertices in the texture image, and the like.
さらに、ベースパーツには、目パーツや眉パーツ等の顔パーツを付加するための「基準位置」が設定されている。また、付加される顔パーツにも、ベースパーツの「基準位置」に対応した「基準位置」が設定されている。顔パーツがベースパーツへ付加される際、ベースパーツの「基準位置」に、顔パーツの対応する「基準位置」が一致するようにスケーリング及び位置合わせが実行され、その上で、顔パーツがベースパーツと合成される。 Furthermore, a “reference position” for adding face parts such as eye parts and eyebrow parts is set in the base part. In addition, the “reference position” corresponding to the “reference position” of the base part is also set for the face part to be added. When a face part is added to a base part, scaling and alignment are performed so that the corresponding “reference position” of the face part matches the “reference position” of the base part. Synthesized with parts.
図4は、顔表情画像の一実施例を示す模式図である。 FIG. 4 is a schematic diagram showing an example of a facial expression image.
図4に示した3DCGの顔表情画像2では、ベースパーツ21上に顔パーツである眉パーツ22が付加されている。ここで、この付加の際、眉パーツ22の「基準位置」(頂点位置)が線形変換されて、ベースパーツ21に設定された眉パーツ付加位置としての「基準位置」に合わせられている。
In the 3DCG
図5は、パーツデータ保存部102に保存されたパーツデータの他の例である。また、図6は、顔表情画像2の他の実施例を示す模式図である。
FIG. 5 is another example of part data stored in the part
図5に示したパーツデータは、2Dのデータである。このパーツデータも、パーツデータ保存部102のパーツデータ記憶領域において、ベースパーツデータ、目パーツデータ、口パーツデータ等のパーツの種類毎に区分けして記憶されている。さらに、例えばベースパーツデータの記憶領域では、個々のベースパーツデータ(ベースパーツデータ1、・・・)が区別して記憶され、同じく例えば目パーツデータの記憶領域でも、個々の目パーツデータ(目パーツデータ1、・・・)が区別して記憶されている。
The part data shown in FIG. 5 is 2D data. This part data is also stored in the part data storage area of the part
1つのパーツデータは、属性項目として「画像データ」及び「基準位置」を有する。「画像データ」は、例えば図6に示すような2Dの顔表情画像を構成する当該パーツのデータである。図6に示した顔表情画像2においても、ベースパーツ21上に顔パーツである眉パーツ22が付加されている。ここで、この付加の際、眉パーツ22の「基準位置」(頂点位置)がベースパーツ21に設定された眉パーツ付加位置としての「基準位置」に合わせられる。
One part data has “image data” and “reference position” as attribute items. The “image data” is data of the parts constituting a 2D facial expression image as shown in FIG. 6, for example. Also in the
以上、図3〜図6を用いて説明した顔表情画像の生成方法は、パーツデータとして「基準位置」を設定することに特徴を有する。即ち、従来のようにポリゴンの頂点を移動させて表情を形成するのではなく、感情値の規定された顔パーツを直接配置して顔表情画像を生成する。これにより、感情値の規定(推定)された様々な種類の表情を、容易に提供することが可能となる。 As described above, the facial expression image generation method described with reference to FIGS. 3 to 6 is characterized in that the “reference position” is set as the part data. That is, instead of moving the vertices of the polygon to form a facial expression as in the prior art, a facial expression image is generated by directly arranging facial parts with specified emotion values. This makes it possible to easily provide various types of facial expressions whose emotion values are defined (estimated).
図2に戻って、顔表情生成・決定部111は、「影響度」を算出するための分析対象としての顔表情画像2を生成又は決定する。この際、例えば、パーツデータ保存部102に保存されたベースパーツ21及び顔パーツ22の中から必要なパーツを取り出して、顔表情画像2を生成してもよい。または、顔表情感情分布保存部104に保存された顔表情画像2の中から所望のものを選択し、分析対象の顔表情画像2に決定してもよい。また、このような顔表情画像2の生成・決定は、例えば、タッチパネル・ディスプレイ106及び入出力制御部121を介したユーザによる生成・決定の指示に従って実行されることも好ましい。
Returning to FIG. 2, the facial expression generation /
感情評価試験実施部112は、主観感情評価試験を実施する。ここで、主観感情評価試験には、顔表情画像2に対する評価試験と、顔パーツ22(及びベースパーツ21)に対する評価試験との2種類が存在する。顔表情画像2の評価試験では、例えば、
(a)顔表情生成・決定部111で生成又は決定された顔表情画像2を、タッチパネル・ディスプレイ106に表示して、評価者(ユーザ)に提示し、
(b)表示された顔表情画像2を評価者が見た際に感得した感情を、タッチパネル・ディスプレイ106(に表示された入力画面)を介して感情値として入力させ、
(c)複数の評価者(ユーザ)から入力された複数の感情値データを、感情評価結果保存部103に記録する
ことも好ましい。ここで、変更態様として、複数の評価者による感情値データの一部(又は全部)は、外部から通信インタフェース101を介して受信され、感情評価結果保存部103に直接記録された(当該顔表情画像2についての)感情値データであってもよい。また、評価者の数は、例えば30人以上とすることができる。
The emotion evaluation
(A) The
(B) The emotion felt when the evaluator looks at the displayed
(C) It is also preferable to record a plurality of emotion value data input from a plurality of evaluators (users) in the emotion evaluation
一方、顔パーツ22に対する評価試験では、例えば、上記ステップ(a)で提示する顔表情画像として、後に図9を用いて説明するパーツ評価用画像4を用い、以下、上記ステップ(b)及び(c)と同様に処理を行うことができる。
On the other hand, in the evaluation test for the
図7は、感情値を規定する感情空間の一実施例を示す模式図である。 FIG. 7 is a schematic diagram showing an example of an emotion space that defines an emotion value.
図7に示した感情空間は、ラッセル(Russell)の円環モデルに基づいており、快-不快軸及び活性-不活性軸の2軸を有する2次元空間である。1つの感情は、この空間上の点、即ち2次元座標値をとる感情値で表される。例えば、図7の感情空間において、快-不快値が「3」で活性-不活性値が「−3」である感情値(3,−3)は、非常にリラックスした感情状態を示すものとすることができる。このように、この感情空間を用いれば、1つの感情を、離散値ではなく連続値で表現することができ、また、感情の変化を感情空間上での連続曲線として表現することもできる。また、例えば、主観感情評価試験の上記ステップ(b)において、ユーザは、顔表情画像2を見て感得した感情を、この感情空間上の1点を指定することによって容易に入力することもできる。
The emotion space shown in FIG. 7 is a two-dimensional space based on the Russell ring model and having two axes, a pleasant-unpleasant axis and an active-inactive axis. One emotion is represented by a point on this space, that is, an emotion value taking a two-dimensional coordinate value. For example, in the emotional space of FIG. 7, an emotion value (3, -3) having a pleasant-unpleasant value of “3” and an active-inactive value of “−3” indicates a very relaxed emotional state. can do. In this way, by using this emotion space, one emotion can be expressed not as a discrete value but as a continuous value, and a change in emotion can also be expressed as a continuous curve in the emotion space. Further, for example, in the above step (b) of the subjective emotion evaluation test, the user can easily input the emotion felt by looking at the
尚、感情値を表現するモデルは、上述のラッセルの円環モデルに限定されるものではない。例えば、感情の3つ以上の側面を評価可能な属性に対応する3つ以上の軸を設定し、3次元以上の空間上の点として感情値を表現してもよい。また、感情の種類を選択列挙し、それらにそれぞれ強度を与えることで感情値を定義することも可能である。 The model expressing the emotion value is not limited to the aforementioned Russell's ring model. For example, three or more axes corresponding to attributes that can evaluate three or more aspects of emotion may be set, and the emotion value may be expressed as a point on a three-dimensional space or more. It is also possible to define emotion values by selectively enumerating emotion types and giving them strengths.
図8は、感情空間の原点を規定する標準顔表情画像の一実施例を示す模式図である。 FIG. 8 is a schematic diagram showing an example of a standard facial expression image that defines the origin of the emotion space.
図8によれば、標準顔表情画像3として、標準的とされる顔パーツ22を組み合わせてベースパーツ21に付与した(重畳させた)画像が生成されている。この標準顔表情画像3については、この画像に対して複数の評価者が主観感情評価実験を実施した際に取得される複数の感情値の分布が、平均値μを原点(0,0)とし、分散共分散行列Σを
図2に戻って、パーツ感情分布決定部113は、顔表情画像(表現体画像)2に含まれ得る複数の顔パーツ22の各々に対する複数の主観感情評価実験の結果から、これらの複数の顔パーツ22の各々について、顔パーツ22に対する感情値の分布である「パーツ感情値分布」を決定する。ここで、パーツ感情分布決定部113は、「パーツ感情値分布」を、平均(中心)μ及び分散共分散行列Σを有する2次元正規分布N(μ,Σ)と規定して、平均値μ及び/又は分散共分散行列Σを決定することも好ましい。
Returning to FIG. 2, the parts emotion
図9は、主観感情評価実験に使用されるパーツ評価用画像の実施例を示す模式図である。 FIG. 9 is a schematic diagram showing an example of a part evaluation image used in a subjective emotion evaluation experiment.
図9(A)〜(D)にはそれぞれ、顔パーツ22としての「スキンカラー」パーツ、「目」パーツ、「口」パーツ及び「眉」パーツに対する主観感情評価実験において使用されるパーツ評価用画像4が示されている。パーツ評価用画像4は、(例えば図8に示した)標準顔表情画像3において、主観評価対象である顔パーツのみを、標準顔表情画像3における対応する顔パーツと入れ替えて付与した画像である。例えば、「目」パーツが主観評価対象である場合、図9(B)に示すように、標準顔表情画像3の「目」パーツに替えて、この主観評価対象の「目」パーツを付与してパーツ評価用画像4を生成する。
FIGS. 9A to 9D show parts evaluation parts used in subjective emotion evaluation experiments for the “skin color” part, the “eye” part, the “mouth” part, and the “brow” part as the
顔パーツ22に対する主観感情評価実験では、標準顔表情画像3と、以上に説明したパーツ評価用画像4とを並べて評価者に提示した上で、評価者が、パーツ評価用画像4に対し、標準顔表情画像3からの変化分として感得する感情値を記録することも好ましい。この場合、言い換えれば、評価対象である顔パーツ22に対する感情値は、標準顔表情画像3に対し、この顔パーツ部分のみを当該顔パーツ22へ変化させた際に感得される感情の値となる。
In the subjective emotion evaluation experiment for the
図9(C)には、「口」パーツに対する主観感情評価実験の結果としての「パーツ感情値分布」が示されている。この「パーツ感情値分布」は、複数の評価者が、「口」パーツのパーツ評価用画像4に対し評価・決定した感情値から推定された分布である。このように、パーツ感情分布決定部113(図2)は、感情評価の基準となる標準表情画像において、感情評価対象のパーツに対応するパーツを、当該感情評価対象のパーツに置き換えた画像に対する複数の感情評価結果から、「パーツ感情値分布」を決定している。
FIG. 9C shows a “part emotion value distribution” as a result of the subjective emotion evaluation experiment for the “mouth” part. The “part emotion value distribution” is a distribution estimated from emotion values evaluated and determined by the plurality of evaluators on the
ここで、主観感情評価実験で取得された感情値から、「パーツ感情値分布」の分散共分散行列Σを算出する方法を説明する。最初に、顔パーツデータiに対応する「パーツ感情値分布」が正規分布Ni(μi,Σi)になると規定する。次に、顔パーツデータiに係るパーツ評価用画像4に対し、評価者j(j=1,2,・・・,n)が評価した2次元の感情値をxij=[x1 ij,x2 ij]とし、平均値μi=[μ1 i,μ2 i]とすると、分散共分散行列Σiは、次式
因みに、分散共分散行列Σの値が大きいほど、この感情値分布のピークの高さ、即ち、分布数(分布確率)を示す関連度は小さくなる。これは、この感情値分布の中心(平均)の値をとる確率が小さいことを示している。 Incidentally, the greater the value of the variance-covariance matrix Σ, the smaller the relevance indicating the peak height of the emotion value distribution, that is, the number of distributions (distribution probability). This indicates that the probability of taking the center (average) value of this emotion value distribution is small.
図2に戻って、顔表情感情分布決定部114は、分析対象の顔表情画像(表現体画像)2に対する複数の主観感情評価結果から、当該分析対象の顔表情画像2に対する感情値の分布である「表現体感情値分布」を決定する。ここで、顔表情感情分布決定部114は、「表現体感情値分布」として平均値μ及び/又は分散共分散行列Σを決定することも好ましい。
Returning to FIG. 2, the facial expression emotion
図10は、図9において主観感情評価の対象となった顔パーツ22を組み合わせた顔表情画像2に対する主観感情評価実験の結果を示すグラフである。
FIG. 10 is a graph showing the result of a subjective emotion evaluation experiment on the
図10に示した顔表情画像2は、図9において選択された顔パーツ22を全て付与して生成された画像である。また、同じく図10に示した感情値分布は、この顔表情画像2に対し、複数の評価者が感得した感情を表現した複数の感情値を取得し、これらの感情値から決定した「表現体感情値分布」である。ここで、この「表現体感情値分布」の分散共分散行列Σも、上述した式(2)〜(4)と同様の式を用いて算出することができる。
The
以上に述べたように、顔表情感情分布決定部114(図2)は、「パーツ感情値分布」の決定された顔パーツ22を用いて生成された顔表情画像2について、「表現体感情値分布」を決定する。ここで、これらの決定された「パーツ感情値分布」及び「表現体感情値分布」から、以下に説明するように、各顔パーツの「影響度」を算出することができる。
As described above, the facial expression emotion distribution determination unit 114 (FIG. 2) performs “expression body emotion value” for the
尚、以上に説明した感情値分布決定の実施形態の変更態様として、「パーツ感情値分布」及び「表現体感情値分布」の両方又はいずれか一方を、主観評価実験に依るのではなく、システム設計者等が予め設定してしまうことも可能である。この場合、設定の内容次第で、顔表情に対する感情の推定の確からしさが左右されることになる。 In addition, as a change mode of the embodiment of the emotion value distribution determination described above, both the “part emotion value distribution” and the “expression body emotion value distribution” are not based on the subjective evaluation experiment, but the system It is also possible for a designer or the like to set in advance. In this case, the certainty of the estimation of the emotion for the facial expression depends on the content of the setting.
図2に戻って、影響度算出部115は、決定された「表現体感情値分布」が、分析対象の顔表情画像2に含まれる顔パーツ22に対する「パーツ感情値分布」の畳み込みの結果であるとして、その重みとしての「影響度」を算出する。ここで、「影響度」は、当該分析対象の顔表情画像2に含まれる顔パーツ22の各々について算出される。また、算出した「影響度」を、該当パーツと対応付けてパーツ感情分布保存部105に保存することも好ましい。さらに、「影響度」として、例えば、「平均値影響度」と「分散共分散行列影響度」との2種類を設定することができる。
Returning to FIG. 2, the
具体的に、影響度算出部115は、「表現体感情値分布」における平均値μが分析対象の顔表情画像2に含まれる顔パーツ22に対する「パーツ感情値分布」における平均値μを重み付けして結合させた結果であるとして、分析対象の顔表情画像2に含まれる顔パーツ22の各々について、平均値μでの重みとしての「平均値影響度」を算出することも好ましい。また、「表現体感情値分布」における分散共分散行列Σが分析対象の顔表情画像2に含まれる顔パーツ22に対する「パーツ感情値分布」における分散共分散行列Σを重み付けして結合させた結果であるとして、分析対象の顔表情画像2に含まれる顔パーツ22の各々について、分散共分散行列Σでの重みとしての「分散共分散行列影響度」を算出することも好ましい。
Specifically, the
ここで、「パーツ感情値分布」の畳み込みを算出する際、各顔パーツ22の「パーツ感情値分布」を上述したように正規分布であると規定する。さらに、正規分布の再生性から、正規分布の畳み込みは正規分布となり、畳み込みにより生成された正規分布の平均値μ及び分散共分散行列Σはそれぞれ、元の正規分布の平均値μ及び分散共分散行列Σの線形結合として表される事実を利用する。
Here, when calculating the convolution of the “part emotion value distribution”, the “part emotion value distribution” of each face
具体的に、分析対象の顔表情画像2がm個の顔パーツ22から構成される場合、この顔表情画像2に対応する「表現体感情値分布」N(μ,Σ)の平均値μ及び分散共分散行列Σは、次式
このように、顔パーツデータkの平均値影響度βk(分散共分散影響度γk)は、「表現体感情値分布」の平均値μ(分散共分散行列Σ)をμk(Σk)の線形結合で表現した場合の重み係数となっており、まさに、顔表情の感情値に対する顔パーツデータkの影響の度合いを示している。 In this way, the average value influence degree β k (variance covariance influence degree γ k ) of the face part data k is obtained by changing the average value μ (variance covariance matrix Σ) of the “expression body emotion value distribution” to μ k (Σ k ), The weighting coefficient when expressed by the linear combination, and exactly indicates the degree of influence of the face part data k on the emotional value of the facial expression.
より具体的に、顔表情画像2が、スキンカラー、目、口及び眉の4つの顔パーツ22で構成される場合、上記の式(5)は、
ここで、顔パーツデータkの平均値影響度βk及び分散共分散影響度γk並びにc及びdは、顔パーツデータk毎の「パーツ感情値分布」と、分析対象の顔表情画像2の「表現体感情値分布」とから回帰的に求めることができる。
Here, the mean value influence β k, variance covariance influence γ k , and c and d of the face part data k are the “part emotion value distribution” for each face part data k and the
具体的に、影響度算出部115(図2)は、分析対象の顔表情画像(表現体画像)2に対する「表現体感情値分布」を規定する値(例えばμ又はΣ)を目的変数とし、分析対象の顔表情画像2に含まれる顔パーツ22の各々(顔パーツデータk)に対する「パーツ感情値分布」を規定する値(例えばμk又はΣk)を説明変数として、重回帰分析を実行し、当該説明変数の係数として「影響度」(例えばβk又はγk)を算出することも好ましい。この重回帰分析は、例えば、公知の重回帰分析用ソフトウェアを用いて実行することができる。
Specifically, the influence degree calculation unit 115 (FIG. 2) uses a value (for example, μ or Σ) that defines “expression body emotion value distribution” for the facial expression image (expression body image) 2 to be analyzed as an objective variable, A multiple regression analysis is executed using a value (for example, μ k or Σ k ) defining “part emotion value distribution” for each of the facial parts 22 (face part data k) included in the
さらに、「影響度」算出の他の実施形態として、以上に説明した線形回帰分析ではなく、サポートベクタ回帰等の非線形回帰分析を実行し、重みを学習して「影響度」を算出することも好ましい。例えば、影響度算出部115(図2)は、最初に、分析対象の顔表情画像(表現体画像)2に含まれる顔パーツ22の各々(顔パーツデータk)に対する「パーツ感情値分布」を規定する値xと、分析対象の顔表情画像2に対する「表現体感情値分布」を規定する値yとの組をサンプル(x,y)とする。ここで、xをm次元ベクトルである[μ1,・・・,μm]又は[Σ1,・・・,Σm]とし、yを平均値μ又は分散共分散行列Σとすることも好ましい。この場合、サンプル(x,y)のxとyとの関係は、上式(5)で規定される。
Furthermore, as another embodiment of calculating the “influence”, it is also possible to perform nonlinear regression analysis such as support vector regression instead of the linear regression analysis described above, and learn the weight to calculate the “influence”. preferable. For example, the influence calculation unit 115 (FIG. 2) first calculates a “part emotion value distribution” for each of the facial parts 22 (face part data k) included in the facial expression image (expression image) 2 to be analyzed. A set of a specified value x and a value y specifying “expression body emotion value distribution” for the
次いで、サンプル(x,y)と回帰曲線f(x)=x・w+b(bは定数項)との残差rのε許容誤差ξ(r)を、次式
図2に戻って、顔表情感情値算出部116は、推定対象の顔表情画像(表現体画像)2に対する「表現体感情値分布」を、この推定対象の顔表情画像2に含まれる顔パーツ22の各々に対する「パーツ感情値分布」と、この推定対象の顔表情画像2に含まれる顔パーツ22の各々について算出された「影響度」とに基づいて算出する。
Returning to FIG. 2, the facial expression emotion
具体的には、顔表情感情値算出部116は、推定対象の顔表情画像2に対する感情値を、この顔表情画像2に含まれる顔パーツ22の各々に対する「パーツ感情値分布」における平均値μと、この顔表情画像2に含まれる顔パーツ22の各々について算出された「平均値影響度」とに基づいて算出することも好ましい。また、推定対象の顔表情画像2に対する感情値の分散の程度を、この顔表情画像2に含まれる顔パーツ22の各々に対する「パーツ感情値分布」における分散共分散行列Σと、この顔表情画像2に含まれる顔パーツ22の各々について算出された「分散共分散行列影響度」とに基づいて算出することも好ましい。
Specifically, the facial expression emotion
ここで、推定対象の顔表情画像2の特定は、例えば、ユーザによる推定対象画像の指定入力を、タッチパネル・ディスプレイ106及び入出力制御部121を介して受け取ることで実行されてもよい。または、顔表情感情値算出部116は、顔表情生成・決定部111で生成又は決定された顔表情画像2を直接、推定対象としてもよい。この場合、顔表情生成・決定部111は、パーツ感情分布保存部105に保存された、感情値分布の規定された顔パーツを取り出し、感情値の推定対象として新たな顔表情画像2を生成する。さらに、顔表情感情値算出部116は、顔表情感情分布保存部104に保存された顔表情画像から1つを選択して推定対象としてもよい。
Here, the identification of the
さらに、他の実施形態として、「パーツ感情値分布」及び「影響度」の規定された新たな顔パーツを用いて新たな顔表情画像を生成した場合、顔表情感情値算出部116は、この新たな顔表情画像の「表現体感情値分布」を自動的に生成することができる。即ち、この場合、顔表情感情値算出部116は、構成要素となるパーツの全ての「パーツ感情値分布」及び「影響度」を取得することができるので、新たな感情評価試験を実施することなく、「表現体感情値分布」を算出することが可能となる。
Furthermore, as another embodiment, when a new facial expression image is generated using a new facial part in which “part emotion value distribution” and “influence” are defined, the facial expression emotion value calculation unit 116 A “expression body emotion value distribution” of a new facial expression image can be automatically generated. That is, in this case, the facial expression emotion
同じく図2によれば、顔表情画像提示部117は、算出された感情値が感情空間内において所定範囲内にある複数の顔表情画像(表現体画像)2について、算出された分散共分散行列Σの小さい顔表情画像ほどより高い優先度をもって提示する。
Similarly, according to FIG. 2, the facial expression
図11は、顔表情画像提示部117の機能を説明するための模式図である。
FIG. 11 is a schematic diagram for explaining the function of the facial expression
顔表情画像提示部117(図2)は、図11に示すような感情空間を、感情値の入力画面としてタッチパネル・ディスプレイ106に表示させる。ここで、ユーザが、表示された感情空間上の1点を(例えばタップ又はクリックによって)指定した際、顔表情画像提示部117は、指定された点に相当する感情値を有する顔表情画像(表現体画像)2を、タッチパネル・ディスプレイ106に列挙して表示させる。ユーザは、表示された顔表情画像2から、所望のものを選択することができる。
The facial expression image presenting unit 117 (FIG. 2) displays an emotion space as shown in FIG. 11 on the
ここで、この表示の際、分散共分散行列Σの小さい顔表情画像2ほど、より高い優先順位を有する候補として表示させることも好ましい。一般に、分散共分散行列Σの値が小さいほど、対応する「感情値分布」のピークの高さ、即ち、分布数(分布確率)を示す関連度は大きくなる。従って、上記のように表示することによって、指定された感情値をとる確率のより高い顔表情画像を、選択すべき順位のより高い候補として提示することが可能となる。
Here, at the time of this display, it is also preferable to display the
尚、顔表情画像提示部117は、ユーザによって指定された感情値を中心とした所定範囲内にある感情値を有する顔表情画像2を、列挙して表示させることも好ましい。これにより、概ね同様の感情を表現している顔表情画像2を選択候補としてユーザに提示することができる。
Note that the facial expression
図2に戻って、アプリケーション処理部122は、例えば、感情値の規定されたビジュアルキャラクタ(表現体画像)を、表情の豊かな会話エージェントとしてタッチパネル・ディスプレイに表示させ、ユーザに種々のサービスを提供するアプリケーション・ソフトウェアを起動させ、制御する。
Returning to FIG. 2, the
以上、詳細に説明したように、本発明によれば、表情のモデルデータが予め設定されているキャラクタに対しても高い効率で感情を推定することができ、また、とり得る感情(感情空間)全体の中での推定される感情(感情値)の位置を容易に把握することができる。特に、様々な形状のパーツの組合せである表情(表現体画像)に対し、各パーツの感情値分布を予め定めることによって、この表情の特徴量化処理等を必要とせずに、この表情の感情値分布をより効率良く決定(推定)することができる。 As described above in detail, according to the present invention, emotions can be estimated with high efficiency even for characters for which facial expression model data is preset, and possible emotions (emotion spaces) It is possible to easily grasp the position of the estimated emotion (emotion value) in the whole. In particular, for facial expressions (expression images) that are combinations of parts of various shapes, the emotion value of this facial expression can be obtained without the need for a feature quantification process etc. The distribution can be determined (estimated) more efficiently.
また、感情値分布及び影響度の規定されたパーツを組み合わせることによって、バラエティに富んだ、感情値分布の規定された表情を提供することが可能となる。さらに、分散共分散行列Σを求めることによって、所定範囲内の感情値を有する表情の候補を、優先順位を付けて提示することも可能となる。また、その結果、状況に適合した適切な表情を有するユーザフレンドリーなキャラクタを生成して表示し、ユーザにより適したサービスを構築したり実施したりすることも可能となる。 In addition, by combining the parts whose emotion value distribution and the degree of influence are defined, it is possible to provide a variety of facial expressions with a specified emotion value distribution. Further, by obtaining the variance-covariance matrix Σ, facial expression candidates having emotion values within a predetermined range can be presented with priorities. As a result, a user-friendly character having an appropriate expression suitable for the situation can be generated and displayed, and a service more suitable for the user can be constructed or implemented.
以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲での種々の変更、修正及び省略は、当業者によれば容易に行うことができる。以上に述べた説明はあくまで例であって、何ら発明の範囲を制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 Various changes, modifications, and omissions of the various embodiments of the present invention described above within the scope of the technical idea and the viewpoint of the present invention can be easily made by those skilled in the art. The above description is merely an example and is not intended to limit the scope of the invention. The invention is limited only as defined in the following claims and the equivalents thereto.
1 情報端末(感情推定装置)
101 通信インタフェース
102 パーツデータ保存部
103 感情評価結果保存部
104 顔表情感情分布保存部
105 パーツ感情分布保存部
106 タッチパネル・ディスプレイ
111 顔表情生成・決定部
112 感情評価試験実施部
113 パーツ感情分布決定部
114 顔表情感情分布決定部
115 影響度算出部
116 顔表情感情値算出部
117 顔表情提示部
121 入出力制御部
122 アプリケーション処理部
2 顔表情画像(表現体画像)
21 ベースパーツ
22 顔パーツ
3 標準顔表情画像
4 パーツ評価用画像
1 Information terminal (Emotion estimation device)
DESCRIPTION OF
21
Claims (10)
当該表現体画像に含まれ得る複数のパーツの各々に対する複数の感情評価結果から、当該複数のパーツの各々について、当該パーツに対する感情値の分布であるパーツ感情値分布を決定するパーツ感情分布決定手段と、
分析対象の表現体画像に対する複数の感情評価結果から、当該分析対象の表現体画像に対する感情値の分布である表現体感情値分布を決定する表現体感情分布決定手段と、
決定された表現体感情値分布は、当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布を重み付けして重畳させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、重みとしての影響度を算出する影響度算出手段と、
推定対象の表現体画像に対する表現体感情値分布を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布と、当該推定対象の表現体画像に含まれるパーツの各々について算出された影響度とに基づいて算出する感情値算出手段と
を有することを特徴とする感情推定装置。 An emotion estimation device that estimates emotion expressed in an expression image including a plurality of parts,
Part emotion distribution determining means for determining, for each of the plurality of parts, a part emotion value distribution, which is a distribution of emotion values for the part, from a plurality of emotion evaluation results for each of the plurality of parts that can be included in the expression image. When,
Expression emotion distribution determination means for determining an expression emotion value distribution, which is a distribution of emotion values for the analysis target expression image, from a plurality of emotion evaluation results for the analysis target expression image,
The determined expression body emotion value distribution is a result of weighting and superimposing the part emotion value distributions on the parts included in the analysis object expression image, and the distribution of the parts included in the analysis object expression image. For each, an influence degree calculating means for calculating an influence degree as a weight,
The expression emotion value distribution for the estimation target expression image is calculated for each part emotion value distribution for each part included in the estimation target expression image and for each part included in the estimation target expression image. An emotion estimation device comprising emotion value calculation means for calculating based on the degree of influence.
前記表現体感情分布決定手段は、当該分析対象の表現体画像に対する表現体感情値分布における平均値を決定し、
前記影響度算出手段は、当該表現体感情値分布における平均値が当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布における平均値を重み付けして結合させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、平均値での重みとしての平均値影響度を算出し、
前記感情値算出手段は、推定対象の表現体画像に対する感情値を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布における平均値と、当該推定対象の表現体画像に含まれるパーツの各々について算出された平均値影響度とに基づいて算出する
ことを特徴とする請求項1に記載の感情推定装置。 The part emotion distribution determining means determines an average value in the part emotion value distribution for the part,
The expression body emotion distribution determining means determines an average value in the expression body emotion value distribution for the analysis object expression body image,
The influence calculation means determines that the average value in the expression emotion value distribution is a result of weighting and combining the average values in the part emotion value distribution for the parts included in the analysis object image. For each part contained in the target expression image, calculate the average value influence as a weight in the average value,
The emotion value calculation means includes the emotion value for the estimation target expression image in the average value in the part emotion value distribution for each part included in the estimation target expression image and the estimation target expression image. The emotion estimation device according to claim 1, wherein the emotion estimation device is calculated based on an average value degree of influence calculated for each of the parts.
前記表現体感情分布決定手段は、当該分析対象の表現体画像に対する表現体感情値分布における分散共分散行列を決定し、
前記影響度算出手段は、当該表現体感情値分布における分散共分散行列が当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布における分散共分散行列を重み付けして結合させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、分散共分散行列での重みとしての分散共分散行列影響度を算出し、
前記感情値算出手段は、推定対象の表現体画像に対する感情値の分散の程度を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布における分散共分散行列と、当該推定対象の表現体画像に含まれるパーツの各々について算出された分散共分散行列影響度とに基づいて算出する
ことを特徴とする請求項1又は2に記載の感情推定装置。 The part emotion distribution determining means determines a variance covariance matrix in a part emotion value distribution for the part,
The expression body emotion distribution determining means determines a variance covariance matrix in the expression body emotion value distribution for the analysis object expression body image,
The influence calculation means is a result obtained by weighting and combining the variance covariance matrix in the expression body emotion value distribution with the variance covariance matrix in the part emotion value distribution for the part included in the expression image to be analyzed. As for each of the parts included in the expression image to be analyzed, the variance / covariance matrix influence as a weight in the variance / covariance matrix is calculated,
The emotion value calculation means includes a variance covariance matrix in a part emotion value distribution for each of the parts included in the estimation target expression image, and a degree of distribution of the emotion value for the estimation target expression image, and the estimation target The emotion estimation apparatus according to claim 1, wherein the emotion estimation apparatus calculates the influence based on the variance-covariance matrix influence degree calculated for each of the parts included in the expression image.
当該表現体画像に含まれ得る複数のパーツの各々に対する複数の感情評価結果から、当該複数のパーツの各々について、当該パーツに対する感情値の分布であるパーツ感情値分布を決定するパーツ感情分布決定手段と、
分析対象の表現体画像に対する複数の感情評価結果から、当該分析対象の表現体画像に対する感情値の分布である表現体感情値分布を決定する表現体感情分布決定手段と、
決定された表現体感情値分布は、当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布を重み付けして重畳させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、重みとしての影響度を算出する影響度算出手段と、
推定対象の表現体画像に対する表現体感情値分布を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布と、当該推定対象の表現体画像に含まれるパーツの各々について算出された影響度とに基づいて算出する感情値算出手段と
してコンピュータを機能させることを特徴とする感情推定プログラム。 A program for causing a computer mounted on a device for estimating an emotion expressed in an expression image including a plurality of parts to function,
Part emotion distribution determining means for determining, for each of the plurality of parts, a part emotion value distribution, which is a distribution of emotion values for the part, from a plurality of emotion evaluation results for each of the plurality of parts that can be included in the expression image. When,
Expression emotion distribution determination means for determining an expression emotion value distribution, which is a distribution of emotion values for the analysis target expression image, from a plurality of emotion evaluation results for the analysis target expression image,
The determined expression body emotion value distribution is a result of weighting and superimposing the part emotion value distributions on the parts included in the analysis object expression image, and the distribution of the parts included in the analysis object expression image. For each, an influence degree calculating means for calculating an influence degree as a weight,
The expression emotion value distribution for the estimation target expression image is calculated for each part emotion value distribution for each part included in the estimation target expression image and for each part included in the estimation target expression image. An emotion estimation program for causing a computer to function as an emotion value calculation means for calculating based on the degree of influence.
当該表現体画像に含まれ得る複数のパーツの各々に対する複数の感情評価結果から、当該複数のパーツの各々について、当該パーツに対する感情値の分布であるパーツ感情値分布を決定し、また、分析対象の表現体画像に対する複数の感情評価結果から、当該分析対象の表現体画像に対する感情値の分布である表現体感情値分布を決定する第1のステップと、
決定された表現体感情値分布は、当該分析対象の表現体画像に含まれるパーツに対するパーツ感情値分布を重み付けして重畳させた結果であるとして、当該分析対象の表現体画像に含まれるパーツの各々について、重みとしての影響度を算出する第2のステップと、
推定対象の表現体画像に対する表現体感情値分布を、当該推定対象の表現体画像に含まれるパーツの各々に対するパーツ感情値分布と、当該推定対象の表現体画像に含まれるパーツの各々について算出された影響度とに基づいて算出する第3のステップと
を有することを特徴とする感情推定方法。 A method for estimating an emotion expressed in an expression image including a plurality of parts,
From a plurality of emotion evaluation results for each of a plurality of parts that can be included in the expression image, for each of the plurality of parts, a part emotion value distribution that is a distribution of emotion values for the part is determined and analyzed. A first step of determining an expression emotion value distribution, which is a distribution of emotion values for the analysis target expression image, from a plurality of emotion evaluation results for the expression image of
The determined expression body emotion value distribution is a result of weighting and superimposing the part emotion value distributions on the parts included in the analysis object expression image, and the distribution of the parts included in the analysis object expression image. For each, a second step of calculating the influence as a weight;
The expression emotion value distribution for the estimation target expression image is calculated for each part emotion value distribution for each part included in the estimation target expression image and for each part included in the estimation target expression image. And a third step of calculating based on the degree of influence.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014102496A JP6320844B2 (en) | 2014-05-16 | 2014-05-16 | Apparatus, program, and method for estimating emotion based on degree of influence of parts |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014102496A JP6320844B2 (en) | 2014-05-16 | 2014-05-16 | Apparatus, program, and method for estimating emotion based on degree of influence of parts |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2015219698A true JP2015219698A (en) | 2015-12-07 |
| JP6320844B2 JP6320844B2 (en) | 2018-05-09 |
Family
ID=54779016
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014102496A Active JP6320844B2 (en) | 2014-05-16 | 2014-05-16 | Apparatus, program, and method for estimating emotion based on degree of influence of parts |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6320844B2 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019078407A1 (en) * | 2017-10-18 | 2019-04-25 | 상명대학교산학협력단 | Apparatus and method for estimating emotions by using surrounding environment images |
| CN111899321A (en) * | 2020-08-26 | 2020-11-06 | 网易(杭州)网络有限公司 | Method and device for showing expression of virtual character |
| CN115862156A (en) * | 2022-11-29 | 2023-03-28 | 中国工商银行股份有限公司 | Biological feature identification method and device, electronic equipment and storage medium |
| JP2023103335A (en) * | 2018-12-18 | 2023-07-26 | グリー株式会社 | Computer program, server device, terminal device and display method |
| JP2023129152A (en) * | 2022-03-04 | 2023-09-14 | オプシス・ピーティイー・リミテッド | Method for expanding dataset used to analyze expression |
| JP2023167349A (en) * | 2022-05-11 | 2023-11-24 | 京セラ株式会社 | Power management device and power management method |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009237624A (en) * | 2008-03-25 | 2009-10-15 | Seiko Epson Corp | Expression evaluation method, print controller, expression evaluation device and expression evaluation program |
-
2014
- 2014-05-16 JP JP2014102496A patent/JP6320844B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009237624A (en) * | 2008-03-25 | 2009-10-15 | Seiko Epson Corp | Expression evaluation method, print controller, expression evaluation device and expression evaluation program |
Non-Patent Citations (1)
| Title |
|---|
| 加藤隆 外5名: "表情の分類判断におけるパーツの顕著性効果について", 電子情報通信学会技術研究報告 HCS98−1〜9 ヒューマンコミュニケーション基礎, vol. 第98巻 第99号, JPN6017042382, 5 June 1998 (1998-06-05), pages 第13−18頁 * |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019078407A1 (en) * | 2017-10-18 | 2019-04-25 | 상명대학교산학협력단 | Apparatus and method for estimating emotions by using surrounding environment images |
| KR20190043391A (en) * | 2017-10-18 | 2019-04-26 | 상명대학교산학협력단 | Device and method for emotion estimation using surrounding environment image |
| KR102027494B1 (en) * | 2017-10-18 | 2019-10-01 | 상명대학교산학협력단 | Device and method for emotion estimation using surrounding environment image |
| JP2023103335A (en) * | 2018-12-18 | 2023-07-26 | グリー株式会社 | Computer program, server device, terminal device and display method |
| JP7642253B2 (en) | 2018-12-18 | 2025-03-10 | グリーホールディングス株式会社 | Computer program, server device, terminal device, and display method |
| CN111899321A (en) * | 2020-08-26 | 2020-11-06 | 网易(杭州)网络有限公司 | Method and device for showing expression of virtual character |
| CN111899321B (en) * | 2020-08-26 | 2023-09-26 | 网易(杭州)网络有限公司 | Method and device for displaying expression of virtual character |
| JP2023129152A (en) * | 2022-03-04 | 2023-09-14 | オプシス・ピーティイー・リミテッド | Method for expanding dataset used to analyze expression |
| JP2023167349A (en) * | 2022-05-11 | 2023-11-24 | 京セラ株式会社 | Power management device and power management method |
| CN115862156A (en) * | 2022-11-29 | 2023-03-28 | 中国工商银行股份有限公司 | Biological feature identification method and device, electronic equipment and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6320844B2 (en) | 2018-05-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11798261B2 (en) | Image face manipulation | |
| US12073524B2 (en) | Generating augmented reality content based on third-party content | |
| KR102668172B1 (en) | Identification of physical products for augmented reality experiences in messaging systems | |
| CN111784845B (en) | Artificial intelligence-based virtual try-on method, device, server and storage medium | |
| Zhang et al. | Computer models for facial beauty analysis | |
| JP7661380B2 (en) | SYSTEM AND METHOD FOR PROVIDING PERSONALIZED PRODUCT RECOMMENDATIONS USING DEEP LEARNING | |
| KR20230025906A (en) | Systems and methods for improved facial attribute classification and its use | |
| JP6320844B2 (en) | Apparatus, program, and method for estimating emotion based on degree of influence of parts | |
| Xu et al. | Saliency prediction on omnidirectional image with generative adversarial imitation learning | |
| CN112633191B (en) | Three-dimensional face reconstruction method, device, equipment and storage medium | |
| EP3485762A1 (en) | Makeup assistance device and makeup assistance method | |
| JP2014211719A (en) | Apparatus and method for information processing | |
| CN115130493A (en) | Face deformation recommendation method, device, equipment and medium based on image recognition | |
| JPWO2022002961A5 (en) | ||
| Dantcheva et al. | Assessment of female facial beauty based on anthropometric, non-permanent and acquisition characteristics | |
| JP7482551B2 (en) | MENTAL IMAGE VISUALIZATION METHOD, MENTAL IMAGE VISUALIZATION DEVICE, AND PROGRAM | |
| KR20190042493A (en) | Systems and methods for automatically generating face correction designs and application protocols for handling identifiable facial deviations | |
| Anwaar et al. | Face image synthesis with weight and age progression using conditional adversarial autoencoder | |
| US20240265533A1 (en) | Computer-based body part analysis methods and systems | |
| TW201945898A (en) | Information processing device and program | |
| CN114201631B (en) | Photo publishing method, device, computer equipment and storage medium | |
| JP7682980B1 (en) | Information processing device, method, and program | |
| US20250322693A1 (en) | Using two-dimensional images and machine learning to identify information pertaining to eye shape | |
| Lahari et al. | Enhancing Facial Transformation Capabilities: Synthetic Child Facial Data Generation and Validation | |
| JP2023177260A (en) | Program, information processing device and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161227 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171026 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171106 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171225 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180404 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6320844 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
