JP2005339368A - Emotion grasping system and emotion grasping method - Google Patents
Emotion grasping system and emotion grasping method Download PDFInfo
- Publication number
- JP2005339368A JP2005339368A JP2004159738A JP2004159738A JP2005339368A JP 2005339368 A JP2005339368 A JP 2005339368A JP 2004159738 A JP2004159738 A JP 2004159738A JP 2004159738 A JP2004159738 A JP 2004159738A JP 2005339368 A JP2005339368 A JP 2005339368A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- user
- unit
- expression
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 ユーザ感情を適正に把握でき、ユーザ感情の移り変わりも考慮した感情把握システムを提供する。
【解決手段】 当該ユーザが他のタスクを実行中であるか否かを判断し観察するサービス利用観察手段(ユーザタスク調査部)1と、当該サービス利用観察手段1において当該ユーザが他のタスクを実行していないと判断した場合には、当該ユーザと対話を行うために所定の行動を生成するインタラクション生成手段2と、サービス利用観察手段1において当該ユーザが他のタスクを実行していると判断した場合には、当該ユーザの入力とは無関係の所定の行動を自ら生成する自律的行動生成手段3と、インタラクション生成手段2による当該ユーザとのインタラクションを通じて、当該ユーザのプロファイル(profile)およびコンテキスト(context)により形成されたユーザモデルを生成するユーザモデル生成手段7を備える。
【選択図】 図2PROBLEM TO BE SOLVED: To provide an emotion grasping system capable of properly grasping user emotions and taking into account the transition of user emotions.
SOLUTION: Service usage observation means (user task investigation unit) 1 for determining and observing whether or not the user is executing another task, and the user using the service usage observation means 1 If it is determined that it is not executed, it is determined that the user is executing another task in the interaction generating means 2 for generating a predetermined action for interacting with the user and the service use observation means 1 In such a case, the user's profile (profile) and context (through the interaction with the user by the interaction generating unit 2 and the autonomous behavior generating unit 3 that generates a predetermined behavior unrelated to the user's input itself) User model generation means 7 for generating a user model formed by context) The
[Selection] Figure 2
Description
この発明は、ユーザとインタラクションを行い、その中でユーザ情報を獲得する感情把握システムおよび感情把握方法に関する。 The present invention relates to an emotion grasping system and an emotion grasping method for interacting with a user and acquiring user information therein.
現在のWebサービスでは、ユーザの性別や年齢、また興味を持っていることなどを登録することにより、表示順位や表示内容を変化し、よりユーザが無駄な作業をしないような技術が導入されているものもある。これらは、それぞれのサービスに対してサービスプロバイダが独自に登録情報を得て、それらから該当する分野の情報を表示したりする(ニュース、星座占い等)。さらに、Cookieを利用し、一度登録した事実を自動的に認識し、前回の登録情報をユーザ入力なしに利用することが可能である。まこた、以前買い物をした情報を格納し、それらに興味がある人々をグループ化し、協調フィルタリングを行うことで、特に情報を登録しなくてもユーザが興味を持つと推測される情報、商品を提示する(http://www.amazon.co.jp)などのサービスが行われている。 The current Web service introduces technology that changes the display order and display contents by registering the user's gender, age, and interest, and prevents the user from doing unnecessary work. Some are. For these services, the service provider independently obtains registration information for each service, and displays information on the corresponding field from them (news, horoscope, etc.). Furthermore, using Cookie, it is possible to automatically recognize the fact that it has been registered once, and to use the previous registration information without user input. By storing information that has been previously purchased, grouping people who are interested in them, and performing collaborative filtering, information and products that are presumed to be of interest to the user without registering the information in particular. Services such as presenting (http://www.amazon.co.jp) are provided.
また、ユーザが利用する際のコンテキストを取得し、多くの情報の中から提供するデータをフィルタリングするサービスも多い。例えば、携帯電話で情報検索をする場合に、GPS(Global Positioning System)などを用いて現在の位置を獲得し、その情報を用いて周辺情報を提示するサービスが行われている。
感情に直目したものとしては、ユーザの感情に合わせたものの推薦や検索などを行うサービスも行われている(非特許文献1および非特許文献2を参照)。
In addition, there are many services that acquire a context for use by a user and filter data provided from a lot of information. For example, when searching for information using a mobile phone, a service is provided in which the current position is acquired using GPS (Global Positioning System) and the like, and peripheral information is presented using that information.
A service that recommends, searches, etc. according to the emotion of the user is also available as a direct focus on emotion (see Non-Patent
非特許文献1では、ユーザが今どんな気分であるかを心理テストで判定し、その気分に対して、その気分を促進させるものと、解消させるものとの2種類のカテゴリに属する映画を推薦する。それらの映画は、予めカテゴリごとに分類されている。
非特許文献2では、8つの感情状態(気がかり,疲れた,のんびり,慎重な,敵意,活気,いとおしい,びっくり)を4段階の強さで表現し、本を読んだそれぞれの人がその度合いを指示し、その平均値をその評価とする。気分による本の検索では、16種類の気分(うきうきしたい,うれしくなりたい,おもしろくなりたい,切ない気分になりたい,ときめきたい,ドキドキしたい,ひたりたい,やさしい気分になりたい,わくわくしたい,スリルを感じたい,楽しくなりたい,感動した,恐怖を感じたい,幸せな気分になりたい,怒りたい,悲しくなりたい)を設定しており、その気分に近いものを優先的に推薦する。
In
上記従来例では、サービスごとにその都度ユーザ情報を登録することが必要であり、ユーザに何度も入力の手間を行わせてしまうという問題があった。
また、ユーザのプロファイルに応じて、表示内容が変更になるサービスは行われているが、コンテキストの場合、取得が難しく、また、明確な推論を行うことも困難であるという問題があった。
In the above conventional example, it is necessary to register user information for each service, and there is a problem in that the user has to input many times.
In addition, there is a service in which the display content is changed according to the user's profile. However, in the case of a context, there is a problem that it is difficult to obtain and it is difficult to make a clear inference.
また、タスクの真の目的が、感情に合わせたサービスである場合には、ユーザは感情を伝えることは行うが、そうでない場合、特に入力するわけではない。従って、目的タスクを実行中に、その他の情報を入力することは殆ど行われない。そこで、タスクを行う前にユーザとインタラクションを行い、その感情を取得し、サービス利用中に起こったユーザ感情の変化がある場合は、その時々の変化も獲得し、更新された時点でサービス側に通知する必要がある。 If the true purpose of the task is a service tailored to emotions, the user communicates emotions, but otherwise, the user does not input. Therefore, during execution of the target task, other information is hardly input. So, interact with the user before performing the task, get the emotion, and if there is a change in the user emotion that happened while using the service, also acquire the change at that time, and when it is updated, Need to be notified.
また、ユーザ感情の獲得には、エージェントにユーザの負担を少なく伝える手段が必要であるが、その際に、現時点のユーザ感情とは多少の違いが生じ、ユーザの感情を完全に追従することは、非常に困難であり、不可能に近い。従って、その感情の移り変わりも考慮し、その感情の信頼性を提示する必要がある。このため、ユーザ感情は、タスクの目的の場合には、ユーザの感情入力タスクの軽減だけの利用ではなく、サービス提供の仕方の変化を行うなどの+αの利用を行う必要がある。 In addition, in order to acquire user emotions, it is necessary to have a means to convey less burden on the user to the agent. At that time, there is a slight difference from the current user emotions, and it is not possible to follow the user emotions completely. Very difficult and close to impossible. Therefore, it is necessary to present the reliability of the emotion in consideration of the transition of the emotion. For this reason, in the case of the purpose of the task, it is necessary to use + α such as changing the way of providing the service, not just reducing the user's emotion input task.
また、感性的な表現は、ユーザによって独特の表現や意味・程度が異なるため、ユーザ自身が表現した言葉や行為を理解することが必要である。
本発明は、上述した事情に鑑みてなされたものであって、ユーザ感情を適正に把握できる感情把握システムおよび感情把握方法を提供することを目的としている。
また、本発明は、ユーザ感情の移り変わりも考慮した感情把握システムおよび感情把握方法を提供することを目的としている。
In addition, since sensuous expressions have different unique expressions, meanings, and degrees depending on users, it is necessary to understand words and actions expressed by the users themselves.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an emotion grasping system and an emotion grasping method capable of properly grasping user emotions.
It is another object of the present invention to provide an emotion grasping system and an emotion grasping method that take account of changes in user emotion.
上記課題を解決するために、請求項1記載の感情把握システムは、
ユーザの感情を把握する感情把握システムであって、
当該ユーザが他のタスクを実行中であるか否かを判断するサービス利用観察手段と、
当該サービス利用観察手段において当該ユーザが他のタスクを実行していないと判断した場合には、当該ユーザと対話を行うために所定の行動を生成するインタラクション生成手段と、
前記サービス利用観察手段において当該ユーザが他のタスクを実行していると判断した場合には、当該ユーザの入力とは無関係の所定の行動を自ら生成する自律的行動生成手段と、
を備えたことを特徴とする。
In order to solve the above problem, an emotion grasping system according to
An emotion grasping system for grasping user emotions,
Service usage observation means for determining whether or not the user is performing another task;
If the service usage observation means determines that the user is not performing another task, an interaction generation means for generating a predetermined action to interact with the user;
When it is determined that the user is performing another task in the service usage observation unit, an autonomous behavior generation unit that generates a predetermined behavior independent of the input of the user,
It is provided with.
この構成によれば、サービス利用観察手段により当該ユーザが他のタスクを実行中であるか否かを判断し、当該ユーザが他のタスクを実行していないと判断した場合には、当該ユーザと対話を行うために所定の行動を生成し、当該ユーザが他のタスクを実行していると判断した場合には、当該ユーザの入力とは無関係の所定の行動を自ら生成するので、ユーザの他アプリケーション利用時に、ユーザとエージェントとのインタラクションの中で獲得したユーザ感情をアプリケーションに通知することができ、そのアプリケーションによってユーザの感情を考慮したサービスを提供することができるという効果が得られる。 According to this configuration, when the service use observation unit determines whether the user is executing another task, and determines that the user is not executing another task, If a predetermined action is generated in order to perform a dialogue and it is determined that the user is performing another task, a predetermined action unrelated to the user's input is generated by itself. When the application is used, the user feeling acquired in the interaction between the user and the agent can be notified to the application, and an effect can be obtained that the service can be provided in consideration of the user's feeling.
請求項2記載の感情把握システムは、請求項1において、
前記インタラクション生成手段による当該ユーザとのインタラクションを通じて、当該ユーザのプロファイル(profile)およびコンテキスト(context)により形成されたユーザモデルを生成するユーザモデル生成手段を備えたことを特徴とする。
この構成によれば、当該ユーザとのインタラクションを通じて、当該ユーザのプロファイルおよびコンテキストによりユーザモデルを形成できるので、このユーザモデルに基づいてユーザ感情をアプリケーションに通知することが容易になり、そのアプリケーションによってユーザの感情を考慮したサービスを提供することができるという効果が得られる。
The emotion grasping system according to
It is characterized by comprising user model generating means for generating a user model formed by the profile and context of the user through the interaction with the user by the interaction generating means.
According to this configuration, a user model can be formed based on the user's profile and context through the interaction with the user. Therefore, it is easy to notify the user emotion to the application based on the user model. The effect that it is possible to provide a service that takes into account the feelings of people.
請求項3記載の感情把握システムは、請求項2において、
前記インタラクション生成手段は、前記ユーザのプロファイルを取得するユーザプロファイル取得手段と、当該プロファイルを保存するユーザプロファイル保存手段と、前記ユーザのコンテキストを取得するコンテキスト取得手段と、当該コンテキストから当該ユーザの感情を取得するユーザ感情取得手段と、当該取得された感情を汎用的に表現するユーザ感情表現手段とを備えたことを特徴とする。
The emotion grasping system according to
The interaction generation means includes a user profile acquisition means for acquiring the user profile, a user profile storage means for storing the profile, a context acquisition means for acquiring the user context, and an emotion of the user from the context. It is characterized by comprising user emotion acquisition means for acquiring, and user emotion expression means for expressing the acquired emotion in a general manner.
この構成によれば、インタラクション生成手段は、当該ユーザのプロファイルについては、それを取得するユーザプロファイル取得手段と、当該プロファイルを保存するユーザプロファイル保存手段とを備え、当該ユーザのコンテキストについては、それを取得するユーザ感情取得手段と、取得された感情を汎用的に表現するユーザ感情表現手段とを備えているので、当該ユーザのプロファイルおよび感情の両方を考慮することができ、当該ユーザの感情を適切に考慮したサービスを提供することができるという効果が得られる。 According to this configuration, the interaction generation unit includes the user profile acquisition unit that acquires the user profile and the user profile storage unit that stores the profile, and the user profile acquisition unit that stores the profile. Since the user emotion acquisition means to acquire and the user emotion expression means to express the acquired emotion in a generic manner, both the user's profile and emotion can be considered, and the user's emotion is appropriately It is possible to provide a service that can take into account
請求項4記載の感情把握システムは、請求項3において、
前記ユーザ感情取得手段は、当該ユーザの感情を更新して調整する感情調整手段と、当該ユーザの感情の強さまたは意味を把握するために、所定の感情ベクトルと対応させた対応表を保持する感情語表現/感情ベクトル対応表保持手段と、当該ユーザの入力行為を把握するために、所定の感情ベクトルと対応させた対応表を保持する入力行為/感情ベクトル対応表保持手段とを備えたことを特徴とする。
The emotion grasping system according to claim 4 is characterized in that in
The user emotion acquisition means holds an emotion adjustment means for updating and adjusting the user's emotion and a correspondence table corresponding to a predetermined emotion vector in order to grasp the strength or meaning of the user's emotion. Emotion word expression / emotion vector correspondence table holding means and input action / emotion vector correspondence table holding means for holding a correspondence table corresponding to a predetermined emotion vector in order to grasp the input action of the user It is characterized by.
この構成によれば、ユーザ感情取得手段において、ユーザ自身が自分の感情を表現する言葉が、その感情の強さ,意味を知るための感情語表現/感情ベクトル対応表保持手段と、ユーザがエージェントに対して行う行為が示す感情の程度を知るための入力行為/感情ベクトル対応表保持手段を持ち、それらを参照して、ユーザ感情表現手段にて表現されたユーザ感情を更新する感情調整手段を持つので、ユーザが行う行為や入力する感情語からユーザの感情を知ることができ、かつ、ユーザ独自の表現やその意味を反映させることができるという効果が得られる。 According to this configuration, in the user emotion acquisition means, the words that express the user's own feelings are the emotion word expression / emotion vector correspondence table holding means for knowing the strength and meaning of the emotion, and the user is the agent An emotion adjustment means for updating the user emotion expressed by the user emotion expression means with reference to the input action / emotion vector correspondence table holding means for knowing the degree of emotion indicated by the action to be performed Therefore, the user's emotion can be known from the action performed by the user and the emotion word to be input, and the user's own expression and its meaning can be reflected.
請求項5記載の感情把握システムは、請求項4において、
前記ユーザ感情取得手段は、前記感情語表現/感情ベクトル対応表保持手段または前記入力行為/感情ベクトル対応表保持手段とを参照し、前記ユーザ感情表現手段によって表現された当該ユーザの感情を調整する感情調整手段と、当該感情調整手段によって調整された感情語表現または入力行為を新たに追加して格納する新規感情表現登録手段と、当該登録された新規感情の表現方法を調整する感情表現調整手段とを備えたことを特徴とする。
The emotion grasping system according to
The user emotion acquisition unit refers to the emotion word expression / emotion vector correspondence table holding unit or the input action / emotion vector correspondence table holding unit, and adjusts the user's emotion expressed by the user emotion expression unit. Emotion adjustment means, new emotion expression registration means for newly storing an emotion word expression or input action adjusted by the emotion adjustment means, and emotion expression adjustment means for adjusting the expression method of the registered new emotion It is characterized by comprising.
この構成によれば、感情を示す感情語表現と入力行為を新たに追加、また感情の程度を調整する新規感情表現登録手段と、感情調整手段によって調整された感情語表現または入力行為を新たに追加して格納する感情表現調整手段とを持つことにより、ユーザが行う行為や入力する感情語からユーザの感情を知ることができ、かつ、ユーザ独自の表現やその意味を反映させることができるという効果が得られる。 According to this configuration, an emotion word expression indicating emotion and an input action are newly added, a new emotion expression registration means for adjusting the degree of emotion, and an emotion word expression or an input action adjusted by the emotion adjustment means are newly added. By having the emotion expression adjustment means to additionally store, it is possible to know the user's emotion from the user's action and the emotion word to be input, and to reflect the user's own expression and its meaning An effect is obtained.
請求項6記載の感情把握システムは、請求項4または5において、
前記サービス利用観察手段により、当該ユーザが他のタスクを実行中であると判断した場合には、当該ユーザの現在の感情を前記ユーザ感情表現手段に問い合わせるユーザ感情参照手段を備え、当該ユーザ感情参照手段は、前記感情調整手段による当該ユーザの感情の最終的な更新を確認する最終更新確認手段と、当該最終更新確認手段により確認された最終更新時間により、当該ユーザの感情の確信度を決定する感情確信度算出手段とを備えたことを特徴とする。
The emotion grasping system according to
When the service usage observation means determines that the user is performing another task, the service usage observation means includes a user emotion reference means for querying the user emotion expression means for the user's current emotion, and the user emotion reference The means determines the certainty of the emotion of the user based on the final update confirmation unit for confirming the final update of the emotion of the user by the emotion adjustment unit and the last update time confirmed by the final update confirmation unit. It is characterized by comprising an emotion certainty calculating means.
この構成によれば、サービス利用観察手段が、当該ユーザが他のタスクを実行中であると判断した場合には、当該ユーザの現在の感情を前記ユーザ感情表現手段に問い合わせるユーザ感情参照手段を備え、当該ユーザ感情参照手段は、感情調整手段による当該ユーザの感情の最終的な更新を確認する最終更新確認手段と、当該最終更新確認手段により確認された最終更新時間により、当該ユーザの感情の確信度を決定する感情確信度算出手段とを備えているので、変化しているユーザ感情の移り変わりも考慮して、その感情を把握することができるという効果が得られる。 According to this configuration, when the service usage observation unit determines that the user is performing another task, the service usage observation unit includes the user emotion reference unit that inquires the user emotion expression unit about the current emotion of the user. The user emotion reference means is convinced of the user's emotion by the final update confirmation means for confirming the final update of the user's emotion by the emotion adjustment means and the last update time confirmed by the final update confirmation means. Since an emotion certainty degree calculating means for determining the degree is provided, an effect that the emotion can be grasped in consideration of the transition of the changing user emotion is obtained.
請求項7記載の感情把握方法は、
ユーザの感情を把握する感情把握方法であって、
当該ユーザが他のタスクを実行中であるか否かを判断するサービス利用観察ステップと、
当該サービス利用観察手段において当該ユーザが他のタスクを実行していないと判断した場合には、当該ユーザと対話を行うために所定の行動を生成するインタラクション生成ステップと、
前記サービス利用観察手段において当該ユーザが他のタスクを実行していると判断した場合には、当該ユーザの入力とは無関係の所定の行動を自ら生成する自律的行動生成ステップと、
を含むことを特徴とする。
The emotion grasping method according to claim 7 is:
An emotion grasping method for grasping a user's emotion,
A service usage observation step of determining whether the user is performing another task;
An interaction generation step for generating a predetermined action to interact with the user when the service usage observation means determines that the user is not performing another task;
If it is determined that the user is performing another task in the service usage observation means, an autonomous behavior generation step for generating a predetermined behavior independent of the input of the user,
It is characterized by including.
この構成によれば、サービス利用観察ステップにおいて、当該ユーザが他のタスクを実行中であるか否かを判断し、当該ユーザが他のタスクを実行していないと判断した場合には、当該ユーザと対話を行うために所定の行動を生成し、当該ユーザが他のタスクを実行していると判断した場合には、当該ユーザの入力とは無関係の所定の行動を自ら生成するので、ユーザの他アプリケーション利用時に、ユーザとエージェントとのインタラクションの中で獲得したユーザ感情をアプリケーションに通知することができ、そのアプリケーションはユーザの感情を考慮したサービスを提供することができるという効果が得られる。 According to this configuration, in the service use observation step, it is determined whether or not the user is executing another task, and when the user determines that the other task is not being executed, If the user generates a predetermined action to interact with the user and determines that the user is performing another task, the user generates a predetermined action unrelated to the user's input. When other applications are used, the user feeling acquired in the interaction between the user and the agent can be notified to the application, and the application can provide a service that takes into account the user's feeling.
以上説明したように、本発明は、ユーザとインタラクションを行い、その中でやり取りされるテキストや操作からユーザの感情を推定するシステムにおいて、入力された情報に対して既定の感情状態を表すのではなく、ユーザ独特の入力情報やそれが意味する状態を個人適応できるような手段をとり入れた。
また、サービスの利用ごとに、ユーザに感情の入力を行わせることが負担であるため、その負担を軽減する一方で、ある程度信頼できるユーザ感情状態情報にするための確信度を導入した。
As described above, the present invention does not represent a predetermined emotional state with respect to input information in a system in which the user interacts with the user and estimates the emotion of the user from the text and operation exchanged in the user. Rather, it incorporates a means to personally adapt the user's unique input information and the state that it means.
Moreover, since it is a burden to make the user input emotions every time the service is used, a certainty factor for introducing user emotion state information that can be trusted to some extent while reducing the burden is introduced.
具体的には、電子的なエージェントとユーザとがインタフェースを介して対話することができるエージェントシステムにおいて、サービス利用観察手段により、ユーザの他のタスクが実行中であるか等のユーザの状態を観察し、他のタスクを実行していない際には、インタラクション生成手段によりユーザと対話を行うために行動を生成し、また、ユーザが他のタスクを実行している場合には、自律的行動生成手段により、エージェント自身がユーザの入力に関係ない行動を行っておく。また、ユーザモデル生成手段において、ユーザプロファイル獲得手段と、ユーザコンテキスト獲得手段により、ユーザとのインタラクションを通じて、ユーザのプロファイルやコンテキストを取得し、そこで得られたユーザプロファイルとコンテキストとをユーザプロファイル保存手段とユーザコンテキスト保存手段に保存する。また、ユーザテキストの一つとして、ユーザの感情を取得する感情取得手段を持ち、感情表現手段にて獲得されたユーザ感情は汎用的に表現され、他サービス利用時には、ユーザ感情参照手段により現在のユーザの感情を感情表現手段に問い合わせ、その感情をユーザコンテキストの一部として感情をサービス提供者に伝えるユーザプロファイル/コンテキスト通知手段を持つことにより、ユーザの他アプリケーション利用時に、ユーザとエージェントとのインタラクションの中で獲得したユーザ感情をアプリケーションに通知することができ、そのアプリケーションはユーザの感情を考慮したサービスを提供することができる。 Specifically, in an agent system in which an electronic agent and a user can interact via an interface, the user's status such as whether other tasks of the user are being executed is observed by a service usage observation means. However, when other tasks are not being executed, actions are generated to interact with the user by the interaction generation means, and when the user is executing other tasks, autonomous action generation is performed. By the means, the agent itself performs an action not related to the user input. In the user model generation means, a user profile acquisition means and a user context acquisition means acquire a user profile and context through user interaction, and the obtained user profile and context are stored as a user profile storage means. Save in the user context saving means. Also, as one of the user texts, there is an emotion acquisition means for acquiring the user's emotion, and the user emotion acquired by the emotion expression means is expressed generically, and when using other services, the user emotion reference means By having a user profile / context notification means for inquiring the user's emotions to the emotion expression means and sending the emotions to the service provider as part of the user context, the user interacts with the agent when using other applications. The user emotion acquired in the application can be notified to the application, and the application can provide a service in consideration of the user's emotion.
上記構成により、ユーザは、サービス利用時以外にエージェントとインタラクションを取ることにより、感情を取得し、サービス提供者は、ユーザに対してユーザの感情を尋ねることなく、サービスをその感情に対して適した応答に変化させることができる。それにより、ユーザは、特に、そのタスクにおいて、感情の入力が必要なタスク処理を行っておらず、感情入力をすることはなくても、ユーザの感情に合わせたサービスを提供することにより、ユーザは心地よくなり、そのサービスを利用する頻度が増加するという効果が期待できる。 With the above configuration, the user obtains emotions by interacting with the agent other than when using the service, and the service provider makes the service suitable for that emotion without asking the user about the user's emotions. Response can be changed. As a result, the user does not perform any task processing that requires emotion input especially in the task, and provides a service that matches the user's emotions without providing emotion input. Can be expected to be more comfortable and increase the frequency of using the service.
以下、図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本発明の感情把握システムの実施形態の全体構成を示す概略図である。
このシステムは、ユーザのコンテキスト(Context)としての感情をサービスプロバイダ50に伝えることにより、ユーザに対して心地よいサービスを提供するものである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram showing the overall configuration of an embodiment of the emotion grasping system of the present invention.
This system provides a comfortable service to the user by conveying the emotion as the user's context to the
このシステムは、ユーザ(User)30と、エージェント(Agent)40と、サービスプロバイダ(Service Provider)50とから構成され、サービスプロバイダ50に、エージェント40を介してユーザ30のコンテキスト(Context)としての感情を伝えることにより、ユーザ30の感情を考慮した心地よいサービスを提供する機構である。
This system is composed of a
エージェント40は、システム内にユーザモデル(User Model)41および多次元感情モデル131を備える。ユーザモデル41は、ユーザ30とインタラクション通信(Interaction Communication)を行い、質問と回答とを繰り返す。ユーザモデル41はまた、ユーザプロファイル(User Profile)42およびユーザコンテキスト(User Context)43を保持する。ユーザプロファイル42は、氏名(Name)、趣味(Hobby)、嗜好(Preference)などのデータを格納し、ユーザコンテキスト43は、ユーザ30の位置(Place)、感情(Emotion)などのデータを格納する。本実施形態では、ユーザの感情をユーザコンテキスト43の一部と考える。
The
エージェント40は、ユーザ30が特にタスクを行っていない場合には、ユーザ30とインタラクションを取り(Interaction Communication)、その中でユーザプロファイル42やユーザコンテキスト43を取得する。さらに、他のサービス利用中にも、ユーザ30からエージェント40に対して入力があった場合、その入力から感情を取得する。
When the
また、ユーザ30がエージェント40以外のサービスを利用している場合には、エージェント40が獲得したユーザ感情状態を、サービスプロバイダ50に通知することで、サービスプロバイダ50は、ユーザ30の感情状態を考慮したサービスに変更することができる。
各感情に応じた適切なサービスの対応付けは、サービスプロバイダ50に任せ、本システムは、ユーザ30の感情を他のシステムも理解できる表現方法によって通知する。
When the
Correspondence of appropriate services according to each emotion is left to the
サービスプロバイダ50は、本実施形態では、サービスプロバイダAとサービスプロバイダBとを備え、サービスプロバイダAは、キーワードで検索する情報データベース51と、感情に関連する情報としての接客マニュアル52とを備える。サービスプロバイダBは、キーワードで検索する音楽データベース53と、感情に関連する情報としての推薦本54とを備える。
In the present embodiment, the
情報データベース51は、関連する情報を格納し、接客マニュアル52は、感情に応じてその態度を推薦するマニュアルであり、例えば、感情が「怒」であれば、その時の態度は、「丁寧」であり、発する言語として、「いかがですか?」等と推薦する。また、感情が「楽」であれば、その時の態度は、「フレンドリ」であり、発する言語として、軽く「どう?」等と推薦する。また、感情が「不安」であれば、その時の態度は、「親身」であり、発する言語として、「これはいいとおもいます」等と推薦する。
The
音楽データベース53は、音楽に関する情報を格納し、推薦本54は、感情に応じてそのときに聞く音楽を推薦する本であり、例えば、感情が「怒」であれば、そのときに聞くべき音楽は、「バラードA」、「ジャズB」等と推薦し、感情が「嬉」しい場合は、そのときに聞くべき音楽は、「JポップC」、「ロックD」等と推薦し、感情が「不安」な場合は、そのときに聞くべき音楽は、「クラシックE」、「ヒーリングF」等と推薦する。
The
このようにして、情報の検索の場合には、関連情報を情報データベース51より抽出し、表示の仕方を接客マニュアル52から抽出する。また、音楽またはCDの購入の場合には、推薦本54で推薦された曲を音楽データベース53で抽出し、特定の曲を探す場合には、そのまま音楽データベース53にて検索して抽出する。
In this way, in the case of information retrieval, related information is extracted from the
以下、その応用の一例を示す。
サービスプロバイダAは、情報を提供するサービスであり、ユーザは検索したい情報のためのキーワードを入力する。サービスプロバイダ50側は、そのキーワードに関した情報を情報DB51から抽出し、ユーザに提示する。それと並行し、ユーザの感情状態と応答態度をリストにした接客マニュアル52を参照し、ユーザの感情状態に応じた表示のさせ方を変化する。従って、ユーザが得られる情報自体は変化していない。例えば、サービスプロバイダAには、接客マニュアル52として、「怒」という感情に対して「丁寧」な態度をとり、その結果として「いかがですか?」という言葉が発せられる。また、「楽」という感情に対して「フレンドリ」な態度をとり、その結果として「どう?」という言葉が発せられる。また、「不安」という感情に対して「親身」な態度をとり、その結果として「これはいいとおもいます」という言葉が発せられる。
An example of the application will be shown below.
The service provider A is a service that provides information, and the user inputs a keyword for information to be searched. The
サービスプロバイダBは、ユーザの感情状態によって情報内容が変化する例である。音楽DB53を持ち、ユーザに曲やCDの検索や紹介を行うサービスとする。例えば、音楽データベース53として、クラシック、ジャズ、Jホップ、オルゴールなどを保持し、推薦本54として、特定の曲やCDの場合は、それが示すキーワードを入力し、音楽データベース53から抽出するという処理を行うが、特に曲が決まっておらず、なんとなくいいのを探したいという検索では、ユーザの入力したキーワードが「JAZZ」だけだったとしても、感情による推薦リストを参照し、エージェント40から獲得したユーザ30の感情が悲しければ、落ち着いたSmooth JAZZか、少しテンポの良いSwing JAZZを優先的に提示するなどを行う。
Service provider B is an example in which the information content changes depending on the emotional state of the user. It has a
図2は、本発明の感情把握システムの実施形態の構成を示すブロック図である。
このシステム100は、ユーザタスク調査部(サービス利用観察部)1と、インタラクション生成部2と、自律的行為生成部3と、入力判断部4と、ユーザ感情参照部5と、ユーザプロファイル(Profile)/コンテキスト(Context)通知部6と、ユーザモデル生成部7とから構成されている。ユーザモデル生成部7は、プロファイル取得部8と、コンテキスト取得部9と、ユーザプロファイル保存部10と、ユーザプロファイル更新部11と、ユーザ感情取得部12と、ユーザ感情表示部13とで構成されている。
FIG. 2 is a block diagram showing the configuration of the embodiment of the emotion grasping system of the present invention.
This
ユーザタスク調査部1は、ユーザ30が現在どのような行為を行っているかを把握する。その際、特に、どのアプリケーションがアクティブであるかという情報を獲得する。すなわち、ユーザのサービス利用を観察する意味でサービス利用観察部ともいう。
インタラクション生成部2は、ユーザ30の入力が無かった場合に、ユーザ30と対話を行うための行動を生成する。
The user
The
自律的行為生成部3は、ユーザ30が他のタスクを実行していると判断した場合に、当該ユーザ30の入力に関係ない行動を生成する。
入力判断部4は、ユーザによって入力された内容が、プロファイルか、コンテキストかを判断し、プロファイルの場合は、ユーザモデル生成部7のプロファイル取得部8に渡し、コンテキストの場合は、ユーザモデル生成部7のコンテキスト取得部9に渡す。
When the autonomous
The input determination unit 4 determines whether the content input by the user is a profile or a context. If the content is a profile, the input determination unit 4 passes the content to the
ユーザ感情参照部5は、最終ユーザ感情更新がいつかを問い合わせ、最終更新時間により、当該ユーザの感情の確信度を決定し、ユーザ感情表現部13において表現された感情表現とその値から当該ユーザの現在の感情状態を算出する。
ユーザプロファイル/コンテキスト通知部6は、ユーザ感情取得部12で獲得された感情をユーザコンテキストの一部としてユーザ感情表現部13およびユーザ感情参照部5を介してサービス提供者に与える。
The user
The user profile /
ユーザモデル生成部7は、プロファイル取得部8と、ユーザプロファイル保存部10と、ユーザプロファイル更新部11と、コンテキスト取得部9と、ユーザ感情取得部12と、ユーザ感情表現部13とから構成され、当該ユーザ30のプロファイルやコンテキストなどのユーザモデルを生成する。
プロファイル取得部8は、当該ユーザ30の氏名、趣味、嗜好、年齢などのプロファイルを取得する。
ユーザプロファイル保存部10は、プロファイル取得部8で取得した当該ユーザ30のプロファイルを格納して保存する。
The user model generation unit 7 includes a
The
The user
ユーザプロファイル更新部11は、プロファイル取得部8で取得した当該ユーザ30のプロファイルを、場合に応じて変更して更新する。
コンテキスト取得部9は、当該ユーザ30のコンテキストを取得する。
ユーザ感情取得部12は、コンテキスト取得部9で取得した当該ユーザ30のコンテキストの一部として当該ユーザ30の感情に関する情報を取得する。
ユーザ感情表現部13は、ユーザ感情取得部12で取得した当該ユーザ30の感情を種々の方法で表現するための手段を有する。
The user profile update unit 11 changes and updates the profile of the
The context acquisition unit 9 acquires the context of the
The user
The user
図3は、本発明の感情把握システムの実施形態におけるユーザ感情取得部およびユーザ感情表現部の構成を示すブロック図である。(a)はユーザ感情取得部、(b)はユーザ感情表現部を示している。
図3(a)に示すように、ユーザ感情取得部12は、感情調整部121と、新規感情表現登録部122と、感情表現調整部123と、感情語表現/感情ベクトル対応表保持部124と、入力行為/感情ベクトル対応表保持部125とから構成されている。
感情調整部121は、当該ユーザ30の感情を所定の形式で表現するために、感情に関する情報をある程度規格化する。
FIG. 3 is a block diagram showing the configuration of the user emotion acquisition unit and the user emotion expression unit in the embodiment of the emotion grasping system of the present invention. (A) is a user emotion acquisition part, (b) has shown the user emotion expression part.
As shown in FIG. 3A, the user
The
新規感情表現登録部122は、感情調整部121である程度規格化された当該ユーザ30の感情に関する情報を所定の場所に格納する。
感情表現調整部123は、新規感情表現登録部122で登録されたある程度規格化された感情に関する情報をさらに調整する。
感情語表現/感情ベクトル対応表保持部124は、上記感情調整部121、新規感情表現登録部122、感情表現調整部123に接続され、感情語表現と感情ベクトルとの相関関係を示す対応表を保持し、必要に応じて上記各部に送出する。
The new emotion expression registration unit 122 stores information on the emotion of the
The emotion expression adjustment unit 123 further adjusts the information related to the emotion that is registered to some extent by the new emotion expression registration unit 122.
The emotion word expression / emotion vector correspondence
入力行為/感情ベクトル対応表保持部125も、上記感情調整部121、新規感情表現登録部122、感情表現調整部123に接続され、当該ユーザ30による入力行為と感情ベクトルとの相関関係を示す対応表を保持し、必要に応じて上記各部に送出する。
図3(b)に示すように、ユーザ感情表現部13は、多次元感情モデル131、その他を格納し、種々の方法でユーザ感情を表現する。
多次元感情モデル131は、ユーザの感情を複数の軸で表現し、複雑なユーザの感情をより細かく表現することができ、ユーザが感じている細かな感情の違いまでも伝えることができる。
The input action / emotion vector correspondence
As shown in FIG. 3B, the user
The
図4は、本発明の感情把握システムの実施形態におけるユーザ感情参照部の構成を示すブロック図である。
ユーザ感情参照部5は、最終更新確認部55と、感情確信度算出部56と、最終更新後ユーザタスク調査部57とを備える。
最終更新確認部55は、最終ユーザ感情更新がいつかを問い合わせる。
最終更新後ユーザタスク調査部57では、当該ユーザが最終ユーザ感情更新後のユーザのタスクの実行状況、すなわち、ユーザの同一タスクが継続されているか否か、他のタスクを実行したか否か、入力が行われたか否か、等を問い合わせる。
感情確信度算出部56では、最終更新確認部55から得られる最終更新からの経過時間と、最終更新後ユーザタスク調査部57で得られた更新後のユーザ行動履歴から、その感情の確信度を決定する。
FIG. 4 is a block diagram showing the configuration of the user emotion reference unit in the embodiment of the emotion grasping system of the present invention.
The user
The final
In the user
The emotion certainty calculation unit 56 calculates the certainty of the emotion from the elapsed time from the last update obtained from the last
図5は、本発明の感情把握システムの実施形態における感情調整部の構成を示すブロック図である。
感情調整部121は、感情語入力部1211と、行動入力部1212と、感情語選択部1214と、行動説明文選択部1215と、ユーザID獲得部1213と、ユーザID識別部1216と、個人用データベース1217と、一般データベース1218と、チャートデータ保存部1219と、チャート表示生成部1220と、チャート表示部1221と、ユーザ入力部1222と、全体強度データ保持部1223と、全体強度データ生成部1224と、全体強度データ表示部1225と、ユーザ入力部1226とから構成される。
FIG. 5 is a block diagram showing the configuration of the emotion adjustment unit in the embodiment of the emotion grasping system of the present invention.
The
感情語入力部1211は、ユーザ感情取得部12で取得されたコンテキストの一部としての当該ユーザ30の感情に係る感情語を取り入れ、感情語選択部1214にてその感情語から有用な感情語を選択する。
行動入力部1212は、ユーザ感情取得部12で取得されたコンテキストの一部としての行動に係る情報を取り入れ、行動説明文選択部1215にてその行動に係る情報から行動を説明するための行動説明文を選択する。
The emotion
The
ユーザID獲得部1213は、ユーザ感情取得部12で取得されたコンテキストの一部としてのユーザIDを獲得し、ユーザID識別部1216にて当該ユーザIDを識別して当該ユーザ30を特定する。
個人用データベース(DB)1217は、上記感情語選択部1214にて選択された感情語、行動説明文選択部1215にて選択された行動説明文、およびユーザID識別部1216にて識別されたユーザIDを格納する。
The user ID acquisition unit 1213 acquires a user ID as a part of the context acquired by the user
The personal database (DB) 1217 includes the emotion word selected by the emotion
一般データベース(DB)1218は、上記感情語選択部1214にて選択された感情語、および行動説明文選択部1215にて選択された行動説明文を格納する。
チャートデータ保持部1219は、上記個人用データベース1217および一般データベース1218に格納されている情報をチャート表示するためのデータとして保存する。
チャート表示生成部1220は、上記チャートデータ保存部1219に保持されているデータをチャート表示するためのデータに変えて生成する。
The general database (DB) 1218 stores the emotional word selected by the emotional
The chart
The chart
チャート表示部1221は、チャート表示生成部1220で生成されたデータをチャート表示する。
全体強度データ保持部1223は、上記個人用データベース1217および一般データベース1218に格納されている感情に関する情報を、ユーザ入力部1226から入力された入力情報を参照して、感情の強度を判定するためのデータとして保持する。
全体強度生成部1224は、上記全体強度データ保持部1223に保持されているデータを、感情の強度が判定できるように変えて生成する。
全体強度表示部1225は、上記全体強度生成部1224で生成されたデータの強度が分かるように表示する。
The
The overall intensity data holding unit 1223 is used to determine the intensity of emotion by referring to the input information input from the
The overall
The overall
図6は、本システムのユーザ感情獲得動作を示すフローチャートである。
ユーザ感情を獲得するためには、まず、ユーザ入力があったか否かを判別(ユーザ入力の有無を判別)し(ステップS61)、ユーザ入力があった場合は、その入力行為および感情語の調査を行う(ステップS62)。そのため、まず、その入力が感情語であるか否かを判別し(ステップS63)、入力が感情語であった場合は、その感情語が示す感情状態を参照して(ステップS64)、感情ベクトル値を獲得し(ステップS65)、獲得した感情ベクトル値に従ってユーザ感情モデルを更新して(ステップS66)、終了する。また、ステップS61において、ユーザ入力が無かった場合には、インタラクション生成部に渡り(ステップ67)、ユーザと対話を行うために、行動を生成する(ステップS68)。さらに、ユーザ感情を取得するために質問を生成する(ステップS69)。さらに、ステップS63において、入力が感情語でなかった場合には、その入力行為が示す感情状態を参照した後(ステップS70)、感情ベクトル値を獲得し(ステップS65)、ユーザ感情モデルを更新して(ステップS66)、終了する。
FIG. 6 is a flowchart showing the user emotion acquisition operation of this system.
In order to acquire user emotion, first, it is determined whether or not there is user input (determining whether or not there is user input) (step S61). If there is user input, the input action and emotion word are investigated. This is performed (step S62). Therefore, first, it is determined whether or not the input is an emotion word (step S63). If the input is an emotion word, the emotion state indicated by the emotion word is referred to (step S64), and the emotion vector is determined. A value is acquired (step S65), the user emotion model is updated according to the acquired emotion vector value (step S66), and the process ends. In step S61, if there is no user input, the action is generated (step 67), and the action is generated to interact with the user (step S68). Furthermore, a question is generated in order to acquire user emotion (step S69). Furthermore, in step S63, when the input is not an emotion word, after referring to the emotion state indicated by the input action (step S70), an emotion vector value is acquired (step S65), and the user emotion model is updated. (Step S66), and the process ends.
図7は、本システムの通知動作を示すフローチャートである。
システムの通知動作は、まず、ユーザ感情を保持しているか否かを判別し(ステップS71)、ユーザ感情を保持している場合には、ユーザモデル/ユーザ感情を参照した後(ステップS72)、当該ユーザの感情の最終的な更新を確認してユーザ感情表現ベクトルを取得し(ステップS73)、ユーザ感情表現ベクトル値と確信度とを共に通知して(ステップS74)、終了する。ここで、ステップS71において、ユーザ感情を保持しない場合には、ユーザ感情無しと通知し(ステップS75)、終了する。
FIG. 7 is a flowchart showing the notification operation of this system.
The notification operation of the system first determines whether or not the user emotion is held (step S71). If the user emotion is held, after referring to the user model / user emotion (step S72), After confirming the final update of the user's emotion, the user emotion expression vector is acquired (step S73), the user emotion expression vector value and the certainty degree are both notified (step S74), and the process is terminated. Here, in step S71, when the user emotion is not held, it is notified that there is no user emotion (step S75), and the process ends.
図8は、本システムの全体監視動作を示すフローチャートである。
システムの全体監視は、まず、ユーザが他のタスクを実行中か否かを判断し(ステップS81)、ユーザが他のタスクを実行中の場合には、他のアプリケーション/サービスプロバイダ(SP)に感情を通知して(ステップS82)、終了する。ステップS81において、ユーザが他のタスクを実行中でない場合には、ユーザ感情を獲得して(ステップS83)、終了する。
FIG. 8 is a flowchart showing the overall monitoring operation of this system.
In the overall monitoring of the system, first, it is determined whether or not the user is executing another task (step S81). If the user is executing another task, the other application / service provider (SP) is informed. An emotion is notified (step S82) and it complete | finishes. In step S81, if the user is not executing another task, user emotion is acquired (step S83), and the process ends.
エージェントは、ユーザが感情の入力をする上で、入力する対象として認識しやすいように、擬人的なキャラクタを用いる。環境は、PCやPDA,携帯電話等,ディスプレイを持ち、キーボードやボタンなどでテキスト入力ができ、また、ボタンやマウスボタンなどで画面上のグラフィックに対してインタラクションを行うことができるものとする。
また、ユーザが現在どのような行為を行っているかを把握するユーザタスク調査部1では、どのアプリケーションがアクティブであるかの情報を獲得する。
The agent uses an anthropomorphic character so that the user can easily recognize it as an input target when inputting emotions. It is assumed that the environment has a display such as a PC, PDA, mobile phone, etc., and can input text with a keyboard, buttons, etc., and can interact with graphics on the screen with buttons, mouse buttons, etc.
In addition, the user
図9は、感情空間を示す図である。この図は、エージェントおよびユーザの各感情状態を4次元感情空間内でのベクトルとして表現した図である。
ユーザの感情状態(程度・意味)を表す感情空間を、本実施形態では、4次元の感情空間で表す。感情空間は、Plutchikの感情モデルを基本とする。Plutchikの感情モデルは、基本感情の8感情(歓喜,悲嘆,愛慕,嫌忌,恐怖,激怒,驚嘆,警戒)を持つ。基本感情とは、それ以上還元不可能な感情の最小単位であり、その他の様々な感情は、基本感情の結合により、生み出せるとしている。
FIG. 9 is a diagram showing an emotion space. This figure represents each emotional state of the agent and the user as a vector in the four-dimensional emotional space.
In this embodiment, an emotion space representing the emotional state (degree / meaning) of the user is represented by a four-dimensional emotion space. The emotion space is based on the Plutchik emotion model. Plutchik's emotion model has eight basic emotions (delight, grief, caress, disgust, fear, rage, wonder, alert). Basic emotions are the smallest unit of emotions that cannot be further reduced, and various other emotions can be created by combining basic emotions.
同図に示すように、各感情状態を、2つの基本感情が対極となった4軸(喜/哀,好/嫌,恐/怒,驚/警戒(期待))の中の位置で表現し、中心に向かうほど、その基本感情が弱いことを示す。ここで、感情空間を示す4軸それぞれの要素をEi(1≦i≦4)と表し、その軸上のそれぞれの値を示す変数を感情変数とし、Eai(1≦i≦4)とする。 As shown in the figure, each emotional state is expressed as a position in the four axes (joy / sorrow, favor / dislike, fear / anger, surprise / warning (expectation)) where the two basic emotions are opposites. The more you go to the center, the weaker your basic feelings are. Here, the elements of each of the four axes representing the emotion space are represented as Ei (1 ≦ i ≦ 4), the variables indicating the respective values on the axes are emotion variables, and Ea i (1 ≦ i ≦ 4). .
ユーザの入力は、ユーザの感情をエージェントに伝えるための感情語の入力と、エージェントに行う行為との2種類がある。ユーザが入力した感情語と行為とは、感情空間中の4次元ベクトルとして表現され、感情表現マップに格納される。感情語や行為の意味は、個人によって利用方法が異なるために、それらの違いを表現することが必要であり、さらに個人毎に異なる感情表現を追加することも必要である。 There are two types of user input: input of emotion words to convey the user's emotions to the agent, and actions to be performed on the agent. The emotion words and actions input by the user are expressed as a four-dimensional vector in the emotion space and stored in the emotion expression map. Since meanings of emotion words and actions are used differently depending on the individual, it is necessary to express the difference between them, and it is also necessary to add different emotion expressions for each individual.
ユーザは、各語・行為の表現の違いを認識し、使い分けているため、その違いを表現または調整するのは、ユーザ自身が適している。しかし、感情空間は、4次元であり、その4次元空間内で各感情語の意味や程度を人間が指示することは困難である。そこで、ユーザが直感的にその違いを表す仕組みが必要である。さらに、他の語との違いを指示するためには、他の語彙、行為との関係を表すことも必要である。そこで、ユーザが調整を行うために、平面上での調整インタフェースを提供する。 Since the user recognizes the difference in the expression of each word / action and uses it properly, it is suitable for the user himself to express or adjust the difference. However, the emotion space is four-dimensional, and it is difficult for a human to indicate the meaning and degree of each emotion word in the four-dimensional space. Therefore, a mechanism for the user to express the difference intuitively is necessary. Furthermore, in order to indicate the difference from other words, it is also necessary to express the relationship with other vocabularies and acts. Therefore, an adjustment interface on a plane is provided for the user to make adjustments.
この例では、同図に示すように、感情空間の主要な軸となる喜/悲軸をベクトルE1、怒/嫌軸をベクトルE2、期待/驚軸をベクトルE3、他の感情ベクトルをE4としている。喜びカテゴリベクトルW=(a,b,c,d)は、喜び/悲しみ軸の上方の喜びの方に完全に含まれている。このように、感情空間においては、感情の意味を調整する面と感情の強さを調整する面との2つの面を提供する。感情の意味を調整する面を調整面Aとし、感情の強さを調整する面を調整面Bとする。 In this example, as shown in the figure, the joy / sad axis that is the main axis of the emotion space is the vector E1, the anger / dislike axis is the vector E2, the expectation / surprise axis is the vector E3, and the other emotion vectors are E4. Yes. The joy category vector W = (a, b, c, d) is completely contained in the joy above the joy / sadness axis. As described above, in the emotion space, the two aspects of adjusting the meaning of the emotion and adjusting the emotion strength are provided. A surface for adjusting the meaning of emotion is referred to as adjustment surface A, and a surface for adjusting the strength of emotion is referred to as adjustment surface B.
図10は、調整面Aの感情の意味の違いの調整方法を示す図である。
各感情状態をベクトルで表現した場合、感情の4軸をベクトルE1〜E4で表し、ベクトルE1を喜/哀軸、ベクトルE2を好/嫌軸、ベクトルE3を恐/怒軸、ベクトルE4を驚/警軸とすると、感情語「はっぴー」、「ハッピー」、「うれしい」、「すばらしい」は、どの位置に相当するかを示した。
FIG. 10 is a diagram illustrating a method for adjusting the difference in meaning of emotion on the adjustment surface A.
When each emotional state is represented by a vector, the four axes of emotion are represented by vectors E1 to E4, the vector E1 is a happy / sad axis, the vector E2 is a good / dislike axis, the vector E3 is a fear / anger axis, and the vector E4 is surprised / As a warning, the emotional words "Happy", "Happy", "I'm happy", and "Excellent" indicate the corresponding position.
同図に示すように、基本感情を示す各4軸は、45度の角度を持ち、原点を中心に配置する。感情カテゴリベクトル値が(A,B,C,D)のとき、ある感情表現を表すベクトルW1(=a1,b1,c1,d1)は、各軸の値を、(a1−A,b1−B,c1−C,d1−D)と表す。隣り合う座標値を結んだ平面を、感情表現ごとに色を変えて表示する。この表示により、各感情表現が持つ基本感情の要素の違いを視覚的に捉えることができ、調整したい感情表現を構成する基本感情の値をチャートで変更することができる。同じ感情ベクトル内の感情表現も同時に表示させることにより、他の感情表現と比較しながら、調整を行うことが可能である。また、必要に応じて別カテゴリの関係ある表現も表示する。 As shown in the figure, each of the four axes indicating basic emotions has an angle of 45 degrees and is arranged around the origin. When the emotion category vector value is (A, B, C, D), the vector W1 (= a 1 , b 1 , c 1 , d 1 ) representing a certain emotion expression represents the value of each axis as (a 1 − A, b 1 -B, c 1 -C, d 1 -D). A plane connecting adjacent coordinate values is displayed in different colors for each emotional expression. By this display, it is possible to visually grasp the difference in the elements of basic emotions of each emotional expression, and it is possible to change the value of basic emotions constituting the emotional expression desired to be adjusted on the chart. By simultaneously displaying emotion expressions within the same emotion vector, it is possible to make adjustments while comparing with other emotion expressions. In addition, related expressions in different categories are displayed as necessary.
例えば、「ハッピー」という言葉の意味を調整したい場合、その言葉は、「喜び」カテゴリに属するとする。「喜び」カテゴリの感情カテゴリベクトル値は、概略(+7,+5,+2,0)であり、そのカテゴリベクトルと「ハッピー」のベクトルと同じカテゴリ内の「うれしい」、「素晴らしい」、「ヤッター」、「ルンルン」などとの違いから、意味の調整を行う。「ハッピー」という言葉は、「うれしい」よりも好ましいものに対して使う場合は、好/嫌軸E2の値を「うれしい」の値よりも大きくする。 For example, when it is desired to adjust the meaning of the word “happy”, the word belongs to the “joy” category. The emotion category vector value of the “joy” category is approximately (+7, +5, +2, 0), and “happy”, “great”, “yatter” in the same category as the category vector and the “happy” vector, The meaning is adjusted based on the difference from “Lunrun”. When the word “happy” is used for something more preferable than “happy”, the value of the good / dislike axis E 2 is made larger than the value of “happy”.
その結果、感情語「はっぴー」は、「好」の意味が強く、感情語「ハッピー」は、「喜」と「好」と「恐」の意味が強く、感情語「うれしい」は、「喜」と「驚」の意味が強く、「怒」と「驚」の意味も中程度に強く、全体としてバランスがよい感情語となっている。感情語「すばらしい」は、「警」と「怒」と「嫌」の意味が強くなっている。
このように、調整面Aでは、各感情表現が表現する微妙な感情の意味の違いを調整する。ここでは、調整したい言葉が所属する感情カテゴリベクトルを中心とし、そのベクトルとの各軸の値の差を提示する。
As a result, the emotional word “Happy” has a strong meaning of “good”, the emotional word “happy” has a strong meaning of “joy”, “good” and “fear”, and the emotional word “happy” The meanings of “joy” and “surprise” are strong, and the meanings of “anger” and “surprise” are moderately strong. The emotion word “wonderful” has a stronger meaning of “politics”, “anger” and “dislike”.
As described above, the adjustment plane A adjusts the subtle difference in meaning of emotion expressed by each emotion expression. Here, centering on the emotion category vector to which the word to be adjusted belongs, the difference in the value of each axis from that vector is presented.
図11は、調整面Bの感情の強さの違いの調整方法を示す図である。
この図は、感情表現の感情の強さの調整を調整面Bで行う方法を示す図である。
同図に示すように、感情カテゴリベクトルの感情の強さの調整を長さで表し、その長さとの比較を行い、強さを表現する。この長さは、ベクトルの大きさで表現される。感情カテゴリベクトル値が(A,B,C,D)の場合、L=(A2+B2+C2+D2)1/2と表す。各感情表現も同様にその長さを算出し、色を変えてその長さを表示する。ある感情表現W1(=(a1,b1,c1,d1))では、その長さは、
LWi=(a1 2+b1 2+c1 2+d1 2)1/2と表す。
FIG. 11 is a diagram illustrating a method for adjusting a difference in emotional intensity on the adjustment surface B.
This figure is a diagram showing a method for adjusting the emotion strength of the emotion expression on the adjustment plane B. FIG.
As shown in the figure, the adjustment of the emotion strength of the emotion category vector is expressed by the length, and the comparison is made with the length to express the strength. This length is expressed by the magnitude of the vector. When the emotion category vector value is (A, B, C, D), L = (A 2 + B 2 + C 2 + D 2 ) 1/2 . Similarly, the length of each emotional expression is calculated, and the length is displayed by changing the color. In a certain emotional expression W1 (= (a 1 , b 1 , c 1 , d 1 )), the length is
LWi = (a 1 2 + b 1 2 + c 1 2 + d 1 2 ) 1/2
各調整面で行った調整を、4次元へと再度変換し、その感情表現の感情ベクトルを決定する。調整面Aで行った調整では、各感情軸値を変更する。調整した結果、以前よりも(−1,+3,+1,0)の変更がある場合は、ベクトルW1=a1−1,b1+3,c1+1,d1)となる。調整面Bで行った強さの調整では、感情カテゴリベクトルLよりn弱い場合、その語は、ベクトルW1=a−nA/L,b−nB/L,c−nC/L,d−nD/L)と表される。 The adjustment made on each adjustment surface is converted back to four dimensions, and the emotion vector of the emotion expression is determined. In the adjustment performed on the adjustment surface A, each emotion axis value is changed. As a result of the adjustment, if there is a change of (−1, +3, +1, 0) than before, the vector W1 = a 1 −1, b 1 +3, c 1 +1, d 1 ). In the strength adjustment performed on the adjustment surface B, if n is weaker than the emotion category vector L, the word is expressed by the vector W1 = a−nA / L, b−nB / L, c−nC / L, d−nD / L).
この感情語彙マップの調整面は、追加する語や、行為の初期値の設定や、意味や強さを大きく変化する場合など、直接指示した方がよいと感じる場合に利用する。感情表現の初期値を与えられると、エージェント40とユーザ30とのインタラクションの中で、さらに調整が行われていく。ユーザ30が入力した感情表現に対し、エージェント40が表現した行動がユーザ30の思い通りでなかった場合、ユーザ30が良い/悪いを入力し、再度調整を行う。
The adjustment side of this emotion vocabulary map is used when it is better to give instructions directly, such as when adding words, setting initial values of actions, or when the meaning or strength changes greatly. Given the initial value of emotional expression, further adjustments are made during the interaction between the
ユーザ30から獲得した感情状態を、ユーザ30が利用しているサービスに通知する通知には、ユーザ30が入力した感情表現ではなく、その表現が一般的に分かる表現となった感情ベクトル値を通知する。ここでは0.1単位で表現されたベクトル値を持つ。サービス提供側は、用意できるサービスの精度によりその感情ベクトル正規化し、各応答を選択する。
The notification that notifies the emotion state acquired from the
図12は、サービスプロバイダを中心にした接客マニュアルの作成方法を示す図である。
同図に示すように、サービスプロバイダは、サービスのメインタスクで用いる情報DB51を持つことは勿論、それに加えて、通知されたユーザ感情に対応して、表示するテキストの一覧を持つ。図12に示す例では、ユーザの感情を喜怒哀楽の4種類をそれぞれの2段階に分け、それぞれの場合の応答テキスト表示が対応付けてある表を持ち、獲得したユーザ感情をその中で正規化し、応答を決定している。図12は、その対応の一例である。
FIG. 12 is a diagram showing a method for creating a customer service manual centered on a service provider.
As shown in the figure, the service provider not only has the
具体的には、接客マニュアル52として、「怒り」、「陽気、楽しい」、「落ち込み」、「不安」という感情に対して、それぞれ、感情ベクトル値、応答態度を判別し、表示テキストを表示している。まず、感情「怒り」に対しては、感情ベクトル値は、E3≧3.0、応答態度は、丁寧とし、表示テキストとしては、「いかがですか?」と表示する。同様にして、感情「陽気、楽しい」に対しては、感情ベクトル値は、E1≧3.0、または、E2≧1.0、応答態度は、フレンドリとし、表示テキストとしては、「どう?」または「これよくない?」などと表示する。同様に、感情「落ち込み」に対しては、感情ベクトル値は、E1≦−2.5、応答態度は、はげましとし、表示テキストとしては、「それもいいですが、こちらはどうですか?」などと表示する。感情「不安」に対しては、感情ベクトル値は、E4≦−1.0、および、E3≧1.0、応答態度は、親身とし、表示テキストとしては、「これはいいとおもいますよ」などと表示する。
Specifically, as the
図13は、感情カテゴリを示す図である。
感情を表す感性語の種類は、多数あるが、ある心理学実験によると、日本語では、35のカテゴリに分類される。図13には、縦7段、横5列の35のカテゴリを示す。本研究では、この35のカテゴリを感情カテゴリと呼び、感情語の大分類として用いている。
同図に示すように、感情カテゴリは、上段左から右へ、「嫌い、失望、楽しみ、強い嫌悪、屈辱」と並び、第2段目には、「みだら、不安、疑い、暖かさ、苦痛」と並び、第3段には「不寛容、恐れ、嫉妬、不快、侮辱」と並び、第4段には、「悲しみ、高慢、寂しさ、後悔、好奇心」と並び、第6段には、「脅威、ぼんやり、幸福、尊敬、愛」と並び、第7段には、「喜び、ためらい、恥、怒り、哀れみ」と続いている。
FIG. 13 is a diagram showing emotion categories.
There are many types of sensitivity words representing emotions, but according to a psychological experiment, Japanese is classified into 35 categories. FIG. 13 shows 35 categories of 7 columns and 5 columns. In this study, these 35 categories are called emotion categories and are used as major classifications of emotion words.
As shown in the figure, the emotion category is, from left to right in the upper row, along with “dislike, disappointment, enjoyment, strong dislike, humiliation”, and in the second row, “sluts, anxiety, doubt, warmth, pain The third row is lined with “Intolerance, Fear, Fear, Discomfort, Insult”, and the fourth row is lined with “Sadness, Pride, Loneliness, Regret, Curiosity” Along with "Threat, Vague, Happiness, Respect, Love", and the seventh row is followed by "Joy, hesitation, shame, anger, pity".
各感情カテゴリは、そのカテゴリに含まれるそれぞれの感情状態を代表する感情カテゴリベクトルECを与える。例えば、「嫌い」カテゴリの感情カテゴリベクトルは、(−3,−5,0,0)である。各感情語は、その語が表現する感情カテゴリの情報を持つ。感情語は、そのカテゴリ内に全て含まれると同様に、ユーザの行為に関しても上記のカテゴリに属するとする。本研究では、感情語には、形容詞と形容動詞、感動詞,擬似語,絵文字を対象とする。 Each emotion category provides an emotion category vector EC representing each emotion state included in the category. For example, the emotion category vector of the “dislike” category is (−3, −5, 0, 0). Each emotion word has information on the emotion category represented by the word. It is assumed that the emotion words belong to the above category with respect to the user's actions as well as being included in the category. In this study, adjectives and adjective verbs, impression verbs, pseudowords, and pictograms are targeted as emotional words.
図14は、感情カテゴリベクトルおよび感情表現(一部)を示す図である。
この図は、各感情カテゴリベクトルと各カテゴリに属する感情語の一部を示す。
カテゴリとして、「喜び」、「楽しみ」、「悲しい」、「不安」、「不快」の5種類を挙げ、その「喜、好、優、奇」のベクトル値とそれに相当する感情表現(語彙・行為)を示している。感情表現は、感情を表現する語彙または行為の代表的なものを示している。例えばカテゴリ「喜び」のベクトル値は、「+5,+4,0,−2」、感情表現は、「うれしい、ハッピー、素晴らしい、ヤッター、ルンルン」であり、カテゴリ「楽しみ」のベクトル値は、「+5,+4,0,+2」、感情表現は、「楽しい、おもしろい、ウキウキ、ワクワク」であり、カテゴリ「悲しい」のベクトル値は、「−5,−3,−1,−2」、感情表現は「かなしい、哀しい、サビシイ、もの悲しい、シクシク」であり、カテゴリ「不安」のベクトル値は、「−2,−2,−5,+2」であり、感情表現は、「ドキドキ、びくびく、コワイ、落ち着かない」であり、カテゴリ「不快」のベクトル値は、「−3,−5,+3,−3」、感情表現は、「気持ち悪い、キライ、イヤ、変な」等が考えられる。
FIG. 14 is a diagram showing emotion category vectors and emotion expressions (partial).
This figure shows each emotion category vector and a part of emotion words belonging to each category.
There are five categories: “joy”, “fun”, “sad”, “anxiety”, and “unpleasant”, and the vector values of “joy, good, good, strange” and their corresponding emotional expressions (vocabulary / Act). Emotional expression indicates a typical vocabulary or action that expresses emotion. For example, the vector value of the category “joy” is “+5, +4, 0, −2”, the emotional expression is “happy, happy, wonderful, Yatter, Lunrun”, and the vector value of the category “fun” is “+5” , +4, 0, +2 ”, the emotional expression is“ fun, interesting, exciting, exciting ”, the vector value of the category“ sad ”is“ −5, −3, −1, −2 ”, and the emotional expression is “Fair, sorrowful, rustic, sad, squeaky”, the vector value of the category “anxiety” is “−2, −2, −5, +2”, No ”, the vector value of the category“ unpleasant ”may be“ −3, −5, +3, −3 ”, and the emotional expression may be“ feeling uncomfortable, disgusting, unpleasant, strange ”or the like.
また、行為に関しては、マウス操作によって表現する「叩く」「なでる」「突っつく」などの行為とする。
各感情表現が示す程度や意味の違いを指示する際には、同じカテゴリ内に含まれるほかの感情表現との違いを表現することが最も意味を持つと考え、調整を行う感情表現と他の感情表現の相対的な位置関係を比較しながら調整を行う。また、個人特有の表現は多くあるために、調整だけでなく、語彙や行為の追加がし易いことも求められる。そこで、この感情カテゴリを導入することにより、新たな語彙の追加時に、調整時の初期値を得ることができ、初めから調整を行う手間を省くことができる。
In addition, the actions are actions such as “striking”, “stroking”, “pushing”, etc. expressed by operating the mouse.
When indicating the difference in the degree and meaning of each emotional expression, we think that it is most meaningful to express the difference from other emotional expressions included in the same category. Make adjustments by comparing the relative positions of emotional expressions. Moreover, since there are many expressions unique to individuals, it is required not only to make adjustments, but also to add vocabulary and actions easily. Therefore, by introducing this emotion category, an initial value at the time of adjustment can be obtained when a new vocabulary is added, and the labor for adjustment from the beginning can be saved.
図15,図16は、それぞれ、ユーザ感情確信度係数および感情更新経過時間係数を示す図である。
感情ベクトルをどのような感情分類にするか、また、それにより、どのような応答を行うかは、サービス提供者側が設定することとする。
ユーザ30がサービスを利用する直前に、エージェント40とインタラクションを行い、感情の入力が行われている場合は、現時点でのユーザ30の感情とそれほど離れていないと考えられるが、長期的に入力されていない場合には、その感情とは異なる可能性が高い。そこで、ユーザ感情の確信度というファクタを用いることができる。
FIGS. 15 and 16 are diagrams showing a user emotion certainty factor and an emotion update elapsed time factor, respectively.
It is assumed that the service provider side sets what kind of emotion is classified into the emotion vector and what kind of response is to be made accordingly.
If the
そこで、ユーザ感情取得部12において、ユーザ30の感情状態を参照するだけでなく、その感情状態を更新した時刻tを得る。その値と、ユーザ30がその後エージェント40とインタラクションを継続していたか、それとも他のアプリケーションを利用していたか、または、なんの入力もされていないかをユーザタスク調査部1にて観察して得られたその状態により、ユーザ30の現在の感情状態の確信度cを設定する。サービス提供者側は、その確信度を元にその感情を利用するかしないかを決定する。確信度は、指数関数を用いる。時間がたつにつれて、その確信が薄れることにより、ここでは、確信度:c=k´(0≦c≦1,k<1)とする。kの値は、ユーザ感情入力後のユーザのタスク状態によって決定する。
Therefore, the user
図15に示すように、ユーザ状態が、インタラクション継続の場合の係数kは、0.9、入力なしの場合の係数kは、0.8、他アプリ利用の場合の係数kは、0・7とする。
また、図16に示すように、経過時間0〜10の場合の係数tは、0、10〜20の場合の係数tは、0.5、20〜30の場合の係数tは、1.0、30〜「60の場合の係数tは、1.5、60〜180の場合の係数tは、2,0とする。これらの確信度を感情ベクトル値とともに通知する。
As shown in FIG. 15, the coefficient k when the user state is the interaction continuation is 0.9, the coefficient k when there is no input is 0.8, and the coefficient k when using other applications is 0.7. And
Further, as shown in FIG. 16, the coefficient t for the elapsed
このように、本願発明の構成によれば、ユーザは、サービス利用時以外にエージェントとインタラクションを取ることにより、感情を取得し、サービス提供者は、ユーザに対してユーザの感情を尋ねることなく、サービスをその感情に対して適した応答に変化させることができる。それにより、ユーザは、特に、そのタスクにおいて、感情の入力が必要なタスク処理を行っておらず、感情入力をすることはなくても、ユーザの感情に合わせたサービスを提供することにより、ユーザは心地よくなり、そのサービスを利用する頻度が増加する。 Thus, according to the configuration of the present invention, the user obtains emotions by interacting with the agent other than when using the service, and the service provider does not ask the user's emotions to the user, The service can be changed to a response suitable for the emotion. As a result, the user does not perform any task processing that requires emotion input especially in the task, and provides a service that matches the user's emotions without providing emotion input. Become more comfortable and the frequency of using the service increases.
また、多次元的感情モデルを用いて感情を表現し、システム側が用意した表現の選択ではなく、ユーザ自身が表現した感情表現から、ユーザの感情を判断するため、微妙な感情の違い、ユーザがこだわるニュアンスの違いをシステムに伝えることができるため、ユーザはより自分の気持ちを伝えられたと感じさせることができ、よりそのサービスの利用が促進される。 In addition, expressing emotions using a multi-dimensional emotion model, not selecting the expression prepared by the system, but judging the user's emotion from the emotion expression expressed by the user himself, Since the difference in particular nuances can be transmitted to the system, the user can feel that his / her feelings have been transmitted, and the use of the service is further promoted.
換言すれば、サービス提供者は、常にユーザに対してユーザの感情を尋ねることなくサービスをその感情に対して適切な応答に変化させることができる。これにより、感情入力をするとは無く、ユーザの感情に合わせたサービスを提供することができる。従って、ユーザの気分を害する確率が低くなり、そのサービスを用いて感情を表現し、システム側が用意した表現の選択ではなく、ユーザ自身の表現した感情表現からユーザの感情を判断するために、微妙な感情の違い、ユーザがこだわるニュアンスの違いを感じさせることができる。これにより、そのサービスの利用が促進される。 In other words, the service provider can change the service to an appropriate response to the emotion without always asking the user about the user's emotion. As a result, it is possible to provide a service tailored to the user's emotion without input of emotion. Therefore, the probability of harming the user's mood is reduced, the emotion is expressed using the service, and it is subtle to judge the user's emotion from the emotion expression expressed by the user rather than selecting the expression prepared by the system side. It is possible to feel the difference of emotion and the difference of nuance that the user is particular about. Thereby, the use of the service is promoted.
なお、以上説明した実施の形態において、図6〜図8のフローチャートに示す処理を実行するにあたっては、いずれも、ROMに予め格納されている制御プログラムを実行する場合について説明したが、これに限らず、これらの手順を示したプログラムが記録された記憶媒体から、そのプログラムをRAMに組み込んで実行するようにしても良い。あるいは、そのプログラムをネットワークから取得しても良い。 In the embodiment described above, in executing the processing shown in the flowcharts of FIGS. 6 to 8, the case where the control program stored in advance in the ROM is executed has been described. However, the present invention is not limited to this. Instead, the program may be incorporated into a RAM and executed from a storage medium on which a program showing these procedures is recorded. Alternatively, the program may be acquired from a network.
ここで、記憶媒体とは、RAM、ROM等の半導体記憶媒体、FD、HD等の磁気記憶型記憶媒体、CD、CDV、LD、DVD等の光学的読取方式記憶媒体、MO等の磁気記憶型/光学的読取方式記憶媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記憶媒体であれば、あらゆる記憶媒体を含むものである。
以上、本発明の感情把握システムについて、実施形態を中心にして説明してきたが、本発明は、これに限定されず、本発明の趣旨を逸脱することなく、種々の変更を行うことが可能である。
Here, the storage medium is a semiconductor storage medium such as RAM or ROM, a magnetic storage type storage medium such as FD or HD, an optical reading type storage medium such as CD, CDV, LD, or DVD, or a magnetic storage type such as MO. / Optical reading type storage medium, including any storage medium that can be read by a computer regardless of electronic, magnetic, optical, or other reading methods.
As mentioned above, although the emotion grasping | ascertainment system of this invention has been demonstrated centering on embodiment, this invention is not limited to this, A various change is possible without deviating from the meaning of this invention. is there.
1…ユーザタスク調査部、2…インタラクション生成部、3…自律的行為生成部、4…入力判断部、5…ユーザ感情参照部、6…ユーザプロファイル/コンテキスト通知部、7…ユーザモデル生成部、8…プロファイル取得部、9…コンテキスト取得部、10…ユーザプロファイル保存部、11…ユーザプロファイル更新部、12…ユーザ感情取得部、13…ユーザ感情表現部、30…ユーザ、40…エージェント、41…ユーザモデル、42…プロファイル、43…コンテキスト、50…サービスプロバイダ、51…情報データベース、52…接客マニュアル、53…音楽データベース、55…最終更新確認部、56…感情確信度算出部、57…最終更新後ユーザタスク調査部、100…感情把握システム、121…感情調整部、122…新規感情表現登録部、123…感情表現調整部、124…感情語表現/感情ベクトル対応表保持部、125…入力行為/感情ベクトル対応表保持部、131…多次元感情モデル、1211…感情語入力部、1212…行動入力部、1213…ユーザID獲得部、1214…感情語選択部、1215…行動説明文選択部、1216…ユーザID識別部、1217…個人用データベース、1218…一般データベース、1219…チャートデータ保存部、1220…チャート表示生成部、1221…チャート表示部、1222…ユーザ入力部、1223…全体強度データ保持部、1224…全体強度生成部、1225…全体強度表示部、1226…ユーザ入力部
DESCRIPTION OF
Claims (7)
当該ユーザが他のタスクを実行中であるか否かを判断するサービス利用観察手段と、
当該サービス利用観察手段において当該ユーザが他のタスクを実行していないと判断した場合には、当該ユーザと対話を行うために所定の行動を生成するインタラクション生成手段と、
前記サービス利用観察手段において当該ユーザが他のタスクを実行していると判断した場合には、当該ユーザの入力とは無関係の所定の行動を自ら生成する自律的行動生成手段と、
を備えたことを特徴とする感情把握システム。 An emotion grasping system for grasping user emotions,
Service usage observation means for determining whether or not the user is performing another task;
If the service usage observation means determines that the user is not performing another task, an interaction generation means for generating a predetermined action to interact with the user;
When it is determined that the user is performing another task in the service usage observation unit, an autonomous behavior generation unit that generates a predetermined behavior independent of the input of the user,
Emotion grasping system characterized by having
前記インタラクション生成手段による当該ユーザとのインタラクションを通じて、当該ユーザのプロファイル(profile)およびコンテキスト(context)により形成されたユーザモデルを生成するユーザモデル生成手段を備えたことを特徴とする感情把握システム。 In claim 1,
An emotion grasping system comprising user model generation means for generating a user model formed by a profile and a context of the user through the interaction with the user by the interaction generation means.
前記インタラクション生成手段は、前記ユーザのプロファイルを取得するユーザプロファイル取得手段と、当該プロファイルを保存するユーザプロファイル保存手段と、前記ユーザのコンテキストを取得するコンテキスト取得手段と、当該コンテキストから当該ユーザの感情を取得するユーザ感情取得手段と、当該取得された感情を汎用的に表現するユーザ感情表現手段とを備えたことを特徴とする感情把握システム。 In claim 2,
The interaction generation means includes a user profile acquisition means for acquiring the user profile, a user profile storage means for storing the profile, a context acquisition means for acquiring the user context, and an emotion of the user from the context. An emotion grasping system comprising: a user emotion acquisition means for acquiring; and a user emotion expression means for generally expressing the acquired emotion.
前記ユーザ感情取得手段は、当該ユーザの感情を更新して調整する感情調整手段と、当該ユーザの感情の強さまたは意味を把握するために、所定の感情ベクトルと対応させた対応表を保持する感情語表現/感情ベクトル対応表保持手段と、当該ユーザの入力行為を把握するために、所定の感情ベクトルと対応させた対応表を保持する入力行為/感情ベクトル対応表保持手段とを備えたことを特徴とする感情把握システム。 In claim 3,
The user emotion acquisition means holds an emotion adjustment means for updating and adjusting the user's emotion and a correspondence table corresponding to a predetermined emotion vector in order to grasp the strength or meaning of the user's emotion. Emotion word expression / emotion vector correspondence table holding means and input action / emotion vector correspondence table holding means for holding a correspondence table corresponding to a predetermined emotion vector in order to grasp the input action of the user Emotion grasping system characterized by
前記ユーザ感情取得手段は、前記感情語表現/感情ベクトル対応表保持手段または前記入力行為/感情ベクトル対応表保持手段とを参照し、前記ユーザ感情表現手段によって表現された当該ユーザの感情を調整する感情調整手段と、当該感情調整手段によって調整された感情語表現または入力行為を新たに追加して格納する新規感情表現登録手段と、当該登録された新規感情の表現方法を調整する感情表現調整手段とを備えたことを特徴とする感情把握システム。 In claim 4,
The user emotion acquisition unit refers to the emotion word expression / emotion vector correspondence table holding unit or the input action / emotion vector correspondence table holding unit, and adjusts the user's emotion expressed by the user emotion expression unit. Emotion adjustment means, new emotion expression registration means for newly storing an emotion word expression or input action adjusted by the emotion adjustment means, and emotion expression adjustment means for adjusting the expression method of the registered new emotion Emotion grasping system characterized by having
前記サービス利用観察手段により、当該ユーザが他のタスクを実行中であると判断した場合には、当該ユーザの現在の感情を前記ユーザ感情表現手段に問い合わせるユーザ感情参照手段を備え、当該ユーザ感情参照手段は、前記感情調整手段による当該ユーザの感情の最終的な更新を確認する最終更新確認手段と、当該最終更新確認手段により確認された最終更新時間により、当該ユーザの感情の確信度を決定する感情確信度算出手段とを備えたことを特徴とする感情把握システム。 In claim 4 or 5,
When the service usage observation means determines that the user is performing another task, the service usage observation means includes a user emotion reference means for querying the user emotion expression means for the user's current emotion, and the user emotion reference The means determines the certainty of the emotion of the user based on the final update confirmation unit for confirming the final update of the emotion of the user by the emotion adjustment unit and the last update time confirmed by the final update confirmation unit. An emotion grasping system characterized by comprising an emotion certainty calculating means.
当該ユーザが他のタスクを実行中であるか否かを判断するサービス利用観察ステップと、
当該サービス利用観察手段において当該ユーザが他のタスクを実行していないと判断した場合には、当該ユーザと対話を行うために所定の行動を生成するインタラクション生成ステップと、
前記サービス利用観察手段において当該ユーザが他のタスクを実行していると判断した場合には、当該ユーザの入力とは無関係の所定の行動を自ら生成する自律的行動生成ステップと、
を含むことを特徴とする感情把握方法。 An emotion grasping method for grasping a user's emotion,
A service usage observation step of determining whether the user is performing another task;
An interaction generation step for generating a predetermined action to interact with the user when the service usage observation means determines that the user is not performing another task;
If it is determined that the user is performing another task in the service usage observation means, an autonomous behavior generation step for generating a predetermined behavior independent of the input of the user,
Emotion grasping method characterized by including.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004159738A JP2005339368A (en) | 2004-05-28 | 2004-05-28 | Emotion grasping system and emotion grasping method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004159738A JP2005339368A (en) | 2004-05-28 | 2004-05-28 | Emotion grasping system and emotion grasping method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005339368A true JP2005339368A (en) | 2005-12-08 |
Family
ID=35492843
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004159738A Pending JP2005339368A (en) | 2004-05-28 | 2004-05-28 | Emotion grasping system and emotion grasping method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005339368A (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012093972A (en) * | 2010-10-27 | 2012-05-17 | Mti Japan Co Ltd | Conversation processing device |
| JP2012529717A (en) * | 2009-06-09 | 2012-11-22 | イービーエイチ エンタープライズィーズ インコーポレイテッド | How to analyze microblog message content |
| JP2014191539A (en) * | 2013-03-27 | 2014-10-06 | Nippon Telegraph & Telephone East Corp | Contact supporting system and contact supporting method |
| JP5905652B1 (en) * | 2015-01-30 | 2016-04-20 | 株式会社Ubic | Data evaluation system, data evaluation method, and data evaluation program |
| WO2017130496A1 (en) * | 2016-01-25 | 2017-08-03 | ソニー株式会社 | Communication system and communication control method |
| US10705601B2 (en) | 2016-05-17 | 2020-07-07 | Fujitsu Limited | Information processing device, interest evaluation method, and non-transitory computer-readable storage medium |
| US10733282B2 (en) | 2015-02-13 | 2020-08-04 | Sony Corporation | Information processing system, information processing device, control method, and storage medium |
| US10852813B2 (en) | 2016-02-26 | 2020-12-01 | Sony Corporation | Information processing system, client terminal, information processing method, and recording medium |
| JP2025058979A (en) * | 2023-09-27 | 2025-04-09 | ソフトバンクグループ株式会社 | system |
-
2004
- 2004-05-28 JP JP2004159738A patent/JP2005339368A/en active Pending
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012529717A (en) * | 2009-06-09 | 2012-11-22 | イービーエイチ エンタープライズィーズ インコーポレイテッド | How to analyze microblog message content |
| US9323826B2 (en) | 2009-06-09 | 2016-04-26 | Ebh Enterprises Inc. | Methods, apparatus and software for analyzing the content of micro-blog messages |
| JP2012093972A (en) * | 2010-10-27 | 2012-05-17 | Mti Japan Co Ltd | Conversation processing device |
| JP2014191539A (en) * | 2013-03-27 | 2014-10-06 | Nippon Telegraph & Telephone East Corp | Contact supporting system and contact supporting method |
| JP5905652B1 (en) * | 2015-01-30 | 2016-04-20 | 株式会社Ubic | Data evaluation system, data evaluation method, and data evaluation program |
| US10733282B2 (en) | 2015-02-13 | 2020-08-04 | Sony Corporation | Information processing system, information processing device, control method, and storage medium |
| US11615177B2 (en) | 2015-02-13 | 2023-03-28 | Sony Corporation | Information processing system, information processing device, control method, and storage medium |
| US11295736B2 (en) | 2016-01-25 | 2022-04-05 | Sony Corporation | Communication system and communication control method |
| WO2017130496A1 (en) * | 2016-01-25 | 2017-08-03 | ソニー株式会社 | Communication system and communication control method |
| US10852813B2 (en) | 2016-02-26 | 2020-12-01 | Sony Corporation | Information processing system, client terminal, information processing method, and recording medium |
| US11327556B2 (en) | 2016-02-26 | 2022-05-10 | Sony Corporation | Information processing system, client terminal, information processing method, and recording medium |
| US10705601B2 (en) | 2016-05-17 | 2020-07-07 | Fujitsu Limited | Information processing device, interest evaluation method, and non-transitory computer-readable storage medium |
| JP2025058979A (en) * | 2023-09-27 | 2025-04-09 | ソフトバンクグループ株式会社 | system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102859937B1 (en) | Method and system for providing an interactive interface | |
| García-Méndez et al. | Entertainment chatbot for the digital inclusion of elderly people without abstraction capabilities | |
| CN105068661B (en) | Man-machine interaction method based on artificial intelligence and system | |
| Göker et al. | Personalized conversational case-based recommendation | |
| JP6860010B2 (en) | Information processing systems, information processing methods, and information processing programs | |
| KR20210079264A (en) | Methods and systems for defining emotional machines | |
| CN117219080A (en) | Virtual assistant for generating personalized responses within communication sessions | |
| US20090234718A1 (en) | Predictive service systems using emotion detection | |
| WO2017217507A1 (en) | Artificial intelligence system for supporting communication | |
| KR20200141863A (en) | System for providing personal recording data based ai chatting service | |
| CN105991847A (en) | Call communication method and electronic device | |
| WO2018169001A1 (en) | Interactive system, interactive device and computer program therefor | |
| Ghosh et al. | Designing of a natural voice assistants for mobile through user centered design approach | |
| CN107357416A (en) | A kind of human-computer interaction device and exchange method | |
| El Hefny et al. | Towards a generic framework for character-based chatbots | |
| JP2005339368A (en) | Emotion grasping system and emotion grasping method | |
| JP5420874B2 (en) | Digital story providing system, digital story providing method, and computer program for causing computer system to execute this method | |
| KR20230099936A (en) | A dialogue friends porviding system based on ai dialogue model | |
| Huang et al. | Applied to mobile multimedia intelligent speech system interactive topic guiding model | |
| Mauliana et al. | Exploring LLM-powered multi-session human-robot interactions with university students | |
| US20220343186A1 (en) | Information processing device and information processing method | |
| CN118260389B (en) | Information output method and device, electronic device and storage medium | |
| Rach et al. | EVA 2.0: Emotional and rational multimodal argumentation between virtual agents | |
| Coutand | A framework for contextual personalised applications | |
| JP4586417B2 (en) | Information processing apparatus and method, program |