[go: up one dir, main page]

JP2022088796A - User condition analysis method and user condition analysis system - Google Patents

User condition analysis method and user condition analysis system Download PDF

Info

Publication number
JP2022088796A
JP2022088796A JP2020200828A JP2020200828A JP2022088796A JP 2022088796 A JP2022088796 A JP 2022088796A JP 2020200828 A JP2020200828 A JP 2020200828A JP 2020200828 A JP2020200828 A JP 2020200828A JP 2022088796 A JP2022088796 A JP 2022088796A
Authority
JP
Japan
Prior art keywords
user
face
state
image
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020200828A
Other languages
Japanese (ja)
Other versions
JP7507674B2 (en
Inventor
智紀 本川
Tomonori Motokawa
朋美 加藤
Tomoyoshi Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Orbis Holdings Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Priority to JP2020200828A priority Critical patent/JP7507674B2/en
Publication of JP2022088796A publication Critical patent/JP2022088796A/en
Application granted granted Critical
Publication of JP7507674B2 publication Critical patent/JP7507674B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザーの感情又は疲労状態をユーザー自身に自覚させつつユーザーの感情又は疲労状態を精度よく分析できるユーザー状態分析方法及びユーザー状態分析システムを提供する。【解決手段】 ユーザーの顔の映像をユーザーに見せると共に、顔の状態についての質問を表示するステップと、質問に対する回答を顔の映像をユーザーに見せている状態で受け付けるステップと、回答を分析するステップと、回答の分析結果に基づいてユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するステップと、を備える。【選択図】図1A user state analysis method and a user state analysis system capable of accurately analyzing a user's emotional state or fatigue state while making the user aware of the user's emotional state or fatigue state are provided. SOLUTION: A step of showing an image of the user's face to the user and displaying a question about the condition of the face, a step of receiving an answer to the question while the image of the face is being shown to the user, and analyzing the answer. and generating user state information indicating a user state including one or both of the user's facial expression of emotion and fatigue based on the analysis result of the answer. [Selection drawing] Fig. 1

Description

本発明は、ユーザーの感情又は疲労状態を分析する方法及びシステムに関する。 The present invention relates to methods and systems for analyzing a user's emotional or fatigue state.

従来、疲労度の判定処理システムが知られている(特許文献1参照)。 Conventionally, a fatigue degree determination processing system is known (see Patent Document 1).

特開2010-201113号公報Japanese Unexamined Patent Publication No. 2010-201113

特許文献1に記載の発明では、LF/HF値と自身の疲労状態に関するアンケート結果とに基づいて、ユーザーの疲労度を判定している。 In the invention described in Patent Document 1, the degree of fatigue of the user is determined based on the LF / HF value and the result of the questionnaire regarding the fatigue state of the user.

特許文献1に記載の発明を、ユーザーの感情又は疲労状態を分析する方法及びシステムに応用することが考えられる。 It is conceivable to apply the invention described in Patent Document 1 to a method and a system for analyzing a user's emotion or fatigue state.

ところで、客観的なデータに基づく感情又は疲労状態の分析結果が、ユーザー自身が考える感情又は疲労状態と食い違う場合がある。すなわち例えば、肌の画像などの客観的な情報を分析すると相当ストレスを感じている、あるいは疲れが溜まっているという分析結果が出るにも関わらず、本人にその自覚がない場合には、このような食い違いが起こりうる。 By the way, the analysis result of the emotion or fatigue state based on the objective data may be different from the emotion or fatigue state considered by the user himself / herself. That is, for example, when an analysis of objective information such as a skin image shows that the person feels considerable stress or is tired, but the person is not aware of it, this is the case. There can be discrepancies.

あるいはその反対に、客観的にはそれほどストレスを感じておらず、又は疲労が蓄積されていないにも関わらず、本人はストレス状態にあり、あるいは疲れていると思い込んでいる結果、上記のような食い違いが起こることもある。 Or conversely, as a result of thinking that the person is in a stressed state or is tired even though he / she is not so stressed objectively or has accumulated fatigue, as described above. Discrepancies can occur.

しかしながら特許文献1の発明においては、ユーザー自身への疲労状態に関するアンケート結果を用いてユーザーの疲労度を判定しているので、自身の疲労状態に関する自覚がない、又は必要以上に疲れていると思い込んでいるユーザーから、疲労状態に関する正しい回答を得られる確実性は低い。 However, in the invention of Patent Document 1, since the user's fatigue level is determined by using the result of the questionnaire regarding the user's own fatigue state, it is assumed that he / she is not aware of his / her own fatigue state or is tired more than necessary. It is unlikely that you will get the correct answer about your fatigue condition from your users.

また、そのような不確実な情報に基づく分析結果は高い精度が期待できない。 Moreover, high accuracy cannot be expected for analysis results based on such uncertain information.

そこで本発明は、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できるユーザー状態分析方法及びユーザー状態分析システムを提供することを目的とする。 Therefore, an object of the present invention is to provide a user state analysis method and a user state analysis system that can accurately analyze a user's emotional or fatigue state while making the user aware of it.

本発明のユーザー状態分析方法は、
ユーザーの顔の映像を該ユーザーに見せると共に、該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示するステップを含み、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とする。
The user state analysis method of the present invention
Includes a step to show the user an image of the user's face and to display a question about the condition of the face that correlates with the emotional or fatigue condition appearing on the user's face.
An input reception step that accepts an answer by the user to a question about the state of the user's face while showing the image of the face to the user.
An answer analysis step that analyzes the user's answer to the question about the user's facial condition, and
It is characterized by comprising a user state information generation step of generating user state information indicating a user state including one or both of emotions and fatigue states appearing on the user's face based on the analysis result of the answer. do.

本発明によれば、ユーザーの顔の映像が該ユーザーに見せられると共に、表示されたユーザーの顔の状態についての質問が表示される。なお当該質問は、ユーザーの顔に現れている感情又は疲労状態と相関関係を有する顔の状態についての質問である。 According to the present invention, the image of the user's face is shown to the user, and the displayed question about the state of the user's face is displayed. The question is a question about the facial condition that correlates with the emotion or fatigue condition appearing on the user's face.

そして、当該質問に対するユーザーによる回答の入力が顔の画像を表示させた状態で受け付けられて、当該回答が分析される。 Then, the input of the answer by the user to the question is accepted with the image of the face displayed, and the answer is analyzed.

また、回答の分析結果に基づいて、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 Further, based on the analysis result of the answer, the user state information indicating the user state which is one or both of the user's emotion and fatigue state is generated.

本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers a question about the condition of the face while looking at his / her own face, so that the answer is easy. In addition, since you will have the opportunity to calmly look back on your facial condition, you will be promoted to be aware of the facial condition that is closely related to your emotions or fatigue, and you may be able to answer your facial condition accurately. It will increase.

これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This makes it possible to accurately generate user state information indicating the user state, which is one or both of the user's emotions and fatigue state.

このように本発明によれば、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できる。 As described above, according to the present invention, the user's emotional or fatigued state can be analyzed accurately while being aware of the user himself / herself.

本発明のユーザー状態分析方法において、
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、を備える
ことが好ましい。
In the user state analysis method of the present invention
A solution determination step for determining a solution according to the user status information from a plurality of solutions that can be provided to the user in order to improve the user status of the user.
It is preferable to include a step of providing the determined solution to the user.

本発明によれば、ユーザー状態を改善するための、ユーザーに提供可能な複数のソリューションからユーザー状態情報に応じたソリューションがユーザー状態情報に応じて決定されて、決定されたソリューションがユーザーに提供される。 According to the present invention, a solution according to the user state information is determined according to the user state information from a plurality of solutions that can be provided to the user for improving the user state, and the determined solution is provided to the user. To.

これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成するとともに、それに応じた適切なソリューションを簡便に提供して、ユーザー状態を改善することができる。 As a result, it is possible to accurately generate user state information indicating one or both of the user's emotions and fatigue states, and to easily provide an appropriate solution according to the user state to improve the user state. ..

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The user state information generation step is preferably a step of generating the user state information based on the answer and the analysis result of the face image.

本発明によれば、顔の状態に対する質問への回答というユーザーの主観的な情報に加えて、顔の画像の分析結果という客観的な情報をも用いてユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 According to the present invention, one or both of the user's emotional and fatigue states are used with the objective information of the analysis result of the facial image in addition to the user's subjective information of answering the question about the facial condition. User state information indicating the user state is generated.

そのため、質問への回答からでは得られない情報も考慮してユーザー状態情報が生成されるので、ユーザー状態情報をより精度よく生成して、それに応じた適切なソリューションを提供できる。 Therefore, since the user state information is generated in consideration of the information that cannot be obtained from the answer to the question, the user state information can be generated more accurately and an appropriate solution can be provided accordingly.

本発明のユーザー状態分析方法において、
生成された前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user state analysis method of the present invention
It is preferable to include a step of displaying the generated user status information.

本発明によれば、生成されたユーザー状態情報が表示されるため、ユーザー自身に自らの感情又は疲労状態を認識させることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, since the generated user state information is displayed, the user can be made to recognize his / her own emotion or fatigue state, so that the user is effectively aware of his / her emotion or fatigue state. be able to.

本発明のユーザー状態分析方法において、
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user state analysis method of the present invention
A step to store the generated user status information in chronological order,
It is preferable to include a step of displaying the stored user status information in response to the user's operation.

本発明によれば、ユーザーの操作に応じて、過去のユーザー状態情報を表示させることができる。そのため、ユーザーの顔に現れている感情又は疲労状態の変化の有無、変化の度合いをユーザー自身が随時に知ることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, past user status information can be displayed according to the user's operation. Therefore, since the user can know at any time whether or not the emotion or fatigue state that appears on the user's face has changed and the degree of the change, it is possible to effectively make the user aware of the user's emotion or fatigue state. can.

本発明のユーザー状態分析方法において、
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことが好ましい。
In the user state analysis method of the present invention
The answer analysis step is a first correlation showing the correlation between the user's answer to the accepted question about the user's facial condition and the emotional or fatigue state appearing on the user's face. It is preferable to include the step of determining the analysis result of one or both of the emotions and fatigue states appearing on the user's face using the information.

本発明によれば、第1相関関係情報という具体的な情報を用いて、ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果が決定されるので、ユーザーの顔に現れている感情及び疲労状態の一方又は両方を精度よく分析できる。 According to the present invention, the analysis result of one or both of the emotional state and the fatigue state appearing on the user's face is determined by using the specific information called the first correlation information, so that the analysis result appears on the user's face. Can accurately analyze one or both of emotions and fatigue.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The answer analysis step includes a step of analyzing the answer to determine a fatigue sign score, which is an index of the emotion or fatigue state appearing on the user's face.
The user state information generation step is
A step of acquiring information on the user's heartbeat from the analysis result of the face image, and
A step of determining a heart rate-based fatigue score, which is an index of a heart rate-based fatigue state based on the user's heart rate information.
A step of determining an overall score, which is an index of the user's emotional or fatigue state, based on the fatigue sign score and the fatigue degree score based on the heartbeat.
Including a step of generating the user state information, including the overall score,
The solution determination step preferably includes a step of determining a solution to be provided to the user based on the overall score.

本発明によれば、ユーザーの顔に現れている感情又は疲労状態を指標化した疲れの兆候スコアと、心拍に基づく疲労度スコアという多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じた適切なソリューションを提供できる。 According to the present invention, the present invention is provided to the user based on a fatigue sign score that indexes the emotion or fatigue state appearing on the user's face and a total score derived from a multifaceted viewpoint of a fatigue degree score based on the heartbeat. Since the solution to be used is determined, it is possible to provide an appropriate solution according to the user's overall fatigue condition.

本発明のユーザー状態分析方法において、
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことが好ましい。
In the user state analysis method of the present invention
The step to determine the overall score is
A step of acquiring information on the autonomic nervous balance of the user by using the information on the heartbeat of the user and the second correlation information showing the correlation between the information on the heartbeat and the autonomic nervous balance of the user.
It is preferable to include a step of determining the total score based on the information including the information regarding the autonomic nerve balance.

本発明によれば、自律神経バランスに関する情報を加えた、より多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じたより適切なソリューションを提供できる。 According to the present invention, the solution to be provided to the user is determined based on the total score derived from a more multifaceted viewpoint, which includes information on the autonomic nervous balance. We can provide the right solution.

本発明のユーザー状態分析方法において、
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことが好ましい。
In the user state analysis method of the present invention
The solution determination step is
A first state in which the user should provide a passive solution that is a passive stimulus to the user's sense of touch or hearing based on the emotional or fatigue state appearing on the user's face contained in the user state information. A step to determine if the user is in a second state to provide an active solution that encourages the user to perform a given action.
It is preferable to include a step of determining a solution according to the user state information from the plurality of solutions based on the result of the determination.

所定の動作には、ユーザーの感情や疲労状態を改善する効果があるが、ユーザーの感情又は疲労状態が所定の動作を取らせるのに適切な状態でなければ、触覚又は聴覚に対する受動的な刺激などの受動的なソリューションを提供することが、ユーザーの感情や疲労状態の改善に効果的である。 A given action has the effect of improving the user's emotional or fatigued state, but if the user's emotional or fatigued state is not appropriate for the given action, a passive stimulus to the sense of touch or hearing. Providing passive solutions such as, is effective in improving user's emotions and fatigue.

本発明によれば、ユーザーの顔に現れている感情又は疲労状態に基づいて、ユーザーが、触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかが判定される。 According to the present invention, the user is in a first state or predetermined state to provide a passive solution that is a passive stimulus to the sense of touch or hearing based on the emotional or fatigue state appearing on the user's face. It is determined whether you are in a second state to provide an active solution that encourages action.

そして、当該判定の結果に基づいてソリューションが決定されるので、ユーザーの感情や疲労状態に応じてソリューションの種類を適切に変えて提供することができる。 Then, since the solution is determined based on the result of the determination, the type of the solution can be appropriately changed and provided according to the emotion and the fatigue state of the user.

本発明のユーザー状態分析方法において、
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことが好ましい。
In the user state analysis method of the present invention
The active solution comprises a combination of periodic vibrations that last for a predetermined time, voice to improve the user condition, and information that prompts the user to breathe or meditate in a predetermined manner.
When the user is in the second state, the active solution comprising a combination of the vibration, the voice, and information prompting the user to breathe or meditate in a predetermined manner in the solution determination step. , It is preferable to determine as a solution to be provided to the user.

所定の呼吸法及び瞑想には、感情を落ち着かせ、疲労を改善し、あるいは人を覚醒した状態に導く効果がある。 Predetermined breathing and meditation have the effect of calming emotions, relieving fatigue, or leading a person to an awake state.

本発明によれば、ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にある場合には、所定の方法での呼吸又は瞑想を促す情報を含むソリューションが決定されるので、効果的にユーザー状態を改善することができる。 According to the present invention, when the user is in a second state in which an active solution for encouraging a predetermined action should be provided, a solution including information for encouraging breathing or meditation in a predetermined manner is determined, and thus the effect. It is possible to improve the user condition.

本発明者らの検討により、通常の状態に比した、「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」、「唇の潤いの状態」を含む、人の顔の状態に関する質問への回答と、当該人の顔に現れている感情又は疲労状態との間には、有意な相関関係が存在していることが判明した。 According to the study by the present inventors, "the degree of opening of the eyes", "the thickness of the bear around the eyes", "the state of acne or pimples", "the degree of raising or lowering of the corners of the mouth" compared to the normal state. There is a significant correlation between answers to questions about a person's facial condition, including "lip moisturizing condition," and the emotional or fatigue condition that appears on the person's face. It has been found.

なお、感情とは例えば、幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性である。 The emotions are, for example, four factors of happiness, burnout state, life satisfaction, negativeness or positiveness by PANAS scale, degree of resilience, subjective well-being scale, and stress tolerance.

また、疲労状態とは例えば、不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の状態である。 The fatigue state is, for example, a state of insomnia, a degree of physical fatigue, a degree of mental fatigue, and a state of fatigue components in the body.

より具体的には、本実施形態における身体疲労度、精神疲労度としては、例えばChalder疲労質問票の総スコアに相当する値が含まれるほか、文部科学省による生活者ニーズ対応研究「疲労及び疲労感の分子・神経メカニズムとその防御に関する研究」で作成された「自己診断疲労度チェックリスト」による、身体的評価、精神的評価、及び総合評価に相当する値が含まれる。 More specifically, the degree of physical fatigue and the degree of mental fatigue in this embodiment include, for example, values corresponding to the total score of the Childer Fatigue Questionnaire, and the consumer needs study "Fatigue and Fatigue" by the Ministry of Education, Culture, Sports, Science and Technology. It includes values corresponding to physical evaluation, mental evaluation, and comprehensive evaluation by the "self-diagnosis fatigue degree checklist" prepared in "Study on molecular and neural mechanisms of sensation and its defense".

不眠症の状態とは、例えばアテネ不眠尺度が含まれる。 The insomnia condition includes, for example, the Athens Insomnia Scale.

体内の疲労成分としては、例えば酸化生成物である8OHdG(8-hydroxy-2’-deoxyguanosine)及びイソプラスタン、酸化ストレス度を表すdROMs(Diacron Reactive Oxygen Metabolites)が含まれる。 Examples of the fatigue component in the body include 8OHdG (8-hydroxy-2'-deoxyguanocine) which is an oxidation product, isoplastane, and dROMs (Diacron Reactive Oxygen Metalbolites) which indicate the degree of oxidative stress.

幸せの4つの因子とは、前野隆司氏が作成した幸せの4つの因子のアンケートによる第1~第4の各因子の値である。具体的には、第1因子は、「やってみよう!」因子(自己実現と成長の因子)であり、本実施形態における自己実現又は成長に対する満足感の度合に該当する。第2因子は、「ありがとう!」因子(つながりと感謝の因子)であり、本実施形態における他者との良好な関係性又は他者への感謝の感情の度合もしくは前向きさに該当する。第3因子は、「なんとかなる!」因子(まえむきと楽観の因子)であり、本実施形態における楽観性又は自己肯定感の度合である。第4因子は、「あなたらしく!」因子(独立とマイペースの因子)である。 The four factors of happiness are the values of the first to fourth factors according to the questionnaire of the four factors of happiness prepared by Mr. Takashi Maeno. Specifically, the first factor is a "let's try!" Factor (self-actualization and growth factor), which corresponds to the degree of satisfaction with self-actualization or growth in the present embodiment. The second factor is a "thank you!" Factor (factor of connection and gratitude), which corresponds to a good relationship with another person or a degree or positive feeling of gratitude to another person in this embodiment. The third factor is the "somehow!" Factor (factor of premature and optimism), and is the degree of optimism or self-affirmation in the present embodiment. The fourth factor is the "like you!" Factor (independence and self-paced factor).

バーンアウトの状態とは、例えばMBI(Maslach Burnout Inventory)による、情緒的消耗感、脱人格化、個人的達成感の低下の尺度に相当する値が含まれる。 The burnout state includes a value corresponding to a measure of emotional exhaustion, depersonalization, and a decrease in personal achievement due to, for example, MBI (Maslach Burnout Industry).

人生満足度とは、人生に対する満足感の度合であり、例えばEd Dienerによる人生満足尺度(SWLS:Satisfaction With Life Scale)に相当する値が含まれる。 The life satisfaction is a degree of satisfaction with life, and includes, for example, a value corresponding to a life satisfaction scale (SWLS: Strategy With Life Scale) by Ed Diener.

PANAS尺度によるネガティブさ又はポジティブさとは、Watson、Clark、TellegenらによるPANAS(Positive and Negative Affect Schedule)尺度に含まれる評定の尺度であり、例えばポジティブ情動8項目、ネガティブ情動8項目からなる簡易気分評定の尺度である。 Negative or positive by the PANAS scale is a rating scale included in the PANAS (Positive and Negative Affective) scale by Watson, Clark, Tellegen et al., For example, a simple mood rating consisting of 8 items of positive emotions and 8 items of negative emotions. Is a measure of.

レジリエンスの度合とは、心理的な傷つきから立ち直る回復力であり、例えば平野真理氏が「レジリエンスの資質的要因・獲得的要因の分類の試み」にて提唱した二次元レジリエンス要因尺度が含まれる。 The degree of resilience is the resilience to recover from psychological damage, and includes, for example, the two-dimensional resilience factor scale proposed by Mari Hirano in "Attempt to classify qualitative factors and acquisition factors of resilience".

主観的幸福感尺度とは、心理的健康の尺度の一種であり、例えばWHOが作成した主観的健康感尺度(SUBI)の「人生に対する前向きの気持ち」、「達成感」、「自信」、「至福感」、「人生に対する失望感」の5領域(各3項目)の尺度が含まれる。 The subjective well-being scale is a kind of psychological health scale. For example, the subjective health scale (SUBI) created by WHO has "positive feelings for life", "feeling of accomplishment", "confidence", and "self-confidence". It includes scales for 5 areas (3 items each) of "feeling of bliss" and "feeling of disappointment with life".

ストレス耐性とは、心理社会的ストレスに対するストレス耐性であり、例えば桂戴作氏らが作成した「ストレス耐性チェックリスト」によるストレス耐性度が含まれる。 The stress tolerance is stress tolerance to psychosocial stress, and includes, for example, the degree of stress tolerance according to the "stress tolerance checklist" created by Taisaku Katsura et al.

当該知見を応用した、本実施形態におけるユーザー状態分析方法の構成、作用、効果は以下の通りである。 The configuration, action, and effect of the user state analysis method in the present embodiment to which the knowledge is applied are as follows.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the degree of eye opening as compared with the normal condition of the user.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the darkness of the bear around the eyes as compared to the normal condition of the user.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the condition of acne or pimples as compared to the normal condition of the user.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about how the corner of the mouth is raised or lowered as compared with the normal condition of the user.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the condition of moisturizing the lips as compared to the normal condition of the user.

本発明によれば、ユーザーの感情又は疲労状態に密接な関連を有し、かつ自身の顔の画像を見て自ら簡単に判断することのできる、ユーザーの通常の状態に比した「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」及び/又は「唇の潤いの状態」という具体的な顔の状態の情報が取得されるので、ユーザーの感情又は疲労状態を精度よくかつ簡便に分析できる。 According to the present invention, "open eyes" compared to the normal state of the user, which is closely related to the emotion or fatigue state of the user and can be easily judged by looking at the image of the user's face. Specific facial condition information such as "condition", "thickness of bear around eyes", "acne or pimple condition", "up or down condition of mouth corner" and / or "moisturizing condition of lips" Is acquired, so that the user's emotions or fatigue state can be analyzed accurately and easily.

また、ユーザーは自身の感情又は疲労状態を知るためには、自分の顔のどの部分の状態を見ればよいかが分かる。そのため、日常生活においてもこれらの顔の部分を気にかけるようになるので、自身の顔に現れている感情又は疲労状態の自覚がより効果的に促される。 In addition, the user knows which part of his / her face should be looked at in order to know his / her emotional or fatigued state. Therefore, even in daily life, these facial parts become more concerned, and the emotions appearing on one's face or the awareness of the fatigued state are more effectively promoted.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face is executed before or after the input reception step.
The image analysis step is preferably a step of analyzing an image of the user's face captured before or after the input reception step.

顔の状態についての質問に対する回答の入力操作をユーザーが行っている間に、ユーザーの顔の画像を撮像すると、ユーザーは顔の画像の撮像に集中しておらず手ぶれなどが生じるので、例えば手ぶれを補正する機能を有する装置で撮像を行わないと、撮像位置などがずれてしまい、結果として画像の分析の精度を保つことが難しくなる可能性がある。 If the user captures an image of the user's face while the user is inputting an answer to a question about the condition of the face, the user is not focused on capturing the image of the face and camera shake occurs. If the image is not taken by a device having a function of correcting the image, the image pickup position or the like may shift, and as a result, it may be difficult to maintain the accuracy of image analysis.

そのため、ユーザーが顔の画像の撮像に集中できる状態でユーザーの顔の画像を撮像できればなおよい。 Therefore, it is even better if the user's face image can be captured in a state where the user can concentrate on capturing the face image.

本発明によれば、ユーザーの顔の画像を撮像するステップは、入力受付ステップの前又は後に実行される。そのため、ユーザーに顔の画像の撮像に集中させた状態で顔画像を取得できるので、撮像位置などがずれる可能性を軽減でき、画像分析の精度を保つことができる。 According to the present invention, the step of capturing an image of the user's face is executed before or after the input reception step. Therefore, since the face image can be acquired while the user is focused on capturing the face image, the possibility that the imaging position or the like is displaced can be reduced, and the accuracy of the image analysis can be maintained.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face is executed during the execution of the input reception step.
The image analysis step is preferably a step of analyzing the image of the user's face captured during the execution of the input reception step.

あるいは、本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことが好ましい。
Alternatively, in the user state analysis method of the present invention.
The step of capturing an image of the user's face is executed before or during the input reception step.
The image analysis step is preferably executed during the execution of the input acceptance step.

顔の状態についての質問に対する回答の入力と、分析に必要な顔の画像の撮像には、一定の時間を要することが考えられるが、そのような操作に要する時間が長いと、ユーザーは煩わしく感じて、ユーザーの感情又は疲労状態に及ぼしてしまうことが考えられる。あるいはその煩わしさのために操作をやめてしまい、結果としてユーザーの感情又は疲労状態をユーザー自身に自覚させることができないおそれがある。 It may take a certain amount of time to input the answer to the question about the facial condition and to capture the facial image required for analysis, but the long time required for such an operation is annoying to the user. Therefore, it may affect the user's emotions or fatigue. Alternatively, the operation may be stopped due to the annoyance, and as a result, the user may not be aware of the user's emotional or fatigued state.

本発明によれば、ユーザーの顔の画像を撮像するステップ又は画像分析ステップは、入力受付ステップの実行中に実行されるため、操作等に要する時間がその分短縮されるので効率的であり、ユーザーに煩わしさを感じさせてしまう可能性を低減できる。 According to the present invention, since the step of capturing an image of the user's face or the image analysis step is executed during the execution of the input reception step, the time required for the operation or the like is shortened by that amount, which is efficient. It is possible to reduce the possibility that the user will feel annoyed.

本発明のユーザー状態分析システムは、
前記ユーザーの顔の画像を撮像する撮像部と、
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
The user state analysis system of the present invention is
An image pickup unit that captures an image of the user's face,
A display unit that displays information and
An image pickup control unit that causes the image pickup unit to capture an image of the user's face,
A facial state in which an image of the user's face captured by the imaging unit is displayed on the display unit and has a correlation with an emotional or fatigue state displayed on the user's face displayed on the display unit. A display control unit that displays a question about
An image of the user's face displayed on the display unit, an input unit arranged at a position where the user can operate while looking at the question, and an input unit.
An input receiving unit that accepts an input of an answer by the user to the question via the input unit with the image of the face displayed on the display unit.
An answer analysis unit that analyzes the answers of the user to the question received by the input reception unit, and
It is characterized by including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit.

あるいは本発明のユーザー状態分析システムは、
前記ユーザーの顔を映す鏡部と、
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
Alternatively, the user state analysis system of the present invention is
The mirror part that reflects the user's face and
A display unit that is arranged at a position where the user can be seen at the same time as the user's face reflected in the mirror unit and displays information.
A display control unit that displays a question about the facial condition on the display unit, which has a correlation with the emotion or fatigue state appearing on the user's face reflected in the mirror unit.
An input unit arranged at a position where the user can operate while looking at the user's face reflected in the mirror unit and the question displayed on the display unit.
An input reception unit that accepts input of an answer by the user to a question about the condition of the user's face through the input unit while showing an image of the user's face reflected in the mirror unit.
An answer analysis unit that analyzes the user's answer to the question about the user's facial condition received by the input reception unit, and the answer analysis unit.
It is characterized by including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit.

本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers a question about the condition of the face while looking at his / her own face, so that the answer is easy. In addition, since you will have the opportunity to calmly look back on your facial condition, you will be promoted to be aware of the facial condition that is closely related to your emotions or fatigue, and you may be able to answer your facial condition accurately. It will increase.

これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This makes it possible to accurately generate user state information indicating the user state, which is one or both of the user's emotions and fatigue state.

本発明のユーザー状態分析システムの全体像を示すブロック図。The block diagram which shows the whole picture of the user state analysis system of this invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。The flowchart which shows the processing content of the user state analysis method of this invention. 本発明のユーザー状態分析方法の表示内容を示す図。The figure which shows the display content of the user state analysis method of this invention. 本発明のユーザー状態分析方法の表示内容を示す図。The figure which shows the display content of the user state analysis method of this invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。The flowchart which shows the processing content of the user state analysis method of this invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。The flowchart which shows the processing content of the user state analysis method of this invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。The flowchart which shows the processing content of the user state analysis method of this invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。The flowchart which shows the processing content of the user state analysis method of this invention. 本発明のユーザー状態分析方法が提供するソリューションの例を示す図。The figure which shows the example of the solution provided by the user state analysis method of this invention. 本発明のユーザー状態分析方法が提供するソリューションの例を示す図。The figure which shows the example of the solution provided by the user state analysis method of this invention. 本発明のユーザー状態分析方法の表示内容を示す図。The figure which shows the display content of the user state analysis method of this invention.

<ユーザー状態分析システムの構成>
まず図1を用いて、本実施形態のユーザー状態分析方法に用いられる、ユーザー状態分析システムの構成について説明する。なお同一の構成については、同一の符号を付して説明を省略することがある。
<Configuration of user status analysis system>
First, with reference to FIG. 1, the configuration of the user state analysis system used in the user state analysis method of the present embodiment will be described. The same components may be designated by the same reference numerals and description thereof may be omitted.

本実施形態のユーザー状態分析システムは、例えば携帯端末10と、サーバー30とを含んで構成される、コンピューターネットワークシステムである。 The user state analysis system of the present embodiment is a computer network system including, for example, a mobile terminal 10 and a server 30.

携帯端末10とサーバー30との間は、携帯電話網などの通信ネットワーク90により相互に通信可能に接続される。なお携帯端末10とサーバー30は、いずれも複数であってよい。 The mobile terminal 10 and the server 30 are connected to each other so as to be able to communicate with each other by a communication network 90 such as a mobile phone network. The number of mobile terminals 10 and the number of servers 30 may be plural.

携帯端末10は、例えば撮像部110と、表示部130と、携帯端末制御部150と、振動発生部170と、音声再生部190と、入力部210と、を含んで構成される。本実施形態において携帯端末10はスマートフォンであるが、例えばタブレット端末等の汎用的な端末であってもよく、ユーザーが携帯可能な専用端末であってよい。 The mobile terminal 10 includes, for example, an image pickup unit 110, a display unit 130, a mobile terminal control unit 150, a vibration generation unit 170, a voice reproduction unit 190, and an input unit 210. In the present embodiment, the mobile terminal 10 is a smartphone, but it may be a general-purpose terminal such as a tablet terminal, or it may be a dedicated terminal that can be carried by the user.

撮像部110は、ユーザーの顔の画像を撮像するカメラである。本実施形態においては、携帯端末10はスマートフォンであるので、インカメラ及びアウトカメラの両方が撮像部110に該当する。 The image pickup unit 110 is a camera that captures an image of the user's face. In the present embodiment, since the mobile terminal 10 is a smartphone, both the in-camera and the out-camera correspond to the image pickup unit 110.

表示部130は、ユーザーに向けて情報を表示するディスプレイである。 The display unit 130 is a display that displays information to the user.

携帯端末制御部150は、CPU(Central Processing Unit)等の演算処理装置、メモリ、及びI/O(Input/Output)デバイスなどにより構成されている。携帯端末制御部150は、所定のプログラムを読み込んで実行することにより例えば撮像制御部151、表示制御部153、入力受付部155として機能し、あるいはさらに、画像分析部157、ソリューション提供部159、モード指定受付部161として機能する。 The mobile terminal control unit 150 is composed of an arithmetic processing unit such as a CPU (Central Processing Unit), a memory, an I / O (Input / Output) device, and the like. The mobile terminal control unit 150 functions as, for example, an image pickup control unit 151, a display control unit 153, and an input reception unit 155 by reading and executing a predetermined program, or further, an image analysis unit 157, a solution provision unit 159, and a mode. It functions as a designated reception unit 161.

撮像制御部151は、撮像部110に、ユーザーUの顔又は手指の肌の画像を撮像させる。 The image pickup control unit 151 causes the image pickup unit 110 to take an image of the skin of the user U's face or fingers.

表示制御部153は、撮像部110により撮像されたユーザーUの顔の画像を表示部130に表示すると共に、表示部130に表示されたユーザーUの顔の状態についての質問を表示部130に表示する。なお当該質問は、表示部130に表示されたユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問である。 The display control unit 153 displays the image of the face of the user U captured by the image pickup unit 110 on the display unit 130, and displays a question about the state of the face of the user U displayed on the display unit 130 on the display unit 130. do. The question is a question about the state of the face, which has a correlation with the emotion or fatigue state appearing on the face of the user U displayed on the display unit 130.

入力受付部155は、入力部210を介してユーザーUの顔の状態についての質問に対するユーザーによる回答の入力を顔の画像を表示部130に表示させた状態で受け付ける。 The input reception unit 155 receives the input of the answer by the user to the question about the face condition of the user U via the input unit 210 in a state where the face image is displayed on the display unit 130.

画像分析部157は、撮像部110により撮像されたユーザーUの顔又は手指の肌の画像を分析する。 The image analysis unit 157 analyzes the image of the skin of the user U's face or fingers captured by the image pickup unit 110.

ソリューション提供部159は、ソリューション決定部335により決定されたソリューションをユーザーUに提供する。 The solution providing unit 159 provides the user U with the solution determined by the solution determining unit 335.

モード指定受付部161は、ユーザーUによる、ユーザー状態分析システムの動作モードの指定を受け付ける。 The mode designation reception unit 161 receives the designation of the operation mode of the user state analysis system by the user U.

振動発生部170は、ソリューションに含まれる、所定の時間継続する周期的な振動であって、振動の開始時から終了時にかけて段階的に周期が変動する振動をユーザーUに提供する例えばバイブレーターである。 The vibration generator 170 is, for example, a vibrator included in the solution, which is a periodic vibration that continues for a predetermined time and that provides the user U with a vibration whose period changes stepwise from the start to the end of the vibration. ..

音声再生部190は、ソリューションに含まれる、ユーザー状態を改善するための人の声、自然音又は音楽を含む、所定の時間継続する音声をユーザーUに提供する例えばスピーカーである。 The voice reproduction unit 190 is, for example, a speaker that provides the user U with a voice that continues for a predetermined time, including a human voice, natural sounds, or music for improving the user condition, which is included in the solution.

入力部210は、ユーザーによる入力を受け付ける例えばタッチパネル、キーボード又はマウスその他のポインティングデバイスである。 The input unit 210 is, for example, a touch panel, a keyboard, a mouse, or other pointing device that accepts input by the user.

なお、携帯端末10がスマートフォン、タブレットであれば入力部210は、通常タッチパネルであるので、表示部130に表示される顔の画像、顔の状態のついての質問を見ながら、ユーザーが当該質問に対する回答を入力できるが、その他の機器により構成される場合においても、表示部130と入力部210とは、顔の映像と顔の状態のついての質問を見ながら回答を入力できる位置関係に配置される。 If the mobile terminal 10 is a smartphone or tablet, the input unit 210 is usually a touch panel, so that the user can answer the question while looking at the question about the face image and the face condition displayed on the display unit 130. An answer can be input, but even if it is composed of other devices, the display unit 130 and the input unit 210 are arranged in a positional relationship in which the answer can be input while viewing the question about the facial image and the facial condition. To.

サーバー30は、サーバー記憶部310と、サーバー制御部330と、を含んで構成される、例えばコンピューターである。サーバー30は、複数であっても単数であってもよい。 The server 30 is, for example, a computer including a server storage unit 310 and a server control unit 330. The number of servers 30 may be plural or singular.

サーバー記憶部310は、例えばROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。サーバー記憶部310が、本実施形態における記憶部として機能する。 The server storage unit 310 includes, for example, a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), and an HDD (Hard Disk Drive). The server storage unit 310 functions as a storage unit in the present embodiment.

サーバー記憶部310は、例えばユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションの情報を記憶しているほか、ユーザー状態分析システムの処理結果、ユーザー状態分析システムの処理に必要な情報を記憶している。 The server storage unit 310 stores information on a plurality of solutions that can be provided to the user, for example, to improve the user state, which is one or both of the user's emotional and fatigue states, and also is a user state analysis system. As a result of processing, the information necessary for processing of the user state analysis system is stored.

サーバー制御部330は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。サーバー制御部330は、所定のプログラムを読み込んで実行することにより例えば回答分析部331、ユーザー状態情報生成部333として機能し、あるいはさらに、ソリューション決定部335、心拍取得部337、状態判定部339として機能する。 The server control unit 330 is composed of an arithmetic processing unit such as a CPU, a memory, an I / O device, and the like. The server control unit 330 functions as, for example, a response analysis unit 331 and a user status information generation unit 333 by reading and executing a predetermined program, or further, as a solution determination unit 335, a heart rate acquisition unit 337, and a status determination unit 339. Function.

回答分析部331は、入力受付部155により受け付けられた、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する。 The answer analysis unit 331 analyzes the answer by the user U to the question about the facial condition of the user U received by the input reception unit 155.

ユーザー状態情報生成部333は、回答分析部331及び画像分析部157による分析結果に基づいて、ユーザーUのユーザー状態を示すユーザー状態情報を生成する。 The user state information generation unit 333 generates user state information indicating the user state of the user U based on the analysis results by the response analysis unit 331 and the image analysis unit 157.

ソリューション決定部335は、複数のソリューションからユーザー状態情報に応じたソリューションを決定する。 The solution determination unit 335 determines a solution according to the user status information from a plurality of solutions.

心拍取得部337は、画像分析部157によるユーザーUの顔又は手指の肌の画像の分析結果からユーザーUの心拍に関する情報である、例えばユーザーUの心拍数を取得する。 The heart rate acquisition unit 337 acquires information regarding the heart rate of the user U, for example, the heart rate of the user U from the analysis result of the image of the skin of the face or the finger of the user U by the image analysis unit 157.

状態判定部339は、ユーザー状態情報に基づいてユーザーUが、ユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する。 The state determination unit 339 determines whether the user U is in the first state to provide a passive solution which is a passive stimulus to the user U's tactile or auditory sense based on the user state information, or gives the user U a predetermined action. Determine if you are in a second state to provide an active solution that encourages you.

<処理の概要>
次に、図2~図11を参照して本実施形態のユーザー状態分析方法による一連の工程について説明する。
<Outline of processing>
Next, a series of steps by the user state analysis method of the present embodiment will be described with reference to FIGS. 2 to 11.

<モード指定受付ステップ>
一連の処理を始めると、まずモード指定受付部161は、ユーザーUによる、動作モードの指定を受け付けるモード指定受付ステップを実行する(図2/S10)。
<Mode designation reception step>
When a series of processes are started, the mode designation reception unit 161 first executes a mode designation reception step for accepting the operation mode designation by the user U (FIG. 2 / S10).

モード指定受付部161は例えば、ユーザーUに動作モードの入力を促す画面を、表示部130に表示する。 The mode designation reception unit 161 displays, for example, a screen prompting the user U to input an operation mode on the display unit 130.

図3は、ユーザーUに動作モードの入力を促す画面の一例である。図3では、顔モードに該当する「Midnight Blue」を指定するためのアイコンM1と、第1指モードに該当する「Red」を指定するためのアイコンM21、第2指モードに該当する「Blue」を指定するためのアイコンM22、第3指モードに該当する「Green」を指定するためのアイコンM23が表示されている。 FIG. 3 is an example of a screen prompting the user U to input an operation mode. In FIG. 3, the icon M1 for designating "Midnight Blue" corresponding to the face mode, the icon M21 for designating "Red" corresponding to the first finger mode, and the "Blue" corresponding to the second finger mode. The icon M22 for designating is displayed, and the icon M23 for designating "Green" corresponding to the third finger mode is displayed.

いずれかのアイコンをユーザーUがタップすると、モード指定受付部161は対応するモードの指定を受け付けて本ステップを終了する。 When the user U taps any of the icons, the mode designation reception unit 161 accepts the designation of the corresponding mode and ends this step.

なお本実施形態においては、第1指モードはユーザーUを覚醒した状態に誘導するためのモードであり、第2指モードはユーザーUをリラックスした状態に誘導するためのモードであり、第3指モードはユーザーUを冷静な状態に誘導するためのモードである。 In the present embodiment, the first finger mode is a mode for guiding the user U to an awake state, and the second finger mode is a mode for guiding the user U to a relaxed state, and the third finger is used. The mode is a mode for guiding the user U to a calm state.

また同画面には「History」のアイコンH1も表示されている。ユーザーUが当該アイコンをタップする操作をすると、当該操作に応じて表示制御部153はサーバー記憶部310に記憶されているユーザー状態情報を取得して、表示部130に表示させる。 The "History" icon H1 is also displayed on the same screen. When the user U taps the icon, the display control unit 153 acquires the user status information stored in the server storage unit 310 and displays it on the display unit 130 in response to the operation.

<第1撮像ステップ>
動作モードとして顔モードが指定された場合には(図2/S20:顔モード)、撮像制御部151は、撮像部110に、ユーザーUの顔の画像を撮像させる第1撮像ステップを実行する。
<First imaging step>
When the face mode is designated as the operation mode (FIG. 2 / S20: face mode), the imaging control unit 151 executes the first imaging step of causing the imaging unit 110 to capture an image of the face of the user U.

このとき撮像制御部151は例えば、撮像部110であるインカメラを介して、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像を開始する。あるいはこのとき撮像制御部151は、例えば顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の静止画を1枚撮像してもよい。 At this time, the image pickup control unit 151 starts imaging the face image of the user U to be displayed on the display unit 130 in the face image / question display step, for example, via the in-camera which is the image pickup unit 110. Alternatively, at this time, the image pickup control unit 151 may capture one still image of the user U's face for display on the display unit 130, for example, in the face image / question display step.

一方、動作モードとして指モードに該当するモードが指定された場合には(図2/S20:指モード)、図2/S30~S70の処理は実行されず、図2/S90以降の処理が実行される。 On the other hand, when the mode corresponding to the finger mode is specified as the operation mode (FIG. 2 / S20: finger mode), the processes of FIGS. 2 / S30 to S70 are not executed, and the processes of FIGS. 2 / S90 and subsequent steps are executed. Will be done.

<顔画像・質問表示ステップ>
次に表示制御部153は、ユーザーUの顔の映像を見せると共に、ユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示する顔画像・質問表示ステップを実行する(図2/S50)。
<Face image / question display step>
Next, the display control unit 153 shows a face image of the user U and displays a face image / question display that displays a question about the face condition that has a correlation with the emotion or fatigue state appearing on the user U's face. Execute the step (FIG. 2 / S50).

図4は、顔画像・質問表示ステップにおいて表示される画面の一例である。表示制御部153は例えば図4に示すように、撮像されたユーザーUの顔の画像Fと、顔の状態についての1問目の質問である「目の開き具合はいつもと比べて」の表示Q1と、回答ボタンA1を表示部130に表示する。 FIG. 4 is an example of a screen displayed in the face image / question display step. As shown in FIG. 4, for example, the display control unit 153 displays the captured image F of the face of the user U and the first question about the condition of the face, "the degree of opening of the eyes is compared with usual". Q1 and the answer button A1 are displayed on the display unit 130.

表示制御部153は例えば図4に示すように、回答ボタンA1中の、「開いている」から「閉じている」までの5段階評価の何れかをタップして顔の状態を回答するように促す画面を表示する。 As shown in FIG. 4, for example, the display control unit 153 taps any one of the five grades from "open" to "closed" in the answer button A1 to answer the facial condition. Display a prompting screen.

<入力受付ステップ>
入力受付部155は例えば、表示制御部153が上記のように1問目の質問を表示したときに、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を、顔の映像をユーザーUに見せている状態で受け付ける入力受付ステップを開始する(図2/S70)。
<Input acceptance step>
For example, when the display control unit 153 displays the first question as described above, the input reception unit 155 inputs the answer by the user U to the question about the facial condition of the user U, and the user uses the image of the face. The input acceptance step of accepting while showing to U is started (FIG. 2 / S70).

回答ボタンA1の5段階評価のいずれかの部位をユーザーUがタップすると、入力受付部155は該当する評価値を質問への回答の入力として受け付ける。 When the user U taps any part of the five-level evaluation of the answer button A1, the input receiving unit 155 accepts the corresponding evaluation value as the input of the answer to the question.

なお、図2/S50及びS70の処理は、最後の質問への回答が入力される(図2/S80:Yes)まで繰り返し実行される。 The processes of FIGS. 2 / S50 and S70 are repeatedly executed until the answer to the last question is input (FIG. 2 / S80: Yes).

すなわち例えば、表示制御部153はユーザーの顔の状態についての2~5問目の質問として、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問、ニキビ又は吹き出物の状態に関する質問、口角の上がり具合又は下がり具合に関する質問、唇の潤いの状態に関する質問を順に表示して、入力受付部155はこれらの各質問へのユーザーUによる回答の入力を受け付ける。 That is, for example, the display control unit 153 asks the second to fifth questions about the condition of the user's face, such as the question about the darkness of the bear around the eyes, the condition of acne or pimples, as compared with the normal condition of the user. The input reception unit 155 accepts the input of the answer by the user U to each of these questions by displaying in order the question regarding the degree of raising or lowering of the corner of the mouth, the question regarding the state of moisturizing the lips.

そして入力受付部155は例えば、このようにして受け付けた、各質問へのユーザーUによる回答の情報をサーバー30に送信して入力受付ステップを終了する。 Then, for example, the input reception unit 155 transmits the information of the answer by the user U to each question received in this way to the server 30 and ends the input reception step.

<第2撮像ステップ>
その後、撮像制御部151は、画像分析ステップで分析を行うためのユーザーUの顔又は手指の肌の画像を撮像する第2撮像ステップを実行する。
<Second imaging step>
After that, the image pickup control unit 151 executes a second image pickup step of capturing an image of the skin of the user U's face or fingers for analysis in the image analysis step.

なおこのとき撮像制御部151は、顔モードが指定されている場合(図5/S91:顔モード)には、撮像部110であるインカメラを介して、ユーザーUの顔の画像を撮像して(図5/S93)第2撮像ステップを終了する。 At this time, when the face mode is specified (FIG. 5 / S91: face mode), the image pickup control unit 151 captures an image of the face of the user U via the in-camera which is the image pickup unit 110. (FIG. 5 / S93) The second imaging step is completed.

一方、指モードが指定されている場合(図5/S91:指モード)に撮像制御部151は、撮像部110であるアウトカメラを介して、ユーザーUの手指の肌の画像を撮像して(図5/S95)第2撮像ステップを終了する。 On the other hand, when the finger mode is specified (FIG. 5 / S91: finger mode), the image pickup control unit 151 captures an image of the skin of the finger of the user U via the out-camera which is the image pickup unit 110 (FIG. 5 / S91: finger mode). FIG. 5 / S95) The second imaging step is completed.

なおこのとき表示制御部153は例えば、ユーザーUの顔又は手指の位置を正しい位置に誘導するための枠を表示部130に表示して、撮像制御部151はユーザーUの顔又は手指が正しい位置にあることを認識したときに、撮像部110を介してユーザーUの顔又は手指の肌の動画を所定の時間(例えば30秒など。)撮像する。 At this time, for example, the display control unit 153 displays a frame for guiding the position of the face or finger of the user U to the correct position on the display unit 130, and the image pickup control unit 151 displays the face or finger of the user U at the correct position. When the image is recognized, the moving image of the skin of the user U's face or fingers is imaged for a predetermined time (for example, 30 seconds) via the image pickup unit 110.

また、撮像制御部151は例えば、当該動画の撮像中にユーザーUの顔又は手指が正しい位置からずれた場合には動画の撮像を停止し、表示制御部153はユーザーUの顔又は手指の位置を正しい位置に戻すように促すメッセージを表示部130に表示する。そして撮像制御部151は、ユーザーUの顔又は手指が正しい位置に戻ったことを認識したときに、ユーザーUの顔又は手指の肌の動画の撮像を再開する。あるいは撮像制御部151が撮像する画像は、連続的に撮像した複数の静止画であってもよい。 Further, for example, if the face or finger of the user U deviates from the correct position during the imaging of the moving image, the imaging control unit 151 stops the imaging of the moving image, and the display control unit 153 positions the face or finger of the user U. A message prompting the user to return the device to the correct position is displayed on the display unit 130. Then, when the image pickup control unit 151 recognizes that the face or finger of the user U has returned to the correct position, the image pickup control unit 151 resumes the imaging of the moving image of the skin of the face or finger of the user U. Alternatively, the image captured by the image pickup control unit 151 may be a plurality of continuously captured still images.

<画像分析ステップ>
その後、画像分析部157は、撮像されたユーザーUの顔又は手指の肌の画像を分析する画像分析ステップを実行する(図2/S110)。
<Image analysis step>
After that, the image analysis unit 157 executes an image analysis step of analyzing the captured image of the face or finger skin of the user U (FIG. 2 / S110).

すなわち画像分析部157は、顔モードが指定されている場合(図6/S111:顔モード)には、第2撮像ステップで撮像されたユーザーUの顔の画像を分析し(図6/S113)、指モードが指定されている場合(図6/S111:指モード)には、第2撮像ステップで撮像されたユーザーUの手指の画像を分析する(図6/S115)。 That is, when the face mode is specified (FIG. 6 / S111: face mode), the image analysis unit 157 analyzes the image of the user U's face captured in the second imaging step (FIG. 6 / S113). When the finger mode is specified (FIG. 6 / S111: finger mode), the image of the user U's finger captured in the second imaging step is analyzed (FIG. 6 / S115).

より具体的には、画像分析部157は例えば、肌の画像である動画又は連続的に撮像した静止画から、RGBの各色成分の輝度の変化の情報を取得する。 More specifically, the image analysis unit 157 acquires information on changes in the brightness of each color component of RGB from, for example, a moving image which is an image of the skin or a continuously captured still image.

そして画像分析部157は例えば、このようにして取得した、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報をサーバー30に送信して画像分析ステップを終了する。 Then, for example, the image analysis unit 157 transmits the information on the change in the luminance of each color component of RGB based on the image of the face of the user U to the server 30, and ends the image analysis step.

<回答分析ステップ>
回答分析部331は例えば、携帯端末10から各質問へのユーザーUによる回答の情報及びRGBの各色成分の輝度の変化の情報を受信した際に、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する回答分析ステップを実行する。
<Answer analysis step>
When the answer analysis unit 331 receives, for example, the information of the answer by the user U to each question from the mobile terminal 10 and the information of the change in the luminance of each color component of RGB, the user U responds to the question about the state of the face of the user U. Perform an answer analysis step to analyze the answer by.

より具体的には回答分析部331は例えば、入力受付ステップで受け付けられたユーザーUの顔の状態についての質問に対するユーザーUによる回答について、当該回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定する。 More specifically, the response analysis unit 331, for example, regarding the answer by the user U to the question about the facial condition of the user U received in the input reception step, the answer and the emotional or fatigue state appearing on the face of the user U. Using the first correlation information showing the correlation with the user U, the analysis result of one or both of the emotional state and the fatigue state appearing on the face of the user U is determined.

回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報としては、種々の情報が用いられてよい。本実施形態において回答分析部331は例えば下記の式を第1相関関係情報として用いて、ユーザーUの顔に出ている疲れの兆候を「元気」(=10)から「疲れた」(=0)までの範囲で疲れの兆候スコアとして指標化して、当該スコアを回答の分析結果として決定する。 Various information may be used as the first correlation information indicating the correlation between the answer and the emotion or fatigue state appearing on the face of the user U. In the present embodiment, the response analysis unit 331 uses, for example, the following formula as the first correlation information, and the sign of fatigue appearing on the face of the user U is changed from "energetic" (= 10) to "tired" (= 0). ) Is indexed as a sign of fatigue score, and the score is determined as the analysis result of the answer.

F=p1+p2+p3+p4+p5
ただし、Fは顔に現れている感情又は疲労状態を指標化した値(疲れの兆候スコア)であって、その最大値は10、最小値は0である。すなわち例えばp1~p5を足し合わせた値が10を超える場合には10とし、0を下回る場合は0となる。
F = p1 + p2 + p3 + p4 + p5
However, F is a value (a sign score of fatigue) that is an index of the emotion or fatigue state appearing on the face, and the maximum value is 10 and the minimum value is 0. That is, for example, when the total value of p1 to p5 exceeds 10, it is set to 10, and when it is less than 0, it is set to 0.

p1は、ユーザーUの通常の状態に比した目の開き具合を、「開いている」(=5点)から「閉じている」(=1点)までの1点刻みの5段階で評価した値である。 For p1, the degree of eye opening compared to the normal state of the user U was evaluated on a 5-point scale from "open" (= 5 points) to "closed" (= 1 point). The value.

p2は、ユーザーUの通常の状態に比した目の周りのクマの濃さを、「薄くなっている」(=1点)から「濃くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 In p2, the darkness of the bear around the eyes compared to the normal state of the user U is 0. From "thinning" (= 1 point) to "thickening" (= -1 point). It is a value evaluated in 5 steps in 5 point increments.

p3は、ユーザーUの通常の状態に比したニキビ又は吹き出物の状態を、「良くなっている」(=1点)から「悪くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p3 shows the condition of acne or pimples compared to the normal condition of user U in 0.5 point increments from "improved" (= 1 point) to "worse" (= -1 point). It is a value evaluated in 5 stages of.

p4は、ユーザーUの通常の状態に比した口角の上がり具合又は下がり具合を、「上がっている」(=5点)から「下がっている」(=1点)までの1点刻みの5段階で評価した値である。 In p4, the degree of increase or decrease of the corner of the mouth compared to the normal state of the user U is 5 steps from "up" (= 5 points) to "down" (= 1 point) in 1-point increments. It is a value evaluated in.

p5は、ユーザーUの通常の状態に比した唇の潤いの状態を、「プルプルしている」(=1点)から「かさかさしている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p5 shows the moisturized state of the lips compared to the normal state of the user U in 0.5 point increments from "pulling" (= 1 point) to "bulky" (= -1 point). It is a value evaluated in 5 stages of.

<ユーザー状態情報生成ステップ>
その後、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の分析結果及び顔の画像の分析結果に基づいて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップが実行される(図2/S150)。
<User status information generation step>
Then, based on the analysis result of the answer by the user U to the question about the face condition of the user U and the analysis result of the facial image, the user state including one or both of the emotional state and the fatigue state appearing on the face of the user U. The user state information generation step for generating the user state information indicating the above is executed (FIG. 2 / S150).

より具体的には、ユーザー状態情報生成ステップにおいては、まず心拍取得部337が画像分析ステップにて送信された、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍数を取得する(図7/S151)。 More specifically, in the user state information generation step, first, the heart rate acquisition unit 337 is transmitted from the information of the change in the brightness of each color component of RGB based on the image of the face of the user U, and the user U is used. As information about the heart rate of the user U, the heart rate of the user U is acquired (FIG. 7 / S151).

さらに心拍取得部337は、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍の揺らぎに関する情報を取得する(図7/S153)。心拍の揺らぎは、ユーザーUの疲労状態と密接に関連しているためである。 Further, the heartbeat acquisition unit 337 acquires information on the fluctuation of the heartbeat of the user U as information on the heartbeat of the user U from the information on the change in the luminance of each color component of RGB based on the image of the face of the user U (FIG. 7 / S153). ). This is because the fluctuation of the heartbeat is closely related to the fatigue state of the user U.

心拍の揺らぎに関する情報とは、例えばCVR-R又は、心拍の変動を周波数解析して得られる、心拍の変動の低周波成分であるLF(Low Frequency)の総パワーと高周波成分であるHF(High Frequency)の総パワーとの合計であるトータルパワー値である。 The information on the fluctuation of the heartbeat is, for example, CVR-R or the total power of LF (Low Frequency) which is a low frequency component of the fluctuation of the heartbeat and HF (High) which is a high frequency component obtained by frequency analysis of the fluctuation of the heartbeat. It is a total power value which is the sum of the total power of Frequency).

そしてユーザー状態情報生成部333は、ユーザーの心拍に関する情報である心拍数について、心拍に関する情報とユーザーUの自律神経バランスとの相関関係を示す第2相関関係情報、を用いて、ユーザーUの自律神経バランスに関する情報を取得する(図7/S153)。 Then, the user state information generation unit 333 uses the second correlation information indicating the correlation between the information on the heart rate and the autonomic nervous balance of the user U for the heart rate, which is the information on the user's heart rate, to autonomously use the user U. Obtain information on neural balance (FIG. 7 / S153).

なお自律神経バランスに関する情報とは例えば、心拍の変動を周波数解析して得られる、LFとHFとの比(LF/HF)である。 The information on the autonomic nerve balance is, for example, the ratio of LF to HF (LF / HF) obtained by frequency analysis of the fluctuation of the heartbeat.

そしてユーザー状態情報生成部333は、ユーザーUの顔の状態に関する質問への回答の分析結果、顔の画像の分析結果及び自律神経バランスに関する情報に基づいて、ユーザーUのユーザー状態に関する総合スコアを決定する(図7/S155)。 Then, the user state information generation unit 333 determines the overall score regarding the user state of the user U based on the analysis result of the answer to the question regarding the face state of the user U, the analysis result of the face image, and the information regarding the autonomic nerve balance. (Fig. 7 / S155).

より具体的にはユーザー状態情報生成部333は、自律神経バランスに関する情報を1~10の間の点数で指標化した自律神経バランススコアを決定する。例えば交感神経が優位であるほど当該点数は1に近づき、副交感神経が優位であるほど当該点数は10に近づくように決定される。 More specifically, the user state information generation unit 333 determines the autonomic nerve balance score, which is an index of information on the autonomic nerve balance with a score between 1 and 10. For example, it is determined that the more predominant the sympathetic nerve is, the closer the score is to 1, and the more predominant the parasympathetic nerve is, the closer the score is to 10.

またユーザー状態情報生成部333は、例えば心拍の揺らぎに関する情報として取得したCVR-R(又はトータルパワー値)を1~10の間の点数で指標化した、心拍に基づく疲労度スコアを決定する。例えば心拍の揺らぎの度合が高いほど当該点数は1に近づき、心拍の揺らぎの度合が低いほど当該点数は10に近づくように決定される。 Further, the user state information generation unit 333 determines a fatigue degree score based on the heartbeat, for example, the CVR-R (or total power value) acquired as information on the fluctuation of the heartbeat is indexed by a score between 1 and 10. For example, it is determined that the higher the degree of heart rate fluctuation, the closer the score is to 1, and the lower the degree of heart rate fluctuation, the closer the score is to 10.

そしてユーザー状態情報生成部333は、自律神経バランススコア、心拍に基づく疲労度スコアの2つの値に、回答分析ステップにて決定されたユーザーUの顔に出ている疲れの兆候を数値化した疲れの兆候スコアを加えた3つの値の平均値を、ユーザーの感情又は疲労状態を指標化した、総合スコアとして決定する。 Then, the user state information generation unit 333 quantifies the signs of fatigue appearing on the face of the user U determined in the response analysis step into the two values of the autonomic nerve balance score and the fatigue degree score based on the heartbeat. The average value of the three values including the symptom score of is determined as the total score, which is an index of the user's emotional or fatigue state.

そしてユーザー状態情報生成部333は、ユーザー状態情報を生成して(図7/S157)、ユーザー状態情報生成ステップを終了する。 Then, the user state information generation unit 333 generates the user state information (FIG. 7 / S157), and ends the user state information generation step.

より具体的にはユーザー状態情報生成部333は、ユーザーUの顔に出ている疲れの兆候を数値化した値、心拍の揺らぎに関する情報を点数化した値、自律神経バランスに関する情報を点数化した値、及び総合スコアのセットをユーザー状態情報とする。 More specifically, the user status information generation unit 333 has quantified the signs of fatigue appearing on the face of the user U, scoring the information on the fluctuation of the heartbeat, and scoring the information on the autonomic nerve balance. A set of values and total scores is used as user status information.

<ユーザー状態情報記憶ステップ>
ユーザー状態情報記憶ステップにおいてユーザー状態情報生成部333は、ユーザー状態情報生成ステップにおいて生成したユーザー状態情報をサーバー記憶部310に時系列的に記憶する(図2/S170)。
<User status information storage step>
In the user state information storage step, the user state information generation unit 333 stores the user state information generated in the user state information generation step in the server storage unit 310 in chronological order (FIG. 2 / S170).

<ソリューション決定ステップ>
そして、ソリューション決定部335は、ユーザーUの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、ユーザーUに提供可能な複数のソリューションから、ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップを実行する(図2/S190)。
<Solution decision step>
Then, the solution determination unit 335 determines a solution according to the user state information from a plurality of solutions that can be provided to the user U in order to improve the user state that is one or both of the emotional state and the fatigue state of the user U. Perform the solution decision step (Fig. 2 / S190).

すなわち例えば、ソリューション決定部335はソリューション決定ステップを開始すると、まず指定されている動作モードを確認する(図8/S191)。 That is, for example, when the solution determination unit 335 starts the solution determination step, it first confirms the designated operation mode (FIG. 8 / S191).

そして、指定されている動作モードが顔モードである場合には(図8/S191:顔モード)、ソリューション決定部335は、ユーザー状態情報に含まれるユーザーUの顔に現れている感情又は疲労状態に基づいて、ユーザーUがユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する(図8/S193)。 Then, when the designated operation mode is the face mode (FIG. 8 / S191: face mode), the solution determination unit 335 determines the emotional or fatigue state appearing on the face of the user U included in the user state information. Based on, User U should be in the first state to provide a passive solution that is a passive stimulus to User U's tactile or auditory sense, or User U should be provided with an active solution that encourages a given action. It is determined whether or not the two states are present (FIG. 8 / S193).

ユーザーが第1状態にあるか第2状態にあるかの判定の手法には種々の手法が採用されてよいが、本実施形態においてソリューション決定部335は、ユーザー状態情報に含まれる自律神経バランスに関する情報を点数化した値が4以下かつユーザーUの顔に出ている疲れの兆候を数値化した値が6以上である場合(すなわち、交感神経が優位で、顔に出ている疲れの兆候から見て元気な状態にある場合)に、ユーザーUが第2状態にあると判定し、それ以外の場合には第1状態にあると判定する。 Various methods may be adopted as a method for determining whether the user is in the first state or the second state, but in the present embodiment, the solution determination unit 335 relates to the autonomic nerve balance included in the user state information. When the value obtained by scoring the information is 4 or less and the value obtained by quantifying the sign of fatigue appearing on the face of the user U is 6 or more (that is, the sympathetic nerve is dominant and the sign of fatigue appearing on the face is used. It is determined that the user U is in the second state (when it is in a healthy state), and in other cases, it is determined that the user U is in the first state.

ユーザーUが第1状態にあると判定された場合には(図8/S193:第1状態)、ソリューション決定部335は受動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S195)。 When it is determined that the user U is in the first state (FIG. 8 / S193: first state), the solution determination unit 335 determines a solution according to the user state information from the passive solution (FIG. 8 / S195). ).

一方、ユーザーUが第2状態にあると判定された場合には(図8/S193:第2状態)、ソリューション決定部335は能動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S197)。 On the other hand, when it is determined that the user U is in the second state (FIG. 8 / S193: second state), the solution determination unit 335 determines a solution according to the user state information from the active solution (FIG. 8). / S197).

また、指定されている動作モードが指モードである場合には(図8/S191:指モード)、ソリューション決定部335は、指定された指モードに応じたソリューションを決定する(図8/S199)。 Further, when the designated operation mode is the finger mode (FIG. 8 / S191: finger mode), the solution determination unit 335 determines the solution according to the designated finger mode (FIG. 8 / S199). ..

そしてソリューション決定部335は、このようにして決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を携帯端末10に送信してソリューション決定ステップを終了する。 Then, the solution determination unit 335 transmits the information about the solution determined in this way and the user status information generated in the user status information generation step to the mobile terminal 10 to end the solution determination step.

より具体的には、例えば動作モード及び総合スコアと、ソリューションとの対応テーブルを予めサーバー記憶部310に記憶しておき、ソリューション決定部335は、当該対応テーブルを参照して、ユーザー状態情報に含まれる総合スコアに対応したソリューションを決定する。 More specifically, for example, the operation mode and the total score and the correspondence table with the solution are stored in the server storage unit 310 in advance, and the solution determination unit 335 refers to the correspondence table and includes it in the user status information. Determine the solution that corresponds to the overall score.

本実施形態においては、ソリューション決定部335が決定するソリューションは、所定の時間継続する周期的な振動であって該振動の開始時から終了時にかけて段階的に周期が変動する振動と、ユーザー状態を改善するための人の声、自然の音又は音楽を含む所定の時間継続する音声と、の組み合わせ(受動的ソリューション)であり、必要に応じてさらに、ユーザーUに所定の方法での呼吸又は瞑想などの動作を促す情報又はユーザーUを所定の状態に誘導する画像を含む(能動的ソリューション)。 In the present embodiment, the solution determined by the solution determination unit 335 is a periodic vibration that continues for a predetermined time, and the vibration whose cycle changes stepwise from the start to the end of the vibration and the user state. A combination (passive solution) of human voice, natural sounds or voices that last for a given period of time to improve, and if necessary, further breathe or meditate in a given manner to User U. Includes information that prompts an action such as, or an image that guides the user U to a predetermined state (active solution).

<ソリューションの具体例>
・顔モード用のソリューション
図9は、本実施形態における、総合スコアと顔モード用のソリューションとの対応関係を示している。図9に示すように、顔モード用のソリューションに含まれる音声については、ユーザーUが第1状態にある場合のソリューションは、総合スコアの高低に応じた3つのグループに分類されており、総合スコアが1~4の場合には人の声と音楽との組み合わせ、5~7の場合には自然の音と音楽との組み合わせ、8~10の場合には音楽のみである。このように、ソリューション決定部335は、ユーザー状態情報に基づいて、振動と組み合わせる音声を決定する。
<Specific example of solution>
-Solution for face mode FIG. 9 shows the correspondence between the total score and the solution for face mode in this embodiment. As shown in FIG. 9, regarding the voice included in the solution for the face mode, the solution when the user U is in the first state is classified into three groups according to the level of the total score, and the total score is divided into three groups. When is 1 to 4, it is a combination of human voice and music, when it is 5 to 7, it is a combination of natural sound and music, and when it is 8 to 10, it is only music. In this way, the solution determination unit 335 determines the voice to be combined with the vibration based on the user state information.

また、振動については、ソリューション決定部335は、ユーザー状態情報に基づいて、より具体的にはユーザーUの心拍数に基づいて、振動の開始時の周期と、開始時から終了時にかけての該周期の変動パターンとを決定する。 Regarding vibration, the solution determination unit 335 determines the cycle at the start of vibration and the cycle from the start to the end based on the user state information and more specifically based on the heart rate of the user U. To determine the fluctuation pattern of.

すなわち例えばユーザーUの心拍数が80以上である場合にソリューション決定部335は、振動の開始時の周期は85回/分であり、当該周期を10秒間継続させると決定する。またソリューション決定部335は、開始時から終了時にかけての該周期の変動パターンを、75回/分周期の振動を10秒継続し、65回/分周期の振動を20秒継続し、…と変動させて、最終的には50回/分周期の振動を120秒以上、ソリューションが終了するまで継続するという、周期の変動パターンを決定する。 That is, for example, when the heart rate of the user U is 80 or more, the solution determination unit 335 determines that the cycle at the start of vibration is 85 times / minute, and the cycle is continued for 10 seconds. Further, the solution determination unit 335 changes the fluctuation pattern of the cycle from the start to the end, continuing the vibration of 75 times / minute cycle for 10 seconds, continuing the vibration of 65 times / minute cycle for 20 seconds, and so on. Finally, the vibration pattern of 50 times / minute is determined, that is, the vibration is continued for 120 seconds or more until the solution is completed.

なお例えば、ユーザーUの心拍数が相対的に高い場合、本実施形態においては心拍数が70以上である場合には、振動の開始から一定期間(例えば20秒など。)は振動のみを提供して、その後音声を組み合わせて提供するようにソリューションを決定させてもよい。 For example, when the heart rate of the user U is relatively high, and when the heart rate is 70 or more in the present embodiment, only the vibration is provided for a certain period (for example, 20 seconds) from the start of the vibration. The solution may then be decided to provide the audio in combination.

これは、心拍が一定程度高い場合には、まず心拍を落ち着けてから音声を聞かせた方が、音声による感情及び疲労状態の改善効果が得られやすくなるためである。 This is because when the heartbeat is high to a certain extent, it is easier to obtain the effect of improving emotions and fatigue by the voice by first calming the heartbeat and then listening to the voice.

なお本実施形態においてソリューション決定部335は、ユーザーUが第1状態にあると判定されている場合には、総合スコアに対応した受動的ソリューションを3つ決定し、ユーザーUが第2状態にあると判定されている場合には、総合スコアに対応した能動的ソリューションを1つと、受動的なソリューションを2つ決定する。そのため、総合スコアが1~4の場合、5~7の場合、8~10のそれぞれに対応する複数の音声のソリューションがサーバー記憶部310に記憶されている。 In the present embodiment, when it is determined that the user U is in the first state, the solution determination unit 335 determines three passive solutions corresponding to the total score, and the user U is in the second state. If it is determined that, one active solution corresponding to the total score and two passive solutions are determined. Therefore, when the total score is 1 to 4, when the total score is 5 to 7, a plurality of voice solutions corresponding to each of 8 to 10 are stored in the server storage unit 310.

そして、ユーザーUが第2状態にある場合のソリューションは、音楽と、ユーザーUに所定の動作を促す情報である「行動をサポートする文字」と、振動との組み合わせである。 Then, the solution when the user U is in the second state is a combination of music, "characters supporting the action" which is information for prompting the user U to perform a predetermined action, and vibration.

「行動をサポートする文字」とは、例えば図10の下部に示すような、一定間隔で変化する「振動を感じながら簡単なマインドフルネス瞑想をやってみましょう」、「背筋を伸ばし姿勢を正しましょう」、「肩の力を抜きゆっくりと鼻呼吸をしましょう」などの、所定の動作又は所定の方法での呼吸又は瞑想を促す文章の組み合わせである。 "Characters that support behavior" are, for example, "Let's do a simple mindfulness meditation while feeling the vibration" and "Stretch your back and posture" that change at regular intervals, as shown in the lower part of Fig. 10. It is a combination of sentences that encourage breathing or meditation in a predetermined action or method, such as "let's correct" and "let's relax the shoulders and breathe slowly through the nose".

・指モード用のソリューション
図10は、本実施形態における、指モードごとの、ユーザーUの心拍数と指モード用のソリューションとの対応関係を示している。図10に示すように、指モード用のソリューションは、指定された指モード(Red、Blue、Greenの何れか)とユーザーUの心拍数に応じて決定される、振動と、ユーザーUに所定の動作を促す情報と、ユーザーUを所定の状態に誘導する画像との組み合わせである。
-Solution for finger mode FIG. 10 shows the correspondence between the heart rate of the user U and the solution for the finger mode for each finger mode in the present embodiment. As shown in FIG. 10, the solution for the finger mode is determined by the specified finger mode (Red, Blue, Green) and the heart rate of the user U, the vibration and the predetermined to the user U. It is a combination of the information for prompting the operation and the image for guiding the user U to a predetermined state.

より具体的には、ソリューション決定部335は、第1指モードに該当する「Red」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に短くなるように、すなわち振動数が増えていくように変動させる振動周期の変動パターンを決定する。これは、引き込み効果によってユーザーUの心拍を速めて、ユーザーUを覚醒した状態に誘導するためである。 More specifically, the solution determination unit 335 so that the vibration cycle is gradually shortened from the start to the end of the vibration when "Red" corresponding to the first finger mode is specified. That is, the fluctuation pattern of the vibration cycle to be changed so that the frequency increases is determined. This is because the pull-in effect accelerates the heartbeat of the user U and induces the user U to be in an awake state.

また、ユーザーUに所定の動作を促す情報は例えば、「姿勢を正して振動を感じながら
大きく呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、覚醒をイメージできる静止画である。
Further, the information that urges the user U to perform a predetermined action is, for example, the text of a comment "Let's correct the posture and take a big breath while feeling the vibration", and the image that guides the user U to the predetermined state is, for example, It is a still image that can imagine awakening.

そしてソリューション決定部335は、第2指モードに該当する「Bule」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Green」が指定されている場合に比して急である。これは、引き込み効果によってユーザーUの心拍を急速に落ち着かせて、ユーザーUを冷静な状態に誘導するためである。 Then, in the solution determination unit 335, when "Bule" corresponding to the second finger mode is specified, the vibration cycle is gradually lengthened from the start to the end of the vibration, that is, the frequency is increased. The fluctuation pattern of the cycle to be varied so as to decrease is determined. The speed at which the frequency decreases at this time is steeper than when "Green" is specified. This is because the pull-in effect rapidly calms the heartbeat of the user U and induces the user U to be in a calm state.

また、ユーザーUに所定の動作を促す情報は例えば、「肩を一度あげ、力を抜き振動を感じながらゆっくり呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、冷静をイメージできる静止画である。 In addition, the information that urges the user U to perform a predetermined action is, for example, the text of a comment "Let's raise the shoulder once, relax and breathe slowly while feeling the vibration", and the image that guides the user U to the predetermined state. Is, for example, a still image that can be imagined as calm.

そしてソリューション決定部335は、第3指モードに該当する「Green」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Blue」が指定されている場合に比して緩やかである。これは、引き込み効果によってユーザーUの心拍を緩やかに落ち着かせて、ユーザーUをリラックスした状態に誘導するためである。 Then, in the solution determination unit 335, when "Green" corresponding to the third finger mode is specified, the vibration cycle is gradually lengthened from the start to the end of the vibration, that is, the frequency is increased. The fluctuation pattern of the cycle to be varied so as to decrease is determined. The speed at which the frequency decreases at this time is slower than when "Blue" is specified. This is because the pull-in effect gently calms the heartbeat of the user U and induces the user U to be in a relaxed state.

また、ユーザーUに所定の動作を促す情報は例えば、「肩の力を抜いて、振動を感じながら深く呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、リラックスをイメージできる静止画である。 In addition, the information that urges the user U to perform a predetermined action is, for example, the text of a comment "Let's relax the shoulders and breathe deeply while feeling the vibration", and the image that guides the user U to the predetermined state is. For example, it is a still image that allows you to imagine relaxing.

なお、ソリューション決定部335は、例えばBlue又はGreenの指モードが指定されている場合において、最後に振動数を所定程度上げてから振動を終了するような変動パターンを決定してもよい。 In addition, the solution determination unit 335 may determine a fluctuation pattern such that, for example, when the finger mode of Blue or Green is specified, the vibration is terminated after the frequency is finally increased by a predetermined degree.

これは、例えば業務の昼休みの休憩中にユーザーUがソリューションの提供を受けることを想定した場合、一度冷静な状態又はリラックスした状態になった後に、再度通常の心拍数に近づけることを促すことによって、休憩後に円滑に業務を再開できる状態にユーザーUを誘導するためである。 This is done, for example, by encouraging User U to regain normal heart rate after being calm or relaxed, for example, assuming that User U will be provided with a solution during a business lunch break. This is to guide the user U to a state where the business can be resumed smoothly after the break.

<ユーザー状態情報表示ステップ>
その後、例えば、携帯端末10がサーバー30から決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を受信した際に、ユーザー状態情報を表示するユーザー状態情報表示ステップが実行される(図2/S210)。
<User status information display step>
After that, for example, when the mobile terminal 10 receives the information about the solution determined from the server 30 and the user state information generated in the user state information generation step, the user state information display step for displaying the user state information is executed. (FIG. 2 / S210).

図11は、顔モードが指定されていた場合に、ユーザー状態情報表示ステップで表示される内容の例である。すなわち、図11に示すように、表示制御部153は、受信したユーザー状態情報に含まれる、ユーザーUの顔に出ている疲れの兆候を数値化した値を示す「顔にでている疲れの兆候」の表示R1と、心拍の揺らぎに関する情報を点数化した値を示す「エネルギー余力度」の表示R2と、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示R3と、総合スコアの値の表示T1とをユーザー状態情報として並べて表示している。 FIG. 11 is an example of the content displayed in the user status information display step when the face mode is specified. That is, as shown in FIG. 11, the display control unit 153 indicates the numerical value of the sign of fatigue appearing on the face of the user U, which is included in the received user status information, and indicates the “tiredness appearing on the face”. The display R1 of "signs", the display R2 of "energy reserve" showing the value obtained by scoring the information on the fluctuation of the heartbeat, and the display R3 of the "autonomic nerve balance" showing the value obtained by scoring the information on the autonomic nerve balance. , Display of the value of the total score T1 is displayed side by side as user status information.

そして、表示制御部153は、画面の下部に、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)を3つ並べて表示している。また、当該アイコンにはたとえば、各ソリューションの内容を示すタイトルと、サムネイル画像がそれぞれ含まれる。 Then, the display control unit 153 displays three icons (S1, S2, S3) for starting the provision of the solution determined this time side by side at the lower part of the screen. In addition, the icon includes, for example, a title indicating the content of each solution and a thumbnail image.

なお、指モードが指定されている場合には、表示制御部153は例えば、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に表示させる。 When the finger mode is specified, the display control unit 153 may display, for example, an "autonomic nerve balance" indicating a scored value of information related to the autonomic nerve balance, and a display indicating the heart rate of the user U. Is displayed on the display unit 130.

<ソリューション提供ステップ>
顔モードが指定されている場合には、ユーザー状態情報表示ステップにおいて、表示制御部153が画面に表示させた、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)の何れかをユーザーUがタップする操作を行うと、当該操作に応じてソリューション提供部159はタップされたアイコンに対応するソリューションをユーザーに向けて提供する。
<Solution provision step>
When the face mode is specified, the icon (S1, S2, S3) displayed on the screen by the display control unit 153 in the user status information display step for starting the provision of the solution determined this time. When the user U taps any of them, the solution providing unit 159 provides the solution corresponding to the tapped icon to the user in response to the operation.

また指モードが指定されている場合には、ソリューション提供部159は、表示制御部153が「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に一定時間表示させた後に自動的に、ソリューション決定部335が決定した、ソリューションの提供を開始する。 When the finger mode is specified, the solution providing unit 159 causes the display control unit 153 to display the display of "autonomic nerve balance" and the display showing the heart rate of the user U on the display unit 130 for a certain period of time. After that, the solution decision unit 335 automatically starts to provide the solution.

すなわち例えばソリューション提供部159は振動発生部170を介して、ソリューションに含まれる振動を、ソリューション決定部335が決定した開始時の周期で開始し、ソリューション決定部335が決定した変動パターンに従って変動させながら所定の時間継続して提供する。 That is, for example, the solution providing unit 159 starts the vibration included in the solution via the vibration generating unit 170 at the start cycle determined by the solution determining unit 335, and fluctuates according to the fluctuation pattern determined by the solution determining unit 335. Provide continuously for a specified time.

またソリューション提供部159はソリューション決定部335が決定した音声を、音声再生部190を介して再生し、ソリューション決定部335が決定した、ユーザーUに所定の動作を促す情報又はユーザーUを所定の状態に誘導する画像を、表示部130を介して表示して、ユーザーUに向けて提供する。 Further, the solution providing unit 159 reproduces the voice determined by the solution determining unit 335 via the voice reproducing unit 190, and the information or the user U determined by the solution determining unit 335 to prompt the user U to perform a predetermined operation is in a predetermined state. The image to be guided to the user U is displayed via the display unit 130 and provided to the user U.

以上、本発明の実施形態について説明したが、これに限定されない。本発明の趣旨を逸脱しない範囲で、種々の変更が可能である。 The embodiments of the present invention have been described above, but the present invention is not limited thereto. Various changes can be made without departing from the spirit of the present invention.

すなわち例えば、上記においてはユーザーの顔が映像として表示部130に表示される場合の実施形態について説明したが、これに限定されない。すなわち例えば、本発明のユーザー状態分析方法は、いわゆるスマートミラーであるユーザー状態分析システムを用いて実行されて、ユーザーは鏡に写る自身の顔を見ながら、質問に答えてもよい。また、当該スマートミラーはユーザーが携帯可能であってもなくてもよい。 That is, for example, in the above description, the embodiment in which the user's face is displayed as an image on the display unit 130 has been described, but the present invention is not limited to this. That is, for example, the user state analysis method of the present invention is executed by using a user state analysis system which is a so-called smart mirror, and the user may answer a question while looking at his / her face reflected in the mirror. Further, the smart mirror may or may not be portable by the user.

より具体的には、本実施形態のユーザー状態分析システムは、ユーザーUの顔を映す鏡部を備えている。そして、表示部130は、ユーザーUが鏡部に写るユーザーUの顔と同時に見ることができる位置に配置される。表示制御部153は、鏡部に写るユーザーUの顔の状態についての質問を表示部130に表示する。入力部210は、ユーザーUが、鏡部に写るユーザーUの顔及び、表示部130に表示されたユーザーUの顔の状態についての質問を見ながら操作を行える位置に配置される。そして入力受付部155は、入力部210を介して、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を鏡部に写るユーザーUの顔の映像を見せた状態で受け付ける。 More specifically, the user state analysis system of the present embodiment includes a mirror unit that reflects the face of the user U. Then, the display unit 130 is arranged at a position where the user U can be seen at the same time as the face of the user U reflected in the mirror unit. The display control unit 153 displays on the display unit 130 a question about the state of the face of the user U reflected in the mirror unit. The input unit 210 is arranged at a position where the user U can operate while looking at the question about the face of the user U reflected in the mirror unit and the state of the face of the user U displayed on the display unit 130. Then, the input reception unit 155 accepts the input of the answer by the user U to the question about the face condition of the user U via the input unit 210 in a state of showing the image of the face of the user U reflected in the mirror unit.

あるいは例えば、回答分析部331は回答分析ステップにおいて、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を入力として、ユーザーUの顔に現れている幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性などの感情、又は不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の量の状態などの疲労状態を出力とする分析モデルを第1相関関係情報として用いて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定してもよい。 Alternatively, for example, in the answer analysis step, the answer analysis unit 331 inputs the answer by the user U to the question about the facial condition of the user U, and the four factors of happiness appearing on the face of the user U, the burnout state, and the life. Satisfaction, negative or positive on the PANAS scale, degree of resilience, subjective well-being scale, emotions such as stress tolerance, or insomnia, physical fatigue, mental fatigue, amount of fatigue components in the body An analysis model that outputs the fatigue state such as the above may be used as the first correlation information to determine the analysis result of one or both of the emotion and the fatigue state appearing on the face of the user U.

この場合、回答分析部331は分析モデルを用いて、分析対象の感情又は疲労状態が正常な状態であることを示す基準値よりも高い状態にあるか、低い状態にあるかの出力値を分析結果として決定する。 In this case, the response analysis unit 331 analyzes the output value of whether the emotional or fatigue state of the analysis target is higher or lower than the reference value indicating that the state is normal, using the analysis model. Determine as a result.

あるいは上記の実施例においては、入力受付ステップの後に、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)及び画像分析ステップを実行する構成について説明したが、これに限定されない。 Alternatively, in the above embodiment, after the input acceptance step, a configuration for capturing an image of the user U's face for analysis in the image analysis step (second imaging step) and a configuration for executing the image analysis step have been described. However, it is not limited to this.

すなわち例えば、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前に実行され、画像分析ステップは、入力受付ステップの前に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。このように、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前後いずれにおいて行われてよく、それに応じて画像分析ステップは入力受付ステップの前又は後のいずれかに撮像されたユーザーUの顔の画像を分析するステップとなる。 That is, for example, the step of capturing an image of the user U's face for analysis in the image analysis step (second imaging step) is executed before the input acceptance step, and the image analysis step is performed before the input acceptance step. It may be configured to be a step of analyzing the captured image of the user U's face. As described above, the step of capturing the image of the user U's face for performing the analysis in the image analysis step (second imaging step) may be performed before or after the input reception step, and the image analysis step may be performed accordingly. It is a step of analyzing the image of the user U's face captured either before or after the input reception step.

あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの実行中に実行され、画像分析ステップは、入力受付ステップの実行中に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the user U's face is executed during the execution of the input acceptance step, and the image analysis step is a step of analyzing the image of the user U's face captured during the execution of the input acceptance step. It may be configured to be.

この場合、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像をするステップ(第1撮像ステップ)と、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)と、は、単一のステップとして実行される。すなわち、このようにして撮像されたユーザーの顔の画像は、顔画像・質問表示ステップで表示部130に表示させるためにも、画像分析ステップで分析を行うためにも用いられる。 In this case, a step of capturing an image of the user U's face to be displayed on the display unit 130 in the face image / question display step (first imaging step) and a step of capturing the user U's face for analysis in the image analysis step. The step of imaging the image (second imaging step) is performed as a single step. That is, the image of the user's face captured in this way is used both for displaying on the display unit 130 in the face image / question display step and for performing analysis in the image analysis step.

またこの場合には、例えば画像分析部157は、撮像部110により撮像された画像の中から、手ぶれの度合いが十分に低い画像など、画像の分析の精度を保つために必要な条件を満たしている画像を選択して、当該選択された画像を分析するように構成される。 Further, in this case, for example, the image analysis unit 157 satisfies the conditions necessary for maintaining the accuracy of image analysis, such as an image having a sufficiently low degree of camera shake from the images captured by the image pickup unit 110. It is configured to select an image and analyze the selected image.

あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの前又は実行中に実行され、画像分析ステップは、入力受付ステップの実行中に実行されるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the user U's face may be configured to be executed before or during the input acceptance step, and the image analysis step may be executed during the execution of the input acceptance step.

110…撮像部、130…表示部、151…撮像制御部、153…表示制御部、155…入力受付部、157…画像分析部、159…ソリューション提供部、161…モード指定受付部、170…振動発生部、190…音声再生部、310…サーバー記憶部、331…回答分析部、333…ユーザー状態情報生成部、335…ソリューション決定部、337…心拍取得部、339…状態判定部。 110 ... Imaging unit, 130 ... Display unit, 151 ... Imaging control unit, 153 ... Display control unit, 155 ... Input reception unit, 157 ... Image analysis unit, 159 ... Solution provision unit, 161 ... Mode designation reception unit, 170 ... Vibration Generation unit, 190 ... Voice reproduction unit, 310 ... Server storage unit, 331 ... Answer analysis unit, 333 ... User status information generation unit, 335 ... Solution determination unit, 337 ... Heart rate acquisition unit, 339 ... Status determination unit.

Claims (20)

ユーザーの顔の映像を該ユーザーに見せると共に、該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示するステップを含み、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とするユーザー状態分析方法。
Includes a step to show the user an image of the user's face and to display a question about the condition of the face that correlates with the emotional or fatigue condition appearing on the user's face.
An input reception step that accepts an answer by the user to a question about the state of the user's face while showing the image of the face to the user.
An answer analysis step that analyzes the user's answer to the question about the user's facial condition, and
It is characterized by comprising a user state information generation step of generating user state information indicating a user state including one or both of emotions and fatigue states appearing on the user's face based on the analysis result of the answer. How to analyze user status.
請求項1に記載のユーザー状態分析方法において、
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、をさらに含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 1,
A solution determination step for determining a solution according to the user status information from a plurality of solutions that can be provided to the user in order to improve the user status of the user.
A user condition analysis method comprising further comprising providing the determined solution to the user.
請求項1又は2に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 1 or 2.
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The user state analysis method is characterized in that the user state information generation step is a step of generating the user state information based on the answer and the analysis result of the face image.
請求項1~3の何れかに記載のユーザー状態分析方法において、
生成された前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 3,
A user state analysis method comprising a step of displaying the generated user state information.
請求項1~4のいずれかに記載のユーザー状態分析方法において、
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 4.
A step to store the generated user status information in chronological order,
A user state analysis method comprising a step of displaying the stored user state information in response to the user's operation.
請求項1~5のいずれかに記載のユーザー状態分析方法において、
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 5.
The answer analysis step is a first correlation showing the correlation between the user's answer to the accepted question about the user's facial condition and the emotional or fatigue state appearing on the user's face. A user condition analysis method comprising the step of determining the analysis result of one or both of the emotional and fatigue states appearing on the user's face using information.
請求項2に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 2,
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The answer analysis step includes a step of analyzing the answer to determine a fatigue sign score, which is an index of the emotion or fatigue state appearing on the user's face.
The user state information generation step is
A step of acquiring information on the user's heartbeat from the analysis result of the face image, and
A step of determining a heart rate-based fatigue score, which is an index of a heart rate-based fatigue state based on the user's heart rate information.
A step of determining an overall score, which is an index of the user's emotional or fatigue state, based on the fatigue sign score and the fatigue degree score based on the heartbeat.
Including a step of generating the user state information, including the overall score,
The solution determination step is a user state analysis method including a step of determining a solution to be provided to the user based on the total score.
請求項7に記載のユーザー状態分析方法において、
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 7,
The step to determine the overall score is
A step of acquiring information on the autonomic nervous balance of the user by using the information on the heartbeat of the user and the second correlation information showing the correlation between the information on the heartbeat and the autonomic nervous balance of the user.
A user state analysis method comprising: a step of determining the overall score based on information including information about the autonomic nerve balance.
請求項2に記載のユーザー状態分析方法において、
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 2,
The solution determination step is
A first state in which the user should provide a passive solution that is a passive stimulus to the user's sense of touch or hearing based on the emotional or fatigue state appearing on the user's face contained in the user state information. A step to determine if the user is in a second state to provide an active solution that encourages the user to perform a given action.
A user state analysis method comprising: a step of determining a solution according to the user state information from the plurality of solutions based on the result of the determination.
請求項9に記載のユーザー状態分析方法において、
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 9,
The active solution comprises a combination of periodic vibrations that last for a predetermined time, voice to improve the user condition, and information that prompts the user to breathe or meditate in a predetermined manner.
When the user is in the second state, the active solution comprising a combination of the vibration, the voice, and information prompting the user to breathe or meditate in a predetermined manner in the solution determination step. , A user condition analysis method, characterized in that it is determined as a solution to be provided to the user.
請求項1~10のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 10.
The user condition analysis method, wherein the question about the facial condition of the user includes a question about the degree of opening of the eyes as compared with the normal condition of the user.
請求項1~11のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 11.
The user condition analysis method, wherein the question about the condition of the face of the user includes a question about the darkness of the bear around the eyes as compared with the normal condition of the user.
請求項1~12のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 12,
The user condition analysis method, wherein the question about the condition of the user's face includes a question about the condition of acne or pimples as compared to the normal condition of the user.
請求項1~13のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 13.
The user condition analysis method, wherein the question about the facial condition of the user includes a question about how the corner of the mouth rises or falls as compared with the normal condition of the user.
請求項1~14のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to any one of claims 1 to 14,
The user condition analysis method, wherein the question about the condition of the face of the user includes a question about the condition of moisturizing the lips as compared with the normal condition of the user.
請求項3に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 3,
The step of capturing an image of the user's face is executed before or after the input reception step.
The user state analysis method is characterized in that the image analysis step is a step of analyzing an image of the user's face captured before or after the input reception step.
請求項3に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 3,
The step of capturing an image of the user's face is executed during the execution of the input reception step.
The user state analysis method is characterized in that the image analysis step is a step of analyzing an image of the user's face captured during the execution of the input reception step.
請求項3に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことを特徴とするユーザー状態分析方法。
In the user condition analysis method according to claim 3,
The step of capturing an image of the user's face is executed before or during the input reception step.
The image analysis step is a user state analysis method, characterized in that it is executed during the execution of the input reception step.
ユーザーの顔の画像を撮像する撮像部と、
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。
An image pickup unit that captures an image of the user's face,
A display unit that displays information and
An image pickup control unit that causes the image pickup unit to capture an image of the user's face,
A facial state in which an image of the user's face captured by the imaging unit is displayed on the display unit and has a correlation with an emotional or fatigue state displayed on the user's face displayed on the display unit. A display control unit that displays a question about
An image of the user's face displayed on the display unit, an input unit arranged at a position where the user can operate while looking at the question, and an input unit.
An input receiving unit that accepts an input of an answer by the user to the question via the input unit with the image of the face displayed on the display unit.
An answer analysis unit that analyzes the answers of the user to the question received by the input reception unit, and
A user state including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit. Analytical system.
ユーザーの顔を映す鏡部と、
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。
A mirror that reflects the user's face,
A display unit that is arranged at a position where the user can be seen at the same time as the user's face reflected in the mirror unit and displays information.
A display control unit that displays a question about the facial condition on the display unit, which has a correlation with the emotion or fatigue state appearing on the user's face reflected in the mirror unit.
An input unit arranged at a position where the user can operate while looking at the user's face reflected in the mirror unit and the question displayed on the display unit.
An input reception unit that accepts input of an answer by the user to a question about the condition of the user's face through the input unit while showing an image of the user's face reflected in the mirror unit.
An answer analysis unit that analyzes the user's answer to the question about the user's facial condition received by the input reception unit, and the answer analysis unit.
A user state including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit. Analytical system.
JP2020200828A 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM Active JP7507674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020200828A JP7507674B2 (en) 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020200828A JP7507674B2 (en) 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM

Publications (2)

Publication Number Publication Date
JP2022088796A true JP2022088796A (en) 2022-06-15
JP7507674B2 JP7507674B2 (en) 2024-06-28

Family

ID=81987862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020200828A Active JP7507674B2 (en) 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM

Country Status (1)

Country Link
JP (1) JP7507674B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065812A (en) * 2003-08-21 2005-03-17 Nec Fielding Ltd Medical checkup system, method and program
JP2017146733A (en) * 2016-02-16 2017-08-24 株式会社リコー Extraction support system, extraction support server, extraction support program, and extraction support method
JP2019087276A (en) * 2014-01-17 2019-06-06 任天堂株式会社 Information processing system and information processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065812A (en) * 2003-08-21 2005-03-17 Nec Fielding Ltd Medical checkup system, method and program
JP2019087276A (en) * 2014-01-17 2019-06-06 任天堂株式会社 Information processing system and information processor
JP2017146733A (en) * 2016-02-16 2017-08-24 株式会社リコー Extraction support system, extraction support server, extraction support program, and extraction support method

Also Published As

Publication number Publication date
JP7507674B2 (en) 2024-06-28

Similar Documents

Publication Publication Date Title
US11071496B2 (en) Cognitive state alteration system integrating multiple feedback technologies
US20210248656A1 (en) Method and system for an interface for personalization or recommendation of products
JP2020168415A (en) Detector
WO2016092103A1 (en) Device, system and method for assessing information needs of a person
JP7701368B2 (en) Emotion Determination Device, Emotion Determination Method, and Emotion Determination Program
WO2022011448A1 (en) Method and system for an interface for personalization or recommendation of products
JP7589438B2 (en) Information processing device, information processing system, information processing method, and information processing program
US20230120262A1 (en) Method for Improving the Success of Immediate Wellbeing Interventions to Achieve a Desired Emotional State
CN113687744B (en) Man-machine interaction device for emotion adjustment
CN116419778A (en) Training system, training device and training with interactive auxiliary features
Fortin et al. Laughter and tickles: Toward novel approaches for emotion and behavior elicitation
CN113952580A (en) Method, device, equipment and storage medium for training of memorial meditation
JP7507674B2 (en) USER STATE ANALYSIS METHOD AND SYSTEM
WO2022118955A1 (en) Solution providing system
WO2023090103A1 (en) Information processing device and information processing method
Janssen Connecting people through physiosocial technology
JP6963669B1 (en) Solution providing system and mobile terminal
JP7069390B1 (en) Mobile terminal
JP7061714B1 (en) Solution provision system and mobile terminal
KR102173224B1 (en) Method of customized cognitive therapy
Kim et al. Mediating individual affective experience through the emotional photo frame
Chandrasiri et al. Mellow: Stress Management System For University Students In Sri Lanka
JP7069389B1 (en) Solution provision system and mobile terminal
JP7095169B1 (en) Condition improvement device
US20230397867A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231106

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240618