JP2022088796A - User condition analysis method and user condition analysis system - Google Patents
User condition analysis method and user condition analysis system Download PDFInfo
- Publication number
- JP2022088796A JP2022088796A JP2020200828A JP2020200828A JP2022088796A JP 2022088796 A JP2022088796 A JP 2022088796A JP 2020200828 A JP2020200828 A JP 2020200828A JP 2020200828 A JP2020200828 A JP 2020200828A JP 2022088796 A JP2022088796 A JP 2022088796A
- Authority
- JP
- Japan
- Prior art keywords
- user
- face
- state
- image
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
- Image Analysis (AREA)
Abstract
【課題】ユーザーの感情又は疲労状態をユーザー自身に自覚させつつユーザーの感情又は疲労状態を精度よく分析できるユーザー状態分析方法及びユーザー状態分析システムを提供する。【解決手段】 ユーザーの顔の映像をユーザーに見せると共に、顔の状態についての質問を表示するステップと、質問に対する回答を顔の映像をユーザーに見せている状態で受け付けるステップと、回答を分析するステップと、回答の分析結果に基づいてユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するステップと、を備える。【選択図】図1A user state analysis method and a user state analysis system capable of accurately analyzing a user's emotional state or fatigue state while making the user aware of the user's emotional state or fatigue state are provided. SOLUTION: A step of showing an image of the user's face to the user and displaying a question about the condition of the face, a step of receiving an answer to the question while the image of the face is being shown to the user, and analyzing the answer. and generating user state information indicating a user state including one or both of the user's facial expression of emotion and fatigue based on the analysis result of the answer. [Selection drawing] Fig. 1
Description
本発明は、ユーザーの感情又は疲労状態を分析する方法及びシステムに関する。 The present invention relates to methods and systems for analyzing a user's emotional or fatigue state.
従来、疲労度の判定処理システムが知られている(特許文献1参照)。 Conventionally, a fatigue degree determination processing system is known (see Patent Document 1).
特許文献1に記載の発明では、LF/HF値と自身の疲労状態に関するアンケート結果とに基づいて、ユーザーの疲労度を判定している。
In the invention described in
特許文献1に記載の発明を、ユーザーの感情又は疲労状態を分析する方法及びシステムに応用することが考えられる。
It is conceivable to apply the invention described in
ところで、客観的なデータに基づく感情又は疲労状態の分析結果が、ユーザー自身が考える感情又は疲労状態と食い違う場合がある。すなわち例えば、肌の画像などの客観的な情報を分析すると相当ストレスを感じている、あるいは疲れが溜まっているという分析結果が出るにも関わらず、本人にその自覚がない場合には、このような食い違いが起こりうる。 By the way, the analysis result of the emotion or fatigue state based on the objective data may be different from the emotion or fatigue state considered by the user himself / herself. That is, for example, when an analysis of objective information such as a skin image shows that the person feels considerable stress or is tired, but the person is not aware of it, this is the case. There can be discrepancies.
あるいはその反対に、客観的にはそれほどストレスを感じておらず、又は疲労が蓄積されていないにも関わらず、本人はストレス状態にあり、あるいは疲れていると思い込んでいる結果、上記のような食い違いが起こることもある。 Or conversely, as a result of thinking that the person is in a stressed state or is tired even though he / she is not so stressed objectively or has accumulated fatigue, as described above. Discrepancies can occur.
しかしながら特許文献1の発明においては、ユーザー自身への疲労状態に関するアンケート結果を用いてユーザーの疲労度を判定しているので、自身の疲労状態に関する自覚がない、又は必要以上に疲れていると思い込んでいるユーザーから、疲労状態に関する正しい回答を得られる確実性は低い。
However, in the invention of
また、そのような不確実な情報に基づく分析結果は高い精度が期待できない。 Moreover, high accuracy cannot be expected for analysis results based on such uncertain information.
そこで本発明は、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できるユーザー状態分析方法及びユーザー状態分析システムを提供することを目的とする。 Therefore, an object of the present invention is to provide a user state analysis method and a user state analysis system that can accurately analyze a user's emotional or fatigue state while making the user aware of it.
本発明のユーザー状態分析方法は、
ユーザーの顔の映像を該ユーザーに見せると共に、該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示するステップを含み、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とする。
The user state analysis method of the present invention
Includes a step to show the user an image of the user's face and to display a question about the condition of the face that correlates with the emotional or fatigue condition appearing on the user's face.
An input reception step that accepts an answer by the user to a question about the state of the user's face while showing the image of the face to the user.
An answer analysis step that analyzes the user's answer to the question about the user's facial condition, and
It is characterized by comprising a user state information generation step of generating user state information indicating a user state including one or both of emotions and fatigue states appearing on the user's face based on the analysis result of the answer. do.
本発明によれば、ユーザーの顔の映像が該ユーザーに見せられると共に、表示されたユーザーの顔の状態についての質問が表示される。なお当該質問は、ユーザーの顔に現れている感情又は疲労状態と相関関係を有する顔の状態についての質問である。 According to the present invention, the image of the user's face is shown to the user, and the displayed question about the state of the user's face is displayed. The question is a question about the facial condition that correlates with the emotion or fatigue condition appearing on the user's face.
そして、当該質問に対するユーザーによる回答の入力が顔の画像を表示させた状態で受け付けられて、当該回答が分析される。 Then, the input of the answer by the user to the question is accepted with the image of the face displayed, and the answer is analyzed.
また、回答の分析結果に基づいて、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 Further, based on the analysis result of the answer, the user state information indicating the user state which is one or both of the user's emotion and fatigue state is generated.
本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers a question about the condition of the face while looking at his / her own face, so that the answer is easy. In addition, since you will have the opportunity to calmly look back on your facial condition, you will be promoted to be aware of the facial condition that is closely related to your emotions or fatigue, and you may be able to answer your facial condition accurately. It will increase.
これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This makes it possible to accurately generate user state information indicating the user state, which is one or both of the user's emotions and fatigue state.
このように本発明によれば、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できる。 As described above, according to the present invention, the user's emotional or fatigued state can be analyzed accurately while being aware of the user himself / herself.
本発明のユーザー状態分析方法において、
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、を備える
ことが好ましい。
In the user state analysis method of the present invention
A solution determination step for determining a solution according to the user status information from a plurality of solutions that can be provided to the user in order to improve the user status of the user.
It is preferable to include a step of providing the determined solution to the user.
本発明によれば、ユーザー状態を改善するための、ユーザーに提供可能な複数のソリューションからユーザー状態情報に応じたソリューションがユーザー状態情報に応じて決定されて、決定されたソリューションがユーザーに提供される。 According to the present invention, a solution according to the user state information is determined according to the user state information from a plurality of solutions that can be provided to the user for improving the user state, and the determined solution is provided to the user. To.
これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成するとともに、それに応じた適切なソリューションを簡便に提供して、ユーザー状態を改善することができる。 As a result, it is possible to accurately generate user state information indicating one or both of the user's emotions and fatigue states, and to easily provide an appropriate solution according to the user state to improve the user state. ..
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The user state information generation step is preferably a step of generating the user state information based on the answer and the analysis result of the face image.
本発明によれば、顔の状態に対する質問への回答というユーザーの主観的な情報に加えて、顔の画像の分析結果という客観的な情報をも用いてユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 According to the present invention, one or both of the user's emotional and fatigue states are used with the objective information of the analysis result of the facial image in addition to the user's subjective information of answering the question about the facial condition. User state information indicating the user state is generated.
そのため、質問への回答からでは得られない情報も考慮してユーザー状態情報が生成されるので、ユーザー状態情報をより精度よく生成して、それに応じた適切なソリューションを提供できる。 Therefore, since the user state information is generated in consideration of the information that cannot be obtained from the answer to the question, the user state information can be generated more accurately and an appropriate solution can be provided accordingly.
本発明のユーザー状態分析方法において、
生成された前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user state analysis method of the present invention
It is preferable to include a step of displaying the generated user status information.
本発明によれば、生成されたユーザー状態情報が表示されるため、ユーザー自身に自らの感情又は疲労状態を認識させることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, since the generated user state information is displayed, the user can be made to recognize his / her own emotion or fatigue state, so that the user is effectively aware of his / her emotion or fatigue state. be able to.
本発明のユーザー状態分析方法において、
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user state analysis method of the present invention
A step to store the generated user status information in chronological order,
It is preferable to include a step of displaying the stored user status information in response to the user's operation.
本発明によれば、ユーザーの操作に応じて、過去のユーザー状態情報を表示させることができる。そのため、ユーザーの顔に現れている感情又は疲労状態の変化の有無、変化の度合いをユーザー自身が随時に知ることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, past user status information can be displayed according to the user's operation. Therefore, since the user can know at any time whether or not the emotion or fatigue state that appears on the user's face has changed and the degree of the change, it is possible to effectively make the user aware of the user's emotion or fatigue state. can.
本発明のユーザー状態分析方法において、
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことが好ましい。
In the user state analysis method of the present invention
The answer analysis step is a first correlation showing the correlation between the user's answer to the accepted question about the user's facial condition and the emotional or fatigue state appearing on the user's face. It is preferable to include the step of determining the analysis result of one or both of the emotions and fatigue states appearing on the user's face using the information.
本発明によれば、第1相関関係情報という具体的な情報を用いて、ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果が決定されるので、ユーザーの顔に現れている感情及び疲労状態の一方又は両方を精度よく分析できる。 According to the present invention, the analysis result of one or both of the emotional state and the fatigue state appearing on the user's face is determined by using the specific information called the first correlation information, so that the analysis result appears on the user's face. Can accurately analyze one or both of emotions and fatigue.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The answer analysis step includes a step of analyzing the answer to determine a fatigue sign score, which is an index of the emotion or fatigue state appearing on the user's face.
The user state information generation step is
A step of acquiring information on the user's heartbeat from the analysis result of the face image, and
A step of determining a heart rate-based fatigue score, which is an index of a heart rate-based fatigue state based on the user's heart rate information.
A step of determining an overall score, which is an index of the user's emotional or fatigue state, based on the fatigue sign score and the fatigue degree score based on the heartbeat.
Including a step of generating the user state information, including the overall score,
The solution determination step preferably includes a step of determining a solution to be provided to the user based on the overall score.
本発明によれば、ユーザーの顔に現れている感情又は疲労状態を指標化した疲れの兆候スコアと、心拍に基づく疲労度スコアという多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じた適切なソリューションを提供できる。 According to the present invention, the present invention is provided to the user based on a fatigue sign score that indexes the emotion or fatigue state appearing on the user's face and a total score derived from a multifaceted viewpoint of a fatigue degree score based on the heartbeat. Since the solution to be used is determined, it is possible to provide an appropriate solution according to the user's overall fatigue condition.
本発明のユーザー状態分析方法において、
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことが好ましい。
In the user state analysis method of the present invention
The step to determine the overall score is
A step of acquiring information on the autonomic nervous balance of the user by using the information on the heartbeat of the user and the second correlation information showing the correlation between the information on the heartbeat and the autonomic nervous balance of the user.
It is preferable to include a step of determining the total score based on the information including the information regarding the autonomic nerve balance.
本発明によれば、自律神経バランスに関する情報を加えた、より多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じたより適切なソリューションを提供できる。 According to the present invention, the solution to be provided to the user is determined based on the total score derived from a more multifaceted viewpoint, which includes information on the autonomic nervous balance. We can provide the right solution.
本発明のユーザー状態分析方法において、
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことが好ましい。
In the user state analysis method of the present invention
The solution determination step is
A first state in which the user should provide a passive solution that is a passive stimulus to the user's sense of touch or hearing based on the emotional or fatigue state appearing on the user's face contained in the user state information. A step to determine if the user is in a second state to provide an active solution that encourages the user to perform a given action.
It is preferable to include a step of determining a solution according to the user state information from the plurality of solutions based on the result of the determination.
所定の動作には、ユーザーの感情や疲労状態を改善する効果があるが、ユーザーの感情又は疲労状態が所定の動作を取らせるのに適切な状態でなければ、触覚又は聴覚に対する受動的な刺激などの受動的なソリューションを提供することが、ユーザーの感情や疲労状態の改善に効果的である。 A given action has the effect of improving the user's emotional or fatigued state, but if the user's emotional or fatigued state is not appropriate for the given action, a passive stimulus to the sense of touch or hearing. Providing passive solutions such as, is effective in improving user's emotions and fatigue.
本発明によれば、ユーザーの顔に現れている感情又は疲労状態に基づいて、ユーザーが、触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかが判定される。 According to the present invention, the user is in a first state or predetermined state to provide a passive solution that is a passive stimulus to the sense of touch or hearing based on the emotional or fatigue state appearing on the user's face. It is determined whether you are in a second state to provide an active solution that encourages action.
そして、当該判定の結果に基づいてソリューションが決定されるので、ユーザーの感情や疲労状態に応じてソリューションの種類を適切に変えて提供することができる。 Then, since the solution is determined based on the result of the determination, the type of the solution can be appropriately changed and provided according to the emotion and the fatigue state of the user.
本発明のユーザー状態分析方法において、
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことが好ましい。
In the user state analysis method of the present invention
The active solution comprises a combination of periodic vibrations that last for a predetermined time, voice to improve the user condition, and information that prompts the user to breathe or meditate in a predetermined manner.
When the user is in the second state, the active solution comprising a combination of the vibration, the voice, and information prompting the user to breathe or meditate in a predetermined manner in the solution determination step. , It is preferable to determine as a solution to be provided to the user.
所定の呼吸法及び瞑想には、感情を落ち着かせ、疲労を改善し、あるいは人を覚醒した状態に導く効果がある。 Predetermined breathing and meditation have the effect of calming emotions, relieving fatigue, or leading a person to an awake state.
本発明によれば、ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にある場合には、所定の方法での呼吸又は瞑想を促す情報を含むソリューションが決定されるので、効果的にユーザー状態を改善することができる。 According to the present invention, when the user is in a second state in which an active solution for encouraging a predetermined action should be provided, a solution including information for encouraging breathing or meditation in a predetermined manner is determined, and thus the effect. It is possible to improve the user condition.
本発明者らの検討により、通常の状態に比した、「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」、「唇の潤いの状態」を含む、人の顔の状態に関する質問への回答と、当該人の顔に現れている感情又は疲労状態との間には、有意な相関関係が存在していることが判明した。 According to the study by the present inventors, "the degree of opening of the eyes", "the thickness of the bear around the eyes", "the state of acne or pimples", "the degree of raising or lowering of the corners of the mouth" compared to the normal state. There is a significant correlation between answers to questions about a person's facial condition, including "lip moisturizing condition," and the emotional or fatigue condition that appears on the person's face. It has been found.
なお、感情とは例えば、幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性である。 The emotions are, for example, four factors of happiness, burnout state, life satisfaction, negativeness or positiveness by PANAS scale, degree of resilience, subjective well-being scale, and stress tolerance.
また、疲労状態とは例えば、不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の状態である。 The fatigue state is, for example, a state of insomnia, a degree of physical fatigue, a degree of mental fatigue, and a state of fatigue components in the body.
より具体的には、本実施形態における身体疲労度、精神疲労度としては、例えばChalder疲労質問票の総スコアに相当する値が含まれるほか、文部科学省による生活者ニーズ対応研究「疲労及び疲労感の分子・神経メカニズムとその防御に関する研究」で作成された「自己診断疲労度チェックリスト」による、身体的評価、精神的評価、及び総合評価に相当する値が含まれる。 More specifically, the degree of physical fatigue and the degree of mental fatigue in this embodiment include, for example, values corresponding to the total score of the Childer Fatigue Questionnaire, and the consumer needs study "Fatigue and Fatigue" by the Ministry of Education, Culture, Sports, Science and Technology. It includes values corresponding to physical evaluation, mental evaluation, and comprehensive evaluation by the "self-diagnosis fatigue degree checklist" prepared in "Study on molecular and neural mechanisms of sensation and its defense".
不眠症の状態とは、例えばアテネ不眠尺度が含まれる。 The insomnia condition includes, for example, the Athens Insomnia Scale.
体内の疲労成分としては、例えば酸化生成物である8OHdG(8-hydroxy-2’-deoxyguanosine)及びイソプラスタン、酸化ストレス度を表すdROMs(Diacron Reactive Oxygen Metabolites)が含まれる。 Examples of the fatigue component in the body include 8OHdG (8-hydroxy-2'-deoxyguanocine) which is an oxidation product, isoplastane, and dROMs (Diacron Reactive Oxygen Metalbolites) which indicate the degree of oxidative stress.
幸せの4つの因子とは、前野隆司氏が作成した幸せの4つの因子のアンケートによる第1~第4の各因子の値である。具体的には、第1因子は、「やってみよう!」因子(自己実現と成長の因子)であり、本実施形態における自己実現又は成長に対する満足感の度合に該当する。第2因子は、「ありがとう!」因子(つながりと感謝の因子)であり、本実施形態における他者との良好な関係性又は他者への感謝の感情の度合もしくは前向きさに該当する。第3因子は、「なんとかなる!」因子(まえむきと楽観の因子)であり、本実施形態における楽観性又は自己肯定感の度合である。第4因子は、「あなたらしく!」因子(独立とマイペースの因子)である。 The four factors of happiness are the values of the first to fourth factors according to the questionnaire of the four factors of happiness prepared by Mr. Takashi Maeno. Specifically, the first factor is a "let's try!" Factor (self-actualization and growth factor), which corresponds to the degree of satisfaction with self-actualization or growth in the present embodiment. The second factor is a "thank you!" Factor (factor of connection and gratitude), which corresponds to a good relationship with another person or a degree or positive feeling of gratitude to another person in this embodiment. The third factor is the "somehow!" Factor (factor of premature and optimism), and is the degree of optimism or self-affirmation in the present embodiment. The fourth factor is the "like you!" Factor (independence and self-paced factor).
バーンアウトの状態とは、例えばMBI(Maslach Burnout Inventory)による、情緒的消耗感、脱人格化、個人的達成感の低下の尺度に相当する値が含まれる。 The burnout state includes a value corresponding to a measure of emotional exhaustion, depersonalization, and a decrease in personal achievement due to, for example, MBI (Maslach Burnout Industry).
人生満足度とは、人生に対する満足感の度合であり、例えばEd Dienerによる人生満足尺度(SWLS:Satisfaction With Life Scale)に相当する値が含まれる。 The life satisfaction is a degree of satisfaction with life, and includes, for example, a value corresponding to a life satisfaction scale (SWLS: Strategy With Life Scale) by Ed Diener.
PANAS尺度によるネガティブさ又はポジティブさとは、Watson、Clark、TellegenらによるPANAS(Positive and Negative Affect Schedule)尺度に含まれる評定の尺度であり、例えばポジティブ情動8項目、ネガティブ情動8項目からなる簡易気分評定の尺度である。 Negative or positive by the PANAS scale is a rating scale included in the PANAS (Positive and Negative Affective) scale by Watson, Clark, Tellegen et al., For example, a simple mood rating consisting of 8 items of positive emotions and 8 items of negative emotions. Is a measure of.
レジリエンスの度合とは、心理的な傷つきから立ち直る回復力であり、例えば平野真理氏が「レジリエンスの資質的要因・獲得的要因の分類の試み」にて提唱した二次元レジリエンス要因尺度が含まれる。 The degree of resilience is the resilience to recover from psychological damage, and includes, for example, the two-dimensional resilience factor scale proposed by Mari Hirano in "Attempt to classify qualitative factors and acquisition factors of resilience".
主観的幸福感尺度とは、心理的健康の尺度の一種であり、例えばWHOが作成した主観的健康感尺度(SUBI)の「人生に対する前向きの気持ち」、「達成感」、「自信」、「至福感」、「人生に対する失望感」の5領域(各3項目)の尺度が含まれる。 The subjective well-being scale is a kind of psychological health scale. For example, the subjective health scale (SUBI) created by WHO has "positive feelings for life", "feeling of accomplishment", "confidence", and "self-confidence". It includes scales for 5 areas (3 items each) of "feeling of bliss" and "feeling of disappointment with life".
ストレス耐性とは、心理社会的ストレスに対するストレス耐性であり、例えば桂戴作氏らが作成した「ストレス耐性チェックリスト」によるストレス耐性度が含まれる。 The stress tolerance is stress tolerance to psychosocial stress, and includes, for example, the degree of stress tolerance according to the "stress tolerance checklist" created by Taisaku Katsura et al.
当該知見を応用した、本実施形態におけるユーザー状態分析方法の構成、作用、効果は以下の通りである。 The configuration, action, and effect of the user state analysis method in the present embodiment to which the knowledge is applied are as follows.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the degree of eye opening as compared with the normal condition of the user.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the darkness of the bear around the eyes as compared to the normal condition of the user.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the condition of acne or pimples as compared to the normal condition of the user.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about how the corner of the mouth is raised or lowered as compared with the normal condition of the user.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことが好ましい。
In the user state analysis method of the present invention
The question about the condition of the user's face preferably includes a question about the condition of moisturizing the lips as compared to the normal condition of the user.
本発明によれば、ユーザーの感情又は疲労状態に密接な関連を有し、かつ自身の顔の画像を見て自ら簡単に判断することのできる、ユーザーの通常の状態に比した「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」及び/又は「唇の潤いの状態」という具体的な顔の状態の情報が取得されるので、ユーザーの感情又は疲労状態を精度よくかつ簡便に分析できる。 According to the present invention, "open eyes" compared to the normal state of the user, which is closely related to the emotion or fatigue state of the user and can be easily judged by looking at the image of the user's face. Specific facial condition information such as "condition", "thickness of bear around eyes", "acne or pimple condition", "up or down condition of mouth corner" and / or "moisturizing condition of lips" Is acquired, so that the user's emotions or fatigue state can be analyzed accurately and easily.
また、ユーザーは自身の感情又は疲労状態を知るためには、自分の顔のどの部分の状態を見ればよいかが分かる。そのため、日常生活においてもこれらの顔の部分を気にかけるようになるので、自身の顔に現れている感情又は疲労状態の自覚がより効果的に促される。 In addition, the user knows which part of his / her face should be looked at in order to know his / her emotional or fatigued state. Therefore, even in daily life, these facial parts become more concerned, and the emotions appearing on one's face or the awareness of the fatigued state are more effectively promoted.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face is executed before or after the input reception step.
The image analysis step is preferably a step of analyzing an image of the user's face captured before or after the input reception step.
顔の状態についての質問に対する回答の入力操作をユーザーが行っている間に、ユーザーの顔の画像を撮像すると、ユーザーは顔の画像の撮像に集中しておらず手ぶれなどが生じるので、例えば手ぶれを補正する機能を有する装置で撮像を行わないと、撮像位置などがずれてしまい、結果として画像の分析の精度を保つことが難しくなる可能性がある。 If the user captures an image of the user's face while the user is inputting an answer to a question about the condition of the face, the user is not focused on capturing the image of the face and camera shake occurs. If the image is not taken by a device having a function of correcting the image, the image pickup position or the like may shift, and as a result, it may be difficult to maintain the accuracy of image analysis.
そのため、ユーザーが顔の画像の撮像に集中できる状態でユーザーの顔の画像を撮像できればなおよい。 Therefore, it is even better if the user's face image can be captured in a state where the user can concentrate on capturing the face image.
本発明によれば、ユーザーの顔の画像を撮像するステップは、入力受付ステップの前又は後に実行される。そのため、ユーザーに顔の画像の撮像に集中させた状態で顔画像を取得できるので、撮像位置などがずれる可能性を軽減でき、画像分析の精度を保つことができる。 According to the present invention, the step of capturing an image of the user's face is executed before or after the input reception step. Therefore, since the face image can be acquired while the user is focused on capturing the face image, the possibility that the imaging position or the like is displaced can be reduced, and the accuracy of the image analysis can be maintained.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user state analysis method of the present invention
The step of capturing an image of the user's face is executed during the execution of the input reception step.
The image analysis step is preferably a step of analyzing the image of the user's face captured during the execution of the input reception step.
あるいは、本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことが好ましい。
Alternatively, in the user state analysis method of the present invention.
The step of capturing an image of the user's face is executed before or during the input reception step.
The image analysis step is preferably executed during the execution of the input acceptance step.
顔の状態についての質問に対する回答の入力と、分析に必要な顔の画像の撮像には、一定の時間を要することが考えられるが、そのような操作に要する時間が長いと、ユーザーは煩わしく感じて、ユーザーの感情又は疲労状態に及ぼしてしまうことが考えられる。あるいはその煩わしさのために操作をやめてしまい、結果としてユーザーの感情又は疲労状態をユーザー自身に自覚させることができないおそれがある。 It may take a certain amount of time to input the answer to the question about the facial condition and to capture the facial image required for analysis, but the long time required for such an operation is annoying to the user. Therefore, it may affect the user's emotions or fatigue. Alternatively, the operation may be stopped due to the annoyance, and as a result, the user may not be aware of the user's emotional or fatigued state.
本発明によれば、ユーザーの顔の画像を撮像するステップ又は画像分析ステップは、入力受付ステップの実行中に実行されるため、操作等に要する時間がその分短縮されるので効率的であり、ユーザーに煩わしさを感じさせてしまう可能性を低減できる。 According to the present invention, since the step of capturing an image of the user's face or the image analysis step is executed during the execution of the input reception step, the time required for the operation or the like is shortened by that amount, which is efficient. It is possible to reduce the possibility that the user will feel annoyed.
本発明のユーザー状態分析システムは、
前記ユーザーの顔の画像を撮像する撮像部と、
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
The user state analysis system of the present invention is
An image pickup unit that captures an image of the user's face,
A display unit that displays information and
An image pickup control unit that causes the image pickup unit to capture an image of the user's face,
A facial state in which an image of the user's face captured by the imaging unit is displayed on the display unit and has a correlation with an emotional or fatigue state displayed on the user's face displayed on the display unit. A display control unit that displays a question about
An image of the user's face displayed on the display unit, an input unit arranged at a position where the user can operate while looking at the question, and an input unit.
An input receiving unit that accepts an input of an answer by the user to the question via the input unit with the image of the face displayed on the display unit.
An answer analysis unit that analyzes the answers of the user to the question received by the input reception unit, and
It is characterized by including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit.
あるいは本発明のユーザー状態分析システムは、
前記ユーザーの顔を映す鏡部と、
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
Alternatively, the user state analysis system of the present invention is
The mirror part that reflects the user's face and
A display unit that is arranged at a position where the user can be seen at the same time as the user's face reflected in the mirror unit and displays information.
A display control unit that displays a question about the facial condition on the display unit, which has a correlation with the emotion or fatigue state appearing on the user's face reflected in the mirror unit.
An input unit arranged at a position where the user can operate while looking at the user's face reflected in the mirror unit and the question displayed on the display unit.
An input reception unit that accepts input of an answer by the user to a question about the condition of the user's face through the input unit while showing an image of the user's face reflected in the mirror unit.
An answer analysis unit that analyzes the user's answer to the question about the user's facial condition received by the input reception unit, and the answer analysis unit.
It is characterized by including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit.
本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers a question about the condition of the face while looking at his / her own face, so that the answer is easy. In addition, since you will have the opportunity to calmly look back on your facial condition, you will be promoted to be aware of the facial condition that is closely related to your emotions or fatigue, and you may be able to answer your facial condition accurately. It will increase.
これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This makes it possible to accurately generate user state information indicating the user state, which is one or both of the user's emotions and fatigue state.
<ユーザー状態分析システムの構成>
まず図1を用いて、本実施形態のユーザー状態分析方法に用いられる、ユーザー状態分析システムの構成について説明する。なお同一の構成については、同一の符号を付して説明を省略することがある。
<Configuration of user status analysis system>
First, with reference to FIG. 1, the configuration of the user state analysis system used in the user state analysis method of the present embodiment will be described. The same components may be designated by the same reference numerals and description thereof may be omitted.
本実施形態のユーザー状態分析システムは、例えば携帯端末10と、サーバー30とを含んで構成される、コンピューターネットワークシステムである。
The user state analysis system of the present embodiment is a computer network system including, for example, a
携帯端末10とサーバー30との間は、携帯電話網などの通信ネットワーク90により相互に通信可能に接続される。なお携帯端末10とサーバー30は、いずれも複数であってよい。
The
携帯端末10は、例えば撮像部110と、表示部130と、携帯端末制御部150と、振動発生部170と、音声再生部190と、入力部210と、を含んで構成される。本実施形態において携帯端末10はスマートフォンであるが、例えばタブレット端末等の汎用的な端末であってもよく、ユーザーが携帯可能な専用端末であってよい。
The
撮像部110は、ユーザーの顔の画像を撮像するカメラである。本実施形態においては、携帯端末10はスマートフォンであるので、インカメラ及びアウトカメラの両方が撮像部110に該当する。
The
表示部130は、ユーザーに向けて情報を表示するディスプレイである。
The
携帯端末制御部150は、CPU(Central Processing Unit)等の演算処理装置、メモリ、及びI/O(Input/Output)デバイスなどにより構成されている。携帯端末制御部150は、所定のプログラムを読み込んで実行することにより例えば撮像制御部151、表示制御部153、入力受付部155として機能し、あるいはさらに、画像分析部157、ソリューション提供部159、モード指定受付部161として機能する。
The mobile
撮像制御部151は、撮像部110に、ユーザーUの顔又は手指の肌の画像を撮像させる。
The image
表示制御部153は、撮像部110により撮像されたユーザーUの顔の画像を表示部130に表示すると共に、表示部130に表示されたユーザーUの顔の状態についての質問を表示部130に表示する。なお当該質問は、表示部130に表示されたユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問である。
The
入力受付部155は、入力部210を介してユーザーUの顔の状態についての質問に対するユーザーによる回答の入力を顔の画像を表示部130に表示させた状態で受け付ける。
The
画像分析部157は、撮像部110により撮像されたユーザーUの顔又は手指の肌の画像を分析する。
The
ソリューション提供部159は、ソリューション決定部335により決定されたソリューションをユーザーUに提供する。
The
モード指定受付部161は、ユーザーUによる、ユーザー状態分析システムの動作モードの指定を受け付ける。
The mode
振動発生部170は、ソリューションに含まれる、所定の時間継続する周期的な振動であって、振動の開始時から終了時にかけて段階的に周期が変動する振動をユーザーUに提供する例えばバイブレーターである。
The
音声再生部190は、ソリューションに含まれる、ユーザー状態を改善するための人の声、自然音又は音楽を含む、所定の時間継続する音声をユーザーUに提供する例えばスピーカーである。
The
入力部210は、ユーザーによる入力を受け付ける例えばタッチパネル、キーボード又はマウスその他のポインティングデバイスである。
The
なお、携帯端末10がスマートフォン、タブレットであれば入力部210は、通常タッチパネルであるので、表示部130に表示される顔の画像、顔の状態のついての質問を見ながら、ユーザーが当該質問に対する回答を入力できるが、その他の機器により構成される場合においても、表示部130と入力部210とは、顔の映像と顔の状態のついての質問を見ながら回答を入力できる位置関係に配置される。
If the
サーバー30は、サーバー記憶部310と、サーバー制御部330と、を含んで構成される、例えばコンピューターである。サーバー30は、複数であっても単数であってもよい。
The
サーバー記憶部310は、例えばROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。サーバー記憶部310が、本実施形態における記憶部として機能する。
The
サーバー記憶部310は、例えばユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションの情報を記憶しているほか、ユーザー状態分析システムの処理結果、ユーザー状態分析システムの処理に必要な情報を記憶している。
The
サーバー制御部330は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。サーバー制御部330は、所定のプログラムを読み込んで実行することにより例えば回答分析部331、ユーザー状態情報生成部333として機能し、あるいはさらに、ソリューション決定部335、心拍取得部337、状態判定部339として機能する。
The
回答分析部331は、入力受付部155により受け付けられた、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する。
The
ユーザー状態情報生成部333は、回答分析部331及び画像分析部157による分析結果に基づいて、ユーザーUのユーザー状態を示すユーザー状態情報を生成する。
The user state
ソリューション決定部335は、複数のソリューションからユーザー状態情報に応じたソリューションを決定する。
The
心拍取得部337は、画像分析部157によるユーザーUの顔又は手指の肌の画像の分析結果からユーザーUの心拍に関する情報である、例えばユーザーUの心拍数を取得する。
The heart
状態判定部339は、ユーザー状態情報に基づいてユーザーUが、ユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する。
The
<処理の概要>
次に、図2~図11を参照して本実施形態のユーザー状態分析方法による一連の工程について説明する。
<Outline of processing>
Next, a series of steps by the user state analysis method of the present embodiment will be described with reference to FIGS. 2 to 11.
<モード指定受付ステップ>
一連の処理を始めると、まずモード指定受付部161は、ユーザーUによる、動作モードの指定を受け付けるモード指定受付ステップを実行する(図2/S10)。
<Mode designation reception step>
When a series of processes are started, the mode
モード指定受付部161は例えば、ユーザーUに動作モードの入力を促す画面を、表示部130に表示する。
The mode
図3は、ユーザーUに動作モードの入力を促す画面の一例である。図3では、顔モードに該当する「Midnight Blue」を指定するためのアイコンM1と、第1指モードに該当する「Red」を指定するためのアイコンM21、第2指モードに該当する「Blue」を指定するためのアイコンM22、第3指モードに該当する「Green」を指定するためのアイコンM23が表示されている。 FIG. 3 is an example of a screen prompting the user U to input an operation mode. In FIG. 3, the icon M1 for designating "Midnight Blue" corresponding to the face mode, the icon M21 for designating "Red" corresponding to the first finger mode, and the "Blue" corresponding to the second finger mode. The icon M22 for designating is displayed, and the icon M23 for designating "Green" corresponding to the third finger mode is displayed.
いずれかのアイコンをユーザーUがタップすると、モード指定受付部161は対応するモードの指定を受け付けて本ステップを終了する。
When the user U taps any of the icons, the mode
なお本実施形態においては、第1指モードはユーザーUを覚醒した状態に誘導するためのモードであり、第2指モードはユーザーUをリラックスした状態に誘導するためのモードであり、第3指モードはユーザーUを冷静な状態に誘導するためのモードである。 In the present embodiment, the first finger mode is a mode for guiding the user U to an awake state, and the second finger mode is a mode for guiding the user U to a relaxed state, and the third finger is used. The mode is a mode for guiding the user U to a calm state.
また同画面には「History」のアイコンH1も表示されている。ユーザーUが当該アイコンをタップする操作をすると、当該操作に応じて表示制御部153はサーバー記憶部310に記憶されているユーザー状態情報を取得して、表示部130に表示させる。
The "History" icon H1 is also displayed on the same screen. When the user U taps the icon, the
<第1撮像ステップ>
動作モードとして顔モードが指定された場合には(図2/S20:顔モード)、撮像制御部151は、撮像部110に、ユーザーUの顔の画像を撮像させる第1撮像ステップを実行する。
<First imaging step>
When the face mode is designated as the operation mode (FIG. 2 / S20: face mode), the
このとき撮像制御部151は例えば、撮像部110であるインカメラを介して、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像を開始する。あるいはこのとき撮像制御部151は、例えば顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の静止画を1枚撮像してもよい。
At this time, the image
一方、動作モードとして指モードに該当するモードが指定された場合には(図2/S20:指モード)、図2/S30~S70の処理は実行されず、図2/S90以降の処理が実行される。 On the other hand, when the mode corresponding to the finger mode is specified as the operation mode (FIG. 2 / S20: finger mode), the processes of FIGS. 2 / S30 to S70 are not executed, and the processes of FIGS. 2 / S90 and subsequent steps are executed. Will be done.
<顔画像・質問表示ステップ>
次に表示制御部153は、ユーザーUの顔の映像を見せると共に、ユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示する顔画像・質問表示ステップを実行する(図2/S50)。
<Face image / question display step>
Next, the
図4は、顔画像・質問表示ステップにおいて表示される画面の一例である。表示制御部153は例えば図4に示すように、撮像されたユーザーUの顔の画像Fと、顔の状態についての1問目の質問である「目の開き具合はいつもと比べて」の表示Q1と、回答ボタンA1を表示部130に表示する。
FIG. 4 is an example of a screen displayed in the face image / question display step. As shown in FIG. 4, for example, the
表示制御部153は例えば図4に示すように、回答ボタンA1中の、「開いている」から「閉じている」までの5段階評価の何れかをタップして顔の状態を回答するように促す画面を表示する。
As shown in FIG. 4, for example, the
<入力受付ステップ>
入力受付部155は例えば、表示制御部153が上記のように1問目の質問を表示したときに、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を、顔の映像をユーザーUに見せている状態で受け付ける入力受付ステップを開始する(図2/S70)。
<Input acceptance step>
For example, when the
回答ボタンA1の5段階評価のいずれかの部位をユーザーUがタップすると、入力受付部155は該当する評価値を質問への回答の入力として受け付ける。
When the user U taps any part of the five-level evaluation of the answer button A1, the
なお、図2/S50及びS70の処理は、最後の質問への回答が入力される(図2/S80:Yes)まで繰り返し実行される。 The processes of FIGS. 2 / S50 and S70 are repeatedly executed until the answer to the last question is input (FIG. 2 / S80: Yes).
すなわち例えば、表示制御部153はユーザーの顔の状態についての2~5問目の質問として、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問、ニキビ又は吹き出物の状態に関する質問、口角の上がり具合又は下がり具合に関する質問、唇の潤いの状態に関する質問を順に表示して、入力受付部155はこれらの各質問へのユーザーUによる回答の入力を受け付ける。
That is, for example, the
そして入力受付部155は例えば、このようにして受け付けた、各質問へのユーザーUによる回答の情報をサーバー30に送信して入力受付ステップを終了する。
Then, for example, the
<第2撮像ステップ>
その後、撮像制御部151は、画像分析ステップで分析を行うためのユーザーUの顔又は手指の肌の画像を撮像する第2撮像ステップを実行する。
<Second imaging step>
After that, the image
なおこのとき撮像制御部151は、顔モードが指定されている場合(図5/S91:顔モード)には、撮像部110であるインカメラを介して、ユーザーUの顔の画像を撮像して(図5/S93)第2撮像ステップを終了する。
At this time, when the face mode is specified (FIG. 5 / S91: face mode), the image
一方、指モードが指定されている場合(図5/S91:指モード)に撮像制御部151は、撮像部110であるアウトカメラを介して、ユーザーUの手指の肌の画像を撮像して(図5/S95)第2撮像ステップを終了する。
On the other hand, when the finger mode is specified (FIG. 5 / S91: finger mode), the image
なおこのとき表示制御部153は例えば、ユーザーUの顔又は手指の位置を正しい位置に誘導するための枠を表示部130に表示して、撮像制御部151はユーザーUの顔又は手指が正しい位置にあることを認識したときに、撮像部110を介してユーザーUの顔又は手指の肌の動画を所定の時間(例えば30秒など。)撮像する。
At this time, for example, the
また、撮像制御部151は例えば、当該動画の撮像中にユーザーUの顔又は手指が正しい位置からずれた場合には動画の撮像を停止し、表示制御部153はユーザーUの顔又は手指の位置を正しい位置に戻すように促すメッセージを表示部130に表示する。そして撮像制御部151は、ユーザーUの顔又は手指が正しい位置に戻ったことを認識したときに、ユーザーUの顔又は手指の肌の動画の撮像を再開する。あるいは撮像制御部151が撮像する画像は、連続的に撮像した複数の静止画であってもよい。
Further, for example, if the face or finger of the user U deviates from the correct position during the imaging of the moving image, the
<画像分析ステップ>
その後、画像分析部157は、撮像されたユーザーUの顔又は手指の肌の画像を分析する画像分析ステップを実行する(図2/S110)。
<Image analysis step>
After that, the
すなわち画像分析部157は、顔モードが指定されている場合(図6/S111:顔モード)には、第2撮像ステップで撮像されたユーザーUの顔の画像を分析し(図6/S113)、指モードが指定されている場合(図6/S111:指モード)には、第2撮像ステップで撮像されたユーザーUの手指の画像を分析する(図6/S115)。
That is, when the face mode is specified (FIG. 6 / S111: face mode), the
より具体的には、画像分析部157は例えば、肌の画像である動画又は連続的に撮像した静止画から、RGBの各色成分の輝度の変化の情報を取得する。
More specifically, the
そして画像分析部157は例えば、このようにして取得した、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報をサーバー30に送信して画像分析ステップを終了する。
Then, for example, the
<回答分析ステップ>
回答分析部331は例えば、携帯端末10から各質問へのユーザーUによる回答の情報及びRGBの各色成分の輝度の変化の情報を受信した際に、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する回答分析ステップを実行する。
<Answer analysis step>
When the
より具体的には回答分析部331は例えば、入力受付ステップで受け付けられたユーザーUの顔の状態についての質問に対するユーザーUによる回答について、当該回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定する。
More specifically, the
回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報としては、種々の情報が用いられてよい。本実施形態において回答分析部331は例えば下記の式を第1相関関係情報として用いて、ユーザーUの顔に出ている疲れの兆候を「元気」(=10)から「疲れた」(=0)までの範囲で疲れの兆候スコアとして指標化して、当該スコアを回答の分析結果として決定する。
Various information may be used as the first correlation information indicating the correlation between the answer and the emotion or fatigue state appearing on the face of the user U. In the present embodiment, the
F=p1+p2+p3+p4+p5
ただし、Fは顔に現れている感情又は疲労状態を指標化した値(疲れの兆候スコア)であって、その最大値は10、最小値は0である。すなわち例えばp1~p5を足し合わせた値が10を超える場合には10とし、0を下回る場合は0となる。
F = p1 + p2 + p3 + p4 + p5
However, F is a value (a sign score of fatigue) that is an index of the emotion or fatigue state appearing on the face, and the maximum value is 10 and the minimum value is 0. That is, for example, when the total value of p1 to p5 exceeds 10, it is set to 10, and when it is less than 0, it is set to 0.
p1は、ユーザーUの通常の状態に比した目の開き具合を、「開いている」(=5点)から「閉じている」(=1点)までの1点刻みの5段階で評価した値である。 For p1, the degree of eye opening compared to the normal state of the user U was evaluated on a 5-point scale from "open" (= 5 points) to "closed" (= 1 point). The value.
p2は、ユーザーUの通常の状態に比した目の周りのクマの濃さを、「薄くなっている」(=1点)から「濃くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 In p2, the darkness of the bear around the eyes compared to the normal state of the user U is 0. From "thinning" (= 1 point) to "thickening" (= -1 point). It is a value evaluated in 5 steps in 5 point increments.
p3は、ユーザーUの通常の状態に比したニキビ又は吹き出物の状態を、「良くなっている」(=1点)から「悪くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p3 shows the condition of acne or pimples compared to the normal condition of user U in 0.5 point increments from "improved" (= 1 point) to "worse" (= -1 point). It is a value evaluated in 5 stages of.
p4は、ユーザーUの通常の状態に比した口角の上がり具合又は下がり具合を、「上がっている」(=5点)から「下がっている」(=1点)までの1点刻みの5段階で評価した値である。 In p4, the degree of increase or decrease of the corner of the mouth compared to the normal state of the user U is 5 steps from "up" (= 5 points) to "down" (= 1 point) in 1-point increments. It is a value evaluated in.
p5は、ユーザーUの通常の状態に比した唇の潤いの状態を、「プルプルしている」(=1点)から「かさかさしている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p5 shows the moisturized state of the lips compared to the normal state of the user U in 0.5 point increments from "pulling" (= 1 point) to "bulky" (= -1 point). It is a value evaluated in 5 stages of.
<ユーザー状態情報生成ステップ>
その後、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の分析結果及び顔の画像の分析結果に基づいて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップが実行される(図2/S150)。
<User status information generation step>
Then, based on the analysis result of the answer by the user U to the question about the face condition of the user U and the analysis result of the facial image, the user state including one or both of the emotional state and the fatigue state appearing on the face of the user U. The user state information generation step for generating the user state information indicating the above is executed (FIG. 2 / S150).
より具体的には、ユーザー状態情報生成ステップにおいては、まず心拍取得部337が画像分析ステップにて送信された、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍数を取得する(図7/S151)。
More specifically, in the user state information generation step, first, the heart
さらに心拍取得部337は、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍の揺らぎに関する情報を取得する(図7/S153)。心拍の揺らぎは、ユーザーUの疲労状態と密接に関連しているためである。
Further, the
心拍の揺らぎに関する情報とは、例えばCVR-R又は、心拍の変動を周波数解析して得られる、心拍の変動の低周波成分であるLF(Low Frequency)の総パワーと高周波成分であるHF(High Frequency)の総パワーとの合計であるトータルパワー値である。 The information on the fluctuation of the heartbeat is, for example, CVR-R or the total power of LF (Low Frequency) which is a low frequency component of the fluctuation of the heartbeat and HF (High) which is a high frequency component obtained by frequency analysis of the fluctuation of the heartbeat. It is a total power value which is the sum of the total power of Frequency).
そしてユーザー状態情報生成部333は、ユーザーの心拍に関する情報である心拍数について、心拍に関する情報とユーザーUの自律神経バランスとの相関関係を示す第2相関関係情報、を用いて、ユーザーUの自律神経バランスに関する情報を取得する(図7/S153)。
Then, the user state
なお自律神経バランスに関する情報とは例えば、心拍の変動を周波数解析して得られる、LFとHFとの比(LF/HF)である。 The information on the autonomic nerve balance is, for example, the ratio of LF to HF (LF / HF) obtained by frequency analysis of the fluctuation of the heartbeat.
そしてユーザー状態情報生成部333は、ユーザーUの顔の状態に関する質問への回答の分析結果、顔の画像の分析結果及び自律神経バランスに関する情報に基づいて、ユーザーUのユーザー状態に関する総合スコアを決定する(図7/S155)。
Then, the user state
より具体的にはユーザー状態情報生成部333は、自律神経バランスに関する情報を1~10の間の点数で指標化した自律神経バランススコアを決定する。例えば交感神経が優位であるほど当該点数は1に近づき、副交感神経が優位であるほど当該点数は10に近づくように決定される。
More specifically, the user state
またユーザー状態情報生成部333は、例えば心拍の揺らぎに関する情報として取得したCVR-R(又はトータルパワー値)を1~10の間の点数で指標化した、心拍に基づく疲労度スコアを決定する。例えば心拍の揺らぎの度合が高いほど当該点数は1に近づき、心拍の揺らぎの度合が低いほど当該点数は10に近づくように決定される。
Further, the user state
そしてユーザー状態情報生成部333は、自律神経バランススコア、心拍に基づく疲労度スコアの2つの値に、回答分析ステップにて決定されたユーザーUの顔に出ている疲れの兆候を数値化した疲れの兆候スコアを加えた3つの値の平均値を、ユーザーの感情又は疲労状態を指標化した、総合スコアとして決定する。
Then, the user state
そしてユーザー状態情報生成部333は、ユーザー状態情報を生成して(図7/S157)、ユーザー状態情報生成ステップを終了する。
Then, the user state
より具体的にはユーザー状態情報生成部333は、ユーザーUの顔に出ている疲れの兆候を数値化した値、心拍の揺らぎに関する情報を点数化した値、自律神経バランスに関する情報を点数化した値、及び総合スコアのセットをユーザー状態情報とする。
More specifically, the user status
<ユーザー状態情報記憶ステップ>
ユーザー状態情報記憶ステップにおいてユーザー状態情報生成部333は、ユーザー状態情報生成ステップにおいて生成したユーザー状態情報をサーバー記憶部310に時系列的に記憶する(図2/S170)。
<User status information storage step>
In the user state information storage step, the user state
<ソリューション決定ステップ>
そして、ソリューション決定部335は、ユーザーUの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、ユーザーUに提供可能な複数のソリューションから、ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップを実行する(図2/S190)。
<Solution decision step>
Then, the
すなわち例えば、ソリューション決定部335はソリューション決定ステップを開始すると、まず指定されている動作モードを確認する(図8/S191)。
That is, for example, when the
そして、指定されている動作モードが顔モードである場合には(図8/S191:顔モード)、ソリューション決定部335は、ユーザー状態情報に含まれるユーザーUの顔に現れている感情又は疲労状態に基づいて、ユーザーUがユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する(図8/S193)。
Then, when the designated operation mode is the face mode (FIG. 8 / S191: face mode), the
ユーザーが第1状態にあるか第2状態にあるかの判定の手法には種々の手法が採用されてよいが、本実施形態においてソリューション決定部335は、ユーザー状態情報に含まれる自律神経バランスに関する情報を点数化した値が4以下かつユーザーUの顔に出ている疲れの兆候を数値化した値が6以上である場合(すなわち、交感神経が優位で、顔に出ている疲れの兆候から見て元気な状態にある場合)に、ユーザーUが第2状態にあると判定し、それ以外の場合には第1状態にあると判定する。
Various methods may be adopted as a method for determining whether the user is in the first state or the second state, but in the present embodiment, the
ユーザーUが第1状態にあると判定された場合には(図8/S193:第1状態)、ソリューション決定部335は受動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S195)。
When it is determined that the user U is in the first state (FIG. 8 / S193: first state), the
一方、ユーザーUが第2状態にあると判定された場合には(図8/S193:第2状態)、ソリューション決定部335は能動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S197)。
On the other hand, when it is determined that the user U is in the second state (FIG. 8 / S193: second state), the
また、指定されている動作モードが指モードである場合には(図8/S191:指モード)、ソリューション決定部335は、指定された指モードに応じたソリューションを決定する(図8/S199)。
Further, when the designated operation mode is the finger mode (FIG. 8 / S191: finger mode), the
そしてソリューション決定部335は、このようにして決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を携帯端末10に送信してソリューション決定ステップを終了する。
Then, the
より具体的には、例えば動作モード及び総合スコアと、ソリューションとの対応テーブルを予めサーバー記憶部310に記憶しておき、ソリューション決定部335は、当該対応テーブルを参照して、ユーザー状態情報に含まれる総合スコアに対応したソリューションを決定する。
More specifically, for example, the operation mode and the total score and the correspondence table with the solution are stored in the
本実施形態においては、ソリューション決定部335が決定するソリューションは、所定の時間継続する周期的な振動であって該振動の開始時から終了時にかけて段階的に周期が変動する振動と、ユーザー状態を改善するための人の声、自然の音又は音楽を含む所定の時間継続する音声と、の組み合わせ(受動的ソリューション)であり、必要に応じてさらに、ユーザーUに所定の方法での呼吸又は瞑想などの動作を促す情報又はユーザーUを所定の状態に誘導する画像を含む(能動的ソリューション)。
In the present embodiment, the solution determined by the
<ソリューションの具体例>
・顔モード用のソリューション
図9は、本実施形態における、総合スコアと顔モード用のソリューションとの対応関係を示している。図9に示すように、顔モード用のソリューションに含まれる音声については、ユーザーUが第1状態にある場合のソリューションは、総合スコアの高低に応じた3つのグループに分類されており、総合スコアが1~4の場合には人の声と音楽との組み合わせ、5~7の場合には自然の音と音楽との組み合わせ、8~10の場合には音楽のみである。このように、ソリューション決定部335は、ユーザー状態情報に基づいて、振動と組み合わせる音声を決定する。
<Specific example of solution>
-Solution for face mode FIG. 9 shows the correspondence between the total score and the solution for face mode in this embodiment. As shown in FIG. 9, regarding the voice included in the solution for the face mode, the solution when the user U is in the first state is classified into three groups according to the level of the total score, and the total score is divided into three groups. When is 1 to 4, it is a combination of human voice and music, when it is 5 to 7, it is a combination of natural sound and music, and when it is 8 to 10, it is only music. In this way, the
また、振動については、ソリューション決定部335は、ユーザー状態情報に基づいて、より具体的にはユーザーUの心拍数に基づいて、振動の開始時の周期と、開始時から終了時にかけての該周期の変動パターンとを決定する。
Regarding vibration, the
すなわち例えばユーザーUの心拍数が80以上である場合にソリューション決定部335は、振動の開始時の周期は85回/分であり、当該周期を10秒間継続させると決定する。またソリューション決定部335は、開始時から終了時にかけての該周期の変動パターンを、75回/分周期の振動を10秒継続し、65回/分周期の振動を20秒継続し、…と変動させて、最終的には50回/分周期の振動を120秒以上、ソリューションが終了するまで継続するという、周期の変動パターンを決定する。
That is, for example, when the heart rate of the user U is 80 or more, the
なお例えば、ユーザーUの心拍数が相対的に高い場合、本実施形態においては心拍数が70以上である場合には、振動の開始から一定期間(例えば20秒など。)は振動のみを提供して、その後音声を組み合わせて提供するようにソリューションを決定させてもよい。 For example, when the heart rate of the user U is relatively high, and when the heart rate is 70 or more in the present embodiment, only the vibration is provided for a certain period (for example, 20 seconds) from the start of the vibration. The solution may then be decided to provide the audio in combination.
これは、心拍が一定程度高い場合には、まず心拍を落ち着けてから音声を聞かせた方が、音声による感情及び疲労状態の改善効果が得られやすくなるためである。 This is because when the heartbeat is high to a certain extent, it is easier to obtain the effect of improving emotions and fatigue by the voice by first calming the heartbeat and then listening to the voice.
なお本実施形態においてソリューション決定部335は、ユーザーUが第1状態にあると判定されている場合には、総合スコアに対応した受動的ソリューションを3つ決定し、ユーザーUが第2状態にあると判定されている場合には、総合スコアに対応した能動的ソリューションを1つと、受動的なソリューションを2つ決定する。そのため、総合スコアが1~4の場合、5~7の場合、8~10のそれぞれに対応する複数の音声のソリューションがサーバー記憶部310に記憶されている。
In the present embodiment, when it is determined that the user U is in the first state, the
そして、ユーザーUが第2状態にある場合のソリューションは、音楽と、ユーザーUに所定の動作を促す情報である「行動をサポートする文字」と、振動との組み合わせである。 Then, the solution when the user U is in the second state is a combination of music, "characters supporting the action" which is information for prompting the user U to perform a predetermined action, and vibration.
「行動をサポートする文字」とは、例えば図10の下部に示すような、一定間隔で変化する「振動を感じながら簡単なマインドフルネス瞑想をやってみましょう」、「背筋を伸ばし姿勢を正しましょう」、「肩の力を抜きゆっくりと鼻呼吸をしましょう」などの、所定の動作又は所定の方法での呼吸又は瞑想を促す文章の組み合わせである。 "Characters that support behavior" are, for example, "Let's do a simple mindfulness meditation while feeling the vibration" and "Stretch your back and posture" that change at regular intervals, as shown in the lower part of Fig. 10. It is a combination of sentences that encourage breathing or meditation in a predetermined action or method, such as "let's correct" and "let's relax the shoulders and breathe slowly through the nose".
・指モード用のソリューション
図10は、本実施形態における、指モードごとの、ユーザーUの心拍数と指モード用のソリューションとの対応関係を示している。図10に示すように、指モード用のソリューションは、指定された指モード(Red、Blue、Greenの何れか)とユーザーUの心拍数に応じて決定される、振動と、ユーザーUに所定の動作を促す情報と、ユーザーUを所定の状態に誘導する画像との組み合わせである。
-Solution for finger mode FIG. 10 shows the correspondence between the heart rate of the user U and the solution for the finger mode for each finger mode in the present embodiment. As shown in FIG. 10, the solution for the finger mode is determined by the specified finger mode (Red, Blue, Green) and the heart rate of the user U, the vibration and the predetermined to the user U. It is a combination of the information for prompting the operation and the image for guiding the user U to a predetermined state.
より具体的には、ソリューション決定部335は、第1指モードに該当する「Red」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に短くなるように、すなわち振動数が増えていくように変動させる振動周期の変動パターンを決定する。これは、引き込み効果によってユーザーUの心拍を速めて、ユーザーUを覚醒した状態に誘導するためである。
More specifically, the
また、ユーザーUに所定の動作を促す情報は例えば、「姿勢を正して振動を感じながら
大きく呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、覚醒をイメージできる静止画である。
Further, the information that urges the user U to perform a predetermined action is, for example, the text of a comment "Let's correct the posture and take a big breath while feeling the vibration", and the image that guides the user U to the predetermined state is, for example, It is a still image that can imagine awakening.
そしてソリューション決定部335は、第2指モードに該当する「Bule」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Green」が指定されている場合に比して急である。これは、引き込み効果によってユーザーUの心拍を急速に落ち着かせて、ユーザーUを冷静な状態に誘導するためである。
Then, in the
また、ユーザーUに所定の動作を促す情報は例えば、「肩を一度あげ、力を抜き振動を感じながらゆっくり呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、冷静をイメージできる静止画である。 In addition, the information that urges the user U to perform a predetermined action is, for example, the text of a comment "Let's raise the shoulder once, relax and breathe slowly while feeling the vibration", and the image that guides the user U to the predetermined state. Is, for example, a still image that can be imagined as calm.
そしてソリューション決定部335は、第3指モードに該当する「Green」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Blue」が指定されている場合に比して緩やかである。これは、引き込み効果によってユーザーUの心拍を緩やかに落ち着かせて、ユーザーUをリラックスした状態に誘導するためである。
Then, in the
また、ユーザーUに所定の動作を促す情報は例えば、「肩の力を抜いて、振動を感じながら深く呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、リラックスをイメージできる静止画である。 In addition, the information that urges the user U to perform a predetermined action is, for example, the text of a comment "Let's relax the shoulders and breathe deeply while feeling the vibration", and the image that guides the user U to the predetermined state is. For example, it is a still image that allows you to imagine relaxing.
なお、ソリューション決定部335は、例えばBlue又はGreenの指モードが指定されている場合において、最後に振動数を所定程度上げてから振動を終了するような変動パターンを決定してもよい。
In addition, the
これは、例えば業務の昼休みの休憩中にユーザーUがソリューションの提供を受けることを想定した場合、一度冷静な状態又はリラックスした状態になった後に、再度通常の心拍数に近づけることを促すことによって、休憩後に円滑に業務を再開できる状態にユーザーUを誘導するためである。 This is done, for example, by encouraging User U to regain normal heart rate after being calm or relaxed, for example, assuming that User U will be provided with a solution during a business lunch break. This is to guide the user U to a state where the business can be resumed smoothly after the break.
<ユーザー状態情報表示ステップ>
その後、例えば、携帯端末10がサーバー30から決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を受信した際に、ユーザー状態情報を表示するユーザー状態情報表示ステップが実行される(図2/S210)。
<User status information display step>
After that, for example, when the
図11は、顔モードが指定されていた場合に、ユーザー状態情報表示ステップで表示される内容の例である。すなわち、図11に示すように、表示制御部153は、受信したユーザー状態情報に含まれる、ユーザーUの顔に出ている疲れの兆候を数値化した値を示す「顔にでている疲れの兆候」の表示R1と、心拍の揺らぎに関する情報を点数化した値を示す「エネルギー余力度」の表示R2と、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示R3と、総合スコアの値の表示T1とをユーザー状態情報として並べて表示している。
FIG. 11 is an example of the content displayed in the user status information display step when the face mode is specified. That is, as shown in FIG. 11, the
そして、表示制御部153は、画面の下部に、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)を3つ並べて表示している。また、当該アイコンにはたとえば、各ソリューションの内容を示すタイトルと、サムネイル画像がそれぞれ含まれる。
Then, the
なお、指モードが指定されている場合には、表示制御部153は例えば、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に表示させる。
When the finger mode is specified, the
<ソリューション提供ステップ>
顔モードが指定されている場合には、ユーザー状態情報表示ステップにおいて、表示制御部153が画面に表示させた、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)の何れかをユーザーUがタップする操作を行うと、当該操作に応じてソリューション提供部159はタップされたアイコンに対応するソリューションをユーザーに向けて提供する。
<Solution provision step>
When the face mode is specified, the icon (S1, S2, S3) displayed on the screen by the
また指モードが指定されている場合には、ソリューション提供部159は、表示制御部153が「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に一定時間表示させた後に自動的に、ソリューション決定部335が決定した、ソリューションの提供を開始する。
When the finger mode is specified, the
すなわち例えばソリューション提供部159は振動発生部170を介して、ソリューションに含まれる振動を、ソリューション決定部335が決定した開始時の周期で開始し、ソリューション決定部335が決定した変動パターンに従って変動させながら所定の時間継続して提供する。
That is, for example, the
またソリューション提供部159はソリューション決定部335が決定した音声を、音声再生部190を介して再生し、ソリューション決定部335が決定した、ユーザーUに所定の動作を促す情報又はユーザーUを所定の状態に誘導する画像を、表示部130を介して表示して、ユーザーUに向けて提供する。
Further, the
以上、本発明の実施形態について説明したが、これに限定されない。本発明の趣旨を逸脱しない範囲で、種々の変更が可能である。 The embodiments of the present invention have been described above, but the present invention is not limited thereto. Various changes can be made without departing from the spirit of the present invention.
すなわち例えば、上記においてはユーザーの顔が映像として表示部130に表示される場合の実施形態について説明したが、これに限定されない。すなわち例えば、本発明のユーザー状態分析方法は、いわゆるスマートミラーであるユーザー状態分析システムを用いて実行されて、ユーザーは鏡に写る自身の顔を見ながら、質問に答えてもよい。また、当該スマートミラーはユーザーが携帯可能であってもなくてもよい。
That is, for example, in the above description, the embodiment in which the user's face is displayed as an image on the
より具体的には、本実施形態のユーザー状態分析システムは、ユーザーUの顔を映す鏡部を備えている。そして、表示部130は、ユーザーUが鏡部に写るユーザーUの顔と同時に見ることができる位置に配置される。表示制御部153は、鏡部に写るユーザーUの顔の状態についての質問を表示部130に表示する。入力部210は、ユーザーUが、鏡部に写るユーザーUの顔及び、表示部130に表示されたユーザーUの顔の状態についての質問を見ながら操作を行える位置に配置される。そして入力受付部155は、入力部210を介して、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を鏡部に写るユーザーUの顔の映像を見せた状態で受け付ける。
More specifically, the user state analysis system of the present embodiment includes a mirror unit that reflects the face of the user U. Then, the
あるいは例えば、回答分析部331は回答分析ステップにおいて、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を入力として、ユーザーUの顔に現れている幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性などの感情、又は不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の量の状態などの疲労状態を出力とする分析モデルを第1相関関係情報として用いて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定してもよい。
Alternatively, for example, in the answer analysis step, the
この場合、回答分析部331は分析モデルを用いて、分析対象の感情又は疲労状態が正常な状態であることを示す基準値よりも高い状態にあるか、低い状態にあるかの出力値を分析結果として決定する。
In this case, the
あるいは上記の実施例においては、入力受付ステップの後に、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)及び画像分析ステップを実行する構成について説明したが、これに限定されない。 Alternatively, in the above embodiment, after the input acceptance step, a configuration for capturing an image of the user U's face for analysis in the image analysis step (second imaging step) and a configuration for executing the image analysis step have been described. However, it is not limited to this.
すなわち例えば、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前に実行され、画像分析ステップは、入力受付ステップの前に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。このように、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前後いずれにおいて行われてよく、それに応じて画像分析ステップは入力受付ステップの前又は後のいずれかに撮像されたユーザーUの顔の画像を分析するステップとなる。 That is, for example, the step of capturing an image of the user U's face for analysis in the image analysis step (second imaging step) is executed before the input acceptance step, and the image analysis step is performed before the input acceptance step. It may be configured to be a step of analyzing the captured image of the user U's face. As described above, the step of capturing the image of the user U's face for performing the analysis in the image analysis step (second imaging step) may be performed before or after the input reception step, and the image analysis step may be performed accordingly. It is a step of analyzing the image of the user U's face captured either before or after the input reception step.
あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの実行中に実行され、画像分析ステップは、入力受付ステップの実行中に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the user U's face is executed during the execution of the input acceptance step, and the image analysis step is a step of analyzing the image of the user U's face captured during the execution of the input acceptance step. It may be configured to be.
この場合、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像をするステップ(第1撮像ステップ)と、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)と、は、単一のステップとして実行される。すなわち、このようにして撮像されたユーザーの顔の画像は、顔画像・質問表示ステップで表示部130に表示させるためにも、画像分析ステップで分析を行うためにも用いられる。
In this case, a step of capturing an image of the user U's face to be displayed on the
またこの場合には、例えば画像分析部157は、撮像部110により撮像された画像の中から、手ぶれの度合いが十分に低い画像など、画像の分析の精度を保つために必要な条件を満たしている画像を選択して、当該選択された画像を分析するように構成される。
Further, in this case, for example, the
あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの前又は実行中に実行され、画像分析ステップは、入力受付ステップの実行中に実行されるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the user U's face may be configured to be executed before or during the input acceptance step, and the image analysis step may be executed during the execution of the input acceptance step.
110…撮像部、130…表示部、151…撮像制御部、153…表示制御部、155…入力受付部、157…画像分析部、159…ソリューション提供部、161…モード指定受付部、170…振動発生部、190…音声再生部、310…サーバー記憶部、331…回答分析部、333…ユーザー状態情報生成部、335…ソリューション決定部、337…心拍取得部、339…状態判定部。 110 ... Imaging unit, 130 ... Display unit, 151 ... Imaging control unit, 153 ... Display control unit, 155 ... Input reception unit, 157 ... Image analysis unit, 159 ... Solution provision unit, 161 ... Mode designation reception unit, 170 ... Vibration Generation unit, 190 ... Voice reproduction unit, 310 ... Server storage unit, 331 ... Answer analysis unit, 333 ... User status information generation unit, 335 ... Solution determination unit, 337 ... Heart rate acquisition unit, 339 ... Status determination unit.
Claims (20)
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とするユーザー状態分析方法。 Includes a step to show the user an image of the user's face and to display a question about the condition of the face that correlates with the emotional or fatigue condition appearing on the user's face.
An input reception step that accepts an answer by the user to a question about the state of the user's face while showing the image of the face to the user.
An answer analysis step that analyzes the user's answer to the question about the user's facial condition, and
It is characterized by comprising a user state information generation step of generating user state information indicating a user state including one or both of emotions and fatigue states appearing on the user's face based on the analysis result of the answer. How to analyze user status.
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、をさらに含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 1,
A solution determination step for determining a solution according to the user status information from a plurality of solutions that can be provided to the user in order to improve the user status of the user.
A user condition analysis method comprising further comprising providing the determined solution to the user.
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 1 or 2.
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The user state analysis method is characterized in that the user state information generation step is a step of generating the user state information based on the answer and the analysis result of the face image.
生成された前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 3,
A user state analysis method comprising a step of displaying the generated user state information.
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 4.
A step to store the generated user status information in chronological order,
A user state analysis method comprising a step of displaying the stored user state information in response to the user's operation.
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 5.
The answer analysis step is a first correlation showing the correlation between the user's answer to the accepted question about the user's facial condition and the emotional or fatigue state appearing on the user's face. A user condition analysis method comprising the step of determining the analysis result of one or both of the emotional and fatigue states appearing on the user's face using information.
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 2,
The step of capturing an image of the user's face and
An image analysis step that analyzes the captured image of the user's face,
Including
The answer analysis step includes a step of analyzing the answer to determine a fatigue sign score, which is an index of the emotion or fatigue state appearing on the user's face.
The user state information generation step is
A step of acquiring information on the user's heartbeat from the analysis result of the face image, and
A step of determining a heart rate-based fatigue score, which is an index of a heart rate-based fatigue state based on the user's heart rate information.
A step of determining an overall score, which is an index of the user's emotional or fatigue state, based on the fatigue sign score and the fatigue degree score based on the heartbeat.
Including a step of generating the user state information, including the overall score,
The solution determination step is a user state analysis method including a step of determining a solution to be provided to the user based on the total score.
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 7,
The step to determine the overall score is
A step of acquiring information on the autonomic nervous balance of the user by using the information on the heartbeat of the user and the second correlation information showing the correlation between the information on the heartbeat and the autonomic nervous balance of the user.
A user state analysis method comprising: a step of determining the overall score based on information including information about the autonomic nerve balance.
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 2,
The solution determination step is
A first state in which the user should provide a passive solution that is a passive stimulus to the user's sense of touch or hearing based on the emotional or fatigue state appearing on the user's face contained in the user state information. A step to determine if the user is in a second state to provide an active solution that encourages the user to perform a given action.
A user state analysis method comprising: a step of determining a solution according to the user state information from the plurality of solutions based on the result of the determination.
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 9,
The active solution comprises a combination of periodic vibrations that last for a predetermined time, voice to improve the user condition, and information that prompts the user to breathe or meditate in a predetermined manner.
When the user is in the second state, the active solution comprising a combination of the vibration, the voice, and information prompting the user to breathe or meditate in a predetermined manner in the solution determination step. , A user condition analysis method, characterized in that it is determined as a solution to be provided to the user.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 10.
The user condition analysis method, wherein the question about the facial condition of the user includes a question about the degree of opening of the eyes as compared with the normal condition of the user.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 11.
The user condition analysis method, wherein the question about the condition of the face of the user includes a question about the darkness of the bear around the eyes as compared with the normal condition of the user.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 12,
The user condition analysis method, wherein the question about the condition of the user's face includes a question about the condition of acne or pimples as compared to the normal condition of the user.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 13.
The user condition analysis method, wherein the question about the facial condition of the user includes a question about how the corner of the mouth rises or falls as compared with the normal condition of the user.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to any one of claims 1 to 14,
The user condition analysis method, wherein the question about the condition of the face of the user includes a question about the condition of moisturizing the lips as compared with the normal condition of the user.
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 3,
The step of capturing an image of the user's face is executed before or after the input reception step.
The user state analysis method is characterized in that the image analysis step is a step of analyzing an image of the user's face captured before or after the input reception step.
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 3,
The step of capturing an image of the user's face is executed during the execution of the input reception step.
The user state analysis method is characterized in that the image analysis step is a step of analyzing an image of the user's face captured during the execution of the input reception step.
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことを特徴とするユーザー状態分析方法。 In the user condition analysis method according to claim 3,
The step of capturing an image of the user's face is executed before or during the input reception step.
The image analysis step is a user state analysis method, characterized in that it is executed during the execution of the input reception step.
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。 An image pickup unit that captures an image of the user's face,
A display unit that displays information and
An image pickup control unit that causes the image pickup unit to capture an image of the user's face,
A facial state in which an image of the user's face captured by the imaging unit is displayed on the display unit and has a correlation with an emotional or fatigue state displayed on the user's face displayed on the display unit. A display control unit that displays a question about
An image of the user's face displayed on the display unit, an input unit arranged at a position where the user can operate while looking at the question, and an input unit.
An input receiving unit that accepts an input of an answer by the user to the question via the input unit with the image of the face displayed on the display unit.
An answer analysis unit that analyzes the answers of the user to the question received by the input reception unit, and
A user state including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit. Analytical system.
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。 A mirror that reflects the user's face,
A display unit that is arranged at a position where the user can be seen at the same time as the user's face reflected in the mirror unit and displays information.
A display control unit that displays a question about the facial condition on the display unit, which has a correlation with the emotion or fatigue state appearing on the user's face reflected in the mirror unit.
An input unit arranged at a position where the user can operate while looking at the user's face reflected in the mirror unit and the question displayed on the display unit.
An input reception unit that accepts input of an answer by the user to a question about the condition of the user's face through the input unit while showing an image of the user's face reflected in the mirror unit.
An answer analysis unit that analyzes the user's answer to the question about the user's facial condition received by the input reception unit, and the answer analysis unit.
A user state including a user state information generation unit that generates user state information indicating a user state that is one or both of the emotion and fatigue states of the user based on the analysis result by the response analysis unit. Analytical system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200828A JP7507674B2 (en) | 2020-12-03 | 2020-12-03 | USER STATE ANALYSIS METHOD AND SYSTEM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200828A JP7507674B2 (en) | 2020-12-03 | 2020-12-03 | USER STATE ANALYSIS METHOD AND SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022088796A true JP2022088796A (en) | 2022-06-15 |
JP7507674B2 JP7507674B2 (en) | 2024-06-28 |
Family
ID=81987862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020200828A Active JP7507674B2 (en) | 2020-12-03 | 2020-12-03 | USER STATE ANALYSIS METHOD AND SYSTEM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7507674B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005065812A (en) * | 2003-08-21 | 2005-03-17 | Nec Fielding Ltd | Medical checkup system, method and program |
JP2017146733A (en) * | 2016-02-16 | 2017-08-24 | 株式会社リコー | Extraction support system, extraction support server, extraction support program, and extraction support method |
JP2019087276A (en) * | 2014-01-17 | 2019-06-06 | 任天堂株式会社 | Information processing system and information processor |
-
2020
- 2020-12-03 JP JP2020200828A patent/JP7507674B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005065812A (en) * | 2003-08-21 | 2005-03-17 | Nec Fielding Ltd | Medical checkup system, method and program |
JP2019087276A (en) * | 2014-01-17 | 2019-06-06 | 任天堂株式会社 | Information processing system and information processor |
JP2017146733A (en) * | 2016-02-16 | 2017-08-24 | 株式会社リコー | Extraction support system, extraction support server, extraction support program, and extraction support method |
Also Published As
Publication number | Publication date |
---|---|
JP7507674B2 (en) | 2024-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11071496B2 (en) | Cognitive state alteration system integrating multiple feedback technologies | |
US20210248656A1 (en) | Method and system for an interface for personalization or recommendation of products | |
JP2020168415A (en) | Detector | |
WO2016092103A1 (en) | Device, system and method for assessing information needs of a person | |
JP7701368B2 (en) | Emotion Determination Device, Emotion Determination Method, and Emotion Determination Program | |
WO2022011448A1 (en) | Method and system for an interface for personalization or recommendation of products | |
JP7589438B2 (en) | Information processing device, information processing system, information processing method, and information processing program | |
US20230120262A1 (en) | Method for Improving the Success of Immediate Wellbeing Interventions to Achieve a Desired Emotional State | |
CN113687744B (en) | Man-machine interaction device for emotion adjustment | |
CN116419778A (en) | Training system, training device and training with interactive auxiliary features | |
Fortin et al. | Laughter and tickles: Toward novel approaches for emotion and behavior elicitation | |
CN113952580A (en) | Method, device, equipment and storage medium for training of memorial meditation | |
JP7507674B2 (en) | USER STATE ANALYSIS METHOD AND SYSTEM | |
WO2022118955A1 (en) | Solution providing system | |
WO2023090103A1 (en) | Information processing device and information processing method | |
Janssen | Connecting people through physiosocial technology | |
JP6963669B1 (en) | Solution providing system and mobile terminal | |
JP7069390B1 (en) | Mobile terminal | |
JP7061714B1 (en) | Solution provision system and mobile terminal | |
KR102173224B1 (en) | Method of customized cognitive therapy | |
Kim et al. | Mediating individual affective experience through the emotional photo frame | |
Chandrasiri et al. | Mellow: Stress Management System For University Students In Sri Lanka | |
JP7069389B1 (en) | Solution provision system and mobile terminal | |
JP7095169B1 (en) | Condition improvement device | |
US20230397867A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231106 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240522 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240618 |