[go: up one dir, main page]

JP7507674B2 - USER STATE ANALYSIS METHOD AND SYSTEM - Google Patents

USER STATE ANALYSIS METHOD AND SYSTEM Download PDF

Info

Publication number
JP7507674B2
JP7507674B2 JP2020200828A JP2020200828A JP7507674B2 JP 7507674 B2 JP7507674 B2 JP 7507674B2 JP 2020200828 A JP2020200828 A JP 2020200828A JP 2020200828 A JP2020200828 A JP 2020200828A JP 7507674 B2 JP7507674 B2 JP 7507674B2
Authority
JP
Japan
Prior art keywords
user
face
image
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020200828A
Other languages
Japanese (ja)
Other versions
JP2022088796A (en
Inventor
智紀 本川
朋美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Orbis Holdings Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Priority to JP2020200828A priority Critical patent/JP7507674B2/en
Publication of JP2022088796A publication Critical patent/JP2022088796A/en
Application granted granted Critical
Publication of JP7507674B2 publication Critical patent/JP7507674B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、ユーザーの感情又は疲労状態を分析する方法及びシステムに関する。 The present invention relates to a method and system for analyzing a user's emotions or fatigue state.

従来、疲労度の判定処理システムが知られている(特許文献1参照)。 A fatigue level determination processing system is known (see Patent Document 1).

特開2010-201113号公報JP 2010-201113 A

特許文献1に記載の発明では、LF/HF値と自身の疲労状態に関するアンケート結果とに基づいて、ユーザーの疲労度を判定している。 In the invention described in Patent Document 1, the user's level of fatigue is determined based on the LF/HF value and the results of a questionnaire about the user's own fatigue state.

特許文献1に記載の発明を、ユーザーの感情又は疲労状態を分析する方法及びシステムに応用することが考えられる。 It is conceivable that the invention described in Patent Document 1 could be applied to a method and system for analyzing a user's emotions or fatigue state.

ところで、客観的なデータに基づく感情又は疲労状態の分析結果が、ユーザー自身が考える感情又は疲労状態と食い違う場合がある。すなわち例えば、肌の画像などの客観的な情報を分析すると相当ストレスを感じている、あるいは疲れが溜まっているという分析結果が出るにも関わらず、本人にその自覚がない場合には、このような食い違いが起こりうる。 However, the results of an analysis of emotions or fatigue state based on objective data may sometimes differ from the user's own thoughts about the emotions or fatigue state. For example, such a discrepancy may occur if an analysis of objective information such as an image of the skin indicates that the user is feeling considerable stress or fatigue, but the user is not aware of this.

あるいはその反対に、客観的にはそれほどストレスを感じておらず、又は疲労が蓄積されていないにも関わらず、本人はストレス状態にあり、あるいは疲れていると思い込んでいる結果、上記のような食い違いが起こることもある。 On the other hand, even if objectively you are not feeling that stressed or fatigued, you may believe that you are stressed or tired, which can result in the above discrepancy.

しかしながら特許文献1の発明においては、ユーザー自身への疲労状態に関するアンケート結果を用いてユーザーの疲労度を判定しているので、自身の疲労状態に関する自覚がない、又は必要以上に疲れていると思い込んでいるユーザーから、疲労状態に関する正しい回答を得られる確実性は低い。 However, in the invention of Patent Document 1, the user's level of fatigue is determined based on the results of a questionnaire about the user's own fatigue state, so there is little certainty that a correct answer regarding the user's fatigue state will be obtained from a user who is unaware of their own fatigue state or who believes that they are more tired than necessary.

また、そのような不確実な情報に基づく分析結果は高い精度が期待できない。 Furthermore, analytical results based on such uncertain information cannot be expected to be highly accurate.

そこで本発明は、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できるユーザー状態分析方法及びユーザー状態分析システムを提供することを目的とする。 The present invention aims to provide a user condition analysis method and a user condition analysis system that can accurately analyze a user's emotions or fatigue state while making the user aware of the user's emotions or fatigue state.

本発明のユーザー状態分析方法は、
ユーザーの顔の映像を該ユーザーに見せると共に、該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示するステップを含み、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とする。
The user status analysis method of the present invention includes the steps of:
presenting an image of the user's face to the user and displaying a question about a facial state that correlates with an emotional or fatigue state appearing on the user's face;
an input receiving step of receiving a response from the user to a question about the state of the user's face while showing an image of the face to the user;
a response analysis step of analyzing responses by the user to questions about the user's facial condition;
and a user condition information generation step of generating user condition information indicating the user condition including one or both of the emotions and fatigue state shown on the user's face based on the analysis results of the answers.

本発明によれば、ユーザーの顔の映像が該ユーザーに見せられると共に、表示されたユーザーの顔の状態についての質問が表示される。なお当該質問は、ユーザーの顔に現れている感情又は疲労状態と相関関係を有する顔の状態についての質問である。 According to the present invention, an image of a user's face is shown to the user, and a question about the state of the displayed face of the user is displayed. The question is about a state of the face that is correlated with the emotion or fatigue state shown on the user's face.

そして、当該質問に対するユーザーによる回答の入力が顔の画像を表示させた状態で受け付けられて、当該回答が分析される。 The user's answer to the question is then accepted with the face image displayed, and the answer is analyzed.

また、回答の分析結果に基づいて、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 In addition, based on the analysis results of the answers, user state information is generated that indicates the user state, which is either the user's emotions or fatigue state or both.

本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers questions about the condition of his/her face while looking at his/her own face, making it easy for him/her to answer. In addition, since the user has the opportunity to calmly reflect on the condition of his/her own face, he/she is encouraged to become aware of the facial condition that is closely related to emotions or fatigue state, and the possibility of being able to answer questions about his/her own facial condition accurately is increased.

これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This allows for accurate generation of user state information that indicates the user state, which is either or both of the user's emotions and fatigue state.

このように本発明によれば、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できる。 In this way, the present invention makes it possible to accurately analyze the user's emotions or fatigue state while making the user aware of it.

本発明のユーザー状態分析方法において、
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、を備える
ことが好ましい。
In the user condition analysis method of the present invention,
a solution determination step of determining a solution corresponding to the user state information from a plurality of solutions that can be provided to the user for improving the user state of the user;
providing said determined solution to said user.

本発明によれば、ユーザー状態を改善するための、ユーザーに提供可能な複数のソリューションからユーザー状態情報に応じたソリューションがユーザー状態情報に応じて決定されて、決定されたソリューションがユーザーに提供される。 According to the present invention, a solution corresponding to the user state information is determined from a plurality of solutions that can be provided to the user to improve the user state, and the determined solution is provided to the user.

これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成するとともに、それに応じた適切なソリューションを簡便に提供して、ユーザー状態を改善することができる。 This allows for accurate generation of user condition information indicating the user's condition, which may be one or both of the user's emotions and fatigue state, and for easily providing appropriate solutions in response to the user's condition, thereby improving the user's condition.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことが好ましい。
In the user condition analysis method of the present invention,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
It is preferable that the user state information generating step is a step of generating the user state information based on an analysis result of the answer and the face image.

本発明によれば、顔の状態に対する質問への回答というユーザーの主観的な情報に加えて、顔の画像の分析結果という客観的な情報をも用いてユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 According to the present invention, in addition to subjective information of the user, such as answers to questions about the condition of the face, objective information, such as the analysis results of the face image, is used to generate user condition information indicating the user's condition, which is either or both of the user's emotions and fatigue state.

そのため、質問への回答からでは得られない情報も考慮してユーザー状態情報が生成されるので、ユーザー状態情報をより精度よく生成して、それに応じた適切なソリューションを提供できる。 As a result, user status information is generated taking into account information that cannot be obtained from answers to questions, making it possible to generate user status information more accurately and provide appropriate solutions accordingly.

本発明のユーザー状態分析方法において、
生成された前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user condition analysis method of the present invention,
It is preferable to include a step of displaying the generated user status information.

本発明によれば、生成されたユーザー状態情報が表示されるため、ユーザー自身に自らの感情又は疲労状態を認識させることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, the generated user condition information is displayed, so that the user can recognize his/her own emotions or fatigue state, and thus the user can be made effectively aware of his/her own emotions or fatigue state.

本発明のユーザー状態分析方法において、
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user condition analysis method of the present invention,
storing the generated user state information in chronological order;
It is preferable to further include a step of displaying the stored user status information in response to an operation by the user.

本発明によれば、ユーザーの操作に応じて、過去のユーザー状態情報を表示させることができる。そのため、ユーザーの顔に現れている感情又は疲労状態の変化の有無、変化の度合いをユーザー自身が随時に知ることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, past user condition information can be displayed in response to user operations. Therefore, the user himself can know at any time whether there is a change in the emotion or fatigue state shown on the user's face and the degree of change, so that the user himself can be made effectively aware of the user's emotion or fatigue state.

本発明のユーザー状態分析方法において、
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことが好ましい。
In the user condition analysis method of the present invention,
It is preferable that the answer analysis step includes a step of determining an analysis result of one or both of the emotions and fatigue state shown on the user's face using an answer by the user to a received question about the condition of the user's face and first correlation information indicating a correlation between the answer and the emotions or fatigue state shown on the user's face.

本発明によれば、第1相関関係情報という具体的な情報を用いて、ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果が決定されるので、ユーザーの顔に現れている感情及び疲労状態の一方又は両方を精度よく分析できる。 According to the present invention, the analysis results of one or both of the emotions and fatigue state shown on the user's face are determined using specific information, namely the first correlation information, so that one or both of the emotions and fatigue state shown on the user's face can be analyzed with high accuracy.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことが好ましい。
In the user condition analysis method of the present invention,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
The answer analyzing step includes a step of determining a fatigue symptom score by analyzing the answer and indexing an emotion or fatigue state shown on the face of the user,
The user state information generating step includes:
obtaining information about the user's heart rate from an analysis of the facial image;
determining a heart rate-based fatigue score that indexes a heart rate-based fatigue state based on information about the user's heart rate;
determining a total score that indexes the user's emotion or fatigue state based on the fatigue symptom score and the heart rate-based fatigue score;
generating the user status information including the overall score;
The solution determining step preferably includes a step of determining a solution to provide to the user based on the overall score.

本発明によれば、ユーザーの顔に現れている感情又は疲労状態を指標化した疲れの兆候スコアと、心拍に基づく疲労度スコアという多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じた適切なソリューションを提供できる。 According to the present invention, the solution to be provided to the user is determined based on a fatigue sign score that indexes the emotions or fatigue state shown on the user's face, and a fatigue level score based on the heart rate, which is derived from multiple perspectives, so that an appropriate solution can be provided according to the user's overall fatigue state.

本発明のユーザー状態分析方法において、
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The step of determining the overall score comprises:
acquiring information about the user's autonomic nerve balance using information about the user's heart rate and second correlation information indicating a correlation between the information about the heart rate and the user's autonomic nerve balance;
It is preferable that the method further includes a step of determining the overall score based on information including information regarding the autonomic nerve balance.

本発明によれば、自律神経バランスに関する情報を加えた、より多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じたより適切なソリューションを提供できる。 According to the present invention, the solution to be provided to the user is determined based on a comprehensive score derived from a more multifaceted perspective, including information on autonomic nerve balance, making it possible to provide a more appropriate solution according to the user's overall state of fatigue.

本発明のユーザー状態分析方法において、
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The solution determination step includes:
A step of determining whether the user is in a first state in which a passive solution, which is a passive stimulation to the user's sense of touch or hearing, should be provided, or in a second state in which an active solution, which encourages the user to perform a predetermined action, should be provided, based on the emotion or fatigue state shown on the user's face included in the user state information;
It is preferable that the method further includes a step of determining a solution corresponding to the user state information from the plurality of solutions based on a result of the determination.

所定の動作には、ユーザーの感情や疲労状態を改善する効果があるが、ユーザーの感情又は疲労状態が所定の動作を取らせるのに適切な状態でなければ、触覚又は聴覚に対する受動的な刺激などの受動的なソリューションを提供することが、ユーザーの感情や疲労状態の改善に効果的である。 The prescribed action has the effect of improving the user's emotions and fatigue state, but if the user's emotions or fatigue state are not appropriate for performing the prescribed action, providing a passive solution, such as passive stimulation of the senses of touch or hearing, is effective in improving the user's emotions and fatigue state.

本発明によれば、ユーザーの顔に現れている感情又は疲労状態に基づいて、ユーザーが、触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかが判定される。 According to the present invention, it is determined whether the user is in a first state in which a passive solution, which is a passive stimulation of the sense of touch or hearing, should be provided, or in a second state in which an active solution, which encourages a predetermined action, should be provided, based on the emotion or fatigue state shown on the user's face.

そして、当該判定の結果に基づいてソリューションが決定されるので、ユーザーの感情や疲労状態に応じてソリューションの種類を適切に変えて提供することができる。 Then, a solution is determined based on the results of this judgment, so the type of solution provided can be appropriately changed depending on the user's emotions and fatigue state.

本発明のユーザー状態分析方法において、
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことが好ましい。
In the user condition analysis method of the present invention,
the active solution includes a combination of periodic vibrations lasting a predetermined time, audio to improve the user's condition, and information to encourage the user to breathe or meditate in a predetermined way;
If the user is in the second state, it is preferable that in the solution determination step, the active solution including a combination of the vibration, the sound, and information encouraging the user to breathe or meditate in a predetermined manner is determined as the solution to be provided to the user.

所定の呼吸法及び瞑想には、感情を落ち着かせ、疲労を改善し、あるいは人を覚醒した状態に導く効果がある。 Specific breathing techniques and meditation can have the effect of calming emotions, relieving fatigue, and bringing a person to a state of alertness.

本発明によれば、ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にある場合には、所定の方法での呼吸又は瞑想を促す情報を含むソリューションが決定されるので、効果的にユーザー状態を改善することができる。 According to the present invention, when the user is in a second state in which an active solution encouraging a predetermined action should be provided, a solution is determined that includes information encouraging breathing or meditation in a predetermined manner, thereby effectively improving the user's state.

本発明者らの検討により、通常の状態に比した、「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」、「唇の潤いの状態」を含む、人の顔の状態に関する質問への回答と、当該人の顔に現れている感情又は疲労状態との間には、有意な相関関係が存在していることが判明した。 The inventors' research has revealed that there is a significant correlation between the answers to questions about the condition of a person's face, including "how open the eyes are," "how dark the bags around the eyes are," "the condition of acne or pimples," "how upturned or downturned the corners of the mouth are," and "how moisturized the lips are" compared to a normal condition, and the emotions or fatigue state reflected on the person's face.

なお、感情とは例えば、幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性である。 Note that emotions include, for example, the four factors of happiness, burnout state, life satisfaction, negativity or positivity based on the PANAS scale, degree of resilience, subjective well-being scale, and stress tolerance.

また、疲労状態とは例えば、不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の状態である。 Fatigue states include, for example, a state of insomnia, physical fatigue, mental fatigue, and the state of fatigue components in the body.

より具体的には、本実施形態における身体疲労度、精神疲労度としては、例えばChalder疲労質問票の総スコアに相当する値が含まれるほか、文部科学省による生活者ニーズ対応研究「疲労及び疲労感の分子・神経メカニズムとその防御に関する研究」で作成された「自己診断疲労度チェックリスト」による、身体的評価、精神的評価、及び総合評価に相当する値が含まれる。 More specifically, the physical fatigue level and mental fatigue level in this embodiment include, for example, values equivalent to the total score of the Chalder Fatigue Questionnaire, as well as values equivalent to the physical evaluation, mental evaluation, and overall evaluation from the "Self-diagnosis Fatigue Checklist" created in the Ministry of Education, Culture, Sports, Science and Technology's research to meet consumer needs, "Research on the molecular and neural mechanisms of fatigue and fatigue sensation and prevention thereof."

不眠症の状態とは、例えばアテネ不眠尺度が含まれる。 Examples of insomnia status include the Athens Insomnia Scale.

体内の疲労成分としては、例えば酸化生成物である8OHdG(8-hydroxy-2’-deoxyguanosine)及びイソプラスタン、酸化ストレス度を表すdROMs(Diacron Reactive Oxygen Metabolites)が含まれる。 Fatigue components in the body include, for example, the oxidation products 8OHdG (8-hydroxy-2'-deoxyguanosine) and isoprostane, and dROMs (Diacron Reactive Oxygen Metabolites), which indicate the degree of oxidative stress.

幸せの4つの因子とは、前野隆司氏が作成した幸せの4つの因子のアンケートによる第1~第4の各因子の値である。具体的には、第1因子は、「やってみよう!」因子(自己実現と成長の因子)であり、本実施形態における自己実現又は成長に対する満足感の度合に該当する。第2因子は、「ありがとう!」因子(つながりと感謝の因子)であり、本実施形態における他者との良好な関係性又は他者への感謝の感情の度合もしくは前向きさに該当する。第3因子は、「なんとかなる!」因子(まえむきと楽観の因子)であり、本実施形態における楽観性又は自己肯定感の度合である。第4因子は、「あなたらしく!」因子(独立とマイペースの因子)である。 The four factors of happiness are the values of the first to fourth factors in a questionnaire on the four factors of happiness created by Maeno Takashi. Specifically, the first factor is the "Let's give it a try!" factor (a factor of self-realization and growth), which corresponds to the degree of satisfaction with self-realization or growth in this embodiment. The second factor is the "Thank you!" factor (a factor of connection and gratitude), which corresponds to good relationships with others or the degree of gratitude toward others or positivity in this embodiment. The third factor is the "It'll work out!" factor (a factor of forward-lookingness and optimism), which corresponds to the degree of optimism or self-affirmation in this embodiment. The fourth factor is the "Be yourself!" factor (a factor of independence and going at your own pace).

バーンアウトの状態とは、例えばMBI(Maslach Burnout Inventory)による、情緒的消耗感、脱人格化、個人的達成感の低下の尺度に相当する値が含まれる。 The state of burnout includes, for example, values equivalent to the scales of emotional exhaustion, depersonalization, and reduced sense of personal accomplishment measured by the Maslach Burnout Inventory (MBI).

人生満足度とは、人生に対する満足感の度合であり、例えばEd Dienerによる人生満足尺度(SWLS:Satisfaction With Life Scale)に相当する値が含まれる。 Life satisfaction is the degree of satisfaction with life, and includes values equivalent to, for example, Ed Diener's Satisfaction With Life Scale (SWLS).

PANAS尺度によるネガティブさ又はポジティブさとは、Watson、Clark、TellegenらによるPANAS(Positive and Negative Affect Schedule)尺度に含まれる評定の尺度であり、例えばポジティブ情動8項目、ネガティブ情動8項目からなる簡易気分評定の尺度である。 Negativity or positivity according to the PANAS scale is a rating scale included in the PANAS (Positive and Negative Affect Schedule) scale by Watson, Clark, Tellegen, et al., and is a simple mood rating scale consisting of, for example, eight positive affect items and eight negative affect items.

レジリエンスの度合とは、心理的な傷つきから立ち直る回復力であり、例えば平野真理氏が「レジリエンスの資質的要因・獲得的要因の分類の試み」にて提唱した二次元レジリエンス要因尺度が含まれる。 The degree of resilience is the ability to bounce back from psychological trauma, and includes, for example, the two-dimensional resilience factor scale proposed by Mari Hirano in "An attempt to classify the endowed and acquired factors of resilience."

主観的幸福感尺度とは、心理的健康の尺度の一種であり、例えばWHOが作成した主観的健康感尺度(SUBI)の「人生に対する前向きの気持ち」、「達成感」、「自信」、「至福感」、「人生に対する失望感」の5領域(各3項目)の尺度が含まれる。 The subjective well-being scale is a type of measure of psychological health, and includes, for example, the five domains (three items each) of "Positive attitude toward life," "Sense of accomplishment," "Self-confidence," "Sense of bliss," and "Sense of disappointment toward life" in the Subjective Well-Being Scale (SUBI) created by the WHO.

ストレス耐性とは、心理社会的ストレスに対するストレス耐性であり、例えば桂戴作氏らが作成した「ストレス耐性チェックリスト」によるストレス耐性度が含まれる。 Stress tolerance refers to stress tolerance against psychosocial stress, and includes, for example, the level of stress tolerance measured using the "Stress Tolerance Checklist" created by Katsura Taisaku and others.

当該知見を応用した、本実施形態におけるユーザー状態分析方法の構成、作用、効果は以下の通りである。 The configuration, action, and effects of the user status analysis method in this embodiment, which applies this knowledge, are as follows:

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions about the user's facial condition preferably include a question about the degree to which the user's eyes are open compared to their normal state.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions about the user's facial condition preferably include a question about the density of dark circles around the user's eyes compared to the user's normal condition.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
Preferably, the questions regarding the user's facial condition include questions regarding the user's acne or pimple condition compared to their normal condition.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions about the user's facial condition preferably include a question about the degree to which the corners of the mouth are raised or lowered compared to the user's normal state.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions regarding the user's facial condition preferably include a question regarding the moisturizing condition of the user's lips compared to their normal condition.

本発明によれば、ユーザーの感情又は疲労状態に密接な関連を有し、かつ自身の顔の画像を見て自ら簡単に判断することのできる、ユーザーの通常の状態に比した「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」及び/又は「唇の潤いの状態」という具体的な顔の状態の情報が取得されるので、ユーザーの感情又は疲労状態を精度よくかつ簡便に分析できる。 According to the present invention, specific facial condition information such as "eye opening degree," "dark circles around the eyes," "condition of acne or pimples," "degree of turning up or down of the corners of the mouth," and/or "moisturizing state of lips" compared to the user's normal condition is obtained, which is closely related to the user's emotions or fatigue state and can be easily judged by the user by looking at an image of his or her own face, so that the user's emotions or fatigue state can be analyzed accurately and easily.

また、ユーザーは自身の感情又は疲労状態を知るためには、自分の顔のどの部分の状態を見ればよいかが分かる。そのため、日常生活においてもこれらの顔の部分を気にかけるようになるので、自身の顔に現れている感情又は疲労状態の自覚がより効果的に促される。 In addition, users will know which parts of their face to look at in order to understand their own emotions or state of fatigue. This will encourage them to pay more attention to these parts of their face in their daily lives, and will more effectively encourage them to become aware of the emotions or state of fatigue that are reflected in their own face.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user condition analysis method of the present invention,
The step of capturing an image of the user's face is performed before or after the step of receiving the input,
The image analyzing step is preferably a step of analyzing an image of the user's face captured before or after the input receiving step.

顔の状態についての質問に対する回答の入力操作をユーザーが行っている間に、ユーザーの顔の画像を撮像すると、ユーザーは顔の画像の撮像に集中しておらず手ぶれなどが生じるので、例えば手ぶれを補正する機能を有する装置で撮像を行わないと、撮像位置などがずれてしまい、結果として画像の分析の精度を保つことが難しくなる可能性がある。 If an image of a user's face is captured while the user is entering answers to questions about the condition of their face, the user may not be concentrating on capturing an image of their face, resulting in camera shake. For example, if the image is not captured using a device with a function to correct camera shake, the image capture position may shift, and as a result, it may be difficult to maintain the accuracy of the image analysis.

そのため、ユーザーが顔の画像の撮像に集中できる状態でユーザーの顔の画像を撮像できればなおよい。 Therefore, it would be even better if an image of the user's face could be captured in a state where the user can concentrate on capturing an image of the face.

本発明によれば、ユーザーの顔の画像を撮像するステップは、入力受付ステップの前又は後に実行される。そのため、ユーザーに顔の画像の撮像に集中させた状態で顔画像を取得できるので、撮像位置などがずれる可能性を軽減でき、画像分析の精度を保つことができる。 According to the present invention, the step of capturing an image of the user's face is executed before or after the input receiving step. Therefore, the facial image can be acquired while the user is concentrating on capturing an image of the face, which reduces the possibility of the capturing position being shifted and maintains the accuracy of the image analysis.

本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user condition analysis method of the present invention,
the step of capturing an image of the face of the user is executed during the execution of the input receiving step;
The image analysis step is preferably a step of analyzing an image of the face of the user captured during execution of the input reception step.

あるいは、本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことが好ましい。
Alternatively, in the user condition analysis method of the present invention,
The step of capturing an image of the face of the user is performed before or during the step of receiving the input,
The image analysis step is preferably performed during execution of the input reception step.

顔の状態についての質問に対する回答の入力と、分析に必要な顔の画像の撮像には、一定の時間を要することが考えられるが、そのような操作に要する時間が長いと、ユーザーは煩わしく感じて、ユーザーの感情又は疲労状態に及ぼしてしまうことが考えられる。あるいはその煩わしさのために操作をやめてしまい、結果としてユーザーの感情又は疲労状態をユーザー自身に自覚させることができないおそれがある。 It is expected that it will take a certain amount of time to input answers to questions about the condition of the face and to capture the facial image required for analysis. If such operations take a long time, the user may find them irritating, which may affect the user's emotions or state of fatigue. Or, the user may stop operating the device due to the irritation, and as a result, the user may not be able to become aware of his or her own emotions or state of fatigue.

本発明によれば、ユーザーの顔の画像を撮像するステップ又は画像分析ステップは、入力受付ステップの実行中に実行されるため、操作等に要する時間がその分短縮されるので効率的であり、ユーザーに煩わしさを感じさせてしまう可能性を低減できる。 According to the present invention, the step of capturing an image of the user's face or the image analysis step is executed during the execution of the input reception step, so the time required for operations, etc. is accordingly shortened, making it more efficient and reducing the possibility of causing annoyance to the user.

本発明のユーザー状態分析システムは、
前記ユーザーの顔の画像を撮像する撮像部と、
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
The user condition analysis system of the present invention comprises:
An imaging unit that captures an image of the user's face;
A display unit for displaying information;
An imaging control unit that causes the imaging unit to capture an image of the user's face;
a display control unit that displays on the display unit an image of the user's face captured by the imaging unit, and displays on the display unit a question about a facial condition that is correlated with an emotion or fatigue state appearing on the user's face displayed on the display unit;
an input unit arranged at a position where the user can perform an operation while viewing the image of the user's face displayed on the display unit and the question;
an input receiving unit that receives an input of an answer to the question by the user via the input unit while the image of the face is displayed on the display unit;
an answer analysis unit that analyzes the answer by the user to the question received by the input receiving unit;
The present invention is characterized by comprising a user state information generation unit that generates user state information indicating a user state, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.

あるいは本発明のユーザー状態分析システムは、
前記ユーザーの顔を映す鏡部と、
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
Alternatively, the user condition analysis system of the present invention comprises:
A mirror unit that reflects the face of the user;
a display unit that is disposed in a position where the user can see the face of the user reflected in the mirror unit at the same time and that displays information;
a display control unit that displays on the display unit a question about a facial condition that is correlated with an emotion or a fatigue state appearing on the face of the user reflected in the mirror unit;
an input unit arranged at a position where the user can perform an operation while looking at the face of the user reflected in the mirror unit and the question displayed on the display unit;
an input receiving unit that receives, via the input unit, an input of a response from the user to a question about the state of the user's face while showing an image of the user's face reflected in the mirror unit;
a response analysis unit that analyzes responses by the user to questions about the facial condition of the user that are received by the input receiving unit;
The present invention is characterized by comprising a user state information generation unit that generates user state information indicating a user state, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.

本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers questions about the condition of his/her face while looking at his/her own face, making it easy for him/her to answer. In addition, since the user has the opportunity to calmly reflect on the condition of his/her own face, he/she is encouraged to become aware of the facial condition that is closely related to emotions or fatigue state, and the possibility of being able to answer questions about his/her own facial condition accurately is increased.

これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This allows for accurate generation of user state information that indicates the user state, which is either or both of the user's emotions and fatigue state.

本発明のユーザー状態分析システムの全体像を示すブロック図。1 is a block diagram showing an overall picture of a user condition analysis system according to the present invention; 本発明のユーザー状態分析方法の処理内容を示すフローチャート。4 is a flowchart showing the process of a user state analysis method according to the present invention. 本発明のユーザー状態分析方法の表示内容を示す図。11A and 11B are diagrams showing display contents of a user state analysis method according to the present invention. 本発明のユーザー状態分析方法の表示内容を示す図。11A and 11B are diagrams showing display contents of a user state analysis method according to the present invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。4 is a flowchart showing the process of a user state analysis method according to the present invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。4 is a flowchart showing the process of a user state analysis method according to the present invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。4 is a flowchart showing the process of a user state analysis method according to the present invention. 本発明のユーザー状態分析方法の処理内容を示すフローチャート。4 is a flowchart showing the process of a user state analysis method according to the present invention. 本発明のユーザー状態分析方法が提供するソリューションの例を示す図。FIG. 2 is a diagram showing an example of a solution provided by the user status analysis method of the present invention. 本発明のユーザー状態分析方法が提供するソリューションの例を示す図。FIG. 2 is a diagram showing an example of a solution provided by the user status analysis method of the present invention. 本発明のユーザー状態分析方法の表示内容を示す図。11A and 11B are diagrams showing display contents of a user state analysis method according to the present invention.

<ユーザー状態分析システムの構成>
まず図1を用いて、本実施形態のユーザー状態分析方法に用いられる、ユーザー状態分析システムの構成について説明する。なお同一の構成については、同一の符号を付して説明を省略することがある。
<Configuration of user status analysis system>
First, the configuration of a user state analysis system used in the user state analysis method of the present embodiment will be described with reference to Fig. 1. Note that the same components will be given the same reference numerals and the description thereof will be omitted.

本実施形態のユーザー状態分析システムは、例えば携帯端末10と、サーバー30とを含んで構成される、コンピューターネットワークシステムである。 The user status analysis system of this embodiment is a computer network system including, for example, a mobile terminal 10 and a server 30.

携帯端末10とサーバー30との間は、携帯電話網などの通信ネットワーク90により相互に通信可能に接続される。なお携帯端末10とサーバー30は、いずれも複数であってよい。 The mobile terminal 10 and the server 30 are connected to each other so that they can communicate with each other via a communication network 90 such as a mobile phone network. Note that there may be multiple mobile terminals 10 and multiple servers 30.

携帯端末10は、例えば撮像部110と、表示部130と、携帯端末制御部150と、振動発生部170と、音声再生部190と、入力部210と、を含んで構成される。本実施形態において携帯端末10はスマートフォンであるが、例えばタブレット端末等の汎用的な端末であってもよく、ユーザーが携帯可能な専用端末であってよい。 The mobile terminal 10 includes, for example, an imaging unit 110, a display unit 130, a mobile terminal control unit 150, a vibration generating unit 170, an audio playback unit 190, and an input unit 210. In this embodiment, the mobile terminal 10 is a smartphone, but it may be a general-purpose terminal such as a tablet terminal, or it may be a dedicated terminal that can be carried by the user.

撮像部110は、ユーザーの顔の画像を撮像するカメラである。本実施形態においては、携帯端末10はスマートフォンであるので、インカメラ及びアウトカメラの両方が撮像部110に該当する。 The imaging unit 110 is a camera that captures an image of the user's face. In this embodiment, since the mobile terminal 10 is a smartphone, both the in-camera and the out-camera correspond to the imaging unit 110.

表示部130は、ユーザーに向けて情報を表示するディスプレイである。 The display unit 130 is a display that displays information to the user.

携帯端末制御部150は、CPU(Central Processing Unit)等の演算処理装置、メモリ、及びI/O(Input/Output)デバイスなどにより構成されている。携帯端末制御部150は、所定のプログラムを読み込んで実行することにより例えば撮像制御部151、表示制御部153、入力受付部155として機能し、あるいはさらに、画像分析部157、ソリューション提供部159、モード指定受付部161として機能する。 The mobile device control unit 150 is composed of an arithmetic processing unit such as a CPU (Central Processing Unit), a memory, and an I/O (Input/Output) device. By reading and executing a specific program, the mobile device control unit 150 functions, for example, as an imaging control unit 151, a display control unit 153, and an input reception unit 155, or further functions as an image analysis unit 157, a solution provision unit 159, and a mode designation reception unit 161.

撮像制御部151は、撮像部110に、ユーザーUの顔又は手指の肌の画像を撮像させる。 The imaging control unit 151 causes the imaging unit 110 to capture an image of the face or skin of the fingers of the user U.

表示制御部153は、撮像部110により撮像されたユーザーUの顔の画像を表示部130に表示すると共に、表示部130に表示されたユーザーUの顔の状態についての質問を表示部130に表示する。なお当該質問は、表示部130に表示されたユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問である。 The display control unit 153 displays on the display unit 130 an image of the face of the user U captured by the imaging unit 110, and also displays on the display unit 130 a question about the state of the face of the user U displayed on the display unit 130. Note that the question is a question about the state of the face that has a correlation with the emotion or state of fatigue appearing on the face of the user U displayed on the display unit 130.

入力受付部155は、入力部210を介してユーザーUの顔の状態についての質問に対するユーザーによる回答の入力を顔の画像を表示部130に表示させた状態で受け付ける。 The input receiving unit 155 receives input of a user's response to a question about the condition of the user U's face via the input unit 210 while displaying an image of the face on the display unit 130.

画像分析部157は、撮像部110により撮像されたユーザーUの顔又は手指の肌の画像を分析する。 The image analysis unit 157 analyzes the image of the face or skin of the fingers of the user U captured by the imaging unit 110.

ソリューション提供部159は、ソリューション決定部335により決定されたソリューションをユーザーUに提供する。 The solution providing unit 159 provides the solution determined by the solution determining unit 335 to the user U.

モード指定受付部161は、ユーザーUによる、ユーザー状態分析システムの動作モードの指定を受け付ける。 The mode designation receiving unit 161 accepts the designation of the operating mode of the user state analysis system by the user U.

振動発生部170は、ソリューションに含まれる、所定の時間継続する周期的な振動であって、振動の開始時から終了時にかけて段階的に周期が変動する振動をユーザーUに提供する例えばバイブレーターである。 The vibration generating unit 170 is, for example, a vibrator that provides the user U with periodic vibrations that continue for a predetermined period of time and that are included in the solution, and whose period varies in stages from the start to the end of the vibration.

音声再生部190は、ソリューションに含まれる、ユーザー状態を改善するための人の声、自然音又は音楽を含む、所定の時間継続する音声をユーザーUに提供する例えばスピーカーである。 The audio playback unit 190 is, for example, a speaker that provides the user U with audio, including human voices, natural sounds, or music, that continues for a predetermined period of time and is included in the solution to improve the user's condition.

入力部210は、ユーザーによる入力を受け付ける例えばタッチパネル、キーボード又はマウスその他のポインティングデバイスである。 The input unit 210 is, for example, a touch panel, a keyboard, a mouse, or other pointing device that accepts input from a user.

なお、携帯端末10がスマートフォン、タブレットであれば入力部210は、通常タッチパネルであるので、表示部130に表示される顔の画像、顔の状態のついての質問を見ながら、ユーザーが当該質問に対する回答を入力できるが、その他の機器により構成される場合においても、表示部130と入力部210とは、顔の映像と顔の状態のついての質問を見ながら回答を入力できる位置関係に配置される。 If the mobile terminal 10 is a smartphone or tablet, the input unit 210 is usually a touch panel, so the user can input answers to questions while looking at the image of the face and questions about the face condition displayed on the display unit 130. However, even if the mobile terminal 10 is configured with other devices, the display unit 130 and the input unit 210 are positioned so that the user can input answers while looking at the image of the face and questions about the face condition.

サーバー30は、サーバー記憶部310と、サーバー制御部330と、を含んで構成される、例えばコンピューターである。サーバー30は、複数であっても単数であってもよい。 The server 30 is, for example, a computer that includes a server storage unit 310 and a server control unit 330. There may be multiple servers 30 or there may be a single server 30.

サーバー記憶部310は、例えばROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。サーバー記憶部310が、本実施形態における記憶部として機能する。 The server storage unit 310 is composed of a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), or a HDD (Hard Disk Drive). The server storage unit 310 functions as the storage unit in this embodiment.

サーバー記憶部310は、例えばユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションの情報を記憶しているほか、ユーザー状態分析システムの処理結果、ユーザー状態分析システムの処理に必要な情報を記憶している。 The server storage unit 310 stores information on multiple solutions that can be provided to the user to improve the user's condition, for example, one or both of the user's emotions and fatigue state, and also stores the processing results of the user condition analysis system and information necessary for the processing of the user condition analysis system.

サーバー制御部330は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。サーバー制御部330は、所定のプログラムを読み込んで実行することにより例えば回答分析部331、ユーザー状態情報生成部333として機能し、あるいはさらに、ソリューション決定部335、心拍取得部337、状態判定部339として機能する。 The server control unit 330 is composed of a processor such as a CPU, a memory, an I/O device, and the like. By loading and executing a specific program, the server control unit 330 functions, for example, as a response analysis unit 331 and a user state information generation unit 333, and further functions as a solution determination unit 335, a heart rate acquisition unit 337, and a state determination unit 339.

回答分析部331は、入力受付部155により受け付けられた、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する。 The answer analysis unit 331 analyzes answers given by user U to questions about the condition of user U's face that are received by the input receiving unit 155.

ユーザー状態情報生成部333は、回答分析部331及び画像分析部157による分析結果に基づいて、ユーザーUのユーザー状態を示すユーザー状態情報を生成する。 The user status information generation unit 333 generates user status information indicating the user status of the user U based on the analysis results by the response analysis unit 331 and the image analysis unit 157.

ソリューション決定部335は、複数のソリューションからユーザー状態情報に応じたソリューションを決定する。 The solution determination unit 335 determines a solution from multiple solutions according to the user state information.

心拍取得部337は、画像分析部157によるユーザーUの顔又は手指の肌の画像の分析結果からユーザーUの心拍に関する情報である、例えばユーザーUの心拍数を取得する。 The heart rate acquisition unit 337 acquires information about the heart rate of the user U, for example, the heart rate of the user U, from the analysis results of the image of the face or skin of the fingers of the user U by the image analysis unit 157.

状態判定部339は、ユーザー状態情報に基づいてユーザーUが、ユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する。 The state determination unit 339 determines, based on the user state information, whether the user U is in a first state in which a passive solution, which is a passive stimulation to the user U's sense of touch or hearing, should be provided, or in a second state in which an active solution that prompts the user U to perform a specified action should be provided.

<処理の概要>
次に、図2~図11を参照して本実施形態のユーザー状態分析方法による一連の工程について説明する。
<Processing Overview>
Next, a series of steps according to the user state analysis method of this embodiment will be described with reference to FIGS.

<モード指定受付ステップ>
一連の処理を始めると、まずモード指定受付部161は、ユーザーUによる、動作モードの指定を受け付けるモード指定受付ステップを実行する(図2/S10)。
<Mode designation acceptance step>
When the series of processes is started, first, the mode designation receiving unit 161 executes a mode designation receiving step of receiving an operation mode designated by the user U (FIG. 2/S10).

モード指定受付部161は例えば、ユーザーUに動作モードの入力を促す画面を、表示部130に表示する。 The mode designation receiving unit 161, for example, displays a screen on the display unit 130 that prompts the user U to input an operation mode.

図3は、ユーザーUに動作モードの入力を促す画面の一例である。図3では、顔モードに該当する「Midnight Blue」を指定するためのアイコンM1と、第1指モードに該当する「Red」を指定するためのアイコンM21、第2指モードに該当する「Blue」を指定するためのアイコンM22、第3指モードに該当する「Green」を指定するためのアイコンM23が表示されている。 Figure 3 is an example of a screen that prompts the user U to input an operation mode. In Figure 3, an icon M1 for specifying "Midnight Blue" corresponding to the face mode, an icon M21 for specifying "Red" corresponding to the first finger mode, an icon M22 for specifying "Blue" corresponding to the second finger mode, and an icon M23 for specifying "Green" corresponding to the third finger mode are displayed.

いずれかのアイコンをユーザーUがタップすると、モード指定受付部161は対応するモードの指定を受け付けて本ステップを終了する。 When user U taps any of the icons, the mode designation receiving unit 161 accepts the designation of the corresponding mode and ends this step.

なお本実施形態においては、第1指モードはユーザーUを覚醒した状態に誘導するためのモードであり、第2指モードはユーザーUをリラックスした状態に誘導するためのモードであり、第3指モードはユーザーUを冷静な状態に誘導するためのモードである。 In this embodiment, the first finger mode is a mode for guiding the user U to an alert state, the second finger mode is a mode for guiding the user U to a relaxed state, and the third finger mode is a mode for guiding the user U to a calm state.

また同画面には「History」のアイコンH1も表示されている。ユーザーUが当該アイコンをタップする操作をすると、当該操作に応じて表示制御部153はサーバー記憶部310に記憶されているユーザー状態情報を取得して、表示部130に表示させる。 The screen also displays a "History" icon H1. When the user U taps on the icon, the display control unit 153 retrieves the user status information stored in the server storage unit 310 in response to the tap and displays it on the display unit 130.

<第1撮像ステップ>
動作モードとして顔モードが指定された場合には(図2/S20:顔モード)、撮像制御部151は、撮像部110に、ユーザーUの顔の画像を撮像させる第1撮像ステップを実行する。
<First imaging step>
When the face mode is designated as the operation mode (FIG. 2/S20: face mode), the imaging control unit 151 executes a first imaging step in which the imaging unit 110 captures an image of the user U's face.

このとき撮像制御部151は例えば、撮像部110であるインカメラを介して、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像を開始する。あるいはこのとき撮像制御部151は、例えば顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の静止画を1枚撮像してもよい。 At this time, the imaging control unit 151 starts capturing an image of the face of the user U via the in-camera, which is the imaging unit 110, for example, to be displayed on the display unit 130 in the face image/question display step. Alternatively, the imaging control unit 151 may capture a single still image of the face of the user U to be displayed on the display unit 130 in the face image/question display step.

一方、動作モードとして指モードに該当するモードが指定された場合には(図2/S20:指モード)、図2/S30~S70の処理は実行されず、図2/S90以降の処理が実行される。 On the other hand, if a mode corresponding to finger mode is specified as the operation mode (FIG. 2/S20: finger mode), the processes in FIG. 2/S30 to S70 are not executed, and the processes in FIG. 2/S90 and after are executed.

<顔画像・質問表示ステップ>
次に表示制御部153は、ユーザーUの顔の映像を見せると共に、ユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示する顔画像・質問表示ステップを実行する(図2/S50)。
<Face image and question display step>
Next, the display control unit 153 executes a face image/question display step in which an image of the user U's face is shown and a question about the facial condition that is correlated with the emotion or fatigue state appearing on the user U's face is displayed (Figure 2/S50).

図4は、顔画像・質問表示ステップにおいて表示される画面の一例である。表示制御部153は例えば図4に示すように、撮像されたユーザーUの顔の画像Fと、顔の状態についての1問目の質問である「目の開き具合はいつもと比べて」の表示Q1と、回答ボタンA1を表示部130に表示する。 Figure 4 is an example of a screen displayed in the face image/question display step. For example, as shown in Figure 4, the display control unit 153 displays an image F of the captured face of the user U, a display Q1 of the first question about the face condition, "Are your eyes open compared to usual?", and an answer button A1 on the display unit 130.

表示制御部153は例えば図4に示すように、回答ボタンA1中の、「開いている」から「閉じている」までの5段階評価の何れかをタップして顔の状態を回答するように促す画面を表示する。 For example, as shown in FIG. 4, the display control unit 153 displays a screen that prompts the user to answer the facial condition by tapping one of the five-level evaluations from "open" to "closed" in the answer button A1.

<入力受付ステップ>
入力受付部155は例えば、表示制御部153が上記のように1問目の質問を表示したときに、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を、顔の映像をユーザーUに見せている状態で受け付ける入力受付ステップを開始する(図2/S70)。
<Input reception step>
For example, when the display control unit 153 displays the first question as described above, the input receiving unit 155 initiates an input receiving step in which the input of a response from the user U to a question about the condition of the user U's face is received while an image of the face is shown to the user U (Figure 2/S70).

回答ボタンA1の5段階評価のいずれかの部位をユーザーUがタップすると、入力受付部155は該当する評価値を質問への回答の入力として受け付ける。 When user U taps any part of the answer button A1 that indicates the five-point scale, the input receiving unit 155 receives the corresponding evaluation value as an input of an answer to the question.

なお、図2/S50及びS70の処理は、最後の質問への回答が入力される(図2/S80:Yes)まで繰り返し実行される。 The processes in FIG. 2/S50 and S70 are repeated until an answer to the last question is entered (FIG. 2/S80: Yes).

すなわち例えば、表示制御部153はユーザーの顔の状態についての2~5問目の質問として、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問、ニキビ又は吹き出物の状態に関する質問、口角の上がり具合又は下がり具合に関する質問、唇の潤いの状態に関する質問を順に表示して、入力受付部155はこれらの各質問へのユーザーUによる回答の入力を受け付ける。 That is, for example, the display control unit 153 displays, as questions 2 to 5 about the user's facial condition, a question about the darkness of dark circles around the eyes, a question about the condition of acne or pimples, a question about the degree to which the corners of the mouth are raised or lowered, and a question about the moisturization of the lips, in that order, in comparison with the user's usual condition, and the input receiving unit 155 receives input of answers by the user U to each of these questions.

そして入力受付部155は例えば、このようにして受け付けた、各質問へのユーザーUによる回答の情報をサーバー30に送信して入力受付ステップを終了する。 Then, the input reception unit 155, for example, transmits the information of the answers given by the user U to each question received in this manner to the server 30, and ends the input reception step.

<第2撮像ステップ>
その後、撮像制御部151は、画像分析ステップで分析を行うためのユーザーUの顔又は手指の肌の画像を撮像する第2撮像ステップを実行する。
<Second imaging step>
Thereafter, the imaging control unit 151 executes a second imaging step of capturing an image of the face or skin of the fingers of the user U for analysis in the image analysis step.

なおこのとき撮像制御部151は、顔モードが指定されている場合(図5/S91:顔モード)には、撮像部110であるインカメラを介して、ユーザーUの顔の画像を撮像して(図5/S93)第2撮像ステップを終了する。 At this time, if face mode is specified (FIG. 5/S91: face mode), the imaging control unit 151 captures an image of the face of the user U via the in-camera, which is the imaging unit 110 (FIG. 5/S93), and ends the second imaging step.

一方、指モードが指定されている場合(図5/S91:指モード)に撮像制御部151は、撮像部110であるアウトカメラを介して、ユーザーUの手指の肌の画像を撮像して(図5/S95)第2撮像ステップを終了する。 On the other hand, if finger mode is specified (Fig. 5/S91: finger mode), the imaging control unit 151 captures an image of the skin of the user U's fingers via the outer camera, which is the imaging unit 110 (Fig. 5/S95), and ends the second imaging step.

なおこのとき表示制御部153は例えば、ユーザーUの顔又は手指の位置を正しい位置に誘導するための枠を表示部130に表示して、撮像制御部151はユーザーUの顔又は手指が正しい位置にあることを認識したときに、撮像部110を介してユーザーUの顔又は手指の肌の動画を所定の時間(例えば30秒など。)撮像する。 At this time, the display control unit 153, for example, displays a frame on the display unit 130 to guide the position of the user U's face or fingers to the correct position, and when the imaging control unit 151 recognizes that the user U's face or fingers are in the correct position, it captures a video of the user U's face or the skin of the fingers via the imaging unit 110 for a predetermined period of time (e.g., 30 seconds).

また、撮像制御部151は例えば、当該動画の撮像中にユーザーUの顔又は手指が正しい位置からずれた場合には動画の撮像を停止し、表示制御部153はユーザーUの顔又は手指の位置を正しい位置に戻すように促すメッセージを表示部130に表示する。そして撮像制御部151は、ユーザーUの顔又は手指が正しい位置に戻ったことを認識したときに、ユーザーUの顔又は手指の肌の動画の撮像を再開する。あるいは撮像制御部151が撮像する画像は、連続的に撮像した複数の静止画であってもよい。 For example, if the face or fingers of user U deviate from the correct position during capture of the video, the imaging control unit 151 stops capturing the video, and the display control unit 153 displays a message on the display unit 130 urging the user U to return the position of the face or fingers to the correct position. Then, when the imaging control unit 151 recognizes that the face or fingers of user U have returned to the correct position, it resumes capturing the video of the skin of the face or fingers of user U. Alternatively, the images captured by the imaging control unit 151 may be multiple still images captured continuously.

<画像分析ステップ>
その後、画像分析部157は、撮像されたユーザーUの顔又は手指の肌の画像を分析する画像分析ステップを実行する(図2/S110)。
<Image analysis step>
Thereafter, the image analysis unit 157 executes an image analysis step of analyzing the captured image of the face or skin of the fingers of the user U (FIG. 2/S110).

すなわち画像分析部157は、顔モードが指定されている場合(図6/S111:顔モード)には、第2撮像ステップで撮像されたユーザーUの顔の画像を分析し(図6/S113)、指モードが指定されている場合(図6/S111:指モード)には、第2撮像ステップで撮像されたユーザーUの手指の画像を分析する(図6/S115)。 That is, if face mode is specified (Fig. 6/S111: face mode), the image analysis unit 157 analyzes the image of user U's face captured in the second imaging step (Fig. 6/S113), and if finger mode is specified (Fig. 6/S111: finger mode), the image analysis unit 157 analyzes the image of user U's fingers captured in the second imaging step (Fig. 6/S115).

より具体的には、画像分析部157は例えば、肌の画像である動画又は連続的に撮像した静止画から、RGBの各色成分の輝度の変化の情報を取得する。 More specifically, the image analysis unit 157 acquires information on the change in luminance of each of the RGB color components from, for example, a moving image or continuously captured still images that are images of skin.

そして画像分析部157は例えば、このようにして取得した、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報をサーバー30に送信して画像分析ステップを終了する。 Then, the image analysis unit 157 transmits, for example, information on the changes in luminance of each RGB color component based on the image of the user U's face obtained in this manner to the server 30, and ends the image analysis step.

<回答分析ステップ>
回答分析部331は例えば、携帯端末10から各質問へのユーザーUによる回答の情報及びRGBの各色成分の輝度の変化の情報を受信した際に、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する回答分析ステップを実行する。
<Response analysis step>
For example, when the answer analysis unit 331 receives information on user U's answers to each question and information on changes in brightness of each RGB color component from the mobile terminal 10, it executes an answer analysis step of analyzing user U's answers to questions about the condition of user U's face.

より具体的には回答分析部331は例えば、入力受付ステップで受け付けられたユーザーUの顔の状態についての質問に対するユーザーUによる回答について、当該回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定する。 More specifically, for example, the answer analysis unit 331 determines an analysis result of one or both of the emotion and fatigue state shown on the face of the user U by using a first correlation information indicating a correlation between the answer by the user U to a question about the facial condition of the user U received in the input receiving step and the emotion or fatigue state shown on the face of the user U.

回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報としては、種々の情報が用いられてよい。本実施形態において回答分析部331は例えば下記の式を第1相関関係情報として用いて、ユーザーUの顔に出ている疲れの兆候を「元気」(=10)から「疲れた」(=0)までの範囲で疲れの兆候スコアとして指標化して、当該スコアを回答の分析結果として決定する。 Various information may be used as the first correlation information indicating the correlation between the answer and the emotion or fatigue state shown on the face of the user U. In this embodiment, the answer analysis unit 331 uses, for example, the following formula as the first correlation information to index the signs of fatigue shown on the face of the user U as a fatigue sign score in the range from "energetic" (=10) to "tired" (=0), and determines the score as the analysis result of the answer.

F=p1+p2+p3+p4+p5
ただし、Fは顔に現れている感情又は疲労状態を指標化した値(疲れの兆候スコア)であって、その最大値は10、最小値は0である。すなわち例えばp1~p5を足し合わせた値が10を超える場合には10とし、0を下回る場合は0となる。
F = p1 + p2 + p3 + p4 + p5
Here, F is a value (fatigue sign score) that indexes the emotion or fatigue state shown on the face, and its maximum value is 10 and its minimum value is 0. That is, for example, if the sum of p1 to p5 exceeds 10, it is set to 10, and if it is below 0, it is set to 0.

p1は、ユーザーUの通常の状態に比した目の開き具合を、「開いている」(=5点)から「閉じている」(=1点)までの1点刻みの5段階で評価した値である。 p1 is a value that evaluates the degree to which user U's eyes are open compared to their normal state, on a 5-point scale ranging from "open" (= 5 points) to "closed" (= 1 point) in 1-point increments.

p2は、ユーザーUの通常の状態に比した目の周りのクマの濃さを、「薄くなっている」(=1点)から「濃くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p2 is a value that evaluates the darkness of the dark circles around the user U's eyes compared to their normal state on a five-point scale in 0.5 point increments ranging from "lighter" (= 1 point) to "darker" (= -1 point).

p3は、ユーザーUの通常の状態に比したニキビ又は吹き出物の状態を、「良くなっている」(=1点)から「悪くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p3 is a value that evaluates the condition of user U's acne or pimples compared to their normal condition on a 5-point scale ranging from "better" (= 1 point) to "worse" (= -1 point) in 0.5 point increments.

p4は、ユーザーUの通常の状態に比した口角の上がり具合又は下がり具合を、「上がっている」(=5点)から「下がっている」(=1点)までの1点刻みの5段階で評価した値である。 p4 is a value that evaluates the degree to which the corners of the user U's mouth are raised or lowered compared to their normal state, on a 5-point scale ranging from "raised" (= 5 points) to "lowered" (= 1 point) in 1-point increments.

p5は、ユーザーUの通常の状態に比した唇の潤いの状態を、「プルプルしている」(=1点)から「かさかさしている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p5 is a value that evaluates the moisturization of user U's lips compared to their normal state on a 5-point scale ranging from "soft" (= 1 point) to "dry" (= -1 point) in 0.5 point increments.

<ユーザー状態情報生成ステップ>
その後、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の分析結果及び顔の画像の分析結果に基づいて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップが実行される(図2/S150)。
<User status information generation step>
Then, a user status information generation step is executed to generate user status information indicating the user status including one or both of the emotions and fatigue state appearing on the user U's face based on the analysis results of the answers by the user U to the questions about the condition of the user U's face and the analysis results of the facial image (Figure 2/S150).

より具体的には、ユーザー状態情報生成ステップにおいては、まず心拍取得部337が画像分析ステップにて送信された、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍数を取得する(図7/S151)。 More specifically, in the user condition information generation step, the heart rate acquisition unit 337 first acquires the heart rate of the user U as information related to the user U's heart rate from the information on the changes in luminance of each RGB color component based on the image of the user U's face transmitted in the image analysis step (Fig. 7/S151).

さらに心拍取得部337は、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍の揺らぎに関する情報を取得する(図7/S153)。心拍の揺らぎは、ユーザーUの疲労状態と密接に関連しているためである。 Furthermore, the heart rate acquisition unit 337 acquires information about the fluctuations in the heart rate of the user U as information about the heart rate of the user U from information about changes in luminance of each RGB color component based on the image of the user U's face (FIG. 7/S153). This is because the fluctuations in the heart rate are closely related to the fatigue state of the user U.

心拍の揺らぎに関する情報とは、例えばCVR-R又は、心拍の変動を周波数解析して得られる、心拍の変動の低周波成分であるLF(Low Frequency)の総パワーと高周波成分であるHF(High Frequency)の総パワーとの合計であるトータルパワー値である。 The information relating to heart rate fluctuations is, for example, the total power value obtained by CVR-R or frequency analysis of heart rate fluctuations, which is the sum of the total power of LF (Low Frequency) which is the low frequency component of heart rate fluctuations, and the total power of HF (High Frequency) which is the high frequency component.

そしてユーザー状態情報生成部333は、ユーザーの心拍に関する情報である心拍数について、心拍に関する情報とユーザーUの自律神経バランスとの相関関係を示す第2相関関係情報、を用いて、ユーザーUの自律神経バランスに関する情報を取得する(図7/S153)。 Then, the user condition information generating unit 333 obtains information regarding the autonomic nerve balance of the user U using the second correlation information indicating the correlation between the information regarding the heart rate, which is information regarding the user's heart rate, and the autonomic nerve balance of the user U (Figure 7/S153).

なお自律神経バランスに関する情報とは例えば、心拍の変動を周波数解析して得られる、LFとHFとの比(LF/HF)である。 The information regarding autonomic nerve balance is, for example, the ratio of LF to HF (LF/HF) obtained by frequency analysis of heart rate fluctuations.

そしてユーザー状態情報生成部333は、ユーザーUの顔の状態に関する質問への回答の分析結果、顔の画像の分析結果及び自律神経バランスに関する情報に基づいて、ユーザーUのユーザー状態に関する総合スコアを決定する(図7/S155)。 The user condition information generation unit 333 then determines an overall score for user U's user condition based on the analysis results of the answers to the questions about user U's facial condition, the analysis results of the facial image, and information about autonomic nerve balance (Figure 7/S155).

より具体的にはユーザー状態情報生成部333は、自律神経バランスに関する情報を1~10の間の点数で指標化した自律神経バランススコアを決定する。例えば交感神経が優位であるほど当該点数は1に近づき、副交感神経が優位であるほど当該点数は10に近づくように決定される。 More specifically, the user state information generating unit 333 determines an autonomic nerve balance score by converting information related to autonomic nerve balance into an index using a score between 1 and 10. For example, the more the sympathetic nerve is dominant, the closer the score is to 1, and the more the parasympathetic nerve is dominant, the closer the score is to 10.

またユーザー状態情報生成部333は、例えば心拍の揺らぎに関する情報として取得したCVR-R(又はトータルパワー値)を1~10の間の点数で指標化した、心拍に基づく疲労度スコアを決定する。例えば心拍の揺らぎの度合が高いほど当該点数は1に近づき、心拍の揺らぎの度合が低いほど当該点数は10に近づくように決定される。 The user state information generating unit 333 also determines a fatigue score based on the heart rate, for example by indexing the CVR-R (or total power value) acquired as information related to heart rate fluctuation with a score between 1 and 10. For example, the score is determined so that the higher the degree of heart rate fluctuation, the closer the score is to 1, and the lower the degree of heart rate fluctuation, the closer the score is to 10.

そしてユーザー状態情報生成部333は、自律神経バランススコア、心拍に基づく疲労度スコアの2つの値に、回答分析ステップにて決定されたユーザーUの顔に出ている疲れの兆候を数値化した疲れの兆候スコアを加えた3つの値の平均値を、ユーザーの感情又は疲労状態を指標化した、総合スコアとして決定する。 The user state information generating unit 333 then determines the average of these three values, the autonomic nerve balance score, the fatigue score based on heart rate, and the fatigue sign score that quantifies the signs of fatigue displayed on the face of user U determined in the response analysis step, as a total score that indexes the user's emotions or fatigue state.

そしてユーザー状態情報生成部333は、ユーザー状態情報を生成して(図7/S157)、ユーザー状態情報生成ステップを終了する。 Then, the user status information generation unit 333 generates user status information (Figure 7/S157) and ends the user status information generation step.

より具体的にはユーザー状態情報生成部333は、ユーザーUの顔に出ている疲れの兆候を数値化した値、心拍の揺らぎに関する情報を点数化した値、自律神経バランスに関する情報を点数化した値、及び総合スコアのセットをユーザー状態情報とする。 More specifically, the user condition information generating unit 333 generates the user condition information as a set of a numerical value representing the signs of fatigue shown on the user U's face, a score representing the information relating to heart rate fluctuations, a score representing the information relating to autonomic nerve balance, and a total score.

<ユーザー状態情報記憶ステップ>
ユーザー状態情報記憶ステップにおいてユーザー状態情報生成部333は、ユーザー状態情報生成ステップにおいて生成したユーザー状態情報をサーバー記憶部310に時系列的に記憶する(図2/S170)。
<User state information storage step>
In the user status information storage step, the user status information generation unit 333 stores the user status information generated in the user status information generation step in the server storage unit 310 in chronological order (FIG. 2/S170).

<ソリューション決定ステップ>
そして、ソリューション決定部335は、ユーザーUの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、ユーザーUに提供可能な複数のソリューションから、ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップを実行する(図2/S190)。
<Solution decision step>
Then, the solution determination unit 335 executes a solution determination step to determine a solution according to the user condition information from a plurality of solutions that can be provided to the user U to improve the user condition, which is one or both of the user U's emotions and fatigue state (Figure 2/S190).

すなわち例えば、ソリューション決定部335はソリューション決定ステップを開始すると、まず指定されている動作モードを確認する(図8/S191)。 For example, when the solution determination unit 335 starts the solution determination step, it first checks the specified operation mode (Figure 8/S191).

そして、指定されている動作モードが顔モードである場合には(図8/S191:顔モード)、ソリューション決定部335は、ユーザー状態情報に含まれるユーザーUの顔に現れている感情又は疲労状態に基づいて、ユーザーUがユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する(図8/S193)。 If the specified operation mode is face mode (FIG. 8/S191: face mode), the solution determination unit 335 determines, based on the emotion or fatigue state shown on the face of the user U included in the user state information, whether the user U is in a first state in which a passive solution that is a passive stimulation to the user U's sense of touch or hearing should be provided, or in a second state in which an active solution that encourages the user U to perform a specified operation should be provided (FIG. 8/S193).

ユーザーが第1状態にあるか第2状態にあるかの判定の手法には種々の手法が採用されてよいが、本実施形態においてソリューション決定部335は、ユーザー状態情報に含まれる自律神経バランスに関する情報を点数化した値が4以下かつユーザーUの顔に出ている疲れの兆候を数値化した値が6以上である場合(すなわち、交感神経が優位で、顔に出ている疲れの兆候から見て元気な状態にある場合)に、ユーザーUが第2状態にあると判定し、それ以外の場合には第1状態にあると判定する。 Various methods may be employed to determine whether the user is in the first state or the second state, but in this embodiment, the solution determination unit 335 determines that user U is in the second state if the score value of the information related to autonomic nerve balance included in the user state information is 4 or less and the numerical value of the signs of fatigue on user U's face is 6 or more (i.e., the sympathetic nerves are dominant and the user is in good health based on the signs of fatigue on his or her face), and otherwise determines that user U is in the first state.

ユーザーUが第1状態にあると判定された場合には(図8/S193:第1状態)、ソリューション決定部335は受動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S195)。 If it is determined that user U is in the first state (FIG. 8/S193: first state), the solution determination unit 335 determines a solution according to the user state information from the passive solutions (FIG. 8/S195).

一方、ユーザーUが第2状態にあると判定された場合には(図8/S193:第2状態)、ソリューション決定部335は能動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S197)。 On the other hand, if it is determined that user U is in the second state (FIG. 8/S193: second state), the solution determination unit 335 determines a solution from the active solutions that corresponds to the user state information (FIG. 8/S197).

また、指定されている動作モードが指モードである場合には(図8/S191:指モード)、ソリューション決定部335は、指定された指モードに応じたソリューションを決定する(図8/S199)。 Also, if the specified operation mode is finger mode (FIG. 8/S191: finger mode), the solution determination unit 335 determines a solution according to the specified finger mode (FIG. 8/S199).

そしてソリューション決定部335は、このようにして決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を携帯端末10に送信してソリューション決定ステップを終了する。 Then, the solution determination unit 335 transmits information about the solution determined in this manner and the user state information generated in the user state information generation step to the mobile terminal 10, and ends the solution determination step.

より具体的には、例えば動作モード及び総合スコアと、ソリューションとの対応テーブルを予めサーバー記憶部310に記憶しておき、ソリューション決定部335は、当該対応テーブルを参照して、ユーザー状態情報に含まれる総合スコアに対応したソリューションを決定する。 More specifically, for example, a correspondence table between the operation mode and total score and the solution is stored in advance in the server storage unit 310, and the solution determination unit 335 refers to the correspondence table to determine a solution that corresponds to the total score included in the user state information.

本実施形態においては、ソリューション決定部335が決定するソリューションは、所定の時間継続する周期的な振動であって該振動の開始時から終了時にかけて段階的に周期が変動する振動と、ユーザー状態を改善するための人の声、自然の音又は音楽を含む所定の時間継続する音声と、の組み合わせ(受動的ソリューション)であり、必要に応じてさらに、ユーザーUに所定の方法での呼吸又は瞑想などの動作を促す情報又はユーザーUを所定の状態に誘導する画像を含む(能動的ソリューション)。 In this embodiment, the solution determined by the solution determination unit 335 is a combination of a periodic vibration that continues for a predetermined time, the period of which varies stepwise from the start to the end of the vibration, and a sound that continues for a predetermined time, including a human voice, a natural sound, or music, for improving the user's condition (passive solution), and if necessary, further includes information that prompts the user U to perform an action such as breathing or meditation in a predetermined manner, or an image that guides the user U to a predetermined state (active solution).

<ソリューションの具体例>
・顔モード用のソリューション
図9は、本実施形態における、総合スコアと顔モード用のソリューションとの対応関係を示している。図9に示すように、顔モード用のソリューションに含まれる音声については、ユーザーUが第1状態にある場合のソリューションは、総合スコアの高低に応じた3つのグループに分類されており、総合スコアが1~4の場合には人の声と音楽との組み合わせ、5~7の場合には自然の音と音楽との組み合わせ、8~10の場合には音楽のみである。このように、ソリューション決定部335は、ユーザー状態情報に基づいて、振動と組み合わせる音声を決定する。
<Specific examples of solutions>
- Face mode solutions Fig. 9 shows the correspondence between the overall score and face mode solutions in this embodiment. As shown in Fig. 9, for sounds included in face mode solutions, solutions when the user U is in the first state are classified into three groups according to the high and low overall scores, with a combination of human voice and music for an overall score of 1 to 4, a combination of natural sounds and music for an overall score of 5 to 7, and music only for an overall score of 8 to 10. In this way, the solution determination unit 335 determines the sound to be combined with vibration based on the user state information.

また、振動については、ソリューション決定部335は、ユーザー状態情報に基づいて、より具体的にはユーザーUの心拍数に基づいて、振動の開始時の周期と、開始時から終了時にかけての該周期の変動パターンとを決定する。 In addition, for vibration, the solution determination unit 335 determines the period at the start of vibration and the pattern of change in that period from the start to the end based on the user state information, more specifically, based on the heart rate of the user U.

すなわち例えばユーザーUの心拍数が80以上である場合にソリューション決定部335は、振動の開始時の周期は85回/分であり、当該周期を10秒間継続させると決定する。またソリューション決定部335は、開始時から終了時にかけての該周期の変動パターンを、75回/分周期の振動を10秒継続し、65回/分周期の振動を20秒継続し、…と変動させて、最終的には50回/分周期の振動を120秒以上、ソリューションが終了するまで継続するという、周期の変動パターンを決定する。 That is, for example, if the heart rate of user U is 80 or higher, the solution determination unit 335 determines that the vibration start period is 85 beats/minute and that this period will continue for 10 seconds. The solution determination unit 335 also determines the variation pattern of the period from the start to the end as follows: vibration at a period of 75 beats/minute continues for 10 seconds, vibration at a period of 65 beats/minute continues for 20 seconds, ..., ultimately resulting in vibration at a period of 50 beats/minute continuing for 120 seconds or more until the solution ends.

なお例えば、ユーザーUの心拍数が相対的に高い場合、本実施形態においては心拍数が70以上である場合には、振動の開始から一定期間(例えば20秒など。)は振動のみを提供して、その後音声を組み合わせて提供するようにソリューションを決定させてもよい。 For example, if the user U's heart rate is relatively high, in this embodiment, if the heart rate is 70 or higher, a solution may be determined in which only vibration is provided for a certain period of time (e.g., 20 seconds) from the start of vibration, and then sound is provided in combination.

これは、心拍が一定程度高い場合には、まず心拍を落ち着けてから音声を聞かせた方が、音声による感情及び疲労状態の改善効果が得られやすくなるためである。 This is because, if the heart rate is relatively high, it is easier to improve emotions and fatigue by first allowing the heart rate to calm down before listening to the audio.

なお本実施形態においてソリューション決定部335は、ユーザーUが第1状態にあると判定されている場合には、総合スコアに対応した受動的ソリューションを3つ決定し、ユーザーUが第2状態にあると判定されている場合には、総合スコアに対応した能動的ソリューションを1つと、受動的なソリューションを2つ決定する。そのため、総合スコアが1~4の場合、5~7の場合、8~10のそれぞれに対応する複数の音声のソリューションがサーバー記憶部310に記憶されている。 In this embodiment, if the user U is determined to be in the first state, the solution determination unit 335 determines three passive solutions corresponding to the overall score, and if the user U is determined to be in the second state, it determines one active solution and two passive solutions corresponding to the overall score. Therefore, multiple audio solutions corresponding to overall scores of 1 to 4, 5 to 7, and 8 to 10 are stored in the server storage unit 310.

そして、ユーザーUが第2状態にある場合のソリューションは、音楽と、ユーザーUに所定の動作を促す情報である「行動をサポートする文字」と、振動との組み合わせである。 The solution when user U is in the second state is a combination of music, "text that supports actions" that is information encouraging user U to take a specific action, and vibration.

「行動をサポートする文字」とは、例えば図10の下部に示すような、一定間隔で変化する「振動を感じながら簡単なマインドフルネス瞑想をやってみましょう」、「背筋を伸ばし姿勢を正しましょう」、「肩の力を抜きゆっくりと鼻呼吸をしましょう」などの、所定の動作又は所定の方法での呼吸又は瞑想を促す文章の組み合わせである。 "Text supporting actions" is a combination of sentences that encourage a specific action or a specific way of breathing or meditation, such as "Try simple mindfulness meditation while feeling the vibrations," "Straighten your back and correct your posture," and "Relax your shoulders and breathe slowly through your nose," which change at regular intervals, as shown in the lower part of Figure 10.

・指モード用のソリューション
図10は、本実施形態における、指モードごとの、ユーザーUの心拍数と指モード用のソリューションとの対応関係を示している。図10に示すように、指モード用のソリューションは、指定された指モード(Red、Blue、Greenの何れか)とユーザーUの心拍数に応じて決定される、振動と、ユーザーUに所定の動作を促す情報と、ユーザーUを所定の状態に誘導する画像との組み合わせである。
10 shows the correspondence between the heart rate of the user U and the finger mode solution for each finger mode in this embodiment. As shown in Fig. 10, the finger mode solution is a combination of vibration, information prompting the user U to perform a predetermined action, and an image guiding the user U to a predetermined state, which are determined according to a specified finger mode (either Red, Blue, or Green) and the heart rate of the user U.

より具体的には、ソリューション決定部335は、第1指モードに該当する「Red」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に短くなるように、すなわち振動数が増えていくように変動させる振動周期の変動パターンを決定する。これは、引き込み効果によってユーザーUの心拍を速めて、ユーザーUを覚醒した状態に誘導するためである。 More specifically, when "Red" corresponding to the first finger mode is specified, the solution determination unit 335 determines a variation pattern of the vibration period in such a way that the vibration period becomes gradually shorter from the start to the end of the vibration, i.e., the vibration frequency increases. This is to increase the heart rate of the user U by the attraction effect, and induce the user U into an awakened state.

また、ユーザーUに所定の動作を促す情報は例えば、「姿勢を正して振動を感じながら
大きく呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、覚醒をイメージできる静止画である。
In addition, the information encouraging user U to perform a specified action may be, for example, a comment such as "straighten your posture and take a deep breath while feeling the vibration," and the image guiding user U to a specified state may be, for example, a still image that evokes the image of awakening.

そしてソリューション決定部335は、第2指モードに該当する「Bule」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Green」が指定されている場合に比して急である。これは、引き込み効果によってユーザーUの心拍を急速に落ち着かせて、ユーザーUを冷静な状態に誘導するためである。 When "Blue" corresponding to the second finger mode is specified, the solution determination unit 335 determines a variation pattern of the period so that the vibration period becomes gradually longer from the start to the end of the vibration, i.e., the vibration frequency decreases. Note that the rate at which the vibration frequency decreases is faster than when "Green" is specified. This is to rapidly calm the heart rate of the user U by using the attraction effect, and induce the user U to a calm state.

また、ユーザーUに所定の動作を促す情報は例えば、「肩を一度あげ、力を抜き振動を感じながらゆっくり呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、冷静をイメージできる静止画である。 In addition, the information encouraging user U to take a specific action may be, for example, a comment such as "Raise your shoulders once, relax, and breathe slowly while feeling the vibration," and the image guiding user U to the specific state may be, for example, a still image that evokes the image of calm.

そしてソリューション決定部335は、第3指モードに該当する「Green」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Blue」が指定されている場合に比して緩やかである。これは、引き込み効果によってユーザーUの心拍を緩やかに落ち着かせて、ユーザーUをリラックスした状態に誘導するためである。 When "Green", which corresponds to the third finger mode, is specified, the solution determination unit 335 determines a variation pattern of the period so that the vibration period becomes gradually longer from the start to the end of the vibration, i.e., the vibration frequency decreases. Note that the rate at which the vibration frequency decreases is slower than when "Blue" is specified. This is to gradually calm the heart rate of the user U by using the attraction effect, and induce the user U into a relaxed state.

また、ユーザーUに所定の動作を促す情報は例えば、「肩の力を抜いて、振動を感じながら深く呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、リラックスをイメージできる静止画である。 In addition, the information encouraging user U to perform a specific action may be, for example, a comment such as "Relax your shoulders and take a deep breath while feeling the vibration," and the image guiding user U to a specific state may be, for example, a still image that evokes the image of relaxation.

なお、ソリューション決定部335は、例えばBlue又はGreenの指モードが指定されている場合において、最後に振動数を所定程度上げてから振動を終了するような変動パターンを決定してもよい。 In addition, when, for example, a Blue or Green finger mode is specified, the solution determination unit 335 may determine a variation pattern in which the vibration frequency is finally increased to a predetermined degree before ending the vibration.

これは、例えば業務の昼休みの休憩中にユーザーUがソリューションの提供を受けることを想定した場合、一度冷静な状態又はリラックスした状態になった後に、再度通常の心拍数に近づけることを促すことによって、休憩後に円滑に業務を再開できる状態にユーザーUを誘導するためである。 For example, if user U is provided with the solution during a lunch break at work, the solution will encourage user U to calm down or relax and then bring their heart rate closer to normal again, guiding them to a state where they can smoothly resume work after the break.

<ユーザー状態情報表示ステップ>
その後、例えば、携帯端末10がサーバー30から決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を受信した際に、ユーザー状態情報を表示するユーザー状態情報表示ステップが実行される(図2/S210)。
<User status information display step>
Thereafter, for example, when the mobile terminal 10 receives information regarding the determined solution from the server 30 and the user status information generated in the user status information generation step, a user status information display step is executed to display the user status information (FIG. 2/S210).

図11は、顔モードが指定されていた場合に、ユーザー状態情報表示ステップで表示される内容の例である。すなわち、図11に示すように、表示制御部153は、受信したユーザー状態情報に含まれる、ユーザーUの顔に出ている疲れの兆候を数値化した値を示す「顔にでている疲れの兆候」の表示R1と、心拍の揺らぎに関する情報を点数化した値を示す「エネルギー余力度」の表示R2と、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示R3と、総合スコアの値の表示T1とをユーザー状態情報として並べて表示している。 Figure 11 is an example of the content displayed in the user condition information display step when the face mode is specified. That is, as shown in Figure 11, the display control unit 153 displays, as user condition information, a display R1 of "Signs of fatigue on the face" showing a numerical value of the signs of fatigue on the face of the user U included in the received user condition information, a display R2 of "Energy reserve" showing a scored value of information regarding heart rate fluctuations, a display R3 of "Autonomic nerve balance" showing a scored value of information regarding autonomic nerve balance, and a display T1 of the total score value.

そして、表示制御部153は、画面の下部に、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)を3つ並べて表示している。また、当該アイコンにはたとえば、各ソリューションの内容を示すタイトルと、サムネイル画像がそれぞれ含まれる。 Then, the display control unit 153 displays three icons (S1, S2, S3) for starting provision of the currently determined solution side by side at the bottom of the screen. Each icon also includes, for example, a title indicating the content of each solution and a thumbnail image.

なお、指モードが指定されている場合には、表示制御部153は例えば、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に表示させる。 When the finger mode is specified, the display control unit 153 causes the display unit 130 to display, for example, "autonomic balance," which shows a scored value of information related to autonomic balance, and a display showing the heart rate of the user U.

<ソリューション提供ステップ>
顔モードが指定されている場合には、ユーザー状態情報表示ステップにおいて、表示制御部153が画面に表示させた、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)の何れかをユーザーUがタップする操作を行うと、当該操作に応じてソリューション提供部159はタップされたアイコンに対応するソリューションをユーザーに向けて提供する。
<Solution provision steps>
When face mode is specified, in the user status information display step, when the user U taps on any of the icons (S1, S2, S3) displayed on the screen by the display control unit 153 for starting the provision of the currently determined solution, the solution providing unit 159 provides the user with the solution corresponding to the tapped icon in response to the operation.

また指モードが指定されている場合には、ソリューション提供部159は、表示制御部153が「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に一定時間表示させた後に自動的に、ソリューション決定部335が決定した、ソリューションの提供を開始する。 In addition, when the finger mode is specified, the solution providing unit 159 automatically starts providing the solution determined by the solution determining unit 335 after the display control unit 153 causes the display unit 130 to display "autonomic nerve balance" and a display showing the user U's heart rate for a certain period of time.

すなわち例えばソリューション提供部159は振動発生部170を介して、ソリューションに含まれる振動を、ソリューション決定部335が決定した開始時の周期で開始し、ソリューション決定部335が決定した変動パターンに従って変動させながら所定の時間継続して提供する。 That is, for example, the solution providing unit 159 starts the vibration included in the solution via the vibration generating unit 170 at the start period determined by the solution determining unit 335, and provides the vibration continuously for a predetermined time while varying it according to the variation pattern determined by the solution determining unit 335.

またソリューション提供部159はソリューション決定部335が決定した音声を、音声再生部190を介して再生し、ソリューション決定部335が決定した、ユーザーUに所定の動作を促す情報又はユーザーUを所定の状態に誘導する画像を、表示部130を介して表示して、ユーザーUに向けて提供する。 The solution providing unit 159 also plays the audio determined by the solution determining unit 335 via the audio playing unit 190, and displays, via the display unit 130, information that prompts the user U to perform a specific action or an image that guides the user U to a specific state, determined by the solution determining unit 335, and provides it to the user U.

以上、本発明の実施形態について説明したが、これに限定されない。本発明の趣旨を逸脱しない範囲で、種々の変更が可能である。 The above describes an embodiment of the present invention, but the present invention is not limited to this. Various modifications are possible without departing from the spirit of the present invention.

すなわち例えば、上記においてはユーザーの顔が映像として表示部130に表示される場合の実施形態について説明したが、これに限定されない。すなわち例えば、本発明のユーザー状態分析方法は、いわゆるスマートミラーであるユーザー状態分析システムを用いて実行されて、ユーザーは鏡に写る自身の顔を見ながら、質問に答えてもよい。また、当該スマートミラーはユーザーが携帯可能であってもなくてもよい。 That is, for example, the above describes an embodiment in which the user's face is displayed as an image on the display unit 130, but the present invention is not limited to this. That is, for example, the user status analysis method of the present invention may be executed using a user status analysis system that is a so-called smart mirror, and the user may answer questions while looking at their own face reflected in the mirror. In addition, the smart mirror may or may not be portable by the user.

より具体的には、本実施形態のユーザー状態分析システムは、ユーザーUの顔を映す鏡部を備えている。そして、表示部130は、ユーザーUが鏡部に写るユーザーUの顔と同時に見ることができる位置に配置される。表示制御部153は、鏡部に写るユーザーUの顔の状態についての質問を表示部130に表示する。入力部210は、ユーザーUが、鏡部に写るユーザーUの顔及び、表示部130に表示されたユーザーUの顔の状態についての質問を見ながら操作を行える位置に配置される。そして入力受付部155は、入力部210を介して、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を鏡部に写るユーザーUの顔の映像を見せた状態で受け付ける。 More specifically, the user condition analysis system of this embodiment includes a mirror unit that reflects the face of user U. The display unit 130 is positioned so that user U can simultaneously see the face of user U reflected in the mirror unit. The display control unit 153 displays questions about the condition of user U's face reflected in the mirror unit on the display unit 130. The input unit 210 is positioned so that user U can perform operations while viewing the face of user U reflected in the mirror unit and the questions about the condition of user U's face displayed on the display unit 130. The input receiving unit 155 receives input of answers from user U to questions about the condition of user U's face via the input unit 210 while showing an image of user U's face reflected in the mirror unit.

あるいは例えば、回答分析部331は回答分析ステップにおいて、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を入力として、ユーザーUの顔に現れている幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性などの感情、又は不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の量の状態などの疲労状態を出力とする分析モデルを第1相関関係情報として用いて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定してもよい。 Alternatively, for example, in the answer analysis step, the answer analysis unit 331 may use an analysis model that takes as input the answer by user U to a question about the condition of the user U's face, and outputs emotions such as the four factors of happiness, burnout state, life satisfaction, negativity or positivity according to the PANAS scale, degree of resilience, subjective well-being scale, and stress tolerance shown on the user U's face, or fatigue state such as insomnia state, physical fatigue level, mental fatigue level, and amount of fatigue components in the body, as the first correlation information, to determine the analysis results of one or both of the emotions and fatigue state shown on the user U's face.

この場合、回答分析部331は分析モデルを用いて、分析対象の感情又は疲労状態が正常な状態であることを示す基準値よりも高い状態にあるか、低い状態にあるかの出力値を分析結果として決定する。 In this case, the response analysis unit 331 uses the analysis model to determine as the analysis result an output value indicating whether the emotion or fatigue state of the subject of analysis is higher or lower than a reference value indicating a normal state.

あるいは上記の実施例においては、入力受付ステップの後に、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)及び画像分析ステップを実行する構成について説明したが、これに限定されない。 In the above embodiment, a configuration was described in which, after the input receiving step, an image of the face of the user U is captured (second imaging step) for analysis in the image analysis step, and the image analysis step is executed, but this is not limited to the above.

すなわち例えば、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前に実行され、画像分析ステップは、入力受付ステップの前に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。このように、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前後いずれにおいて行われてよく、それに応じて画像分析ステップは入力受付ステップの前又は後のいずれかに撮像されたユーザーUの顔の画像を分析するステップとなる。 That is, for example, the step of capturing an image of user U's face for analysis in the image analysis step (second imaging step) may be performed before the input receiving step, and the image analysis step may be configured to analyze the image of user U's face captured before the input receiving step. In this way, the step of capturing an image of user U's face for analysis in the image analysis step (second imaging step) may be performed either before or after the input receiving step, and accordingly the image analysis step is a step of analyzing the image of user U's face captured either before or after the input receiving step.

あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの実行中に実行され、画像分析ステップは、入力受付ステップの実行中に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the face of user U may be performed during the execution of the input reception step, and the image analysis step may be configured to analyze the image of the face of user U captured during the execution of the input reception step.

この場合、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像をするステップ(第1撮像ステップ)と、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)と、は、単一のステップとして実行される。すなわち、このようにして撮像されたユーザーの顔の画像は、顔画像・質問表示ステップで表示部130に表示させるためにも、画像分析ステップで分析を行うためにも用いられる。 In this case, the step of capturing an image of the user U's face to be displayed on the display unit 130 in the face image/question display step (first imaging step) and the step of capturing an image of the user U's face to be analyzed in the image analysis step (second imaging step) are executed as a single step. That is, the image of the user's face captured in this manner is used both to be displayed on the display unit 130 in the face image/question display step and to be analyzed in the image analysis step.

またこの場合には、例えば画像分析部157は、撮像部110により撮像された画像の中から、手ぶれの度合いが十分に低い画像など、画像の分析の精度を保つために必要な条件を満たしている画像を選択して、当該選択された画像を分析するように構成される。 In this case, for example, the image analysis unit 157 is configured to select an image that satisfies the conditions necessary to maintain the accuracy of image analysis, such as an image with a sufficiently low degree of camera shake, from among the images captured by the imaging unit 110, and analyze the selected image.

あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの前又は実行中に実行され、画像分析ステップは、入力受付ステップの実行中に実行されるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the face of user U may be performed before or during the input receiving step, and the image analysis step may be configured to be performed during the input receiving step.

110…撮像部、130…表示部、151…撮像制御部、153…表示制御部、155…入力受付部、157…画像分析部、159…ソリューション提供部、161…モード指定受付部、170…振動発生部、190…音声再生部、310…サーバー記憶部、331…回答分析部、333…ユーザー状態情報生成部、335…ソリューション決定部、337…心拍取得部、339…状態判定部。 110...imaging unit, 130...display unit, 151...imaging control unit, 153...display control unit, 155...input reception unit, 157...image analysis unit, 159...solution provision unit, 161...mode designation reception unit, 170...vibration generation unit, 190...audio playback unit, 310...server storage unit, 331...answer analysis unit, 333...user status information generation unit, 335...solution determination unit, 337...heart rate acquisition unit, 339...status determination unit.

Claims (20)

ユーザーの顔の映像を該ユーザーに見せると共に、該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示するステップを含み、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とするユーザー状態分析方法。
presenting an image of the user's face to the user and displaying a question about a facial state that correlates with an emotional or fatigue state appearing on the user's face;
an input receiving step of receiving a response from the user to a question about the state of the user's face while showing an image of the face to the user;
a response analysis step of analyzing responses by the user to questions about the user's facial condition;
and a user status information generation step of generating user status information indicating the user status including one or both of the emotions and fatigue state appearing on the user's face based on the analysis results of the answers.
請求項1に記載のユーザー状態分析方法において、
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、をさらに含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 1,
a solution determination step of determining a solution corresponding to the user state information from a plurality of solutions that can be provided to the user for improving the user state of the user;
providing the determined solution to the user.
請求項1又は2に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 1 or 2,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
A user status analysis method, characterized in that the user status information generating step is a step of generating the user status information based on an analysis result of the answer and the face image.
請求項1~3の何れかに記載のユーザー状態分析方法において、
生成された前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to any one of claims 1 to 3,
A user status analysis method comprising the step of displaying the generated user status information.
請求項1~4のいずれかに記載のユーザー状態分析方法において、
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to any one of claims 1 to 4,
storing the generated user state information in chronological order;
A user status analysis method comprising the step of displaying the stored user status information in response to an operation by the user.
請求項1~5のいずれかに記載のユーザー状態分析方法において、
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to any one of claims 1 to 5,
The answer analysis step includes a step of determining an analysis result of one or both of the emotions and fatigue state shown on the user's face using an answer by the user to a received question about the user's facial condition and first correlation information indicating a correlation between the answer and the emotions or fatigue state shown on the user's face.
請求項2に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 2,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
The answer analyzing step includes a step of determining a fatigue symptom score by analyzing the answer and indexing an emotion or fatigue state shown on the face of the user,
The user state information generating step includes:
obtaining information about the user's heart rate from an analysis of the facial image;
determining a heart rate-based fatigue score that indexes a heart rate-based fatigue state based on information about the user's heart rate;
determining a total score that indexes the user's emotion or fatigue state based on the fatigue symptom score and the heart rate-based fatigue score;
generating the user status information including the overall score;
The method for analyzing a user status, wherein the solution determination step includes a step of determining a solution to be provided to the user based on the overall score.
請求項7に記載のユーザー状態分析方法において、
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 7,
The step of determining the overall score comprises:
acquiring information about the user's autonomic nerve balance using information about the user's heart rate and second correlation information indicating a correlation between the information about the heart rate and the user's autonomic nerve balance;
A user condition analysis method comprising: a step of determining the overall score based on information including information regarding the autonomic nerve balance.
請求項2に記載のユーザー状態分析方法において、
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 2,
The solution determination step includes:
A step of determining whether the user is in a first state in which a passive solution, which is a passive stimulation to the user's sense of touch or hearing, should be provided, or in a second state in which an active solution, which encourages the user to perform a predetermined action, should be provided, based on the emotion or fatigue state shown on the user's face included in the user state information;
determining a solution corresponding to the user state information from the plurality of solutions based on a result of the determination.
請求項9に記載のユーザー状態分析方法において、
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 9,
the active solution includes a combination of periodic vibrations lasting a predetermined time, audio to improve the user's condition, and information to encourage the user to breathe or meditate in a predetermined way;
A user state analysis method characterized in that, when the user is in the second state, in the solution determination step, the active solution including a combination of the vibration, the sound, and information encouraging the user to breathe or meditate in a predetermined manner is determined as the solution to be provided to the user.
請求項1~10のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to any one of claims 1 to 10,
A user condition analysis method, characterized in that the questions about the user's facial condition include questions about the degree to which the user's eyes are open compared to the user's normal condition.
請求項1~11のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to any one of claims 1 to 11,
A method for analyzing a user's condition, wherein the questions about the user's facial condition include a question about the density of dark circles around the eyes compared to the user's normal condition.
請求項1~12のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to any one of claims 1 to 12,
A user condition analysis method, characterized in that the questions about the user's facial condition include questions about the condition of acne or pimples compared to the user's normal condition.
請求項1~13のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to any one of claims 1 to 13,
A user condition analysis method, characterized in that the questions about the user's facial condition include questions about the degree to which the corners of the mouth are raised or lowered compared to the user's normal condition.
請求項1~14のいずれかに記載のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。
The user condition analysis method according to any one of claims 1 to 14,
A user condition analysis method, wherein the questions about the user's facial condition include a question about the moisturizing state of the user's lips compared to the user's usual condition.
請求項3に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 3,
The step of capturing an image of the user's face is performed before or after the step of receiving the input,
A user state analysis method, characterized in that the image analysis step is a step of analyzing an image of the user's face captured before or after the input reception step.
請求項3に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 3,
the step of capturing an image of the face of the user is executed during the execution of the input receiving step;
A user state analysis method, characterized in that the image analysis step is a step of analyzing an image of the user's face captured during execution of the input reception step.
請求項3に記載のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことを特徴とするユーザー状態分析方法。
The user status analysis method according to claim 3,
The step of capturing an image of the face of the user is performed before or during the input receiving step;
The user state analysis method, wherein the image analysis step is executed during execution of the input reception step.
ユーザーの顔の画像を撮像する撮像部と、
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。
An imaging unit that captures an image of a user's face;
A display unit for displaying information;
An imaging control unit that causes the imaging unit to capture an image of the user's face;
a display control unit that displays on the display unit an image of the user's face captured by the imaging unit, and displays on the display unit a question about a facial condition that is correlated with an emotion or fatigue state appearing on the user's face displayed on the display unit;
an input unit arranged at a position where the user can perform an operation while viewing the image of the user's face displayed on the display unit and the question;
an input receiving unit that receives an input of an answer to the question by the user via the input unit while the image of the face is displayed on the display unit;
an answer analysis unit that analyzes the answer by the user to the question received by the input receiving unit;
A user status analysis system comprising: a user status information generation unit that generates user status information indicating a user status, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.
ユーザーの顔を映す鏡部と、
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。
A mirror that reflects the user's face,
a display unit that is disposed in a position where the user can see the face of the user reflected in the mirror unit at the same time and that displays information;
a display control unit that displays on the display unit a question about a facial condition that is correlated with an emotion or a fatigue state appearing on the face of the user reflected in the mirror unit;
an input unit arranged at a position where the user can perform an operation while looking at the face of the user reflected in the mirror unit and the question displayed on the display unit;
an input receiving unit that receives, via the input unit, an input of a response from the user to a question about the state of the user's face while showing an image of the user's face reflected in the mirror unit;
a response analysis unit that analyzes responses by the user to questions about the facial condition of the user that are received by the input receiving unit;
A user status analysis system comprising: a user status information generation unit that generates user status information indicating a user status, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.
JP2020200828A 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM Active JP7507674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020200828A JP7507674B2 (en) 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020200828A JP7507674B2 (en) 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM

Publications (2)

Publication Number Publication Date
JP2022088796A JP2022088796A (en) 2022-06-15
JP7507674B2 true JP7507674B2 (en) 2024-06-28

Family

ID=81987862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020200828A Active JP7507674B2 (en) 2020-12-03 2020-12-03 USER STATE ANALYSIS METHOD AND SYSTEM

Country Status (1)

Country Link
JP (1) JP7507674B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065812A (en) 2003-08-21 2005-03-17 Nec Fielding Ltd Medical checkup system, method and program
JP2017146733A (en) 2016-02-16 2017-08-24 株式会社リコー Extraction support system, extraction support server, extraction support program, and extraction support method
JP2019087276A (en) 2014-01-17 2019-06-06 任天堂株式会社 Information processing system and information processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065812A (en) 2003-08-21 2005-03-17 Nec Fielding Ltd Medical checkup system, method and program
JP2019087276A (en) 2014-01-17 2019-06-06 任天堂株式会社 Information processing system and information processor
JP2017146733A (en) 2016-02-16 2017-08-24 株式会社リコー Extraction support system, extraction support server, extraction support program, and extraction support method

Also Published As

Publication number Publication date
JP2022088796A (en) 2022-06-15

Similar Documents

Publication Publication Date Title
US11071496B2 (en) Cognitive state alteration system integrating multiple feedback technologies
US20210248656A1 (en) Method and system for an interface for personalization or recommendation of products
US10922996B2 (en) Systems and methods for generating a presentation of an energy level based on sleep and daily activity
US20030059750A1 (en) Automated and intelligent networked-based psychological services
JP2020168415A (en) Detector
WO2016092103A1 (en) Device, system and method for assessing information needs of a person
JP7589438B2 (en) Information processing device, information processing system, information processing method, and information processing program
EP4182875A1 (en) Method and system for an interface for personalization or recommendation of products
US20230120262A1 (en) Method for Improving the Success of Immediate Wellbeing Interventions to Achieve a Desired Emotional State
US20230285711A1 (en) Assessing User Engagement to Optimize the Efficacy of a Digital Mental Health Intervention
JP7507674B2 (en) USER STATE ANALYSIS METHOD AND SYSTEM
US12211607B2 (en) Management of psychiatric or mental conditions using digital or augmented reality with personalized exposure progression
WO2023102125A1 (en) Management of psychiatric or mental conditions using digital or augmented reality with personalized exposure progression
Janssen Connecting people through physiosocial technology
JP6963669B1 (en) Solution providing system and mobile terminal
JP7061714B1 (en) Solution provision system and mobile terminal
JP7069390B1 (en) Mobile terminal
JP7069389B1 (en) Solution provision system and mobile terminal
JP7095169B1 (en) Condition improvement device
Maškanceva Developing understandable and actionable sleep data visualizations
WO2022118955A1 (en) Solution providing system
JP7144638B1 (en) Condition improvement device
US20230397867A1 (en) Information processing apparatus, information processing method, and program
WO2022244298A1 (en) Information processing device, information processing method, and program
JP2023069103A (en) Analysis system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231106

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240618