JP7507674B2 - USER STATE ANALYSIS METHOD AND SYSTEM - Google Patents
USER STATE ANALYSIS METHOD AND SYSTEM Download PDFInfo
- Publication number
- JP7507674B2 JP7507674B2 JP2020200828A JP2020200828A JP7507674B2 JP 7507674 B2 JP7507674 B2 JP 7507674B2 JP 2020200828 A JP2020200828 A JP 2020200828A JP 2020200828 A JP2020200828 A JP 2020200828A JP 7507674 B2 JP7507674 B2 JP 7507674B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- face
- image
- unit
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 139
- 206010016256 fatigue Diseases 0.000 claims description 118
- 230000008451 emotion Effects 0.000 claims description 71
- 238000003384 imaging method Methods 0.000 claims description 47
- 238000010191 image analysis Methods 0.000 claims description 39
- 230000001815 facial effect Effects 0.000 claims description 37
- 230000004044 response Effects 0.000 claims description 29
- 210000000467 autonomic pathway Anatomy 0.000 claims description 19
- 230000000875 corresponding effect Effects 0.000 claims description 18
- 230000009471 action Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 17
- 206010000496 acne Diseases 0.000 claims description 12
- 208000002874 Acne Vulgaris Diseases 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 6
- 230000000638 stimulation Effects 0.000 claims description 6
- 230000000737 periodic effect Effects 0.000 claims description 4
- 208000024891 symptom Diseases 0.000 claims description 4
- 230000002996 emotional effect Effects 0.000 claims description 3
- 230000003020 moisturizing effect Effects 0.000 claims description 3
- 230000002045 lasting effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 9
- 230000035882 stress Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 208000013738 Sleep Initiation and Maintenance disease Diseases 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 206010022437 insomnia Diseases 0.000 description 4
- 230000029058 respiratory gaseous exchange Effects 0.000 description 4
- 230000036642 wellbeing Effects 0.000 description 4
- 208000019914 Mental Fatigue Diseases 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- HCAJQHYUCKICQH-VPENINKCSA-N 8-Oxo-7,8-dihydro-2'-deoxyguanosine Chemical compound C1=2NC(N)=NC(=O)C=2NC(=O)N1[C@H]1C[C@H](O)[C@@H](CO)O1 HCAJQHYUCKICQH-VPENINKCSA-N 0.000 description 2
- 230000002567 autonomic effect Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000002889 sympathetic effect Effects 0.000 description 2
- 208000032538 Depersonalisation Diseases 0.000 description 1
- 206010071368 Psychological trauma Diseases 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000036449 good health Effects 0.000 description 1
- DCYOBGZUOMKFPA-UHFFFAOYSA-N iron(2+);iron(3+);octadecacyanide Chemical compound [Fe+2].[Fe+2].[Fe+2].[Fe+3].[Fe+3].[Fe+3].[Fe+3].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-].N#[C-] DCYOBGZUOMKFPA-UHFFFAOYSA-N 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 150000002535 isoprostanes Chemical class 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009456 molecular mechanism Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000007230 neural mechanism Effects 0.000 description 1
- 230000003647 oxidation Effects 0.000 description 1
- 238000007254 oxidation reaction Methods 0.000 description 1
- 230000036542 oxidative stress Effects 0.000 description 1
- 210000005037 parasympathetic nerve Anatomy 0.000 description 1
- 238000011548 physical evaluation Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009323 psychological health Effects 0.000 description 1
- 230000010346 psychosocial stress Effects 0.000 description 1
- 239000003642 reactive oxygen metabolite Substances 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000004092 self-diagnosis Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明は、ユーザーの感情又は疲労状態を分析する方法及びシステムに関する。 The present invention relates to a method and system for analyzing a user's emotions or fatigue state.
従来、疲労度の判定処理システムが知られている(特許文献1参照)。 A fatigue level determination processing system is known (see Patent Document 1).
特許文献1に記載の発明では、LF/HF値と自身の疲労状態に関するアンケート結果とに基づいて、ユーザーの疲労度を判定している。
In the invention described in
特許文献1に記載の発明を、ユーザーの感情又は疲労状態を分析する方法及びシステムに応用することが考えられる。
It is conceivable that the invention described in
ところで、客観的なデータに基づく感情又は疲労状態の分析結果が、ユーザー自身が考える感情又は疲労状態と食い違う場合がある。すなわち例えば、肌の画像などの客観的な情報を分析すると相当ストレスを感じている、あるいは疲れが溜まっているという分析結果が出るにも関わらず、本人にその自覚がない場合には、このような食い違いが起こりうる。 However, the results of an analysis of emotions or fatigue state based on objective data may sometimes differ from the user's own thoughts about the emotions or fatigue state. For example, such a discrepancy may occur if an analysis of objective information such as an image of the skin indicates that the user is feeling considerable stress or fatigue, but the user is not aware of this.
あるいはその反対に、客観的にはそれほどストレスを感じておらず、又は疲労が蓄積されていないにも関わらず、本人はストレス状態にあり、あるいは疲れていると思い込んでいる結果、上記のような食い違いが起こることもある。 On the other hand, even if objectively you are not feeling that stressed or fatigued, you may believe that you are stressed or tired, which can result in the above discrepancy.
しかしながら特許文献1の発明においては、ユーザー自身への疲労状態に関するアンケート結果を用いてユーザーの疲労度を判定しているので、自身の疲労状態に関する自覚がない、又は必要以上に疲れていると思い込んでいるユーザーから、疲労状態に関する正しい回答を得られる確実性は低い。
However, in the invention of
また、そのような不確実な情報に基づく分析結果は高い精度が期待できない。 Furthermore, analytical results based on such uncertain information cannot be expected to be highly accurate.
そこで本発明は、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できるユーザー状態分析方法及びユーザー状態分析システムを提供することを目的とする。 The present invention aims to provide a user condition analysis method and a user condition analysis system that can accurately analyze a user's emotions or fatigue state while making the user aware of the user's emotions or fatigue state.
本発明のユーザー状態分析方法は、
ユーザーの顔の映像を該ユーザーに見せると共に、該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示するステップを含み、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とする。
The user status analysis method of the present invention includes the steps of:
presenting an image of the user's face to the user and displaying a question about a facial state that correlates with an emotional or fatigue state appearing on the user's face;
an input receiving step of receiving a response from the user to a question about the state of the user's face while showing an image of the face to the user;
a response analysis step of analyzing responses by the user to questions about the user's facial condition;
and a user condition information generation step of generating user condition information indicating the user condition including one or both of the emotions and fatigue state shown on the user's face based on the analysis results of the answers.
本発明によれば、ユーザーの顔の映像が該ユーザーに見せられると共に、表示されたユーザーの顔の状態についての質問が表示される。なお当該質問は、ユーザーの顔に現れている感情又は疲労状態と相関関係を有する顔の状態についての質問である。 According to the present invention, an image of a user's face is shown to the user, and a question about the state of the displayed face of the user is displayed. The question is about a state of the face that is correlated with the emotion or fatigue state shown on the user's face.
そして、当該質問に対するユーザーによる回答の入力が顔の画像を表示させた状態で受け付けられて、当該回答が分析される。 The user's answer to the question is then accepted with the face image displayed, and the answer is analyzed.
また、回答の分析結果に基づいて、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 In addition, based on the analysis results of the answers, user state information is generated that indicates the user state, which is either the user's emotions or fatigue state or both.
本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers questions about the condition of his/her face while looking at his/her own face, making it easy for him/her to answer. In addition, since the user has the opportunity to calmly reflect on the condition of his/her own face, he/she is encouraged to become aware of the facial condition that is closely related to emotions or fatigue state, and the possibility of being able to answer questions about his/her own facial condition accurately is increased.
これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This allows for accurate generation of user state information that indicates the user state, which is either or both of the user's emotions and fatigue state.
このように本発明によれば、ユーザーの感情又は疲労状態をユーザー自身に自覚させつつ精度よく分析できる。 In this way, the present invention makes it possible to accurately analyze the user's emotions or fatigue state while making the user aware of it.
本発明のユーザー状態分析方法において、
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、を備える
ことが好ましい。
In the user condition analysis method of the present invention,
a solution determination step of determining a solution corresponding to the user state information from a plurality of solutions that can be provided to the user for improving the user state of the user;
providing said determined solution to said user.
本発明によれば、ユーザー状態を改善するための、ユーザーに提供可能な複数のソリューションからユーザー状態情報に応じたソリューションがユーザー状態情報に応じて決定されて、決定されたソリューションがユーザーに提供される。 According to the present invention, a solution corresponding to the user state information is determined from a plurality of solutions that can be provided to the user to improve the user state, and the determined solution is provided to the user.
これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成するとともに、それに応じた適切なソリューションを簡便に提供して、ユーザー状態を改善することができる。 This allows for accurate generation of user condition information indicating the user's condition, which may be one or both of the user's emotions and fatigue state, and for easily providing appropriate solutions in response to the user's condition, thereby improving the user's condition.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことが好ましい。
In the user condition analysis method of the present invention,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
It is preferable that the user state information generating step is a step of generating the user state information based on an analysis result of the answer and the face image.
本発明によれば、顔の状態に対する質問への回答というユーザーの主観的な情報に加えて、顔の画像の分析結果という客観的な情報をも用いてユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報が生成される。 According to the present invention, in addition to subjective information of the user, such as answers to questions about the condition of the face, objective information, such as the analysis results of the face image, is used to generate user condition information indicating the user's condition, which is either or both of the user's emotions and fatigue state.
そのため、質問への回答からでは得られない情報も考慮してユーザー状態情報が生成されるので、ユーザー状態情報をより精度よく生成して、それに応じた適切なソリューションを提供できる。 As a result, user status information is generated taking into account information that cannot be obtained from answers to questions, making it possible to generate user status information more accurately and provide appropriate solutions accordingly.
本発明のユーザー状態分析方法において、
生成された前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user condition analysis method of the present invention,
It is preferable to include a step of displaying the generated user status information.
本発明によれば、生成されたユーザー状態情報が表示されるため、ユーザー自身に自らの感情又は疲労状態を認識させることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, the generated user condition information is displayed, so that the user can recognize his/her own emotions or fatigue state, and thus the user can be made effectively aware of his/her own emotions or fatigue state.
本発明のユーザー状態分析方法において、
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことが好ましい。
In the user condition analysis method of the present invention,
storing the generated user state information in chronological order;
It is preferable to further include a step of displaying the stored user status information in response to an operation by the user.
本発明によれば、ユーザーの操作に応じて、過去のユーザー状態情報を表示させることができる。そのため、ユーザーの顔に現れている感情又は疲労状態の変化の有無、変化の度合いをユーザー自身が随時に知ることができるので、ユーザーの感情又は疲労状態をユーザー自身に効果的に自覚させることができる。 According to the present invention, past user condition information can be displayed in response to user operations. Therefore, the user himself can know at any time whether there is a change in the emotion or fatigue state shown on the user's face and the degree of change, so that the user himself can be made effectively aware of the user's emotion or fatigue state.
本発明のユーザー状態分析方法において、
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことが好ましい。
In the user condition analysis method of the present invention,
It is preferable that the answer analysis step includes a step of determining an analysis result of one or both of the emotions and fatigue state shown on the user's face using an answer by the user to a received question about the condition of the user's face and first correlation information indicating a correlation between the answer and the emotions or fatigue state shown on the user's face.
本発明によれば、第1相関関係情報という具体的な情報を用いて、ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果が決定されるので、ユーザーの顔に現れている感情及び疲労状態の一方又は両方を精度よく分析できる。 According to the present invention, the analysis results of one or both of the emotions and fatigue state shown on the user's face are determined using specific information, namely the first correlation information, so that one or both of the emotions and fatigue state shown on the user's face can be analyzed with high accuracy.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことが好ましい。
In the user condition analysis method of the present invention,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
The answer analyzing step includes a step of determining a fatigue symptom score by analyzing the answer and indexing an emotion or fatigue state shown on the face of the user,
The user state information generating step includes:
obtaining information about the user's heart rate from an analysis of the facial image;
determining a heart rate-based fatigue score that indexes a heart rate-based fatigue state based on information about the user's heart rate;
determining a total score that indexes the user's emotion or fatigue state based on the fatigue symptom score and the heart rate-based fatigue score;
generating the user status information including the overall score;
The solution determining step preferably includes a step of determining a solution to provide to the user based on the overall score.
本発明によれば、ユーザーの顔に現れている感情又は疲労状態を指標化した疲れの兆候スコアと、心拍に基づく疲労度スコアという多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じた適切なソリューションを提供できる。 According to the present invention, the solution to be provided to the user is determined based on a fatigue sign score that indexes the emotions or fatigue state shown on the user's face, and a fatigue level score based on the heart rate, which is derived from multiple perspectives, so that an appropriate solution can be provided according to the user's overall fatigue state.
本発明のユーザー状態分析方法において、
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The step of determining the overall score comprises:
acquiring information about the user's autonomic nerve balance using information about the user's heart rate and second correlation information indicating a correlation between the information about the heart rate and the user's autonomic nerve balance;
It is preferable that the method further includes a step of determining the overall score based on information including information regarding the autonomic nerve balance.
本発明によれば、自律神経バランスに関する情報を加えた、より多面的な観点から導き出された総合スコアに基づいてユーザーに提供するソリューションが決定されるので、ユーザーの総合的な疲労状態に応じたより適切なソリューションを提供できる。 According to the present invention, the solution to be provided to the user is determined based on a comprehensive score derived from a more multifaceted perspective, including information on autonomic nerve balance, making it possible to provide a more appropriate solution according to the user's overall state of fatigue.
本発明のユーザー状態分析方法において、
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The solution determination step includes:
A step of determining whether the user is in a first state in which a passive solution, which is a passive stimulation to the user's sense of touch or hearing, should be provided, or in a second state in which an active solution, which encourages the user to perform a predetermined action, should be provided, based on the emotion or fatigue state shown on the user's face included in the user state information;
It is preferable that the method further includes a step of determining a solution corresponding to the user state information from the plurality of solutions based on a result of the determination.
所定の動作には、ユーザーの感情や疲労状態を改善する効果があるが、ユーザーの感情又は疲労状態が所定の動作を取らせるのに適切な状態でなければ、触覚又は聴覚に対する受動的な刺激などの受動的なソリューションを提供することが、ユーザーの感情や疲労状態の改善に効果的である。 The prescribed action has the effect of improving the user's emotions and fatigue state, but if the user's emotions or fatigue state are not appropriate for performing the prescribed action, providing a passive solution, such as passive stimulation of the senses of touch or hearing, is effective in improving the user's emotions and fatigue state.
本発明によれば、ユーザーの顔に現れている感情又は疲労状態に基づいて、ユーザーが、触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかが判定される。 According to the present invention, it is determined whether the user is in a first state in which a passive solution, which is a passive stimulation of the sense of touch or hearing, should be provided, or in a second state in which an active solution, which encourages a predetermined action, should be provided, based on the emotion or fatigue state shown on the user's face.
そして、当該判定の結果に基づいてソリューションが決定されるので、ユーザーの感情や疲労状態に応じてソリューションの種類を適切に変えて提供することができる。 Then, a solution is determined based on the results of this judgment, so the type of solution provided can be appropriately changed depending on the user's emotions and fatigue state.
本発明のユーザー状態分析方法において、
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことが好ましい。
In the user condition analysis method of the present invention,
the active solution includes a combination of periodic vibrations lasting a predetermined time, audio to improve the user's condition, and information to encourage the user to breathe or meditate in a predetermined way;
If the user is in the second state, it is preferable that in the solution determination step, the active solution including a combination of the vibration, the sound, and information encouraging the user to breathe or meditate in a predetermined manner is determined as the solution to be provided to the user.
所定の呼吸法及び瞑想には、感情を落ち着かせ、疲労を改善し、あるいは人を覚醒した状態に導く効果がある。 Specific breathing techniques and meditation can have the effect of calming emotions, relieving fatigue, and bringing a person to a state of alertness.
本発明によれば、ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にある場合には、所定の方法での呼吸又は瞑想を促す情報を含むソリューションが決定されるので、効果的にユーザー状態を改善することができる。 According to the present invention, when the user is in a second state in which an active solution encouraging a predetermined action should be provided, a solution is determined that includes information encouraging breathing or meditation in a predetermined manner, thereby effectively improving the user's state.
本発明者らの検討により、通常の状態に比した、「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」、「唇の潤いの状態」を含む、人の顔の状態に関する質問への回答と、当該人の顔に現れている感情又は疲労状態との間には、有意な相関関係が存在していることが判明した。 The inventors' research has revealed that there is a significant correlation between the answers to questions about the condition of a person's face, including "how open the eyes are," "how dark the bags around the eyes are," "the condition of acne or pimples," "how upturned or downturned the corners of the mouth are," and "how moisturized the lips are" compared to a normal condition, and the emotions or fatigue state reflected on the person's face.
なお、感情とは例えば、幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性である。 Note that emotions include, for example, the four factors of happiness, burnout state, life satisfaction, negativity or positivity based on the PANAS scale, degree of resilience, subjective well-being scale, and stress tolerance.
また、疲労状態とは例えば、不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の状態である。 Fatigue states include, for example, a state of insomnia, physical fatigue, mental fatigue, and the state of fatigue components in the body.
より具体的には、本実施形態における身体疲労度、精神疲労度としては、例えばChalder疲労質問票の総スコアに相当する値が含まれるほか、文部科学省による生活者ニーズ対応研究「疲労及び疲労感の分子・神経メカニズムとその防御に関する研究」で作成された「自己診断疲労度チェックリスト」による、身体的評価、精神的評価、及び総合評価に相当する値が含まれる。 More specifically, the physical fatigue level and mental fatigue level in this embodiment include, for example, values equivalent to the total score of the Chalder Fatigue Questionnaire, as well as values equivalent to the physical evaluation, mental evaluation, and overall evaluation from the "Self-diagnosis Fatigue Checklist" created in the Ministry of Education, Culture, Sports, Science and Technology's research to meet consumer needs, "Research on the molecular and neural mechanisms of fatigue and fatigue sensation and prevention thereof."
不眠症の状態とは、例えばアテネ不眠尺度が含まれる。 Examples of insomnia status include the Athens Insomnia Scale.
体内の疲労成分としては、例えば酸化生成物である8OHdG(8-hydroxy-2’-deoxyguanosine)及びイソプラスタン、酸化ストレス度を表すdROMs(Diacron Reactive Oxygen Metabolites)が含まれる。 Fatigue components in the body include, for example, the oxidation products 8OHdG (8-hydroxy-2'-deoxyguanosine) and isoprostane, and dROMs (Diacron Reactive Oxygen Metabolites), which indicate the degree of oxidative stress.
幸せの4つの因子とは、前野隆司氏が作成した幸せの4つの因子のアンケートによる第1~第4の各因子の値である。具体的には、第1因子は、「やってみよう!」因子(自己実現と成長の因子)であり、本実施形態における自己実現又は成長に対する満足感の度合に該当する。第2因子は、「ありがとう!」因子(つながりと感謝の因子)であり、本実施形態における他者との良好な関係性又は他者への感謝の感情の度合もしくは前向きさに該当する。第3因子は、「なんとかなる!」因子(まえむきと楽観の因子)であり、本実施形態における楽観性又は自己肯定感の度合である。第4因子は、「あなたらしく!」因子(独立とマイペースの因子)である。 The four factors of happiness are the values of the first to fourth factors in a questionnaire on the four factors of happiness created by Maeno Takashi. Specifically, the first factor is the "Let's give it a try!" factor (a factor of self-realization and growth), which corresponds to the degree of satisfaction with self-realization or growth in this embodiment. The second factor is the "Thank you!" factor (a factor of connection and gratitude), which corresponds to good relationships with others or the degree of gratitude toward others or positivity in this embodiment. The third factor is the "It'll work out!" factor (a factor of forward-lookingness and optimism), which corresponds to the degree of optimism or self-affirmation in this embodiment. The fourth factor is the "Be yourself!" factor (a factor of independence and going at your own pace).
バーンアウトの状態とは、例えばMBI(Maslach Burnout Inventory)による、情緒的消耗感、脱人格化、個人的達成感の低下の尺度に相当する値が含まれる。 The state of burnout includes, for example, values equivalent to the scales of emotional exhaustion, depersonalization, and reduced sense of personal accomplishment measured by the Maslach Burnout Inventory (MBI).
人生満足度とは、人生に対する満足感の度合であり、例えばEd Dienerによる人生満足尺度(SWLS:Satisfaction With Life Scale)に相当する値が含まれる。 Life satisfaction is the degree of satisfaction with life, and includes values equivalent to, for example, Ed Diener's Satisfaction With Life Scale (SWLS).
PANAS尺度によるネガティブさ又はポジティブさとは、Watson、Clark、TellegenらによるPANAS(Positive and Negative Affect Schedule)尺度に含まれる評定の尺度であり、例えばポジティブ情動8項目、ネガティブ情動8項目からなる簡易気分評定の尺度である。 Negativity or positivity according to the PANAS scale is a rating scale included in the PANAS (Positive and Negative Affect Schedule) scale by Watson, Clark, Tellegen, et al., and is a simple mood rating scale consisting of, for example, eight positive affect items and eight negative affect items.
レジリエンスの度合とは、心理的な傷つきから立ち直る回復力であり、例えば平野真理氏が「レジリエンスの資質的要因・獲得的要因の分類の試み」にて提唱した二次元レジリエンス要因尺度が含まれる。 The degree of resilience is the ability to bounce back from psychological trauma, and includes, for example, the two-dimensional resilience factor scale proposed by Mari Hirano in "An attempt to classify the endowed and acquired factors of resilience."
主観的幸福感尺度とは、心理的健康の尺度の一種であり、例えばWHOが作成した主観的健康感尺度(SUBI)の「人生に対する前向きの気持ち」、「達成感」、「自信」、「至福感」、「人生に対する失望感」の5領域(各3項目)の尺度が含まれる。 The subjective well-being scale is a type of measure of psychological health, and includes, for example, the five domains (three items each) of "Positive attitude toward life," "Sense of accomplishment," "Self-confidence," "Sense of bliss," and "Sense of disappointment toward life" in the Subjective Well-Being Scale (SUBI) created by the WHO.
ストレス耐性とは、心理社会的ストレスに対するストレス耐性であり、例えば桂戴作氏らが作成した「ストレス耐性チェックリスト」によるストレス耐性度が含まれる。 Stress tolerance refers to stress tolerance against psychosocial stress, and includes, for example, the level of stress tolerance measured using the "Stress Tolerance Checklist" created by Katsura Taisaku and others.
当該知見を応用した、本実施形態におけるユーザー状態分析方法の構成、作用、効果は以下の通りである。 The configuration, action, and effects of the user status analysis method in this embodiment, which applies this knowledge, are as follows:
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions about the user's facial condition preferably include a question about the degree to which the user's eyes are open compared to their normal state.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions about the user's facial condition preferably include a question about the density of dark circles around the user's eyes compared to the user's normal condition.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
Preferably, the questions regarding the user's facial condition include questions regarding the user's acne or pimple condition compared to their normal condition.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions about the user's facial condition preferably include a question about the degree to which the corners of the mouth are raised or lowered compared to the user's normal state.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことが好ましい。
In the user condition analysis method of the present invention,
The questions regarding the user's facial condition preferably include a question regarding the moisturizing condition of the user's lips compared to their normal condition.
本発明によれば、ユーザーの感情又は疲労状態に密接な関連を有し、かつ自身の顔の画像を見て自ら簡単に判断することのできる、ユーザーの通常の状態に比した「目の開き具合」、「目の周りのクマの濃さ」、「ニキビ又は吹き出物の状態」、「口角の上がり具合又は下がり具合」及び/又は「唇の潤いの状態」という具体的な顔の状態の情報が取得されるので、ユーザーの感情又は疲労状態を精度よくかつ簡便に分析できる。 According to the present invention, specific facial condition information such as "eye opening degree," "dark circles around the eyes," "condition of acne or pimples," "degree of turning up or down of the corners of the mouth," and/or "moisturizing state of lips" compared to the user's normal condition is obtained, which is closely related to the user's emotions or fatigue state and can be easily judged by the user by looking at an image of his or her own face, so that the user's emotions or fatigue state can be analyzed accurately and easily.
また、ユーザーは自身の感情又は疲労状態を知るためには、自分の顔のどの部分の状態を見ればよいかが分かる。そのため、日常生活においてもこれらの顔の部分を気にかけるようになるので、自身の顔に現れている感情又は疲労状態の自覚がより効果的に促される。 In addition, users will know which parts of their face to look at in order to understand their own emotions or state of fatigue. This will encourage them to pay more attention to these parts of their face in their daily lives, and will more effectively encourage them to become aware of the emotions or state of fatigue that are reflected in their own face.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user condition analysis method of the present invention,
The step of capturing an image of the user's face is performed before or after the step of receiving the input,
The image analyzing step is preferably a step of analyzing an image of the user's face captured before or after the input receiving step.
顔の状態についての質問に対する回答の入力操作をユーザーが行っている間に、ユーザーの顔の画像を撮像すると、ユーザーは顔の画像の撮像に集中しておらず手ぶれなどが生じるので、例えば手ぶれを補正する機能を有する装置で撮像を行わないと、撮像位置などがずれてしまい、結果として画像の分析の精度を保つことが難しくなる可能性がある。 If an image of a user's face is captured while the user is entering answers to questions about the condition of their face, the user may not be concentrating on capturing an image of their face, resulting in camera shake. For example, if the image is not captured using a device with a function to correct camera shake, the image capture position may shift, and as a result, it may be difficult to maintain the accuracy of the image analysis.
そのため、ユーザーが顔の画像の撮像に集中できる状態でユーザーの顔の画像を撮像できればなおよい。 Therefore, it would be even better if an image of the user's face could be captured in a state where the user can concentrate on capturing an image of the face.
本発明によれば、ユーザーの顔の画像を撮像するステップは、入力受付ステップの前又は後に実行される。そのため、ユーザーに顔の画像の撮像に集中させた状態で顔画像を取得できるので、撮像位置などがずれる可能性を軽減でき、画像分析の精度を保つことができる。 According to the present invention, the step of capturing an image of the user's face is executed before or after the input receiving step. Therefore, the facial image can be acquired while the user is concentrating on capturing an image of the face, which reduces the possibility of the capturing position being shifted and maintains the accuracy of the image analysis.
本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことが好ましい。
In the user condition analysis method of the present invention,
the step of capturing an image of the face of the user is executed during the execution of the input receiving step;
The image analysis step is preferably a step of analyzing an image of the face of the user captured during execution of the input reception step.
あるいは、本発明のユーザー状態分析方法において、
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことが好ましい。
Alternatively, in the user condition analysis method of the present invention,
The step of capturing an image of the face of the user is performed before or during the step of receiving the input,
The image analysis step is preferably performed during execution of the input reception step.
顔の状態についての質問に対する回答の入力と、分析に必要な顔の画像の撮像には、一定の時間を要することが考えられるが、そのような操作に要する時間が長いと、ユーザーは煩わしく感じて、ユーザーの感情又は疲労状態に及ぼしてしまうことが考えられる。あるいはその煩わしさのために操作をやめてしまい、結果としてユーザーの感情又は疲労状態をユーザー自身に自覚させることができないおそれがある。 It is expected that it will take a certain amount of time to input answers to questions about the condition of the face and to capture the facial image required for analysis. If such operations take a long time, the user may find them irritating, which may affect the user's emotions or state of fatigue. Or, the user may stop operating the device due to the irritation, and as a result, the user may not be able to become aware of his or her own emotions or state of fatigue.
本発明によれば、ユーザーの顔の画像を撮像するステップ又は画像分析ステップは、入力受付ステップの実行中に実行されるため、操作等に要する時間がその分短縮されるので効率的であり、ユーザーに煩わしさを感じさせてしまう可能性を低減できる。 According to the present invention, the step of capturing an image of the user's face or the image analysis step is executed during the execution of the input reception step, so the time required for operations, etc. is accordingly shortened, making it more efficient and reducing the possibility of causing annoyance to the user.
本発明のユーザー状態分析システムは、
前記ユーザーの顔の画像を撮像する撮像部と、
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
The user condition analysis system of the present invention comprises:
An imaging unit that captures an image of the user's face;
A display unit for displaying information;
An imaging control unit that causes the imaging unit to capture an image of the user's face;
a display control unit that displays on the display unit an image of the user's face captured by the imaging unit, and displays on the display unit a question about a facial condition that is correlated with an emotion or fatigue state appearing on the user's face displayed on the display unit;
an input unit arranged at a position where the user can perform an operation while viewing the image of the user's face displayed on the display unit and the question;
an input receiving unit that receives an input of an answer to the question by the user via the input unit while the image of the face is displayed on the display unit;
an answer analysis unit that analyzes the answer by the user to the question received by the input receiving unit;
The present invention is characterized by comprising a user state information generation unit that generates user state information indicating a user state, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.
あるいは本発明のユーザー状態分析システムは、
前記ユーザーの顔を映す鏡部と、
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とする。
Alternatively, the user condition analysis system of the present invention comprises:
A mirror unit that reflects the face of the user;
a display unit that is disposed in a position where the user can see the face of the user reflected in the mirror unit at the same time and that displays information;
a display control unit that displays on the display unit a question about a facial condition that is correlated with an emotion or a fatigue state appearing on the face of the user reflected in the mirror unit;
an input unit arranged at a position where the user can perform an operation while looking at the face of the user reflected in the mirror unit and the question displayed on the display unit;
an input receiving unit that receives, via the input unit, an input of a response from the user to a question about the state of the user's face while showing an image of the user's face reflected in the mirror unit;
a response analysis unit that analyzes responses by the user to questions about the facial condition of the user that are received by the input receiving unit;
The present invention is characterized by comprising a user state information generation unit that generates user state information indicating a user state, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.
本発明によれば、ユーザーは自身の顔を見ながら顔の状態に関する質問に回答するため、回答は容易である。また、自身の顔の状態を冷静に顧みる機会を得られるので、感情又は疲労状態と密接な関係を有する顔の状態についての自覚が促され、自身の顔の状態を正確に回答できる可能性が高まる。 According to the present invention, the user answers questions about the condition of his/her face while looking at his/her own face, making it easy for him/her to answer. In addition, since the user has the opportunity to calmly reflect on the condition of his/her own face, he/she is encouraged to become aware of the facial condition that is closely related to emotions or fatigue state, and the possibility of being able to answer questions about his/her own facial condition accurately is increased.
これにより、ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を精度よく生成できる。 This allows for accurate generation of user state information that indicates the user state, which is either or both of the user's emotions and fatigue state.
<ユーザー状態分析システムの構成>
まず図1を用いて、本実施形態のユーザー状態分析方法に用いられる、ユーザー状態分析システムの構成について説明する。なお同一の構成については、同一の符号を付して説明を省略することがある。
<Configuration of user status analysis system>
First, the configuration of a user state analysis system used in the user state analysis method of the present embodiment will be described with reference to Fig. 1. Note that the same components will be given the same reference numerals and the description thereof will be omitted.
本実施形態のユーザー状態分析システムは、例えば携帯端末10と、サーバー30とを含んで構成される、コンピューターネットワークシステムである。
The user status analysis system of this embodiment is a computer network system including, for example, a
携帯端末10とサーバー30との間は、携帯電話網などの通信ネットワーク90により相互に通信可能に接続される。なお携帯端末10とサーバー30は、いずれも複数であってよい。
The
携帯端末10は、例えば撮像部110と、表示部130と、携帯端末制御部150と、振動発生部170と、音声再生部190と、入力部210と、を含んで構成される。本実施形態において携帯端末10はスマートフォンであるが、例えばタブレット端末等の汎用的な端末であってもよく、ユーザーが携帯可能な専用端末であってよい。
The
撮像部110は、ユーザーの顔の画像を撮像するカメラである。本実施形態においては、携帯端末10はスマートフォンであるので、インカメラ及びアウトカメラの両方が撮像部110に該当する。
The
表示部130は、ユーザーに向けて情報を表示するディスプレイである。
The
携帯端末制御部150は、CPU(Central Processing Unit)等の演算処理装置、メモリ、及びI/O(Input/Output)デバイスなどにより構成されている。携帯端末制御部150は、所定のプログラムを読み込んで実行することにより例えば撮像制御部151、表示制御部153、入力受付部155として機能し、あるいはさらに、画像分析部157、ソリューション提供部159、モード指定受付部161として機能する。
The mobile
撮像制御部151は、撮像部110に、ユーザーUの顔又は手指の肌の画像を撮像させる。
The
表示制御部153は、撮像部110により撮像されたユーザーUの顔の画像を表示部130に表示すると共に、表示部130に表示されたユーザーUの顔の状態についての質問を表示部130に表示する。なお当該質問は、表示部130に表示されたユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問である。
The
入力受付部155は、入力部210を介してユーザーUの顔の状態についての質問に対するユーザーによる回答の入力を顔の画像を表示部130に表示させた状態で受け付ける。
The
画像分析部157は、撮像部110により撮像されたユーザーUの顔又は手指の肌の画像を分析する。
The
ソリューション提供部159は、ソリューション決定部335により決定されたソリューションをユーザーUに提供する。
The
モード指定受付部161は、ユーザーUによる、ユーザー状態分析システムの動作モードの指定を受け付ける。
The mode
振動発生部170は、ソリューションに含まれる、所定の時間継続する周期的な振動であって、振動の開始時から終了時にかけて段階的に周期が変動する振動をユーザーUに提供する例えばバイブレーターである。
The
音声再生部190は、ソリューションに含まれる、ユーザー状態を改善するための人の声、自然音又は音楽を含む、所定の時間継続する音声をユーザーUに提供する例えばスピーカーである。
The
入力部210は、ユーザーによる入力を受け付ける例えばタッチパネル、キーボード又はマウスその他のポインティングデバイスである。
The
なお、携帯端末10がスマートフォン、タブレットであれば入力部210は、通常タッチパネルであるので、表示部130に表示される顔の画像、顔の状態のついての質問を見ながら、ユーザーが当該質問に対する回答を入力できるが、その他の機器により構成される場合においても、表示部130と入力部210とは、顔の映像と顔の状態のついての質問を見ながら回答を入力できる位置関係に配置される。
If the
サーバー30は、サーバー記憶部310と、サーバー制御部330と、を含んで構成される、例えばコンピューターである。サーバー30は、複数であっても単数であってもよい。
The
サーバー記憶部310は、例えばROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶装置により構成されている。サーバー記憶部310が、本実施形態における記憶部として機能する。
The
サーバー記憶部310は、例えばユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションの情報を記憶しているほか、ユーザー状態分析システムの処理結果、ユーザー状態分析システムの処理に必要な情報を記憶している。
The
サーバー制御部330は、CPU等の演算処理装置、メモリ、及びI/Oデバイスなどにより構成されている。サーバー制御部330は、所定のプログラムを読み込んで実行することにより例えば回答分析部331、ユーザー状態情報生成部333として機能し、あるいはさらに、ソリューション決定部335、心拍取得部337、状態判定部339として機能する。
The
回答分析部331は、入力受付部155により受け付けられた、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する。
The
ユーザー状態情報生成部333は、回答分析部331及び画像分析部157による分析結果に基づいて、ユーザーUのユーザー状態を示すユーザー状態情報を生成する。
The user status
ソリューション決定部335は、複数のソリューションからユーザー状態情報に応じたソリューションを決定する。
The
心拍取得部337は、画像分析部157によるユーザーUの顔又は手指の肌の画像の分析結果からユーザーUの心拍に関する情報である、例えばユーザーUの心拍数を取得する。
The heart
状態判定部339は、ユーザー状態情報に基づいてユーザーUが、ユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する。
The
<処理の概要>
次に、図2~図11を参照して本実施形態のユーザー状態分析方法による一連の工程について説明する。
<Processing Overview>
Next, a series of steps according to the user state analysis method of this embodiment will be described with reference to FIGS.
<モード指定受付ステップ>
一連の処理を始めると、まずモード指定受付部161は、ユーザーUによる、動作モードの指定を受け付けるモード指定受付ステップを実行する(図2/S10)。
<Mode designation acceptance step>
When the series of processes is started, first, the mode
モード指定受付部161は例えば、ユーザーUに動作モードの入力を促す画面を、表示部130に表示する。
The mode
図3は、ユーザーUに動作モードの入力を促す画面の一例である。図3では、顔モードに該当する「Midnight Blue」を指定するためのアイコンM1と、第1指モードに該当する「Red」を指定するためのアイコンM21、第2指モードに該当する「Blue」を指定するためのアイコンM22、第3指モードに該当する「Green」を指定するためのアイコンM23が表示されている。 Figure 3 is an example of a screen that prompts the user U to input an operation mode. In Figure 3, an icon M1 for specifying "Midnight Blue" corresponding to the face mode, an icon M21 for specifying "Red" corresponding to the first finger mode, an icon M22 for specifying "Blue" corresponding to the second finger mode, and an icon M23 for specifying "Green" corresponding to the third finger mode are displayed.
いずれかのアイコンをユーザーUがタップすると、モード指定受付部161は対応するモードの指定を受け付けて本ステップを終了する。
When user U taps any of the icons, the mode
なお本実施形態においては、第1指モードはユーザーUを覚醒した状態に誘導するためのモードであり、第2指モードはユーザーUをリラックスした状態に誘導するためのモードであり、第3指モードはユーザーUを冷静な状態に誘導するためのモードである。 In this embodiment, the first finger mode is a mode for guiding the user U to an alert state, the second finger mode is a mode for guiding the user U to a relaxed state, and the third finger mode is a mode for guiding the user U to a calm state.
また同画面には「History」のアイコンH1も表示されている。ユーザーUが当該アイコンをタップする操作をすると、当該操作に応じて表示制御部153はサーバー記憶部310に記憶されているユーザー状態情報を取得して、表示部130に表示させる。
The screen also displays a "History" icon H1. When the user U taps on the icon, the
<第1撮像ステップ>
動作モードとして顔モードが指定された場合には(図2/S20:顔モード)、撮像制御部151は、撮像部110に、ユーザーUの顔の画像を撮像させる第1撮像ステップを実行する。
<First imaging step>
When the face mode is designated as the operation mode (FIG. 2/S20: face mode), the
このとき撮像制御部151は例えば、撮像部110であるインカメラを介して、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像を開始する。あるいはこのとき撮像制御部151は、例えば顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の静止画を1枚撮像してもよい。
At this time, the
一方、動作モードとして指モードに該当するモードが指定された場合には(図2/S20:指モード)、図2/S30~S70の処理は実行されず、図2/S90以降の処理が実行される。 On the other hand, if a mode corresponding to finger mode is specified as the operation mode (FIG. 2/S20: finger mode), the processes in FIG. 2/S30 to S70 are not executed, and the processes in FIG. 2/S90 and after are executed.
<顔画像・質問表示ステップ>
次に表示制御部153は、ユーザーUの顔の映像を見せると共に、ユーザーUの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を表示する顔画像・質問表示ステップを実行する(図2/S50)。
<Face image and question display step>
Next, the
図4は、顔画像・質問表示ステップにおいて表示される画面の一例である。表示制御部153は例えば図4に示すように、撮像されたユーザーUの顔の画像Fと、顔の状態についての1問目の質問である「目の開き具合はいつもと比べて」の表示Q1と、回答ボタンA1を表示部130に表示する。
Figure 4 is an example of a screen displayed in the face image/question display step. For example, as shown in Figure 4, the
表示制御部153は例えば図4に示すように、回答ボタンA1中の、「開いている」から「閉じている」までの5段階評価の何れかをタップして顔の状態を回答するように促す画面を表示する。
For example, as shown in FIG. 4, the
<入力受付ステップ>
入力受付部155は例えば、表示制御部153が上記のように1問目の質問を表示したときに、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を、顔の映像をユーザーUに見せている状態で受け付ける入力受付ステップを開始する(図2/S70)。
<Input reception step>
For example, when the
回答ボタンA1の5段階評価のいずれかの部位をユーザーUがタップすると、入力受付部155は該当する評価値を質問への回答の入力として受け付ける。
When user U taps any part of the answer button A1 that indicates the five-point scale, the
なお、図2/S50及びS70の処理は、最後の質問への回答が入力される(図2/S80:Yes)まで繰り返し実行される。 The processes in FIG. 2/S50 and S70 are repeated until an answer to the last question is entered (FIG. 2/S80: Yes).
すなわち例えば、表示制御部153はユーザーの顔の状態についての2~5問目の質問として、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問、ニキビ又は吹き出物の状態に関する質問、口角の上がり具合又は下がり具合に関する質問、唇の潤いの状態に関する質問を順に表示して、入力受付部155はこれらの各質問へのユーザーUによる回答の入力を受け付ける。
That is, for example, the
そして入力受付部155は例えば、このようにして受け付けた、各質問へのユーザーUによる回答の情報をサーバー30に送信して入力受付ステップを終了する。
Then, the
<第2撮像ステップ>
その後、撮像制御部151は、画像分析ステップで分析を行うためのユーザーUの顔又は手指の肌の画像を撮像する第2撮像ステップを実行する。
<Second imaging step>
Thereafter, the
なおこのとき撮像制御部151は、顔モードが指定されている場合(図5/S91:顔モード)には、撮像部110であるインカメラを介して、ユーザーUの顔の画像を撮像して(図5/S93)第2撮像ステップを終了する。
At this time, if face mode is specified (FIG. 5/S91: face mode), the
一方、指モードが指定されている場合(図5/S91:指モード)に撮像制御部151は、撮像部110であるアウトカメラを介して、ユーザーUの手指の肌の画像を撮像して(図5/S95)第2撮像ステップを終了する。
On the other hand, if finger mode is specified (Fig. 5/S91: finger mode), the
なおこのとき表示制御部153は例えば、ユーザーUの顔又は手指の位置を正しい位置に誘導するための枠を表示部130に表示して、撮像制御部151はユーザーUの顔又は手指が正しい位置にあることを認識したときに、撮像部110を介してユーザーUの顔又は手指の肌の動画を所定の時間(例えば30秒など。)撮像する。
At this time, the
また、撮像制御部151は例えば、当該動画の撮像中にユーザーUの顔又は手指が正しい位置からずれた場合には動画の撮像を停止し、表示制御部153はユーザーUの顔又は手指の位置を正しい位置に戻すように促すメッセージを表示部130に表示する。そして撮像制御部151は、ユーザーUの顔又は手指が正しい位置に戻ったことを認識したときに、ユーザーUの顔又は手指の肌の動画の撮像を再開する。あるいは撮像制御部151が撮像する画像は、連続的に撮像した複数の静止画であってもよい。
For example, if the face or fingers of user U deviate from the correct position during capture of the video, the
<画像分析ステップ>
その後、画像分析部157は、撮像されたユーザーUの顔又は手指の肌の画像を分析する画像分析ステップを実行する(図2/S110)。
<Image analysis step>
Thereafter, the
すなわち画像分析部157は、顔モードが指定されている場合(図6/S111:顔モード)には、第2撮像ステップで撮像されたユーザーUの顔の画像を分析し(図6/S113)、指モードが指定されている場合(図6/S111:指モード)には、第2撮像ステップで撮像されたユーザーUの手指の画像を分析する(図6/S115)。
That is, if face mode is specified (Fig. 6/S111: face mode), the
より具体的には、画像分析部157は例えば、肌の画像である動画又は連続的に撮像した静止画から、RGBの各色成分の輝度の変化の情報を取得する。
More specifically, the
そして画像分析部157は例えば、このようにして取得した、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報をサーバー30に送信して画像分析ステップを終了する。
Then, the
<回答分析ステップ>
回答分析部331は例えば、携帯端末10から各質問へのユーザーUによる回答の情報及びRGBの各色成分の輝度の変化の情報を受信した際に、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を分析する回答分析ステップを実行する。
<Response analysis step>
For example, when the
より具体的には回答分析部331は例えば、入力受付ステップで受け付けられたユーザーUの顔の状態についての質問に対するユーザーUによる回答について、当該回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定する。
More specifically, for example, the
回答とユーザーUの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報としては、種々の情報が用いられてよい。本実施形態において回答分析部331は例えば下記の式を第1相関関係情報として用いて、ユーザーUの顔に出ている疲れの兆候を「元気」(=10)から「疲れた」(=0)までの範囲で疲れの兆候スコアとして指標化して、当該スコアを回答の分析結果として決定する。
Various information may be used as the first correlation information indicating the correlation between the answer and the emotion or fatigue state shown on the face of the user U. In this embodiment, the
F=p1+p2+p3+p4+p5
ただし、Fは顔に現れている感情又は疲労状態を指標化した値(疲れの兆候スコア)であって、その最大値は10、最小値は0である。すなわち例えばp1~p5を足し合わせた値が10を超える場合には10とし、0を下回る場合は0となる。
F = p1 + p2 + p3 + p4 + p5
Here, F is a value (fatigue sign score) that indexes the emotion or fatigue state shown on the face, and its maximum value is 10 and its minimum value is 0. That is, for example, if the sum of p1 to p5 exceeds 10, it is set to 10, and if it is below 0, it is set to 0.
p1は、ユーザーUの通常の状態に比した目の開き具合を、「開いている」(=5点)から「閉じている」(=1点)までの1点刻みの5段階で評価した値である。 p1 is a value that evaluates the degree to which user U's eyes are open compared to their normal state, on a 5-point scale ranging from "open" (= 5 points) to "closed" (= 1 point) in 1-point increments.
p2は、ユーザーUの通常の状態に比した目の周りのクマの濃さを、「薄くなっている」(=1点)から「濃くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p2 is a value that evaluates the darkness of the dark circles around the user U's eyes compared to their normal state on a five-point scale in 0.5 point increments ranging from "lighter" (= 1 point) to "darker" (= -1 point).
p3は、ユーザーUの通常の状態に比したニキビ又は吹き出物の状態を、「良くなっている」(=1点)から「悪くなっている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p3 is a value that evaluates the condition of user U's acne or pimples compared to their normal condition on a 5-point scale ranging from "better" (= 1 point) to "worse" (= -1 point) in 0.5 point increments.
p4は、ユーザーUの通常の状態に比した口角の上がり具合又は下がり具合を、「上がっている」(=5点)から「下がっている」(=1点)までの1点刻みの5段階で評価した値である。 p4 is a value that evaluates the degree to which the corners of the user U's mouth are raised or lowered compared to their normal state, on a 5-point scale ranging from "raised" (= 5 points) to "lowered" (= 1 point) in 1-point increments.
p5は、ユーザーUの通常の状態に比した唇の潤いの状態を、「プルプルしている」(=1点)から「かさかさしている」(=-1点)までの0.5点刻みの5段階で評価した値である。 p5 is a value that evaluates the moisturization of user U's lips compared to their normal state on a 5-point scale ranging from "soft" (= 1 point) to "dry" (= -1 point) in 0.5 point increments.
<ユーザー状態情報生成ステップ>
その後、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の分析結果及び顔の画像の分析結果に基づいて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップが実行される(図2/S150)。
<User status information generation step>
Then, a user status information generation step is executed to generate user status information indicating the user status including one or both of the emotions and fatigue state appearing on the user U's face based on the analysis results of the answers by the user U to the questions about the condition of the user U's face and the analysis results of the facial image (Figure 2/S150).
より具体的には、ユーザー状態情報生成ステップにおいては、まず心拍取得部337が画像分析ステップにて送信された、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍数を取得する(図7/S151)。
More specifically, in the user condition information generation step, the heart
さらに心拍取得部337は、ユーザーUの顔の画像に基づくRGBの各色成分の輝度の変化の情報からユーザーUの心拍に関する情報として、ユーザーUの心拍の揺らぎに関する情報を取得する(図7/S153)。心拍の揺らぎは、ユーザーUの疲労状態と密接に関連しているためである。
Furthermore, the heart
心拍の揺らぎに関する情報とは、例えばCVR-R又は、心拍の変動を周波数解析して得られる、心拍の変動の低周波成分であるLF(Low Frequency)の総パワーと高周波成分であるHF(High Frequency)の総パワーとの合計であるトータルパワー値である。 The information relating to heart rate fluctuations is, for example, the total power value obtained by CVR-R or frequency analysis of heart rate fluctuations, which is the sum of the total power of LF (Low Frequency) which is the low frequency component of heart rate fluctuations, and the total power of HF (High Frequency) which is the high frequency component.
そしてユーザー状態情報生成部333は、ユーザーの心拍に関する情報である心拍数について、心拍に関する情報とユーザーUの自律神経バランスとの相関関係を示す第2相関関係情報、を用いて、ユーザーUの自律神経バランスに関する情報を取得する(図7/S153)。
Then, the user condition
なお自律神経バランスに関する情報とは例えば、心拍の変動を周波数解析して得られる、LFとHFとの比(LF/HF)である。 The information regarding autonomic nerve balance is, for example, the ratio of LF to HF (LF/HF) obtained by frequency analysis of heart rate fluctuations.
そしてユーザー状態情報生成部333は、ユーザーUの顔の状態に関する質問への回答の分析結果、顔の画像の分析結果及び自律神経バランスに関する情報に基づいて、ユーザーUのユーザー状態に関する総合スコアを決定する(図7/S155)。
The user condition
より具体的にはユーザー状態情報生成部333は、自律神経バランスに関する情報を1~10の間の点数で指標化した自律神経バランススコアを決定する。例えば交感神経が優位であるほど当該点数は1に近づき、副交感神経が優位であるほど当該点数は10に近づくように決定される。
More specifically, the user state
またユーザー状態情報生成部333は、例えば心拍の揺らぎに関する情報として取得したCVR-R(又はトータルパワー値)を1~10の間の点数で指標化した、心拍に基づく疲労度スコアを決定する。例えば心拍の揺らぎの度合が高いほど当該点数は1に近づき、心拍の揺らぎの度合が低いほど当該点数は10に近づくように決定される。
The user state
そしてユーザー状態情報生成部333は、自律神経バランススコア、心拍に基づく疲労度スコアの2つの値に、回答分析ステップにて決定されたユーザーUの顔に出ている疲れの兆候を数値化した疲れの兆候スコアを加えた3つの値の平均値を、ユーザーの感情又は疲労状態を指標化した、総合スコアとして決定する。
The user state
そしてユーザー状態情報生成部333は、ユーザー状態情報を生成して(図7/S157)、ユーザー状態情報生成ステップを終了する。
Then, the user status
より具体的にはユーザー状態情報生成部333は、ユーザーUの顔に出ている疲れの兆候を数値化した値、心拍の揺らぎに関する情報を点数化した値、自律神経バランスに関する情報を点数化した値、及び総合スコアのセットをユーザー状態情報とする。
More specifically, the user condition
<ユーザー状態情報記憶ステップ>
ユーザー状態情報記憶ステップにおいてユーザー状態情報生成部333は、ユーザー状態情報生成ステップにおいて生成したユーザー状態情報をサーバー記憶部310に時系列的に記憶する(図2/S170)。
<User state information storage step>
In the user status information storage step, the user status
<ソリューション決定ステップ>
そして、ソリューション決定部335は、ユーザーUの感情及び疲労状態の一方又は両方であるユーザー状態を改善するための、ユーザーUに提供可能な複数のソリューションから、ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップを実行する(図2/S190)。
<Solution decision step>
Then, the
すなわち例えば、ソリューション決定部335はソリューション決定ステップを開始すると、まず指定されている動作モードを確認する(図8/S191)。
For example, when the
そして、指定されている動作モードが顔モードである場合には(図8/S191:顔モード)、ソリューション決定部335は、ユーザー状態情報に含まれるユーザーUの顔に現れている感情又は疲労状態に基づいて、ユーザーUがユーザーUの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、ユーザーUに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定する(図8/S193)。
If the specified operation mode is face mode (FIG. 8/S191: face mode), the
ユーザーが第1状態にあるか第2状態にあるかの判定の手法には種々の手法が採用されてよいが、本実施形態においてソリューション決定部335は、ユーザー状態情報に含まれる自律神経バランスに関する情報を点数化した値が4以下かつユーザーUの顔に出ている疲れの兆候を数値化した値が6以上である場合(すなわち、交感神経が優位で、顔に出ている疲れの兆候から見て元気な状態にある場合)に、ユーザーUが第2状態にあると判定し、それ以外の場合には第1状態にあると判定する。
Various methods may be employed to determine whether the user is in the first state or the second state, but in this embodiment, the
ユーザーUが第1状態にあると判定された場合には(図8/S193:第1状態)、ソリューション決定部335は受動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S195)。
If it is determined that user U is in the first state (FIG. 8/S193: first state), the
一方、ユーザーUが第2状態にあると判定された場合には(図8/S193:第2状態)、ソリューション決定部335は能動的ソリューションからユーザー状態情報に応じたソリューションを決定する(図8/S197)。
On the other hand, if it is determined that user U is in the second state (FIG. 8/S193: second state), the
また、指定されている動作モードが指モードである場合には(図8/S191:指モード)、ソリューション決定部335は、指定された指モードに応じたソリューションを決定する(図8/S199)。
Also, if the specified operation mode is finger mode (FIG. 8/S191: finger mode), the
そしてソリューション決定部335は、このようにして決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を携帯端末10に送信してソリューション決定ステップを終了する。
Then, the
より具体的には、例えば動作モード及び総合スコアと、ソリューションとの対応テーブルを予めサーバー記憶部310に記憶しておき、ソリューション決定部335は、当該対応テーブルを参照して、ユーザー状態情報に含まれる総合スコアに対応したソリューションを決定する。
More specifically, for example, a correspondence table between the operation mode and total score and the solution is stored in advance in the
本実施形態においては、ソリューション決定部335が決定するソリューションは、所定の時間継続する周期的な振動であって該振動の開始時から終了時にかけて段階的に周期が変動する振動と、ユーザー状態を改善するための人の声、自然の音又は音楽を含む所定の時間継続する音声と、の組み合わせ(受動的ソリューション)であり、必要に応じてさらに、ユーザーUに所定の方法での呼吸又は瞑想などの動作を促す情報又はユーザーUを所定の状態に誘導する画像を含む(能動的ソリューション)。
In this embodiment, the solution determined by the
<ソリューションの具体例>
・顔モード用のソリューション
図9は、本実施形態における、総合スコアと顔モード用のソリューションとの対応関係を示している。図9に示すように、顔モード用のソリューションに含まれる音声については、ユーザーUが第1状態にある場合のソリューションは、総合スコアの高低に応じた3つのグループに分類されており、総合スコアが1~4の場合には人の声と音楽との組み合わせ、5~7の場合には自然の音と音楽との組み合わせ、8~10の場合には音楽のみである。このように、ソリューション決定部335は、ユーザー状態情報に基づいて、振動と組み合わせる音声を決定する。
<Specific examples of solutions>
- Face mode solutions Fig. 9 shows the correspondence between the overall score and face mode solutions in this embodiment. As shown in Fig. 9, for sounds included in face mode solutions, solutions when the user U is in the first state are classified into three groups according to the high and low overall scores, with a combination of human voice and music for an overall score of 1 to 4, a combination of natural sounds and music for an overall score of 5 to 7, and music only for an overall score of 8 to 10. In this way, the
また、振動については、ソリューション決定部335は、ユーザー状態情報に基づいて、より具体的にはユーザーUの心拍数に基づいて、振動の開始時の周期と、開始時から終了時にかけての該周期の変動パターンとを決定する。
In addition, for vibration, the
すなわち例えばユーザーUの心拍数が80以上である場合にソリューション決定部335は、振動の開始時の周期は85回/分であり、当該周期を10秒間継続させると決定する。またソリューション決定部335は、開始時から終了時にかけての該周期の変動パターンを、75回/分周期の振動を10秒継続し、65回/分周期の振動を20秒継続し、…と変動させて、最終的には50回/分周期の振動を120秒以上、ソリューションが終了するまで継続するという、周期の変動パターンを決定する。
That is, for example, if the heart rate of user U is 80 or higher, the
なお例えば、ユーザーUの心拍数が相対的に高い場合、本実施形態においては心拍数が70以上である場合には、振動の開始から一定期間(例えば20秒など。)は振動のみを提供して、その後音声を組み合わせて提供するようにソリューションを決定させてもよい。 For example, if the user U's heart rate is relatively high, in this embodiment, if the heart rate is 70 or higher, a solution may be determined in which only vibration is provided for a certain period of time (e.g., 20 seconds) from the start of vibration, and then sound is provided in combination.
これは、心拍が一定程度高い場合には、まず心拍を落ち着けてから音声を聞かせた方が、音声による感情及び疲労状態の改善効果が得られやすくなるためである。 This is because, if the heart rate is relatively high, it is easier to improve emotions and fatigue by first allowing the heart rate to calm down before listening to the audio.
なお本実施形態においてソリューション決定部335は、ユーザーUが第1状態にあると判定されている場合には、総合スコアに対応した受動的ソリューションを3つ決定し、ユーザーUが第2状態にあると判定されている場合には、総合スコアに対応した能動的ソリューションを1つと、受動的なソリューションを2つ決定する。そのため、総合スコアが1~4の場合、5~7の場合、8~10のそれぞれに対応する複数の音声のソリューションがサーバー記憶部310に記憶されている。
In this embodiment, if the user U is determined to be in the first state, the
そして、ユーザーUが第2状態にある場合のソリューションは、音楽と、ユーザーUに所定の動作を促す情報である「行動をサポートする文字」と、振動との組み合わせである。 The solution when user U is in the second state is a combination of music, "text that supports actions" that is information encouraging user U to take a specific action, and vibration.
「行動をサポートする文字」とは、例えば図10の下部に示すような、一定間隔で変化する「振動を感じながら簡単なマインドフルネス瞑想をやってみましょう」、「背筋を伸ばし姿勢を正しましょう」、「肩の力を抜きゆっくりと鼻呼吸をしましょう」などの、所定の動作又は所定の方法での呼吸又は瞑想を促す文章の組み合わせである。 "Text supporting actions" is a combination of sentences that encourage a specific action or a specific way of breathing or meditation, such as "Try simple mindfulness meditation while feeling the vibrations," "Straighten your back and correct your posture," and "Relax your shoulders and breathe slowly through your nose," which change at regular intervals, as shown in the lower part of Figure 10.
・指モード用のソリューション
図10は、本実施形態における、指モードごとの、ユーザーUの心拍数と指モード用のソリューションとの対応関係を示している。図10に示すように、指モード用のソリューションは、指定された指モード(Red、Blue、Greenの何れか)とユーザーUの心拍数に応じて決定される、振動と、ユーザーUに所定の動作を促す情報と、ユーザーUを所定の状態に誘導する画像との組み合わせである。
10 shows the correspondence between the heart rate of the user U and the finger mode solution for each finger mode in this embodiment. As shown in Fig. 10, the finger mode solution is a combination of vibration, information prompting the user U to perform a predetermined action, and an image guiding the user U to a predetermined state, which are determined according to a specified finger mode (either Red, Blue, or Green) and the heart rate of the user U.
より具体的には、ソリューション決定部335は、第1指モードに該当する「Red」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に短くなるように、すなわち振動数が増えていくように変動させる振動周期の変動パターンを決定する。これは、引き込み効果によってユーザーUの心拍を速めて、ユーザーUを覚醒した状態に誘導するためである。
More specifically, when "Red" corresponding to the first finger mode is specified, the
また、ユーザーUに所定の動作を促す情報は例えば、「姿勢を正して振動を感じながら
大きく呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、覚醒をイメージできる静止画である。
In addition, the information encouraging user U to perform a specified action may be, for example, a comment such as "straighten your posture and take a deep breath while feeling the vibration," and the image guiding user U to a specified state may be, for example, a still image that evokes the image of awakening.
そしてソリューション決定部335は、第2指モードに該当する「Bule」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Green」が指定されている場合に比して急である。これは、引き込み効果によってユーザーUの心拍を急速に落ち着かせて、ユーザーUを冷静な状態に誘導するためである。
When "Blue" corresponding to the second finger mode is specified, the
また、ユーザーUに所定の動作を促す情報は例えば、「肩を一度あげ、力を抜き振動を感じながらゆっくり呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、冷静をイメージできる静止画である。 In addition, the information encouraging user U to take a specific action may be, for example, a comment such as "Raise your shoulders once, relax, and breathe slowly while feeling the vibration," and the image guiding user U to the specific state may be, for example, a still image that evokes the image of calm.
そしてソリューション決定部335は、第3指モードに該当する「Green」が指定されている場合には、振動の開始時から終了時にかけて振動の周期が段階的に長くなるように、すなわち振動数が低下していくように変動させる該周期の変動パターンを決定する。なおこのときの振動数が低下していく速度は、「Blue」が指定されている場合に比して緩やかである。これは、引き込み効果によってユーザーUの心拍を緩やかに落ち着かせて、ユーザーUをリラックスした状態に誘導するためである。
When "Green", which corresponds to the third finger mode, is specified, the
また、ユーザーUに所定の動作を促す情報は例えば、「肩の力を抜いて、振動を感じながら深く呼吸をしましょう」というコメントの文章であり、ユーザーUを所定の状態に誘導する画像は例えば、リラックスをイメージできる静止画である。 In addition, the information encouraging user U to perform a specific action may be, for example, a comment such as "Relax your shoulders and take a deep breath while feeling the vibration," and the image guiding user U to a specific state may be, for example, a still image that evokes the image of relaxation.
なお、ソリューション決定部335は、例えばBlue又はGreenの指モードが指定されている場合において、最後に振動数を所定程度上げてから振動を終了するような変動パターンを決定してもよい。
In addition, when, for example, a Blue or Green finger mode is specified, the
これは、例えば業務の昼休みの休憩中にユーザーUがソリューションの提供を受けることを想定した場合、一度冷静な状態又はリラックスした状態になった後に、再度通常の心拍数に近づけることを促すことによって、休憩後に円滑に業務を再開できる状態にユーザーUを誘導するためである。 For example, if user U is provided with the solution during a lunch break at work, the solution will encourage user U to calm down or relax and then bring their heart rate closer to normal again, guiding them to a state where they can smoothly resume work after the break.
<ユーザー状態情報表示ステップ>
その後、例えば、携帯端末10がサーバー30から決定したソリューションに関する情報とユーザー状態情報生成ステップにて生成したユーザー状態情報を受信した際に、ユーザー状態情報を表示するユーザー状態情報表示ステップが実行される(図2/S210)。
<User status information display step>
Thereafter, for example, when the
図11は、顔モードが指定されていた場合に、ユーザー状態情報表示ステップで表示される内容の例である。すなわち、図11に示すように、表示制御部153は、受信したユーザー状態情報に含まれる、ユーザーUの顔に出ている疲れの兆候を数値化した値を示す「顔にでている疲れの兆候」の表示R1と、心拍の揺らぎに関する情報を点数化した値を示す「エネルギー余力度」の表示R2と、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示R3と、総合スコアの値の表示T1とをユーザー状態情報として並べて表示している。
Figure 11 is an example of the content displayed in the user condition information display step when the face mode is specified. That is, as shown in Figure 11, the
そして、表示制御部153は、画面の下部に、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)を3つ並べて表示している。また、当該アイコンにはたとえば、各ソリューションの内容を示すタイトルと、サムネイル画像がそれぞれ含まれる。
Then, the
なお、指モードが指定されている場合には、表示制御部153は例えば、自律神経バランスに関する情報を点数化した値を示す「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に表示させる。
When the finger mode is specified, the
<ソリューション提供ステップ>
顔モードが指定されている場合には、ユーザー状態情報表示ステップにおいて、表示制御部153が画面に表示させた、今回決定されたソリューションの提供を開始させるためのアイコン(S1、S2、S3)の何れかをユーザーUがタップする操作を行うと、当該操作に応じてソリューション提供部159はタップされたアイコンに対応するソリューションをユーザーに向けて提供する。
<Solution provision steps>
When face mode is specified, in the user status information display step, when the user U taps on any of the icons (S1, S2, S3) displayed on the screen by the
また指モードが指定されている場合には、ソリューション提供部159は、表示制御部153が「自律神経バランス」の表示と、ユーザーUの心拍数を示す表示とを表示部130に一定時間表示させた後に自動的に、ソリューション決定部335が決定した、ソリューションの提供を開始する。
In addition, when the finger mode is specified, the
すなわち例えばソリューション提供部159は振動発生部170を介して、ソリューションに含まれる振動を、ソリューション決定部335が決定した開始時の周期で開始し、ソリューション決定部335が決定した変動パターンに従って変動させながら所定の時間継続して提供する。
That is, for example, the
またソリューション提供部159はソリューション決定部335が決定した音声を、音声再生部190を介して再生し、ソリューション決定部335が決定した、ユーザーUに所定の動作を促す情報又はユーザーUを所定の状態に誘導する画像を、表示部130を介して表示して、ユーザーUに向けて提供する。
The
以上、本発明の実施形態について説明したが、これに限定されない。本発明の趣旨を逸脱しない範囲で、種々の変更が可能である。 The above describes an embodiment of the present invention, but the present invention is not limited to this. Various modifications are possible without departing from the spirit of the present invention.
すなわち例えば、上記においてはユーザーの顔が映像として表示部130に表示される場合の実施形態について説明したが、これに限定されない。すなわち例えば、本発明のユーザー状態分析方法は、いわゆるスマートミラーであるユーザー状態分析システムを用いて実行されて、ユーザーは鏡に写る自身の顔を見ながら、質問に答えてもよい。また、当該スマートミラーはユーザーが携帯可能であってもなくてもよい。
That is, for example, the above describes an embodiment in which the user's face is displayed as an image on the
より具体的には、本実施形態のユーザー状態分析システムは、ユーザーUの顔を映す鏡部を備えている。そして、表示部130は、ユーザーUが鏡部に写るユーザーUの顔と同時に見ることができる位置に配置される。表示制御部153は、鏡部に写るユーザーUの顔の状態についての質問を表示部130に表示する。入力部210は、ユーザーUが、鏡部に写るユーザーUの顔及び、表示部130に表示されたユーザーUの顔の状態についての質問を見ながら操作を行える位置に配置される。そして入力受付部155は、入力部210を介して、ユーザーUの顔の状態についての質問に対するユーザーUによる回答の入力を鏡部に写るユーザーUの顔の映像を見せた状態で受け付ける。
More specifically, the user condition analysis system of this embodiment includes a mirror unit that reflects the face of user U. The
あるいは例えば、回答分析部331は回答分析ステップにおいて、ユーザーUの顔の状態についての質問に対するユーザーUによる回答を入力として、ユーザーUの顔に現れている幸せの4因子、バーンアウトの状態、人生満足度、PANAS尺度によるネガティブさ又はポジティブさ、レジリエンスの度合、主観的幸福感尺度、ストレス耐性などの感情、又は不眠症の状態、身体疲労度、精神疲労度、体内の疲労成分の量の状態などの疲労状態を出力とする分析モデルを第1相関関係情報として用いて、ユーザーUの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定してもよい。
Alternatively, for example, in the answer analysis step, the
この場合、回答分析部331は分析モデルを用いて、分析対象の感情又は疲労状態が正常な状態であることを示す基準値よりも高い状態にあるか、低い状態にあるかの出力値を分析結果として決定する。
In this case, the
あるいは上記の実施例においては、入力受付ステップの後に、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)及び画像分析ステップを実行する構成について説明したが、これに限定されない。 In the above embodiment, a configuration was described in which, after the input receiving step, an image of the face of the user U is captured (second imaging step) for analysis in the image analysis step, and the image analysis step is executed, but this is not limited to the above.
すなわち例えば、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前に実行され、画像分析ステップは、入力受付ステップの前に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。このように、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)は、入力受付ステップの前後いずれにおいて行われてよく、それに応じて画像分析ステップは入力受付ステップの前又は後のいずれかに撮像されたユーザーUの顔の画像を分析するステップとなる。 That is, for example, the step of capturing an image of user U's face for analysis in the image analysis step (second imaging step) may be performed before the input receiving step, and the image analysis step may be configured to analyze the image of user U's face captured before the input receiving step. In this way, the step of capturing an image of user U's face for analysis in the image analysis step (second imaging step) may be performed either before or after the input receiving step, and accordingly the image analysis step is a step of analyzing the image of user U's face captured either before or after the input receiving step.
あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの実行中に実行され、画像分析ステップは、入力受付ステップの実行中に撮像されたユーザーUの顔の画像を分析するステップであるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the face of user U may be performed during the execution of the input reception step, and the image analysis step may be configured to analyze the image of the face of user U captured during the execution of the input reception step.
この場合、顔画像・質問表示ステップで表示部130に表示させるためのユーザーUの顔の画像の撮像をするステップ(第1撮像ステップ)と、画像分析ステップで分析を行うためのユーザーUの顔の画像を撮像するステップ(第2撮像ステップ)と、は、単一のステップとして実行される。すなわち、このようにして撮像されたユーザーの顔の画像は、顔画像・質問表示ステップで表示部130に表示させるためにも、画像分析ステップで分析を行うためにも用いられる。
In this case, the step of capturing an image of the user U's face to be displayed on the
またこの場合には、例えば画像分析部157は、撮像部110により撮像された画像の中から、手ぶれの度合いが十分に低い画像など、画像の分析の精度を保つために必要な条件を満たしている画像を選択して、当該選択された画像を分析するように構成される。
In this case, for example, the
あるいは例えば、ユーザーUの顔の画像を撮像するステップは、入力受付ステップの前又は実行中に実行され、画像分析ステップは、入力受付ステップの実行中に実行されるように構成されてもよい。 Alternatively, for example, the step of capturing an image of the face of user U may be performed before or during the input receiving step, and the image analysis step may be configured to be performed during the input receiving step.
110…撮像部、130…表示部、151…撮像制御部、153…表示制御部、155…入力受付部、157…画像分析部、159…ソリューション提供部、161…モード指定受付部、170…振動発生部、190…音声再生部、310…サーバー記憶部、331…回答分析部、333…ユーザー状態情報生成部、335…ソリューション決定部、337…心拍取得部、339…状態判定部。 110...imaging unit, 130...display unit, 151...imaging control unit, 153...display control unit, 155...input reception unit, 157...image analysis unit, 159...solution provision unit, 161...mode designation reception unit, 170...vibration generation unit, 190...audio playback unit, 310...server storage unit, 331...answer analysis unit, 333...user status information generation unit, 335...solution determination unit, 337...heart rate acquisition unit, 339...status determination unit.
Claims (20)
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を、前記顔の映像を該ユーザーに見せている状態で受け付ける入力受付ステップと、
前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析ステップと、
前記回答の分析結果に基づいて、前記ユーザーの顔に現れている感情及び疲労状態の一方又は両方を含むユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成ステップと、を備える
ことを特徴とするユーザー状態分析方法。 presenting an image of the user's face to the user and displaying a question about a facial state that correlates with an emotional or fatigue state appearing on the user's face;
an input receiving step of receiving a response from the user to a question about the state of the user's face while showing an image of the face to the user;
a response analysis step of analyzing responses by the user to questions about the user's facial condition;
and a user status information generation step of generating user status information indicating the user status including one or both of the emotions and fatigue state appearing on the user's face based on the analysis results of the answers.
前記ユーザーの前記ユーザー状態を改善するための、該ユーザーに提供可能な複数のソリューションから、前記ユーザー状態情報に応じたソリューションを決定するソリューション決定ステップと、
決定された前記ソリューションを前記ユーザーに提供するステップと、をさらに含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 1,
a solution determination step of determining a solution corresponding to the user state information from a plurality of solutions that can be provided to the user for improving the user state of the user;
providing the determined solution to the user.
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記ユーザー状態情報生成ステップは、前記回答及び前記顔の画像の分析結果に基づいて、前記ユーザー状態情報を生成するステップである
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 1 or 2,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
A user status analysis method, characterized in that the user status information generating step is a step of generating the user status information based on an analysis result of the answer and the face image.
生成された前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to any one of claims 1 to 3,
A user status analysis method comprising the step of displaying the generated user status information.
生成した前記ユーザー状態情報を時系列的に記憶するステップと、
前記ユーザーの操作に応じて、記憶されている前記ユーザー状態情報を表示するステップを備える
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to any one of claims 1 to 4,
storing the generated user state information in chronological order;
A user status analysis method comprising the step of displaying the stored user status information in response to an operation by the user.
前記回答分析ステップは、受け付けられた前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答と、該回答と該ユーザーの顔に現れている感情又は疲労状態との相関関係を示す第1相関関係情報と、を用いて、該ユーザーの顔に現れている感情及び疲労状態の一方又は両方の分析結果を決定するステップを含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to any one of claims 1 to 5,
The answer analysis step includes a step of determining an analysis result of one or both of the emotions and fatigue state shown on the user's face using an answer by the user to a received question about the user's facial condition and first correlation information indicating a correlation between the answer and the emotions or fatigue state shown on the user's face.
前記ユーザーの顔の画像を撮像するステップと、
撮像された前記ユーザーの顔の画像を分析する画像分析ステップと、
をさらに含み、
前記回答分析ステップは、前記回答を分析して前記ユーザーの顔に現れている感情又は疲労状態を指標化した、疲れの兆候スコアを決定するステップを含み、
前記ユーザー状態情報生成ステップは、
前記顔の画像の分析結果から前記ユーザーの心拍に関する情報を取得するステップと、
前記ユーザーの心拍に関する情報に基づいて、心拍に基づく疲労状態を指標化した、心拍に基づく疲労度スコアを決定するステップと、
前記疲れの兆候スコア及び前記心拍に基づく疲労度スコアに基づいて、前記ユーザーの感情又は疲労状態を指標化した、総合スコアを決定するステップと、
前記総合スコアを含む前記ユーザー状態情報を生成するステップと、を含み、
前記ソリューション決定ステップは、前記総合スコアに基づいて前記ユーザーに提供するソリューションを決定するステップを含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 2,
capturing an image of the user's face;
an image analysis step of analyzing the captured image of the user's face;
Further comprising:
The answer analyzing step includes a step of determining a fatigue symptom score by analyzing the answer and indexing an emotion or fatigue state shown on the face of the user,
The user state information generating step includes:
obtaining information about the user's heart rate from an analysis of the facial image;
determining a heart rate-based fatigue score that indexes a heart rate-based fatigue state based on information about the user's heart rate;
determining a total score that indexes the user's emotion or fatigue state based on the fatigue symptom score and the heart rate-based fatigue score;
generating the user status information including the overall score;
The method for analyzing a user status, wherein the solution determination step includes a step of determining a solution to be provided to the user based on the overall score.
前記総合スコアを決定するステップは、
前記ユーザーの心拍に関する情報と、該心拍に関する情報と該ユーザーの自律神経バランスとの相関関係を示す第2相関関係情報と、を用いて、該ユーザーの自律神経バランスに関する情報を取得するステップと、
前記自律神経バランスに関する情報を含む情報に基づいて、前記総合スコアを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 7,
The step of determining the overall score comprises:
acquiring information about the user's autonomic nerve balance using information about the user's heart rate and second correlation information indicating a correlation between the information about the heart rate and the user's autonomic nerve balance;
A user condition analysis method comprising: a step of determining the overall score based on information including information regarding the autonomic nerve balance.
前記ソリューション決定ステップは、
前記ユーザー状態情報に含まれる前記ユーザーの顔に現れている感情又は疲労状態に基づいて、前記ユーザーが、該ユーザーの触覚又は聴覚に対する受動的な刺激である受動的ソリューションを提供すべき第1状態にあるか、該ユーザーに所定の動作を促す能動的ソリューションを提供すべき第2状態にあるかを判定するステップと、
前記判定の結果に基づいて前記複数のソリューションから該ユーザー状態情報に応じたソリューションを決定するステップと、を含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 2,
The solution determination step includes:
A step of determining whether the user is in a first state in which a passive solution, which is a passive stimulation to the user's sense of touch or hearing, should be provided, or in a second state in which an active solution, which encourages the user to perform a predetermined action, should be provided, based on the emotion or fatigue state shown on the user's face included in the user state information;
determining a solution corresponding to the user state information from the plurality of solutions based on a result of the determination.
前記能動的ソリューションは、所定の時間継続する周期的な振動と、前記ユーザー状態を改善するための音声と、前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含み、
前記ユーザーが前記第2状態にある場合には、前記ソリューション決定ステップにおいて、前記振動と前記音声と前記ユーザーに所定の方法での呼吸又は瞑想を促す情報と、の組み合わせを含む前記能動的ソリューションを、該ユーザーに提供するソリューションとして決定する
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 9,
the active solution includes a combination of periodic vibrations lasting a predetermined time, audio to improve the user's condition, and information to encourage the user to breathe or meditate in a predetermined way;
A user state analysis method characterized in that, when the user is in the second state, in the solution determination step, the active solution including a combination of the vibration, the sound, and information encouraging the user to breathe or meditate in a predetermined manner is determined as the solution to be provided to the user.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の開き具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to any one of claims 1 to 10,
A user condition analysis method, characterized in that the questions about the user's facial condition include questions about the degree to which the user's eyes are open compared to the user's normal condition.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、目の周りのクマの濃さに関する質問を含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to any one of claims 1 to 11,
A method for analyzing a user's condition, wherein the questions about the user's facial condition include a question about the density of dark circles around the eyes compared to the user's normal condition.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、ニキビ又は吹き出物の状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to any one of claims 1 to 12,
A user condition analysis method, characterized in that the questions about the user's facial condition include questions about the condition of acne or pimples compared to the user's normal condition.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、口角の上がり具合又は下がり具合に関する質問を含む
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to any one of claims 1 to 13,
A user condition analysis method, characterized in that the questions about the user's facial condition include questions about the degree to which the corners of the mouth are raised or lowered compared to the user's normal condition.
前記ユーザーの顔の状態についての質問は、該ユーザーの通常の状態に比した、唇の潤いの状態に関する質問を含む
ことを特徴とするユーザー状態分析方法。 The user condition analysis method according to any one of claims 1 to 14,
A user condition analysis method, wherein the questions about the user's facial condition include a question about the moisturizing state of the user's lips compared to the user's usual condition.
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は後に実行され、
前記画像分析ステップは、前記入力受付ステップの前又は後に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 3,
The step of capturing an image of the user's face is performed before or after the step of receiving the input,
A user state analysis method, characterized in that the image analysis step is a step of analyzing an image of the user's face captured before or after the input reception step.
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に撮像された前記ユーザーの顔の画像を分析するステップである
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 3,
the step of capturing an image of the face of the user is executed during the execution of the input receiving step;
A user state analysis method, characterized in that the image analysis step is a step of analyzing an image of the user's face captured during execution of the input reception step.
前記ユーザーの顔の画像を撮像するステップは、前記入力受付ステップの前又は実行中に実行され、
前記画像分析ステップは、前記入力受付ステップの実行中に実行される
ことを特徴とするユーザー状態分析方法。 The user status analysis method according to claim 3,
The step of capturing an image of the face of the user is performed before or during the input receiving step;
The user state analysis method, wherein the image analysis step is executed during execution of the input reception step.
情報を表示する表示部と、
前記撮像部に、前記ユーザーの顔の画像を撮像させる撮像制御部と、
前記撮像部により撮像された前記ユーザーの顔の画像を前記表示部に表示すると共に、該表示部に表示された該ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を該表示部に表示する表示制御部と、
前記ユーザーが、前記表示部に表示される該ユーザーの顔の画像及び、前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記質問に対する前記ユーザーによる回答の入力を前記顔の画像を前記表示部に表示させた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記質問に対する前記ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。 An imaging unit that captures an image of a user's face;
A display unit for displaying information;
An imaging control unit that causes the imaging unit to capture an image of the user's face;
a display control unit that displays on the display unit an image of the user's face captured by the imaging unit, and displays on the display unit a question about a facial condition that is correlated with an emotion or fatigue state appearing on the user's face displayed on the display unit;
an input unit arranged at a position where the user can perform an operation while viewing the image of the user's face displayed on the display unit and the question;
an input receiving unit that receives an input of an answer to the question by the user via the input unit while the image of the face is displayed on the display unit;
an answer analysis unit that analyzes the answer by the user to the question received by the input receiving unit;
A user status analysis system comprising: a user status information generation unit that generates user status information indicating a user status, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.
前記ユーザーが前記鏡部に写る該ユーザーの顔と同時に見ることができる位置に配置されて、情報を表示する表示部と、
前記鏡部に写る前記ユーザーの顔に現れている感情又は疲労状態と相関関係を有する、顔の状態についての質問を前記表示部に表示する表示制御部と、
前記ユーザーが、前記鏡部に写る該ユーザーの顔及び、前記表示部に表示された前記質問を見ながら操作を行える位置に配置された入力部と、
前記入力部を介して、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答の入力を前記鏡部に写る該ユーザーの顔の映像を見せた状態で受け付ける入力受付部と、
前記入力受付部により受け付けられた、前記ユーザーの顔の状態についての質問に対する該ユーザーによる回答を分析する回答分析部と、
前記回答分析部による分析結果に基づいて、前記ユーザーの感情及び疲労状態の一方又は両方であるユーザー状態を示すユーザー状態情報を生成するユーザー状態情報生成部と、を備える
ことを特徴とするユーザー状態分析システム。 A mirror that reflects the user's face,
a display unit that is disposed in a position where the user can see the face of the user reflected in the mirror unit at the same time and that displays information;
a display control unit that displays on the display unit a question about a facial condition that is correlated with an emotion or a fatigue state appearing on the face of the user reflected in the mirror unit;
an input unit arranged at a position where the user can perform an operation while looking at the face of the user reflected in the mirror unit and the question displayed on the display unit;
an input receiving unit that receives, via the input unit, an input of a response from the user to a question about the state of the user's face while showing an image of the user's face reflected in the mirror unit;
a response analysis unit that analyzes responses by the user to questions about the facial condition of the user that are received by the input receiving unit;
A user status analysis system comprising: a user status information generation unit that generates user status information indicating a user status, which is one or both of the user's emotions and fatigue state, based on the analysis results by the response analysis unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200828A JP7507674B2 (en) | 2020-12-03 | 2020-12-03 | USER STATE ANALYSIS METHOD AND SYSTEM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020200828A JP7507674B2 (en) | 2020-12-03 | 2020-12-03 | USER STATE ANALYSIS METHOD AND SYSTEM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022088796A JP2022088796A (en) | 2022-06-15 |
JP7507674B2 true JP7507674B2 (en) | 2024-06-28 |
Family
ID=81987862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020200828A Active JP7507674B2 (en) | 2020-12-03 | 2020-12-03 | USER STATE ANALYSIS METHOD AND SYSTEM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7507674B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005065812A (en) | 2003-08-21 | 2005-03-17 | Nec Fielding Ltd | Medical checkup system, method and program |
JP2017146733A (en) | 2016-02-16 | 2017-08-24 | 株式会社リコー | Extraction support system, extraction support server, extraction support program, and extraction support method |
JP2019087276A (en) | 2014-01-17 | 2019-06-06 | 任天堂株式会社 | Information processing system and information processor |
-
2020
- 2020-12-03 JP JP2020200828A patent/JP7507674B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005065812A (en) | 2003-08-21 | 2005-03-17 | Nec Fielding Ltd | Medical checkup system, method and program |
JP2019087276A (en) | 2014-01-17 | 2019-06-06 | 任天堂株式会社 | Information processing system and information processor |
JP2017146733A (en) | 2016-02-16 | 2017-08-24 | 株式会社リコー | Extraction support system, extraction support server, extraction support program, and extraction support method |
Also Published As
Publication number | Publication date |
---|---|
JP2022088796A (en) | 2022-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11071496B2 (en) | Cognitive state alteration system integrating multiple feedback technologies | |
US20210248656A1 (en) | Method and system for an interface for personalization or recommendation of products | |
US10922996B2 (en) | Systems and methods for generating a presentation of an energy level based on sleep and daily activity | |
US20030059750A1 (en) | Automated and intelligent networked-based psychological services | |
JP2020168415A (en) | Detector | |
WO2016092103A1 (en) | Device, system and method for assessing information needs of a person | |
JP7589438B2 (en) | Information processing device, information processing system, information processing method, and information processing program | |
EP4182875A1 (en) | Method and system for an interface for personalization or recommendation of products | |
US20230120262A1 (en) | Method for Improving the Success of Immediate Wellbeing Interventions to Achieve a Desired Emotional State | |
US20230285711A1 (en) | Assessing User Engagement to Optimize the Efficacy of a Digital Mental Health Intervention | |
JP7507674B2 (en) | USER STATE ANALYSIS METHOD AND SYSTEM | |
US12211607B2 (en) | Management of psychiatric or mental conditions using digital or augmented reality with personalized exposure progression | |
WO2023102125A1 (en) | Management of psychiatric or mental conditions using digital or augmented reality with personalized exposure progression | |
Janssen | Connecting people through physiosocial technology | |
JP6963669B1 (en) | Solution providing system and mobile terminal | |
JP7061714B1 (en) | Solution provision system and mobile terminal | |
JP7069390B1 (en) | Mobile terminal | |
JP7069389B1 (en) | Solution provision system and mobile terminal | |
JP7095169B1 (en) | Condition improvement device | |
Maškanceva | Developing understandable and actionable sleep data visualizations | |
WO2022118955A1 (en) | Solution providing system | |
JP7144638B1 (en) | Condition improvement device | |
US20230397867A1 (en) | Information processing apparatus, information processing method, and program | |
WO2022244298A1 (en) | Information processing device, information processing method, and program | |
JP2023069103A (en) | Analysis system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231106 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240522 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240618 |