[go: up one dir, main page]

JP2020154922A - Service provision apparatus, settlement information processing apparatus and service provision method - Google Patents

Service provision apparatus, settlement information processing apparatus and service provision method Download PDF

Info

Publication number
JP2020154922A
JP2020154922A JP2019054187A JP2019054187A JP2020154922A JP 2020154922 A JP2020154922 A JP 2020154922A JP 2019054187 A JP2019054187 A JP 2019054187A JP 2019054187 A JP2019054187 A JP 2019054187A JP 2020154922 A JP2020154922 A JP 2020154922A
Authority
JP
Japan
Prior art keywords
unit
person
factor
emotion
service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019054187A
Other languages
Japanese (ja)
Other versions
JP7364348B2 (en
Inventor
康浩 岩内
Yasuhiro Iwauchi
康浩 岩内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019054187A priority Critical patent/JP7364348B2/en
Publication of JP2020154922A publication Critical patent/JP2020154922A/en
Application granted granted Critical
Publication of JP7364348B2 publication Critical patent/JP7364348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a service provision apparatus, a settlement information processing apparatus and a service provision method that can perform handling considering a factor causing change of feeling with respect to the change of the feeling of a person.SOLUTION: A service provision apparatus 100 comprises: a person detection unit 132 that detects a plurality of persons in a target range; a feeling estimation unit 133 that estimates personal feeling of each person; a factor estimation unit 134 that estimates an occurrence factor of change of a total feeling state of the target range or a feeling state of any one or more persons on the basis of an estimation result of the feeling estimation unit 133; and a service determination unit 135 that determines a service provided to one or more persons in the target range corresponding to the occurrence factor estimated by the factor estimation unit 134.SELECTED DRAWING: Figure 2

Description

本発明は、サービス提供装置、決済情報処理装置、および、サービス提供方法に関する。 The present invention relates to a service providing device, a payment information processing device, and a service providing method.

従来、人の感情を推定し、推定した感情に応じてサービスを提供する装置が知られている(例えば、特許文献1参照)。特許文献1に記載された装置は、車内にいる複数人の乗員の個人感情を推定して数値化し、個人感情の値の総和を全体感情の値とする。この装置は、全体感情の値に合わせて、スピーカから音楽を流す等のサービスを提供する。例えば、車内の会話がなく全体感情の値が低い場合に、車内の静かな環境に合った音楽を流す音楽サービスを提供することが開示されている。 Conventionally, a device that estimates a person's emotion and provides a service according to the estimated emotion is known (see, for example, Patent Document 1). The device described in Patent Document 1 estimates and quantifies the individual emotions of a plurality of occupants in the vehicle, and sets the sum of the individual emotion values as the total emotion value. This device provides services such as playing music from a speaker according to the value of the whole emotion. For example, it is disclosed to provide a music service that plays music suitable for a quiet environment in a car when there is no conversation in the car and the value of overall emotion is low.

特開2018−63486号公報JP-A-2018-63486

特許文献1記載の装置は、推定された全体感情の値それ自体に対応してサービスを決定する。
ところで、人物の感情の変化に対処しようとする場合、感情の変化を招いた要因を考慮することが効果的である。しかしながら、そのような対処を行う方法は、従来、提案されていない。
本発明は上記背景に鑑みてなされたものであり、人物の感情の変化に対し、感情の変化を招いた要因を考慮した対処を行うことが可能なサービス提供装置、決済情報処理装置、および、サービス提供方法を提供することを目的とする。
The device described in Patent Document 1 determines the service corresponding to the estimated total emotional value itself.
By the way, when trying to deal with a person's emotional change, it is effective to consider the factors that caused the emotional change. However, a method for taking such a countermeasure has not been proposed conventionally.
The present invention has been made in view of the above background, and is a service providing device, a payment information processing device, and a payment information processing device capable of coping with a change in a person's emotion in consideration of a factor causing the change in emotion. The purpose is to provide a service provision method.

上記目的を達成するための態様として、対象範囲にいる複数の人物を検出する人物検出部と、各々の前記人物の個人感情を推定する感情推定部と、前記感情推定部の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定する要因推定部と、前記要因推定部が推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定するサービス決定部と、を備えるサービス提供装置が挙げられる。 As an embodiment for achieving the above object, based on a person detection unit that detects a plurality of persons in a target range, an emotion estimation unit that estimates the individual emotion of each person, and an estimation result of the emotion estimation unit. , The factor estimation unit that estimates the cause of the change in the emotional state of the person or one or more of the target range, and the target range corresponding to the cause estimated by the factor estimation unit. A service providing device including a service determining unit that determines a service to be provided to one or more of the persons in the room.

上記サービス提供装置において、前記感情推定部は各々の前記人物の個人感情を表す感情推定値を求め、前記要因推定部は、いずれかの人物の前記感情推定値が第1閾値を超えた場合、前記感情推定値の総和が第1閾値を超えた場合、または、前記感情推定値の総和の変化量が第2閾値を超えた場合に、前記変化の発生要因を推定する構成であってもよい。 In the service providing device, the emotion estimation unit obtains an emotion estimation value representing the individual emotion of each person, and the factor estimation unit determines when the emotion estimation value of any person exceeds the first threshold value. When the sum of the emotional estimates exceeds the first threshold value, or when the amount of change in the sum of the emotional estimates exceeds the second threshold value, the cause of the change may be estimated. ..

上記サービス提供装置において、前記要因推定部は、前記対象範囲にいる複数の前記人物のうち、前記感情推定値が他の前記人物よりも早く第3閾値を超えた前記人物を、前記変化の発生要因となった要因人物であると推定する構成であってもよい。 In the service providing device, the factor estimation unit generates the change in the person whose emotion estimation value exceeds the third threshold value earlier than the other person among the plurality of persons in the target range. It may be configured to be presumed to be the factor person who caused the factor.

上記サービス提供装置において、前記要因推定部は、前記感情推定値が最初に前記第3閾値を超えた前記人物を仮の要因人物であると推定し、検出期間を設定し、前記検出期間において前記仮の要因人物とは異なる前記人物の前記感情推定値が第4閾値を超えた場合に、前記仮の要因人物を、前記変化の発生要因である前記要因人物として推定する構成であってもよい。 In the service providing device, the factor estimation unit estimates that the person whose emotion estimation value first exceeds the third threshold value is a temporary factor person, sets a detection period, and in the detection period, the factor estimation unit sets the detection period. When the emotion estimation value of the person different from the temporary factor person exceeds the fourth threshold value, the temporary factor person may be estimated as the factor person who is the cause of the change. ..

上記サービス提供装置において、前記要因推定部は、前記検出期間において前記仮の要因人物の後に、前記仮の要因人物とは異なる前記人物の前記感情推定値が第4閾値を超えない場合に、前記仮の要因人物の感情が抑制状態にあると推定する構成であってもよい。 In the service providing device, the factor estimation unit determines that the emotion estimation value of the person different from the temporary factor person does not exceed the fourth threshold value after the temporary factor person in the detection period. It may be configured to presume that the emotion of the tentative factor person is in a suppressed state.

上記サービス提供装置において、前記サービス決定部は、感情が前記抑制状態にあると推定された前記仮の要因人物に対して提供するサービスを決定する構成であってもよい。 In the service providing device, the service determining unit may be configured to determine a service to be provided to the temporary factor person whose emotion is presumed to be in the suppressed state.

上記サービス提供装置において、前記対象範囲の環境に関する検出値を取得する環境検出部を備え、前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記環境検出部により取得した前記検出値の変化とに基づき、前記環境の変化が前記感情推定値の変化の発生要因か否かを推定する構成であってもよい。 The service providing device includes an environment detection unit that acquires detection values related to the environment in the target range, and the factor estimation unit is based on a change in the emotion estimation value of one or more of the persons and the environment detection unit. Based on the acquired change in the detected value, it may be configured to estimate whether or not the change in the environment is the cause of the change in the estimated emotion value.

上記サービス提供装置において、前記対象範囲における複数の前記人物の会話または行動を検出する言動検出部を備え、前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記言動検出部が検出した会話または行動とに基づき、いずれか1以上の前記人物の会話または行動が前記感情推定値の変化の発生要因か否かを推定する構成であってもよい。 The service providing device includes a behavior detection unit that detects conversations or actions of a plurality of the persons in the target range, and the factor estimation unit includes changes in the emotion estimation value of any one or more of the persons and the above-mentioned. Based on the conversation or behavior detected by the behavior detection unit, it may be configured to estimate whether or not the conversation or behavior of any one or more of the persons is the cause of the change in the emotion estimation value.

上記サービス提供装置において、前記言動検出部は、前記対象範囲における複数の前記人物の会話または行動を検出し、検出した会話または行動を数値化した言動検出値を求める構成であり、前記感情推定部により推定された前記感情推定値を前記言動検出値に基づき補正する補正部を備え、前記要因推定部は、前記補正部により補正された前記感情推定値に基づいて前記変化の発生要因を推定する構成であってもよい。 In the service providing device, the behavior detection unit detects conversations or actions of a plurality of the persons in the target range, and obtains a numerical behavior detection value of the detected conversations or actions, and the emotion estimation unit. A correction unit that corrects the emotion estimation value estimated by the above based on the behavior detection value is provided, and the factor estimation unit estimates the cause of the change based on the emotion estimation value corrected by the correction unit. It may be a configuration.

上記サービス提供装置において、前記サービス決定部により決定されたサービスを提供するサービス提供部を備え、前記サービス提供部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物を通知するサービスを行う構成であってもよい。 The service providing device includes a service providing unit that provides a service determined by the service determining unit, and the service providing unit is a factor person whose factor estimation unit causes any of the persons to cause the change. If it is presumed that the factor person is different from the factor person, the service may be provided to notify the factor person.

上記サービス提供装置において、前記サービス決定部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物に対し、前記要因人物の趣味または嗜好に対応するサービスを提供することを決定する構成であってもよい。 In the service providing device, when the factor estimation unit estimates that any of the persons is the factor person who is the cause of the change, the service determination unit has a hobby of the factor person with respect to the factor person. Alternatively, it may be configured to determine to provide a service corresponding to the taste.

上記サービス提供装置において、前記対象範囲にいる1または複数の前記人物に対して情報を報知する報知部を備え、前記報知部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物から離れることを促す案内を報知する構成であってもよい。 The service providing device includes a notification unit that notifies information to one or a plurality of the persons in the target range, and the notification unit is a factor that causes the change in any one of the persons by the factor estimation unit. When it is presumed to be a factor person, the person different from the factor person may be notified of a guide for urging the person to leave the factor person.

上記目的を達成するための別の態様として、対象範囲にいる複数の人物の発話音声を取得する音声取得部と、1または複数の前記人物を撮像した撮像画像を取得する撮像画像取得部と、前記音声取得部および前記撮像画像取得部により取得した情報を数値化して数値情報を生成する数値化処理部と、前記数値化処理部により生成された前記数値情報の変化と、前記数値情報の変化の発生要因となる事象に関する事象情報との対応を記憶する事象情報記憶部と、検知対象期間に前記音声取得部および前記撮像画像取得部により取得された情報に基づく前記数値情報が、検出条件を満たす変化をした場合に、前記変化に対応する前記事象情報を前記事象情報記憶部から取得する事象情報取得部と、前記事象情報取得部により取得された前記事象情報に基づき、動作を決定する動作決定部と、前記動作決定部により決定された前記動作を実行する実行部と、を備えるサービス提供装置が挙げられる。 As another aspect for achieving the above object, a voice acquisition unit that acquires utterance voices of a plurality of persons in a target range, an image acquisition unit that acquires an image captured by capturing one or a plurality of the persons, and an image acquisition unit. A digitization processing unit that digitizes the information acquired by the voice acquisition unit and the captured image acquisition unit to generate numerical information, a change in the numerical information generated by the numerical processing unit, and a change in the numerical information. The event information storage unit that stores the correspondence with the event information related to the event that causes the occurrence of the above, and the numerical information based on the information acquired by the voice acquisition unit and the captured image acquisition unit during the detection target period determine the detection conditions. When the change is satisfied, the operation is based on the event information acquisition unit that acquires the event information corresponding to the change from the event information storage unit and the event information acquired by the event information acquisition unit. Examples thereof include a service providing device including an operation determination unit for determining the motion determination unit and an execution unit for executing the operation determined by the operation determination unit.

上記目的を達成するための別の態様として、サービス提供装置によるサービスの提供または個人感情の推定の対象となる人物を登録した登録部と、前記サービスの提供に対する前記人物の評価を取得する評価取得部と、前記評価取得部により取得された評価に基づいて、前記サービスの提供の対価を決定する対価決定部と、を備える決済情報処理装置が挙げられる。 As another aspect for achieving the above object, a registration unit that registers a person who is a target of service provision by a service providing device or estimation of personal feelings, and evaluation acquisition for acquiring the evaluation of the person for the provision of the service. Examples thereof include a payment information processing device including a unit and a consideration determination unit that determines the consideration for providing the service based on the evaluation acquired by the evaluation acquisition unit.

上記決済情報処理装置において、前記対価決定部は、前記評価取得部により取得した評価と、前記サービスの提供に応じて前記人物の個人感情が変化した変化状況とに基づいて、前記サービスの提供の対価を決定する構成であってもよい。 In the payment information processing device, the consideration determination unit provides the service based on the evaluation acquired by the evaluation acquisition unit and the change status in which the personal emotion of the person changes in response to the provision of the service. It may be configured to determine the consideration.

上記サービス提供装置において、対象範囲にいる複数の人物を検出し、各々の前記人物の個人感情を推定し、前記個人感情の前記感情推定部の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定し、推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定するサービス提供方法。 The service providing device detects a plurality of persons in the target range, estimates the individual emotions of each person, and based on the estimation result of the emotion estimation unit of the individual emotions, the entire emotions of the target range. Providing a service that estimates the cause of a change in the emotional state of the person or one or more of the persons, and determines a service to be provided to the person or a plurality of the persons in the target range according to the estimated cause. Method.

上記サービス提供装置によれば、対象範囲における全体の感情の変化または個人の感情の変化を招いた発生要因に対応して、対象範囲にいる人物にサービスを提供できる。このため、感情を変化させた要因を考慮して、より効果的に、感情の変化に対処できる。例えば、感情の改善や特定の感情状態の緩和を効果的に促すことが期待できる。上記サービス提供方法による場合にも、同様の作用効果を得ることができる。
また、上記決済情報処理装置によれば、対象範囲における全体の感情の変化または個人の感情の変化をもたらした要因に対応してサービスを決定する装置の利用に対し、利用者とサービスの提供者との双方にとって適切な対価を設定できる。
According to the service providing device, it is possible to provide a service to a person in the target range in response to an occurrence factor that causes a change in the overall emotion or a change in the individual emotion in the target range. Therefore, it is possible to deal with the emotional change more effectively in consideration of the factors that changed the emotion. For example, it can be expected to effectively promote improvement of emotions and relaxation of specific emotional states. Similar effects can be obtained even when the above service provision method is used.
Further, according to the above-mentioned payment information processing device, a user and a service provider are required to use a device that determines a service in response to a factor that causes a change in overall emotion or a change in individual emotion in the target range. Appropriate consideration can be set for both parties.

第1実施形態のサービス提供装置の使用状態の例を示す説明図。The explanatory view which shows the example of the use state of the service providing apparatus of 1st Embodiment. サービス提供装置の機能的構成を示すブロック図。A block diagram showing a functional configuration of a service providing device. サービス提供装置の動作を示すフローチャート。A flowchart showing the operation of the service providing device. サービス提供装置が推定する感情値の例を示す模式図。The schematic diagram which shows the example of the emotion value estimated by the service providing device. サービス提供装置が推定する感情値の例を示す模式図。The schematic diagram which shows the example of the emotion value estimated by the service providing device. サービス提供装置の機能的構成を示すブロック図。A block diagram showing a functional configuration of a service providing device. 第2実施形態のサービス提供システムの概略構成を示す説明図。The explanatory view which shows the schematic structure of the service provision system of 2nd Embodiment. サービス提供サーバおよび決済情報処理装置の機能的構成を示すブロック図。A block diagram showing a functional configuration of a service providing server and a payment information processing device.

以下、図面を参照して本発明の実施形態について説明する。
[1.第1実施形態の概要]
図1は、本発明のサービス提供装置を適用した第1実施形態のサービス提供装置100の使用状態の例を示す図である。図2は、サービス提供装置100の機能的構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[1. Outline of the first embodiment]
FIG. 1 is a diagram showing an example of a usage state of the service providing device 100 of the first embodiment to which the service providing device of the present invention is applied. FIG. 2 is a block diagram showing a functional configuration of the service providing device 100.

図1には、サービス提供装置100が使用される環境の例として、複数の人物を収容可能な居室RMを示す。サービス提供装置100は、居室RMの内部空間を対象範囲Aとして、対象範囲Aにいる人物に対して感情推定およびサービスの提供を行う。図1では、居室RMにいる複数の人物を、以下ではユーザU1、U2、U3とする。 FIG. 1 shows a living room RM capable of accommodating a plurality of persons as an example of an environment in which the service providing device 100 is used. The service providing device 100 sets the internal space of the living room RM as the target range A, and performs emotion estimation and service provision to the person in the target range A. In FIG. 1, a plurality of persons in the living room RM are referred to as users U1, U2, and U3 below.

対象範囲Aは、対象範囲A以外の空間と明確に区切られている必要はなく、例えば、対象範囲Aは居室RMの全体であってもよいし、一部であってもよい。また、サービス提供装置100が機能する範囲を対象範囲Aとして考えることも可能である。例えば、後述するカメラ111により撮像可能な範囲を対象範囲Aとしてもよく、マイク112により集音可能な範囲を対象範囲Aとしてもよく、スピーカ113が出力する音声を人物が聴取可能な範囲を対象範囲Aとしてもよい。 The target range A does not need to be clearly separated from the space other than the target range A. For example, the target range A may be the entire living room RM or a part thereof. It is also possible to consider the range in which the service providing device 100 functions as the target range A. For example, the range that can be imaged by the camera 111, which will be described later, may be the target range A, the range that can be collected by the microphone 112 may be the target range A, and the range that the person can hear the sound output by the speaker 113 is targeted. It may be in the range A.

図2に示すように、サービス提供装置100は、CPU(Central Processing Unit)130、およびメモリ160を備え、CPU130の機能によりサービス提供装置100の各部を制御する。サービス提供装置100は、CPU130の制御に従って動作するカメラ111、マイク112、スピーカ113、モータ114、赤外線通信部115、および、無線通信部116を備える。 As shown in FIG. 2, the service providing device 100 includes a CPU (Central Processing Unit) 130 and a memory 160, and controls each part of the service providing device 100 by the function of the CPU 130. The service providing device 100 includes a camera 111, a microphone 112, a speaker 113, a motor 114, an infrared communication unit 115, and a wireless communication unit 116 that operate under the control of the CPU 130.

カメラ111は、対象範囲Aの少なくとも一部を含む範囲を撮像して、撮像画像データを出力するデジタルカメラである。
マイク112は、対象範囲Aにおける音を集音し、音声データを出力する。
スピーカ113は、CPU130の制御に従って音声を出力する。
モータ114は、サービス提供装置100の本体の下部に設けられた駆動機構を動作させる。サービス提供装置100の駆動機構は、サービス提供装置100を居室RMの内外で移動させる機構であり、例えば、複数の車輪と、モータ114の動力を車輪に伝達するギヤ等で構成される。モータ114は、CPU130の制御に従って駆動機構を動作させることにより、サービス提供装置100を移動させる。
The camera 111 is a digital camera that captures an image of a range including at least a part of the target range A and outputs captured image data.
The microphone 112 collects the sound in the target range A and outputs the voice data.
The speaker 113 outputs sound according to the control of the CPU 130.
The motor 114 operates a drive mechanism provided in the lower part of the main body of the service providing device 100. The drive mechanism of the service providing device 100 is a mechanism for moving the service providing device 100 inside and outside the living room RM, and is composed of, for example, a plurality of wheels and a gear for transmitting the power of the motor 114 to the wheels. The motor 114 moves the service providing device 100 by operating the drive mechanism under the control of the CPU 130.

赤外線通信部115は、赤外線信号を送信または送受信する。赤外線通信部115は、例えば、居室RMの空調を行う空調装置250に対して赤外線信号を送信することにより、空調装置250の運転を制御する。この場合、サービス提供装置100は、空調装置250の運転開始、運転停止、空調の目標温度や風量の設定等を行うことができる。また、サービス提供装置100は、赤外線通信部115が空調装置250から赤外線信号を受信することにより、空調装置250が検知する居室RMの室温に関する情報を取得してもよい。 The infrared communication unit 115 transmits or transmits an infrared signal. The infrared communication unit 115 controls the operation of the air conditioner 250 by, for example, transmitting an infrared signal to the air conditioner 250 that air-conditions the living room RM. In this case, the service providing device 100 can start the operation of the air conditioner 250, stop the operation, set the target temperature for air conditioning, the air volume, and the like. Further, the service providing device 100 may acquire information on the room temperature of the living room RM detected by the air conditioner 250 by receiving an infrared signal from the air conditioner 250 by the infrared communication unit 115.

また、居室RMには、窓Wを開閉する図示しない開閉装置を設けてもよい。この開閉装置は、サービス提供装置100から赤外線信号を受信することで動作する構成であってもよい。この場合、サービス提供装置100は、開閉装置に対して赤外線信号を送信して、窓Wを開閉させることができる。 Further, the living room RM may be provided with a switchgear (not shown) for opening and closing the window W. The switchgear may be configured to operate by receiving an infrared signal from the service providing device 100. In this case, the service providing device 100 can open and close the window W by transmitting an infrared signal to the opening / closing device.

無線通信部116は、Wi−Fi(登録商標)、Bluetooth(登録商標)等の近距離無線通信を実行する。例えば、無線通信部116は、ユーザU1が身体に装着する生体情報検知装置220や、ユーザU1が所持するユーザ端末装置230と通信を実行する。生体情報検知装置220は、ユーザU1の脈拍、血圧、血中酸素濃度、体温、発汗等の生体情報を検知して、検知結果をサービス提供装置100に送信するユーザ端末装置230は、例えば、パーソナルコンピュータやスマートフォン等であり、音声通話や画面表示の機能を有する。
図1に示す例ではユーザU1が生体情報検知装置220およびユーザ端末装置230を使用しているが、ユーザU2、U3が同様の装置を使用することも勿論可能である。
無線通信部116は、モバイル無線通信回線や公衆回線網を介して通信を実行する構成であってもよい。
The wireless communication unit 116 executes short-range wireless communication such as Wi-Fi (registered trademark) and Bluetooth (registered trademark). For example, the wireless communication unit 116 communicates with the biometric information detection device 220 worn by the user U1 on the body and the user terminal device 230 possessed by the user U1. The biometric information detection device 220 detects biometric information such as pulse, blood pressure, blood oxygen concentration, body temperature, and sweating of the user U1, and the user terminal device 230 that transmits the detection result to the service providing device 100 is, for example, a personal computer. It is a computer, smartphone, etc., and has voice call and screen display functions.
In the example shown in FIG. 1, the user U1 uses the biometric information detection device 220 and the user terminal device 230, but it is of course possible for the users U2 and U3 to use similar devices.
The wireless communication unit 116 may be configured to execute communication via a mobile wireless communication line or a public line network.

CPU130は、制御用プログラム161を読み込んで実行することにより、データ取得部131、人物検出部132、感情推定部133、要因推定部134、サービス決定部135、サービス提供部136、環境検出部137、言動検出部138、補正部139、報知部140、および、決済情報処理部150として機能する。決済情報処理部150は、登録部151、評価取得部152、対価決定部153、および決済処理部154により構成され、これらの各機能部もCPU130が制御用プログラム161を実行することにより実現される。 By reading and executing the control program 161, the CPU 130 reads and executes the data acquisition unit 131, the person detection unit 132, the emotion estimation unit 133, the factor estimation unit 134, the service determination unit 135, the service provision unit 136, the environment detection unit 137, and the like. It functions as a behavior detection unit 138, a correction unit 139, a notification unit 140, and a payment information processing unit 150. The payment information processing unit 150 is composed of a registration unit 151, an evaluation acquisition unit 152, a consideration determination unit 153, and a payment processing unit 154, and each of these functional units is also realized by the CPU 130 executing the control program 161. ..

CPU130は、マイコン等の他のプロセッサで構成されてもよく、プロセッサとROM(Read Only Memory)、RAM(Random Access Memory)等が統合されたデバイスであってもよい。 The CPU 130 may be composed of another processor such as a microcomputer, or may be a device in which a processor, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like are integrated.

メモリ160は、制御用プログラム161のほか、撮像画像データ162、音声データ163、対象情報164、ユーザ情報165、感情推定値166、全体感情値167、言動検出値168、および決済情報170を記憶する。また、メモリ160の記憶領域には、閾値記憶部169が設けられる。 In addition to the control program 161, the memory 160 stores captured image data 162, audio data 163, target information 164, user information 165, emotion estimation value 166, overall emotion value 167, behavior detection value 168, and payment information 170. .. Further, a threshold storage unit 169 is provided in the storage area of the memory 160.

データ取得部131は、対象範囲Aにいる人物であるユーザU1、U2、U3または対象範囲Aに関するデータを取得する。データ取得部131は、カメラ111の撮像画像データを取得し、撮像画像データ162をメモリ160に記憶させる。データ取得部131は、マイク112が集音した音声データを取得して、音声データ163をメモリ160に記憶させる。また、データ取得部131は、赤外線通信部115によって空調装置250から居室RMの室温等に関するデータを取得してもよい。また、データ取得部131は、生体情報検知装置220からユーザU1の生体情報を検知した検知結果のデータを取得してもよい。これらのデータもメモリ160に記憶される。 The data acquisition unit 131 acquires data regarding the users U1, U2, U3 or the target range A who are the persons in the target range A. The data acquisition unit 131 acquires the captured image data of the camera 111 and stores the captured image data 162 in the memory 160. The data acquisition unit 131 acquires the voice data collected by the microphone 112 and stores the voice data 163 in the memory 160. Further, the data acquisition unit 131 may acquire data on the room temperature and the like of the living room RM from the air conditioner 250 by the infrared communication unit 115. Further, the data acquisition unit 131 may acquire the data of the detection result of detecting the biometric information of the user U1 from the biometric information detection device 220. These data are also stored in the memory 160.

人物検出部132は、データ取得部131により取得されたデータに基づき、対象範囲Aにいる人物を検出する。例えば、人物検出部132は、撮像画像データ162から人間の画像を抽出することにより、ユーザU1、U2、U3を検出する。
人物検出部132は、検出した人物の個人識別を行ってもよい。例えば、メモリ160が記憶するユーザ情報165は、サービス提供装置100を利用するユーザと、各ユーザを識別するための識別情報等を記憶する。データ取得部131は、ユーザ情報165を参照して、対象範囲Aで検出した人物のユーザ識別情報を特定する処理を行ってもよい。
The person detection unit 132 detects a person in the target range A based on the data acquired by the data acquisition unit 131. For example, the person detection unit 132 detects the users U1, U2, and U3 by extracting a human image from the captured image data 162.
The person detection unit 132 may personally identify the detected person. For example, the user information 165 stored in the memory 160 stores the user who uses the service providing device 100 and the identification information for identifying each user. The data acquisition unit 131 may perform a process of specifying the user identification information of the person detected in the target range A with reference to the user information 165.

感情推定部133は、データ取得部131が取得したデータに基づき、ユーザU1、U2、U3の各々の感情を推定する。ユーザU1、U2、U3の各々の感情を、個人感情という。感情推定部133は、例えばPlutchikの感情の和を用いて、ユーザU1、U2、U3の各々について、感情を8つの基本感情(期待、喜び、受容、不安、驚き、悲しみ、嫌悪、怒り)と、隣り合う2つの感情の組み合わせによる応用感情とに分類する。感情推定部133は、感情の輪への当てはめに応じて個人感情を数値化する。 The emotion estimation unit 133 estimates the emotions of the users U1, U2, and U3 based on the data acquired by the data acquisition unit 131. Each emotion of the users U1, U2, and U3 is called an individual emotion. The emotion estimation unit 133 uses, for example, the sum of emotions of Plutchik to divide emotions into eight basic emotions (expectation, joy, acceptance, anxiety, surprise, sadness, disgust, and anger) for each of users U1, U2, and U3. , It is classified as an applied emotion by a combination of two adjacent emotions. The emotion estimation unit 133 quantifies individual emotions according to the fit to the emotion circle.

感情推定部133は、例えば、撮像画像データ162からユーザU1の顔の画像を抽出し、口角の形状、眉毛の形状、顔の皺の形状等からユーザU1の表情を判定し、判定結果に基づきユーザU1の個人感情を推定する。感情推定部133は、撮像画像データ162に加えて、音声データ163に基づきユーザU1の個人感情を推定する。例えば、音声データ163からユーザU1の声のデータを抽出し、ユーザU1の発話内容、音声のアクセント、発音、声量等に基づいてユーザU1の個人感情を推定する。また、感情推定部133は、データ取得部131が生体情報検知装置220から取得したユーザU1の生体情報に基づき、ユーザU1の個人感情の推定を行う。感情推定部133は、各種のデータに基づき推定したユーザU1の個人感情を総合し、総合的な個人感情の推定を行う。 The emotion estimation unit 133 extracts, for example, an image of the face of the user U1 from the captured image data 162, determines the facial expression of the user U1 from the shape of the corner of the mouth, the shape of the eyebrows, the shape of the wrinkles of the face, and the like, and based on the determination result. Estimate the personal emotion of user U1. The emotion estimation unit 133 estimates the personal emotion of the user U1 based on the voice data 163 in addition to the captured image data 162. For example, the voice data of the user U1 is extracted from the voice data 163, and the individual emotion of the user U1 is estimated based on the utterance content of the user U1, the accent of the voice, the pronunciation, the voice volume, and the like. Further, the emotion estimation unit 133 estimates the personal emotion of the user U1 based on the biometric information of the user U1 acquired by the data acquisition unit 131 from the biometric information detection device 220. The emotion estimation unit 133 integrates the individual emotions of the user U1 estimated based on various data, and estimates the comprehensive personal emotions.

感情推定部133は、個人感情を数値化する処理において、例えば、喜びなどの好ましい感情を、正の感情としてプラスの値で表し、悲しみなどの好ましからぬ感情を、負の感情として、負の値で表す。また、感情が強いほど、すなわち感情の輪の内側に寄っているほど、感情を表す値の絶対値を大きくする。 In the process of quantifying individual emotions, the emotion estimation unit 133 expresses favorable emotions such as joy as positive emotions with a positive value, and unfavorable emotions such as sadness as negative emotions with a negative value. It is represented by. In addition, the stronger the emotion, that is, the closer to the inside of the emotional circle, the larger the absolute value of the value representing the emotion.

また、例えば、感情推定部133は、撮像画像データ162や生体情報検知装置220の検知結果から、ユーザU1に動きがあるか否かを判定し、動いていないときにユーザU1が睡眠中であると判定してもよい。この場合、感情推定部133は、睡眠中のユーザU1の個人感情を、例えば0とする。感情推定部133は、ユーザU2、U3に対してもユーザU1と同様の処理により、個人感情を推定し、数値化する。感情推定部133は、個人感情の数値を、感情推定値166としてメモリ160に記憶させる。 Further, for example, the emotion estimation unit 133 determines whether or not the user U1 is moving based on the captured image data 162 and the detection result of the biological information detection device 220, and when the user U1 is not moving, the user U1 is sleeping. May be determined. In this case, the emotion estimation unit 133 sets the personal emotion of the sleeping user U1 to, for example, 0. The emotion estimation unit 133 estimates and quantifies individual emotions for users U2 and U3 by the same processing as for user U1. The emotion estimation unit 133 stores the numerical value of the individual emotion as the emotion estimation value 166 in the memory 160.

また、感情推定部133は、ユーザU1、U2、U3の各々の個人感情に基づいて、対象範囲Aにいる人物全体の感情を推定する。対象範囲Aにいる人物全体の感情を、全体感情という。全体感情は、ユーザU1、U2、U3が感じる対象範囲Aの雰囲気を表す。感情推定部133は、例えば、対象範囲Aにいる人物の感情推定値166の総和を、対象範囲Aの全体感情とする。すなわち、ユーザU1の感情推定値166と、ユーザU2の感情推定値166と、ユーザU3の感情推定値166とを合計した値を、対象範囲Aの全体感情とする。感情推定部133は、対象範囲Aの全体感情を数値として求め、求めた数値を全体感情値167としてメモリ160に記憶させる。 Further, the emotion estimation unit 133 estimates the emotions of the entire person in the target range A based on the individual emotions of the users U1, U2, and U3. The emotions of the entire person in the target range A are called overall emotions. The overall emotion represents the atmosphere of the target range A felt by the users U1, U2, and U3. For example, the emotion estimation unit 133 sets the sum of the emotion estimation values 166 of the person in the target range A as the total emotion of the target range A. That is, the total value of the emotion estimation value 166 of the user U1, the emotion estimation value 166 of the user U2, and the emotion estimation value 166 of the user U3 is defined as the total emotion of the target range A. The emotion estimation unit 133 obtains the total emotion of the target range A as a numerical value, and stores the obtained numerical value as the total emotion value 167 in the memory 160.

感情推定値166は、基準値を0として、正の値または負の値で表される。感情推定値166が0の場合は、個人感情が平穏な状態や、上記のように該当する人物が眠っている場合に相当する。 The emotion estimation value 166 is represented by a positive value or a negative value with the reference value as 0. When the emotion estimation value 166 is 0, it corresponds to a state where the individual emotion is calm or when the corresponding person is sleeping as described above.

要因推定部134は、感情推定値166、および、全体感情値167を監視し、対象範囲Aにおいて、ユーザU1、U2、U3のいずれかの感情推定値166、または、全体感情値167の変化を発生させた発生要因を推定する。
例えば、要因推定部134は、ユーザU1、U2、U3のいずれかの感情推定値166が変化した場合、および、全体感情値167が変化した場合に、対処が必要な変化であるか否かを判定する。対処が必要な変化である場合には、変化の発生要因を推定する。要因推定部134は、対処が必要な変化であるか否かを判定する処理等において、閾値記憶部169に記憶された閾値を参照する。閾値記憶部169は、予め設定された1または複数の閾値を記憶する。
The factor estimation unit 134 monitors the emotion estimation value 166 and the total emotion value 167, and changes the emotion estimation value 166 of any of the users U1, U2, and U3 or the total emotion value 167 in the target range A. Estimate the cause of the occurrence.
For example, the factor estimation unit 134 determines whether or not the change needs to be dealt with when the emotion estimation value 166 of the user U1, U2, or U3 changes, or when the overall emotion value 167 changes. judge. If the change needs to be dealt with, estimate the cause of the change. The factor estimation unit 134 refers to the threshold value stored in the threshold value storage unit 169 in a process of determining whether or not the change needs to be dealt with. The threshold storage unit 169 stores one or a plurality of preset threshold values.

サービス決定部135は、要因推定部134が推定した発生要因に対応して、サービス提供装置100が実行するサービスを決定する。例えば、サービス決定部135は、感情推定値166および/または全体感情値167の変化を緩和するサービスを提供するよう決定する。或いは、サービス決定部135は、感情推定値166および/または全体感情値167を正の方向に変化させて改善するサービスを提供するよう決定する。 The service determination unit 135 determines the service to be executed by the service providing device 100 according to the occurrence factor estimated by the factor estimation unit 134. For example, the service determination unit 135 determines to provide a service that mitigates changes in emotional estimates 166 and / or overall emotional values 167. Alternatively, the service determination unit 135 determines to provide a service for improving the emotion estimation value 166 and / or the overall emotion value 167 by changing it in the positive direction.

サービス提供部136は、サービス決定部135が決定したサービスを提供する。サービス提供部136が提供するサービスの詳細は後述する。 The service providing unit 136 provides the service determined by the service determining unit 135. Details of the service provided by the service providing unit 136 will be described later.

環境検出部137は、撮像画像データ162および/または音声データ163に基づき、対象範囲Aの環境を検出する。
言動検出部138は、撮像画像データ162および/または音声データ163に基づき、ユーザU1、U2、U3の各々の言動を検出する。言動検出部138は、ユーザU1、U2、U3の各々について、言動を数値化して言動検出値を生成し、メモリ160に言動検出値168として記憶させる。
The environment detection unit 137 detects the environment in the target range A based on the captured image data 162 and / or the audio data 163.
The behavior detection unit 138 detects the behavior of each of the users U1, U2, and U3 based on the captured image data 162 and / or the voice data 163. The behavior detection unit 138 digitizes the behavior of each of the users U1, U2, and U3, generates a behavior detection value, and stores the behavior detection value in the memory 160 as the behavior detection value 168.

補正部139は、感情推定部133が推定したユーザU1、U2、U3の感情推定値166を、言動検出値168に基づき補正する。 The correction unit 139 corrects the emotion estimation values 166 of the users U1, U2, and U3 estimated by the emotion estimation unit 133 based on the behavior detection value 168.

報知部140は、ユーザU1、U2、U3からいずれか1人以上を選択して、情報を報知する。例えば、報知部140は、カメラ111から指向性の音声を出力することにより、ユーザU1、U2、U3のうち特定の人物に対してのみ聴取できるように音声を出力して、情報を報知する。また、報知部140は、ユーザ端末装置230に対する音声通話の発信やテキストメッセージの送信を行うことにより、ユーザU1に情報を報知する。ユーザU2、U3がユーザ端末装置230を使用する場合には、ユーザU2、U3にも同様の報知を行うことができる。報知部140がサービス提供部136により制御される場合、報知部140による報知は、サービス提供部136によるサービスの提供の一種である。 The notification unit 140 selects one or more of the users U1, U2, and U3 to notify the information. For example, the notification unit 140 outputs directional voice from the camera 111 to output the voice so that it can be heard only by a specific person among the users U1, U2, and U3, and notifies the information. In addition, the notification unit 140 notifies the user U1 of information by transmitting a voice call or transmitting a text message to the user terminal device 230. When the users U2 and U3 use the user terminal device 230, the same notification can be given to the users U2 and U3. When the notification unit 140 is controlled by the service providing unit 136, the notification by the notification unit 140 is a kind of service provision by the service providing unit 136.

決済情報処理部150は、サービス提供装置100によるサービスの提供に対する対価の決定および決済を実行する。
登録部151は、対価の決済を行う対象の人物を登録する。登録部151により登録された人物に関する情報は、例えば、ユーザ情報165に含まれる。本実施形態では、一例として、ユーザU1、U2,U3が登録部151によって登録されている。
The payment information processing unit 150 determines the consideration for the provision of the service by the service providing device 100 and executes the payment.
The registration unit 151 registers the person to be settled in consideration. Information about a person registered by the registration unit 151 is included in, for example, user information 165. In the present embodiment, as an example, users U1, U2, and U3 are registered by the registration unit 151.

評価取得部152は、サービス提供部136により提供されたサービスに対する評価を取得する。例えば、評価取得部152は、サービス提供部136によってサービスが提供された後の感情推定値166および全体感情値167の変化に基づき、評価を生成する。 The evaluation acquisition unit 152 acquires an evaluation for the service provided by the service providing unit 136. For example, the evaluation acquisition unit 152 generates an evaluation based on changes in the emotion estimation value 166 and the overall emotion value 167 after the service is provided by the service providing unit 136.

また、例えば、評価取得部152は、サービス提供部136によってサービスが提供された後、または、予め設定された期間毎に、登録部151により登録されたユーザU1、U2、U3による評価を取得する。この場合、評価取得部152は、ユーザ端末装置230等のサービス提供装置100以外の装置から送信される評価の情報を取得してもよい。また、評価取得部152は、マイク112およびスピーカ113によりユーザU1、U2,U3と対話処理を行い、ユーザU1、U2,U3の発話から評価を取得してもよい。 Further, for example, the evaluation acquisition unit 152 acquires the evaluation by the users U1, U2, and U3 registered by the registration unit 151 after the service is provided by the service providing unit 136 or at each preset period. .. In this case, the evaluation acquisition unit 152 may acquire evaluation information transmitted from a device other than the service providing device 100 such as the user terminal device 230. Further, the evaluation acquisition unit 152 may perform an interactive process with the users U1, U2, U3 by the microphone 112 and the speaker 113, and acquire the evaluation from the utterances of the users U1, U2, U3.

対価決定部153は、サービス提供部136によるサービスの提供に対する対価を決定する。対価の態様としては、例えば、(1)定額制、(2)定量制、(3)成功報酬型が挙げられる。決済情報170は、サービス提供部136が賦課する対価、および、対価の賦課の態様を示す情報を含む。対価決定部153は、以下に説明する(1)定額制、(2)定量制、(3)成功報酬型の全てを実行可能であってもよいし、一部のみを実行する構成であってもよい。 The consideration determination unit 153 determines the consideration for the provision of the service by the service providing unit 136. Examples of the mode of consideration include (1) flat rate system, (2) quantitative system, and (3) success fee type. The settlement information 170 includes the consideration imposed by the service providing unit 136 and the information indicating the mode of imposing the consideration. The consideration determination unit 153 may be capable of executing all of (1) flat rate system, (2) quantitative system, and (3) success fee type described below, or may execute only a part of the system. May be good.

(1)定額制とする場合、サービス提供装置100がサービスを提供することに対して、月単位、年単位、或いはその他の時間単位について定額の対価が設定される。この場合、登録部151により登録されたユーザU1、U2、U3の各々に定額の対価を賦課してもよいし、複数の人物を含む集団毎、サービス提供装置100が使用される場所毎、或いは、サービス提供装置100毎に、対価が賦課されてもよい。 (1) In the case of a flat rate system, a flat rate is set for the service providing device 100 to provide the service on a monthly, yearly, or other hourly basis. In this case, a fixed amount of consideration may be imposed on each of the users U1, U2, and U3 registered by the registration unit 151, for each group including a plurality of persons, for each place where the service providing device 100 is used, or for each place where the service providing device 100 is used. , A consideration may be levied for each service providing device 100.

(2)定量制とする場合、サービス提供部136がサービスを提供する毎に、予め設定された対価が賦課される。この場合、サービス提供部136がサービスを提供する前に、登録部151により登録されたユーザU1、U2、U3の全員または一部に対し、サービスの利用の可否を確認してもよい。定量制の対価は、後述する要因人物に対してのみ行われてもよい。 (2) In the case of a quantitative system, a preset consideration is levied each time the service providing unit 136 provides a service. In this case, before the service providing unit 136 provides the service, all or a part of the users U1, U2, and U3 registered by the registration unit 151 may be confirmed whether or not the service can be used. The quantitative consideration may be paid only to the factor person described later.

(3)成功報酬型とする場合、対価決定部153は、評価取得部152が取得した評価に基づき、サービス提供部136により提供されたサービスの対価を決定する。対価決定部153が決定した対価は、決済情報170に含まれる。対価決定部153は、対価を決定する毎に、決済情報170を更新する。対価決定部153が決定した対価が、ユーザU1、U2、U3の全員、または、後述する要因人物に対して賦課される。 (3) In the case of the success fee type, the consideration determination unit 153 determines the consideration for the service provided by the service providing unit 136 based on the evaluation acquired by the evaluation acquisition unit 152. The consideration determined by the consideration determination unit 153 is included in the settlement information 170. The consideration determination unit 153 updates the settlement information 170 every time the consideration is determined. The consideration determined by the consideration determination unit 153 is levied on all of the users U1, U2, U3, or a factor person described later.

決済処理部154は、決済情報170に基づいて決済を実行する。例えば、サービス提供装置100が、登録部151により登録されたユーザU1、U2,U3について、価値を有するポイントを付与する構成が挙げられる。この構成では、ユーザ情報165に、ユーザU1、U2,U3の各々の保有ポイントを示す情報が格納される。この場合、決済処理部154は、ユーザU1、U2,U3が保有するポイントを減算することにより、対価の支払いを受けることができる。 The payment processing unit 154 executes payment based on the payment information 170. For example, the service providing device 100 may give valuable points to the users U1, U2, and U3 registered by the registration unit 151. In this configuration, the user information 165 stores information indicating the possessed points of the users U1, U2, and U3. In this case, the settlement processing unit 154 can receive the consideration by subtracting the points held by the users U1, U2, and U3.

決済処理部154は、無線通信部116によって、金融機関や決済サービス事業者が運営する決済サーバに接続して、対価の決済処理を行ってもよい。例えば、評価取得部152は、決済サーバにより、銀行口座からの引き落とし、クレジットカード決済、電子マネーや仮想通貨による決済等を実行させてもよい。 The payment processing unit 154 may connect to a payment server operated by a financial institution or a payment service provider by the wireless communication unit 116 to perform payment processing for consideration. For example, the evaluation acquisition unit 152 may execute the withdrawal from the bank account, the credit card payment, the payment by electronic money or virtual currency, and the like by the payment server.

[2.第1実施形態のサービス提供装置の動作]
図3は、サービス提供装置100の動作を示すフローチャートである。
データ取得部131は、データの取得を開始する(ステップS101)。この後、予め設定された周期で、撮像画像データ162および音声データ163がメモリ160に記憶される。メモリ160には、設定されたデータ容量の範囲内で撮像画像データ162および音声データ163が蓄積されるので、過去に取得された撮像画像データ162および音声データ163をCPU130が参照可能である。
[2. Operation of the service providing device of the first embodiment]
FIG. 3 is a flowchart showing the operation of the service providing device 100.
The data acquisition unit 131 starts acquiring data (step S101). After that, the captured image data 162 and the audio data 163 are stored in the memory 160 at a preset cycle. Since the captured image data 162 and the audio data 163 are accumulated in the memory 160 within the set data capacity, the CPU 130 can refer to the captured image data 162 and the audio data 163 acquired in the past.

人物検出部132は、対象範囲Aの人物を検出し(ステップS102)、検出した人物を特定する(ステップS103)。ステップS103の処理は省略可能である。 The person detection unit 132 detects a person in the target range A (step S102) and identifies the detected person (step S103). The process of step S103 can be omitted.

感情推定部133は、撮像画像データ162および音声データ163に基づき、個人感情を推定し、感情推定値166を算出する(ステップS104)。ステップS104では、データ取得部131が所定期間に取得したデータを用いて、感情推定値166が算出される。続いて、感情推定部133は、感情推定値166の総和を求めることにより、対象範囲Aの全体感情を示す全体感情値167を算出する(ステップS105)。 The emotion estimation unit 133 estimates individual emotions based on the captured image data 162 and the voice data 163, and calculates the emotion estimation value 166 (step S104). In step S104, the emotion estimation value 166 is calculated using the data acquired by the data acquisition unit 131 during the predetermined period. Subsequently, the emotion estimation unit 133 calculates the total emotion value 167 indicating the total emotion of the target range A by obtaining the sum of the emotion estimation values 166 (step S105).

要因推定部134は、感情推定値166および/または全体感情値167において、対処すべき感情変化の判定、およびその発生要因を推定する処理を行う(ステップS106−S114)。要因推定部134は、閾値記憶部169に記憶された第1閾値TH1、第2閾値TH2、第3閾値TH3、第4閾値TH4を参照する。第1閾値TH1、第3閾値TH3、第4閾値TH4は、感情推定値166および全体感情値167の絶対値と比較される値である。また、第2閾値TH2は、全体感情値167の変化量と比較される閾値である。全体感情値167の変化量とは、例えば、設定された期間における値の変化の積分値として説明するが、設定された期間における最大値と最小値の差としてもよい。 The factor estimation unit 134 performs processing for determining the emotional change to be dealt with and estimating the cause of the emotional change at the emotional estimation value 166 and / or the total emotional value 167 (steps S106-S114). The factor estimation unit 134 refers to the first threshold value TH1, the second threshold value TH2, the third threshold value TH3, and the fourth threshold value TH4 stored in the threshold value storage unit 169. The first threshold value TH1, the third threshold value TH3, and the fourth threshold value TH4 are values to be compared with the absolute values of the emotion estimation value 166 and the total emotion value 167. Further, the second threshold value TH2 is a threshold value to be compared with the amount of change in the total emotion value 167. The change amount of the total emotion value 167 is described as, for example, an integral value of the change of the value in the set period, but may be the difference between the maximum value and the minimum value in the set period.

発生要因とは、広義には、感情推定値166または全体感情値167の変化を発生させた要因を指す。狭義には、全体感情値167を変化させた要因を指す。例えば、ユーザU1、U2、U3のいずれかの個人感情の変化が、他の人物の個人感情に影響を与えて、対象範囲Aの全体感情を変化させた場合、対象範囲Aの全体感情の変化の要因は、1人の人物である。この場合、発生要因は、変化の要因となった人物であり、インフルエンサーともいうことができる。この人物を要因人物という。 The causative factor, in a broad sense, refers to the factor that caused the change in the emotional estimate value 166 or the total emotional value 167. In a narrow sense, it refers to the factors that changed the overall emotional value 167. For example, when a change in the individual emotion of any of the users U1, U2, and U3 affects the individual emotion of another person and changes the overall emotion of the target range A, the change in the overall emotion of the target range A The factor of is one person. In this case, the cause of the change is the person who caused the change, and can also be called an influencer. This person is called a factor person.

以下の要因推定部134の動作の説明では、図4および図5の感情変化の具体例を参照する。
図4および図5は、サービス提供装置100が推定する感情推定値166および全体感情値167の例を示す模式図である。
図4(A)、(B)、(C)および図5(A)、(B)は、横軸を時間の経過、縦軸を感情推定値166とする図表であり、図4(A)および図5(A)の曲線F1はユーザU1の感情推定値166を示す。図4(B)の曲線F2はユーザU2の感情推定値166を示し、図4(C)の曲線F3はユーザU3の感情推定値166を示す。図5(B)の曲線F5は、ユーザU2の感情推定値166に関する別の例を示す。
図4(D)は、横軸を時間の経過、縦軸を全体感情値167とする図表であり、曲線FUは全体感情値167を示している。曲線FUは、曲線F1、F2、F3が示す感情推定値166の総和である。
図4(A)−(D)および図5(A)、(B)では、第1閾値TH1、第3閾値TH3、第4閾値TH4に相当する正の値および負の値を図示する。
In the following description of the operation of the factor estimation unit 134, specific examples of emotional changes in FIGS. 4 and 5 will be referred to.
4 and 5 are schematic views showing an example of an emotion estimation value 166 and an overall emotion value 167 estimated by the service providing device 100.
4 (A), (B), (C) and 5 (A), (B) are charts in which the horizontal axis is the passage of time and the vertical axis is the emotion estimation value 166, and FIG. 4 (A). And the curve F1 in FIG. 5 (A) shows the emotion estimate value 166 of the user U1. The curve F2 in FIG. 4 (B) shows the emotion estimation value 166 of the user U2, and the curve F3 in FIG. 4 (C) shows the emotion estimation value 166 of the user U3. Curve F5 in FIG. 5B shows another example of user U2's emotional estimate 166.
FIG. 4D is a chart in which the horizontal axis is the passage of time and the vertical axis is the total emotion value 167, and the curve FU shows the total emotion value 167. The curve FU is the sum of the emotional estimates 166 indicated by the curves F1, F2, and F3.
4 (A)-(D) and 5 (A) and 5 (B) show positive and negative values corresponding to the first threshold TH1, the third threshold TH3, and the fourth threshold TH4.

図4に例示する感情変化の概要は、次の通りである。
曲線F1で示すユーザU1の感情推定値166は、時刻T1に発生した何らかの要因によって低下し、負の値となっている。ユーザU1の感情推定値166は、負の値の範囲で激しく変動しており、ユーザU1が感情的になっている様子が現れている。
ユーザU1の個人感情の変化は、ユーザU1と一緒に対象範囲AにいるユーザU2、U3にも影響を与える。例えば、ユーザU2が、ユーザU1の表情等からユーザU1の個人感情の変化を察知し、その影響を受けてユーザU2の個人感情が変化している。このため、曲線F2で示すユーザU2の感情推定値166は、ユーザU1の様子を察知した時刻T2から低下し、負の値になっている。
また、ユーザU1とユーザU2の個人感情が変化したことにより、全体感情値167が変化している。曲線FUで示す全体感情値167は、ユーザU1およびユーザU2の感情推定値166の変化に追従して低下し、負の値となっている。
ユーザU3は、時刻T3で対象範囲Aの全体感情値167が低下したことを察知する。このため、ユーザU3の感情推定値166は負の値まで低下している。
The outline of the emotional change illustrated in FIG. 4 is as follows.
The emotion estimation value 166 of the user U1 shown by the curve F1 is lowered by some factor generated at the time T1 and becomes a negative value. The emotion estimation value 166 of the user U1 fluctuates violently in the range of negative values, and it appears that the user U1 is emotional.
The change in the personal emotion of the user U1 also affects the users U2 and U3 in the target range A together with the user U1. For example, the user U2 senses a change in the personal emotion of the user U1 from the facial expression of the user U1, and the personal emotion of the user U2 is changed under the influence of the change. Therefore, the emotion estimation value 166 of the user U2 shown by the curve F2 decreases from the time T2 when the state of the user U1 is detected, and becomes a negative value.
Further, the overall emotion value 167 changes due to the change in the individual emotions of the user U1 and the user U2. The total emotion value 167 shown by the curve FU decreases following the change of the emotion estimation value 166 of the user U1 and the user U2, and becomes a negative value.
The user U3 senses that the overall emotion value 167 of the target range A has decreased at the time T3. Therefore, the emotion estimation value 166 of the user U3 is lowered to a negative value.

要因推定部134は、ステップS106およびステップS107で、対処すべき感情変化が発生しているか否かを判定する。判定の基準は、例えば、(1)いずれか1以上の感情推定値166の絶対値が第1閾値TH1を超えること、(2)全体感情値167の絶対値が第1閾値TH1を超えること、(3)全体感情値167の変化量が第2閾値TH2を超えること、である。 In step S106 and step S107, the factor estimation unit 134 determines whether or not an emotional change to be dealt with has occurred. The criteria for judgment are, for example, (1) that the absolute value of any one or more emotion estimation values 166 exceeds the first threshold value TH1, and (2) that the absolute value of the overall emotion value 167 exceeds the first threshold value TH1. (3) The amount of change in the overall emotion value 167 exceeds the second threshold value TH2.

詳細には、要因推定部134は、まず、感情推定値166および全体感情値167のいずれかが第1閾値TH1を超えたか否かを判定する(ステップS106)。第1閾値TH1を超えていないと判定した場合(ステップS106;NO)、要因推定部134は、全体感情値167の変化量が第2閾値TH2を超えたか否かを判定する(ステップS107)。ステップS107で、要因推定部134は、最新の全体感情値167を終点として過去に遡及する検出期間を定め、検出期間内の全体感情値167の変化量を第2閾値TH2と比較する。全体感情値167の変化量が第2閾値TH2を超えていない場合(ステップS107;NO)、CPU130の処理はステップS104に戻る。 Specifically, the factor estimation unit 134 first determines whether or not any of the emotion estimation value 166 and the total emotion value 167 exceeds the first threshold value TH1 (step S106). When it is determined that the first threshold value TH1 is not exceeded (step S106; NO), the factor estimation unit 134 determines whether or not the amount of change in the overall emotion value 167 exceeds the second threshold value TH2 (step S107). In step S107, the factor estimation unit 134 determines a detection period retroactively from the latest total emotion value 167 as an end point, and compares the amount of change in the total emotion value 167 within the detection period with the second threshold value TH2. When the amount of change in the overall emotion value 167 does not exceed the second threshold value TH2 (step S107; NO), the processing of the CPU 130 returns to step S104.

感情推定値166および全体感情値167のいずれかが第1閾値TH1を超えた場合(ステップS106;YES)、および、全体感情値167の変化量が第2閾値TH2を超えた(ステップS107;YES)、要因推定部134はステップS108に移行する。 When either the emotion estimation value 166 or the total emotion value 167 exceeds the first threshold value TH1 (step S106; YES), and the amount of change in the total emotion value 167 exceeds the second threshold value TH2 (step S107; YES). ), The factor estimation unit 134 shifts to step S108.

ステップS108で、要因推定部134は、対象範囲Aにいる人物の感情推定値166のうち、第3閾値TH3を最初に超えた感情推定値166を特定し、特定した感情推定値166に対応する人物を、仮の要因人物とする(ステップS108)。仮の要因人物は、第1閾値TH1を超えた感情推定値166に対応する人物であってもよいし、他の人物であってもよい。また、第3閾値TH3は第1閾値TH1と同一の値、または、第1閾値TH1より小さい値である。 In step S108, the factor estimation unit 134 identifies the emotion estimation value 166 that first exceeds the third threshold value TH3 among the emotion estimation values 166 of the person in the target range A, and corresponds to the identified emotion estimation value 166. Let the person be a tentative factor person (step S108). The tentative factor person may be a person corresponding to the emotion estimation value 166 exceeding the first threshold value TH1, or may be another person. Further, the third threshold value TH3 is the same value as the first threshold value TH1 or a value smaller than the first threshold value TH1.

図4の例では、時刻T11において、ユーザU1の感情推定値166の絶対値が第1閾値TH1を超えているので、要因推定部134はステップS106で肯定判定する。さらに、時刻T12においてユーザU1の感情推定値166の絶対値が第3閾値TH3を超えているので、要因推定部134は、ステップS108でユーザU1を仮の要因人物とする。仮の要因人物は、要因人物である可能性が高い人物であり、要因人物の候補である。 In the example of FIG. 4, since the absolute value of the emotion estimation value 166 of the user U1 exceeds the first threshold value TH1 at the time T11, the factor estimation unit 134 makes an affirmative determination in step S106. Further, since the absolute value of the emotion estimation value 166 of the user U1 exceeds the third threshold value TH3 at the time T12, the factor estimation unit 134 sets the user U1 as a temporary factor person in step S108. A tentative factor person is a person who is likely to be a factor person and is a candidate for a factor person.

要因推定部134は、第1検出期間TE1を設定する(ステップS109)。第1検出期間TE1の長さは予め設定されている。第1検出期間TE1の始点は、ステップS106またはステップS107で肯定判定された時点であり、図4の例では時刻T11である。 The factor estimation unit 134 sets the first detection period TE1 (step S109). The length of the first detection period TE1 is preset. The start point of the first detection period TE1 is the time when affirmative determination is made in step S106 or step S107, and is the time T11 in the example of FIG.

要因推定部134は、仮の要因人物の感情推定値166が、第1検出期間TE1において負の値であるか否かを判定する(ステップS110)。仮の要因人物の感情推定値166が第1検出期間TE1で正の値になることがあれば(ステップS110;NO)、CPU130の処理はステップS104に戻る。 The factor estimation unit 134 determines whether or not the emotion estimation value 166 of the tentative factor person is a negative value in the first detection period TE1 (step S110). If the emotional estimated value 166 of the tentative factor person becomes a positive value in the first detection period TE1 (step S110; NO), the process of the CPU 130 returns to step S104.

仮の要因人物の感情推定値166が第1検出期間TE1で負の値を維持する場合(ステップS110;YES)、要因推定部134は、第2検出期間TE2を設定する(ステップS111)。第2検出期間TE2の長さは予め設定されており、第1検出期間TE1と同一であっても異なる長さであってもよい。第2検出期間TE2は、本発明の検出期間の一例に対応する。第2検出期間の始点は、ステップS106またはステップS107で肯定判定された時点であり、図4では時刻T11である。 When the emotion estimation value 166 of the tentative factor person maintains a negative value in the first detection period TE1 (step S110; YES), the factor estimation unit 134 sets the second detection period TE2 (step S111). The length of the second detection period TE2 is set in advance, and may be the same as or different from that of the first detection period TE1. The second detection period TE2 corresponds to an example of the detection period of the present invention. The start point of the second detection period is the time when affirmative determination is made in step S106 or step S107, and is the time T11 in FIG.

要因推定部134は、第2検出期間TE2において、仮の要因人物を除く人物の感情推定値166が第4閾値TH4を超えるか否かを判定する(ステップS112)。仮の要因人物以外の人物の感情推定値166が第4閾値TH4を超えない場合(ステップS112;NO)、要因推定部134は、仮の要因人物が感情を抑制していると判定する(ステップS113)。すなわち、ユーザU1が感情抑制状態にあると判定する。 The factor estimation unit 134 determines in the second detection period TE2 whether or not the emotion estimation value 166 of the person excluding the temporary factor person exceeds the fourth threshold value TH4 (step S112). When the emotion estimation value 166 of a person other than the temporary factor person does not exceed the fourth threshold value TH4 (step S112; NO), the factor estimation unit 134 determines that the temporary factor person suppresses the emotion (step). S113). That is, it is determined that the user U1 is in the emotionally suppressed state.

図5(B)に示す感情推定値166は、第2検出期間TE2において第4閾値TH4を超えない状態を維持している。この例は、ユーザU1の感情の変化がユーザU2に伝搬していないことを示している。つまり、ユーザU1は、自身の感情が他の人物に影響しないように、感情表現を抑制している状態にある。この場合、対象範囲AはユーザU1の感情の変化に影響されていないが、ユーザU1の感情の変化の緩和または感情の改善を図ることが望ましい。 The emotion estimation value 166 shown in FIG. 5B maintains a state in which the fourth threshold value TH4 is not exceeded during the second detection period TE2. This example shows that the emotional change of user U1 has not propagated to user U2. That is, the user U1 is in a state of suppressing emotional expression so that his / her emotion does not affect another person. In this case, the target range A is not affected by the emotional change of the user U1, but it is desirable to alleviate the emotional change of the user U1 or improve the emotion.

一方、仮の要因人物以外の感情推定値166が第2検出期間TE2で第4閾値TH4を超えた場合(ステップS112;YES)、要因推定部134は、仮の要因人物を、要因人物として決定する(ステップS114)。図4の例では、時刻T13でユーザU2の感情推定値166の絶対値が第4閾値TH4を超えているので、ユーザU1を要因人物とする。
ユーザU1が要因人物となっている場合、ユーザU1の感情の変化を緩和し、或いは、ユーザU1の感情を改善することにより、対象範囲Aの全体感情の改善または変化の緩和を実現できる。
On the other hand, when the emotion estimation value 166 other than the temporary factor person exceeds the fourth threshold value TH4 in the second detection period TE2 (step S112; YES), the factor estimation unit 134 determines the temporary factor person as the factor person. (Step S114). In the example of FIG. 4, since the absolute value of the emotion estimation value 166 of the user U2 exceeds the fourth threshold value TH4 at the time T13, the user U1 is used as the factor person.
When the user U1 is a factor person, the change in the emotion of the user U1 can be alleviated, or the emotion of the user U1 can be improved, thereby improving the overall emotion of the target range A or alleviating the change.

ステップS113で抑制状態が検出された後、および、ステップS114で要因人物が推定された後、サービス決定部135は、サービスを決定する(ステップS115)。サービス提供部136は、サービス決定部135により決定されたサービスを実行する(ステップS116)。 After the suppression state is detected in step S113 and after the factor person is estimated in step S114, the service determination unit 135 determines the service (step S115). The service providing unit 136 executes the service determined by the service determining unit 135 (step S116).

サービス決定部135が決定し、サービス提供部136が実行するサービスは、例えば、対象範囲Aの全体に働きかけるサービスや、特定の人物に対して働きかけるサービスである。 The service determined by the service determination unit 135 and executed by the service provision unit 136 is, for example, a service that works on the entire target range A or a service that works on a specific person.

対象範囲Aの全体に働きかけるサービスとしては、対象範囲Aの場を和ませる動作が挙げられる。具体的には、スピーカ113から音楽を流したり、ジョークを発言したりする動作が挙げられる。サービス提供部136が臭気を対象範囲Aに供給する機構を備えている場合、気持ちを和らげるアロマの臭気を対象範囲Aに排出してもよい。これらの音楽、ジョーク、臭気等は、発生要因の人物の嗜好に適合するものを選択してもよい。ユーザU1、U2、U3の嗜好に関する情報は、例えば、ユーザ情報165に含まれる。 As a service that works on the entire target range A, there is an operation of softening the field of the target range A. Specific examples thereof include an operation of playing music from the speaker 113 and making a joke. When the service providing unit 136 is provided with a mechanism for supplying the odor to the target range A, the odor of a soothing aroma may be discharged to the target range A. These music, jokes, odors, and the like may be selected to suit the taste of the person who causes the music. Information about the preferences of users U1, U2, and U3 is included in, for example, user information 165.

また、要因推定部134が、環境検出部137により検出した環境や環境の変化が、個人感情の変化の要因となったことを推定可能な場合、サービス提供部136により、要因を解消または抑制する動作を行ってもよい。例えば、窓Wからの騒音の音量が大きいことが個人感情の変化の要因であると判定した場合、サービス提供部136は、窓Wの開閉装置に赤外線通信部115から信号を送信し、窓Wを閉じる制御を行ってもよい。この場合、スピーカ113から、窓を閉めることを案内する音声を通知し、音声によって対象範囲Aの全体感情の改善を図ってもよい。 Further, when the factor estimation unit 134 can estimate that the environment or the change in the environment detected by the environment detection unit 137 is the cause of the change in personal emotion, the service providing unit 136 eliminates or suppresses the factor. You may perform the operation. For example, when it is determined that the loudness of the noise from the window W is a factor of the change in personal emotion, the service providing unit 136 transmits a signal from the infrared communication unit 115 to the opening / closing device of the window W, and the window W You may control to close. In this case, the speaker 113 may notify a voice instructing the window to be closed, and the voice may be used to improve the overall emotion of the target range A.

特定の人物に対して働きかけるサービスとしては、発生要因の人物や感情抑制状態の人物に対し、「お困りですか」と音声を出力する動作が挙げられる。 As a service that works on a specific person, there is an operation of outputting a voice saying "Are you in trouble?" To the person who caused the occurrence or the person in the emotionally suppressed state.

また、サービス提供部136は、スピーカ113による音声メッセージの発音とモータ114による動作を実行し、要因人物を、出口Dから居室RMの外に案内してもよい。例えば、要因人物に対し「外に出ましょうか」との音声メッセージを発音して、サービス提供装置100が出口Dに向かって移動する。これにより、要因人物と他の人物とを物理的に遠ざけることで、要因人物の個人感情および対象範囲Aの全体感情の沈静化を図ることができる。 Further, the service providing unit 136 may execute the pronunciation of the voice message by the speaker 113 and the operation by the motor 114 to guide the factor person from the exit D to the outside of the living room RM. For example, the service providing device 100 moves toward the exit D by pronouncing a voice message "Let's go outside" to the factor person. As a result, the individual emotions of the factor person and the overall emotion of the target range A can be calmed down by physically separating the factor person from the other person.

また、サービス提供部136は、報知部140により報知を実行させてもよい。例えば、発生要因の人物以外の人物に対して、発生要因の人物が誰であるかを報知部140により報知し、解決を促すメッセージを音声により出力する動作が挙げられる。この場合、発生要因の人物の個人感情が変化した要因を要因推定部134が推定可能な場合には、個人感情が変化した要因を合わせて報知してもよい。 Further, the service providing unit 136 may execute the notification by the notification unit 140. For example, an operation of notifying a person other than the person who caused the occurrence of the person who caused the occurrence by the notification unit 140 and outputting a message prompting a solution by voice can be mentioned. In this case, if the factor estimation unit 134 can estimate the factor that changed the personal emotion of the person who caused the occurrence, the factor that changed the personal emotion may also be notified.

サービス決定部135は、対象範囲Aの人物の全員について個人感情を改善し、或いは、個人感情の変化を緩和するサービスを、優先して決定する。このようなサービスの実行が難しい場合や、サービスの効果が薄いと判断した場合は、一部の人物を対象とするサービスを実行するよう決定する。 The service determination unit 135 preferentially determines a service that improves individual emotions or alleviates changes in individual emotions for all persons in the target range A. If it is difficult to execute such a service, or if it is judged that the effect of the service is weak, it is decided to execute the service targeting some people.

サービスの提供後、評価取得部152がサービスに対する評価を取得し、対価決定部153が対価を決定する(ステップS117)。その後、決済処理部154が対価の決済を実行し(ステップS118)、本処理を終了する。なお、ステップS117、S118の動作は、サービス提供部136がサービスを提供した直後でなくてもよく、上述したように予め設定された期間毎に実行してもよい。 After the service is provided, the evaluation acquisition unit 152 acquires the evaluation for the service, and the consideration determination unit 153 determines the consideration (step S117). After that, the settlement processing unit 154 executes the settlement of consideration (step S118), and ends this processing. The operations of steps S117 and S118 may not be performed immediately after the service providing unit 136 has provided the service, and may be executed every preset period as described above.

このように、本発明を適用したサービス提供装置100は、対象範囲Aにいる複数の人物を検出する人物検出部132と、各々の人物の個人感情を推定する感情推定部133と、感情推定部133の推定結果に基づいて、いずれか1以上の人物の個人感情または対象範囲の全体感情の変化の発生要因を推定する要因推定部134と、要因推定部134が推定した発生要因に対応して、対象範囲Aにいる1または複数の人物に提供するサービスを決定するサービス決定部135と、を備える。 As described above, in the service providing device 100 to which the present invention is applied, the person detection unit 132 that detects a plurality of persons in the target range A, the emotion estimation unit 133 that estimates the individual emotions of each person, and the emotion estimation unit. Based on the estimation result of 133, the factor estimation unit 134 that estimates the cause of the change in the individual emotion of any one or more persons or the overall emotion of the target range, and the factor estimation unit 134 correspond to the cause estimated by the factor estimation unit 134. , A service determination unit 135 for determining a service to be provided to one or more persons in the target range A.

この構成によれば、対象範囲Aにおける全体感情の変化または個人感情の変化を招いた発生要因に対応して、対象範囲Aにいる人物にサービスを提供できる。このため、感情を変化させた要因を考慮して、より効果的に、感情の変化に対処できる。例えば、感情推定値166や言動検出値168の改善や、特定の感情状態の緩和を効果的に促すことが期待できる。サービス提供装置100が実行するサービス提供方法による場合にも、同様の作用効果を得ることができる。 According to this configuration, it is possible to provide a service to a person in the target range A in response to the cause of the change in the overall emotion or the change in the individual emotion in the target range A. Therefore, it is possible to deal with the emotional change more effectively in consideration of the factors that changed the emotion. For example, it can be expected that the emotion estimation value 166 and the behavior detection value 168 are improved and the relaxation of a specific emotional state is effectively promoted. Similar effects can be obtained even when the service providing method executed by the service providing device 100 is used.

また、決済情報処理部150は、本発明の決済情報処理装置の一例に対応する。
決済情報処理部150は、サービス提供装置100によるサービスの提供または個人感情の推定の対象となる人物を登録した登録部151と、サービスの提供に対してユーザU1、U2、U3の評価を取得する評価取得部152と、評価取得部152により取得された評価に基づいて、サービスの提供の対価を決定する対価決定部153と、を備える。
この構成により、サービス提供装置100の利用に対し、利用者であるユーザU1、U2、U3とサービスの提供者との双方にとって適切な対価を設定できる。
Further, the payment information processing unit 150 corresponds to an example of the payment information processing device of the present invention.
The payment information processing unit 150 acquires a registration unit 151 that registers a person who is a target of service provision or personal emotion estimation by the service providing device 100, and evaluations of users U1, U2, and U3 for the service provision. It includes an evaluation acquisition unit 152 and a consideration determination unit 153 that determines the consideration for providing the service based on the evaluation acquired by the evaluation acquisition unit 152.
With this configuration, it is possible to set an appropriate consideration for both the users U1, U2, U3 and the service provider for using the service providing device 100.

また、対価決定部153は、評価取得部152により取得した評価と、サービスの提供に応じて人物の個人感情が変化した変化状況とに基づいて、サービスの提供の対価を決定してもよい。例えば、図4の例において、時刻T12でサービスが提供された結果、曲線F1、F2、F3、FUはいずれも上昇し、負の値から正の値に変化している。対価決定部153は、ユーザU1、U2、U3の感情推定値166および全体感情値167に基づき、サービスの効果を判定し、対価を決定してもよい。この場合、ユーザU1、U2、U3の主観的な評価だけでなく、客観的な効果を反映して、適切にサービスの対価を決定できる。 Further, the consideration determination unit 153 may determine the consideration for the provision of the service based on the evaluation acquired by the evaluation acquisition unit 152 and the change situation in which the individual emotion of the person changes according to the provision of the service. For example, in the example of FIG. 4, as a result of the service being provided at time T12, the curves F1, F2, F3, and FU are all increased and changed from a negative value to a positive value. The consideration determination unit 153 may determine the effect of the service and determine the consideration based on the emotion estimation value 166 and the total emotion value 167 of the users U1, U2, and U3. In this case, the consideration for the service can be appropriately determined by reflecting not only the subjective evaluation of the users U1, U2, and U3 but also the objective effect.

サービス提供装置100において、感情推定部133は各々の人物の個人感情を表す感情推定値166を求め、要因推定部134は、いずれかの人物の感情推定値166が第1閾値TH1を超えた場合、感情推定値166の総和が第1閾値TH1を超えた場合、または、感情推定値166の総和の変化量が第2閾値TH2を超えた場合に、変化の発生要因を推定する。この構成によれば、数値化された対象範囲Aの全体感情およびユーザU1、U2、U3の個人感情に基づき、感情の変化を適切に検知できる。 In the service providing device 100, the emotion estimation unit 133 obtains the emotion estimation value 166 representing the individual emotion of each person, and the factor estimation unit 134 determines the case where the emotion estimation value 166 of any person exceeds the first threshold value TH1. , When the sum of the emotion estimation values 166 exceeds the first threshold value TH1, or when the amount of change in the sum of the emotion estimation values 166 exceeds the second threshold value TH2, the cause of the change is estimated. According to this configuration, changes in emotions can be appropriately detected based on the quantified overall emotions of the target range A and the individual emotions of the users U1, U2, and U3.

要因推定部134は、対象範囲Aにいる複数の人物のうち、感情推定値166が他の人物よりも早く第3閾値TH3を超えた人物を、変化の発生要因となった要因人物であると推定する。この構成によれば、他の人物の個人感情に影響を与えた要因人物を、速やかに推定できる。 The factor estimation unit 134 considers a person whose emotional estimation value 166 exceeds the third threshold value TH3 earlier than other persons among a plurality of persons in the target range A to be the factor person who caused the change. presume. According to this configuration, the factor person who influenced the personal feelings of another person can be quickly estimated.

要因推定部134は、第2検出期間TE2を設定し、感情推定値166が最初に第3閾値TH3を超えた人物を仮の要因人物であると推定し、第2検出期間TE2において仮の要因人物とは異なる人物の感情推定値166が第4閾値TH4を超えた場合に、仮の要因人物を、変化の発生要因である要因人物として推定する。
この構成によれば、仮の要因人物を推定してから、仮の要因人物が他の人物の個人感情に影響を与えたか否かを判定することで、正確に、かつ速やかに要因人物を推定できる。
The factor estimation unit 134 sets the second detection period TE2, estimates that the person whose emotion estimation value 166 first exceeds the third threshold value TH3 is a tentative factor person, and tentative factors in the second detection period TE2. When the emotion estimation value 166 of a person different from the person exceeds the fourth threshold value TH4, the tentative factor person is estimated as the factor person who is the cause of the change.
According to this configuration, after estimating the temporary factor person, it is determined whether or not the temporary factor person has influenced the personal emotions of another person, so that the factor person can be estimated accurately and promptly. it can.

要因推定部134は、第2検出期間TE2において仮の要因人物の後に、仮の要因人物とは異なる人物の感情推定値166が第4閾値TH4を超えない場合に、仮の要因人物の感情が抑制状態にあると推定する。この構成によれば、感情状態が変化していながら感情表現を抑制している人物を推定できる。 In the second detection period TE2, when the emotion estimation value 166 of a person different from the temporary factor person does not exceed the fourth threshold value TH4 after the temporary factor person, the factor estimation unit 134 causes the emotion of the temporary factor person. Presumed to be in a suppressed state. According to this configuration, it is possible to estimate a person who suppresses emotional expression while his emotional state is changing.

サービス決定部135は、感情が抑制状態にあると推定された仮の要因人物に対して提供するサービスを決定する。この構成によれば、感情状態が変化していながら感情表現を抑制している人物に対し、サービスを提供することで、感情状態の改善を図ることができる。 The service determination unit 135 determines the service to be provided to the tentative factor person whose emotion is presumed to be in a suppressed state. According to this configuration, it is possible to improve the emotional state by providing a service to a person who suppresses the emotional expression while the emotional state is changing.

サービス提供装置100は、サービス決定部135により決定されたサービスを提供するサービス提供部136を備え、サービス提供部136は、要因推定部134によっていずれかの人物が変化の発生要因である要因人物と推定された場合に、要因人物とは異なる人物に対し、要因人物を通知するサービスを行う。この構成によれば、要因人物の影響で全体感情値167が変化したことに気づかない人物に対し、全体感情値167の変化の要因を伝えることで、全体感情値167および感情推定値166の改善を図ることができる。 The service providing device 100 includes a service providing unit 136 that provides a service determined by the service determining unit 135, and the service providing unit 136 is a factor person whose factor estimation unit 134 is a factor causing the change. When it is estimated, a service is provided to notify the factor person to a person different from the factor person. According to this configuration, the overall emotion value 167 and the emotion estimation value 166 are improved by transmitting the factor of the change in the overall emotion value 167 to a person who does not notice that the overall emotion value 167 has changed due to the influence of the factor person. Can be planned.

サービス決定部135は、要因推定部134によっていずれかの人物が変化の発生要因である要因人物と推定された場合に、要因人物に対し、要因人物の趣味または嗜好に対応するサービスを提供することを決定する。この構成によれば、要因人物の個人感情に効果的に対処することができ、全体感情値167および感情推定値166を、より効果的に改善できる。 When the factor estimation unit 134 estimates that any person is the factor person who is the cause of the change, the service determination unit 135 provides the factor person with a service corresponding to the hobby or preference of the factor person. To determine. According to this configuration, the individual emotions of the factor person can be effectively dealt with, and the overall emotion value 167 and the emotion estimation value 166 can be improved more effectively.

サービス提供装置100は、対象範囲Aにいる1または複数の人物に対して情報を報知する報知部140を備える。
報知部140は、要因推定部134によっていずれかの人物が変化の発生要因である要因人物と推定された場合に、要因人物とは異なる人物に対し、要因人物から離れることを促す案内を報知してもよい。例えば、ユーザU1が要因人物である場合に、報知部140により、ユーザU2、U3に対し、ユーザU1から離れることを報知してもよい。この場合、要因人物以外の人物の個人感情の悪化を抑制できる。
The service providing device 100 includes a notification unit 140 that notifies information to one or more persons in the target range A.
When the factor estimation unit 134 estimates that any person is the factor person who is the cause of the change, the notification unit 140 notifies a person different from the factor person of guidance to urge them to leave the factor person. You may. For example, when the user U1 is a factor person, the notification unit 140 may notify the users U2 and U3 of leaving the user U1. In this case, deterioration of personal feelings of a person other than the factor person can be suppressed.

サービス提供装置100は、対象範囲Aにおける複数の人物の会話または行動を検出する言動検出部138を備える。要因推定部134は、いずれか1以上の人物の感情推定値166の変化と、言動検出部138が検出した会話または行動とに基づき、いずれか1以上の人物の会話または行動が感情推定値166の変化の発生要因か否かを推定してもよい。 The service providing device 100 includes a behavior detection unit 138 that detects conversations or actions of a plurality of persons in the target range A. In the factor estimation unit 134, the conversation or behavior of any one or more persons is the emotion estimation value 166 based on the change of the emotion estimation value 166 of any one or more persons and the conversation or behavior detected by the behavior detection unit 138. It may be estimated whether or not it is the cause of the change in.

この構成において、言動検出部138は、対象範囲Aにおける複数の人物の会話または行動を検出し、検出した会話または行動を数値化した言動検出値168を求める構成であってもよい。サービス提供装置100は、感情推定部133により推定された感情推定値166を言動検出値168に基づき補正する補正部139を備える。要因推定部134は、補正部139により補正された感情推定値166に基づいて変化の発生要因を推定する。 In this configuration, the speech / behavior detection unit 138 may be configured to detect conversations or actions of a plurality of persons in the target range A and obtain a speech / behavior detection value 168 obtained by quantifying the detected conversations or actions. The service providing device 100 includes a correction unit 139 that corrects the emotion estimation value 166 estimated by the emotion estimation unit 133 based on the behavior detection value 168. The factor estimation unit 134 estimates the cause of the change based on the emotion estimation value 166 corrected by the correction unit 139.

例えば、図3に示した動作において、要因推定部134は、ユーザU1、U2、U3の言動を解析して、感情推定値166および全体感情値167の判定を行ってもよい。具体的には、ステップS108で仮の要因人物を推定する処理の前に、言動検出部138によりユーザU1、U2、U3の言動検出値168を生成し、補正部139によって感情推定値166を補正してもよい。言動検出値168は、ユーザU1、U2、U3の言動の大きさを示す指標であり、発言の声の大きさ、発言の長さ、動作の大きさ、動作により発生した音の大きさ等が大きいほど、言動検出値168が大きい。言動検出値168は、ユーザU1、U2、U3の各々について算出される。従って、各々のユーザU1、U2、U3の言動検出値168は、ユーザU1、U2、U3の言動が対象範囲Aに与えた影響の大きさを示しているといえる。閾値記憶部169は、ユーザU1、U2、U3のいずれかの言動検出値168が閾値を超えた場合、言動検出値168が閾値を超えた後の感情推定値166を補正する。例えば、閾値を超えた言動検出値168に対応する人物とは異なる人物について、感情推定値166の変化を大きくするよう補正する。 For example, in the operation shown in FIG. 3, the factor estimation unit 134 may analyze the words and actions of the users U1, U2, and U3 to determine the emotion estimation value 166 and the overall emotion value 167. Specifically, before the process of estimating the temporary factor person in step S108, the behavior detection unit 138 generates the behavior detection values 168 of the users U1, U2, and U3, and the correction unit 139 corrects the emotion estimation value 166. You may. The speech / behavior detection value 168 is an index indicating the loudness of the speech / behavior of the users U1, U2, U3, and the loudness of the voice of the speech, the length of the speech, the loudness of the motion, the loudness of the sound generated by the motion, etc. The larger the value, the larger the behavior detection value 168. The behavior detection value 168 is calculated for each of the users U1, U2, and U3. Therefore, it can be said that the behavior detection value 168 of each user U1, U2, U3 indicates the magnitude of the influence of the behavior of the users U1, U2, U3 on the target range A. When the speech / behavior detection value 168 of any of the users U1, U2, and U3 exceeds the threshold value, the threshold storage unit 169 corrects the emotion estimation value 166 after the speech / behavior detection value 168 exceeds the threshold value. For example, for a person different from the person corresponding to the behavior detection value 168 exceeding the threshold value, the change of the emotion estimation value 166 is corrected to be large.

この場合、感情推定部133は、補正部139により補正された感情推定値166に基づき、全体感情値167を再度算出する。要因推定部134は、補正された感情推定値166、および、全体感情値167に対して、ステップS106から処理を再実行する。
この構成によれば、ユーザU1、U2、U3のいずれかの言動が、他の人物の感情推定値166に与えた影響を大きく評価して、発生要因の推定とサービスの決定を行うことができる。
In this case, the emotion estimation unit 133 recalculates the total emotion value 167 based on the emotion estimation value 166 corrected by the correction unit 139. The factor estimation unit 134 re-executes the process from step S106 with respect to the corrected emotion estimation value 166 and the total emotion value 167.
According to this configuration, the influence of any of the words and actions of the users U1, U2, and U3 on the emotion estimation value 166 of another person can be greatly evaluated, and the cause of the occurrence can be estimated and the service can be determined. ..

サービス提供装置100は、対象範囲Aの環境に関する検出値を取得する環境検出部137を備え、要因推定部134は、いずれか1以上の人物の感情推定値166の変化と、環境検出部137により取得した検出値の変化とに基づき、環境の変化が感情推定値166の変化の発生要因か否かを推定してもよい。この場合、環境の変化に起因する感情推定値166の変化に対応して、感情推定値166および全体感情値167の改善を図ることができる。 The service providing device 100 includes an environment detection unit 137 that acquires a detection value related to the environment of the target range A, and the factor estimation unit 134 uses the change of the emotion estimation value 166 of any one or more persons and the environment detection unit 137. Based on the change in the acquired detected value, it may be estimated whether or not the change in the environment is the cause of the change in the emotion estimation value 166. In this case, it is possible to improve the emotion estimation value 166 and the overall emotion value 167 in response to the change in the emotion estimation value 166 due to the change in the environment.

別の観点から、サービス提供装置100は、図6に示す構成とすることができる。
図6は、サービス提供装置100を別の観点から見た場合の機能的構成を示すブロック図である。CPU130は、音声取得部191、撮像画像取得部192、数値化処理部193、事象情報取得部194、動作決定部195、および、実行部196を備える。また、メモリ160は、事象情報記憶部197を備える。
From another point of view, the service providing device 100 can have the configuration shown in FIG.
FIG. 6 is a block diagram showing a functional configuration when the service providing device 100 is viewed from another viewpoint. The CPU 130 includes a voice acquisition unit 191, a captured image acquisition unit 192, a digitization processing unit 193, an event information acquisition unit 194, an operation determination unit 195, and an execution unit 196. Further, the memory 160 includes an event information storage unit 197.

図6のサービス提供装置100は、対象範囲Aにいる複数の人物の発話音声を取得する音声取得部191と、1または複数の人物を撮像した撮像画像を取得する撮像画像取得部192と、音声取得部191および撮像画像取得部192により取得した情報を数値化して数値情報を生成する数値化処理部193と、数値化処理部193により生成された数値情報の変化と、数値情報の変化の発生要因となる事象に関する事象情報との対応を記憶する事象情報記憶部197と、検知対象期間に音声取得部および撮像画像取得部により取得された情報に基づく数値情報が、検出条件を満たす変化をした場合に、変化に対応する事象情報を事象情報記憶部197から取得する事象情報取得部194と、事象情報取得部194により取得された事象情報に基づき、動作を決定する動作決定部195と、動作決定部により決定された動作を実行する実行部196と、を備える。 The service providing device 100 of FIG. 6 includes a voice acquisition unit 191 that acquires utterance voices of a plurality of persons in the target range A, an image capture image acquisition unit 192 that acquires an image of one or a plurality of persons, and a voice. A digitization processing unit 193 that digitizes the information acquired by the acquisition unit 191 and the captured image acquisition unit 192 to generate numerical information, a change in the numerical information generated by the numerical processing unit 193, and a change in the numerical information. The event information storage unit 197, which stores the correspondence with the event information related to the causative event, and the numerical information based on the information acquired by the voice acquisition unit and the captured image acquisition unit during the detection target period have changed to satisfy the detection conditions. In this case, the event information acquisition unit 194 that acquires the event information corresponding to the change from the event information storage unit 197, the operation determination unit 195 that determines the operation based on the event information acquired by the event information acquisition unit 194, and the operation. It includes an execution unit 196 that executes an operation determined by the determination unit.

音声取得部191は、マイク112が集音した発話音声を取得し、撮像画像取得部192はカメラ111の撮像画像データを取得する。これらは上述のデータ取得部131に相当する。数値化処理部193は、データ取得部131によって取得された情報を数値化して、感情推定値166、および全体感情値167等数値情報を生成する。数値化処理部193は、感情推定部133に相当する。 The voice acquisition unit 191 acquires the utterance sound collected by the microphone 112, and the captured image acquisition unit 192 acquires the captured image data of the camera 111. These correspond to the above-mentioned data acquisition unit 131. The digitization processing unit 193 digitizes the information acquired by the data acquisition unit 131 to generate numerical information such as an emotion estimation value 166 and an overall emotion value 167. The digitization processing unit 193 corresponds to the emotion estimation unit 133.

事象情報は、感情推定値166および/または全体感情値167の変化の発生要因を示す。事象情報記憶部197は、感情推定値166および/または全体感情値167の変化の態様と、発生要因とを対応づける情報を記憶し、事象情報取得部194は、発生要因を推定する。すなわち、事象情報取得部194および事象情報記憶部197は、要因推定部134の動作を、メモリ160に記憶するデータに基づき実行する例に相当する。
動作決定部195は、サービス決定部135に相当し、実行部196はサービス提供部136に相当する。これらの動作は上述した通りである。
The event information indicates the cause of the change in the emotional estimate 166 and / or the overall emotional value 167. The event information storage unit 197 stores information that associates the mode of change of the emotion estimation value 166 and / or the total emotion value 167 with the occurrence factor, and the event information acquisition unit 194 estimates the occurrence factor. That is, the event information acquisition unit 194 and the event information storage unit 197 correspond to an example in which the operation of the factor estimation unit 134 is executed based on the data stored in the memory 160.
The operation determination unit 195 corresponds to the service determination unit 135, and the execution unit 196 corresponds to the service provision unit 136. These operations are as described above.

また、CPU130が備える各部の構成は、人工知能(AI:Artificial Intelligence)で構成してもよい。例えば、人物検出部132、感情推定部133、要因推定部134、サービス決定部135、環境検出部137、補正部139の機能を、サービス提供装置100に実装されたAIによって実行させてもよい。サービス提供装置100に実装されるAIは、学習済みモデルを構成するプログラムおよびデータであってもよい。また、サービス提供装置100に実装されたAIが、サービス提供装置100の動作に伴って学習を継続する構成であってもよい。 Further, the configuration of each part included in the CPU 130 may be configured by artificial intelligence (AI: Artificial Intelligence). For example, the functions of the person detection unit 132, the emotion estimation unit 133, the factor estimation unit 134, the service determination unit 135, the environment detection unit 137, and the correction unit 139 may be executed by the AI mounted on the service providing device 100. The AI mounted on the service providing device 100 may be the programs and data constituting the trained model. Further, the AI mounted on the service providing device 100 may be configured to continue learning as the service providing device 100 operates.

また、上述したサービス提供装置100は、単独で各機能を実行する装置に限らない。複数の装置が協働してサービス提供装置100と同様に機能する例について、第2実施形態として説明する。 Further, the service providing device 100 described above is not limited to a device that independently executes each function. An example in which a plurality of devices cooperate to function in the same manner as the service providing device 100 will be described as a second embodiment.

[3.第2実施形態]
図7は、第2実施形態のサービス提供システム1の概略構成を示す説明図であり、対象範囲Aに設置されるサービス提供装置100aの機能的構成を合わせて示す。図8は、サービス提供サーバ300および決済情報処理装置400の機能的構成を示すブロック図である。サービス提供システム1は、全体として本発明のサービス提供装置に相当する。
[3. Second Embodiment]
FIG. 7 is an explanatory diagram showing a schematic configuration of the service providing system 1 of the second embodiment, and also shows the functional configuration of the service providing device 100a installed in the target range A. FIG. 8 is a block diagram showing a functional configuration of the service providing server 300 and the payment information processing device 400. The service providing system 1 corresponds to the service providing device of the present invention as a whole.

サービス提供装置100は、通信装置200を介して通信ネットワーク500に接続される。通信ネットワーク500は、インターネットや公衆回線網により構成される広域ネットワークであってもよいし、LAN(Local Area Network)等の特定区域のネットワークであってもよい。 The service providing device 100 is connected to the communication network 500 via the communication device 200. The communication network 500 may be a wide area network composed of the Internet or a public network, or may be a network in a specific area such as a LAN (Local Area Network).

通信ネットワーク500には、サービス提供サーバ300および決済情報処理装置400が接続される。サービス提供システム1を構成するサービス提供装置100a、サービス提供サーバ300および決済情報処理装置400は、相互にデータ通信可能に接続sあれる。 A service providing server 300 and a payment information processing device 400 are connected to the communication network 500. The service providing device 100a, the service providing server 300, and the payment information processing device 400 constituting the service providing system 1 are connected to each other so as to be capable of data communication.

サービス提供装置100aは、サービス提供装置100と同様に、対象範囲Aに対応して居室RMに設置される。サービス提供装置100aは、CPU130と同様のプロセッサとしてCPU130aを有する。CPU130aは、データ取得部131、サービス提供部136、報知部140の機能を有し、さらに、通信制御部142を有する。 Like the service providing device 100, the service providing device 100a is installed in the living room RM corresponding to the target range A. The service providing device 100a has a CPU 130a as a processor similar to the CPU 130. The CPU 130a has the functions of a data acquisition unit 131, a service providing unit 136, and a notification unit 140, and further has a communication control unit 142.

また、サービス提供サーバ300は、CPU310およびメモリ330を備える。CPU310は、制御用プログラム331を実行するコンピュータであり、制御用プログラム331の機能により、通信制御部311、人物検出部312、感情推定部313、要因推定部314、サービス決定部315、環境検出部317、言動検出部318、および、補正部319として動作する。 Further, the service providing server 300 includes a CPU 310 and a memory 330. The CPU 310 is a computer that executes the control program 331, and by the function of the control program 331, the communication control unit 311, the person detection unit 312, the emotion estimation unit 313, the factor estimation unit 314, the service determination unit 315, and the environment detection unit. It operates as 317, a behavior detection unit 318, and a correction unit 319.

通信制御部142は、データ取得部131と同様に、カメラ111、マイク112、および赤外線通信部115等からデータを取得する。通信制御部142は、取得したデータをサービス提供サーバ300に送信する。
サービス提供サーバ300の通信制御部311は、サービス提供装置100aが送信するデータを受信して、撮像画像データ332および音声データ333を記憶する。
Similar to the data acquisition unit 131, the communication control unit 142 acquires data from the camera 111, the microphone 112, the infrared communication unit 115, and the like. The communication control unit 142 transmits the acquired data to the service providing server 300.
The communication control unit 311 of the service providing server 300 receives the data transmitted by the service providing device 100a, and stores the captured image data 332 and the voice data 333.

人物検出部312は、図2に示したサービス提供装置100の人物検出部132と同様に機能する。感情推定部313は、感情推定部133と同様に機能し、要因推定部314は、要因推定部134と同様に機能する。また、サービス決定部315は、サービス決定部135と同様に機能する。環境検出部317は、環境検出部137と同様に機能し、言動検出部318は、言動検出部138と同様に機能する。また、補正部319は、補正部139と同様に機能する。 The person detection unit 312 functions in the same manner as the person detection unit 132 of the service providing device 100 shown in FIG. The emotion estimation unit 313 functions in the same manner as the emotion estimation unit 133, and the factor estimation unit 314 functions in the same manner as the factor estimation unit 134. Further, the service determination unit 315 functions in the same manner as the service determination unit 135. The environment detection unit 317 functions in the same manner as the environment detection unit 137, and the behavior detection unit 318 functions in the same manner as the behavior detection unit 138. Further, the correction unit 319 functions in the same manner as the correction unit 139.

メモリ330が記憶する撮像画像データ332、音声データ333は、図2に示したサービス提供装置100の撮像画像データ162、音声データ163にそれぞれ対応する。対象情報334は、対象情報164に対応する。ユーザ情報335はユーザ情報165に対応し、感情推定値336は感情推定値166に対応し、全体感情値337は全体感情値167に対応し、言動検出値338は言動検出値168に対応する。閾値記憶部339は閾値記憶部169と同様のものである。 The captured image data 332 and the audio data 333 stored in the memory 330 correspond to the captured image data 162 and the audio data 163 of the service providing device 100 shown in FIG. 2, respectively. The target information 334 corresponds to the target information 164. The user information 335 corresponds to the user information 165, the emotion estimation value 336 corresponds to the emotion estimation value 166, the overall emotion value 337 corresponds to the overall emotion value 167, and the behavior detection value 338 corresponds to the behavior detection value 168. The threshold storage unit 339 is the same as the threshold storage unit 169.

決済情報処理装置400は、CPU410、および、メモリ430を備える。CPU410は、制御用プログラム431を実行するコンピュータであり、制御用プログラム431の機能により、通信制御部411、登録部412、評価取得部413、対価決定部414、および、決済処理部415として動作する。また、メモリ430は決済情報432を記憶する。 The payment information processing device 400 includes a CPU 410 and a memory 430. The CPU 410 is a computer that executes the control program 431, and operates as a communication control unit 411, a registration unit 412, an evaluation acquisition unit 413, a consideration determination unit 414, and a payment processing unit 415 by the function of the control program 431. .. In addition, the memory 430 stores the payment information 432.

登録部412は、図2に示したサービス提供装置100の登録部151と同様に機能する。評価取得部413は評価取得部152と同様に機能するものであり、対価決定部414は対価決定部153と同様に機能するものであり、決済処理部415は決済処理部154と同様に機能するものである。決済情報432は、サービス提供装置100が記憶する決済情報170に対応する。 The registration unit 412 functions in the same manner as the registration unit 151 of the service providing device 100 shown in FIG. The evaluation acquisition unit 413 functions in the same manner as the evaluation acquisition unit 152, the consideration determination unit 414 functions in the same manner as the consideration determination unit 153, and the settlement processing unit 415 functions in the same manner as the settlement processing unit 154. It is a thing. The payment information 432 corresponds to the payment information 170 stored in the service providing device 100.

通信制御部311は、サービス決定部315により決定したサービスに関するデータを、サービス提供装置100aに送信する。
通信制御部142は、サービス提供サーバ300から送信されるデータを受信して、サービス提供部136により、サービス決定部315が決定したサービスを実行させる。また、通信制御部142は、サービス提供サーバ300から受信したデータが、報知部140による報知を指示するデータであった場合に、報知部140に報知を実行させる。
The communication control unit 311 transmits data related to the service determined by the service determination unit 315 to the service providing device 100a.
The communication control unit 142 receives the data transmitted from the service providing server 300, and causes the service providing unit 136 to execute the service determined by the service determining unit 315. Further, the communication control unit 142 causes the notification unit 140 to execute the notification when the data received from the service providing server 300 is the data instructing the notification by the notification unit 140.

通信制御部311は、サービス決定部315が決定したサービスに関するデータを決済情報処理装置400に送信する。また、通信制御部142は、サービス提供部136により実行したサービスの実行状態に関するデータを決済情報処理装置400に送信する。 The communication control unit 311 transmits data related to the service determined by the service determination unit 315 to the payment information processing device 400. Further, the communication control unit 142 transmits data regarding the execution state of the service executed by the service providing unit 136 to the payment information processing device 400.

通信制御部411は、サービス提供装置100aおよびサービス提供サーバ300から送信されるデータに基づき、評価取得部413により評価を取得させ、対価決定部414に対価を決定させ、決済処理部415による決済を実行させる。 The communication control unit 411 causes the evaluation acquisition unit 413 to acquire the evaluation based on the data transmitted from the service providing device 100a and the service providing server 300, causes the consideration determination unit 414 to determine the consideration, and makes the payment by the payment processing unit 415. Let it run.

第2実施形態のサービス提供システム1によれば、サービス提供装置100と同様に、対象範囲Aにおける全体感情の変化または個人感情の変化を招いた発生要因に対応して、対象範囲Aにいる人物にサービスを提供できる。このため、感情を変化させた要因を考慮して、より効果的に、感情の変化に対処できる。例えば、ユーザU1、U2、U3の個人感情や対象範囲Aの全体感情の改善、或いは、特定の感情状態の緩和を効果的に促すことが期待できる。サービス提供システム1が実行するサービス提供方法による場合にも、同様の作用効果を得ることができる。 According to the service providing system 1 of the second embodiment, similarly to the service providing device 100, a person who is in the target range A in response to the cause of the change in the overall emotion or the change in the individual emotion in the target range A. Can provide services to. Therefore, it is possible to deal with the emotional change more effectively in consideration of the factors that changed the emotion. For example, it can be expected to effectively promote the improvement of the individual emotions of the users U1, U2, U3 and the overall emotion of the target range A, or the relaxation of a specific emotional state. Similar effects can be obtained even when the service providing method executed by the service providing system 1 is used.

[4.他の実施形態]
上記実施形態において、要因推定部134は、図3のステップS108−ステップS114の処理で要因人物を推定できない場合に、ユーザU1、U2、U3への働きかけを行って要因人物を決定してもよい。例えば、複数の人物の感情推定値166が同時に第1閾値TH1を超えた場合や、同時に第3閾値TH3を超えた場合が該当する。要因推定部134は、ユーザ端末装置230への音声通話やテキストメッセージの発信、またはスピーカ113による音声の発音等を行う。これらの手法により、要因推定部134は、例えば、ユーザU1、U2、U3に、何かあったのかを問いかけるメッセージを出力し、その応答の様子に関するデータをデータ取得部131により取得して解析し、発生要因を推定する。この場合、データ取得部131によって、より多くの情報を収集して発生要因を推定できる。
[4. Other embodiments]
In the above embodiment, when the factor estimation unit 134 cannot estimate the factor person by the process of step S108-step S114 of FIG. 3, the factor estimation unit 134 may work on the users U1, U2, and U3 to determine the factor person. .. For example, the case where the emotion estimation value 166 of a plurality of persons exceeds the first threshold value TH1 at the same time or the case where the third threshold value TH3 is exceeded at the same time is applicable. The factor estimation unit 134 makes a voice call or a text message to the user terminal device 230, or makes a voice sound by the speaker 113. By these methods, the factor estimation unit 134 outputs, for example, a message asking the users U1, U2, and U3 what happened, and the data acquisition unit 131 acquires and analyzes the data regarding the state of the response. , Estimate the cause. In this case, the data acquisition unit 131 can collect more information and estimate the cause.

また、図5に示したように、ユーザU1の感情推定値166が負の値である間に、ユーザU2の感情推定値166が正の値を維持する場合、ユーザU1が抑制状態にあること、或いは、ユーザU1がユーザU2、U3とは無関係な事情により個人感情を変化させていることが考えられる。このような場合も、要因推定部134は、ユーザU1、U2、U3への働きかけを行って、要因人物または発生要因を決定してもよい。 Further, as shown in FIG. 5, when the emotion estimation value 166 of the user U2 maintains a positive value while the emotion estimation value 166 of the user U1 is a negative value, the user U1 is in the suppressed state. Alternatively, it is conceivable that the user U1 changes his / her personal feelings due to circumstances unrelated to the users U2 and U3. Even in such a case, the factor estimation unit 134 may work on the users U1, U2, and U3 to determine the factor person or the cause.

また、上記実施形態では、感情推定値166および全体感情値167が負の値となるような変化に対応する処理を説明したが、全体感情値167が正の値となるような変化に対応してもよい。例えば、サービス提供部136により、対象範囲Aの全体感情値167をより高めるように、音楽を流す、サービス提供装置100がユーザU1、U2、U3の会話に加わる等の動作を行ってもよい。 Further, in the above embodiment, the process corresponding to the change such that the emotion estimation value 166 and the total emotion value 167 become negative values has been described, but the process corresponding to the change such that the total emotion value 167 becomes a positive value is supported. You may. For example, the service providing unit 136 may perform an operation such as playing music or joining the conversation of the users U1, U2, and U3 so as to further increase the overall emotion value 167 of the target range A.

また、上記実施形態のサービス提供装置100およびサービス提供サーバ300は、環境検出部137、317を備える構成としたが、これらを備えていない構成であってもよい。言動検出部138、318、および、補正部139、319についても同様である。 Further, although the service providing device 100 and the service providing server 300 of the above-described embodiment are configured to include the environment detection units 137 and 317, they may not be provided. The same applies to the behavior detection unit 138, 318 and the correction unit 139, 319.

また、上記実施形態のサービス提供装置100、100aは、報知部140を備える構成としたが、報知部140を備えていない構成であってもよい。モータ114、および赤外線通信部115についても同様である。例えば、サービス提供装置100、100aは、対象範囲Aに固定的に設置される装置であってもよく、いわゆるスマートスピーカであってもよい。 Further, although the service providing devices 100 and 100a of the above embodiment are configured to include the notification unit 140, the service providing devices 100 and 100a may not include the notification unit 140. The same applies to the motor 114 and the infrared communication unit 115. For example, the service providing devices 100 and 100a may be devices fixedly installed in the target range A, or may be so-called smart speakers.

また、上記実施形態のサービス提供装置100および決済情報処理装置400は、評価取得部152、413を備える構成としたが、これらを備えていない構成であってもよい。 Further, although the service providing device 100 and the payment information processing device 400 of the above embodiment are configured to include the evaluation acquisition units 152 and 413, they may not be provided.

なお、図2、図6、図7、図8は、本願発明の理解を容易にするために、サービス提供装置100およびサービス提供システム1の機能構成を、主な処理内容により区分して示した概略図であり、これらの構成を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、各構成要素の処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。 In addition, FIG. 2, FIG. 6, FIG. 7, and FIG. 8 show the functional configurations of the service providing device 100 and the service providing system 1 according to the main processing contents in order to facilitate the understanding of the present invention. It is a schematic diagram, and these configurations may be configured by other divisions. Further, the processing of each component may be executed by one hardware unit, or may be executed by a plurality of hardware units. Further, the processing of each component may be executed by one program or may be executed by a plurality of programs.

1…サービス提供システム(サービス提供装置)、100、100a…サービス提供装置、130、130a…CPU、131…データ取得部、132、312…人物検出部、133、313…感情推定部、134、314…要因推定部、135、315…サービス決定部、136…サービス提供部、137、317…環境検出部、138、318…言動検出部、139、319…補正部、140…報知部、142、311、411…通信制御部、150…決済情報処理部、151、412…登録部、152、413…評価取得部、153、414…対価決定部、154、415…決済処理部、160…メモリ、161…制御用プログラム、162、332…撮像画像データ、163、333…音声データ、164、334…対象情報、165、335…ユーザ情報、166、336…感情推定値、167、337…全体感情値、168、338…言動検出値、169、339…閾値記憶部、170、432…決済情報、191…音声取得部、192…撮像画像取得部、193…数値化処理部、194…事象情報取得部、195…動作決定部、196…実行部、197…事象情報記憶部、300…サービス提供サーバ、310…CPU、311…通信制御部、330…メモリ、331…制御用プログラム、400…決済情報処理装置、410…CPU、411…通信制御部、430…メモリ、431…制御用プログラム、500…通信ネットワーク、A…対象範囲。 1 ... Service providing system (service providing device), 100, 100a ... Service providing device, 130, 130a ... CPU, 131 ... Data acquisition unit, 132, 312 ... Person detection unit, 133, 313 ... Emotion estimation unit, 134, 314 ... Factor estimation unit, 135, 315 ... Service determination unit 136 ... Service provision unit, 137, 317 ... Environment detection unit, 138, 318 ... Word and behavior detection unit, 139, 319 ... Correction unit, 140 ... Notification unit, 142, 311 411 ... Communication control unit, 150 ... Payment information processing unit, 151, 412 ... Registration unit, 152, 413 ... Evaluation acquisition unit, 153, 414 ... Consideration determination unit, 154, 415 ... Payment processing unit, 160 ... Memory, 161 ... Control program, 162, 332 ... Captured image data, 163, 333 ... Audio data, 164, 334 ... Target information, 165, 335 ... User information, 166, 336 ... Emotion estimated value, 167, 337 ... Overall emotion value, 168, 338 ... Word-and-action detection value, 169, 339 ... Threshold storage unit, 170, 432 ... Payment information, 191 ... Voice acquisition unit, 192 ... Captured image acquisition unit, 193 ... Digitization processing unit, 194 ... Event information acquisition unit, 195 ... Operation determination unit, 196 ... Execution unit, 197 ... Event information storage unit, 300 ... Service providing server, 310 ... CPU, 311 ... Communication control unit, 330 ... Memory, 331 ... Control program, 400 ... Payment information processing device , 410 ... CPU, 411 ... Communication control unit, 430 ... Memory, 431 ... Control program, 500 ... Communication network, A ... Target range.

Claims (16)

対象範囲にいる複数の人物を検出する人物検出部と、
各々の前記人物の個人感情を推定する感情推定部と、
前記感情推定部の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定する要因推定部と、
前記要因推定部が推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定するサービス決定部と、を備える
サービス提供装置。
A person detection unit that detects multiple people in the target range,
An emotion estimation unit that estimates the individual emotions of each person,
Based on the estimation result of the emotion estimation unit, a factor estimation unit that estimates the cause of the change in the emotional state of the entire target range or one or more of the emotional states of the person, and the factor estimation unit.
A service providing device including a service determining unit that determines a service to be provided to one or a plurality of the persons in the target range in response to an occurrence factor estimated by the factor estimating unit.
前記感情推定部は各々の前記人物の個人感情を表す感情推定値を求め、
前記要因推定部は、いずれかの人物の前記感情推定値が第1閾値を超えた場合、前記感情推定値の総和が第1閾値を超えた場合、または、前記感情推定値の総和の変化量が第2閾値を超えた場合に、前記変化の発生要因を推定する
請求項1記載のサービス提供装置。
The emotion estimation unit obtains an emotion estimation value representing the individual emotion of each person, and obtains an emotion estimation value.
The factor estimation unit determines that the emotion estimation value of any person exceeds the first threshold value, the sum total of the emotion estimation values exceeds the first threshold value, or the amount of change in the total sum of the emotion estimation values. The service providing device according to claim 1, wherein when the value exceeds the second threshold value, the cause of the change is estimated.
前記要因推定部は、前記対象範囲にいる複数の前記人物のうち、前記感情推定値が他の前記人物よりも早く第3閾値を超えた前記人物を、前記変化の発生要因となった要因人物であると推定する
請求項2に記載のサービス提供装置。
Among the plurality of the persons in the target range, the factor estimation unit selects the person whose emotional estimation value exceeds the third threshold value earlier than the other persons as the factor person who caused the change. The service providing device according to claim 2, which is presumed to be.
前記要因推定部は、前記感情推定値が最初に前記第3閾値を超えた前記人物を仮の要因人物であると推定し、
検出期間を設定し、
前記検出期間において前記仮の要因人物とは異なる前記人物の前記感情推定値が第4閾値を超えた場合に、前記仮の要因人物を、前記変化の発生要因である前記要因人物として推定する
請求項3に記載のサービス提供装置。
The factor estimation unit estimates that the person whose emotion estimation value first exceeds the third threshold value is a temporary factor person.
Set the detection period and
A claim that estimates the provisional factor person as the factor person who is the cause of the change when the emotion estimation value of the person different from the provisional factor person exceeds the fourth threshold value in the detection period. Item 3. The service providing device according to item 3.
前記要因推定部は、前記検出期間において前記仮の要因人物の後に、前記仮の要因人物とは異なる前記人物の前記感情推定値が第4閾値を超えない場合に、前記仮の要因人物の感情が抑制状態にあると推定する
請求項4に記載のサービス提供装置。
When the emotion estimation value of the person different from the temporary factor person does not exceed the fourth threshold value after the temporary factor person in the detection period, the factor estimation unit determines the emotion of the temporary factor person. The service providing device according to claim 4, wherein is presumed to be in a suppressed state.
前記サービス決定部は、感情が前記抑制状態にあると推定された前記仮の要因人物に対して提供するサービスを決定する
請求項5に記載のサービス提供装置。
The service providing device according to claim 5, wherein the service determining unit determines a service to be provided to the provisional factor person whose emotion is presumed to be in the suppressed state.
前記対象範囲の環境に関する検出値を取得する環境検出部を備え、
前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記環境検出部により取得した前記検出値の変化とに基づき、前記環境の変化が前記感情推定値の変化の発生要因か否かを推定する
請求項2から請求項6のいずれか1項に記載のサービス提供装置。
It is equipped with an environment detection unit that acquires detection values related to the environment in the target range.
In the factor estimation unit, the change in the environment is the change in the emotion estimation value based on the change in the emotion estimation value of the person of any one or more and the change in the detection value acquired by the environment detection unit. The service providing device according to any one of claims 2 to 6, which estimates whether or not it is the cause.
前記対象範囲における複数の前記人物の会話または行動を検出する言動検出部を備え、
前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記言動検出部が検出した会話または行動とに基づき、いずれか1以上の前記人物の会話または行動が前記感情推定値の変化の発生要因か否かを推定する
請求項2から請求項7のいずれか1項に記載のサービス提供装置。
It is provided with a behavior detection unit that detects conversations or actions of a plurality of the persons in the target range.
In the factor estimation unit, based on the change in the emotion estimation value of the person of any one or more and the conversation or action detected by the behavior detection unit, the conversation or action of the person of any one or more is the emotion. The service providing device according to any one of claims 2 to 7, which estimates whether or not it is a cause of change in the estimated value.
前記言動検出部は、前記対象範囲における複数の前記人物の会話または行動を検出し、検出した会話または行動を数値化した言動検出値を求める構成であり、
前記感情推定部により推定された前記感情推定値を前記言動検出値に基づき補正する補正部を備え、
前記要因推定部は、前記補正部により補正された前記感情推定値に基づいて前記変化の発生要因を推定する
請求項8に記載のサービス提供装置。
The behavior detection unit is configured to detect conversations or actions of a plurality of the persons in the target range and obtain a speech / behavior detection value obtained by quantifying the detected conversations or actions.
A correction unit for correcting the emotion estimation value estimated by the emotion estimation unit based on the behavior detection value is provided.
The service providing device according to claim 8, wherein the factor estimation unit estimates the cause of the change based on the emotion estimation value corrected by the correction unit.
前記サービス決定部により決定されたサービスを提供するサービス提供部を備え、
前記サービス提供部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物を通知するサービスを行う
請求項1から請求項9のいずれか1項に記載のサービス提供装置。
A service providing unit that provides a service determined by the service determining unit is provided.
When any one of the persons is presumed to be the factor person who is the cause of the change by the factor estimation unit, the service providing unit notifies the factor person different from the factor person. The service providing device according to any one of claims 1 to 9, which provides a service.
前記サービス決定部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物に対し、前記要因人物の趣味または嗜好に対応するサービスを提供することを決定する
請求項1から請求項10のいずれか1項に記載のサービス提供装置。
When the factor estimation unit estimates that any of the persons is a factor person who is the cause of the change, the service determination unit provides the factor person with a service corresponding to the hobby or preference of the factor person. The service providing device according to any one of claims 1 to 10, wherein the service providing device is determined to be provided.
前記対象範囲にいる1または複数の前記人物に対して情報を報知する報知部を備え、
前記報知部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物から離れることを促す案内を報知する
請求項1から請求項11のいずれか1項に記載のサービス提供装置。
A notification unit that notifies information to one or more of the persons in the target range is provided.
When the factor estimation unit estimates that any of the persons is the factor person who is the cause of the change, the notification unit causes the person different from the factor person to move away from the factor person. The service providing device according to any one of claims 1 to 11, which notifies the prompting guidance.
対象範囲にいる複数の人物の発話音声を取得する音声取得部と、
1または複数の前記人物を撮像した撮像画像を取得する撮像画像取得部と、
前記音声取得部および前記撮像画像取得部により取得した情報を数値化して数値情報を生成する数値化処理部と、
前記数値化処理部により生成された前記数値情報の変化と、前記数値情報の変化の発生要因となる事象に関する事象情報との対応を記憶する事象情報記憶部と、
検知対象期間に前記音声取得部および前記撮像画像取得部により取得された情報に基づく前記数値情報が、検出条件を満たす変化をした場合に、前記変化に対応する前記事象情報を前記事象情報記憶部から取得する事象情報取得部と、
前記事象情報取得部により取得された前記事象情報に基づき、動作を決定する動作決定部と、
前記動作決定部により決定された前記動作を実行する実行部と、を備える
サービス提供装置。
A voice acquisition unit that acquires utterances of multiple people in the target range,
An image acquisition unit that acquires an image of one or a plurality of the persons, and an image acquisition unit.
A digitization processing unit that digitizes the information acquired by the voice acquisition unit and the captured image acquisition unit to generate numerical information, and
An event information storage unit that stores the correspondence between the change in the numerical information generated by the numerical processing unit and the event information related to the event that causes the change in the numerical information.
When the numerical information based on the information acquired by the voice acquisition unit and the captured image acquisition unit changes during the detection target period, the event information corresponding to the change is used as the event information. The event information acquisition unit acquired from the storage unit and
An action determination unit that determines an operation based on the event information acquired by the event information acquisition unit,
A service providing device including an execution unit that executes the operation determined by the operation determination unit.
サービス提供装置によるサービスの提供または個人感情の推定の対象となる人物を登録した登録部と、
前記サービスの提供に対する前記人物の評価を取得する評価取得部と、
前記評価取得部により取得された評価に基づいて、前記サービスの提供の対価を決定する対価決定部と、を備える
決済情報処理装置。
A registration unit that registers a person who is the target of providing services or estimating personal feelings by a service providing device,
An evaluation acquisition unit that acquires the evaluation of the person for the provision of the service,
A payment information processing device including a consideration determination unit that determines the consideration for providing the service based on the evaluation acquired by the evaluation acquisition unit.
前記対価決定部は、前記評価取得部により取得した評価と、前記サービスの提供に応じて前記人物の個人感情が変化した変化状況とに基づいて、前記サービスの提供の対価を決定する
請求項14に記載の決済情報処理装置。
Claim 14 that the consideration determination unit determines the consideration for the provision of the service based on the evaluation acquired by the evaluation acquisition unit and the change situation in which the personal emotion of the person changes in response to the provision of the service. The payment information processing device described in.
対象範囲にいる複数の人物を検出し、
各々の前記人物の個人感情を推定し、
前記個人感情の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定し、
推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定する
サービス提供方法。
Detects multiple people in the target range and
Estimate the individual emotions of each person,
Based on the estimation result of the individual emotion, the cause of the change in the entire emotional state of the target range or the emotional state of any one or more of the persons is estimated.
A service providing method for determining a service to be provided to one or more of the persons in the target range according to an estimated occurrence factor.
JP2019054187A 2019-03-22 2019-03-22 Service providing device, service providing system, and service providing method Active JP7364348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019054187A JP7364348B2 (en) 2019-03-22 2019-03-22 Service providing device, service providing system, and service providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019054187A JP7364348B2 (en) 2019-03-22 2019-03-22 Service providing device, service providing system, and service providing method

Publications (2)

Publication Number Publication Date
JP2020154922A true JP2020154922A (en) 2020-09-24
JP7364348B2 JP7364348B2 (en) 2023-10-18

Family

ID=72559357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019054187A Active JP7364348B2 (en) 2019-03-22 2019-03-22 Service providing device, service providing system, and service providing method

Country Status (1)

Country Link
JP (1) JP7364348B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022068905A (en) * 2020-10-23 2022-05-11 本田技研工業株式会社 Conference support device, conference support method, and conference support program
WO2022145165A1 (en) * 2020-12-28 2022-07-07 パナソニックIpマネジメント株式会社 Environment control system and environment control method
JP2022124632A (en) * 2021-02-16 2022-08-26 Necソリューションイノベータ株式会社 Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program and recording medium
JP2022150256A (en) * 2021-03-26 2022-10-07 本田技研工業株式会社 Information providing system, and control method of information providing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244758A (en) * 2002-02-21 2003-08-29 Nissan Motor Co Ltd Information providing apparatus for vehicle
JP2006092430A (en) * 2004-09-27 2006-04-06 Denso Corp Music reproduction apparatus
JP2016062084A (en) * 2014-09-22 2016-04-25 株式会社日立システムズ Work management device, emotion analysis terminal, work management program, and work management method
JP2017073107A (en) * 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method for information presentation device, and information presentation device
JP2018063486A (en) * 2016-10-11 2018-04-19 本田技研工業株式会社 Service providing apparatus, service providing method, and service providing program
JP2019185117A (en) * 2018-04-02 2019-10-24 積水ハウス株式会社 Atmosphere estimating device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244758A (en) * 2002-02-21 2003-08-29 Nissan Motor Co Ltd Information providing apparatus for vehicle
JP2006092430A (en) * 2004-09-27 2006-04-06 Denso Corp Music reproduction apparatus
JP2016062084A (en) * 2014-09-22 2016-04-25 株式会社日立システムズ Work management device, emotion analysis terminal, work management program, and work management method
JP2017073107A (en) * 2015-10-08 2017-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method for information presentation device, and information presentation device
JP2018063486A (en) * 2016-10-11 2018-04-19 本田技研工業株式会社 Service providing apparatus, service providing method, and service providing program
JP2019185117A (en) * 2018-04-02 2019-10-24 積水ハウス株式会社 Atmosphere estimating device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022068905A (en) * 2020-10-23 2022-05-11 本田技研工業株式会社 Conference support device, conference support method, and conference support program
JP7430132B2 (en) 2020-10-23 2024-02-09 本田技研工業株式会社 Conference support device, conference support method, and conference support program
WO2022145165A1 (en) * 2020-12-28 2022-07-07 パナソニックIpマネジメント株式会社 Environment control system and environment control method
JP2022124632A (en) * 2021-02-16 2022-08-26 Necソリューションイノベータ株式会社 Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program and recording medium
JP7677696B2 (en) 2021-02-16 2025-05-15 Necソリューションイノベータ株式会社 Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program, and recording medium
JP2022150256A (en) * 2021-03-26 2022-10-07 本田技研工業株式会社 Information providing system, and control method of information providing system
JP7677816B2 (en) 2021-03-26 2025-05-15 本田技研工業株式会社 Information provision system and method for controlling information provision system

Also Published As

Publication number Publication date
JP7364348B2 (en) 2023-10-18

Similar Documents

Publication Publication Date Title
JP7364348B2 (en) Service providing device, service providing system, and service providing method
US10721571B2 (en) Separating and recombining audio for intelligibility and comfort
WO2021159987A1 (en) Method and device for predicting operating state of vehicle, terminal, and storage medium
JP5930432B2 (en) Identify people near the user of the mobile device through social graphs, conversation models, and user context
Lu et al. Stresssense: Detecting stress in unconstrained acoustic environments using smartphones
Lu et al. Speakersense: Energy efficient unobtrusive speaker identification on mobile phones
WO2021169742A1 (en) Method and device for predicting operating state of transportation means, and terminal and storage medium
JP3584458B2 (en) Pattern recognition device and pattern recognition method
JP6748965B2 (en) Cognitive function evaluation device, cognitive function evaluation method, and program
JP2017009825A (en) Conversation situation analysis apparatus and conversation situation analysis method
US20240194219A1 (en) Information processing system, information processing method, and recording medium
JP7222938B2 (en) Interaction device, interaction method and program
US20200094416A1 (en) Interaction apparatus and method
CN105049249A (en) Scoring method and system of remote visual conversation services
KR20100056451A (en) Methods for electronically analysing a dialogue and corresponding systems
JP2017010309A (en) Decision support apparatus and decision support method
US20210118464A1 (en) Method and apparatus for emotion recognition from speech
CN112883932A (en) Method, device and system for detecting abnormal behaviors of staff
JP2018169506A (en) Conversation satisfaction degree estimation device, voice processing device and conversation satisfaction degree estimation method
JP2009178783A (en) Communication robot and control method thereof
JP2020126195A (en) Voice interaction device, control device for voice interaction device, and control program
JP6695057B2 (en) Cognitive function evaluation device, cognitive function evaluation method, and program
JP2019101472A (en) Emotion estimation device
JP6363987B2 (en) Voice processing system, voice processing apparatus, and voice processing program
JP4631464B2 (en) Physical condition determination device and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231005

R150 Certificate of patent or registration of utility model

Ref document number: 7364348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150