JP2020154922A - Service provision apparatus, settlement information processing apparatus and service provision method - Google Patents
Service provision apparatus, settlement information processing apparatus and service provision method Download PDFInfo
- Publication number
- JP2020154922A JP2020154922A JP2019054187A JP2019054187A JP2020154922A JP 2020154922 A JP2020154922 A JP 2020154922A JP 2019054187 A JP2019054187 A JP 2019054187A JP 2019054187 A JP2019054187 A JP 2019054187A JP 2020154922 A JP2020154922 A JP 2020154922A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- person
- factor
- emotion
- service
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000008859 change Effects 0.000 claims abstract description 119
- 238000001514 detection method Methods 0.000 claims abstract description 115
- 230000008451 emotion Effects 0.000 claims description 301
- 230000002996 emotional effect Effects 0.000 claims description 47
- 238000011156 evaluation Methods 0.000 claims description 42
- 238000012545 processing Methods 0.000 claims description 29
- 238000012937 correction Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 9
- 230000006399 behavior Effects 0.000 description 43
- 238000004891 communication Methods 0.000 description 37
- 230000006870 function Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 235000019645 odor Nutrition 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、サービス提供装置、決済情報処理装置、および、サービス提供方法に関する。 The present invention relates to a service providing device, a payment information processing device, and a service providing method.
従来、人の感情を推定し、推定した感情に応じてサービスを提供する装置が知られている(例えば、特許文献1参照)。特許文献1に記載された装置は、車内にいる複数人の乗員の個人感情を推定して数値化し、個人感情の値の総和を全体感情の値とする。この装置は、全体感情の値に合わせて、スピーカから音楽を流す等のサービスを提供する。例えば、車内の会話がなく全体感情の値が低い場合に、車内の静かな環境に合った音楽を流す音楽サービスを提供することが開示されている。
Conventionally, a device that estimates a person's emotion and provides a service according to the estimated emotion is known (see, for example, Patent Document 1). The device described in
特許文献1記載の装置は、推定された全体感情の値それ自体に対応してサービスを決定する。
ところで、人物の感情の変化に対処しようとする場合、感情の変化を招いた要因を考慮することが効果的である。しかしながら、そのような対処を行う方法は、従来、提案されていない。
本発明は上記背景に鑑みてなされたものであり、人物の感情の変化に対し、感情の変化を招いた要因を考慮した対処を行うことが可能なサービス提供装置、決済情報処理装置、および、サービス提供方法を提供することを目的とする。
The device described in
By the way, when trying to deal with a person's emotional change, it is effective to consider the factors that caused the emotional change. However, a method for taking such a countermeasure has not been proposed conventionally.
The present invention has been made in view of the above background, and is a service providing device, a payment information processing device, and a payment information processing device capable of coping with a change in a person's emotion in consideration of a factor causing the change in emotion. The purpose is to provide a service provision method.
上記目的を達成するための態様として、対象範囲にいる複数の人物を検出する人物検出部と、各々の前記人物の個人感情を推定する感情推定部と、前記感情推定部の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定する要因推定部と、前記要因推定部が推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定するサービス決定部と、を備えるサービス提供装置が挙げられる。 As an embodiment for achieving the above object, based on a person detection unit that detects a plurality of persons in a target range, an emotion estimation unit that estimates the individual emotion of each person, and an estimation result of the emotion estimation unit. , The factor estimation unit that estimates the cause of the change in the emotional state of the person or one or more of the target range, and the target range corresponding to the cause estimated by the factor estimation unit. A service providing device including a service determining unit that determines a service to be provided to one or more of the persons in the room.
上記サービス提供装置において、前記感情推定部は各々の前記人物の個人感情を表す感情推定値を求め、前記要因推定部は、いずれかの人物の前記感情推定値が第1閾値を超えた場合、前記感情推定値の総和が第1閾値を超えた場合、または、前記感情推定値の総和の変化量が第2閾値を超えた場合に、前記変化の発生要因を推定する構成であってもよい。 In the service providing device, the emotion estimation unit obtains an emotion estimation value representing the individual emotion of each person, and the factor estimation unit determines when the emotion estimation value of any person exceeds the first threshold value. When the sum of the emotional estimates exceeds the first threshold value, or when the amount of change in the sum of the emotional estimates exceeds the second threshold value, the cause of the change may be estimated. ..
上記サービス提供装置において、前記要因推定部は、前記対象範囲にいる複数の前記人物のうち、前記感情推定値が他の前記人物よりも早く第3閾値を超えた前記人物を、前記変化の発生要因となった要因人物であると推定する構成であってもよい。 In the service providing device, the factor estimation unit generates the change in the person whose emotion estimation value exceeds the third threshold value earlier than the other person among the plurality of persons in the target range. It may be configured to be presumed to be the factor person who caused the factor.
上記サービス提供装置において、前記要因推定部は、前記感情推定値が最初に前記第3閾値を超えた前記人物を仮の要因人物であると推定し、検出期間を設定し、前記検出期間において前記仮の要因人物とは異なる前記人物の前記感情推定値が第4閾値を超えた場合に、前記仮の要因人物を、前記変化の発生要因である前記要因人物として推定する構成であってもよい。 In the service providing device, the factor estimation unit estimates that the person whose emotion estimation value first exceeds the third threshold value is a temporary factor person, sets a detection period, and in the detection period, the factor estimation unit sets the detection period. When the emotion estimation value of the person different from the temporary factor person exceeds the fourth threshold value, the temporary factor person may be estimated as the factor person who is the cause of the change. ..
上記サービス提供装置において、前記要因推定部は、前記検出期間において前記仮の要因人物の後に、前記仮の要因人物とは異なる前記人物の前記感情推定値が第4閾値を超えない場合に、前記仮の要因人物の感情が抑制状態にあると推定する構成であってもよい。 In the service providing device, the factor estimation unit determines that the emotion estimation value of the person different from the temporary factor person does not exceed the fourth threshold value after the temporary factor person in the detection period. It may be configured to presume that the emotion of the tentative factor person is in a suppressed state.
上記サービス提供装置において、前記サービス決定部は、感情が前記抑制状態にあると推定された前記仮の要因人物に対して提供するサービスを決定する構成であってもよい。 In the service providing device, the service determining unit may be configured to determine a service to be provided to the temporary factor person whose emotion is presumed to be in the suppressed state.
上記サービス提供装置において、前記対象範囲の環境に関する検出値を取得する環境検出部を備え、前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記環境検出部により取得した前記検出値の変化とに基づき、前記環境の変化が前記感情推定値の変化の発生要因か否かを推定する構成であってもよい。 The service providing device includes an environment detection unit that acquires detection values related to the environment in the target range, and the factor estimation unit is based on a change in the emotion estimation value of one or more of the persons and the environment detection unit. Based on the acquired change in the detected value, it may be configured to estimate whether or not the change in the environment is the cause of the change in the estimated emotion value.
上記サービス提供装置において、前記対象範囲における複数の前記人物の会話または行動を検出する言動検出部を備え、前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記言動検出部が検出した会話または行動とに基づき、いずれか1以上の前記人物の会話または行動が前記感情推定値の変化の発生要因か否かを推定する構成であってもよい。 The service providing device includes a behavior detection unit that detects conversations or actions of a plurality of the persons in the target range, and the factor estimation unit includes changes in the emotion estimation value of any one or more of the persons and the above-mentioned. Based on the conversation or behavior detected by the behavior detection unit, it may be configured to estimate whether or not the conversation or behavior of any one or more of the persons is the cause of the change in the emotion estimation value.
上記サービス提供装置において、前記言動検出部は、前記対象範囲における複数の前記人物の会話または行動を検出し、検出した会話または行動を数値化した言動検出値を求める構成であり、前記感情推定部により推定された前記感情推定値を前記言動検出値に基づき補正する補正部を備え、前記要因推定部は、前記補正部により補正された前記感情推定値に基づいて前記変化の発生要因を推定する構成であってもよい。 In the service providing device, the behavior detection unit detects conversations or actions of a plurality of the persons in the target range, and obtains a numerical behavior detection value of the detected conversations or actions, and the emotion estimation unit. A correction unit that corrects the emotion estimation value estimated by the above based on the behavior detection value is provided, and the factor estimation unit estimates the cause of the change based on the emotion estimation value corrected by the correction unit. It may be a configuration.
上記サービス提供装置において、前記サービス決定部により決定されたサービスを提供するサービス提供部を備え、前記サービス提供部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物を通知するサービスを行う構成であってもよい。 The service providing device includes a service providing unit that provides a service determined by the service determining unit, and the service providing unit is a factor person whose factor estimation unit causes any of the persons to cause the change. If it is presumed that the factor person is different from the factor person, the service may be provided to notify the factor person.
上記サービス提供装置において、前記サービス決定部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物に対し、前記要因人物の趣味または嗜好に対応するサービスを提供することを決定する構成であってもよい。 In the service providing device, when the factor estimation unit estimates that any of the persons is the factor person who is the cause of the change, the service determination unit has a hobby of the factor person with respect to the factor person. Alternatively, it may be configured to determine to provide a service corresponding to the taste.
上記サービス提供装置において、前記対象範囲にいる1または複数の前記人物に対して情報を報知する報知部を備え、前記報知部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物から離れることを促す案内を報知する構成であってもよい。 The service providing device includes a notification unit that notifies information to one or a plurality of the persons in the target range, and the notification unit is a factor that causes the change in any one of the persons by the factor estimation unit. When it is presumed to be a factor person, the person different from the factor person may be notified of a guide for urging the person to leave the factor person.
上記目的を達成するための別の態様として、対象範囲にいる複数の人物の発話音声を取得する音声取得部と、1または複数の前記人物を撮像した撮像画像を取得する撮像画像取得部と、前記音声取得部および前記撮像画像取得部により取得した情報を数値化して数値情報を生成する数値化処理部と、前記数値化処理部により生成された前記数値情報の変化と、前記数値情報の変化の発生要因となる事象に関する事象情報との対応を記憶する事象情報記憶部と、検知対象期間に前記音声取得部および前記撮像画像取得部により取得された情報に基づく前記数値情報が、検出条件を満たす変化をした場合に、前記変化に対応する前記事象情報を前記事象情報記憶部から取得する事象情報取得部と、前記事象情報取得部により取得された前記事象情報に基づき、動作を決定する動作決定部と、前記動作決定部により決定された前記動作を実行する実行部と、を備えるサービス提供装置が挙げられる。 As another aspect for achieving the above object, a voice acquisition unit that acquires utterance voices of a plurality of persons in a target range, an image acquisition unit that acquires an image captured by capturing one or a plurality of the persons, and an image acquisition unit. A digitization processing unit that digitizes the information acquired by the voice acquisition unit and the captured image acquisition unit to generate numerical information, a change in the numerical information generated by the numerical processing unit, and a change in the numerical information. The event information storage unit that stores the correspondence with the event information related to the event that causes the occurrence of the above, and the numerical information based on the information acquired by the voice acquisition unit and the captured image acquisition unit during the detection target period determine the detection conditions. When the change is satisfied, the operation is based on the event information acquisition unit that acquires the event information corresponding to the change from the event information storage unit and the event information acquired by the event information acquisition unit. Examples thereof include a service providing device including an operation determination unit for determining the motion determination unit and an execution unit for executing the operation determined by the operation determination unit.
上記目的を達成するための別の態様として、サービス提供装置によるサービスの提供または個人感情の推定の対象となる人物を登録した登録部と、前記サービスの提供に対する前記人物の評価を取得する評価取得部と、前記評価取得部により取得された評価に基づいて、前記サービスの提供の対価を決定する対価決定部と、を備える決済情報処理装置が挙げられる。 As another aspect for achieving the above object, a registration unit that registers a person who is a target of service provision by a service providing device or estimation of personal feelings, and evaluation acquisition for acquiring the evaluation of the person for the provision of the service. Examples thereof include a payment information processing device including a unit and a consideration determination unit that determines the consideration for providing the service based on the evaluation acquired by the evaluation acquisition unit.
上記決済情報処理装置において、前記対価決定部は、前記評価取得部により取得した評価と、前記サービスの提供に応じて前記人物の個人感情が変化した変化状況とに基づいて、前記サービスの提供の対価を決定する構成であってもよい。 In the payment information processing device, the consideration determination unit provides the service based on the evaluation acquired by the evaluation acquisition unit and the change status in which the personal emotion of the person changes in response to the provision of the service. It may be configured to determine the consideration.
上記サービス提供装置において、対象範囲にいる複数の人物を検出し、各々の前記人物の個人感情を推定し、前記個人感情の前記感情推定部の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定し、推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定するサービス提供方法。 The service providing device detects a plurality of persons in the target range, estimates the individual emotions of each person, and based on the estimation result of the emotion estimation unit of the individual emotions, the entire emotions of the target range. Providing a service that estimates the cause of a change in the emotional state of the person or one or more of the persons, and determines a service to be provided to the person or a plurality of the persons in the target range according to the estimated cause. Method.
上記サービス提供装置によれば、対象範囲における全体の感情の変化または個人の感情の変化を招いた発生要因に対応して、対象範囲にいる人物にサービスを提供できる。このため、感情を変化させた要因を考慮して、より効果的に、感情の変化に対処できる。例えば、感情の改善や特定の感情状態の緩和を効果的に促すことが期待できる。上記サービス提供方法による場合にも、同様の作用効果を得ることができる。
また、上記決済情報処理装置によれば、対象範囲における全体の感情の変化または個人の感情の変化をもたらした要因に対応してサービスを決定する装置の利用に対し、利用者とサービスの提供者との双方にとって適切な対価を設定できる。
According to the service providing device, it is possible to provide a service to a person in the target range in response to an occurrence factor that causes a change in the overall emotion or a change in the individual emotion in the target range. Therefore, it is possible to deal with the emotional change more effectively in consideration of the factors that changed the emotion. For example, it can be expected to effectively promote improvement of emotions and relaxation of specific emotional states. Similar effects can be obtained even when the above service provision method is used.
Further, according to the above-mentioned payment information processing device, a user and a service provider are required to use a device that determines a service in response to a factor that causes a change in overall emotion or a change in individual emotion in the target range. Appropriate consideration can be set for both parties.
以下、図面を参照して本発明の実施形態について説明する。
[1.第1実施形態の概要]
図1は、本発明のサービス提供装置を適用した第1実施形態のサービス提供装置100の使用状態の例を示す図である。図2は、サービス提供装置100の機能的構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[1. Outline of the first embodiment]
FIG. 1 is a diagram showing an example of a usage state of the
図1には、サービス提供装置100が使用される環境の例として、複数の人物を収容可能な居室RMを示す。サービス提供装置100は、居室RMの内部空間を対象範囲Aとして、対象範囲Aにいる人物に対して感情推定およびサービスの提供を行う。図1では、居室RMにいる複数の人物を、以下ではユーザU1、U2、U3とする。
FIG. 1 shows a living room RM capable of accommodating a plurality of persons as an example of an environment in which the
対象範囲Aは、対象範囲A以外の空間と明確に区切られている必要はなく、例えば、対象範囲Aは居室RMの全体であってもよいし、一部であってもよい。また、サービス提供装置100が機能する範囲を対象範囲Aとして考えることも可能である。例えば、後述するカメラ111により撮像可能な範囲を対象範囲Aとしてもよく、マイク112により集音可能な範囲を対象範囲Aとしてもよく、スピーカ113が出力する音声を人物が聴取可能な範囲を対象範囲Aとしてもよい。
The target range A does not need to be clearly separated from the space other than the target range A. For example, the target range A may be the entire living room RM or a part thereof. It is also possible to consider the range in which the
図2に示すように、サービス提供装置100は、CPU(Central Processing Unit)130、およびメモリ160を備え、CPU130の機能によりサービス提供装置100の各部を制御する。サービス提供装置100は、CPU130の制御に従って動作するカメラ111、マイク112、スピーカ113、モータ114、赤外線通信部115、および、無線通信部116を備える。
As shown in FIG. 2, the
カメラ111は、対象範囲Aの少なくとも一部を含む範囲を撮像して、撮像画像データを出力するデジタルカメラである。
マイク112は、対象範囲Aにおける音を集音し、音声データを出力する。
スピーカ113は、CPU130の制御に従って音声を出力する。
モータ114は、サービス提供装置100の本体の下部に設けられた駆動機構を動作させる。サービス提供装置100の駆動機構は、サービス提供装置100を居室RMの内外で移動させる機構であり、例えば、複数の車輪と、モータ114の動力を車輪に伝達するギヤ等で構成される。モータ114は、CPU130の制御に従って駆動機構を動作させることにより、サービス提供装置100を移動させる。
The
The
The
The
赤外線通信部115は、赤外線信号を送信または送受信する。赤外線通信部115は、例えば、居室RMの空調を行う空調装置250に対して赤外線信号を送信することにより、空調装置250の運転を制御する。この場合、サービス提供装置100は、空調装置250の運転開始、運転停止、空調の目標温度や風量の設定等を行うことができる。また、サービス提供装置100は、赤外線通信部115が空調装置250から赤外線信号を受信することにより、空調装置250が検知する居室RMの室温に関する情報を取得してもよい。
The
また、居室RMには、窓Wを開閉する図示しない開閉装置を設けてもよい。この開閉装置は、サービス提供装置100から赤外線信号を受信することで動作する構成であってもよい。この場合、サービス提供装置100は、開閉装置に対して赤外線信号を送信して、窓Wを開閉させることができる。
Further, the living room RM may be provided with a switchgear (not shown) for opening and closing the window W. The switchgear may be configured to operate by receiving an infrared signal from the
無線通信部116は、Wi−Fi(登録商標)、Bluetooth(登録商標)等の近距離無線通信を実行する。例えば、無線通信部116は、ユーザU1が身体に装着する生体情報検知装置220や、ユーザU1が所持するユーザ端末装置230と通信を実行する。生体情報検知装置220は、ユーザU1の脈拍、血圧、血中酸素濃度、体温、発汗等の生体情報を検知して、検知結果をサービス提供装置100に送信するユーザ端末装置230は、例えば、パーソナルコンピュータやスマートフォン等であり、音声通話や画面表示の機能を有する。
図1に示す例ではユーザU1が生体情報検知装置220およびユーザ端末装置230を使用しているが、ユーザU2、U3が同様の装置を使用することも勿論可能である。
無線通信部116は、モバイル無線通信回線や公衆回線網を介して通信を実行する構成であってもよい。
The
In the example shown in FIG. 1, the user U1 uses the biometric
The
CPU130は、制御用プログラム161を読み込んで実行することにより、データ取得部131、人物検出部132、感情推定部133、要因推定部134、サービス決定部135、サービス提供部136、環境検出部137、言動検出部138、補正部139、報知部140、および、決済情報処理部150として機能する。決済情報処理部150は、登録部151、評価取得部152、対価決定部153、および決済処理部154により構成され、これらの各機能部もCPU130が制御用プログラム161を実行することにより実現される。
By reading and executing the control program 161, the
CPU130は、マイコン等の他のプロセッサで構成されてもよく、プロセッサとROM(Read Only Memory)、RAM(Random Access Memory)等が統合されたデバイスであってもよい。
The
メモリ160は、制御用プログラム161のほか、撮像画像データ162、音声データ163、対象情報164、ユーザ情報165、感情推定値166、全体感情値167、言動検出値168、および決済情報170を記憶する。また、メモリ160の記憶領域には、閾値記憶部169が設けられる。
In addition to the control program 161, the
データ取得部131は、対象範囲Aにいる人物であるユーザU1、U2、U3または対象範囲Aに関するデータを取得する。データ取得部131は、カメラ111の撮像画像データを取得し、撮像画像データ162をメモリ160に記憶させる。データ取得部131は、マイク112が集音した音声データを取得して、音声データ163をメモリ160に記憶させる。また、データ取得部131は、赤外線通信部115によって空調装置250から居室RMの室温等に関するデータを取得してもよい。また、データ取得部131は、生体情報検知装置220からユーザU1の生体情報を検知した検知結果のデータを取得してもよい。これらのデータもメモリ160に記憶される。
The
人物検出部132は、データ取得部131により取得されたデータに基づき、対象範囲Aにいる人物を検出する。例えば、人物検出部132は、撮像画像データ162から人間の画像を抽出することにより、ユーザU1、U2、U3を検出する。
人物検出部132は、検出した人物の個人識別を行ってもよい。例えば、メモリ160が記憶するユーザ情報165は、サービス提供装置100を利用するユーザと、各ユーザを識別するための識別情報等を記憶する。データ取得部131は、ユーザ情報165を参照して、対象範囲Aで検出した人物のユーザ識別情報を特定する処理を行ってもよい。
The
The
感情推定部133は、データ取得部131が取得したデータに基づき、ユーザU1、U2、U3の各々の感情を推定する。ユーザU1、U2、U3の各々の感情を、個人感情という。感情推定部133は、例えばPlutchikの感情の和を用いて、ユーザU1、U2、U3の各々について、感情を8つの基本感情(期待、喜び、受容、不安、驚き、悲しみ、嫌悪、怒り)と、隣り合う2つの感情の組み合わせによる応用感情とに分類する。感情推定部133は、感情の輪への当てはめに応じて個人感情を数値化する。
The
感情推定部133は、例えば、撮像画像データ162からユーザU1の顔の画像を抽出し、口角の形状、眉毛の形状、顔の皺の形状等からユーザU1の表情を判定し、判定結果に基づきユーザU1の個人感情を推定する。感情推定部133は、撮像画像データ162に加えて、音声データ163に基づきユーザU1の個人感情を推定する。例えば、音声データ163からユーザU1の声のデータを抽出し、ユーザU1の発話内容、音声のアクセント、発音、声量等に基づいてユーザU1の個人感情を推定する。また、感情推定部133は、データ取得部131が生体情報検知装置220から取得したユーザU1の生体情報に基づき、ユーザU1の個人感情の推定を行う。感情推定部133は、各種のデータに基づき推定したユーザU1の個人感情を総合し、総合的な個人感情の推定を行う。
The
感情推定部133は、個人感情を数値化する処理において、例えば、喜びなどの好ましい感情を、正の感情としてプラスの値で表し、悲しみなどの好ましからぬ感情を、負の感情として、負の値で表す。また、感情が強いほど、すなわち感情の輪の内側に寄っているほど、感情を表す値の絶対値を大きくする。
In the process of quantifying individual emotions, the
また、例えば、感情推定部133は、撮像画像データ162や生体情報検知装置220の検知結果から、ユーザU1に動きがあるか否かを判定し、動いていないときにユーザU1が睡眠中であると判定してもよい。この場合、感情推定部133は、睡眠中のユーザU1の個人感情を、例えば0とする。感情推定部133は、ユーザU2、U3に対してもユーザU1と同様の処理により、個人感情を推定し、数値化する。感情推定部133は、個人感情の数値を、感情推定値166としてメモリ160に記憶させる。
Further, for example, the
また、感情推定部133は、ユーザU1、U2、U3の各々の個人感情に基づいて、対象範囲Aにいる人物全体の感情を推定する。対象範囲Aにいる人物全体の感情を、全体感情という。全体感情は、ユーザU1、U2、U3が感じる対象範囲Aの雰囲気を表す。感情推定部133は、例えば、対象範囲Aにいる人物の感情推定値166の総和を、対象範囲Aの全体感情とする。すなわち、ユーザU1の感情推定値166と、ユーザU2の感情推定値166と、ユーザU3の感情推定値166とを合計した値を、対象範囲Aの全体感情とする。感情推定部133は、対象範囲Aの全体感情を数値として求め、求めた数値を全体感情値167としてメモリ160に記憶させる。
Further, the
感情推定値166は、基準値を0として、正の値または負の値で表される。感情推定値166が0の場合は、個人感情が平穏な状態や、上記のように該当する人物が眠っている場合に相当する。
The
要因推定部134は、感情推定値166、および、全体感情値167を監視し、対象範囲Aにおいて、ユーザU1、U2、U3のいずれかの感情推定値166、または、全体感情値167の変化を発生させた発生要因を推定する。
例えば、要因推定部134は、ユーザU1、U2、U3のいずれかの感情推定値166が変化した場合、および、全体感情値167が変化した場合に、対処が必要な変化であるか否かを判定する。対処が必要な変化である場合には、変化の発生要因を推定する。要因推定部134は、対処が必要な変化であるか否かを判定する処理等において、閾値記憶部169に記憶された閾値を参照する。閾値記憶部169は、予め設定された1または複数の閾値を記憶する。
The
For example, the
サービス決定部135は、要因推定部134が推定した発生要因に対応して、サービス提供装置100が実行するサービスを決定する。例えば、サービス決定部135は、感情推定値166および/または全体感情値167の変化を緩和するサービスを提供するよう決定する。或いは、サービス決定部135は、感情推定値166および/または全体感情値167を正の方向に変化させて改善するサービスを提供するよう決定する。
The
サービス提供部136は、サービス決定部135が決定したサービスを提供する。サービス提供部136が提供するサービスの詳細は後述する。
The service providing unit 136 provides the service determined by the
環境検出部137は、撮像画像データ162および/または音声データ163に基づき、対象範囲Aの環境を検出する。
言動検出部138は、撮像画像データ162および/または音声データ163に基づき、ユーザU1、U2、U3の各々の言動を検出する。言動検出部138は、ユーザU1、U2、U3の各々について、言動を数値化して言動検出値を生成し、メモリ160に言動検出値168として記憶させる。
The
The
補正部139は、感情推定部133が推定したユーザU1、U2、U3の感情推定値166を、言動検出値168に基づき補正する。
The correction unit 139 corrects the emotion estimation values 166 of the users U1, U2, and U3 estimated by the
報知部140は、ユーザU1、U2、U3からいずれか1人以上を選択して、情報を報知する。例えば、報知部140は、カメラ111から指向性の音声を出力することにより、ユーザU1、U2、U3のうち特定の人物に対してのみ聴取できるように音声を出力して、情報を報知する。また、報知部140は、ユーザ端末装置230に対する音声通話の発信やテキストメッセージの送信を行うことにより、ユーザU1に情報を報知する。ユーザU2、U3がユーザ端末装置230を使用する場合には、ユーザU2、U3にも同様の報知を行うことができる。報知部140がサービス提供部136により制御される場合、報知部140による報知は、サービス提供部136によるサービスの提供の一種である。
The
決済情報処理部150は、サービス提供装置100によるサービスの提供に対する対価の決定および決済を実行する。
登録部151は、対価の決済を行う対象の人物を登録する。登録部151により登録された人物に関する情報は、例えば、ユーザ情報165に含まれる。本実施形態では、一例として、ユーザU1、U2,U3が登録部151によって登録されている。
The payment
The
評価取得部152は、サービス提供部136により提供されたサービスに対する評価を取得する。例えば、評価取得部152は、サービス提供部136によってサービスが提供された後の感情推定値166および全体感情値167の変化に基づき、評価を生成する。
The evaluation acquisition unit 152 acquires an evaluation for the service provided by the service providing unit 136. For example, the evaluation acquisition unit 152 generates an evaluation based on changes in the
また、例えば、評価取得部152は、サービス提供部136によってサービスが提供された後、または、予め設定された期間毎に、登録部151により登録されたユーザU1、U2、U3による評価を取得する。この場合、評価取得部152は、ユーザ端末装置230等のサービス提供装置100以外の装置から送信される評価の情報を取得してもよい。また、評価取得部152は、マイク112およびスピーカ113によりユーザU1、U2,U3と対話処理を行い、ユーザU1、U2,U3の発話から評価を取得してもよい。
Further, for example, the evaluation acquisition unit 152 acquires the evaluation by the users U1, U2, and U3 registered by the
対価決定部153は、サービス提供部136によるサービスの提供に対する対価を決定する。対価の態様としては、例えば、(1)定額制、(2)定量制、(3)成功報酬型が挙げられる。決済情報170は、サービス提供部136が賦課する対価、および、対価の賦課の態様を示す情報を含む。対価決定部153は、以下に説明する(1)定額制、(2)定量制、(3)成功報酬型の全てを実行可能であってもよいし、一部のみを実行する構成であってもよい。
The consideration determination unit 153 determines the consideration for the provision of the service by the service providing unit 136. Examples of the mode of consideration include (1) flat rate system, (2) quantitative system, and (3) success fee type. The
(1)定額制とする場合、サービス提供装置100がサービスを提供することに対して、月単位、年単位、或いはその他の時間単位について定額の対価が設定される。この場合、登録部151により登録されたユーザU1、U2、U3の各々に定額の対価を賦課してもよいし、複数の人物を含む集団毎、サービス提供装置100が使用される場所毎、或いは、サービス提供装置100毎に、対価が賦課されてもよい。
(1) In the case of a flat rate system, a flat rate is set for the
(2)定量制とする場合、サービス提供部136がサービスを提供する毎に、予め設定された対価が賦課される。この場合、サービス提供部136がサービスを提供する前に、登録部151により登録されたユーザU1、U2、U3の全員または一部に対し、サービスの利用の可否を確認してもよい。定量制の対価は、後述する要因人物に対してのみ行われてもよい。
(2) In the case of a quantitative system, a preset consideration is levied each time the service providing unit 136 provides a service. In this case, before the service providing unit 136 provides the service, all or a part of the users U1, U2, and U3 registered by the
(3)成功報酬型とする場合、対価決定部153は、評価取得部152が取得した評価に基づき、サービス提供部136により提供されたサービスの対価を決定する。対価決定部153が決定した対価は、決済情報170に含まれる。対価決定部153は、対価を決定する毎に、決済情報170を更新する。対価決定部153が決定した対価が、ユーザU1、U2、U3の全員、または、後述する要因人物に対して賦課される。
(3) In the case of the success fee type, the consideration determination unit 153 determines the consideration for the service provided by the service providing unit 136 based on the evaluation acquired by the evaluation acquisition unit 152. The consideration determined by the consideration determination unit 153 is included in the
決済処理部154は、決済情報170に基づいて決済を実行する。例えば、サービス提供装置100が、登録部151により登録されたユーザU1、U2,U3について、価値を有するポイントを付与する構成が挙げられる。この構成では、ユーザ情報165に、ユーザU1、U2,U3の各々の保有ポイントを示す情報が格納される。この場合、決済処理部154は、ユーザU1、U2,U3が保有するポイントを減算することにより、対価の支払いを受けることができる。
The payment processing unit 154 executes payment based on the
決済処理部154は、無線通信部116によって、金融機関や決済サービス事業者が運営する決済サーバに接続して、対価の決済処理を行ってもよい。例えば、評価取得部152は、決済サーバにより、銀行口座からの引き落とし、クレジットカード決済、電子マネーや仮想通貨による決済等を実行させてもよい。
The payment processing unit 154 may connect to a payment server operated by a financial institution or a payment service provider by the
[2.第1実施形態のサービス提供装置の動作]
図3は、サービス提供装置100の動作を示すフローチャートである。
データ取得部131は、データの取得を開始する(ステップS101)。この後、予め設定された周期で、撮像画像データ162および音声データ163がメモリ160に記憶される。メモリ160には、設定されたデータ容量の範囲内で撮像画像データ162および音声データ163が蓄積されるので、過去に取得された撮像画像データ162および音声データ163をCPU130が参照可能である。
[2. Operation of the service providing device of the first embodiment]
FIG. 3 is a flowchart showing the operation of the
The
人物検出部132は、対象範囲Aの人物を検出し(ステップS102)、検出した人物を特定する(ステップS103)。ステップS103の処理は省略可能である。
The
感情推定部133は、撮像画像データ162および音声データ163に基づき、個人感情を推定し、感情推定値166を算出する(ステップS104)。ステップS104では、データ取得部131が所定期間に取得したデータを用いて、感情推定値166が算出される。続いて、感情推定部133は、感情推定値166の総和を求めることにより、対象範囲Aの全体感情を示す全体感情値167を算出する(ステップS105)。
The
要因推定部134は、感情推定値166および/または全体感情値167において、対処すべき感情変化の判定、およびその発生要因を推定する処理を行う(ステップS106−S114)。要因推定部134は、閾値記憶部169に記憶された第1閾値TH1、第2閾値TH2、第3閾値TH3、第4閾値TH4を参照する。第1閾値TH1、第3閾値TH3、第4閾値TH4は、感情推定値166および全体感情値167の絶対値と比較される値である。また、第2閾値TH2は、全体感情値167の変化量と比較される閾値である。全体感情値167の変化量とは、例えば、設定された期間における値の変化の積分値として説明するが、設定された期間における最大値と最小値の差としてもよい。
The
発生要因とは、広義には、感情推定値166または全体感情値167の変化を発生させた要因を指す。狭義には、全体感情値167を変化させた要因を指す。例えば、ユーザU1、U2、U3のいずれかの個人感情の変化が、他の人物の個人感情に影響を与えて、対象範囲Aの全体感情を変化させた場合、対象範囲Aの全体感情の変化の要因は、1人の人物である。この場合、発生要因は、変化の要因となった人物であり、インフルエンサーともいうことができる。この人物を要因人物という。
The causative factor, in a broad sense, refers to the factor that caused the change in the
以下の要因推定部134の動作の説明では、図4および図5の感情変化の具体例を参照する。
図4および図5は、サービス提供装置100が推定する感情推定値166および全体感情値167の例を示す模式図である。
図4(A)、(B)、(C)および図5(A)、(B)は、横軸を時間の経過、縦軸を感情推定値166とする図表であり、図4(A)および図5(A)の曲線F1はユーザU1の感情推定値166を示す。図4(B)の曲線F2はユーザU2の感情推定値166を示し、図4(C)の曲線F3はユーザU3の感情推定値166を示す。図5(B)の曲線F5は、ユーザU2の感情推定値166に関する別の例を示す。
図4(D)は、横軸を時間の経過、縦軸を全体感情値167とする図表であり、曲線FUは全体感情値167を示している。曲線FUは、曲線F1、F2、F3が示す感情推定値166の総和である。
図4(A)−(D)および図5(A)、(B)では、第1閾値TH1、第3閾値TH3、第4閾値TH4に相当する正の値および負の値を図示する。
In the following description of the operation of the
4 and 5 are schematic views showing an example of an
4 (A), (B), (C) and 5 (A), (B) are charts in which the horizontal axis is the passage of time and the vertical axis is the
FIG. 4D is a chart in which the horizontal axis is the passage of time and the vertical axis is the
4 (A)-(D) and 5 (A) and 5 (B) show positive and negative values corresponding to the first threshold TH1, the third threshold TH3, and the fourth threshold TH4.
図4に例示する感情変化の概要は、次の通りである。
曲線F1で示すユーザU1の感情推定値166は、時刻T1に発生した何らかの要因によって低下し、負の値となっている。ユーザU1の感情推定値166は、負の値の範囲で激しく変動しており、ユーザU1が感情的になっている様子が現れている。
ユーザU1の個人感情の変化は、ユーザU1と一緒に対象範囲AにいるユーザU2、U3にも影響を与える。例えば、ユーザU2が、ユーザU1の表情等からユーザU1の個人感情の変化を察知し、その影響を受けてユーザU2の個人感情が変化している。このため、曲線F2で示すユーザU2の感情推定値166は、ユーザU1の様子を察知した時刻T2から低下し、負の値になっている。
また、ユーザU1とユーザU2の個人感情が変化したことにより、全体感情値167が変化している。曲線FUで示す全体感情値167は、ユーザU1およびユーザU2の感情推定値166の変化に追従して低下し、負の値となっている。
ユーザU3は、時刻T3で対象範囲Aの全体感情値167が低下したことを察知する。このため、ユーザU3の感情推定値166は負の値まで低下している。
The outline of the emotional change illustrated in FIG. 4 is as follows.
The
The change in the personal emotion of the user U1 also affects the users U2 and U3 in the target range A together with the user U1. For example, the user U2 senses a change in the personal emotion of the user U1 from the facial expression of the user U1, and the personal emotion of the user U2 is changed under the influence of the change. Therefore, the
Further, the
The user U3 senses that the
要因推定部134は、ステップS106およびステップS107で、対処すべき感情変化が発生しているか否かを判定する。判定の基準は、例えば、(1)いずれか1以上の感情推定値166の絶対値が第1閾値TH1を超えること、(2)全体感情値167の絶対値が第1閾値TH1を超えること、(3)全体感情値167の変化量が第2閾値TH2を超えること、である。
In step S106 and step S107, the
詳細には、要因推定部134は、まず、感情推定値166および全体感情値167のいずれかが第1閾値TH1を超えたか否かを判定する(ステップS106)。第1閾値TH1を超えていないと判定した場合(ステップS106;NO)、要因推定部134は、全体感情値167の変化量が第2閾値TH2を超えたか否かを判定する(ステップS107)。ステップS107で、要因推定部134は、最新の全体感情値167を終点として過去に遡及する検出期間を定め、検出期間内の全体感情値167の変化量を第2閾値TH2と比較する。全体感情値167の変化量が第2閾値TH2を超えていない場合(ステップS107;NO)、CPU130の処理はステップS104に戻る。
Specifically, the
感情推定値166および全体感情値167のいずれかが第1閾値TH1を超えた場合(ステップS106;YES)、および、全体感情値167の変化量が第2閾値TH2を超えた(ステップS107;YES)、要因推定部134はステップS108に移行する。
When either the
ステップS108で、要因推定部134は、対象範囲Aにいる人物の感情推定値166のうち、第3閾値TH3を最初に超えた感情推定値166を特定し、特定した感情推定値166に対応する人物を、仮の要因人物とする(ステップS108)。仮の要因人物は、第1閾値TH1を超えた感情推定値166に対応する人物であってもよいし、他の人物であってもよい。また、第3閾値TH3は第1閾値TH1と同一の値、または、第1閾値TH1より小さい値である。
In step S108, the
図4の例では、時刻T11において、ユーザU1の感情推定値166の絶対値が第1閾値TH1を超えているので、要因推定部134はステップS106で肯定判定する。さらに、時刻T12においてユーザU1の感情推定値166の絶対値が第3閾値TH3を超えているので、要因推定部134は、ステップS108でユーザU1を仮の要因人物とする。仮の要因人物は、要因人物である可能性が高い人物であり、要因人物の候補である。
In the example of FIG. 4, since the absolute value of the
要因推定部134は、第1検出期間TE1を設定する(ステップS109)。第1検出期間TE1の長さは予め設定されている。第1検出期間TE1の始点は、ステップS106またはステップS107で肯定判定された時点であり、図4の例では時刻T11である。
The
要因推定部134は、仮の要因人物の感情推定値166が、第1検出期間TE1において負の値であるか否かを判定する(ステップS110)。仮の要因人物の感情推定値166が第1検出期間TE1で正の値になることがあれば(ステップS110;NO)、CPU130の処理はステップS104に戻る。
The
仮の要因人物の感情推定値166が第1検出期間TE1で負の値を維持する場合(ステップS110;YES)、要因推定部134は、第2検出期間TE2を設定する(ステップS111)。第2検出期間TE2の長さは予め設定されており、第1検出期間TE1と同一であっても異なる長さであってもよい。第2検出期間TE2は、本発明の検出期間の一例に対応する。第2検出期間の始点は、ステップS106またはステップS107で肯定判定された時点であり、図4では時刻T11である。
When the
要因推定部134は、第2検出期間TE2において、仮の要因人物を除く人物の感情推定値166が第4閾値TH4を超えるか否かを判定する(ステップS112)。仮の要因人物以外の人物の感情推定値166が第4閾値TH4を超えない場合(ステップS112;NO)、要因推定部134は、仮の要因人物が感情を抑制していると判定する(ステップS113)。すなわち、ユーザU1が感情抑制状態にあると判定する。
The
図5(B)に示す感情推定値166は、第2検出期間TE2において第4閾値TH4を超えない状態を維持している。この例は、ユーザU1の感情の変化がユーザU2に伝搬していないことを示している。つまり、ユーザU1は、自身の感情が他の人物に影響しないように、感情表現を抑制している状態にある。この場合、対象範囲AはユーザU1の感情の変化に影響されていないが、ユーザU1の感情の変化の緩和または感情の改善を図ることが望ましい。
The
一方、仮の要因人物以外の感情推定値166が第2検出期間TE2で第4閾値TH4を超えた場合(ステップS112;YES)、要因推定部134は、仮の要因人物を、要因人物として決定する(ステップS114)。図4の例では、時刻T13でユーザU2の感情推定値166の絶対値が第4閾値TH4を超えているので、ユーザU1を要因人物とする。
ユーザU1が要因人物となっている場合、ユーザU1の感情の変化を緩和し、或いは、ユーザU1の感情を改善することにより、対象範囲Aの全体感情の改善または変化の緩和を実現できる。
On the other hand, when the
When the user U1 is a factor person, the change in the emotion of the user U1 can be alleviated, or the emotion of the user U1 can be improved, thereby improving the overall emotion of the target range A or alleviating the change.
ステップS113で抑制状態が検出された後、および、ステップS114で要因人物が推定された後、サービス決定部135は、サービスを決定する(ステップS115)。サービス提供部136は、サービス決定部135により決定されたサービスを実行する(ステップS116)。
After the suppression state is detected in step S113 and after the factor person is estimated in step S114, the
サービス決定部135が決定し、サービス提供部136が実行するサービスは、例えば、対象範囲Aの全体に働きかけるサービスや、特定の人物に対して働きかけるサービスである。
The service determined by the
対象範囲Aの全体に働きかけるサービスとしては、対象範囲Aの場を和ませる動作が挙げられる。具体的には、スピーカ113から音楽を流したり、ジョークを発言したりする動作が挙げられる。サービス提供部136が臭気を対象範囲Aに供給する機構を備えている場合、気持ちを和らげるアロマの臭気を対象範囲Aに排出してもよい。これらの音楽、ジョーク、臭気等は、発生要因の人物の嗜好に適合するものを選択してもよい。ユーザU1、U2、U3の嗜好に関する情報は、例えば、ユーザ情報165に含まれる。
As a service that works on the entire target range A, there is an operation of softening the field of the target range A. Specific examples thereof include an operation of playing music from the
また、要因推定部134が、環境検出部137により検出した環境や環境の変化が、個人感情の変化の要因となったことを推定可能な場合、サービス提供部136により、要因を解消または抑制する動作を行ってもよい。例えば、窓Wからの騒音の音量が大きいことが個人感情の変化の要因であると判定した場合、サービス提供部136は、窓Wの開閉装置に赤外線通信部115から信号を送信し、窓Wを閉じる制御を行ってもよい。この場合、スピーカ113から、窓を閉めることを案内する音声を通知し、音声によって対象範囲Aの全体感情の改善を図ってもよい。
Further, when the
特定の人物に対して働きかけるサービスとしては、発生要因の人物や感情抑制状態の人物に対し、「お困りですか」と音声を出力する動作が挙げられる。 As a service that works on a specific person, there is an operation of outputting a voice saying "Are you in trouble?" To the person who caused the occurrence or the person in the emotionally suppressed state.
また、サービス提供部136は、スピーカ113による音声メッセージの発音とモータ114による動作を実行し、要因人物を、出口Dから居室RMの外に案内してもよい。例えば、要因人物に対し「外に出ましょうか」との音声メッセージを発音して、サービス提供装置100が出口Dに向かって移動する。これにより、要因人物と他の人物とを物理的に遠ざけることで、要因人物の個人感情および対象範囲Aの全体感情の沈静化を図ることができる。
Further, the service providing unit 136 may execute the pronunciation of the voice message by the
また、サービス提供部136は、報知部140により報知を実行させてもよい。例えば、発生要因の人物以外の人物に対して、発生要因の人物が誰であるかを報知部140により報知し、解決を促すメッセージを音声により出力する動作が挙げられる。この場合、発生要因の人物の個人感情が変化した要因を要因推定部134が推定可能な場合には、個人感情が変化した要因を合わせて報知してもよい。
Further, the service providing unit 136 may execute the notification by the
サービス決定部135は、対象範囲Aの人物の全員について個人感情を改善し、或いは、個人感情の変化を緩和するサービスを、優先して決定する。このようなサービスの実行が難しい場合や、サービスの効果が薄いと判断した場合は、一部の人物を対象とするサービスを実行するよう決定する。
The
サービスの提供後、評価取得部152がサービスに対する評価を取得し、対価決定部153が対価を決定する(ステップS117)。その後、決済処理部154が対価の決済を実行し(ステップS118)、本処理を終了する。なお、ステップS117、S118の動作は、サービス提供部136がサービスを提供した直後でなくてもよく、上述したように予め設定された期間毎に実行してもよい。 After the service is provided, the evaluation acquisition unit 152 acquires the evaluation for the service, and the consideration determination unit 153 determines the consideration (step S117). After that, the settlement processing unit 154 executes the settlement of consideration (step S118), and ends this processing. The operations of steps S117 and S118 may not be performed immediately after the service providing unit 136 has provided the service, and may be executed every preset period as described above.
このように、本発明を適用したサービス提供装置100は、対象範囲Aにいる複数の人物を検出する人物検出部132と、各々の人物の個人感情を推定する感情推定部133と、感情推定部133の推定結果に基づいて、いずれか1以上の人物の個人感情または対象範囲の全体感情の変化の発生要因を推定する要因推定部134と、要因推定部134が推定した発生要因に対応して、対象範囲Aにいる1または複数の人物に提供するサービスを決定するサービス決定部135と、を備える。
As described above, in the
この構成によれば、対象範囲Aにおける全体感情の変化または個人感情の変化を招いた発生要因に対応して、対象範囲Aにいる人物にサービスを提供できる。このため、感情を変化させた要因を考慮して、より効果的に、感情の変化に対処できる。例えば、感情推定値166や言動検出値168の改善や、特定の感情状態の緩和を効果的に促すことが期待できる。サービス提供装置100が実行するサービス提供方法による場合にも、同様の作用効果を得ることができる。
According to this configuration, it is possible to provide a service to a person in the target range A in response to the cause of the change in the overall emotion or the change in the individual emotion in the target range A. Therefore, it is possible to deal with the emotional change more effectively in consideration of the factors that changed the emotion. For example, it can be expected that the
また、決済情報処理部150は、本発明の決済情報処理装置の一例に対応する。
決済情報処理部150は、サービス提供装置100によるサービスの提供または個人感情の推定の対象となる人物を登録した登録部151と、サービスの提供に対してユーザU1、U2、U3の評価を取得する評価取得部152と、評価取得部152により取得された評価に基づいて、サービスの提供の対価を決定する対価決定部153と、を備える。
この構成により、サービス提供装置100の利用に対し、利用者であるユーザU1、U2、U3とサービスの提供者との双方にとって適切な対価を設定できる。
Further, the payment
The payment
With this configuration, it is possible to set an appropriate consideration for both the users U1, U2, U3 and the service provider for using the
また、対価決定部153は、評価取得部152により取得した評価と、サービスの提供に応じて人物の個人感情が変化した変化状況とに基づいて、サービスの提供の対価を決定してもよい。例えば、図4の例において、時刻T12でサービスが提供された結果、曲線F1、F2、F3、FUはいずれも上昇し、負の値から正の値に変化している。対価決定部153は、ユーザU1、U2、U3の感情推定値166および全体感情値167に基づき、サービスの効果を判定し、対価を決定してもよい。この場合、ユーザU1、U2、U3の主観的な評価だけでなく、客観的な効果を反映して、適切にサービスの対価を決定できる。
Further, the consideration determination unit 153 may determine the consideration for the provision of the service based on the evaluation acquired by the evaluation acquisition unit 152 and the change situation in which the individual emotion of the person changes according to the provision of the service. For example, in the example of FIG. 4, as a result of the service being provided at time T12, the curves F1, F2, F3, and FU are all increased and changed from a negative value to a positive value. The consideration determination unit 153 may determine the effect of the service and determine the consideration based on the
サービス提供装置100において、感情推定部133は各々の人物の個人感情を表す感情推定値166を求め、要因推定部134は、いずれかの人物の感情推定値166が第1閾値TH1を超えた場合、感情推定値166の総和が第1閾値TH1を超えた場合、または、感情推定値166の総和の変化量が第2閾値TH2を超えた場合に、変化の発生要因を推定する。この構成によれば、数値化された対象範囲Aの全体感情およびユーザU1、U2、U3の個人感情に基づき、感情の変化を適切に検知できる。
In the
要因推定部134は、対象範囲Aにいる複数の人物のうち、感情推定値166が他の人物よりも早く第3閾値TH3を超えた人物を、変化の発生要因となった要因人物であると推定する。この構成によれば、他の人物の個人感情に影響を与えた要因人物を、速やかに推定できる。
The
要因推定部134は、第2検出期間TE2を設定し、感情推定値166が最初に第3閾値TH3を超えた人物を仮の要因人物であると推定し、第2検出期間TE2において仮の要因人物とは異なる人物の感情推定値166が第4閾値TH4を超えた場合に、仮の要因人物を、変化の発生要因である要因人物として推定する。
この構成によれば、仮の要因人物を推定してから、仮の要因人物が他の人物の個人感情に影響を与えたか否かを判定することで、正確に、かつ速やかに要因人物を推定できる。
The
According to this configuration, after estimating the temporary factor person, it is determined whether or not the temporary factor person has influenced the personal emotions of another person, so that the factor person can be estimated accurately and promptly. it can.
要因推定部134は、第2検出期間TE2において仮の要因人物の後に、仮の要因人物とは異なる人物の感情推定値166が第4閾値TH4を超えない場合に、仮の要因人物の感情が抑制状態にあると推定する。この構成によれば、感情状態が変化していながら感情表現を抑制している人物を推定できる。
In the second detection period TE2, when the
サービス決定部135は、感情が抑制状態にあると推定された仮の要因人物に対して提供するサービスを決定する。この構成によれば、感情状態が変化していながら感情表現を抑制している人物に対し、サービスを提供することで、感情状態の改善を図ることができる。
The
サービス提供装置100は、サービス決定部135により決定されたサービスを提供するサービス提供部136を備え、サービス提供部136は、要因推定部134によっていずれかの人物が変化の発生要因である要因人物と推定された場合に、要因人物とは異なる人物に対し、要因人物を通知するサービスを行う。この構成によれば、要因人物の影響で全体感情値167が変化したことに気づかない人物に対し、全体感情値167の変化の要因を伝えることで、全体感情値167および感情推定値166の改善を図ることができる。
The
サービス決定部135は、要因推定部134によっていずれかの人物が変化の発生要因である要因人物と推定された場合に、要因人物に対し、要因人物の趣味または嗜好に対応するサービスを提供することを決定する。この構成によれば、要因人物の個人感情に効果的に対処することができ、全体感情値167および感情推定値166を、より効果的に改善できる。
When the
サービス提供装置100は、対象範囲Aにいる1または複数の人物に対して情報を報知する報知部140を備える。
報知部140は、要因推定部134によっていずれかの人物が変化の発生要因である要因人物と推定された場合に、要因人物とは異なる人物に対し、要因人物から離れることを促す案内を報知してもよい。例えば、ユーザU1が要因人物である場合に、報知部140により、ユーザU2、U3に対し、ユーザU1から離れることを報知してもよい。この場合、要因人物以外の人物の個人感情の悪化を抑制できる。
The
When the
サービス提供装置100は、対象範囲Aにおける複数の人物の会話または行動を検出する言動検出部138を備える。要因推定部134は、いずれか1以上の人物の感情推定値166の変化と、言動検出部138が検出した会話または行動とに基づき、いずれか1以上の人物の会話または行動が感情推定値166の変化の発生要因か否かを推定してもよい。
The
この構成において、言動検出部138は、対象範囲Aにおける複数の人物の会話または行動を検出し、検出した会話または行動を数値化した言動検出値168を求める構成であってもよい。サービス提供装置100は、感情推定部133により推定された感情推定値166を言動検出値168に基づき補正する補正部139を備える。要因推定部134は、補正部139により補正された感情推定値166に基づいて変化の発生要因を推定する。
In this configuration, the speech /
例えば、図3に示した動作において、要因推定部134は、ユーザU1、U2、U3の言動を解析して、感情推定値166および全体感情値167の判定を行ってもよい。具体的には、ステップS108で仮の要因人物を推定する処理の前に、言動検出部138によりユーザU1、U2、U3の言動検出値168を生成し、補正部139によって感情推定値166を補正してもよい。言動検出値168は、ユーザU1、U2、U3の言動の大きさを示す指標であり、発言の声の大きさ、発言の長さ、動作の大きさ、動作により発生した音の大きさ等が大きいほど、言動検出値168が大きい。言動検出値168は、ユーザU1、U2、U3の各々について算出される。従って、各々のユーザU1、U2、U3の言動検出値168は、ユーザU1、U2、U3の言動が対象範囲Aに与えた影響の大きさを示しているといえる。閾値記憶部169は、ユーザU1、U2、U3のいずれかの言動検出値168が閾値を超えた場合、言動検出値168が閾値を超えた後の感情推定値166を補正する。例えば、閾値を超えた言動検出値168に対応する人物とは異なる人物について、感情推定値166の変化を大きくするよう補正する。
For example, in the operation shown in FIG. 3, the
この場合、感情推定部133は、補正部139により補正された感情推定値166に基づき、全体感情値167を再度算出する。要因推定部134は、補正された感情推定値166、および、全体感情値167に対して、ステップS106から処理を再実行する。
この構成によれば、ユーザU1、U2、U3のいずれかの言動が、他の人物の感情推定値166に与えた影響を大きく評価して、発生要因の推定とサービスの決定を行うことができる。
In this case, the
According to this configuration, the influence of any of the words and actions of the users U1, U2, and U3 on the
サービス提供装置100は、対象範囲Aの環境に関する検出値を取得する環境検出部137を備え、要因推定部134は、いずれか1以上の人物の感情推定値166の変化と、環境検出部137により取得した検出値の変化とに基づき、環境の変化が感情推定値166の変化の発生要因か否かを推定してもよい。この場合、環境の変化に起因する感情推定値166の変化に対応して、感情推定値166および全体感情値167の改善を図ることができる。
The
別の観点から、サービス提供装置100は、図6に示す構成とすることができる。
図6は、サービス提供装置100を別の観点から見た場合の機能的構成を示すブロック図である。CPU130は、音声取得部191、撮像画像取得部192、数値化処理部193、事象情報取得部194、動作決定部195、および、実行部196を備える。また、メモリ160は、事象情報記憶部197を備える。
From another point of view, the
FIG. 6 is a block diagram showing a functional configuration when the
図6のサービス提供装置100は、対象範囲Aにいる複数の人物の発話音声を取得する音声取得部191と、1または複数の人物を撮像した撮像画像を取得する撮像画像取得部192と、音声取得部191および撮像画像取得部192により取得した情報を数値化して数値情報を生成する数値化処理部193と、数値化処理部193により生成された数値情報の変化と、数値情報の変化の発生要因となる事象に関する事象情報との対応を記憶する事象情報記憶部197と、検知対象期間に音声取得部および撮像画像取得部により取得された情報に基づく数値情報が、検出条件を満たす変化をした場合に、変化に対応する事象情報を事象情報記憶部197から取得する事象情報取得部194と、事象情報取得部194により取得された事象情報に基づき、動作を決定する動作決定部195と、動作決定部により決定された動作を実行する実行部196と、を備える。
The
音声取得部191は、マイク112が集音した発話音声を取得し、撮像画像取得部192はカメラ111の撮像画像データを取得する。これらは上述のデータ取得部131に相当する。数値化処理部193は、データ取得部131によって取得された情報を数値化して、感情推定値166、および全体感情値167等数値情報を生成する。数値化処理部193は、感情推定部133に相当する。
The
事象情報は、感情推定値166および/または全体感情値167の変化の発生要因を示す。事象情報記憶部197は、感情推定値166および/または全体感情値167の変化の態様と、発生要因とを対応づける情報を記憶し、事象情報取得部194は、発生要因を推定する。すなわち、事象情報取得部194および事象情報記憶部197は、要因推定部134の動作を、メモリ160に記憶するデータに基づき実行する例に相当する。
動作決定部195は、サービス決定部135に相当し、実行部196はサービス提供部136に相当する。これらの動作は上述した通りである。
The event information indicates the cause of the change in the
The
また、CPU130が備える各部の構成は、人工知能(AI:Artificial Intelligence)で構成してもよい。例えば、人物検出部132、感情推定部133、要因推定部134、サービス決定部135、環境検出部137、補正部139の機能を、サービス提供装置100に実装されたAIによって実行させてもよい。サービス提供装置100に実装されるAIは、学習済みモデルを構成するプログラムおよびデータであってもよい。また、サービス提供装置100に実装されたAIが、サービス提供装置100の動作に伴って学習を継続する構成であってもよい。
Further, the configuration of each part included in the
また、上述したサービス提供装置100は、単独で各機能を実行する装置に限らない。複数の装置が協働してサービス提供装置100と同様に機能する例について、第2実施形態として説明する。
Further, the
[3.第2実施形態]
図7は、第2実施形態のサービス提供システム1の概略構成を示す説明図であり、対象範囲Aに設置されるサービス提供装置100aの機能的構成を合わせて示す。図8は、サービス提供サーバ300および決済情報処理装置400の機能的構成を示すブロック図である。サービス提供システム1は、全体として本発明のサービス提供装置に相当する。
[3. Second Embodiment]
FIG. 7 is an explanatory diagram showing a schematic configuration of the
サービス提供装置100は、通信装置200を介して通信ネットワーク500に接続される。通信ネットワーク500は、インターネットや公衆回線網により構成される広域ネットワークであってもよいし、LAN(Local Area Network)等の特定区域のネットワークであってもよい。
The
通信ネットワーク500には、サービス提供サーバ300および決済情報処理装置400が接続される。サービス提供システム1を構成するサービス提供装置100a、サービス提供サーバ300および決済情報処理装置400は、相互にデータ通信可能に接続sあれる。
A
サービス提供装置100aは、サービス提供装置100と同様に、対象範囲Aに対応して居室RMに設置される。サービス提供装置100aは、CPU130と同様のプロセッサとしてCPU130aを有する。CPU130aは、データ取得部131、サービス提供部136、報知部140の機能を有し、さらに、通信制御部142を有する。
Like the
また、サービス提供サーバ300は、CPU310およびメモリ330を備える。CPU310は、制御用プログラム331を実行するコンピュータであり、制御用プログラム331の機能により、通信制御部311、人物検出部312、感情推定部313、要因推定部314、サービス決定部315、環境検出部317、言動検出部318、および、補正部319として動作する。
Further, the
通信制御部142は、データ取得部131と同様に、カメラ111、マイク112、および赤外線通信部115等からデータを取得する。通信制御部142は、取得したデータをサービス提供サーバ300に送信する。
サービス提供サーバ300の通信制御部311は、サービス提供装置100aが送信するデータを受信して、撮像画像データ332および音声データ333を記憶する。
Similar to the
The
人物検出部312は、図2に示したサービス提供装置100の人物検出部132と同様に機能する。感情推定部313は、感情推定部133と同様に機能し、要因推定部314は、要因推定部134と同様に機能する。また、サービス決定部315は、サービス決定部135と同様に機能する。環境検出部317は、環境検出部137と同様に機能し、言動検出部318は、言動検出部138と同様に機能する。また、補正部319は、補正部139と同様に機能する。
The
メモリ330が記憶する撮像画像データ332、音声データ333は、図2に示したサービス提供装置100の撮像画像データ162、音声データ163にそれぞれ対応する。対象情報334は、対象情報164に対応する。ユーザ情報335はユーザ情報165に対応し、感情推定値336は感情推定値166に対応し、全体感情値337は全体感情値167に対応し、言動検出値338は言動検出値168に対応する。閾値記憶部339は閾値記憶部169と同様のものである。
The captured image data 332 and the
決済情報処理装置400は、CPU410、および、メモリ430を備える。CPU410は、制御用プログラム431を実行するコンピュータであり、制御用プログラム431の機能により、通信制御部411、登録部412、評価取得部413、対価決定部414、および、決済処理部415として動作する。また、メモリ430は決済情報432を記憶する。
The payment
登録部412は、図2に示したサービス提供装置100の登録部151と同様に機能する。評価取得部413は評価取得部152と同様に機能するものであり、対価決定部414は対価決定部153と同様に機能するものであり、決済処理部415は決済処理部154と同様に機能するものである。決済情報432は、サービス提供装置100が記憶する決済情報170に対応する。
The
通信制御部311は、サービス決定部315により決定したサービスに関するデータを、サービス提供装置100aに送信する。
通信制御部142は、サービス提供サーバ300から送信されるデータを受信して、サービス提供部136により、サービス決定部315が決定したサービスを実行させる。また、通信制御部142は、サービス提供サーバ300から受信したデータが、報知部140による報知を指示するデータであった場合に、報知部140に報知を実行させる。
The
The
通信制御部311は、サービス決定部315が決定したサービスに関するデータを決済情報処理装置400に送信する。また、通信制御部142は、サービス提供部136により実行したサービスの実行状態に関するデータを決済情報処理装置400に送信する。
The
通信制御部411は、サービス提供装置100aおよびサービス提供サーバ300から送信されるデータに基づき、評価取得部413により評価を取得させ、対価決定部414に対価を決定させ、決済処理部415による決済を実行させる。
The
第2実施形態のサービス提供システム1によれば、サービス提供装置100と同様に、対象範囲Aにおける全体感情の変化または個人感情の変化を招いた発生要因に対応して、対象範囲Aにいる人物にサービスを提供できる。このため、感情を変化させた要因を考慮して、より効果的に、感情の変化に対処できる。例えば、ユーザU1、U2、U3の個人感情や対象範囲Aの全体感情の改善、或いは、特定の感情状態の緩和を効果的に促すことが期待できる。サービス提供システム1が実行するサービス提供方法による場合にも、同様の作用効果を得ることができる。
According to the
[4.他の実施形態]
上記実施形態において、要因推定部134は、図3のステップS108−ステップS114の処理で要因人物を推定できない場合に、ユーザU1、U2、U3への働きかけを行って要因人物を決定してもよい。例えば、複数の人物の感情推定値166が同時に第1閾値TH1を超えた場合や、同時に第3閾値TH3を超えた場合が該当する。要因推定部134は、ユーザ端末装置230への音声通話やテキストメッセージの発信、またはスピーカ113による音声の発音等を行う。これらの手法により、要因推定部134は、例えば、ユーザU1、U2、U3に、何かあったのかを問いかけるメッセージを出力し、その応答の様子に関するデータをデータ取得部131により取得して解析し、発生要因を推定する。この場合、データ取得部131によって、より多くの情報を収集して発生要因を推定できる。
[4. Other embodiments]
In the above embodiment, when the
また、図5に示したように、ユーザU1の感情推定値166が負の値である間に、ユーザU2の感情推定値166が正の値を維持する場合、ユーザU1が抑制状態にあること、或いは、ユーザU1がユーザU2、U3とは無関係な事情により個人感情を変化させていることが考えられる。このような場合も、要因推定部134は、ユーザU1、U2、U3への働きかけを行って、要因人物または発生要因を決定してもよい。
Further, as shown in FIG. 5, when the
また、上記実施形態では、感情推定値166および全体感情値167が負の値となるような変化に対応する処理を説明したが、全体感情値167が正の値となるような変化に対応してもよい。例えば、サービス提供部136により、対象範囲Aの全体感情値167をより高めるように、音楽を流す、サービス提供装置100がユーザU1、U2、U3の会話に加わる等の動作を行ってもよい。
Further, in the above embodiment, the process corresponding to the change such that the
また、上記実施形態のサービス提供装置100およびサービス提供サーバ300は、環境検出部137、317を備える構成としたが、これらを備えていない構成であってもよい。言動検出部138、318、および、補正部139、319についても同様である。
Further, although the
また、上記実施形態のサービス提供装置100、100aは、報知部140を備える構成としたが、報知部140を備えていない構成であってもよい。モータ114、および赤外線通信部115についても同様である。例えば、サービス提供装置100、100aは、対象範囲Aに固定的に設置される装置であってもよく、いわゆるスマートスピーカであってもよい。
Further, although the
また、上記実施形態のサービス提供装置100および決済情報処理装置400は、評価取得部152、413を備える構成としたが、これらを備えていない構成であってもよい。
Further, although the
なお、図2、図6、図7、図8は、本願発明の理解を容易にするために、サービス提供装置100およびサービス提供システム1の機能構成を、主な処理内容により区分して示した概略図であり、これらの構成を、他の区分によって構成してもよい。また、各構成要素の処理は、1つのハードウェアユニットにより実行されてもよいし、複数のハードウェアユニットにより実行されてもよい。また、各構成要素の処理は、1つのプログラムにより実行されてもよいし、複数のプログラムにより実行されてもよい。
In addition, FIG. 2, FIG. 6, FIG. 7, and FIG. 8 show the functional configurations of the
1…サービス提供システム(サービス提供装置)、100、100a…サービス提供装置、130、130a…CPU、131…データ取得部、132、312…人物検出部、133、313…感情推定部、134、314…要因推定部、135、315…サービス決定部、136…サービス提供部、137、317…環境検出部、138、318…言動検出部、139、319…補正部、140…報知部、142、311、411…通信制御部、150…決済情報処理部、151、412…登録部、152、413…評価取得部、153、414…対価決定部、154、415…決済処理部、160…メモリ、161…制御用プログラム、162、332…撮像画像データ、163、333…音声データ、164、334…対象情報、165、335…ユーザ情報、166、336…感情推定値、167、337…全体感情値、168、338…言動検出値、169、339…閾値記憶部、170、432…決済情報、191…音声取得部、192…撮像画像取得部、193…数値化処理部、194…事象情報取得部、195…動作決定部、196…実行部、197…事象情報記憶部、300…サービス提供サーバ、310…CPU、311…通信制御部、330…メモリ、331…制御用プログラム、400…決済情報処理装置、410…CPU、411…通信制御部、430…メモリ、431…制御用プログラム、500…通信ネットワーク、A…対象範囲。 1 ... Service providing system (service providing device), 100, 100a ... Service providing device, 130, 130a ... CPU, 131 ... Data acquisition unit, 132, 312 ... Person detection unit, 133, 313 ... Emotion estimation unit, 134, 314 ... Factor estimation unit, 135, 315 ... Service determination unit 136 ... Service provision unit, 137, 317 ... Environment detection unit, 138, 318 ... Word and behavior detection unit, 139, 319 ... Correction unit, 140 ... Notification unit, 142, 311 411 ... Communication control unit, 150 ... Payment information processing unit, 151, 412 ... Registration unit, 152, 413 ... Evaluation acquisition unit, 153, 414 ... Consideration determination unit, 154, 415 ... Payment processing unit, 160 ... Memory, 161 ... Control program, 162, 332 ... Captured image data, 163, 333 ... Audio data, 164, 334 ... Target information, 165, 335 ... User information, 166, 336 ... Emotion estimated value, 167, 337 ... Overall emotion value, 168, 338 ... Word-and-action detection value, 169, 339 ... Threshold storage unit, 170, 432 ... Payment information, 191 ... Voice acquisition unit, 192 ... Captured image acquisition unit, 193 ... Digitization processing unit, 194 ... Event information acquisition unit, 195 ... Operation determination unit, 196 ... Execution unit, 197 ... Event information storage unit, 300 ... Service providing server, 310 ... CPU, 311 ... Communication control unit, 330 ... Memory, 331 ... Control program, 400 ... Payment information processing device , 410 ... CPU, 411 ... Communication control unit, 430 ... Memory, 431 ... Control program, 500 ... Communication network, A ... Target range.
Claims (16)
各々の前記人物の個人感情を推定する感情推定部と、
前記感情推定部の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定する要因推定部と、
前記要因推定部が推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定するサービス決定部と、を備える
サービス提供装置。 A person detection unit that detects multiple people in the target range,
An emotion estimation unit that estimates the individual emotions of each person,
Based on the estimation result of the emotion estimation unit, a factor estimation unit that estimates the cause of the change in the emotional state of the entire target range or one or more of the emotional states of the person, and the factor estimation unit.
A service providing device including a service determining unit that determines a service to be provided to one or a plurality of the persons in the target range in response to an occurrence factor estimated by the factor estimating unit.
前記要因推定部は、いずれかの人物の前記感情推定値が第1閾値を超えた場合、前記感情推定値の総和が第1閾値を超えた場合、または、前記感情推定値の総和の変化量が第2閾値を超えた場合に、前記変化の発生要因を推定する
請求項1記載のサービス提供装置。 The emotion estimation unit obtains an emotion estimation value representing the individual emotion of each person, and obtains an emotion estimation value.
The factor estimation unit determines that the emotion estimation value of any person exceeds the first threshold value, the sum total of the emotion estimation values exceeds the first threshold value, or the amount of change in the total sum of the emotion estimation values. The service providing device according to claim 1, wherein when the value exceeds the second threshold value, the cause of the change is estimated.
請求項2に記載のサービス提供装置。 Among the plurality of the persons in the target range, the factor estimation unit selects the person whose emotional estimation value exceeds the third threshold value earlier than the other persons as the factor person who caused the change. The service providing device according to claim 2, which is presumed to be.
検出期間を設定し、
前記検出期間において前記仮の要因人物とは異なる前記人物の前記感情推定値が第4閾値を超えた場合に、前記仮の要因人物を、前記変化の発生要因である前記要因人物として推定する
請求項3に記載のサービス提供装置。 The factor estimation unit estimates that the person whose emotion estimation value first exceeds the third threshold value is a temporary factor person.
Set the detection period and
A claim that estimates the provisional factor person as the factor person who is the cause of the change when the emotion estimation value of the person different from the provisional factor person exceeds the fourth threshold value in the detection period. Item 3. The service providing device according to item 3.
請求項4に記載のサービス提供装置。 When the emotion estimation value of the person different from the temporary factor person does not exceed the fourth threshold value after the temporary factor person in the detection period, the factor estimation unit determines the emotion of the temporary factor person. The service providing device according to claim 4, wherein is presumed to be in a suppressed state.
請求項5に記載のサービス提供装置。 The service providing device according to claim 5, wherein the service determining unit determines a service to be provided to the provisional factor person whose emotion is presumed to be in the suppressed state.
前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記環境検出部により取得した前記検出値の変化とに基づき、前記環境の変化が前記感情推定値の変化の発生要因か否かを推定する
請求項2から請求項6のいずれか1項に記載のサービス提供装置。 It is equipped with an environment detection unit that acquires detection values related to the environment in the target range.
In the factor estimation unit, the change in the environment is the change in the emotion estimation value based on the change in the emotion estimation value of the person of any one or more and the change in the detection value acquired by the environment detection unit. The service providing device according to any one of claims 2 to 6, which estimates whether or not it is the cause.
前記要因推定部は、いずれか1以上の前記人物の前記感情推定値の変化と、前記言動検出部が検出した会話または行動とに基づき、いずれか1以上の前記人物の会話または行動が前記感情推定値の変化の発生要因か否かを推定する
請求項2から請求項7のいずれか1項に記載のサービス提供装置。 It is provided with a behavior detection unit that detects conversations or actions of a plurality of the persons in the target range.
In the factor estimation unit, based on the change in the emotion estimation value of the person of any one or more and the conversation or action detected by the behavior detection unit, the conversation or action of the person of any one or more is the emotion. The service providing device according to any one of claims 2 to 7, which estimates whether or not it is a cause of change in the estimated value.
前記感情推定部により推定された前記感情推定値を前記言動検出値に基づき補正する補正部を備え、
前記要因推定部は、前記補正部により補正された前記感情推定値に基づいて前記変化の発生要因を推定する
請求項8に記載のサービス提供装置。 The behavior detection unit is configured to detect conversations or actions of a plurality of the persons in the target range and obtain a speech / behavior detection value obtained by quantifying the detected conversations or actions.
A correction unit for correcting the emotion estimation value estimated by the emotion estimation unit based on the behavior detection value is provided.
The service providing device according to claim 8, wherein the factor estimation unit estimates the cause of the change based on the emotion estimation value corrected by the correction unit.
前記サービス提供部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物を通知するサービスを行う
請求項1から請求項9のいずれか1項に記載のサービス提供装置。 A service providing unit that provides a service determined by the service determining unit is provided.
When any one of the persons is presumed to be the factor person who is the cause of the change by the factor estimation unit, the service providing unit notifies the factor person different from the factor person. The service providing device according to any one of claims 1 to 9, which provides a service.
請求項1から請求項10のいずれか1項に記載のサービス提供装置。 When the factor estimation unit estimates that any of the persons is a factor person who is the cause of the change, the service determination unit provides the factor person with a service corresponding to the hobby or preference of the factor person. The service providing device according to any one of claims 1 to 10, wherein the service providing device is determined to be provided.
前記報知部は、前記要因推定部によっていずれかの前記人物が前記変化の発生要因である要因人物と推定された場合に、前記要因人物とは異なる前記人物に対し、前記要因人物から離れることを促す案内を報知する
請求項1から請求項11のいずれか1項に記載のサービス提供装置。 A notification unit that notifies information to one or more of the persons in the target range is provided.
When the factor estimation unit estimates that any of the persons is the factor person who is the cause of the change, the notification unit causes the person different from the factor person to move away from the factor person. The service providing device according to any one of claims 1 to 11, which notifies the prompting guidance.
1または複数の前記人物を撮像した撮像画像を取得する撮像画像取得部と、
前記音声取得部および前記撮像画像取得部により取得した情報を数値化して数値情報を生成する数値化処理部と、
前記数値化処理部により生成された前記数値情報の変化と、前記数値情報の変化の発生要因となる事象に関する事象情報との対応を記憶する事象情報記憶部と、
検知対象期間に前記音声取得部および前記撮像画像取得部により取得された情報に基づく前記数値情報が、検出条件を満たす変化をした場合に、前記変化に対応する前記事象情報を前記事象情報記憶部から取得する事象情報取得部と、
前記事象情報取得部により取得された前記事象情報に基づき、動作を決定する動作決定部と、
前記動作決定部により決定された前記動作を実行する実行部と、を備える
サービス提供装置。 A voice acquisition unit that acquires utterances of multiple people in the target range,
An image acquisition unit that acquires an image of one or a plurality of the persons, and an image acquisition unit.
A digitization processing unit that digitizes the information acquired by the voice acquisition unit and the captured image acquisition unit to generate numerical information, and
An event information storage unit that stores the correspondence between the change in the numerical information generated by the numerical processing unit and the event information related to the event that causes the change in the numerical information.
When the numerical information based on the information acquired by the voice acquisition unit and the captured image acquisition unit changes during the detection target period, the event information corresponding to the change is used as the event information. The event information acquisition unit acquired from the storage unit and
An action determination unit that determines an operation based on the event information acquired by the event information acquisition unit,
A service providing device including an execution unit that executes the operation determined by the operation determination unit.
前記サービスの提供に対する前記人物の評価を取得する評価取得部と、
前記評価取得部により取得された評価に基づいて、前記サービスの提供の対価を決定する対価決定部と、を備える
決済情報処理装置。 A registration unit that registers a person who is the target of providing services or estimating personal feelings by a service providing device,
An evaluation acquisition unit that acquires the evaluation of the person for the provision of the service,
A payment information processing device including a consideration determination unit that determines the consideration for providing the service based on the evaluation acquired by the evaluation acquisition unit.
請求項14に記載の決済情報処理装置。 Claim 14 that the consideration determination unit determines the consideration for the provision of the service based on the evaluation acquired by the evaluation acquisition unit and the change situation in which the personal emotion of the person changes in response to the provision of the service. The payment information processing device described in.
各々の前記人物の個人感情を推定し、
前記個人感情の推定結果に基づいて、前記対象範囲の全体の感情状態またはいずれか1以上の前記人物の感情状態の変化の発生要因を推定し、
推定した発生要因に対応して、前記対象範囲にいる1または複数の前記人物に提供するサービスを決定する
サービス提供方法。 Detects multiple people in the target range and
Estimate the individual emotions of each person,
Based on the estimation result of the individual emotion, the cause of the change in the entire emotional state of the target range or the emotional state of any one or more of the persons is estimated.
A service providing method for determining a service to be provided to one or more of the persons in the target range according to an estimated occurrence factor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019054187A JP7364348B2 (en) | 2019-03-22 | 2019-03-22 | Service providing device, service providing system, and service providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019054187A JP7364348B2 (en) | 2019-03-22 | 2019-03-22 | Service providing device, service providing system, and service providing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020154922A true JP2020154922A (en) | 2020-09-24 |
JP7364348B2 JP7364348B2 (en) | 2023-10-18 |
Family
ID=72559357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019054187A Active JP7364348B2 (en) | 2019-03-22 | 2019-03-22 | Service providing device, service providing system, and service providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7364348B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022068905A (en) * | 2020-10-23 | 2022-05-11 | 本田技研工業株式会社 | Conference support device, conference support method, and conference support program |
WO2022145165A1 (en) * | 2020-12-28 | 2022-07-07 | パナソニックIpマネジメント株式会社 | Environment control system and environment control method |
JP2022124632A (en) * | 2021-02-16 | 2022-08-26 | Necソリューションイノベータ株式会社 | Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program and recording medium |
JP2022150256A (en) * | 2021-03-26 | 2022-10-07 | 本田技研工業株式会社 | Information providing system, and control method of information providing system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244758A (en) * | 2002-02-21 | 2003-08-29 | Nissan Motor Co Ltd | Information providing apparatus for vehicle |
JP2006092430A (en) * | 2004-09-27 | 2006-04-06 | Denso Corp | Music reproduction apparatus |
JP2016062084A (en) * | 2014-09-22 | 2016-04-25 | 株式会社日立システムズ | Work management device, emotion analysis terminal, work management program, and work management method |
JP2017073107A (en) * | 2015-10-08 | 2017-04-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Control method for information presentation device, and information presentation device |
JP2018063486A (en) * | 2016-10-11 | 2018-04-19 | 本田技研工業株式会社 | Service providing apparatus, service providing method, and service providing program |
JP2019185117A (en) * | 2018-04-02 | 2019-10-24 | 積水ハウス株式会社 | Atmosphere estimating device |
-
2019
- 2019-03-22 JP JP2019054187A patent/JP7364348B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244758A (en) * | 2002-02-21 | 2003-08-29 | Nissan Motor Co Ltd | Information providing apparatus for vehicle |
JP2006092430A (en) * | 2004-09-27 | 2006-04-06 | Denso Corp | Music reproduction apparatus |
JP2016062084A (en) * | 2014-09-22 | 2016-04-25 | 株式会社日立システムズ | Work management device, emotion analysis terminal, work management program, and work management method |
JP2017073107A (en) * | 2015-10-08 | 2017-04-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Control method for information presentation device, and information presentation device |
JP2018063486A (en) * | 2016-10-11 | 2018-04-19 | 本田技研工業株式会社 | Service providing apparatus, service providing method, and service providing program |
JP2019185117A (en) * | 2018-04-02 | 2019-10-24 | 積水ハウス株式会社 | Atmosphere estimating device |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022068905A (en) * | 2020-10-23 | 2022-05-11 | 本田技研工業株式会社 | Conference support device, conference support method, and conference support program |
JP7430132B2 (en) | 2020-10-23 | 2024-02-09 | 本田技研工業株式会社 | Conference support device, conference support method, and conference support program |
WO2022145165A1 (en) * | 2020-12-28 | 2022-07-07 | パナソニックIpマネジメント株式会社 | Environment control system and environment control method |
JP2022124632A (en) * | 2021-02-16 | 2022-08-26 | Necソリューションイノベータ株式会社 | Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program and recording medium |
JP7677696B2 (en) | 2021-02-16 | 2025-05-15 | Necソリューションイノベータ株式会社 | Impact analysis device, impact visualization system device, impact analysis method, impact visualization method, program, and recording medium |
JP2022150256A (en) * | 2021-03-26 | 2022-10-07 | 本田技研工業株式会社 | Information providing system, and control method of information providing system |
JP7677816B2 (en) | 2021-03-26 | 2025-05-15 | 本田技研工業株式会社 | Information provision system and method for controlling information provision system |
Also Published As
Publication number | Publication date |
---|---|
JP7364348B2 (en) | 2023-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7364348B2 (en) | Service providing device, service providing system, and service providing method | |
US10721571B2 (en) | Separating and recombining audio for intelligibility and comfort | |
WO2021159987A1 (en) | Method and device for predicting operating state of vehicle, terminal, and storage medium | |
JP5930432B2 (en) | Identify people near the user of the mobile device through social graphs, conversation models, and user context | |
Lu et al. | Stresssense: Detecting stress in unconstrained acoustic environments using smartphones | |
Lu et al. | Speakersense: Energy efficient unobtrusive speaker identification on mobile phones | |
WO2021169742A1 (en) | Method and device for predicting operating state of transportation means, and terminal and storage medium | |
JP3584458B2 (en) | Pattern recognition device and pattern recognition method | |
JP6748965B2 (en) | Cognitive function evaluation device, cognitive function evaluation method, and program | |
JP2017009825A (en) | Conversation situation analysis apparatus and conversation situation analysis method | |
US20240194219A1 (en) | Information processing system, information processing method, and recording medium | |
JP7222938B2 (en) | Interaction device, interaction method and program | |
US20200094416A1 (en) | Interaction apparatus and method | |
CN105049249A (en) | Scoring method and system of remote visual conversation services | |
KR20100056451A (en) | Methods for electronically analysing a dialogue and corresponding systems | |
JP2017010309A (en) | Decision support apparatus and decision support method | |
US20210118464A1 (en) | Method and apparatus for emotion recognition from speech | |
CN112883932A (en) | Method, device and system for detecting abnormal behaviors of staff | |
JP2018169506A (en) | Conversation satisfaction degree estimation device, voice processing device and conversation satisfaction degree estimation method | |
JP2009178783A (en) | Communication robot and control method thereof | |
JP2020126195A (en) | Voice interaction device, control device for voice interaction device, and control program | |
JP6695057B2 (en) | Cognitive function evaluation device, cognitive function evaluation method, and program | |
JP2019101472A (en) | Emotion estimation device | |
JP6363987B2 (en) | Voice processing system, voice processing apparatus, and voice processing program | |
JP4631464B2 (en) | Physical condition determination device and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231005 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7364348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |