JP2025103933A - Electronic device and control method thereof - Google Patents
Electronic device and control method thereof Download PDFInfo
- Publication number
- JP2025103933A JP2025103933A JP2023221687A JP2023221687A JP2025103933A JP 2025103933 A JP2025103933 A JP 2025103933A JP 2023221687 A JP2023221687 A JP 2023221687A JP 2023221687 A JP2023221687 A JP 2023221687A JP 2025103933 A JP2025103933 A JP 2025103933A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- subject
- notification
- distance
- posture information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】 本発明の目的は、姿勢情報を取得した複数人の人物が存在する場合にも姿勢情報の通知対象の人物を特定することである。【解決手段】 複数の被写体たる人物の姿勢情報を取得できる姿勢情報取得手段と、前記姿勢情報を取得可能な被写体が占める被写体領域を複数の人物に対して取得できる被写体領域取得手段と、前記被写体領域が最も大きい領域を占める被写体を通知対象として決定する通知対象決定手段と、前記通知対象の姿勢を姿勢判定結果として取得できる姿勢判定手段と、前記姿勢判定結果に基づいた姿勢の通知を行う通知手段を有する。【選択図】 図8[Problem] An object of the present invention is to identify a person to whom posture information is to be notified even when there are multiple people for whom posture information has been acquired. [Solution] A system includes a posture information acquisition means capable of acquiring posture information for multiple subjects, a subject area acquisition means capable of acquiring subject areas occupied by the subjects for whom posture information can be acquired for the multiple people, a notification subject determination means for determining the subject with the largest subject area as the notification subject, a posture determination means for acquiring the posture of the notification subject as a posture determination result, and a notification means for notifying the posture based on the posture determination result. [Selected Figure] Figure 8
Description
本発明は、電子機器およびその制御方法に関し、特にユーザの姿勢に関して通知をする技術に関する。 The present invention relates to an electronic device and a control method thereof, and in particular to a technology for notifying a user of their posture.
ユーザの姿勢が理想の姿勢からずれているのかを判定する技術がある。特許文献1には、ユーザとの位置関係に応じてユーザの姿勢情報を正規化することで、ユーザとの姿勢関係によらず、ユーザが目標とすべき姿勢であるか否かを判定し、通知することが開示されている。また、特許文献2には、撮影された人物が複数人いる場合に、被写体検出可能な人数に制限をかけることが開示されている。 There is a technology that determines whether a user's posture deviates from an ideal posture. Patent Document 1 discloses a method of determining and notifying whether the posture of the user is the target posture, regardless of the posture relationship with the user, by normalizing the posture information of the user according to the positional relationship with the user. Patent Document 2 discloses a method of limiting the number of subjects that can be detected when multiple people are photographed.
特許文献1の方法では、姿勢情報を取得した複数の人物に対する姿勢の通知については言及されていない。また、特許文献2の方法では、撮影された人物に対する通知人数の最大制限をかけることができるが、姿勢の通知対象の人物については特定できない。 The method of Patent Document 1 does not mention notifying multiple people about their postures from which posture information has been acquired. In addition, the method of Patent Document 2 can impose a maximum limit on the number of people who are notified about the posture of the photographed people, but cannot specify the people to whom the posture is to be notified.
本発明では、姿勢情報を取得できる人物に対し被写体領域及び距離を用いることで姿勢の通知対象の人物を特定することができる電子機器の提供を目的とする。 The present invention aims to provide an electronic device that can identify a person whose posture information can be obtained by using the subject area and distance.
上記目的を達成するために、本発明の電子機器は、複数の被写体たる人物の姿勢情報を取得できる姿勢情報取得手段と、前記姿勢情報を取得可能な被写体が占める被写体領域を複数の人物に対して取得できる被写体領域取得手段と、前記被写体領域が最も大きい領域を占める被写体を通知対象として決定する通知対象決定手段と、前記通知対象の姿勢を姿勢判定結果として取得できる姿勢判定手段と、前記姿勢判定結果に基づいた姿勢の通知を行う通知手段を有することを特徴とする。 To achieve the above object, the electronic device of the present invention is characterized by having a posture information acquisition means capable of acquiring posture information of multiple subjects, a subject area acquisition means capable of acquiring a subject area occupied by the subjects for which the posture information can be acquired for the multiple people, a notification subject determination means for determining the subject occupying the largest area of the subject area as the notification subject, a posture determination means for acquiring the posture of the notification subject as a posture determination result, and a notification means for notifying the posture based on the posture determination result.
本発明によれば、姿勢情報を取得した複数人の人物が存在する場合にも姿勢の通知対象の人物を特定できる。 According to the present invention, even when there are multiple people whose posture information has been acquired, it is possible to identify the person whose posture is to be notified.
以下、図面を参照して本発明の好適な実施形態1を説明する。 A preferred embodiment 1 of the present invention will now be described with reference to the drawings.
図1a、図1b、図1cは本発明の撮像制御装置の一例としての通知ロボット101の外観図である。 Figures 1a, 1b, and 1c are external views of a notification robot 101 as an example of an imaging control device of the present invention.
図1aは前面斜視図、図1bは左側面図、図1cは背面斜視図である。 Figure 1a is a front perspective view, Figure 1b is a left side view, and Figure 1c is a rear perspective view.
図1aにおいて、通知ロボット101の外装105は下部が略球体形状をした樹脂成型品で構成されている。 In FIG. 1a, the exterior 105 of the notification robot 101 is made of a resin molded product with a roughly spherical lower portion.
測距センサ102は通知ロボット101の前面上部に設けられており、通知ロボット101からユーザの任意の部分までの距離を測定する。 The distance sensor 102 is provided on the upper front surface of the notification robot 101 and measures the distance from the notification robot 101 to any part of the user.
図1bにおいて、測距センサ102は通知ロボット101を机に置いて使用する際にユーザの上半身を撮影できるように、仰角αとなるように構成されている。ここでαは20°~50°であることが望ましい。 In FIG. 1b, the distance measurement sensor 102 is configured to have an elevation angle α so that it can capture an image of the upper body of the user when the notification robot 101 is placed on a desk and used. Here, α is preferably between 20° and 50°.
光通知部103は本体101の半透過部分であり、内部光源の光をユーザに視認可能に透過する。 The light notification unit 103 is a semi-transparent part of the main body 101 that transmits light from the internal light source so that it can be seen by the user.
図1cにおいて、電源ボタン104は本体101の背面に設けられており、ユーザが押し込むことで通知ロボット100の電源のオン/オフを切り替え可能である。 In FIG. 1c, the power button 104 is provided on the back of the main body 101, and the user can press it to turn the power of the notification robot 100 on and off.
図1dは、通知ロボット101の使用中の設置位置について説明する上面図である。 Figure 1d is a top view illustrating the installation position of the notification robot 101 during use.
通知ロボット101のサイズは直径約6cm、高さ約8cmであり、デスク106の自由な位置に設置可能である。例えば、デスク106上にPC(パーソナルコンピューター)のモニターがある場合は、ユーザの正面且つモニターの下側(位置P)に配置したり、ノートPCを使用している場合や正面に置けない場合は、斜め前方(位置Qや位置R)に設置したりすることができる。 The notification robot 101 is approximately 6 cm in diameter and 8 cm in height, and can be placed anywhere on the desk 106. For example, if there is a PC (personal computer) monitor on the desk 106, it can be placed in front of the user and below the monitor (position P), or if a laptop PC is being used or if it cannot be placed directly in front, it can be placed diagonally forward (position Q or position R).
図2は、本実施形態1における通知ロボット101の構成例を示すブロック図である。 Figure 2 is a block diagram showing an example of the configuration of the notification robot 101 in this embodiment 1.
レンズ201は、複数のレンズから構成されるレンズ群であるが、ここでは簡略して一枚のレンズのみで示している。レンズ201によって集光された光は測距センサ102へ導かれる。測距センサ102は、光学像を電気信号へ変換する素子であり、変換された電気信号(データ)をシステム制御部202へ受け渡す。受け渡されるデータの中には、測距センサ102からユーザ211までの距離情報が含まれる。また、測距センサ102が光学像を電気信号へ変換するタイミング等はシステム制御部202によって制御される。 The lens 201 is a lens group consisting of multiple lenses, but for simplicity, only one lens is shown here. The light collected by the lens 201 is guided to the distance measurement sensor 102. The distance measurement sensor 102 is an element that converts an optical image into an electrical signal, and passes the converted electrical signal (data) to the system control unit 202. The data passed includes information on the distance from the distance measurement sensor 102 to the user 211. In addition, the timing at which the distance measurement sensor 102 converts the optical image into an electrical signal is controlled by the system control unit 202.
不揮発性メモリ203は、電気的に消去・記録可能なメモリであり、例えばFlash-ROM等が用いられる。不揮発性メモリ203には、システム制御部202の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態1にて後述する各種フローチャートを実行するためのプログラムのことである。 The non-volatile memory 203 is an electrically erasable and recordable memory, and may be, for example, a Flash-ROM. The non-volatile memory 203 stores constants, programs, and the like for the operation of the system control unit 202. The programs referred to here are programs for executing the various flowcharts described later in this embodiment 1.
システム制御部202は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、通知ロボット101全体を制御する。前述した不揮発性メモリ203に記録されたプログラムを実行することで、後述する本実施形態1の各処理を実現する。システムメモリ204には、例えばRAMが用いられ、システム制御部202の動作用の定数、変数、不揮発性メモリ203から読み出したプログラム等が展開される。システム制御部202は、測距センサ102から得られたデータに基づき、人物検出を行い、例えば顔、右肩、左肩、胸など人物の特徴点までの距離情報を抽出する。また、システム制御部202は、抽出した距離情報を用いて演算を行い、ユーザ211の姿勢を判定する。このとき、抽出した距離情報および判定された姿勢を姿勢判定結果として不揮発性メモリ203に記録する。 The system control unit 202 is a control unit consisting of at least one processor or circuit, and controls the entire notification robot 101. By executing the program recorded in the non-volatile memory 203 described above, each process of the present embodiment 1 described below is realized. For example, a RAM is used for the system memory 204, and constants and variables for the operation of the system control unit 202, programs read from the non-volatile memory 203, etc. are deployed. The system control unit 202 detects a person based on the data obtained from the distance measurement sensor 102, and extracts distance information to characteristic points of the person, such as the face, right shoulder, left shoulder, and chest. In addition, the system control unit 202 performs calculations using the extracted distance information to determine the posture of the user 211. At this time, the extracted distance information and the determined posture are recorded in the non-volatile memory 203 as posture determination results.
システムタイマー205は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system timer 205 is a timing unit that measures the time used for various controls and the time of the built-in clock.
電源ボタン104は、通知ロボット101の電源のONおよびOFFを切り替える操作部材である。電源制御部206は、DCDCコンバータや通電するブロックを切り替えるスイッチ回路等によって構成される。電源制御部206はシステム制御部202の指示に基づいてDCDCコンバータを制御し、必要な電圧を必要な期間、通知ロボット101内のしかるべき場所へ供給する。電源部207は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。 The power button 104 is an operating member that switches the power of the notification robot 101 ON and OFF. The power supply control unit 206 is composed of a DCDC converter, a switch circuit that switches the blocks to which electricity is applied, etc. The power supply control unit 206 controls the DCDC converter based on instructions from the system control unit 202, and supplies the required voltage for the required period to the appropriate location in the notification robot 101. The power supply unit 207 is composed of primary batteries such as alkaline batteries or lithium batteries, secondary batteries such as NiCd batteries, NiMH batteries, Li batteries, AC adapters, etc.
通信I/F部208は、無線または有線ケーブルによって外部機器と接続し、データの送受信を行うインターフェースである。 The communication I/F unit 208 is an interface that connects to external devices wirelessly or via a wired cable to send and receive data.
光通知部103は、システム制御部202によって制御されるLEDなどの発光素子によって構成される。システム制御部202は判定した姿勢判定結果に基づいて、光通知部103を制御し、姿勢判定結果をユーザ211へ通知する。あるいは、システム制御部202は、ユーザ211の基準姿勢を取得中(キャリブレーション中)であることを、光通知部103を制御し、ユーザ211へ通知する。 The light notification unit 103 is composed of a light emitting element such as an LED controlled by the system control unit 202. The system control unit 202 controls the light notification unit 103 based on the posture determination result and notifies the user 211 of the posture determination result. Alternatively, the system control unit 202 controls the light notification unit 103 to notify the user 211 that the reference posture of the user 211 is being acquired (calibration is in progress).
振動部209は、アクチュエータなどよって構成されており、通知ロボット101を物理的に振動させる機構であり、振動制御部210によって制御される。 The vibration unit 209 is composed of an actuator or the like, and is a mechanism that physically vibrates the notification robot 101, and is controlled by the vibration control unit 210.
振動制御部210は、モータドライバなどによって構成され、システム制御部202によって制御される。振動制御部210は、振動部209への通電の有無やタイミング、通電量をコントロールすることで、通知ロボット101を任意の振幅、任意の周期で振動させることを可能にする。 The vibration control unit 210 is composed of a motor driver and the like, and is controlled by the system control unit 202. The vibration control unit 210 controls the presence or absence, timing, and amount of electricity supplied to the vibration unit 209, making it possible to vibrate the notification robot 101 with any amplitude and at any period.
以上が、本発明実施形におけるブロック図の説明であるが、この限りでなくてもよい。 The above is an explanation of the block diagram in the embodiment of the present invention, but it is not limited to this.
次に、本実施形態1における通知ロボット101の通知処理について図3、図4のフローチャートを用いて説明をする。この処理は、不揮発性メモリ203に記録されたプログラムをシステムメモリ204に展開してシステム制御部202が実行することで実現する。なお、この処理は、通知ロボット101の電源ボタン104が押され電源が入り、測距センサ102が起動可能になると測距センサが撮影を開始する。 Next, the notification process of the notification robot 101 in this embodiment 1 will be explained using the flowcharts in Figures 3 and 4. This process is realized by the system control unit 202 expanding a program recorded in the non-volatile memory 203 into the system memory 204 and executing it. This process begins when the power button 104 of the notification robot 101 is pressed to turn on the power and the distance measurement sensor 102 becomes ready to start, causing the distance measurement sensor to start taking images.
S301では、システム制御部202は、測距センサ102により撮影を開始する。 In S301, the system control unit 202 starts capturing images using the distance measurement sensor 102.
S302では、システム制御部202は、基準姿勢データが不揮発性メモリ203に記録されているか否かを判定する。基準姿勢データが記録されている場合は、S304へ進み、そうでない場合は、S303へ進む。 In S302, the system control unit 202 determines whether or not the reference posture data is recorded in the non-volatile memory 203. If the reference posture data is recorded, the process proceeds to S304; if not, the process proceeds to S303.
S303では、システム制御部202は、基準姿勢データを取得する。基準姿勢データの取得は図4の基準データ取得処理のフローチャートを用いて後述する。ここで、基準姿勢データとは、ユーザに良い姿勢を取ることを通知したうえで、ユーザの取った姿勢であり、後述する処理においては基準姿勢データをもとに、現在のユーザの姿勢が良い姿勢か否かを判定するものとする。基準姿勢データの取得をすることにより、もともとの巻き肩の癖があるユーザであれば、もともとの癖からさらに巻き肩になっているか否かを判定することができる。対象のユーザから基準姿勢データを取得せずに、基準の姿勢データを姿勢の良し悪しの判定に使用する場合には、もともとのユーザに癖がある場合や、ユーザの作業のしやすい姿勢において後述の通知が頻繁に行われる可能性が低減することができる。 In S303, the system control unit 202 acquires reference posture data. The acquisition of the reference posture data will be described later with reference to the flowchart of the reference data acquisition process in FIG. 4. Here, the reference posture data is the posture taken by the user after notifying the user to adopt a good posture, and in the process described later, it is determined whether the current posture of the user is good or not based on the reference posture data. By acquiring the reference posture data, if the user has a natural tendency to round shoulders, it is possible to determine whether the original tendency has led to round shoulders. If the reference posture data is not acquired from the target user and the reference posture data is used to determine whether the posture is good or bad, it is possible to reduce the possibility that the notification described later will be issued frequently when the user has a natural tendency or when the user is in a posture that is easy for the user to work in.
S304では、システム制御部202は、測距センサ102を用いて撮影画像の取得をする。 In S304, the system control unit 202 acquires a captured image using the distance measurement sensor 102.
S305では、システム制御部202は、直前のS304において取得した撮影画像より人物を検出する。 In S305, the system control unit 202 detects a person from the captured image acquired in the previous S304.
S306では、システム制御部202は、S305において検出された被写体の頭、両肩、胸の距離を取得する。被写体の頭、両肩、胸の距離について、図6a~図6cを用いて説明する。図6a~図6cは通知ロボット101と被写体600の上面図である。なお図6aにおける通知ロボット101の実際の位置を101_01、仮想的に正面にしたときの位置を101_02とする。頭の距離は通知ロボット101_01から被写体の頭603までは距離614である。肩の距離は通知ロボット101_01から左肩605の距離610、通知ロボット101_01から右肩606の距離611である。胸の距離は通知ロボット101_01から胸604の距離615である。 In S306, the system control unit 202 acquires the distances to the head, shoulders, and chest of the subject detected in S305. The distances to the head, shoulders, and chest of the subject are described with reference to Figs. 6a to 6c. Figs. 6a to 6c are top views of the notification robot 101 and the subject 600. Note that the actual position of the notification robot 101 in Fig. 6a is 101_01, and its position when virtually facing forward is 101_02. The head distance is the distance 614 from the notification robot 101_01 to the subject's head 603. The shoulder distance is the distance 610 from the notification robot 101_01 to the left shoulder 605, and the distance 611 from the notification robot 101_01 to the right shoulder 606. The chest distance is the distance 615 from the notification robot 101_01 to the chest 604.
S307では、本実施形態1において代表的な被写体領域から姿勢の通知対象の人物を決定するための主被写体決定処理のサブフローであり、基本フローの説明後に後述する。 S307 is a sub-flow of the main subject determination process for determining the person whose posture is to be notified from the representative subject area in this embodiment 1, and will be described later after explaining the basic flow.
S327では、システム制御部202は、S307において主被写体が特定されたか否かを判定する。主被写体が特定されていたと判定した場合は、S308に進み、そうでない場合には、S304からS327の処理を繰り返す。 In S327, the system control unit 202 determines whether or not the main subject was identified in S307. If it is determined that the main subject was identified, the process proceeds to S308; otherwise, the process repeats S304 to S327.
S308では、システム制御部202は、通知ロボット101がユーザの顔の真正面にいる場合を正面としたときの姿勢に、S306で取得した被写体の顔、両肩、胸の距離を正規化する。両肩605、606を結んだ線と垂直の向きの特定位置に通知ロボット101を置いた時のデータに換算する。前記特定位置を図6aの101_02とする。頭の距離は仮想通知ロボット101_01位置から被写体の頭603までの距離616である。頭の距離は仮想通知ロボット101_01位置から被写体の頭603までの距離616に換算する。 In S308, the system control unit 202 normalizes the distances to the subject's face, shoulders, and chest acquired in S306 to a posture in which the notification robot 101 is directly in front of the user's face. The data is converted to data when the notification robot 101 is placed at a specific position perpendicular to the line connecting the shoulders 605, 606. The specific position is 101_02 in Figure 6a. The head distance is the distance 616 from the position of the virtual notification robot 101_01 to the subject's head 603. The head distance is converted to the distance 616 from the position of the virtual notification robot 101_01 to the subject's head 603.
ここで図6bを用いて正規化について具体的な換算方法を述べる。距離と角度に関する補正と、被写体の回転の補正を行う必要がある。先に、距離に関する補正について述べる。 Here, we will use Figure 6b to explain the specific conversion method for normalization. It is necessary to perform corrections for distance and angle, as well as corrections for the rotation of the subject. First, we will explain the corrections for distance.
図6b仮想被写体630は、被写体600を図6a仮想通知ロボット101_02で撮像した像であるが、左肩605及び右肩606の補正を行わない像である。図6b仮想通知ロボット101_03は、仮想的に図6a通知ロボット101と図6a仮想通知ロボット101_02とを重ね合わせた装置である。 The virtual subject 630 in Fig. 6b is an image of the subject 600 captured by the virtual notification robot 101_02 in Fig. 6a, but without correction of the left shoulder 605 and the right shoulder 606. The virtual notification robot 101_03 in Fig. 6b is a device in which the notification robot 101 in Fig. 6a and the virtual notification robot 101_02 in Fig. 6a are virtually superimposed.
図6bにて被写体600の頭603との距離614と、被写体630の頭633との距離616は角度631を為す。被写体630の頭633と、仮想通知ロボット101_03の撮像面が直交する方向をz軸とし、z軸に対して直交する方向をx軸とする。仮想通知ロボット101_03の位置を原点として、左肩606のz座標を座標606_z、x座標を座標606_xとすると、仮想被写体630の左肩636のz座標636_z及び、x座標636_xは、
(A)座標636_z=(距離616 / 距離614) × 座標606_z × cos(角度631) - (距離616 / 距離614) × 座標606_x × sin(角度631)、
(B)座標636_x=(距離616 / 距離614) × 座標606_z × sin(角度631) + (距離616 / 距離614) × 座標606_x × cos(角度631)、
で求めることが出来る。
6b, a distance 614 to the head 603 of the subject 600 and a distance 616 to the head 633 of the subject 630 form an angle 631. The direction in which the head 633 of the subject 630 and the imaging plane of the virtual notification robot 101_03 intersect at right angles is defined as the z-axis, and the direction perpendicular to the z-axis is defined as the x-axis. If the position of the virtual notification robot 101_03 is defined as the origin, and the z coordinate of the left shoulder 606 is defined as coordinate 606_z and the x coordinate is defined as coordinate 606_x, then the z coordinate 636_z and the x coordinate 636_x of the left shoulder 636 of the virtual subject 630 are expressed as follows:
(A) Coordinate 636_z = (distance 616 / distance 614) × coordinate 606_z × cos (angle 631) - (distance 616 / distance 614) × coordinate 606_x × sin (angle 631),
(B) Coordinate 636_x = (distance 616 / distance 614) × coordinate 606_z × sin (angle 631) + (distance 616 / distance 614) × coordinate 606_x × cos (angle 631),
It can be found by:
同様に、図6bにて仮想通知ロボット101_03の位置を原点として、右肩605のz座標を座標605_z、x座標を座標605_xとすると、仮想被写体630の左肩635のz座標635_z及び、x座標635_xは、
(C)座標635_z=(距離616 / 距離614) × 座標605_z × cos(角度631) - (距離616 / 距離614) × 座標605_x × sin(角度631)、
(D)座標635_x=(距離616 / 距離614) × 座標605_z × sin(角度631) + (距離616 / 距離614) × 座標605_x × cos(角度631)、
で求めることが出来る。
Similarly, in FIG. 6b, assuming that the position of the virtual notifying robot 101_03 is the origin, the z coordinate of the right shoulder 605 is the coordinate 605_z, and the x coordinate is the coordinate 605_x, the z coordinate 635_z and the x coordinate 635_x of the left shoulder 635 of the virtual subject 630 are expressed as follows:
(C) Coordinate 635_z = (distance 616 / distance 614) × coordinate 605_z × cos (angle 631) - (distance 616 / distance 614) × coordinate 605_x × sin (angle 631),
(D) Coordinate 635_x = (distance 616 / distance 614) × coordinate 605_z × sin (angle 631) + (distance 616 / distance 614) × coordinate 605_x × cos (angle 631),
It can be found by:
次に、図6cを用いて被写体の回転に関する補正について述べる。 Next, we will use Figure 6c to explain how to correct for subject rotation.
仮想被写体650は仮想被写体630に対して、回転の補正を行った後の仮想被写体である。 Virtual subject 650 is virtual subject 630 after rotation correction has been performed.
仮想被写体650の左肩655と右肩656を結ぶ線分と、仮想被写体630の左肩635と右肩636を結ぶ線分は、角度651を持つ。仮想通知ロボット101_03の位置を原点とすると、仮想被写体650の左肩656のz座標656_z及び、x座標656_xは、
(E)座標656_z=座標636_z × cos(角度651) - (座標636_x-距離616) × sin(角度651)、
(F)座標656_x=座標636_z × sin(角度651) + (座標636_x-距離616) × cos(角度651)+距離616、
で求めることが出来る。
The line segment connecting the left shoulder 655 and the right shoulder 656 of the virtual subject 650 and the line segment connecting the left shoulder 635 and the right shoulder 636 of the virtual subject 630 have an angle 651. If the position of the virtual notification robot 101_03 is taken as the origin, the z coordinate 656_z and the x coordinate 656_x of the left shoulder 656 of the virtual subject 650 are expressed as follows:
(E) Coordinate 656_z = Coordinate 636_z × cos (angle 651) - (coordinate 636_x - distance 616) × sin (angle 651),
(F) Coordinate 656_x = Coordinate 636_z × sin (angle 651) + (coordinate 636_x - distance 616) × cos (angle 651) + distance 616,
It can be found by:
同様に、図6c仮想通知ロボット101_03の位置を原点とすると、仮想被写体650の左肩655のz座標655_z及び、x座標656_xは、
(G)座標655_z=座標636_z × cos(角度651) - (座標635_x-距離616) × sin(角度651)、
(H)座標655_x=座標636_z × sin(角度651) + (座標635_x-距離616) × cos(角度651)+距離616、
で求めることが出来る。
Similarly, when the position of the virtual notifying robot 101_03 in FIG. 6c is taken as the origin, the z-coordinate 655_z and the x-coordinate 656_x of the left shoulder 655 of the virtual subject 650 are expressed as follows:
(G) Coordinate 655_z = Coordinate 636_z × cos (angle 651) - (coordinate 635_x - distance 616) × sin (angle 651),
(H) Coordinate 655_x = Coordinate 636_z × sin (angle 651) + (coordinate 635_x - distance 616) × cos (angle 651) + distance 616,
It can be found by:
上記で述べた距離と角度の補正及び、回転の補正の順番は問わない。また、上記の例は上面から見た場合の二次元の補正であり、二次元の回転行列と距離を用いて補正を行っている。被写体の高さに対して補正を要する場合は、上記の式に高さ方向の補正を加えた、三次元の回転行列及び距離を使っての補正を要する。 The order of the distance and angle corrections and rotation corrections mentioned above does not matter. Also, the above example is a two-dimensional correction when viewed from above, and the correction is made using a two-dimensional rotation matrix and distance. If correction is required for the subject's height, correction is required using a three-dimensional rotation matrix and distance that adds a height correction to the above formula.
S309では、システム制御部202は、S308において正規化した値をもとに、頭と胸の差分値Zhn、両肩を結んだ線の中点と胸の差分値Zcnとを算出し、システムメモリ204に記録する。 In S309, the system control unit 202 calculates the difference value Zhn between the head and chest, and the difference value Zcn between the midpoint of the line connecting both shoulders and the chest based on the values normalized in S308, and records these in the system memory 204.
図7aのように基準姿勢の頭711と胸712の差分値Zhsであり、通知処理をする際の姿勢の1例が頭713と胸714の差分値Zhnになる。座標軸701は通知ロボット101から離反する方向をプラスとする。ZhnがZhsより小さい(マイナスの値)と、つまり胸よりも頭が大きく前に来たときは前傾姿勢であると判定する。またZhnがZhsより大きいと、後傾(腰抜け)姿勢であると判定する。図7bのように基準姿勢の両肩を結んだ線の中点715と胸716の差分値Zcsであり、通知処理をする際の1例が両肩を結んだ線の中点717と胸718の差分値Zcnになる。ZcnがZcsより小さい(マイナスの値)と、巻き肩姿勢であると判定する。 As shown in Figure 7a, the difference value Zhs between the head 711 and chest 712 in the reference posture, and an example of a posture when performing notification processing is the difference value Zhn between the head 713 and chest 714. On the coordinate axis 701, the direction away from the notification robot 101 is positive. If Zhn is smaller than Zhs (negative value), that is, when the head is larger than the chest and comes forward, it is determined to be a forward leaning posture. If Zhn is larger than Zhs, it is determined to be a backward leaning posture (loose hips). As shown in Figure 7b, the difference value Zcs between the midpoint 715 of the line connecting both shoulders in the reference posture and the chest 716, and an example of a posture when performing notification processing is the difference value Zcn between the midpoint 717 of the line connecting both shoulders and the chest 718. If Zcn is smaller than Zcs (negative value), it is determined to be a hunched shoulder posture.
S310では、システム制御部202は、S303において取得した基準姿勢における頭と胸の差分値Zhs、両肩を結んだ線の中点と胸の差分値Zcsと、S309において取得したZhn、Zcnとをそれぞれ比較する。つまり、ZhsとZhn、ZcsとZcnとを比較する。 In S310, the system control unit 202 compares the difference value Zhs between the head and chest in the reference posture acquired in S303, and the difference value Zcs between the midpoint of the line connecting both shoulders and the chest with Zhn and Zcn acquired in S309, respectively. In other words, Zhs is compared with Zhn, and Zcs is compared with Zcn.
S311では、システム制御部202は、(I)Zhn‐Zhs<x1、(II)Zhn‐Zhs>x2のいずれかが成り立つか、いずれも成り立たないかを判定する。つまり、(I)においては、前傾姿勢か否かを判定することができる。なお、x1は例えば、-6cm、-8cm、-10cmといった値である。(II)においては、後傾姿勢(腰抜け)か否かを判定することができる。なお、x2は例えば2cm、4cm、6cmといった値である。 In S311, the system control unit 202 determines whether either (I) Zhn-Zhs<x1 or (II) Zhn-Zhs>x2 holds, or neither holds. That is, in (I), it is possible to determine whether the posture is leaning forward. Note that x1 is, for example, a value such as -6 cm, -8 cm, or -10 cm. In (II), it is possible to determine whether the posture is leaning backward (loosening of the legs). Note that x2 is, for example, a value such as 2 cm, 4 cm, or 6 cm.
(I)、(II)のいずれかが成り立つと判定した場合は、S312へ進み、そうでない場合は、S313へ進む。なお、x1、x2は、ユーザが任意に設定可能としてもよいし、入力されたユーザのプロフィール(年齢、性別、体格)により、自動で変更されてもよい。例えば、肩幅を検出し肩幅が大きい場合にはx1、x2を大きい値に変更する。あるいは、性別が女性の場合には、x1、x2を小さい値に変更する。 If it is determined that either (I) or (II) is true, the process proceeds to S312; otherwise, the process proceeds to S313. Note that x1 and x2 may be arbitrarily set by the user, or may be changed automatically based on the input user profile (age, sex, build). For example, when shoulder width is detected, if the shoulder width is large, x1 and x2 are changed to larger values. Alternatively, if the sex is female, x1 and x2 are changed to smaller values.
S312では、システム制御部202は、前後傾き姿勢のカウントT1の計時を開始する。T1とは、ユーザの姿勢が基準姿勢よりも前のめりである状態、もしくは腰抜けの状態である状態が継続している時間を示している。なお、既にT1の計時が開始されていた場合には、S312においては引き続き計時を継続して行う。 In S312, the system control unit 202 starts timing the forward/backward tilt posture count T1. T1 indicates the time during which the user's posture continues to be leaning forward more than the reference posture, or in a state of being in a relaxed state. Note that if timing of T1 has already started, timing continues in S312.
S313では、システム制御部202は、前後傾き姿勢のカウントT1が5分以上経過したか否かを判定する。T1が5分以上経過したと判定した場合は、S314へ進み、そうでない場合は、S316へ進む。 In S313, the system control unit 202 determines whether the count T1 of the forward/backward tilt posture has elapsed for 5 minutes or more. If it is determined that T1 has elapsed for 5 minutes or more, the process proceeds to S314, and if not, the process proceeds to S316.
S314では、システム制御部202は、ユーザに姿勢が前後傾き状態であることを通知する。通知の方法は、システム制御部202が振動制御部210を制御して通知ロボット101を任意の振幅、任意の周期で振動させることである。なお、前のめりの状態が継続している場合と、腰抜けの状態が継続している場合とで通知方法を変えてもよい。 In S314, the system control unit 202 notifies the user that the posture is tilted forward or backward. The method of notification is that the system control unit 202 controls the vibration control unit 210 to vibrate the notification robot 101 with any amplitude and any period. Note that the notification method may be different depending on whether the posture is leaning forward or the posture is limp.
S315では、システム制御部202は、前後傾き姿勢時間T1をリセットし、0にする。つまり、ユーザが一時的に前のめりや腰抜けの状態であったが、5分が経過する前に、基準の姿勢に近い姿勢に戻った場合には、T1をリセットする。 In S315, the system control unit 202 resets the forward/backward tilt posture time T1 to 0. In other words, if the user was temporarily leaning forward or losing his balance, but returns to a posture close to the reference posture before five minutes have elapsed, T1 is reset.
S316では、システム制御部202は、(III)Zcn-Zcs<x3であるか否かを判定する。つまり、(III)においては、巻き肩か否かを判定することができる。なお、x3は例えば、-1.0cm、-1.5cm、-2.0cmといった値である。x3はユーザが任意に設定可能としてもよいし、入力されたユーザのプロフィール(年齢、性別、体格)により、自動で変更されてもよい。例えば、肩幅を検出し肩幅が大きい場合にはx3を大きい値に変更する。あるいは、性別が女性の場合には、x3を小さい値に変更する。 In S316, the system control unit 202 determines whether or not (III) Zcn-Zcs<x3. That is, in (III), it is possible to determine whether or not the user has rounded shoulders. Note that x3 is, for example, a value such as -1.0 cm, -1.5 cm, or -2.0 cm. x3 may be set arbitrarily by the user, or may be changed automatically based on the input user profile (age, sex, build). For example, the shoulder width is detected, and if the shoulder width is large, x3 is changed to a larger value. Alternatively, if the gender is female, x3 is changed to a smaller value.
このように、Zhn、Zhs、Zcn、Zcsともに胸のz座標を用いるため、通知ロボット101からユーザの胸の位置を検出する必要がある。そのため、図6cにおける角度651、すなわち通知ロボット101のz軸平面と被写体であるユーザの左右の肩のなす角度は、およそ-80°~+80°の範囲であることが望ましい。その範囲であれば、通知ロボット101はユーザに対して自由な位置に設置可能である。 As described above, since Zhn, Zhs, Zcn, and Zcs all use the z-coordinate of the chest, it is necessary for the notification robot 101 to detect the position of the user's chest. Therefore, it is desirable that angle 651 in FIG. 6c, that is, the angle between the z-axis plane of the notification robot 101 and the left and right shoulders of the subject user, be in the range of approximately -80° to +80°. Within this range, the notification robot 101 can be placed at any position relative to the user.
(III)が成り立つと判定した場合は、S319へ進み、そうでない場合は、S321へ進む。 If it is determined that (III) is true, proceed to S319; otherwise, proceed to S321.
S317では、システム制御部202は、巻き肩姿勢のカウントT2の計時を開始する。T2とは、ユーザの姿勢が基準姿勢よりも巻き方である状態が継続している時間を示している。なお、既にT2の計時が開始されていた場合には、S317においては引き続き計時を継続して行う。 In S317, the system control unit 202 starts counting T2 of the rounded shoulder posture. T2 indicates the time during which the user's posture continues to be more rounded than the reference posture. Note that if the counting of T2 has already started, the counting continues in S317.
S318では、システム制御部202は、巻き肩姿勢のカウントT2が5分以上経過したか否かを判定する。T2が5分以上経過したと判定した場合は、S319へ進み、そうでない場合は、S321へ進む。 In S318, the system control unit 202 determines whether the rounded shoulder posture count T2 has elapsed for 5 minutes or more. If it is determined that T2 has elapsed for 5 minutes or more, the process proceeds to S319, and if not, the process proceeds to S321.
S319では、システム制御部202は、ユーザに姿勢が巻き肩状態であることを通知する。通知の方法は、システム制御部202が振動制御部210を制御して通知ロボット101を任意の振幅、任意の周期で振動させることである。 In S319, the system control unit 202 notifies the user that the user's posture is rounded shoulders. The method of notification is that the system control unit 202 controls the vibration control unit 210 to vibrate the notification robot 101 with any amplitude and any period.
S320では、システム制御部202は、巻き肩姿勢時間T2をリセットし、0にする。つまり、ユーザが一時的に巻き肩の状態であったが、5分が経過する前に、基準の姿勢に近い姿勢に戻った場合には、T2をリセットする。 In S320, the system control unit 202 resets the rounded shoulder posture time T2 to 0. In other words, if the user was in a rounded shoulder state temporarily but returned to a posture close to the reference posture before five minutes had elapsed, T2 is reset.
S321では、システム制御部202は、ユーザが立ち上がったか否かを判定する。ユーザが立ち上がったと判定した場合は、S322へ進み、そうでない場合は、S323へ進む。 In S321, the system control unit 202 determines whether the user has stood up. If it is determined that the user has stood up, the process proceeds to S322; otherwise, the process proceeds to S323.
S322では、システム制御部202は、後述する着席時間T3をリセットする。 In S322, the system control unit 202 resets the seating time T3, which will be described later.
S323では、システム制御部202は、着席時間T3の計時を開始、もしくは継続して行う。着席時間T3は、ユーザの継続的に座っていることを検知するための時間である。なお、T1、T2、T3の計時はシステムタイマー205によって行う。 In S323, the system control unit 202 starts or continues to measure the seating time T3. The seating time T3 is a time for detecting that the user is continuously sitting. Note that the timing of T1, T2, and T3 is performed by the system timer 205.
S324では、システム制御部202は、着席時間T3が30分以上になったか否かを判定する。T3が30分以上になったと判定した場合は、S325へ進み、そうでない場合は、S326へ進む。 In S324, the system control unit 202 determines whether the seated time T3 is 30 minutes or more. If it is determined that T3 is 30 minutes or more, the process proceeds to S325; otherwise, the process proceeds to S326.
S325では、システム制御部202は、ユーザに座りすぎであることを通知する。通知の方法は、システム制御部202が振動制御部210を制御して通知ロボット101を任意の振幅、任意の周期で振動させることである。 In S325, the system control unit 202 notifies the user that they have been sitting too long. The method of notification is that the system control unit 202 controls the vibration control unit 210 to vibrate the notification robot 101 with any amplitude and at any period.
ここで図5を用いて通知ロボット101の各種通知方法について説明する。 Here, various notification methods of the notification robot 101 will be explained using Figure 5.
図5において、通知ロボット101の状態をA(正位置)、B(左揺れ)、C(右揺れ)とする。 In FIG. 5, the notification robot 101 is in the following states: A (normal position), B (swaying left), and C (swaying right).
通知パターン1では、状態A→B→C→A→停止1秒→B→C→A→停止と状態遷移する。左右に揺動することで、通知ロボット101がデスク上に置かれた状態でもユーザが容易に通知を確認可能である。 In notification pattern 1, the state transition is as follows: state A → B → C → A → stopped for 1 second → B → C → A → stopped. By swinging left and right, the user can easily check the notification even when the notification robot 101 is placed on a desk.
通知パターン2では、状態A→B→C→B→C→B→C→A→停止と状態遷移する。 In notification pattern 2, the state transitions are A → B → C → B → C → B → C → A → Stopped.
通知パターン3では、状態Aのまま、光通知部103が2回2Hzで点滅する。 In notification pattern 3, the light notification unit 103 flashes twice at 2 Hz while remaining in state A.
通知パターン4では、状態Aのまま、光通知部103が1回2秒間点灯する。 In notification pattern 4, the light notification unit 103 lights up once for 2 seconds while remaining in state A.
通知パターン5では、状態Aのまま、光通知部103が3回1Hzで点滅する。 In notification pattern 5, the light notification unit 103 blinks three times at 1 Hz while remaining in state A.
通知パターン6では、状態Aのまま、光通知部103が明るめに1回1秒間点灯する。 In notification pattern 6, state A remains and the light notification unit 103 lights up brightly once for one second.
通知パターン1は、図3における姿勢の悪化通知S314、および巻き肩の通知S319で使用される。通知パターン2は座り過ぎ通知S325で使用される。 Notification pattern 1 is used in the notification of poor posture S314 and the notification of rounded shoulders S319 in FIG. 3. Notification pattern 2 is used in the notification of sitting too long S325.
通知パターン3は、電源ボタン104が押され通知ロボット101の撮影が開始される際(S301)の通知として使用される。 Notification pattern 3 is used as a notification when the power button 104 is pressed and the notification robot 101 starts taking pictures (S301).
通知パターン4は、人物を検出した際(S305)の通知として使用される。これは一度座り過ぎ検知S325でユーザが立ったことを検知(S321)した後に、再度人物を検出した際にも同様に使用させる。 Notification pattern 4 is used as a notification when a person is detected (S305). This is also used when a person is detected again after the user has stood up during the sitting too long detection S325 (S321).
S326では、システム制御部202は、通知ロボット101の電源がOFFされたか否かを判定する。電源がOFFされたと判定した場合は、図3の処理を終了し、そうでない場合は、S304へ戻る。なお、S326はユーザの使っているPC(パーソナルコンピュータ)の電源がOFFされたらYesと判定をしてもよいし、所定の時刻になったことに応じてYesと判定してもよい。 In S326, the system control unit 202 determines whether the power of the notification robot 101 has been turned off. If it is determined that the power has been turned off, the process of FIG. 3 ends, and if not, the process returns to S304. Note that S326 may determine Yes when the power of the PC (personal computer) used by the user is turned off, or may determine Yes when a predetermined time has arrived.
次に、図4を用いて、基準姿勢データの取得のフローチャートについて説明をする。なお、この処理は、図3のS303へ進むと開始する。 Next, the flowchart for acquiring reference posture data will be explained using FIG. 4. Note that this process starts when the process proceeds to S303 in FIG. 3.
S401では、システム制御部202が光通知部103を制御して、基準姿勢をとることをユーザに通知する。この際、通知パターン5で通知する。 In S401, the system control unit 202 controls the light notification unit 103 to notify the user that the reference posture will be taken. At this time, the notification is made using notification pattern 5.
S402では、ユーザ準備OKの信号を待つ。ユーザ準備OKは電源ボタン104を長押しされたらOKと判定する。ユーザのOKの合図は、ユーザが両手を上げるなどのゼスチャーをOKの合図としてもよい。 In S402, the system waits for a signal indicating that the user is ready. The system determines that the user is ready when the power button 104 is pressed and held down. The user's signal of OK may be a gesture such as the user raising both hands.
S403では、システム制御部202は、検出された被写体の基準姿勢としての頭、両肩、胸の距離を取得する。この際、通知パターン6で基準姿勢の取得の成功を通知する。 In S403, the system control unit 202 acquires the distances between the head, shoulders, and chest as the reference posture of the detected subject. At this time, notification pattern 6 is used to notify the successful acquisition of the reference posture.
S404では、システム制御部202は、通知ロボット101がユーザの顔の真正面にいる場合を正面としたときの姿勢に、S403で取得した被写体の基準の顔、両肩、胸の距離を正規化する。 In S404, the system control unit 202 normalizes the distances between the subject's reference face, shoulders, and chest obtained in S403 to a posture that is taken when the notification robot 101 is directly in front of the user's face.
S405では、システム制御部202はS404において正規化した値をもとに、両肩を結んだ線と頭の差分値Zhs、両肩を結んだ線と胸のZcsとを算出し、揮発性メモリ203に記録する。 In S405, the system control unit 202 calculates the difference value Zhs between the line connecting both shoulders and the head, and Zcs between the line connecting both shoulders and the chest based on the values normalized in S404, and records these in the volatile memory 203.
次に、S307の主被写体決定処理において、複数人撮影されている場合に、被写体領域を用いた姿勢の通知対象の人物の決定方法について図8のフローチャートを用いて説明をする。 Next, the method for determining the person whose posture is to be notified using the subject area when multiple people are photographed in the main subject determination process of S307 will be explained using the flowchart in FIG. 8.
S801では、システム制御部202は、撮像画像の中の人物の姿勢情報を取得する。本実施形態1では、撮影画像中の顔と両肩から算出できる姿勢を姿勢情報として取得する。本実施形態では、S305で検出された顔と両肩を対応させた座標を姿勢情報として取得する。 In S801, the system control unit 202 acquires posture information of a person in a captured image. In this embodiment 1, the posture that can be calculated from the face and both shoulders in the captured image is acquired as posture information. In this embodiment, the coordinates that correspond to the face and both shoulders detected in S305 are acquired as posture information.
S802では、システム制御部202は、S305において取得した撮像画像の中に姿勢情報が取得できる人物が撮影されているか否かを判定する。姿勢情報が取得できる人物が撮影されていると判定した場合は、S803に進み、そうでない場合には、判定不可として終了する。 In S802, the system control unit 202 determines whether or not a person whose posture information can be obtained is captured in the captured image acquired in S305. If it is determined that a person whose posture information can be obtained is captured in the image, the process proceeds to S803; otherwise, the process ends as it is not possible to make a determination.
ここで姿勢情報が取得できる人物と姿勢情報が取得できない人物について、図9a、図9bを用いて説明をする。 Here, we will explain people for whom posture information can be obtained and people for whom posture information cannot be obtained, using Figures 9a and 9b.
実施形態1では、前述したように姿勢情報を取得できる人物は、撮影画像の中に顔と両肩が含まれていて姿勢を検出できる人物としており、両肩が含まれていない場合は姿勢を検出できない人物としている。 In the first embodiment, as described above, a person whose posture information can be obtained is defined as a person whose face and both shoulders are included in the captured image and whose posture can be detected, and whose posture cannot be detected if both shoulders are not included.
図9aは、通知ロボット101が動作中に、ユーザである主被写体901、その他被写体902、903、姿勢情報が取得できない被写体904、主被写体901の左肩905及び、右肩906、被写体902、903の左肩907、909及び、右肩908、910が撮影されている例を示している。 Figure 9a shows an example in which the main subject 901, who is the user, other subjects 902 and 903, a subject 904 whose posture information cannot be obtained, the left shoulder 905 and right shoulder 906 of the main subject 901, and the left shoulders 907, 909 and right shoulders 908, 910 of the subjects 902 and 903 are photographed while the notification robot 101 is in operation.
図9bは、通知ロボット101の撮像画像を示しており、同図a901~910との対応関係及び、それぞれの人物の両肩のx座標の差911~913について示している。 Figure 9b shows an image captured by the notification robot 101, and indicates the correspondence with Figure 9a 901-910, as well as the differences 911-913 in the x-coordinates of both shoulders of each person.
S803では、システム制御部202は、前述したx座標の差911~913を取得する。この例では、x座標の差の大小関係は、911>912>913としている。 In S803, the system control unit 202 acquires the above-mentioned x-coordinate differences 911 to 913. In this example, the magnitude relationship of the x-coordinate differences is 911>912>913.
S804では、システム制御部202は、被写体領域を肩幅として、最も大きく映っている人物を肩幅から判定する。図9a、図9bの例では、両肩のx座標の差が最も大きい主被写体901を姿勢の通知対象の人物として決定する。なお、1人のみ姿勢情報が取得できる場合においては、その人物を主被写体として決定する。 In S804, the system control unit 202 determines the subject area as shoulder width and determines the largest person from the shoulder width. In the example of Figures 9a and 9b, the main subject 901 with the largest difference in the x coordinates of both shoulders is determined as the person to be notified of the posture. Note that when posture information can be obtained for only one person, that person is determined as the main subject.
以上説明した実施形態1によれば、複数人の人物の姿勢情報が取得できた人物が撮影されている場合においても、被写体領域が最も大きい人物を判定することで姿勢の通知対象の人物を特定することができる。 According to the first embodiment described above, even when multiple people are photographed and posture information for each person has been acquired, the person whose posture is to be notified can be identified by determining the person with the largest subject area.
なお、本実施形態1は、x座標のみの差分値で姿勢の通知対象の人物を決定したが、これに限らず、x座標とy座標から大きさを求めてもよい。 In this embodiment, the person to be notified of the posture is determined based on the difference value of the x coordinate only, but the present invention is not limited to this, and the size may be calculated based on the x and y coordinates.
なお、本実施形態1では、両肩で姿勢の通知対象の人物を決定したが、これに限らず、顔と肩の位置や顔と胸の位置等の座標差を被写体領域として大きさを求めてから比較してもよい。 In this embodiment 1, the person to be notified of the posture is determined by both shoulders, but this is not limited to the above. The coordinate difference between the positions of the face and shoulders or the face and chest may be calculated as the subject area and then compared.
なお、本実施形態1では、被写体が正面を向いていることを前提にして説明しているが、各々の被写体の向きによってx座標の差分値を正規化し、最も大きい人物を通知対象としてもよい。 In this embodiment, the description is based on the assumption that the subjects are facing forward, but the difference in x-coordinates may be normalized according to the orientation of each subject, and the largest person may be the subject of notification.
次に、本発明における第2の実施形態について説明する。 Next, we will explain the second embodiment of the present invention.
本実施形態2では通知ロボット101が、複数人撮影されている場合に、距離情報を用いた姿勢の通知対象の人物の決定方法について説明をする。なお、実施形態2では、複数人の姿勢情報が取得できた場合に姿勢の通知対象とする人物の特定方法が第1の実施例と異なる。すなわち、図3は共通でS307の主被写体を決定する処理に差分があり、図10のフローチャートを用いて実施形態1との差分を説明する。 In this second embodiment, a method is described for the notification robot 101 to determine the person to be notified of the posture using distance information when multiple people are photographed. Note that in the second embodiment, the method for identifying the person to be notified of the posture when posture information of multiple people is acquired is different from that in the first embodiment. That is, while FIG. 3 is common, there is a difference in the process of determining the main subject in S307, and the difference from the first embodiment is described using the flowchart in FIG. 10.
図10では、S307の主被写体決定処理において、実施形態1における図8S803、S804に対しての処理フロー変更をS1001、S1002とし、S801、S802のステップについては実施形態1と共通であるので図8との差分のみ説明を行う。 In FIG. 10, in the main subject determination process of S307, the process flow has been changed to S1001 and S1002 from S803 and S804 in FIG. 8 of the first embodiment, and since steps S801 and S802 are common to the first embodiment, only the differences from FIG. 8 will be explained.
S1001では、システム制御部202は、姿勢情報が取得できる人物の両肩の平均距離を取得する。 In S1001, the system control unit 202 acquires the average distance between the shoulders of a person for whom posture information can be acquired.
ここで姿勢情報が取得できる人物の距離取得方法について図11を用いて説明をする。 Here, we will use Figure 11 to explain how to obtain the distance of a person from which posture information can be obtained.
図11は、前述した図9a、図9bの901~910と、主被写体901の距離1101、被写体902、903の距離1102、1103を示している。それぞれの距離1101~1103の取得方法については、両肩の距離における平均値で取得している。本実施形態2では、距離1101>1102>1103としている。 Figure 11 shows 901 to 910 in Figures 9a and 9b described above, as well as distance 1101 of main subject 901, and distances 1102 and 1103 of subjects 902 and 903. The method for obtaining each of the distances 1101 to 1103 is to obtain the average value of the distances between both shoulders. In this embodiment 2, the distances are 1101>1102>1103.
S1002では、システム制御部202は、S1001で取得した両肩の平均距離が通知ロボット101から最も近い距離の人物を判定する。ここでは、両肩の平均距離が最も近い主被写体901の人物を姿勢の通知対象とする。なお、1人のみ姿勢情報が取得できる場合においては、その人物を主被写体として決定する。 In S1002, the system control unit 202 determines the person whose average shoulder distance obtained in S1001 is closest to the notification robot 101. Here, the person who is the main subject 901 and whose average shoulder distance is closest is set as the posture notification target. Note that when posture information can be obtained for only one person, that person is determined to be the main subject.
以上説明した実施形態2によれば、複数人の人物の姿勢情報が取得できた人物が撮影されている場合においても、距離が最も近い人物を判定することで姿勢の通知対象の人物を特定することができる。 According to the second embodiment described above, even if multiple people whose posture information can be obtained are photographed, the person whose posture is to be notified can be identified by determining the person who is closest in distance.
なお、これに限らず左右どちらかの肩の距離及び、姿勢情報の取得に必要な肩以外の部位の距離を用いてもよい。 However, this is not limited to this, and the distance between the left or right shoulder, and the distance of a part other than the shoulder that is necessary to obtain posture information may also be used.
なお、姿勢情報が取得できる人物が複数人撮影されている場合は、システム制御部202は通知対象を決定せずに、通知を行わなくてもよい。 Note that if multiple people whose posture information can be obtained are captured in a photograph, the system control unit 202 may not determine the notification target and may not issue a notification.
なお、姿勢情報が取得できる人物が複数人撮影されている期間は、システム制御部202は姿勢情報を判別不能とし、例えば通知ロボット101は、振動する等の姿勢の通知とは別の種類の通知をしてもよい。 In addition, during a period in which multiple people whose posture information can be obtained are photographed, the system control unit 202 may not be able to distinguish the posture information, and the notification robot 101 may, for example, provide a different type of notification other than posture notification, such as by vibrating.
なお、姿勢情報が取得できる人物が複数人いる撮影されている場合に通知対象決定については、例えば、S303で、個人の顔情報を不揮発性メモリ203に記録しておき、S804及びS1002においてシステム制御部102で撮影画像の顔から個人を識別し通知対象を決定してもよい。例えば、個人を識別できた人物が一人だったら、識別できた人物を通知対象にしてもよい。 When multiple people whose posture information can be obtained are captured in an image, the notification target may be determined, for example, by recording the facial information of the individuals in the non-volatile memory 203 in S303, and by having the system control unit 102 identify the individuals from the faces in the captured image in S804 and S1002. For example, if only one individual can be identified, the identified individual may be the notification target.
なお、S314、S319、S325において通知ロボット101の動作によってユーザに通知を行うことを説明したが、通信I/F部208を用いて対応しているユーザのスマートフォンやPC内のアプリに通知を行ってもよい。さらに、アプリ内においてユーザの姿勢に関する情報を記録し、グラフ化、数値かして示すことでユーザがユーザの姿勢の傾向や癖を把握しやすくしてもよい。例えば、月曜日から金曜日までが勤務日である場合には、金曜日にかけて後傾姿勢の通知が多くなっていることが分かれば、ユーザは意識的に姿勢を訂正することができる。 Although it has been described in S314, S319, and S325 that the notification robot 101 notifies the user, the notification may also be sent to a compatible app in the user's smartphone or PC using the communication I/F unit 208. Furthermore, information about the user's posture may be recorded in the app and displayed in graphs and numerical values to make it easier for the user to understand the user's posture tendencies and habits. For example, if the user's working days are Monday through Friday, if the user notices that there are more notifications of a leaning back posture on Fridays, the user can consciously correct their posture.
なお、通知の方法は通知ロボット101自体の動きや光で通知を行うことを説明したが、スマートフォンの場合には表示部を点滅させたり、警告をするプッシュ通知を行ってもよい。 In the above explanation, the notification method is the movement or light of the notification robot 101 itself, but in the case of a smartphone, a push notification may be sent by flashing the display or issuing a warning.
また、本実施形態における通知ロボット101は、測距センサ102をもとに姿勢を検出するが、距離の測定を行わない可視光撮像センサで姿勢の検出を行ってもよい。その場合、距離情報は撮像センサで得られる撮像画像から推定する。 In addition, the notification robot 101 in this embodiment detects its posture based on the distance sensor 102, but it may also detect its posture using a visible light imaging sensor that does not measure distance. In that case, distance information is estimated from the captured image obtained by the imaging sensor.
なお、システム制御部101が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 The various controls described above as being performed by the system control unit 101 may be performed by a single piece of hardware, or multiple pieces of hardware may share the processing to control the entire device.
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the invention are also included in the present invention. Furthermore, each of the above-described embodiments merely represents one embodiment of the present invention, and each embodiment can be combined as appropriate.
また、上述した実施形態においては、本発明を通知ロボット101に適用した場合を例にして説明したが、これはこの例に限定されず、ユーザと装置の位置関係と姿勢に関する情報を取得可能な電子機器であれば適用可能である。すなわち、本発明は携帯電話端末や携帯型の画像ビューワ、ファインダーを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。 In the above-mentioned embodiment, the present invention has been described as being applied to a notification robot 101, but the present invention is not limited to this example and can be applied to any electronic device that can obtain information about the positional relationship and posture of the device relative to the user. In other words, the present invention can be applied to mobile phone terminals, portable image viewers, printer devices with viewfinders, digital photo frames, music players, game consoles, e-book readers, etc.
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。
Other Embodiments
The present invention can also be realized by executing the following process. That is, software (programs) that realize the functions of the above-mentioned embodiments are supplied to a system or device via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or device reads and executes the program codes. In this case, the program and the recording media on which the program is stored constitute the present invention.
101 通知ロボット
102 測距センサ
103 光通知部
104 電源ボタン
106 デスク
201 レンズ
202 システム制御部
203 不揮発性メモリ
204 システムメモリ
205 システムタイマー
101 Notification robot 102 Distance measurement sensor 103 Light notification unit 104 Power button 106 Desk 201 Lens 202 System control unit 203 Non-volatile memory 204 System memory 205 System timer
Claims (5)
前記姿勢情報を取得可能な被写体が占める被写体領域を複数の人物に対して取得できる被写体領域取得手段と、
前記被写体領域が最も大きい領域を占める被写体を通知対象として決定する通知対象決定手段と、
前記通知対象の姿勢を姿勢判定結果として取得できる姿勢判定手段と、
前記姿勢判定結果に基づいた姿勢の通知を行う通知手段を有すること特徴とする電子機器。 A posture information acquisition means for acquiring posture information of a plurality of subjects,
a subject area acquisition means for acquiring a subject area occupied by a subject for which the posture information can be acquired for a plurality of persons;
a notification target determining means for determining, as a notification target, a subject that occupies the largest area of the subject area;
a posture determination means for obtaining the posture of the notification target as a posture determination result;
The electronic device further comprises a notification means for notifying the user of the posture based on the posture determination result.
前記姿勢情報を取得可能な被写体と当該電子機器と被写体との距離を複数の人物に対して取得できる被写体距離取得手段と、
前記当該電子機器との距離が最も近い被写体を通知対象として決定する通知対象決定手段と、
前記通知対象の姿勢を姿勢判定結果として取得できる姿勢判定手段と、
前記姿勢判定結果に基づいた姿勢の通知を行う通知手段を有すること特徴とする電子機器。 A posture information acquisition means for acquiring posture information of a plurality of subjects,
a subject distance acquisition means for acquiring a subject for which the posture information can be acquired and a distance between the electronic device and the subject for a plurality of people;
a notification target determining means for determining a subject that is closest to the electronic device as a notification target;
a posture determination means for obtaining the posture of the notification target as a posture determination result;
The electronic device further comprises a notification means for notifying the user of the posture based on the posture determination result.
複数の被写体たる人物の顔を識別するための個人認証手段を備え、
前記姿勢情報取得手段で複数被写体の姿勢情報を取得可能な場合に、前記個人認証手段の出力に基づいて通知対象を決定することを特徴とする請求項1又は請求項2に記載の電子機器。 The notification target determination means
A personal authentication means for identifying the faces of a plurality of subjects,
3. The electronic device according to claim 1, wherein, when the posture information acquisition means is capable of acquiring posture information of a plurality of subjects, a notification target is determined based on an output from the personal authentication means.
前記測距センサは、前記被写体の正面である第1の位置であっても、前記第1の位置からずれた第2の位置であっても、前記制御手段は、前記取得手段により取得した位置関係に基づき、前記被写体の姿勢情報を正規化し、
正規化された前記被写体の姿勢情報が前記所定の条件を満たす場合には前記所定の通知をせず、正規化された前記被写体の姿勢情報が前記所定の姿勢でない場合には前記所定の通知をしないように制御することを特徴とする請求項2に記載の電子機器。 The subject distance acquisition means is capable of acquiring subject information acquired by a distance measuring sensor,
whether the distance measuring sensor is at a first position in front of the subject or at a second position shifted from the first position, the control means normalizes the posture information of the subject based on the positional relationship acquired by the acquisition means;
3. The electronic device according to claim 2, further comprising: a control unit configured to control not to issue the specified notification when the normalized posture information of the subject satisfies the specified condition, and to control not to issue the specified notification when the normalized posture information of the subject does not correspond to the specified posture.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023221687A JP2025103933A (en) | 2023-12-27 | 2023-12-27 | Electronic device and control method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023221687A JP2025103933A (en) | 2023-12-27 | 2023-12-27 | Electronic device and control method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2025103933A true JP2025103933A (en) | 2025-07-09 |
Family
ID=96306264
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023221687A Pending JP2025103933A (en) | 2023-12-27 | 2023-12-27 | Electronic device and control method thereof |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2025103933A (en) |
-
2023
- 2023-12-27 JP JP2023221687A patent/JP2025103933A/en active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN100578531C (en) | A display, device and method for realizing vision protection | |
| CN101033955B (en) | A method, device and display for realizing vision protection | |
| KR102365721B1 (en) | Apparatus and Method for Generating 3D Face Model using Mobile Device | |
| CN104252222B (en) | Information processing unit and information processing method | |
| JP5639832B2 (en) | Information processing program, information processing method, information processing system, and information processing apparatus | |
| JP6452440B2 (en) | Image display system, image display apparatus, image display method, and program | |
| JP2014061057A (en) | Information processor, information processing method, program, and measurement system | |
| JP2015156610A (en) | Electronic apparatus and power supply control method | |
| CN119156585A (en) | Techniques for operating a camera of another device using air gestures detected by a wrist wearable device, and wearable devices and systems for performing these techniques | |
| CN115291678B (en) | Electronic equipment, and identification method and system for looking up electronic equipment | |
| CN113544736B (en) | Lower limb muscle strength estimation system, lower limb muscle strength estimation method and recording medium | |
| WO2018006839A1 (en) | Sitting posture monitoring apparatus and lighting apparatus | |
| JP6651086B1 (en) | Image analysis program, information processing terminal, and image analysis system | |
| US10880463B2 (en) | Remote control operation method for gesture post and gesture post remote control device | |
| KR102381542B1 (en) | System including algorithm for determining real-time turtle neck posture, responsive cradle interlocking with the system, and control method thereof | |
| CN114983338A (en) | A skin detection method and electronic device | |
| JP2025103933A (en) | Electronic device and control method thereof | |
| JP7443044B2 (en) | Biometric information acquisition device, terminal device, biometric information acquisition method, biometric information acquisition program, and computer-readable recording medium | |
| JP2025103931A (en) | Electronic device and control method thereof | |
| JP2025103932A (en) | Electronic device and control method thereof | |
| JP5092093B2 (en) | Image processing device | |
| JP2008146583A (en) | Attitude detector and behavior detector | |
| CN204229299U (en) | an electronic device | |
| JP2023170946A (en) | Electronic equipment, its control method, and its program | |
| JP6256779B2 (en) | Information processing apparatus, information processing method, program, and measurement system |