[go: up one dir, main page]

JP7598042B2 - Height estimation method, height estimation device and program - Google Patents

Height estimation method, height estimation device and program Download PDF

Info

Publication number
JP7598042B2
JP7598042B2 JP2022579251A JP2022579251A JP7598042B2 JP 7598042 B2 JP7598042 B2 JP 7598042B2 JP 2022579251 A JP2022579251 A JP 2022579251A JP 2022579251 A JP2022579251 A JP 2022579251A JP 7598042 B2 JP7598042 B2 JP 7598042B2
Authority
JP
Japan
Prior art keywords
height
person
image
unit
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022579251A
Other languages
Japanese (ja)
Other versions
JPWO2022168252A1 (en
Inventor
利明 武田
弾 三上
奏 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
NTT Inc USA
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc USA filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2022168252A1 publication Critical patent/JPWO2022168252A1/ja
Application granted granted Critical
Publication of JP7598042B2 publication Critical patent/JP7598042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、身長推定方法、身長推定装置及びプログラムに関する。 The present invention relates to a height estimation method, a height estimation device, and a program.

従来から、人物が撮像された入力画像から、入力画像内における人物の骨格等の位置を推定する方法が知られている。例えば、非特許文献1に記載の推定方法は、入力画像内の人物の両目、両耳、鼻、首下、両肩、両肘、両手首、両腰、両膝、及び両足首の位置座標を推定することができる。Conventionally, there are known methods for estimating the positions of a person's bones and the like in an input image from an input image in which the person is captured. For example, the estimation method described in Non-Patent Document 1 can estimate the position coordinates of the eyes, ears, nose, neck, shoulders, elbows, wrists, hips, knees, and ankles of a person in an input image.

また、従来から、人物や物体が撮像された入力画像から、入力画像内の人物や物体の輪郭に外接する矩形(以下、「外接矩形」という。)を抽出する方法が知られている。例えば、非特許文献2に記載のMask R-CNN(Region-Convolutional Neural Network)は、物体検出とセグメンテーションとを行う物体検出アルゴリズムであり、入力画像内の人物や物体の外接矩形の位置座標を抽出することができる。 In addition, methods have been known for extracting a rectangle (hereinafter referred to as a "circumscribing rectangle") that circumscribes the contour of a person or object in an input image from an input image in which the person or object is captured. For example, Mask R-CNN (Region-Convolutional Neural Network) described in Non-Patent Document 2 is an object detection algorithm that performs object detection and segmentation, and can extract the position coordinates of the circumscribing rectangle of a person or object in an input image.

上記の2つの技術を用いることにより、例えば図14に示される人物及び物体が撮像された入力画像から、図15に示される人物の骨格の位置座標、人物及び物体の外接矩形の位置座標を抽出することができる。図14は、正面を向いて直立する人物91と、人物91の近傍に存在する物体92とが撮像された入力画像9を示している。図15は、入力画像9から推定された人物91の骨格93と、入力画像9から抽出された人物91の外接矩形94及び物体92の外接矩形95とを示している。By using the above two techniques, it is possible to extract the position coordinates of the skeleton of the person and the circumscribing rectangle of the person and the object shown in Fig. 15 from an input image in which the person and object shown in Fig. 14 are captured. Fig. 14 shows an input image 9 in which a person 91 standing upright and facing forward is captured, and an object 92 existing in the vicinity of the person 91. Fig. 15 shows the skeleton 93 of the person 91 estimated from the input image 9, and the circumscribing rectangle 94 of the person 91 and the circumscribing rectangle 95 of the object 92 extracted from the input image 9.

Zhe Cao, Tomas Simon, Shih-En Wei and Yaser Sheikh, "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", Computer Vision and Pattern Recognition (CVPR), pp.7291-7299, 2017.Zhe Cao, Tomas Simon, Shih-En Wei and Yaser Sheikh, "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", Computer Vision and Pattern Recognition (CVPR), pp.7291-7299, 2017. Kaiming He, Georgia Gkioxari, Piotr Dollar, Ross Girshick, "Mask R-CNN", The IEEE International Conference on Computer Vision (ICCV), pp.2961-2969, 2017.Kaiming He, Georgia Gkioxari, Piotr Dollar, Ross Girshick, "Mask R-CNN", The IEEE International Conference on Computer Vision (ICCV), pp.2961-2969, 2017.

入力画像が、直立した人物と物体とが撮像された画像である場合、当該物体の実際の大きさ(高さ)が既知であるならば、入力画像内の人物の高さと入力画像内の物体の高さとを対比することで、人物の実際の身長を容易に推定することができる。しかしながら、入力画像内の人物の姿勢は、必ずしも直立した姿勢であるとは限らない。従来、入力画像内の人物が直立した姿勢ではなく、例えば動作中の姿勢等である場合には、実際の高さが既知である物体が人物とともに撮像されていたとしても、入力画像から人物の実際の身長を推定することは容易ではないという課題があった。 When an input image is an image of a person standing upright and an object, if the actual size (height) of the object is known, the actual height of the person can be easily estimated by comparing the height of the person in the input image with the height of the object in the input image. However, the posture of the person in the input image is not necessarily an upright posture. Conventionally, when a person in the input image is not standing upright but is, for example, in a posture in motion, there was a problem that it was not easy to estimate the actual height of the person from the input image even if an object whose actual height was known was captured together with the person.

上記事情に鑑み、本発明は、入力画像内の人物が直立した姿勢ではない場合であっても、入力画像から人物の身長をより精度よく推定することができる身長推定方法、身長推定装置及びプログラムを提供することを目的とする。In view of the above circumstances, the present invention aims to provide a height estimation method, height estimation device, and program that can more accurately estimate a person's height from an input image, even if the person in the input image is not standing upright.

本発明の一態様は、人物と物体とが撮像された画像を取得する画像取得ステップと、前記画像内における前記人物の骨格の位置を抽出する骨格抽出ステップと、前記骨格の各部位の位置関係に基づいて前記人物の姿勢のパターンを判定する判定ステップと、前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定ステップと、を有する身長推定方法である。One aspect of the present invention is a height estimation method having an image acquisition step of acquiring an image of a person and an object, a skeleton extraction step of extracting the position of the person's skeleton in the image, a determination step of determining a posture pattern of the person based on the positional relationship of each part of the skeleton, and an estimation step of estimating the actual height of the person based on a correction value obtained by curve approximation or linear approximation that is used depending on the characteristics of the bending of the skeleton corresponding to the pattern, and the height of the person in the image.

本発明の一態様は、人物と物体とが撮像された画像を取得する画像取得部と、前記画像内における前記人物の骨格の位置を抽出する骨格抽出部と、前記骨格の各部位の位置関係に基づいて前記人物の姿勢のパターンを判定する判定部と、前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定部と、を備える身長推定装置である。One aspect of the present invention is a height estimation device that includes an image acquisition unit that acquires an image of a person and an object, a skeleton extraction unit that extracts the position of the person's skeleton in the image, a determination unit that determines a posture pattern of the person based on the positional relationship of each part of the skeleton, and an estimation unit that estimates the actual height of the person based on a correction value obtained by curve approximation or linear approximation that is used depending on the characteristics of the bending of the skeleton corresponding to the pattern, and the height of the person in the image.

本発明の一態様は、上記の身長推定方法をコンピュータに実行させるためのプログラムである。 One aspect of the present invention is a program for causing a computer to execute the above height estimation method.

本発明により、入力画像内の人物が直立した姿勢ではない場合であっても、入力画像から人物の身長をより精度よく推定することができる。 The present invention makes it possible to more accurately estimate a person's height from an input image, even if the person in the input image is not standing upright.

本発明の実施形態における身長推定装置1の機能構成を示すブロック図である。1 is a block diagram showing a functional configuration of a height estimation device 1 according to an embodiment of the present invention. 人物の姿勢の違いに伴う人物枠のY軸幅の違いを説明するための図である。11A and 11B are diagrams for explaining differences in the Y-axis width of a person frame due to differences in a person's posture. パターン2の場合における推定身長値の補正について説明するための図である。FIG. 13 is a diagram for explaining correction of an estimated height value in the case of pattern 2. パターン3の場合における推定身長値の補正について説明するための図である。FIG. 13 is a diagram for explaining correction of an estimated height value in the case of pattern 3. パターン4の場合における推定身長値の補正について説明するための図である。FIG. 13 is a diagram for explaining correction of an estimated height value in the case of pattern 4. 本発明の実施形態における状態判定部14の動作を示すフローチャートである。5 is a flowchart showing an operation of a state determination unit 14 according to the embodiment of the present invention. 判定条件の内容と、判定条件が満たされた場合に特定されるパターンとの一例を示す図である。11A and 11B are diagrams illustrating an example of the contents of a determination condition and a pattern that is identified when the determination condition is satisfied. 本発明の実施形態における補正部15の動作を示すフローチャートである。4 is a flowchart showing an operation of a correction unit 15 in the embodiment of the present invention. パターンごとの補正部15による補正処理の一例を示す図である。11A and 11B are diagrams illustrating an example of a correction process performed by the correction unit 15 for each pattern. 本発明の実施形態における身長算出部18の動作を示すフローチャートである。5 is a flowchart showing an operation of a height calculation unit 18 according to the embodiment of the present invention. パターンごとの身長算出部18による推定身長値の算出処理の一例を示す図である。11 is a diagram showing an example of a calculation process of an estimated height value by the height calculation unit 18 for each pattern. FIG. 本発明の実施形態における物体照合部17の動作を示すフローチャートである。5 is a flowchart showing an operation of an object matching unit 17 in the embodiment of the present invention. 本発明の実施形態における物体データ110の構成の一例を示す図である。FIG. 2 is a diagram showing an example of a configuration of object data 110 according to the embodiment of the present invention. 人物及び物体が撮像された入力画像の一例を示す図である。FIG. 2 is a diagram showing an example of an input image in which a person and an object are captured. 入力画像から抽出される人物の骨格の位置座標、人物及び物体の外接矩形の位置座標の一例を示す図である。11A and 11B are diagrams illustrating an example of the position coordinates of a skeleton of a person extracted from an input image and the position coordinates of circumscribing rectangles of a person and an object.

(実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
(Embodiment)
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

以下の説明において、入力画像内の人物の外接矩形を「人物枠」といい、入力画像内の物体の外接矩形を「物体枠」という。外接矩形とは、入力画像内の人物や物体の輪郭に外接する矩形である。In the following explanation, the circumscribing rectangle of a person in the input image is referred to as the "person frame," and the circumscribing rectangle of an object in the input image is referred to as the "object frame." A circumscribing rectangle is a rectangle that circumscribs the outline of a person or object in the input image.

[身長推定装置の構成]
以下、実施形態の身長推定装置1の構成について説明する。図1は、本発明の実施形態における身長推定装置1の機能構成を示すブロック図である。
[Configuration of Height Estimation Device]
The following describes the configuration of the height estimation device 1 according to the embodiment of the present invention. Fig. 1 is a block diagram showing the functional configuration of the height estimation device 1 according to the embodiment of the present invention.

身長推定装置1は、例えば汎用コンピュータ等の情報処理装置である。図1に示されるように、身長推定装置1は、制御部10と、記憶部11と、画像入力部12と、骨格抽出部13と、状態判定部14と、補正部15と、人物・物体抽出部16と、物体照合部17と、身長算出部18と、出力部19とを含んで構成される。The height estimation device 1 is an information processing device such as a general-purpose computer. As shown in FIG. 1, the height estimation device 1 includes a control unit 10, a memory unit 11, an image input unit 12, a skeleton extraction unit 13, a state determination unit 14, a correction unit 15, a person/object extraction unit 16, an object matching unit 17, a height calculation unit 18, and an output unit 19.

制御部10は、例えばCPU(Central Processing Unit)等のプロセッサを含んで構成される。記憶部11は、例えば、RAM(Random Access Memory)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、及びHDD(Hard Disk Drive)等の記憶媒体、又はこれらの記憶媒体の任意の組み合わせを含んで構成される。The control unit 10 is configured to include a processor such as a CPU (Central Processing Unit). The storage unit 11 is configured to include a storage medium such as a RAM (Random Access Memory), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), and a HDD (Hard Disk Drive), or any combination of these storage media.

制御部10は、例えば記憶部11等の記憶媒体に記録されたコンピュータプログラムを読み出して実行することにより、前述の各機能部を有する装置として身長推定装置1を機能させる。制御部10は、前述の各機能部の動作を制御する。The control unit 10 reads and executes a computer program recorded in a storage medium such as the storage unit 11, thereby causing the height estimation device 1 to function as a device having each of the functional units described above. The control unit 10 controls the operation of each of the functional units described above.

記憶部11は、物体データ110を予め記憶している。物体データ110の詳細については後述される。The memory unit 11 pre-stores object data 110. Details of the object data 110 will be described later.

画像入力部12は、外部の装置又は記憶媒体から、入力画像の入力を受け付ける入力インターフェースである。画像入力部12に入力される入力画像は、人物と当該人物の近傍に存在する物体とが撮像された画像である。画像入力部12は、入力画像を、骨格抽出部13及び人物・物体抽出部16へ出力する。The image input unit 12 is an input interface that accepts input of an input image from an external device or storage medium. The input image input to the image input unit 12 is an image of a person and an object existing in the vicinity of the person. The image input unit 12 outputs the input image to the skeleton extraction unit 13 and the person/object extraction unit 16.

骨格抽出部13は、画像入力部12から出力された入力画像を取得する。骨格抽出部13は、画像解析により、入力画像に写っている人物の骨格の画像領域を抽出し、各骨格の入力画像内における位置を特定する。なお、ここで用いられる画像解析手法として、非特許文献1に記載の手法を用いることができる。骨格抽出部13は、骨格の種類を示す情報(以下、「骨格情報」という。)、及び、入力画像内における各骨格のXY座標を示す情報を状態判定部14へ出力する。The skeleton extraction unit 13 acquires the input image output from the image input unit 12. The skeleton extraction unit 13 extracts the image area of the skeleton of the person appearing in the input image by image analysis, and identifies the position of each skeleton in the input image. Note that the image analysis method used here may be the method described in Non-Patent Document 1. The skeleton extraction unit 13 outputs information indicating the type of skeleton (hereinafter referred to as "skeleton information") and information indicating the XY coordinates of each skeleton in the input image to the state determination unit 14.

なお、ここでは、目や耳等も含めた人体の部位全般を総称して「骨格」と呼んでいる。本実施形態では、抽出対象の骨格の一例として、両目、両耳、鼻、両肩、両腰、両膝、及び両足首を挙げて説明する。Note that, here, all parts of the human body, including the eyes and ears, are collectively referred to as "skeleton." In this embodiment, the following will be described as examples of skeletons to be extracted: both eyes, both ears, nose, both shoulders, both hips, both knees, and both ankles.

状態判定部14は、骨格抽出部13から出力された、骨格情報及び各骨格のXY座標を示す情報を取得する。状態判定部14は、骨格情報及び各骨格のXY座標と、予め定められた閾値とに基づいて、入力画像内の人物の姿勢が該当しているパターンを特定する。上記の閾値の詳細については後述される。状態判定部14は、特定されたパターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを、補正部15へ出力する。The state determination unit 14 acquires the skeletal information and information indicating the XY coordinates of each skeleton output from the skeleton extraction unit 13. The state determination unit 14 identifies a pattern to which the posture of the person in the input image corresponds based on the skeletal information, the XY coordinates of each skeleton, and a predetermined threshold value. Details of the threshold value will be described later. The state determination unit 14 outputs information indicating the identified pattern and information indicating the skeletal information and the XY coordinates of each skeleton to the correction unit 15.

本実施形態では、状態判定部14は、予め定められたパターン1からパターン5までの5つのパターンの中から、入力画像内の人物の姿勢が該当しているパターンを特定する。パターン1は人物が直立している姿勢であり、パターン2は人物が両足を左右に広げている姿勢であり、パターン3は人物が両足を前後に広げている姿勢であり、パターン4は人物が体を横方向に曲げた姿勢であり、パターン5は上記のパターン1からパターン4までのいずれにも該当しない姿勢である。In this embodiment, the state determination unit 14 identifies a pattern that corresponds to the posture of the person in the input image from among five predetermined patterns, Pattern 1 to Pattern 5. Pattern 1 is a posture in which the person stands upright, Pattern 2 is a posture in which the person spreads both legs to the left and right, Pattern 3 is a posture in which the person spreads both legs forward and backward, Pattern 4 is a posture in which the person bends sideways, and Pattern 5 is a posture that does not correspond to any of Patterns 1 to 4 above.

補正部15は、状態判定部14から出力された、パターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを取得する。補正部15は、各骨格のXY座標から算出される骨格間の長さと、パターンと、パターンごとに予め定められた補正式とに基づいて、骨格間の長さの値を補正する。以下、補正された骨格間の長さの値を「補正値」という。補正部15は、補正値と、パターンを示す情報とを、身長算出部18へ出力する。なお、補正式の詳細については後述される。The correction unit 15 acquires information indicating the pattern, skeletal information, and information indicating the XY coordinates of each skeleton output from the state determination unit 14. The correction unit 15 corrects the value of the length between skeletons based on the length between skeletons calculated from the XY coordinates of each skeleton, the pattern, and a correction formula predetermined for each pattern. Hereinafter, the corrected value of the length between skeletons is referred to as the "correction value." The correction unit 15 outputs the correction value and information indicating the pattern to the height calculation unit 18. Details of the correction formula will be described later.

人物・物体抽出部16は、画像入力部12から出力された入力画像を取得する。骨格抽出部13は、画像解析により、入力画像内の人物及び物体が写っている画像領域を検出し、検出された人物及び物体の外接矩形を特定する。骨格抽出部13は、特定された外接矩形から、人物枠のXY座標と、物体枠のXY座標とを特定する。なお、ここで用いられる画像解析手法として、非特許文献2に記載の手法を用いることができる。The person/object extraction unit 16 acquires the input image output from the image input unit 12. The skeleton extraction unit 13 detects image areas in which people and objects appear in the input image by image analysis, and identifies circumscribing rectangles of the detected people and objects. The skeleton extraction unit 13 identifies the XY coordinates of the person frame and the XY coordinates of the object frame from the identified circumscribing rectangle. Note that the image analysis method used here may be the method described in Non-Patent Document 2.

また、人物・物体抽出部16は、検出された物体の画像から、当該物体の名称(以下、「物体名称」という。)を特定する。なお、人物・物体抽出部16は、例えば、検出された物体の画像と、予め物体名称が対応付けられた物体のサンプル画像とに対してパターンマッチングを行うことで、検出された物体の物体名称を特定する。人物・物体抽出部16は、物体名称を示す情報と、物体枠のXY座標と、人物枠のXY座標とを、物体照合部17へ出力する。Furthermore, the person/object extraction unit 16 identifies the name of the detected object (hereinafter referred to as the "object name") from the image of the object. Note that the person/object extraction unit 16 identifies the object name of the detected object, for example, by performing pattern matching between the image of the detected object and a sample image of the object to which an object name has been previously associated. The person/object extraction unit 16 outputs information indicating the object name, the XY coordinates of the object frame, and the XY coordinates of the person frame to the object matching unit 17.

物体照合部17は、人物・物体抽出部16から出力された物体名称を示す情報と、物体枠のXY座標と、人物枠のXY座標とを取得する。物体照合部17は、記憶部11が予め記憶している物体データ110を参照する。物体データ110は、物体名称と、物体の大きさ(高さ)の値が対応付けられたデータの集合である。The object matching unit 17 acquires information indicating the object name output from the person/object extraction unit 16, the XY coordinates of the object frame, and the XY coordinates of the person frame. The object matching unit 17 refers to object data 110 pre-stored in the memory unit 11. The object data 110 is a collection of data in which the object name is associated with the value of the object's size (height).

物体照合部17は、取得された情報に基づく物体名称と一致する物体名称を物体データ110の中から検出し、検出された物体名称に対応付けられた高さの値(以下、「高さ情報」という。)を取得する。物体照合部17は、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを、身長算出部18へ出力する。The object matching unit 17 detects an object name that matches an object name based on the acquired information from the object data 110, and acquires a height value (hereinafter referred to as "height information") associated with the detected object name. The object matching unit 17 outputs the XY coordinates of the object frame, the height information, and the XY coordinates of the person frame to the height calculation unit 18.

身長算出部18は、補正部15から出力された、補正値と、パターンを示す情報とを取得する。また、身長算出部18は、物体照合部17から出力された、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを取得する。身長算出部18は、パターンと、高さ情報と、物体枠のY軸幅と、人物枠のY軸幅と、補正値と、予め定められた推定身長の算出式とに基づいて、入力画像内の人物の推定身長値を算出する。なお、推定身長の算出式の詳細については後述される。The height calculation unit 18 acquires the correction value and information indicating the pattern output from the correction unit 15. The height calculation unit 18 also acquires the XY coordinates of the object frame, height information, and XY coordinates of the person frame output from the object matching unit 17. The height calculation unit 18 calculates an estimated height value of the person in the input image based on the pattern, the height information, the Y-axis width of the object frame, the Y-axis width of the person frame, the correction value, and a predetermined calculation formula for the estimated height. Details of the calculation formula for the estimated height will be described later.

身長算出部18は、推定結果を示す情報を出力部19へ出力する。すなわち、身長算出部18は、算出された推定身長値を示す情報を出力部19へ出力する。なお、身長算出部18は、推定身長値を算出することができなかった場合には、出力部19への情報出力を行わない。または、身長算出部18は、推定身長値を算出することができなかった場合には、推定不可能であることを示す情報を出力部19へ出力するようにしてもよい。The height calculation unit 18 outputs information indicating the estimation result to the output unit 19. That is, the height calculation unit 18 outputs information indicating the calculated estimated height value to the output unit 19. Note that, if the height calculation unit 18 is unable to calculate the estimated height value, it does not output information to the output unit 19. Alternatively, if the height calculation unit 18 is unable to calculate the estimated height value, it may output information indicating that estimation is impossible to the output unit 19.

出力部19は、身長算出部18から出力された、推定結果を示す情報を取得する。出力部19は、推定結果を示す情報を外部の装置へ出力する。出力部19は、推定結果を示す情報を出力する出力インターフェースである。なお、出力部19は、例えばLCD(Liquid Crystal Display)又は有機EL(Electro-Luminescence)ディスプレイ等の表示装置であってもよい。この場合、出力部19は、推定結果を示す情報を表示する。The output unit 19 acquires information indicating the estimation result output from the height calculation unit 18. The output unit 19 outputs the information indicating the estimation result to an external device. The output unit 19 is an output interface that outputs the information indicating the estimation result. Note that the output unit 19 may be a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display. In this case, the output unit 19 displays the information indicating the estimation result.

以下、本実施形態の身長推定装置1による身長推定方法について、具体例を挙げて説明する。 Below, we will explain the height estimation method using the height estimation device 1 of this embodiment using a specific example.

図2は、人物の姿勢の違いに伴う人物枠のY軸幅の違いを説明するための図である。図2には、4種類の人物枠内の領域の画域が示されている。4つの画像は、それぞれ入力画像から切り出された画像である。 Figure 2 is a diagram to explain the difference in the Y-axis width of the person frame due to the difference in the person's posture. Figure 2 shows the image areas within four types of person frames. Each of the four images is an image cut out from the input image.

画像A10は、人物が直立している姿勢である場合、すなわち、前述のパターン1である場合の画像である。画像A20は、人物が両足を左右に広げている姿勢である場合、すなわち、前述のパターン2である場合の画像である。画像A30は、人物が両足を前後に広げている姿勢である場合、すなわち、前述のパターン3である場合の画像である。画像A40は、人物が体を横方向に曲げた姿勢である場合、すなわち、前述のパターン4である場合の画像である。 Image A10 is an image of a person standing upright, i.e., the aforementioned pattern 1. Image A20 is an image of a person with their legs spread apart, i.e., the aforementioned pattern 2. Image A30 is an image of a person with their legs spread apart, i.e., the aforementioned pattern 3. Image A40 is an image of a person with their body bent sideways, i.e., the aforementioned pattern 4.

画像A10に示されるように、人物が直立している姿勢である場合には、両目、両耳、両肩、両腰、両足首の位置が水平である。なお、ここでいう、「水平である」とは、両部位を結ぶ線の傾きが所定の範囲内であることを意味する。As shown in image A10, when a person is standing upright, the positions of the eyes, ears, shoulders, hips, and ankles are horizontal. Note that "horizontal" here means that the inclination of the line connecting these two parts is within a specified range.

画像A20に示されるように、人物が両足を左右に広げている姿勢である場合には、画像A10と比べて人物枠のY軸幅がより短くなる。すなわち、人物が両足を左右に広げている姿勢である場合には、人物が直立している姿勢である場合に比べて、身長がより低く算出される誤差が生じうると考えられる。As shown in image A20, when a person has their legs spread apart, the Y-axis width of the person frame is shorter than in image A10. In other words, when a person has their legs spread apart, it is thought that an error may occur in which the height is calculated to be lower than when the person is standing upright.

画像A30に示されるように、人物が両足を前後に広げている姿勢である場合には、画像A10と比べて人物枠のY軸幅がより少し短くなる。すなわち、人物が両足を前後に広げている姿勢である場合には、人物が直立している姿勢である場合に比べて、身長がより少し低く算出される誤差が生じうると考えられる。As shown in image A30, when a person has their legs spread apart, the Y-axis width of the person frame is slightly shorter than in image A10. In other words, when a person has their legs spread apart, it is thought that an error may occur in which the height is calculated to be slightly lower than when the person is standing upright.

画像A40に示されるように、人物が体を横方向に曲げた姿勢である場合には、画像A10と比べて人物枠のY軸幅がより短くなる。すなわち、人物が体を横方向に曲げた姿勢である場合には、人物が直立している姿勢である場合に比べて、身長がより低く算出される誤差が生じうると考えられる。As shown in image A40, when a person is bent sideways, the Y-axis width of the person frame is shorter than in image A10. In other words, when a person is bent sideways, it is thought that an error may occur in which the height is calculated to be lower than when the person is standing upright.

本実施形態における身長推定装置1は、上記のような推定身長値の誤差を、補正部15によって補正する。以下、パターンごとに、身長推定装置1による推定身長値の補正について具体例を挙げて説明する。なお、人物が直立している姿勢である場合、すなわち、前述のパターン1である場合には、推定身長値の補正は不要である。In this embodiment, the height estimation device 1 corrects the error in the estimated height value as described above using the correction unit 15. Below, specific examples of the correction of the estimated height value by the height estimation device 1 will be explained for each pattern. Note that if the person is standing upright, that is, in the case of the above-mentioned pattern 1, correction of the estimated height value is not necessary.

図3は、パターン2の場合における推定身長値の補正について説明するための図である。図3に示される画像A20は、図2に示される画像A20と同一の画像である。画像A20に示されるように、人物が両足を左右に広げている姿勢である場合には、両目、両耳、両肩、両腰、両足首の位置が水平である。 Figure 3 is a diagram for explaining the correction of the estimated height value in the case of pattern 2. Image A20 shown in Figure 3 is the same image as image A20 shown in Figure 2. As shown in image A20, when a person is in a posture with both legs spread apart, the positions of both eyes, both ears, both shoulders, both hips, and both ankles are horizontal.

入力画像内の人物の姿勢がパターン2であると状態判定部14によって特定された場合、補正部15は、画像A20内の人物の右足及び左足の長さを比較する。すなわち、補正部15は、右腰のXY座標と右足首のXY座標との間のユークリッド距離を求めることで右足の長さを算出し、左腰のXY座標と左足首のXY座標との間のユークリッド距離を求めることで左足の長さを算出して、両者の長さを比較する。When the state determination unit 14 identifies the posture of the person in the input image as pattern 2, the correction unit 15 compares the lengths of the right and left legs of the person in image A20. That is, the correction unit 15 calculates the length of the right leg by obtaining the Euclidean distance between the XY coordinates of the right hip and the XY coordinates of the right ankle, calculates the length of the left leg by obtaining the Euclidean distance between the XY coordinates of the left hip and the XY coordinates of the left ankle, and compares the two lengths.

補正部15は、上記の比較により、長い方の足の長さを特定する。図3の画像A21では、入力画像内の人物の場合、右足の方が左足より長かったことが破線で表されている。但し、パターン2は、人物が両足を左右に広げている姿勢である場合であるため、実際には、入力画像内の人物の両足の長さはほぼ同等である場合が多いと考えられる。Through the above comparison, the correction unit 15 determines the length of the longer leg. In image A21 of Figure 3, the dashed line indicates that the right leg is longer than the left leg for the person in the input image. However, because pattern 2 is a case in which the person has their legs spread apart, it is likely that in reality the lengths of both legs of the person in the input image are roughly equal in many cases.

補正部15は、画像A21において破線で表されるように傾いた右足を、画像A22のように垂直にする(すなわち、人物枠のY軸と平行にする)ように補正することで、推定身長値を補正する。The correction unit 15 corrects the estimated height value by correcting the right foot, which is tilted as represented by the dashed line in image A21, to be vertical (i.e., parallel to the Y axis of the person frame) as in image A22.

図4は、パターン3の場合における推定身長値の補正について説明するための図である。図4に示される画像A30は、図2に示される画像A30と同一の画像である。画像A30に示されるように、人物が両足を前後に広げている姿勢である場合には、両目、両耳、両肩、両腰の位置が水平である。また、画像A30に示されるように、人物が両足を前後に広げている姿勢である場合には、前足(画像A30における右足)のほうが後ろ足(画像A30における左足)より長いため、両足首は水平ではない。 Figure 4 is a diagram for explaining the correction of the estimated height value in the case of pattern 3. Image A30 shown in Figure 4 is the same image as image A30 shown in Figure 2. As shown in image A30, when a person has their legs spread apart, the eyes, ears, shoulders, and hips are positioned horizontally. Also, as shown in image A30, when a person has their legs spread apart, the front leg (the right leg in image A30) is longer than the back leg (the left leg in image A30), so the ankles are not horizontal.

入力画像内の人物の姿勢がパターン3であると状態判定部14によって特定された場合、補正部15は、画像A30内の人物の右足及び左足の長さを比較する。すなわち、補正部15は、右腰のXY座標と右足首のXY座標との間のユークリッド距離を求めることで右足の長さを算出し、左腰のXY座標と左足首のXY座標との間のユークリッド距離を求めることで左足の長さを算出して、両者の長さを比較する。When the state determination unit 14 identifies the posture of the person in the input image as pattern 3, the correction unit 15 compares the lengths of the right and left legs of the person in image A30. That is, the correction unit 15 calculates the length of the right leg by obtaining the Euclidean distance between the XY coordinates of the right hip and the XY coordinates of the right ankle, calculates the length of the left leg by obtaining the Euclidean distance between the XY coordinates of the left hip and the XY coordinates of the left ankle, and compares the two lengths.

補正部15は、上記の比較により、長い方の足の長さを特定する。図4の画像A31では、入力画像内の人物の場合、右足の方が左足より長かったことが破線で表されている。The correction unit 15 uses the above comparison to determine the length of the longer leg. In image A31 of Figure 4, the dashed line indicates that the right leg of the person in the input image is longer than the left leg.

補正部15は、画像A31において破線で表されるように長いほうの右足の長さを、画像A32のように左足にも適用するように補正することで、推定身長値を補正する。なお、本実施形態では、長い方の足の長さを身長の推定に用いる構成であるものとしたが、これに限られるものではなく、両足の長さの平均値を身長の推定に用いる構成であってもよい。The correction unit 15 corrects the estimated height by applying the length of the longer right leg as shown by the dashed line in image A31 to the left leg as shown in image A32. Note that in this embodiment, the length of the longer leg is used to estimate height, but this is not limited to this, and the average value of the lengths of both legs may be used to estimate height.

図5は、パターン4の場合における推定身長値の補正について説明するための図である。図5に示される画像A40は、図2に示される画像A40と同一の画像である。画像A40に示されるように、人物が体を横方向に曲げた姿勢である場合には、両目、両耳、両肩、両腰の位置は水平ではない。また、画像A40に示されるように、人物が体を横方向に曲げた姿勢である場合には、両足首の位置が水平である。 Figure 5 is a diagram for explaining the correction of the estimated height value in the case of pattern 4. Image A40 shown in Figure 5 is the same image as image A40 shown in Figure 2. As shown in image A40, when a person is bending their body sideways, the positions of the eyes, ears, shoulders, and hips are not horizontal. Also, as shown in image A40, when a person is bending their body sideways, the positions of the ankles are horizontal.

入力画像内の人物の姿勢がパターン4であると状態判定部14によって特定された場合、補正部15は、画像A40内の人物の右足及び左足の長さを比較する。すなわち、補正部15は、鼻の位置から首下の位置(すなわち、両肩間の中央の位置)を経由して両腰間の中心の位置までの長さを、二次曲線近似を用いて特定する。When the state determination unit 14 identifies the posture of the person in the input image as pattern 4, the correction unit 15 compares the lengths of the right leg and the left leg of the person in image A40. That is, the correction unit 15 identifies the length from the position of the nose to the position of the center between the waist, passing through the position below the neck (i.e., the center position between the shoulders), using a quadratic curve approximation.

なお、本実施形態では二次曲線近似が用いられる構成について説明するが、この構成に限られるものではない。例えば三次曲線近似等の、他の近似方法が用いられてもよい。In this embodiment, a configuration in which quadratic curve approximation is used is described, but the present invention is not limited to this configuration. For example, other approximation methods, such as cubic curve approximation, may be used.

補正部15は、画像A41において点線の曲線で表される二次曲線を、長さを変えずに、画像A42において点線で表される垂直の(すなわち、人物枠のY軸と平行の)直線となるように補正することで、推定身長値を補正する。The correction unit 15 corrects the estimated height value by correcting the quadratic curve represented by the dotted curve in image A41 to become a vertical straight line (i.e., parallel to the Y axis of the person frame) represented by the dotted line in image A42 without changing the length.

また、補正部15は、右腰のXY座標と右足首のXY座標との間のユークリッド距離を求めることで右足の長さを算出し、左腰のXY座標と左足首のXY座標との間のユークリッド距離を求めることで左足の長さを算出して、両者の長さを比較する。補正部15は、上記の比較により、長い方の足の長さを特定する。図5の画像A41では、入力画像内の人物の場合、左足の方が右足より長かったことが破線で表されている。In addition, the correction unit 15 calculates the length of the right leg by calculating the Euclidean distance between the XY coordinates of the right hip and the XY coordinates of the right ankle, and calculates the length of the left leg by calculating the Euclidean distance between the XY coordinates of the left hip and the XY coordinates of the left ankle, and compares the lengths of the two. The correction unit 15 identifies the length of the longer leg through the above comparison. In image A41 in Figure 5, the dashed line indicates that the left leg is longer than the right leg for the person in the input image.

補正部15は、画像A41において破線で表されるように長いほうの左足の長さを、画像A32のように左足にも適用するように補正することで、推定身長値を補正する。The correction unit 15 corrects the estimated height value by correcting the length of the longer left leg, as represented by the dashed line in image A41, so that it also applies to the left leg, as shown in image A32.

[状態判定処理]
以下、状態判定部14による条件判定処理について説明する。本実施形態では、状態判定部14は、以下に示す6つの閾値と6つの係数とを定義し、これらの閾値と係数とに基づく6つの大小判定によって、入力画像内の人物の姿勢の条件判定を行う。各閾値及び各係数の値は、各骨格間の長さに基づいてそれぞれ算出される。
[Status Determination Process]
The condition determination process by the state determination unit 14 will be described below. In this embodiment, the state determination unit 14 defines the following six thresholds and six coefficients, and performs condition determination of the posture of the person in the input image by six magnitude determinations based on these thresholds and coefficients. The values of each threshold and each coefficient are calculated based on the length between each skeleton.

閾値A1~A6は、以下のように定義される。閾値A1~A6は、下記の通り、入力画像内における骨格の各部位の位置関係を判定するために用いられる数値である。The thresholds A1 to A6 are defined as follows: The thresholds A1 to A6 are numerical values used to determine the positional relationship of each part of the skeleton in the input image, as follows:

閾値A1:両目の間(又は両耳の間)の傾きの値。
閾値A2:両肩の間の傾きの値。
閾値A3:両腰の間の傾きの値。
閾値A4:両足首の間の傾きの値。
閾値A5:鼻から両足首の間の中心までの長さを、両足首の間の長さで除算した値。
閾値A6:(右腰と右膝との間の長さと、右膝と右足首との間の長さとの合計)と、(左腰と左膝との間の長さと、左膝と左足首との間の長さとの合計)との差となる値を、(右腰と右膝との間の長さと、右膝と右足首との間の長さとの合計)と(左腰と左膝との間の長さと、左膝と左足首との間の長さとの合計)との和となる値によって除算した値。
Threshold A1: The value of the inclination between the eyes (or between the ears).
Threshold A2: The value of the slope between the shoulders.
Threshold A3: The value of the inclination between both hips.
Threshold A4: The value of the inclination between the ankles.
Threshold A5: The length from the nose to the center between the ankles divided by the length between the ankles.
Threshold A6: A value obtained by dividing the difference between (the sum of the length between the right hip and right knee and the length between the right knee and right ankle) and (the sum of the length between the left hip and left knee and the length between the left knee and left ankle) by the sum of (the sum of the length between the right hip and right knee and the length between the right knee and right ankle) and (the sum of the length between the left hip and left knee and the length between the left knee and left ankle).

係数K1~K6は、以下のように定義される。係数K1~K6は、上記の閾値A1~A6とそれぞれ大小比較するために用いられる、入力画像内での人物の骨格の各部位間の長さに基づく数値である。The coefficients K1 to K6 are defined as follows: The coefficients K1 to K6 are numerical values based on the length between each part of the human skeleton in the input image, and are used to compare the magnitude with the above thresholds A1 to A6, respectively.

係数K1={(右目Y軸値-左目Y軸値)/(右目X軸値-左目X軸値)+(右耳Y軸値-左耳Y軸値)/(右耳X軸値-左耳X軸値)}/2
係数K2=(右肩Y軸値-左肩Y軸値)/(右肩X軸値-左肩X軸値)
係数K3=(右腰Y軸値-左腰Y軸値)/(右腰X軸値-左腰X軸値)
係数K4=(右足首Y軸値-左足首Y軸値)/(右足首X軸値-左足首X軸値)
Coefficient K1={(right eye Y-axis value−left eye Y-axis value)/(right eye X-axis value−left eye X-axis value)+(right ear Y-axis value−left ear Y-axis value)/(right ear X-axis value−left ear X-axis value)}/2
Coefficient K2 = (Right shoulder Y-axis value - Left shoulder Y-axis value) / (Right shoulder X-axis value - Left shoulder X-axis value)
Coefficient K3 = (right hip Y-axis value - left hip Y-axis value) / (right hip X-axis value - left hip X-axis value)
Coefficient K4 = (Y-axis value of right ankle - Y-axis value of left ankle) / (X-axis value of right ankle - X-axis value of left ankle)

係数K5=(両足首の間の長さ)/(鼻から両足首の中心までの長さ)
ここで、両足首の間の長さの値、及び、鼻から両足首の中心までの長さの値は、それぞれ以下のように算出される。
(両足首の長さ)=√{(右足首Y軸値-左足首Y軸値)+(右足首X軸値-左足首X軸値)
(鼻から両足首中心までの長さ)=√[{鼻Y軸値-(右足首Y軸値+左足首Y軸値)/2}+{鼻X軸値-(右足首X軸値+左足首X軸値)/2}
Coefficient K5 = (length between both ankles) / (length from nose to center of both ankles)
Here, the value of the length between the ankles and the value of the length from the nose to the center of the ankles are calculated as follows.
(Length of both ankles) = √{(Y-axis value of right ankle - Y-axis value of left ankle) 2 + (X-axis value of right ankle - X-axis value of left ankle) 2 }
(Length from nose to center of both ankles) = √[{Y-axis value of nose - (Y-axis value of right ankle + Y-axis value of left ankle) / 2} 2 + {X-axis value of nose - (X-axis value of right ankle + X-axis value of left ankle) / 2} 2 ]

係数K6={(右腰から右膝までの長さと、右膝から右足首までの長さとの合計)-(左腰から左膝までの長さと、左膝から左足首までの長さとの合計)}/{(右腰から右膝までの長さと、右膝から右足首までの長さの合計)+(左腰から左膝までの長さと、左膝から左足首までの長さの合計)}
ここで、右腰から右膝までの長さ、右膝から右足首までの長さ、左腰から左膝までの長さ、及び、左膝から左足首までの長さの値は、それぞれ以下のように算出される。
右腰から右膝までの長さ=√{(右腰Y軸値-右膝Y軸値)+(右腰X軸値-右膝X軸値)
右膝から右足首までの長さ=√{(右膝Y軸値-右足首Y軸値)+(右膝X軸値-右足首X軸値)
左腰から左膝までの長さ=√{(左腰Y軸値-左膝Y軸値)+(左腰X軸値-左膝X軸値)
左膝から左足首までの長さ=√{(左膝Y軸値-左足首Y軸値)+(左膝X軸値-左足首X軸値)
Coefficient K6 = {(Total of the length from the right hip to the right knee and the length from the right knee to the right ankle) - (Total of the length from the left hip to the left knee and the length from the left knee to the left ankle)} / {(Total of the length from the right hip to the right knee and the length from the right knee to the right ankle) + (Total of the length from the left hip to the left knee and the length from the left knee to the left ankle)}
Here, the values of the length from the right hip to the right knee, the length from the right knee to the right ankle, the length from the left hip to the left knee, and the length from the left knee to the left ankle are calculated as follows.
Length from right hip to right knee = √{(right hip Y-axis value - right knee Y-axis value) 2 + (right hip X-axis value - right knee X-axis value) 2 }
Length from right knee to right ankle = √{(Y-axis value of right knee - Y-axis value of right ankle) 2 + (X-axis value of right knee - X-axis value of right ankle) 2 }
Length from left hip to left knee = √{(left hip Y-axis value - left knee Y-axis value) 2 + (left hip X-axis value - left knee X-axis value) 2 }
Length from left knee to left ankle = √{(Y-axis value of left knee - Y-axis value of left ankle) 2 + (X-axis value of left knee - X-axis value of left ankle) 2 }

状態判定部14は、上記の定義に基づいて算出された、閾値A1~A6及び係数K1~K6を用いて以下の閾値判定を行う。下記の閾値判定1~6は、上記の閾値A1~A6と上記の係数K1~K6との大小比較によって、入力画像内の人物の姿勢のパターンを判定する判定式である。The state determination unit 14 performs the following threshold determination using the thresholds A1 to A6 and coefficients K1 to K6 calculated based on the above definitions. The following threshold determinations 1 to 6 are determination formulas that determine the posture pattern of a person in the input image by comparing the magnitude of the above thresholds A1 to A6 with the above coefficients K1 to K6.

閾値判定1:(係数K1の絶対値)≦閾値A1、であるか否か。
閾値判定2:(係数K2の絶対値)≦閾値A2、であるか否か。
閾値判定3:(係数K3の絶対値)≦閾値A3、であるか否か。
閾値判定4:(係数K4の絶対値)≦閾値A4、であるか否か。
閾値判定5:(係数K5の絶対値)≦閾値A5、であるか否か。
閾値判定6:(係数K6の絶対値)≦閾値A6、であるか否か。
Threshold decision 1: Whether or not (absolute value of coefficient K1)≦threshold A1.
Threshold decision 2: Whether or not (absolute value of coefficient K2)≦threshold A2.
Threshold decision 3: Whether or not (absolute value of coefficient K3)≦threshold A3.
Threshold decision 4: Whether (absolute value of coefficient K4)≦threshold A4 or not.
Threshold decision 5: Whether or not (absolute value of coefficient K5)≦threshold A5.
Threshold decision 6: Whether or not (the absolute value of coefficient K6) is less than or equal to threshold A6.

[状態判定部の動作]
本実施形態では、状態判定部14は、上記6つの閾値判定の結果と、4つの判定条件を用いて、入力画像内の人物の姿勢のパターンを判定する。以下に、状態判定部14によるパターンの判定処理について説明する。図6は、本発明の実施形態における状態判定部14の動作を示すフローチャートである。
[Operation of state determination unit]
In this embodiment, the state determination unit 14 determines the posture pattern of the person in the input image using the results of the six threshold determinations and the four determination conditions. The pattern determination process by the state determination unit 14 will be described below. Fig. 6 is a flowchart showing the operation of the state determination unit 14 in this embodiment of the present invention.

まず、状態判定部14は、骨格抽出部13から出力された、骨格情報及び各骨格のXY座標を示す情報を取得する(ステップS1401)。First, the state determination unit 14 acquires skeleton information and information indicating the XY coordinates of each skeleton output from the skeleton extraction unit 13 (step S1401).

次に、状態判定部14は、骨格情報及び各骨格のXY座標を示す情報を用いて、前述の閾値A1~A6及び係数K1~K6を算出する。状態判定部14は、算出された閾値A1~A6及び係数K1~K6の値を用いて、前述の閾値判定1~6を行う。Next, the state determination unit 14 calculates the aforementioned threshold values A1 to A6 and coefficients K1 to K6 using the skeleton information and information indicating the XY coordinates of each skeleton. The state determination unit 14 performs the aforementioned threshold determinations 1 to 6 using the calculated values of the threshold values A1 to A6 and coefficients K1 to K6.

状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件1を満たすか否かの判定を行う(ステップS1402)。ここで、判定条件1とは、閾値判定1~6を全て満たしているという条件である。判定条件1が満たされていると判定された場合(ステップS1402・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン1である(すなわち、人物が直立している姿勢である)と特定する(ステップS1403)。The state determination unit 14 determines whether or not determination condition 1 is satisfied based on the results of threshold determinations 1 to 6 (step S1402). Here, determination condition 1 refers to the condition that all threshold determinations 1 to 6 are satisfied. If it is determined that determination condition 1 is satisfied (step S1402: YES), the state determination unit 14 identifies the posture of the person in the input image as pattern 1 (i.e., the person is standing upright) (step S1403).

判定条件1が満たされていないと判定された場合(ステップS1402・NO)、状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件2を満たすか否かの判定を行う(ステップS1404)。ここで、判定条件2とは、閾値判定1~4及び6を満たしており、閾値判定5を満たしていないという条件である。判定条件2が満たされていると判定された場合(ステップS1404・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン2である(すなわち、人物が両足を左右に広げている姿勢である)と特定する(ステップS1405)。If it is determined that judgment condition 1 is not satisfied (step S1402, NO), the state judgment unit 14 judges whether or not judgment condition 2 is satisfied based on the judgment results of threshold judgments 1 to 6 (step S1404). Here, judgment condition 2 refers to a condition in which threshold judgments 1 to 4 and 6 are satisfied and threshold judgment 5 is not satisfied. If it is determined that judgment condition 2 is satisfied (step S1404, YES), the state judgment unit 14 identifies the posture of the person in the input image as pattern 2 (i.e., the posture in which the person has both legs spread apart) (step S1405).

判定条件2が満たされていないと判定された場合(ステップS1404・NO)、状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件3を満たすか否かの判定を行う(ステップS1406)。ここで、判定条件3とは、閾値判定1~3及び5を満たしており、閾値判定4及び6を満たしていないという条件である。判定条件3が満たされていると判定された場合(ステップS1406・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン3(すなわち、人物が両足を前後に広げている姿勢である)であると特定する(ステップS1407)。If it is determined that judgment condition 2 is not satisfied (step S1404, NO), the state judgment unit 14 judges whether or not judgment condition 3 is satisfied based on the judgment results of threshold judgments 1 to 6 (step S1406). Here, judgment condition 3 refers to a condition in which threshold judgments 1 to 3 and 5 are satisfied, and threshold judgments 4 and 6 are not satisfied. If it is determined that judgment condition 3 is satisfied (step S1406, YES), the state judgment unit 14 identifies the posture of the person in the input image as pattern 3 (i.e., a posture in which the person has both legs spread out in front and behind) (step S1407).

判定条件3が満たされていないと判定された場合(ステップS1406・NO)、状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件4を満たすか否かの判定を行う(ステップS1408)。ここで、判定条件4とは、閾値判定3~6を満たしており、閾値判定1~2を満たしていない。という条件である。判定条件4が満たされていると判定された場合(ステップS1408・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン4である(すなわち、人物が体を横方向に曲げた姿勢である)と特定する(ステップS1409)。If it is determined that judgment condition 3 is not satisfied (step S1406, NO), the state judgment unit 14 judges whether or not judgment condition 4 is satisfied based on the judgment results of threshold judgments 1 to 6 (step S1408). Here, judgment condition 4 refers to the following condition: threshold judgments 3 to 6 are satisfied, and threshold judgments 1 and 2 are not satisfied. If it is determined that judgment condition 4 is satisfied (step S1408, YES), the state judgment unit 14 identifies the posture of the person in the input image as pattern 4 (i.e., the posture of the person bending the body sideways) (step S1409).

判定条件4が満たされていないと判定された場合(ステップS1408・NO)、すなわち、判定条件1~4のいずれもが満たされていない場合、状態判定部14は、入力画像内の人物の姿勢がパターン5である(すなわち、パターン1からパターン4までのいずれにも該当せず、姿勢の判定が不可である)と特定する(ステップS1410)。If it is determined that judgment condition 4 is not satisfied (step S1408, NO), i.e., if none of judgment conditions 1 to 4 are satisfied, the state determination unit 14 determines that the posture of the person in the input image is pattern 5 (i.e., it does not fall into any of patterns 1 to 4, and the posture cannot be determined) (step S1410).

次に状態判定部14は、特定されたパターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを、補正部15へ出力する(ステップS1411)。以上で、図6に示される状態判定部14の動作が終了する。Next, the state determination unit 14 outputs information indicating the identified pattern, the skeleton information, and information indicating the XY coordinates of each skeleton to the correction unit 15 (step S1411). This completes the operation of the state determination unit 14 shown in FIG. 6.

図7は、上記の判定条件1~4のそれぞれの内容と、判定条件1~4が満たされた場合にそれぞれ特定されるパターンをまとめた図である。 Figure 7 summarizes the contents of each of the above judgment conditions 1 to 4 and the patterns that are identified when judgment conditions 1 to 4 are met.

[補正値の算出処理]
以下、補正部15による補正値の算出処理について説明する。本実施形態では、補正部15は、以下に示されるパターンごとの算出式を定義し、算出値B1~B2をそれぞれ算出する。補正部15は、算出値B1~B2を用いて、推定身長値の補正値である補正値B3を算出する。
[Correction Value Calculation Process]
The calculation process of the correction value by the correction unit 15 will be described below. In this embodiment, the correction unit 15 defines a calculation formula for each pattern shown below and calculates the calculation values B1 to B2. The correction unit 15 uses the calculation values B1 to B2 to calculate the correction value B3, which is the correction value of the estimated height value.

パターンごとの算出値B1~B2、及び補正値B3は、以下のように定義される。なお、補正部15は、パターン1及びパターン5である場合には補正処理を行わない。なぜならば、パターン1の場合、人物の姿勢が直立している状態であるため、推定身長値の補正を行う必要がないからである。また、パターン5の場合、人物の姿勢がパターン1~4のいずれにも当てはまらず、姿勢の特定が困難であるため、推定身長値の補正ができないからである。 The calculated values B1 to B2 and the correction value B3 for each pattern are defined as follows. Note that the correction unit 15 does not perform correction processing for patterns 1 and 5. This is because in the case of pattern 1, the person's posture is upright, so there is no need to correct the estimated height value. In the case of pattern 5, the person's posture does not fit into any of patterns 1 to 4, making it difficult to identify the posture, and therefore the estimated height value cannot be corrected.

パターン2の場合における算出値B1~B2及び補正値B3は以下のように定義される。
算出値B1=(鼻と各足首と間のY軸幅の値のうち、大きい方の値)
算出値B2=(鼻から首下までの長さ)+(首下から両腰間の中央までの長さ)+(XY軸の右腰から右膝までの長さと右膝から右足首までの長さとの合計と、XY軸の左腰から左膝までの長さと左膝から左足首まで長さとの合計のうち、大きい方の値)
補正値B3=B2/B1
In the case of pattern 2, the calculated values B1 to B2 and the correction value B3 are defined as follows.
Calculated value B1 = (the larger of the Y-axis width values between the nose and each ankle)
Calculated value B2 = (length from nose to bottom of neck) + (length from bottom of neck to center between both waists) + (the greater value of the sum of the length from right waist to right knee and the length from right knee to right ankle on the XY axis, and the sum of the length from left waist to left knee and the length from left knee to left ankle on the XY axis)
Correction value B3=B2/B1

パターン3の場合における算出値B1~B2及び補正値B3は以下のように定義される。
算出値B1=(鼻と各足首と間のY軸幅の値のうち、大きい方の値)
算出値B2=(鼻から首下までの長さ)+(首下から両腰間の中央までの長さ)+(XY軸の右腰から右膝までの長さと右膝から右足首までの長さとの合計と、XY軸の左腰から左膝までの長さと左膝から左足首まで長さとの合計のうち、大きい方の値)
補正値B3=B2/B1
In the case of pattern 3, the calculated values B1 and B2 and the correction value B3 are defined as follows.
Calculated value B1 = (the larger of the Y-axis width values between the nose and each ankle)
Calculated value B2 = (length from nose to bottom of neck) + (length from bottom of neck to center between both waists) + (the greater value of the sum of the length from right waist to right knee and the length from right knee to right ankle on the XY axis, and the sum of the length from left waist to left knee and the length from left knee to left ankle on the XY axis)
Correction value B3=B2/B1

パターン4の場合における算出値B1~B2及び補正値B3は以下のように定義される。
算出値B1=(鼻と各足首と間のY軸幅の値のうち、大きい方の値)
算出値B2=(鼻から両腰間の中央までの二次曲線の長さ)+(XY軸の右腰から右膝までの長さと右膝から右足首まで長さの合計と、XY軸の左腰から左膝までの長さと左膝から左足首までの長さの合計のうち、大きい方の値)
ここで、鼻から両腰間の中央までの二次曲線の長さは、前述の通り、鼻と、首下と、両腰間の中間とを結ぶ二次曲線が算出されることによって算出される(図5の画像A41の点線部に相当)。
補正値B3=B2/B1
In the case of pattern 4, the calculated values B1 and B2 and the correction value B3 are defined as follows.
Calculated value B1 = (the larger of the Y-axis width values between the nose and each ankle)
Calculated value B2 = (Length of the quadratic curve from the nose to the center between both hips) + (the greater value of the sum of the length from the right hip to the right knee and the length from the right knee to the right ankle on the XY axis and the sum of the length from the left hip to the left knee and the length from the left knee to the left ankle on the XY axis)
Here, the length of the quadratic curve from the nose to the center between the two waists is calculated by calculating the quadratic curve connecting the nose, the neck, and the midpoint between the two waists, as described above (corresponding to the dotted line portion of image A41 in Figure 5).
Correction value B3=B2/B1

このように、補正値B3は、パターンに対応する骨格の曲がり方の特性に応じて使い分けられる曲線近似又は直線近似によって得られる。
なお、上半身と下半身とで異なる近似方法が使い分けられてもよい。例えば、上半身(ここでは鼻から両腰間の中央まで)の長さの算出には曲線近似が用いられ、下半身(ここでは腰から足首まで)の長さの算出には直線近似が用いられるような構成であってもよい。
In this way, the correction value B3 is obtained by curve approximation or linear approximation, which is used depending on the characteristics of the curvature of the skeleton corresponding to the pattern.
Different approximation methods may be used for the upper body and the lower body. For example, curve approximation may be used to calculate the length of the upper body (here, from the nose to the center between the two waists), and linear approximation may be used to calculate the length of the lower body (here, from the waist to the ankles).

[補正部の動作]
以下、補正部15の動作について説明する。図8は、本発明の実施形態における補正部15の動作を示すフローチャートである。
[Operation of correction unit]
The following describes the operation of the correction unit 15. Fig. 8 is a flowchart showing the operation of the correction unit 15 in the embodiment of the present invention.

まず、補正部15は、状態判定部14から出力された、パターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを取得する(ステップS1501)。First, the correction unit 15 acquires information indicating the pattern, skeletal information, and information indicating the XY coordinates of each skeleton output from the state determination unit 14 (step S1501).

次に、補正部15は、取得された情報に基づくパターンに応じて、上記の補正値B3を算出する(ステップS1502)。なお前述の通り、補正部15は、パターン1及びパターン5である場合には補正処理を行わない。Next, the correction unit 15 calculates the above correction value B3 according to the pattern based on the acquired information (step S1502). As described above, the correction unit 15 does not perform correction processing in the case of pattern 1 and pattern 5.

次に、補正部15は、補正値とB3と、パターンを示す情報とを、身長算出部18へ出力する(ステップS1503)。以上で、図8のフローチャートが示す補正部15の動作が終了する。Next, the correction unit 15 outputs the correction value, B3, and information indicating the pattern to the height calculation unit 18 (step S1503). This completes the operation of the correction unit 15 shown in the flowchart of FIG. 8.

図9は、上記のパターンごとの補正部15による補正処理(算出値B1~2及び補正値B3の算出方法等)をまとめた図である。 Figure 9 is a diagram summarizing the correction processing by the correction unit 15 for each of the above patterns (methods of calculating calculated values B1-2 and correction value B3, etc.).

[推定身長値の算出処理]
以下、身長算出部18による推定身長値の算出処理について説明する。本実施形態では、以下に示されるパターンごとの推定身長値の算出式を定義し、推定身長値を算出する。また、身長算出部18は、パターン2~4の場合には、上記の補正値B3を用いた算出式を定義して算出値B4を算出し、算出値B4を用いた推定身長値の算出式を定義する。
[Calculation process of estimated height value]
The calculation process of the estimated height value by the height calculation unit 18 will be described below. In this embodiment, a calculation formula for the estimated height value for each pattern shown below is defined, and the estimated height value is calculated. In addition, in the case of patterns 2 to 4, the height calculation unit 18 defines a calculation formula using the above correction value B3 to calculate the calculated value B4, and defines a calculation formula for the estimated height value using the calculated value B4.

パターンごとの推定身長値、及び算出値B4は、以下のように定義される。なお、身長算出部18は、パターン5である場合には推定身長値の算出処理を行わない。なぜならば、パターン5の場合、人物の姿勢がパターン1~4のいずれにも当てはまらず、姿勢の特定が困難であるため、推定身長値の算出ができないからである。The estimated height value for each pattern and the calculated value B4 are defined as follows. Note that the height calculation unit 18 does not perform the calculation process for the estimated height value in the case of pattern 5. This is because in the case of pattern 5, the person's posture does not fit into any of patterns 1 to 4, making it difficult to identify the posture and therefore making it impossible to calculate the estimated height value.

パターン1の場合における推定身長値は以下のように定義される。
推定身長値=(物体の高さ)×(人物枠Y軸幅/物体枠Y軸幅)
The estimated height value in the case of pattern 1 is defined as follows.
Estimated height value = (height of object) x (width of person frame on Y axis / width of object frame on Y axis)

パターン2の場合における算出値B4、及び推定身長値は以下のように定義される。
算出値B4=(人物枠Y軸幅)×(パターン2の補正値B3)
推定身長値=(物体の高さ)×(パターン2の算出値B4/物体枠Y軸幅)
The calculated value B4 and the estimated height value in the case of pattern 2 are defined as follows.
Calculated value B4 = (Y-axis width of person frame) x (correction value B3 of pattern 2)
Estimated height value = (height of object) x (calculated value B4 of pattern 2 / Y-axis width of object frame)

パターン3の場合における算出値B4、及び推定身長値は以下のように定義される。
算出値B4=(人物枠Y軸幅)×(パターン3の補正値B3)
推定身長値=(物体の高さ)×(パターン3の算出値B4/物体枠Y軸幅)
The calculated value B4 and the estimated height value in the case of pattern 3 are defined as follows.
Calculated value B4 = (Y-axis width of person frame) x (correction value B3 of pattern 3)
Estimated height value = (height of object) x (calculated value B4 of pattern 3 / Y-axis width of object frame)

パターン4の場合における算出値B4、及び推定身長値は以下のように定義される。
算出値B4=(人物枠Y軸幅)×(パターン4の補正値B3)
推定身長値=(物体の高さ)×(パターン4の算出値B4/物体枠Y軸幅)
The calculated value B4 and the estimated height value in the case of pattern 4 are defined as follows.
Calculated value B4 = (Y-axis width of person frame) × (correction value B3 of pattern 4)
Estimated height value = (height of object) x (calculated value B4 of pattern 4 / Y-axis width of object frame)

なお前述の通り、パターン5の場合には、身長算出部18は推定身長値の算出処理を行わず、推定身長値を出力しない。パターン5の場合とは、例えば各骨格の位置を正しく認識できない場合であり、人物が座っている場合や極端に体を曲げている場合等が考えられる。なお、入力画像において、人物の近傍に物体が存在しない場合、人物の近傍に物体が存在するが当該物体の大きさ(高さ)が既知でない場合、及び、人物の近傍に物体が存在するが当該物体の物体名称が特定できない場合等においても、身長算出部18は推定身長値の算出処理を行うことができないため、推定身長値を出力しない。As mentioned above, in the case of pattern 5, the height calculation unit 18 does not perform the calculation process of the estimated height value and does not output the estimated height value. The case of pattern 5 is, for example, when the position of each skeleton cannot be correctly recognized, such as when the person is sitting or when the body is extremely bent. Note that in the case where there is no object near the person in the input image, when there is an object near the person but the size (height) of the object is unknown, or when there is an object near the person but the object name of the object cannot be identified, the height calculation unit 18 cannot perform the calculation process of the estimated height value and does not output the estimated height value.

[身長算出部の動作]
以下、身長算出部18の動作について説明する。図10は、本発明の実施形態における身長算出部18の動作を示すフローチャートである。
[Height calculation unit operation]
The following describes the operation of the height calculation unit 18. Fig. 10 is a flowchart showing the operation of the height calculation unit 18 in the embodiment of the present invention.

まず、身長算出部18は、補正部15から出力された、補正値と、パターンを示す情報とを取得する。また、身長算出部18は、物体照合部17から出力された、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを取得する。(ステップS1801)。First, the height calculation unit 18 acquires the correction value and the information indicating the pattern output from the correction unit 15. The height calculation unit 18 also acquires the XY coordinates of the object frame, the height information, and the XY coordinates of the person frame output from the object matching unit 17 (step S1801).

次に、身長算出部18は、取得された情報に基づくパターンに応じて、上記の推定身長値を算出する(ステップS1802)。なお前述の通り、補正部15は、パターン5である場合には推定身長値の算出処理を行わない。Next, the height calculation unit 18 calculates the above-mentioned estimated height value according to the pattern based on the acquired information (step S1802). As described above, the correction unit 15 does not perform the calculation process of the estimated height value when the pattern is 5.

次に、身長算出部18は、推定結果(例えば、算出された推定身長値)を示す情報を出力部19へ出力する(ステップS1803)。なお前述の通り、身長算出部18は、パターン5の場合には、出力部19への情報出力を行わない。または、身長算出部18は、パターン5の場合には、推定不可能であることを示す情報を出力部19へ出力するようにしてもよい。以上で、図10のフローチャートが示す補正部15の動作が終了する。Next, the height calculation unit 18 outputs information indicating the estimation result (e.g., the calculated estimated height value) to the output unit 19 (step S1803). As described above, in the case of pattern 5, the height calculation unit 18 does not output information to the output unit 19. Alternatively, in the case of pattern 5, the height calculation unit 18 may output information indicating that estimation is impossible to the output unit 19. This completes the operation of the correction unit 15 shown in the flowchart of FIG. 10.

図11は、上記のパターンごとの身長算出部18による推定身長値の算出処理をまとめた図である。 Figure 11 is a diagram summarizing the calculation process of estimated height values by the height calculation unit 18 for each of the above patterns.

[物体照合部の動作]
以下、物体照合部17の動作について説明する。図12は、本発明の実施形態における物体照合部17の動作を示すフローチャートである。
[Operation of Object Matching Unit]
The following describes the operation of the object matching unit 17. Fig. 12 is a flowchart showing the operation of the object matching unit 17 in the embodiment of the present invention.

まず、物体照合部17は、人物・物体抽出部16から出力された物体名称を示す情報と、物体枠のXY座標と、人物枠のXY座標とを取得する(ステップS1701)。First, the object matching unit 17 acquires information indicating the object name output from the person/object extraction unit 16, the XY coordinates of the object frame, and the XY coordinates of the person frame (step S1701).

物体照合部17は、記憶部11が予め記憶している物体データ110を参照する。物体照合部17は、取得された情報に基づく物体名称を、物体データ110に含まれる物体名称と照合する(ステップS1702)。The object matching unit 17 refers to the object data 110 pre-stored in the memory unit 11. The object matching unit 17 matches the object name based on the acquired information with the object name included in the object data 110 (step S1702).

物体照合部17は、照合によって検出された、物体データ110に含まれる物体名称に対応付けられた物体の高さの値(高さ情報)を取得する(ステップS1703)。The object matching unit 17 obtains the height value (height information) of the object detected by matching and associated with the object name contained in the object data 110 (step S1703).

物体照合部17は、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを、身長算出部18へ出力する(ステップS1704)。以上で、図12のフローチャートが示す物体照合部17の動作が終了する。The object matching unit 17 outputs the XY coordinates of the object frame, the height information, and the XY coordinates of the person frame to the height calculation unit 18 (step S1704). This completes the operation of the object matching unit 17 shown in the flowchart of FIG. 12.

図13は、記憶部11に記録されている物体データ110の構成の一例を示す図である。図13に示されるように、物体データ110は、物体名称と、物体の大きさ(高さ)の値とが対応付けられたデータの集合である。 Figure 13 is a diagram showing an example of the configuration of object data 110 recorded in memory unit 11. As shown in Figure 13, object data 110 is a collection of data in which object names are associated with values of the object's size (height).

以上説明したように、本実施形態における身長推定装置1は、人物と物体とが撮像された画像から人物の骨格の位置を抽出し、骨格の各部位の位置関係に基づいて人物の姿勢のパターンを判定する。身長推定装置1は、パターンごとに予め定められた演算式に基づいて算出される補正値と、物体の実際の高さと、画像内における物体の高さ及び人物の高さとに基づいて、人物の実際の身長を推定する。このような構成を備えることで、本実施形態における身長推定装置1は、入力画像内の人物が直立した姿勢ではない場合であっても、より精度よく入力画像から人物の身長を推定することができる。As described above, the height estimation device 1 in this embodiment extracts the position of a person's skeleton from an image in which a person and an object are captured, and determines the person's posture pattern based on the positional relationship of each part of the skeleton. The height estimation device 1 estimates the person's actual height based on a correction value calculated based on a predetermined arithmetic formula for each pattern, the actual height of the object, and the height of the object and the height of the person in the image. With this configuration, the height estimation device 1 in this embodiment can more accurately estimate the height of a person from an input image even if the person in the input image is not standing upright.

上述した実施形態によれば、身長推定装置は、画像取得部と、骨格抽出部と、判定部と、推定部とを備える。例えば、画像取得部は、実施形態における画像入力部12であり、判定部は、実施形態における状態判定部14であり、推定部は、実施形態における身長算出部18である。画像取得部は、人物と物体とが撮像された画像を取得する。骨格抽出部は、画像内における人物の骨格の位置を抽出する。判定部は、骨格の各部位の位置関係に基づいて人物の姿勢のパターンを判定する。推定部は、パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、画像内における人物の高さとに基づいて、人物の実際の身長を推定する。According to the above-described embodiment, the height estimation device includes an image acquisition unit, a skeleton extraction unit, a determination unit, and an estimation unit. For example, the image acquisition unit is the image input unit 12 in the embodiment, the determination unit is the state determination unit 14 in the embodiment, and the estimation unit is the height calculation unit 18 in the embodiment. The image acquisition unit acquires an image of a person and an object. The skeleton extraction unit extracts the position of the person's skeleton in the image. The determination unit determines the person's posture pattern based on the positional relationship of each part of the skeleton. The estimation unit estimates the person's actual height based on the height of the person in the image and a correction value obtained by curve approximation or linear approximation that is used depending on the characteristics of the bending of the skeleton corresponding to the pattern.

なお、上記の身長推定装置は、高さ情報取得部をさらに備えていてもよい。例えば、高さ情報取得部は、実施形態における物体照合部17である。高さ情報取得部は、物体の実際の高さを示す情報を取得する。この場合、推定部は、物体の実際の高さと、画像内における物体の高さとに基づいて、身長を推定する。 The height estimation device may further include a height information acquisition unit. For example, the height information acquisition unit is the object matching unit 17 in the embodiment. The height information acquisition unit acquires information indicating the actual height of the object. In this case, the estimation unit estimates the height based on the actual height of the object and the height of the object in the image.

なお、上記の身長推定装置は、補正部をさらに備えていてもよい。補正部は、画像内における人物の両足のうち、長い方の足の長さを用いて補正値を算出する。The height estimation device may further include a correction unit that calculates a correction value using the length of the longer of the person's two legs in the image.

なお、補正部は、画像内における人物の、鼻の位置、首下の位置、及び腰の中央の位置に基づく二次曲線を算出し、鼻の位置から腰の中央の位置までの二次曲線の長さを用いて補正値を算出してもよい。 The correction unit may also calculate a quadratic curve based on the position of the nose, the position of the neck, and the position of the center of the waist of a person in the image, and calculate a correction value using the length of the quadratic curve from the position of the nose to the position of the center of the waist.

なお、判定部は、人物の姿勢を、直立している姿勢のパターン、足を左右に広げている姿勢のパターン、足を前後に広げている姿勢のパターン、体を横方向に曲げている姿勢のパターン、又はその他の姿勢のパターンのいずれかであると判定するようにしてもよい。The determination unit may determine that the person's posture is one of an upright posture pattern, a posture pattern with legs spread apart, a posture pattern with legs spread apart, a posture pattern with the body bent sideways, or another posture pattern.

なお、上記の身長推定装置は、特定部をさらに備えていてもよい。例えば、特定部は、実施形態における物体照合部17である。特定部は、画像に写る物体を検出し、物体の名称を特定する。この場合、高さ情報取得部は、物体の名称と物体の高さを示す情報とが対応付けられた物体情報と、画像に写る物体の名称とに基づいて、画像に写る物体の高さを取得する。例えば、物体情報は、実施形態における物体データ110である。 The height estimation device may further include an identification unit. For example, the identification unit is the object matching unit 17 in the embodiment. The identification unit detects an object appearing in the image and identifies the name of the object. In this case, the height information acquisition unit acquires the height of the object appearing in the image based on object information in which the name of the object is associated with information indicating the height of the object, and the name of the object appearing in the image. For example, the object information is object data 110 in the embodiment.

上述した各実施形態における身長推定装置1の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 The height estimation device 1 in each of the above-mentioned embodiments may be realized in part or in whole by a computer. In that case, a program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in the recording medium may be read into a computer system and executed to realize the function. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. The term "computer-readable recording medium" refers to portable media such as flexible disks, optical magnetic disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into a computer system. The term "computer-readable recording medium" may also include a medium that dynamically holds a program for a short period of time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, and a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system that is a server or client in that case. The above-mentioned program may be a program for realizing part of the above-mentioned function, or may be a program that can realize the above-mentioned function in combination with a program already recorded in the computer system, or may be a program that is realized using a programmable logic device such as an FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The above describes in detail an embodiment of the present invention with reference to the drawings, but the specific configuration is not limited to this embodiment and also includes designs that do not deviate from the gist of the present invention.

1…身長推定装置,10…制御部,11…記憶部,12…画像入力部,13…骨格抽出部,14…状態判定部,15…補正部,16…人物・物体抽出部,17…物体照合部,18…身長算出部,19…出力部,110…物体データ 1...height estimation device, 10...control unit, 11...memory unit, 12...image input unit, 13...skeleton extraction unit, 14...state determination unit, 15...correction unit, 16...person/object extraction unit, 17...object matching unit, 18...height calculation unit, 19...output unit, 110...object data

Claims (8)

コンピュータが実行する身長推定方法であって、
人物と物体とが撮像された画像を取得する画像取得ステップと、
前記画像内における前記人物の骨格の位置を抽出する骨格抽出ステップと、
前記骨格の各部位の位置関係から算出される、両目間、両耳間、両肩間、両腰間、及び両足首間のうち少なくとも1つの傾き、鼻から両足首の中心までの長さに対する両足首の間の長さの比率、及び両足の長さの和に対する両足の長さの差の比率に基づいて前記人物の姿勢のパターンを判定する判定ステップと、
前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定ステップと、
を有する身長推定方法。
1. A computer implemented method for estimating height, comprising:
An image acquisition step of acquiring an image of a person and an object;
a skeleton extraction step of extracting a position of the skeleton of the person in the image;
a determining step of determining a posture pattern of the person based on at least one of an inclination between the eyes, between the ears, between the shoulders, between the hips, and between the ankles, which are calculated from the positional relationship of each part of the skeleton, a ratio of the length between the ankles to the length from the nose to the center of the ankles, and a ratio of the difference in the lengths of the feet to the sum of the lengths of the feet ;
an estimation step of estimating an actual height of the person based on a correction value obtained by curve approximation or linear approximation, which is used depending on the characteristics of the bending of the skeleton corresponding to the pattern, and a height of the person in the image;
The height estimation method has the following features.
前記物体の実際の高さを示す情報を取得する高さ情報取得ステップ
をさらに有し、
前記推定ステップは、前記物体の実際の高さと、前記画像内における前記物体の高さとに基づいて、前記身長を推定する
請求項1に記載の身長推定方法。
acquiring information indicating an actual height of the object;
The height estimation method according to claim 1 , wherein the estimating step estimates the height based on an actual height of the object and a height of the object in the image.
前記画像内における前記人物の両足のうち、長い方の足の長さを用いて前記補正値を算出する補正ステップ
をさらに有する請求項1又は請求項2に記載の身長推定方法。
The height estimation method according to claim 1 or 2, further comprising: a correction step of calculating the correction value using a length of a longer one of both legs of the person in the image.
前記画像内における前記人物の、鼻の位置、首下の位置、及び腰の中央の位置に基づく二次曲線を算出し、前記鼻の位置から前記腰の中央の位置までの前記二次曲線の長さを用いて前記補正値を算出する補正ステップ
をさらに有する請求項1から請求項3のうちいずれか一項に記載の身長推定方法。
4. The height estimation method according to claim 1, further comprising: a correction step of calculating a quadratic curve based on a position of a nose, a position under the neck, and a position of a center of a waist of the person in the image, and calculating the correction value using a length of the quadratic curve from the position of the nose to the position of the center of the waist.
前記判定ステップは、前記人物の姿勢を、直立している姿勢のパターン、足を左右に広げている姿勢のパターン、足を前後に広げている姿勢のパターン、体を横方向に曲げている姿勢のパターン、又はその他の姿勢のパターンのいずれかであると判定する
請求項1から請求項4のうちいずれか一項に記載の身長推定方法。
5. The height estimation method according to claim 1, wherein the determining step determines that the person's posture is one of an upright posture pattern, a posture pattern with legs spread apart, a posture pattern with legs spread apart, a posture pattern with the body bent sideways, and other posture patterns.
前記画像に写る前記物体を検出し、前記物体の名称を特定する特定ステップ
をさらに有し、
前記高さ情報取得ステップは、物体の名称と前記物体の高さを示す情報とが対応付けられた物体情報と、前記画像に写る物体の名称とに基づいて、前記画像に写る物体の高さを取得する
請求項1から請求項5のうちいずれか一項に記載の身長推定方法。
The method further includes a step of detecting the object in the image and identifying the name of the object,
6. The height estimation method according to claim 1, wherein the height information acquisition step acquires a height of an object appearing in the image based on object information in which a name of the object is associated with information indicating a height of the object, and a name of the object appearing in the image.
人物と物体とが撮像された画像を取得する画像取得部と、
前記画像内における前記人物の骨格の位置を抽出する骨格抽出部と、
前記骨格の各部位の位置関係から算出される、両目間、両耳間、両肩間、両腰間、及び両足首間のうち少なくとも1つの傾き、鼻から両足首の中心までの長さに対する両足首の間の長さの比率、及び両足の長さの和に対する両足の長さの差の比率に基づいて前記人物の姿勢のパターンを判定する判定部と、
前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定部と、
を備える身長推定装置。
an image acquisition unit that acquires an image of a person and an object;
a skeleton extraction unit that extracts a position of the skeleton of the person in the image;
a determination unit which determines a pattern of the person's posture based on at least one of an inclination between the eyes, between the ears, between the shoulders, between the hips, and between the ankles, which are calculated from the positional relationship of each part of the skeleton, a ratio of the length between the ankles to the length from the nose to the center of the ankles, and a ratio of the difference in the lengths of the feet to the sum of the lengths of the feet ;
an estimation unit that estimates an actual height of the person based on a correction value obtained by curve approximation or linear approximation that is used depending on the characteristics of the bending of the skeleton corresponding to the pattern and the height of the person in the image;
A height estimation device comprising:
請求項1から請求項6のうちいずれか一項に記載の身長推定方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the height estimation method according to any one of claims 1 to 6.
JP2022579251A 2021-02-05 2021-02-05 Height estimation method, height estimation device and program Active JP7598042B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/004226 WO2022168252A1 (en) 2021-02-05 2021-02-05 Body height estimation method, body height estimation device, and program

Publications (2)

Publication Number Publication Date
JPWO2022168252A1 JPWO2022168252A1 (en) 2022-08-11
JP7598042B2 true JP7598042B2 (en) 2024-12-11

Family

ID=82740993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022579251A Active JP7598042B2 (en) 2021-02-05 2021-02-05 Height estimation method, height estimation device and program

Country Status (2)

Country Link
JP (1) JP7598042B2 (en)
WO (1) WO2022168252A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008286638A (en) 2007-05-17 2008-11-27 Sogo Keibi Hosho Co Ltd Height estimating apparatus and height estimating method
US20090232353A1 (en) 2006-11-10 2009-09-17 University Of Maryland Method and system for markerless motion capture using multiple cameras
WO2019082376A1 (en) 2017-10-27 2019-05-02 株式会社アシックス Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090232353A1 (en) 2006-11-10 2009-09-17 University Of Maryland Method and system for markerless motion capture using multiple cameras
JP2008286638A (en) 2007-05-17 2008-11-27 Sogo Keibi Hosho Co Ltd Height estimating apparatus and height estimating method
WO2019082376A1 (en) 2017-10-27 2019-05-02 株式会社アシックス Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program

Also Published As

Publication number Publication date
JPWO2022168252A1 (en) 2022-08-11
WO2022168252A1 (en) 2022-08-11

Similar Documents

Publication Publication Date Title
US12300015B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program
Kishore et al. Estimation of yoga postures using machine learning techniques
US9898651B2 (en) Upper-body skeleton extraction from depth maps
US9031286B2 (en) Object detection device and object detection method
US9480417B2 (en) Posture estimation device, posture estimation system, and posture estimation method
Ye et al. A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis
US5995639A (en) Apparatus for identifying person
CN104200200B (en) Fusion depth information and half-tone information realize the system and method for Gait Recognition
US12424017B2 (en) Human skeleton image apparatus, method, and non-transitory computer readable medium
US20230206633A1 (en) Computer-readable recording medium, information processing method, and information processing apparatus
US12236704B2 (en) Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program
US20180307896A1 (en) Facial detection device, facial detection system provided with same, and facial detection method
US20230267743A1 (en) Computer-readable recording medium, information processing method, and information processing apparatus
JP7136344B2 (en) Camera calibration method, camera and program
US20240119087A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
JP7598042B2 (en) Height estimation method, height estimation device and program
US12174885B2 (en) Image selection apparatus, image selection method, and non-transitory computer-readable medium
US12481696B2 (en) Image selection apparatus, image selection method, and non-transitory computer-readable medium
US20230368419A1 (en) Image selection apparatus, image selection method, and non-transitory computer-readable medium
US12277165B2 (en) Image processing apparatus, and image processing method
US20250029363A1 (en) Image processing system, image processing method, and non-transitory computer-readable medium
US12411889B2 (en) Image selection apparatus, image selection method, and non-transitory computer-readable medium
WO2021224994A1 (en) Image selection device, image selection method, and program
US20240112364A1 (en) Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program
US20250157077A1 (en) Image processing system, image processing method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241111

R150 Certificate of patent or registration of utility model

Ref document number: 7598042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350