JP7598042B2 - Height estimation method, height estimation device and program - Google Patents
Height estimation method, height estimation device and program Download PDFInfo
- Publication number
- JP7598042B2 JP7598042B2 JP2022579251A JP2022579251A JP7598042B2 JP 7598042 B2 JP7598042 B2 JP 7598042B2 JP 2022579251 A JP2022579251 A JP 2022579251A JP 2022579251 A JP2022579251 A JP 2022579251A JP 7598042 B2 JP7598042 B2 JP 7598042B2
- Authority
- JP
- Japan
- Prior art keywords
- height
- person
- image
- unit
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
本発明は、身長推定方法、身長推定装置及びプログラムに関する。 The present invention relates to a height estimation method, a height estimation device, and a program.
従来から、人物が撮像された入力画像から、入力画像内における人物の骨格等の位置を推定する方法が知られている。例えば、非特許文献1に記載の推定方法は、入力画像内の人物の両目、両耳、鼻、首下、両肩、両肘、両手首、両腰、両膝、及び両足首の位置座標を推定することができる。Conventionally, there are known methods for estimating the positions of a person's bones and the like in an input image from an input image in which the person is captured. For example, the estimation method described in Non-Patent Document 1 can estimate the position coordinates of the eyes, ears, nose, neck, shoulders, elbows, wrists, hips, knees, and ankles of a person in an input image.
また、従来から、人物や物体が撮像された入力画像から、入力画像内の人物や物体の輪郭に外接する矩形(以下、「外接矩形」という。)を抽出する方法が知られている。例えば、非特許文献2に記載のMask R-CNN(Region-Convolutional Neural Network)は、物体検出とセグメンテーションとを行う物体検出アルゴリズムであり、入力画像内の人物や物体の外接矩形の位置座標を抽出することができる。 In addition, methods have been known for extracting a rectangle (hereinafter referred to as a "circumscribing rectangle") that circumscribes the contour of a person or object in an input image from an input image in which the person or object is captured. For example, Mask R-CNN (Region-Convolutional Neural Network) described in Non-Patent Document 2 is an object detection algorithm that performs object detection and segmentation, and can extract the position coordinates of the circumscribing rectangle of a person or object in an input image.
上記の2つの技術を用いることにより、例えば図14に示される人物及び物体が撮像された入力画像から、図15に示される人物の骨格の位置座標、人物及び物体の外接矩形の位置座標を抽出することができる。図14は、正面を向いて直立する人物91と、人物91の近傍に存在する物体92とが撮像された入力画像9を示している。図15は、入力画像9から推定された人物91の骨格93と、入力画像9から抽出された人物91の外接矩形94及び物体92の外接矩形95とを示している。By using the above two techniques, it is possible to extract the position coordinates of the skeleton of the person and the circumscribing rectangle of the person and the object shown in Fig. 15 from an input image in which the person and object shown in Fig. 14 are captured. Fig. 14 shows an
入力画像が、直立した人物と物体とが撮像された画像である場合、当該物体の実際の大きさ(高さ)が既知であるならば、入力画像内の人物の高さと入力画像内の物体の高さとを対比することで、人物の実際の身長を容易に推定することができる。しかしながら、入力画像内の人物の姿勢は、必ずしも直立した姿勢であるとは限らない。従来、入力画像内の人物が直立した姿勢ではなく、例えば動作中の姿勢等である場合には、実際の高さが既知である物体が人物とともに撮像されていたとしても、入力画像から人物の実際の身長を推定することは容易ではないという課題があった。 When an input image is an image of a person standing upright and an object, if the actual size (height) of the object is known, the actual height of the person can be easily estimated by comparing the height of the person in the input image with the height of the object in the input image. However, the posture of the person in the input image is not necessarily an upright posture. Conventionally, when a person in the input image is not standing upright but is, for example, in a posture in motion, there was a problem that it was not easy to estimate the actual height of the person from the input image even if an object whose actual height was known was captured together with the person.
上記事情に鑑み、本発明は、入力画像内の人物が直立した姿勢ではない場合であっても、入力画像から人物の身長をより精度よく推定することができる身長推定方法、身長推定装置及びプログラムを提供することを目的とする。In view of the above circumstances, the present invention aims to provide a height estimation method, height estimation device, and program that can more accurately estimate a person's height from an input image, even if the person in the input image is not standing upright.
本発明の一態様は、人物と物体とが撮像された画像を取得する画像取得ステップと、前記画像内における前記人物の骨格の位置を抽出する骨格抽出ステップと、前記骨格の各部位の位置関係に基づいて前記人物の姿勢のパターンを判定する判定ステップと、前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定ステップと、を有する身長推定方法である。One aspect of the present invention is a height estimation method having an image acquisition step of acquiring an image of a person and an object, a skeleton extraction step of extracting the position of the person's skeleton in the image, a determination step of determining a posture pattern of the person based on the positional relationship of each part of the skeleton, and an estimation step of estimating the actual height of the person based on a correction value obtained by curve approximation or linear approximation that is used depending on the characteristics of the bending of the skeleton corresponding to the pattern, and the height of the person in the image.
本発明の一態様は、人物と物体とが撮像された画像を取得する画像取得部と、前記画像内における前記人物の骨格の位置を抽出する骨格抽出部と、前記骨格の各部位の位置関係に基づいて前記人物の姿勢のパターンを判定する判定部と、前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定部と、を備える身長推定装置である。One aspect of the present invention is a height estimation device that includes an image acquisition unit that acquires an image of a person and an object, a skeleton extraction unit that extracts the position of the person's skeleton in the image, a determination unit that determines a posture pattern of the person based on the positional relationship of each part of the skeleton, and an estimation unit that estimates the actual height of the person based on a correction value obtained by curve approximation or linear approximation that is used depending on the characteristics of the bending of the skeleton corresponding to the pattern, and the height of the person in the image.
本発明の一態様は、上記の身長推定方法をコンピュータに実行させるためのプログラムである。 One aspect of the present invention is a program for causing a computer to execute the above height estimation method.
本発明により、入力画像内の人物が直立した姿勢ではない場合であっても、入力画像から人物の身長をより精度よく推定することができる。 The present invention makes it possible to more accurately estimate a person's height from an input image, even if the person in the input image is not standing upright.
(実施形態)
以下、図面を参照しながら本発明の実施形態について説明する。
(Embodiment)
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
以下の説明において、入力画像内の人物の外接矩形を「人物枠」といい、入力画像内の物体の外接矩形を「物体枠」という。外接矩形とは、入力画像内の人物や物体の輪郭に外接する矩形である。In the following explanation, the circumscribing rectangle of a person in the input image is referred to as the "person frame," and the circumscribing rectangle of an object in the input image is referred to as the "object frame." A circumscribing rectangle is a rectangle that circumscribs the outline of a person or object in the input image.
[身長推定装置の構成]
以下、実施形態の身長推定装置1の構成について説明する。図1は、本発明の実施形態における身長推定装置1の機能構成を示すブロック図である。
[Configuration of Height Estimation Device]
The following describes the configuration of the height estimation device 1 according to the embodiment of the present invention. Fig. 1 is a block diagram showing the functional configuration of the height estimation device 1 according to the embodiment of the present invention.
身長推定装置1は、例えば汎用コンピュータ等の情報処理装置である。図1に示されるように、身長推定装置1は、制御部10と、記憶部11と、画像入力部12と、骨格抽出部13と、状態判定部14と、補正部15と、人物・物体抽出部16と、物体照合部17と、身長算出部18と、出力部19とを含んで構成される。The height estimation device 1 is an information processing device such as a general-purpose computer. As shown in FIG. 1, the height estimation device 1 includes a
制御部10は、例えばCPU(Central Processing Unit)等のプロセッサを含んで構成される。記憶部11は、例えば、RAM(Random Access Memory)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、及びHDD(Hard Disk Drive)等の記憶媒体、又はこれらの記憶媒体の任意の組み合わせを含んで構成される。The
制御部10は、例えば記憶部11等の記憶媒体に記録されたコンピュータプログラムを読み出して実行することにより、前述の各機能部を有する装置として身長推定装置1を機能させる。制御部10は、前述の各機能部の動作を制御する。The
記憶部11は、物体データ110を予め記憶している。物体データ110の詳細については後述される。The
画像入力部12は、外部の装置又は記憶媒体から、入力画像の入力を受け付ける入力インターフェースである。画像入力部12に入力される入力画像は、人物と当該人物の近傍に存在する物体とが撮像された画像である。画像入力部12は、入力画像を、骨格抽出部13及び人物・物体抽出部16へ出力する。The
骨格抽出部13は、画像入力部12から出力された入力画像を取得する。骨格抽出部13は、画像解析により、入力画像に写っている人物の骨格の画像領域を抽出し、各骨格の入力画像内における位置を特定する。なお、ここで用いられる画像解析手法として、非特許文献1に記載の手法を用いることができる。骨格抽出部13は、骨格の種類を示す情報(以下、「骨格情報」という。)、及び、入力画像内における各骨格のXY座標を示す情報を状態判定部14へ出力する。The
なお、ここでは、目や耳等も含めた人体の部位全般を総称して「骨格」と呼んでいる。本実施形態では、抽出対象の骨格の一例として、両目、両耳、鼻、両肩、両腰、両膝、及び両足首を挙げて説明する。Note that, here, all parts of the human body, including the eyes and ears, are collectively referred to as "skeleton." In this embodiment, the following will be described as examples of skeletons to be extracted: both eyes, both ears, nose, both shoulders, both hips, both knees, and both ankles.
状態判定部14は、骨格抽出部13から出力された、骨格情報及び各骨格のXY座標を示す情報を取得する。状態判定部14は、骨格情報及び各骨格のXY座標と、予め定められた閾値とに基づいて、入力画像内の人物の姿勢が該当しているパターンを特定する。上記の閾値の詳細については後述される。状態判定部14は、特定されたパターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを、補正部15へ出力する。The
本実施形態では、状態判定部14は、予め定められたパターン1からパターン5までの5つのパターンの中から、入力画像内の人物の姿勢が該当しているパターンを特定する。パターン1は人物が直立している姿勢であり、パターン2は人物が両足を左右に広げている姿勢であり、パターン3は人物が両足を前後に広げている姿勢であり、パターン4は人物が体を横方向に曲げた姿勢であり、パターン5は上記のパターン1からパターン4までのいずれにも該当しない姿勢である。In this embodiment, the
補正部15は、状態判定部14から出力された、パターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを取得する。補正部15は、各骨格のXY座標から算出される骨格間の長さと、パターンと、パターンごとに予め定められた補正式とに基づいて、骨格間の長さの値を補正する。以下、補正された骨格間の長さの値を「補正値」という。補正部15は、補正値と、パターンを示す情報とを、身長算出部18へ出力する。なお、補正式の詳細については後述される。The
人物・物体抽出部16は、画像入力部12から出力された入力画像を取得する。骨格抽出部13は、画像解析により、入力画像内の人物及び物体が写っている画像領域を検出し、検出された人物及び物体の外接矩形を特定する。骨格抽出部13は、特定された外接矩形から、人物枠のXY座標と、物体枠のXY座標とを特定する。なお、ここで用いられる画像解析手法として、非特許文献2に記載の手法を用いることができる。The person/
また、人物・物体抽出部16は、検出された物体の画像から、当該物体の名称(以下、「物体名称」という。)を特定する。なお、人物・物体抽出部16は、例えば、検出された物体の画像と、予め物体名称が対応付けられた物体のサンプル画像とに対してパターンマッチングを行うことで、検出された物体の物体名称を特定する。人物・物体抽出部16は、物体名称を示す情報と、物体枠のXY座標と、人物枠のXY座標とを、物体照合部17へ出力する。Furthermore, the person/
物体照合部17は、人物・物体抽出部16から出力された物体名称を示す情報と、物体枠のXY座標と、人物枠のXY座標とを取得する。物体照合部17は、記憶部11が予め記憶している物体データ110を参照する。物体データ110は、物体名称と、物体の大きさ(高さ)の値が対応付けられたデータの集合である。The
物体照合部17は、取得された情報に基づく物体名称と一致する物体名称を物体データ110の中から検出し、検出された物体名称に対応付けられた高さの値(以下、「高さ情報」という。)を取得する。物体照合部17は、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを、身長算出部18へ出力する。The
身長算出部18は、補正部15から出力された、補正値と、パターンを示す情報とを取得する。また、身長算出部18は、物体照合部17から出力された、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを取得する。身長算出部18は、パターンと、高さ情報と、物体枠のY軸幅と、人物枠のY軸幅と、補正値と、予め定められた推定身長の算出式とに基づいて、入力画像内の人物の推定身長値を算出する。なお、推定身長の算出式の詳細については後述される。The height calculation unit 18 acquires the correction value and information indicating the pattern output from the
身長算出部18は、推定結果を示す情報を出力部19へ出力する。すなわち、身長算出部18は、算出された推定身長値を示す情報を出力部19へ出力する。なお、身長算出部18は、推定身長値を算出することができなかった場合には、出力部19への情報出力を行わない。または、身長算出部18は、推定身長値を算出することができなかった場合には、推定不可能であることを示す情報を出力部19へ出力するようにしてもよい。The height calculation unit 18 outputs information indicating the estimation result to the
出力部19は、身長算出部18から出力された、推定結果を示す情報を取得する。出力部19は、推定結果を示す情報を外部の装置へ出力する。出力部19は、推定結果を示す情報を出力する出力インターフェースである。なお、出力部19は、例えばLCD(Liquid Crystal Display)又は有機EL(Electro-Luminescence)ディスプレイ等の表示装置であってもよい。この場合、出力部19は、推定結果を示す情報を表示する。The
以下、本実施形態の身長推定装置1による身長推定方法について、具体例を挙げて説明する。 Below, we will explain the height estimation method using the height estimation device 1 of this embodiment using a specific example.
図2は、人物の姿勢の違いに伴う人物枠のY軸幅の違いを説明するための図である。図2には、4種類の人物枠内の領域の画域が示されている。4つの画像は、それぞれ入力画像から切り出された画像である。 Figure 2 is a diagram to explain the difference in the Y-axis width of the person frame due to the difference in the person's posture. Figure 2 shows the image areas within four types of person frames. Each of the four images is an image cut out from the input image.
画像A10は、人物が直立している姿勢である場合、すなわち、前述のパターン1である場合の画像である。画像A20は、人物が両足を左右に広げている姿勢である場合、すなわち、前述のパターン2である場合の画像である。画像A30は、人物が両足を前後に広げている姿勢である場合、すなわち、前述のパターン3である場合の画像である。画像A40は、人物が体を横方向に曲げた姿勢である場合、すなわち、前述のパターン4である場合の画像である。 Image A10 is an image of a person standing upright, i.e., the aforementioned pattern 1. Image A20 is an image of a person with their legs spread apart, i.e., the aforementioned pattern 2. Image A30 is an image of a person with their legs spread apart, i.e., the aforementioned pattern 3. Image A40 is an image of a person with their body bent sideways, i.e., the aforementioned pattern 4.
画像A10に示されるように、人物が直立している姿勢である場合には、両目、両耳、両肩、両腰、両足首の位置が水平である。なお、ここでいう、「水平である」とは、両部位を結ぶ線の傾きが所定の範囲内であることを意味する。As shown in image A10, when a person is standing upright, the positions of the eyes, ears, shoulders, hips, and ankles are horizontal. Note that "horizontal" here means that the inclination of the line connecting these two parts is within a specified range.
画像A20に示されるように、人物が両足を左右に広げている姿勢である場合には、画像A10と比べて人物枠のY軸幅がより短くなる。すなわち、人物が両足を左右に広げている姿勢である場合には、人物が直立している姿勢である場合に比べて、身長がより低く算出される誤差が生じうると考えられる。As shown in image A20, when a person has their legs spread apart, the Y-axis width of the person frame is shorter than in image A10. In other words, when a person has their legs spread apart, it is thought that an error may occur in which the height is calculated to be lower than when the person is standing upright.
画像A30に示されるように、人物が両足を前後に広げている姿勢である場合には、画像A10と比べて人物枠のY軸幅がより少し短くなる。すなわち、人物が両足を前後に広げている姿勢である場合には、人物が直立している姿勢である場合に比べて、身長がより少し低く算出される誤差が生じうると考えられる。As shown in image A30, when a person has their legs spread apart, the Y-axis width of the person frame is slightly shorter than in image A10. In other words, when a person has their legs spread apart, it is thought that an error may occur in which the height is calculated to be slightly lower than when the person is standing upright.
画像A40に示されるように、人物が体を横方向に曲げた姿勢である場合には、画像A10と比べて人物枠のY軸幅がより短くなる。すなわち、人物が体を横方向に曲げた姿勢である場合には、人物が直立している姿勢である場合に比べて、身長がより低く算出される誤差が生じうると考えられる。As shown in image A40, when a person is bent sideways, the Y-axis width of the person frame is shorter than in image A10. In other words, when a person is bent sideways, it is thought that an error may occur in which the height is calculated to be lower than when the person is standing upright.
本実施形態における身長推定装置1は、上記のような推定身長値の誤差を、補正部15によって補正する。以下、パターンごとに、身長推定装置1による推定身長値の補正について具体例を挙げて説明する。なお、人物が直立している姿勢である場合、すなわち、前述のパターン1である場合には、推定身長値の補正は不要である。In this embodiment, the height estimation device 1 corrects the error in the estimated height value as described above using the
図3は、パターン2の場合における推定身長値の補正について説明するための図である。図3に示される画像A20は、図2に示される画像A20と同一の画像である。画像A20に示されるように、人物が両足を左右に広げている姿勢である場合には、両目、両耳、両肩、両腰、両足首の位置が水平である。 Figure 3 is a diagram for explaining the correction of the estimated height value in the case of pattern 2. Image A20 shown in Figure 3 is the same image as image A20 shown in Figure 2. As shown in image A20, when a person is in a posture with both legs spread apart, the positions of both eyes, both ears, both shoulders, both hips, and both ankles are horizontal.
入力画像内の人物の姿勢がパターン2であると状態判定部14によって特定された場合、補正部15は、画像A20内の人物の右足及び左足の長さを比較する。すなわち、補正部15は、右腰のXY座標と右足首のXY座標との間のユークリッド距離を求めることで右足の長さを算出し、左腰のXY座標と左足首のXY座標との間のユークリッド距離を求めることで左足の長さを算出して、両者の長さを比較する。When the
補正部15は、上記の比較により、長い方の足の長さを特定する。図3の画像A21では、入力画像内の人物の場合、右足の方が左足より長かったことが破線で表されている。但し、パターン2は、人物が両足を左右に広げている姿勢である場合であるため、実際には、入力画像内の人物の両足の長さはほぼ同等である場合が多いと考えられる。Through the above comparison, the
補正部15は、画像A21において破線で表されるように傾いた右足を、画像A22のように垂直にする(すなわち、人物枠のY軸と平行にする)ように補正することで、推定身長値を補正する。The
図4は、パターン3の場合における推定身長値の補正について説明するための図である。図4に示される画像A30は、図2に示される画像A30と同一の画像である。画像A30に示されるように、人物が両足を前後に広げている姿勢である場合には、両目、両耳、両肩、両腰の位置が水平である。また、画像A30に示されるように、人物が両足を前後に広げている姿勢である場合には、前足(画像A30における右足)のほうが後ろ足(画像A30における左足)より長いため、両足首は水平ではない。 Figure 4 is a diagram for explaining the correction of the estimated height value in the case of pattern 3. Image A30 shown in Figure 4 is the same image as image A30 shown in Figure 2. As shown in image A30, when a person has their legs spread apart, the eyes, ears, shoulders, and hips are positioned horizontally. Also, as shown in image A30, when a person has their legs spread apart, the front leg (the right leg in image A30) is longer than the back leg (the left leg in image A30), so the ankles are not horizontal.
入力画像内の人物の姿勢がパターン3であると状態判定部14によって特定された場合、補正部15は、画像A30内の人物の右足及び左足の長さを比較する。すなわち、補正部15は、右腰のXY座標と右足首のXY座標との間のユークリッド距離を求めることで右足の長さを算出し、左腰のXY座標と左足首のXY座標との間のユークリッド距離を求めることで左足の長さを算出して、両者の長さを比較する。When the
補正部15は、上記の比較により、長い方の足の長さを特定する。図4の画像A31では、入力画像内の人物の場合、右足の方が左足より長かったことが破線で表されている。The
補正部15は、画像A31において破線で表されるように長いほうの右足の長さを、画像A32のように左足にも適用するように補正することで、推定身長値を補正する。なお、本実施形態では、長い方の足の長さを身長の推定に用いる構成であるものとしたが、これに限られるものではなく、両足の長さの平均値を身長の推定に用いる構成であってもよい。The
図5は、パターン4の場合における推定身長値の補正について説明するための図である。図5に示される画像A40は、図2に示される画像A40と同一の画像である。画像A40に示されるように、人物が体を横方向に曲げた姿勢である場合には、両目、両耳、両肩、両腰の位置は水平ではない。また、画像A40に示されるように、人物が体を横方向に曲げた姿勢である場合には、両足首の位置が水平である。 Figure 5 is a diagram for explaining the correction of the estimated height value in the case of pattern 4. Image A40 shown in Figure 5 is the same image as image A40 shown in Figure 2. As shown in image A40, when a person is bending their body sideways, the positions of the eyes, ears, shoulders, and hips are not horizontal. Also, as shown in image A40, when a person is bending their body sideways, the positions of the ankles are horizontal.
入力画像内の人物の姿勢がパターン4であると状態判定部14によって特定された場合、補正部15は、画像A40内の人物の右足及び左足の長さを比較する。すなわち、補正部15は、鼻の位置から首下の位置(すなわち、両肩間の中央の位置)を経由して両腰間の中心の位置までの長さを、二次曲線近似を用いて特定する。When the
なお、本実施形態では二次曲線近似が用いられる構成について説明するが、この構成に限られるものではない。例えば三次曲線近似等の、他の近似方法が用いられてもよい。In this embodiment, a configuration in which quadratic curve approximation is used is described, but the present invention is not limited to this configuration. For example, other approximation methods, such as cubic curve approximation, may be used.
補正部15は、画像A41において点線の曲線で表される二次曲線を、長さを変えずに、画像A42において点線で表される垂直の(すなわち、人物枠のY軸と平行の)直線となるように補正することで、推定身長値を補正する。The
また、補正部15は、右腰のXY座標と右足首のXY座標との間のユークリッド距離を求めることで右足の長さを算出し、左腰のXY座標と左足首のXY座標との間のユークリッド距離を求めることで左足の長さを算出して、両者の長さを比較する。補正部15は、上記の比較により、長い方の足の長さを特定する。図5の画像A41では、入力画像内の人物の場合、左足の方が右足より長かったことが破線で表されている。In addition, the
補正部15は、画像A41において破線で表されるように長いほうの左足の長さを、画像A32のように左足にも適用するように補正することで、推定身長値を補正する。The
[状態判定処理]
以下、状態判定部14による条件判定処理について説明する。本実施形態では、状態判定部14は、以下に示す6つの閾値と6つの係数とを定義し、これらの閾値と係数とに基づく6つの大小判定によって、入力画像内の人物の姿勢の条件判定を行う。各閾値及び各係数の値は、各骨格間の長さに基づいてそれぞれ算出される。
[Status Determination Process]
The condition determination process by the
閾値A1~A6は、以下のように定義される。閾値A1~A6は、下記の通り、入力画像内における骨格の各部位の位置関係を判定するために用いられる数値である。The thresholds A1 to A6 are defined as follows: The thresholds A1 to A6 are numerical values used to determine the positional relationship of each part of the skeleton in the input image, as follows:
閾値A1:両目の間(又は両耳の間)の傾きの値。
閾値A2:両肩の間の傾きの値。
閾値A3:両腰の間の傾きの値。
閾値A4:両足首の間の傾きの値。
閾値A5:鼻から両足首の間の中心までの長さを、両足首の間の長さで除算した値。
閾値A6:(右腰と右膝との間の長さと、右膝と右足首との間の長さとの合計)と、(左腰と左膝との間の長さと、左膝と左足首との間の長さとの合計)との差となる値を、(右腰と右膝との間の長さと、右膝と右足首との間の長さとの合計)と(左腰と左膝との間の長さと、左膝と左足首との間の長さとの合計)との和となる値によって除算した値。
Threshold A1: The value of the inclination between the eyes (or between the ears).
Threshold A2: The value of the slope between the shoulders.
Threshold A3: The value of the inclination between both hips.
Threshold A4: The value of the inclination between the ankles.
Threshold A5: The length from the nose to the center between the ankles divided by the length between the ankles.
Threshold A6: A value obtained by dividing the difference between (the sum of the length between the right hip and right knee and the length between the right knee and right ankle) and (the sum of the length between the left hip and left knee and the length between the left knee and left ankle) by the sum of (the sum of the length between the right hip and right knee and the length between the right knee and right ankle) and (the sum of the length between the left hip and left knee and the length between the left knee and left ankle).
係数K1~K6は、以下のように定義される。係数K1~K6は、上記の閾値A1~A6とそれぞれ大小比較するために用いられる、入力画像内での人物の骨格の各部位間の長さに基づく数値である。The coefficients K1 to K6 are defined as follows: The coefficients K1 to K6 are numerical values based on the length between each part of the human skeleton in the input image, and are used to compare the magnitude with the above thresholds A1 to A6, respectively.
係数K1={(右目Y軸値-左目Y軸値)/(右目X軸値-左目X軸値)+(右耳Y軸値-左耳Y軸値)/(右耳X軸値-左耳X軸値)}/2
係数K2=(右肩Y軸値-左肩Y軸値)/(右肩X軸値-左肩X軸値)
係数K3=(右腰Y軸値-左腰Y軸値)/(右腰X軸値-左腰X軸値)
係数K4=(右足首Y軸値-左足首Y軸値)/(右足首X軸値-左足首X軸値)
Coefficient K1={(right eye Y-axis value−left eye Y-axis value)/(right eye X-axis value−left eye X-axis value)+(right ear Y-axis value−left ear Y-axis value)/(right ear X-axis value−left ear X-axis value)}/2
Coefficient K2 = (Right shoulder Y-axis value - Left shoulder Y-axis value) / (Right shoulder X-axis value - Left shoulder X-axis value)
Coefficient K3 = (right hip Y-axis value - left hip Y-axis value) / (right hip X-axis value - left hip X-axis value)
Coefficient K4 = (Y-axis value of right ankle - Y-axis value of left ankle) / (X-axis value of right ankle - X-axis value of left ankle)
係数K5=(両足首の間の長さ)/(鼻から両足首の中心までの長さ)
ここで、両足首の間の長さの値、及び、鼻から両足首の中心までの長さの値は、それぞれ以下のように算出される。
(両足首の長さ)=√{(右足首Y軸値-左足首Y軸値)2+(右足首X軸値-左足首X軸値)2}
(鼻から両足首中心までの長さ)=√[{鼻Y軸値-(右足首Y軸値+左足首Y軸値)/2}2+{鼻X軸値-(右足首X軸値+左足首X軸値)/2}2]
Coefficient K5 = (length between both ankles) / (length from nose to center of both ankles)
Here, the value of the length between the ankles and the value of the length from the nose to the center of the ankles are calculated as follows.
(Length of both ankles) = √{(Y-axis value of right ankle - Y-axis value of left ankle) 2 + (X-axis value of right ankle - X-axis value of left ankle) 2 }
(Length from nose to center of both ankles) = √[{Y-axis value of nose - (Y-axis value of right ankle + Y-axis value of left ankle) / 2} 2 + {X-axis value of nose - (X-axis value of right ankle + X-axis value of left ankle) / 2} 2 ]
係数K6={(右腰から右膝までの長さと、右膝から右足首までの長さとの合計)-(左腰から左膝までの長さと、左膝から左足首までの長さとの合計)}/{(右腰から右膝までの長さと、右膝から右足首までの長さの合計)+(左腰から左膝までの長さと、左膝から左足首までの長さの合計)}
ここで、右腰から右膝までの長さ、右膝から右足首までの長さ、左腰から左膝までの長さ、及び、左膝から左足首までの長さの値は、それぞれ以下のように算出される。
右腰から右膝までの長さ=√{(右腰Y軸値-右膝Y軸値)2+(右腰X軸値-右膝X軸値)2}
右膝から右足首までの長さ=√{(右膝Y軸値-右足首Y軸値)2+(右膝X軸値-右足首X軸値)2}
左腰から左膝までの長さ=√{(左腰Y軸値-左膝Y軸値)2+(左腰X軸値-左膝X軸値)2}
左膝から左足首までの長さ=√{(左膝Y軸値-左足首Y軸値)2+(左膝X軸値-左足首X軸値)2}
Coefficient K6 = {(Total of the length from the right hip to the right knee and the length from the right knee to the right ankle) - (Total of the length from the left hip to the left knee and the length from the left knee to the left ankle)} / {(Total of the length from the right hip to the right knee and the length from the right knee to the right ankle) + (Total of the length from the left hip to the left knee and the length from the left knee to the left ankle)}
Here, the values of the length from the right hip to the right knee, the length from the right knee to the right ankle, the length from the left hip to the left knee, and the length from the left knee to the left ankle are calculated as follows.
Length from right hip to right knee = √{(right hip Y-axis value - right knee Y-axis value) 2 + (right hip X-axis value - right knee X-axis value) 2 }
Length from right knee to right ankle = √{(Y-axis value of right knee - Y-axis value of right ankle) 2 + (X-axis value of right knee - X-axis value of right ankle) 2 }
Length from left hip to left knee = √{(left hip Y-axis value - left knee Y-axis value) 2 + (left hip X-axis value - left knee X-axis value) 2 }
Length from left knee to left ankle = √{(Y-axis value of left knee - Y-axis value of left ankle) 2 + (X-axis value of left knee - X-axis value of left ankle) 2 }
状態判定部14は、上記の定義に基づいて算出された、閾値A1~A6及び係数K1~K6を用いて以下の閾値判定を行う。下記の閾値判定1~6は、上記の閾値A1~A6と上記の係数K1~K6との大小比較によって、入力画像内の人物の姿勢のパターンを判定する判定式である。The
閾値判定1:(係数K1の絶対値)≦閾値A1、であるか否か。
閾値判定2:(係数K2の絶対値)≦閾値A2、であるか否か。
閾値判定3:(係数K3の絶対値)≦閾値A3、であるか否か。
閾値判定4:(係数K4の絶対値)≦閾値A4、であるか否か。
閾値判定5:(係数K5の絶対値)≦閾値A5、であるか否か。
閾値判定6:(係数K6の絶対値)≦閾値A6、であるか否か。
Threshold decision 1: Whether or not (absolute value of coefficient K1)≦threshold A1.
Threshold decision 2: Whether or not (absolute value of coefficient K2)≦threshold A2.
Threshold decision 3: Whether or not (absolute value of coefficient K3)≦threshold A3.
Threshold decision 4: Whether (absolute value of coefficient K4)≦threshold A4 or not.
Threshold decision 5: Whether or not (absolute value of coefficient K5)≦threshold A5.
Threshold decision 6: Whether or not (the absolute value of coefficient K6) is less than or equal to threshold A6.
[状態判定部の動作]
本実施形態では、状態判定部14は、上記6つの閾値判定の結果と、4つの判定条件を用いて、入力画像内の人物の姿勢のパターンを判定する。以下に、状態判定部14によるパターンの判定処理について説明する。図6は、本発明の実施形態における状態判定部14の動作を示すフローチャートである。
[Operation of state determination unit]
In this embodiment, the
まず、状態判定部14は、骨格抽出部13から出力された、骨格情報及び各骨格のXY座標を示す情報を取得する(ステップS1401)。First, the
次に、状態判定部14は、骨格情報及び各骨格のXY座標を示す情報を用いて、前述の閾値A1~A6及び係数K1~K6を算出する。状態判定部14は、算出された閾値A1~A6及び係数K1~K6の値を用いて、前述の閾値判定1~6を行う。Next, the
状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件1を満たすか否かの判定を行う(ステップS1402)。ここで、判定条件1とは、閾値判定1~6を全て満たしているという条件である。判定条件1が満たされていると判定された場合(ステップS1402・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン1である(すなわち、人物が直立している姿勢である)と特定する(ステップS1403)。The
判定条件1が満たされていないと判定された場合(ステップS1402・NO)、状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件2を満たすか否かの判定を行う(ステップS1404)。ここで、判定条件2とは、閾値判定1~4及び6を満たしており、閾値判定5を満たしていないという条件である。判定条件2が満たされていると判定された場合(ステップS1404・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン2である(すなわち、人物が両足を左右に広げている姿勢である)と特定する(ステップS1405)。If it is determined that judgment condition 1 is not satisfied (step S1402, NO), the
判定条件2が満たされていないと判定された場合(ステップS1404・NO)、状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件3を満たすか否かの判定を行う(ステップS1406)。ここで、判定条件3とは、閾値判定1~3及び5を満たしており、閾値判定4及び6を満たしていないという条件である。判定条件3が満たされていると判定された場合(ステップS1406・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン3(すなわち、人物が両足を前後に広げている姿勢である)であると特定する(ステップS1407)。If it is determined that judgment condition 2 is not satisfied (step S1404, NO), the
判定条件3が満たされていないと判定された場合(ステップS1406・NO)、状態判定部14は、閾値判定1~6の判定結果に基づいて、判定条件4を満たすか否かの判定を行う(ステップS1408)。ここで、判定条件4とは、閾値判定3~6を満たしており、閾値判定1~2を満たしていない。という条件である。判定条件4が満たされていると判定された場合(ステップS1408・YES)、状態判定部14は、入力画像内の人物の姿勢がパターン4である(すなわち、人物が体を横方向に曲げた姿勢である)と特定する(ステップS1409)。If it is determined that judgment condition 3 is not satisfied (step S1406, NO), the
判定条件4が満たされていないと判定された場合(ステップS1408・NO)、すなわち、判定条件1~4のいずれもが満たされていない場合、状態判定部14は、入力画像内の人物の姿勢がパターン5である(すなわち、パターン1からパターン4までのいずれにも該当せず、姿勢の判定が不可である)と特定する(ステップS1410)。If it is determined that judgment condition 4 is not satisfied (step S1408, NO), i.e., if none of judgment conditions 1 to 4 are satisfied, the
次に状態判定部14は、特定されたパターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを、補正部15へ出力する(ステップS1411)。以上で、図6に示される状態判定部14の動作が終了する。Next, the
図7は、上記の判定条件1~4のそれぞれの内容と、判定条件1~4が満たされた場合にそれぞれ特定されるパターンをまとめた図である。 Figure 7 summarizes the contents of each of the above judgment conditions 1 to 4 and the patterns that are identified when judgment conditions 1 to 4 are met.
[補正値の算出処理]
以下、補正部15による補正値の算出処理について説明する。本実施形態では、補正部15は、以下に示されるパターンごとの算出式を定義し、算出値B1~B2をそれぞれ算出する。補正部15は、算出値B1~B2を用いて、推定身長値の補正値である補正値B3を算出する。
[Correction Value Calculation Process]
The calculation process of the correction value by the
パターンごとの算出値B1~B2、及び補正値B3は、以下のように定義される。なお、補正部15は、パターン1及びパターン5である場合には補正処理を行わない。なぜならば、パターン1の場合、人物の姿勢が直立している状態であるため、推定身長値の補正を行う必要がないからである。また、パターン5の場合、人物の姿勢がパターン1~4のいずれにも当てはまらず、姿勢の特定が困難であるため、推定身長値の補正ができないからである。
The calculated values B1 to B2 and the correction value B3 for each pattern are defined as follows. Note that the
パターン2の場合における算出値B1~B2及び補正値B3は以下のように定義される。
算出値B1=(鼻と各足首と間のY軸幅の値のうち、大きい方の値)
算出値B2=(鼻から首下までの長さ)+(首下から両腰間の中央までの長さ)+(XY軸の右腰から右膝までの長さと右膝から右足首までの長さとの合計と、XY軸の左腰から左膝までの長さと左膝から左足首まで長さとの合計のうち、大きい方の値)
補正値B3=B2/B1
In the case of pattern 2, the calculated values B1 to B2 and the correction value B3 are defined as follows.
Calculated value B1 = (the larger of the Y-axis width values between the nose and each ankle)
Calculated value B2 = (length from nose to bottom of neck) + (length from bottom of neck to center between both waists) + (the greater value of the sum of the length from right waist to right knee and the length from right knee to right ankle on the XY axis, and the sum of the length from left waist to left knee and the length from left knee to left ankle on the XY axis)
Correction value B3=B2/B1
パターン3の場合における算出値B1~B2及び補正値B3は以下のように定義される。
算出値B1=(鼻と各足首と間のY軸幅の値のうち、大きい方の値)
算出値B2=(鼻から首下までの長さ)+(首下から両腰間の中央までの長さ)+(XY軸の右腰から右膝までの長さと右膝から右足首までの長さとの合計と、XY軸の左腰から左膝までの長さと左膝から左足首まで長さとの合計のうち、大きい方の値)
補正値B3=B2/B1
In the case of pattern 3, the calculated values B1 and B2 and the correction value B3 are defined as follows.
Calculated value B1 = (the larger of the Y-axis width values between the nose and each ankle)
Calculated value B2 = (length from nose to bottom of neck) + (length from bottom of neck to center between both waists) + (the greater value of the sum of the length from right waist to right knee and the length from right knee to right ankle on the XY axis, and the sum of the length from left waist to left knee and the length from left knee to left ankle on the XY axis)
Correction value B3=B2/B1
パターン4の場合における算出値B1~B2及び補正値B3は以下のように定義される。
算出値B1=(鼻と各足首と間のY軸幅の値のうち、大きい方の値)
算出値B2=(鼻から両腰間の中央までの二次曲線の長さ)+(XY軸の右腰から右膝までの長さと右膝から右足首まで長さの合計と、XY軸の左腰から左膝までの長さと左膝から左足首までの長さの合計のうち、大きい方の値)
ここで、鼻から両腰間の中央までの二次曲線の長さは、前述の通り、鼻と、首下と、両腰間の中間とを結ぶ二次曲線が算出されることによって算出される(図5の画像A41の点線部に相当)。
補正値B3=B2/B1
In the case of pattern 4, the calculated values B1 and B2 and the correction value B3 are defined as follows.
Calculated value B1 = (the larger of the Y-axis width values between the nose and each ankle)
Calculated value B2 = (Length of the quadratic curve from the nose to the center between both hips) + (the greater value of the sum of the length from the right hip to the right knee and the length from the right knee to the right ankle on the XY axis and the sum of the length from the left hip to the left knee and the length from the left knee to the left ankle on the XY axis)
Here, the length of the quadratic curve from the nose to the center between the two waists is calculated by calculating the quadratic curve connecting the nose, the neck, and the midpoint between the two waists, as described above (corresponding to the dotted line portion of image A41 in Figure 5).
Correction value B3=B2/B1
このように、補正値B3は、パターンに対応する骨格の曲がり方の特性に応じて使い分けられる曲線近似又は直線近似によって得られる。
なお、上半身と下半身とで異なる近似方法が使い分けられてもよい。例えば、上半身(ここでは鼻から両腰間の中央まで)の長さの算出には曲線近似が用いられ、下半身(ここでは腰から足首まで)の長さの算出には直線近似が用いられるような構成であってもよい。
In this way, the correction value B3 is obtained by curve approximation or linear approximation, which is used depending on the characteristics of the curvature of the skeleton corresponding to the pattern.
Different approximation methods may be used for the upper body and the lower body. For example, curve approximation may be used to calculate the length of the upper body (here, from the nose to the center between the two waists), and linear approximation may be used to calculate the length of the lower body (here, from the waist to the ankles).
[補正部の動作]
以下、補正部15の動作について説明する。図8は、本発明の実施形態における補正部15の動作を示すフローチャートである。
[Operation of correction unit]
The following describes the operation of the
まず、補正部15は、状態判定部14から出力された、パターンを示す情報と、骨格情報及び各骨格のXY座標を示す情報とを取得する(ステップS1501)。First, the
次に、補正部15は、取得された情報に基づくパターンに応じて、上記の補正値B3を算出する(ステップS1502)。なお前述の通り、補正部15は、パターン1及びパターン5である場合には補正処理を行わない。Next, the
次に、補正部15は、補正値とB3と、パターンを示す情報とを、身長算出部18へ出力する(ステップS1503)。以上で、図8のフローチャートが示す補正部15の動作が終了する。Next, the
図9は、上記のパターンごとの補正部15による補正処理(算出値B1~2及び補正値B3の算出方法等)をまとめた図である。
Figure 9 is a diagram summarizing the correction processing by the
[推定身長値の算出処理]
以下、身長算出部18による推定身長値の算出処理について説明する。本実施形態では、以下に示されるパターンごとの推定身長値の算出式を定義し、推定身長値を算出する。また、身長算出部18は、パターン2~4の場合には、上記の補正値B3を用いた算出式を定義して算出値B4を算出し、算出値B4を用いた推定身長値の算出式を定義する。
[Calculation process of estimated height value]
The calculation process of the estimated height value by the height calculation unit 18 will be described below. In this embodiment, a calculation formula for the estimated height value for each pattern shown below is defined, and the estimated height value is calculated. In addition, in the case of patterns 2 to 4, the height calculation unit 18 defines a calculation formula using the above correction value B3 to calculate the calculated value B4, and defines a calculation formula for the estimated height value using the calculated value B4.
パターンごとの推定身長値、及び算出値B4は、以下のように定義される。なお、身長算出部18は、パターン5である場合には推定身長値の算出処理を行わない。なぜならば、パターン5の場合、人物の姿勢がパターン1~4のいずれにも当てはまらず、姿勢の特定が困難であるため、推定身長値の算出ができないからである。The estimated height value for each pattern and the calculated value B4 are defined as follows. Note that the height calculation unit 18 does not perform the calculation process for the estimated height value in the case of pattern 5. This is because in the case of pattern 5, the person's posture does not fit into any of patterns 1 to 4, making it difficult to identify the posture and therefore making it impossible to calculate the estimated height value.
パターン1の場合における推定身長値は以下のように定義される。
推定身長値=(物体の高さ)×(人物枠Y軸幅/物体枠Y軸幅)
The estimated height value in the case of pattern 1 is defined as follows.
Estimated height value = (height of object) x (width of person frame on Y axis / width of object frame on Y axis)
パターン2の場合における算出値B4、及び推定身長値は以下のように定義される。
算出値B4=(人物枠Y軸幅)×(パターン2の補正値B3)
推定身長値=(物体の高さ)×(パターン2の算出値B4/物体枠Y軸幅)
The calculated value B4 and the estimated height value in the case of pattern 2 are defined as follows.
Calculated value B4 = (Y-axis width of person frame) x (correction value B3 of pattern 2)
Estimated height value = (height of object) x (calculated value B4 of pattern 2 / Y-axis width of object frame)
パターン3の場合における算出値B4、及び推定身長値は以下のように定義される。
算出値B4=(人物枠Y軸幅)×(パターン3の補正値B3)
推定身長値=(物体の高さ)×(パターン3の算出値B4/物体枠Y軸幅)
The calculated value B4 and the estimated height value in the case of pattern 3 are defined as follows.
Calculated value B4 = (Y-axis width of person frame) x (correction value B3 of pattern 3)
Estimated height value = (height of object) x (calculated value B4 of pattern 3 / Y-axis width of object frame)
パターン4の場合における算出値B4、及び推定身長値は以下のように定義される。
算出値B4=(人物枠Y軸幅)×(パターン4の補正値B3)
推定身長値=(物体の高さ)×(パターン4の算出値B4/物体枠Y軸幅)
The calculated value B4 and the estimated height value in the case of pattern 4 are defined as follows.
Calculated value B4 = (Y-axis width of person frame) × (correction value B3 of pattern 4)
Estimated height value = (height of object) x (calculated value B4 of pattern 4 / Y-axis width of object frame)
なお前述の通り、パターン5の場合には、身長算出部18は推定身長値の算出処理を行わず、推定身長値を出力しない。パターン5の場合とは、例えば各骨格の位置を正しく認識できない場合であり、人物が座っている場合や極端に体を曲げている場合等が考えられる。なお、入力画像において、人物の近傍に物体が存在しない場合、人物の近傍に物体が存在するが当該物体の大きさ(高さ)が既知でない場合、及び、人物の近傍に物体が存在するが当該物体の物体名称が特定できない場合等においても、身長算出部18は推定身長値の算出処理を行うことができないため、推定身長値を出力しない。As mentioned above, in the case of pattern 5, the height calculation unit 18 does not perform the calculation process of the estimated height value and does not output the estimated height value. The case of pattern 5 is, for example, when the position of each skeleton cannot be correctly recognized, such as when the person is sitting or when the body is extremely bent. Note that in the case where there is no object near the person in the input image, when there is an object near the person but the size (height) of the object is unknown, or when there is an object near the person but the object name of the object cannot be identified, the height calculation unit 18 cannot perform the calculation process of the estimated height value and does not output the estimated height value.
[身長算出部の動作]
以下、身長算出部18の動作について説明する。図10は、本発明の実施形態における身長算出部18の動作を示すフローチャートである。
[Height calculation unit operation]
The following describes the operation of the height calculation unit 18. Fig. 10 is a flowchart showing the operation of the height calculation unit 18 in the embodiment of the present invention.
まず、身長算出部18は、補正部15から出力された、補正値と、パターンを示す情報とを取得する。また、身長算出部18は、物体照合部17から出力された、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを取得する。(ステップS1801)。First, the height calculation unit 18 acquires the correction value and the information indicating the pattern output from the
次に、身長算出部18は、取得された情報に基づくパターンに応じて、上記の推定身長値を算出する(ステップS1802)。なお前述の通り、補正部15は、パターン5である場合には推定身長値の算出処理を行わない。Next, the height calculation unit 18 calculates the above-mentioned estimated height value according to the pattern based on the acquired information (step S1802). As described above, the
次に、身長算出部18は、推定結果(例えば、算出された推定身長値)を示す情報を出力部19へ出力する(ステップS1803)。なお前述の通り、身長算出部18は、パターン5の場合には、出力部19への情報出力を行わない。または、身長算出部18は、パターン5の場合には、推定不可能であることを示す情報を出力部19へ出力するようにしてもよい。以上で、図10のフローチャートが示す補正部15の動作が終了する。Next, the height calculation unit 18 outputs information indicating the estimation result (e.g., the calculated estimated height value) to the output unit 19 (step S1803). As described above, in the case of pattern 5, the height calculation unit 18 does not output information to the
図11は、上記のパターンごとの身長算出部18による推定身長値の算出処理をまとめた図である。 Figure 11 is a diagram summarizing the calculation process of estimated height values by the height calculation unit 18 for each of the above patterns.
[物体照合部の動作]
以下、物体照合部17の動作について説明する。図12は、本発明の実施形態における物体照合部17の動作を示すフローチャートである。
[Operation of Object Matching Unit]
The following describes the operation of the
まず、物体照合部17は、人物・物体抽出部16から出力された物体名称を示す情報と、物体枠のXY座標と、人物枠のXY座標とを取得する(ステップS1701)。First, the
物体照合部17は、記憶部11が予め記憶している物体データ110を参照する。物体照合部17は、取得された情報に基づく物体名称を、物体データ110に含まれる物体名称と照合する(ステップS1702)。The
物体照合部17は、照合によって検出された、物体データ110に含まれる物体名称に対応付けられた物体の高さの値(高さ情報)を取得する(ステップS1703)。The
物体照合部17は、物体枠のXY座標と、高さ情報と、人物枠のXY座標とを、身長算出部18へ出力する(ステップS1704)。以上で、図12のフローチャートが示す物体照合部17の動作が終了する。The
図13は、記憶部11に記録されている物体データ110の構成の一例を示す図である。図13に示されるように、物体データ110は、物体名称と、物体の大きさ(高さ)の値とが対応付けられたデータの集合である。
Figure 13 is a diagram showing an example of the configuration of
以上説明したように、本実施形態における身長推定装置1は、人物と物体とが撮像された画像から人物の骨格の位置を抽出し、骨格の各部位の位置関係に基づいて人物の姿勢のパターンを判定する。身長推定装置1は、パターンごとに予め定められた演算式に基づいて算出される補正値と、物体の実際の高さと、画像内における物体の高さ及び人物の高さとに基づいて、人物の実際の身長を推定する。このような構成を備えることで、本実施形態における身長推定装置1は、入力画像内の人物が直立した姿勢ではない場合であっても、より精度よく入力画像から人物の身長を推定することができる。As described above, the height estimation device 1 in this embodiment extracts the position of a person's skeleton from an image in which a person and an object are captured, and determines the person's posture pattern based on the positional relationship of each part of the skeleton. The height estimation device 1 estimates the person's actual height based on a correction value calculated based on a predetermined arithmetic formula for each pattern, the actual height of the object, and the height of the object and the height of the person in the image. With this configuration, the height estimation device 1 in this embodiment can more accurately estimate the height of a person from an input image even if the person in the input image is not standing upright.
上述した実施形態によれば、身長推定装置は、画像取得部と、骨格抽出部と、判定部と、推定部とを備える。例えば、画像取得部は、実施形態における画像入力部12であり、判定部は、実施形態における状態判定部14であり、推定部は、実施形態における身長算出部18である。画像取得部は、人物と物体とが撮像された画像を取得する。骨格抽出部は、画像内における人物の骨格の位置を抽出する。判定部は、骨格の各部位の位置関係に基づいて人物の姿勢のパターンを判定する。推定部は、パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、画像内における人物の高さとに基づいて、人物の実際の身長を推定する。According to the above-described embodiment, the height estimation device includes an image acquisition unit, a skeleton extraction unit, a determination unit, and an estimation unit. For example, the image acquisition unit is the
なお、上記の身長推定装置は、高さ情報取得部をさらに備えていてもよい。例えば、高さ情報取得部は、実施形態における物体照合部17である。高さ情報取得部は、物体の実際の高さを示す情報を取得する。この場合、推定部は、物体の実際の高さと、画像内における物体の高さとに基づいて、身長を推定する。
The height estimation device may further include a height information acquisition unit. For example, the height information acquisition unit is the
なお、上記の身長推定装置は、補正部をさらに備えていてもよい。補正部は、画像内における人物の両足のうち、長い方の足の長さを用いて補正値を算出する。The height estimation device may further include a correction unit that calculates a correction value using the length of the longer of the person's two legs in the image.
なお、補正部は、画像内における人物の、鼻の位置、首下の位置、及び腰の中央の位置に基づく二次曲線を算出し、鼻の位置から腰の中央の位置までの二次曲線の長さを用いて補正値を算出してもよい。 The correction unit may also calculate a quadratic curve based on the position of the nose, the position of the neck, and the position of the center of the waist of a person in the image, and calculate a correction value using the length of the quadratic curve from the position of the nose to the position of the center of the waist.
なお、判定部は、人物の姿勢を、直立している姿勢のパターン、足を左右に広げている姿勢のパターン、足を前後に広げている姿勢のパターン、体を横方向に曲げている姿勢のパターン、又はその他の姿勢のパターンのいずれかであると判定するようにしてもよい。The determination unit may determine that the person's posture is one of an upright posture pattern, a posture pattern with legs spread apart, a posture pattern with legs spread apart, a posture pattern with the body bent sideways, or another posture pattern.
なお、上記の身長推定装置は、特定部をさらに備えていてもよい。例えば、特定部は、実施形態における物体照合部17である。特定部は、画像に写る物体を検出し、物体の名称を特定する。この場合、高さ情報取得部は、物体の名称と物体の高さを示す情報とが対応付けられた物体情報と、画像に写る物体の名称とに基づいて、画像に写る物体の高さを取得する。例えば、物体情報は、実施形態における物体データ110である。
The height estimation device may further include an identification unit. For example, the identification unit is the
上述した各実施形態における身長推定装置1の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 The height estimation device 1 in each of the above-mentioned embodiments may be realized in part or in whole by a computer. In that case, a program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in the recording medium may be read into a computer system and executed to realize the function. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. The term "computer-readable recording medium" refers to portable media such as flexible disks, optical magnetic disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into a computer system. The term "computer-readable recording medium" may also include a medium that dynamically holds a program for a short period of time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, and a medium that holds a program for a certain period of time, such as a volatile memory inside a computer system that is a server or client in that case. The above-mentioned program may be a program for realizing part of the above-mentioned function, or may be a program that can realize the above-mentioned function in combination with a program already recorded in the computer system, or may be a program that is realized using a programmable logic device such as an FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The above describes in detail an embodiment of the present invention with reference to the drawings, but the specific configuration is not limited to this embodiment and also includes designs that do not deviate from the gist of the present invention.
1…身長推定装置,10…制御部,11…記憶部,12…画像入力部,13…骨格抽出部,14…状態判定部,15…補正部,16…人物・物体抽出部,17…物体照合部,18…身長算出部,19…出力部,110…物体データ 1...height estimation device, 10...control unit, 11...memory unit, 12...image input unit, 13...skeleton extraction unit, 14...state determination unit, 15...correction unit, 16...person/object extraction unit, 17...object matching unit, 18...height calculation unit, 19...output unit, 110...object data
Claims (8)
人物と物体とが撮像された画像を取得する画像取得ステップと、
前記画像内における前記人物の骨格の位置を抽出する骨格抽出ステップと、
前記骨格の各部位の位置関係から算出される、両目間、両耳間、両肩間、両腰間、及び両足首間のうち少なくとも1つの傾き、鼻から両足首の中心までの長さに対する両足首の間の長さの比率、及び両足の長さの和に対する両足の長さの差の比率に基づいて前記人物の姿勢のパターンを判定する判定ステップと、
前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定ステップと、
を有する身長推定方法。 1. A computer implemented method for estimating height, comprising:
An image acquisition step of acquiring an image of a person and an object;
a skeleton extraction step of extracting a position of the skeleton of the person in the image;
a determining step of determining a posture pattern of the person based on at least one of an inclination between the eyes, between the ears, between the shoulders, between the hips, and between the ankles, which are calculated from the positional relationship of each part of the skeleton, a ratio of the length between the ankles to the length from the nose to the center of the ankles, and a ratio of the difference in the lengths of the feet to the sum of the lengths of the feet ;
an estimation step of estimating an actual height of the person based on a correction value obtained by curve approximation or linear approximation, which is used depending on the characteristics of the bending of the skeleton corresponding to the pattern, and a height of the person in the image;
The height estimation method has the following features.
をさらに有し、
前記推定ステップは、前記物体の実際の高さと、前記画像内における前記物体の高さとに基づいて、前記身長を推定する
請求項1に記載の身長推定方法。 acquiring information indicating an actual height of the object;
The height estimation method according to claim 1 , wherein the estimating step estimates the height based on an actual height of the object and a height of the object in the image.
をさらに有する請求項1又は請求項2に記載の身長推定方法。 The height estimation method according to claim 1 or 2, further comprising: a correction step of calculating the correction value using a length of a longer one of both legs of the person in the image.
をさらに有する請求項1から請求項3のうちいずれか一項に記載の身長推定方法。 4. The height estimation method according to claim 1, further comprising: a correction step of calculating a quadratic curve based on a position of a nose, a position under the neck, and a position of a center of a waist of the person in the image, and calculating the correction value using a length of the quadratic curve from the position of the nose to the position of the center of the waist.
請求項1から請求項4のうちいずれか一項に記載の身長推定方法。 5. The height estimation method according to claim 1, wherein the determining step determines that the person's posture is one of an upright posture pattern, a posture pattern with legs spread apart, a posture pattern with legs spread apart, a posture pattern with the body bent sideways, and other posture patterns.
をさらに有し、
前記高さ情報取得ステップは、物体の名称と前記物体の高さを示す情報とが対応付けられた物体情報と、前記画像に写る物体の名称とに基づいて、前記画像に写る物体の高さを取得する
請求項1から請求項5のうちいずれか一項に記載の身長推定方法。 The method further includes a step of detecting the object in the image and identifying the name of the object,
6. The height estimation method according to claim 1, wherein the height information acquisition step acquires a height of an object appearing in the image based on object information in which a name of the object is associated with information indicating a height of the object, and a name of the object appearing in the image.
前記画像内における前記人物の骨格の位置を抽出する骨格抽出部と、
前記骨格の各部位の位置関係から算出される、両目間、両耳間、両肩間、両腰間、及び両足首間のうち少なくとも1つの傾き、鼻から両足首の中心までの長さに対する両足首の間の長さの比率、及び両足の長さの和に対する両足の長さの差の比率に基づいて前記人物の姿勢のパターンを判定する判定部と、
前記パターンに対応する前記骨格の曲がり方の特性に応じて使い分けられる曲線近似または直線近似によって得られる補正値と、前記画像内における前記人物の高さとに基づいて、前記人物の実際の身長を推定する推定部と、
を備える身長推定装置。 an image acquisition unit that acquires an image of a person and an object;
a skeleton extraction unit that extracts a position of the skeleton of the person in the image;
a determination unit which determines a pattern of the person's posture based on at least one of an inclination between the eyes, between the ears, between the shoulders, between the hips, and between the ankles, which are calculated from the positional relationship of each part of the skeleton, a ratio of the length between the ankles to the length from the nose to the center of the ankles, and a ratio of the difference in the lengths of the feet to the sum of the lengths of the feet ;
an estimation unit that estimates an actual height of the person based on a correction value obtained by curve approximation or linear approximation that is used depending on the characteristics of the bending of the skeleton corresponding to the pattern and the height of the person in the image;
A height estimation device comprising:
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2021/004226 WO2022168252A1 (en) | 2021-02-05 | 2021-02-05 | Body height estimation method, body height estimation device, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2022168252A1 JPWO2022168252A1 (en) | 2022-08-11 |
| JP7598042B2 true JP7598042B2 (en) | 2024-12-11 |
Family
ID=82740993
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022579251A Active JP7598042B2 (en) | 2021-02-05 | 2021-02-05 | Height estimation method, height estimation device and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7598042B2 (en) |
| WO (1) | WO2022168252A1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008286638A (en) | 2007-05-17 | 2008-11-27 | Sogo Keibi Hosho Co Ltd | Height estimating apparatus and height estimating method |
| US20090232353A1 (en) | 2006-11-10 | 2009-09-17 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
| WO2019082376A1 (en) | 2017-10-27 | 2019-05-02 | 株式会社アシックス | Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program |
-
2021
- 2021-02-05 WO PCT/JP2021/004226 patent/WO2022168252A1/en not_active Ceased
- 2021-02-05 JP JP2022579251A patent/JP7598042B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090232353A1 (en) | 2006-11-10 | 2009-09-17 | University Of Maryland | Method and system for markerless motion capture using multiple cameras |
| JP2008286638A (en) | 2007-05-17 | 2008-11-27 | Sogo Keibi Hosho Co Ltd | Height estimating apparatus and height estimating method |
| WO2019082376A1 (en) | 2017-10-27 | 2019-05-02 | 株式会社アシックス | Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2022168252A1 (en) | 2022-08-11 |
| WO2022168252A1 (en) | 2022-08-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12300015B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium storing image processing program | |
| Kishore et al. | Estimation of yoga postures using machine learning techniques | |
| US9898651B2 (en) | Upper-body skeleton extraction from depth maps | |
| US9031286B2 (en) | Object detection device and object detection method | |
| US9480417B2 (en) | Posture estimation device, posture estimation system, and posture estimation method | |
| Ye et al. | A depth camera motion analysis framework for tele-rehabilitation: Motion capture and person-centric kinematics analysis | |
| US5995639A (en) | Apparatus for identifying person | |
| CN104200200B (en) | Fusion depth information and half-tone information realize the system and method for Gait Recognition | |
| US12424017B2 (en) | Human skeleton image apparatus, method, and non-transitory computer readable medium | |
| US20230206633A1 (en) | Computer-readable recording medium, information processing method, and information processing apparatus | |
| US12236704B2 (en) | Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program | |
| US20180307896A1 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
| US20230267743A1 (en) | Computer-readable recording medium, information processing method, and information processing apparatus | |
| JP7136344B2 (en) | Camera calibration method, camera and program | |
| US20240119087A1 (en) | Image processing apparatus, image processing method, and non-transitory storage medium | |
| JP7598042B2 (en) | Height estimation method, height estimation device and program | |
| US12174885B2 (en) | Image selection apparatus, image selection method, and non-transitory computer-readable medium | |
| US12481696B2 (en) | Image selection apparatus, image selection method, and non-transitory computer-readable medium | |
| US20230368419A1 (en) | Image selection apparatus, image selection method, and non-transitory computer-readable medium | |
| US12277165B2 (en) | Image processing apparatus, and image processing method | |
| US20250029363A1 (en) | Image processing system, image processing method, and non-transitory computer-readable medium | |
| US12411889B2 (en) | Image selection apparatus, image selection method, and non-transitory computer-readable medium | |
| WO2021224994A1 (en) | Image selection device, image selection method, and program | |
| US20240112364A1 (en) | Person state detection apparatus, person state detection method, and non-transitory computer readable medium storing program | |
| US20250157077A1 (en) | Image processing system, image processing method, and non-transitory computer-readable medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230705 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240705 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241029 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241111 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7598042 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |