JP7175045B1 - Image analysis system, image analysis device, image analysis method and image analysis program - Google Patents
Image analysis system, image analysis device, image analysis method and image analysis program Download PDFInfo
- Publication number
- JP7175045B1 JP7175045B1 JP2021182653A JP2021182653A JP7175045B1 JP 7175045 B1 JP7175045 B1 JP 7175045B1 JP 2021182653 A JP2021182653 A JP 2021182653A JP 2021182653 A JP2021182653 A JP 2021182653A JP 7175045 B1 JP7175045 B1 JP 7175045B1
- Authority
- JP
- Japan
- Prior art keywords
- area
- contact
- center
- image
- bisector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010191 image analysis Methods 0.000 title claims abstract description 64
- 238000003703 image analysis method Methods 0.000 title claims abstract description 9
- 238000001514 detection method Methods 0.000 claims abstract description 49
- 230000001678 irradiating effect Effects 0.000 claims abstract 2
- 230000005484 gravity Effects 0.000 claims description 46
- 238000000034 method Methods 0.000 abstract description 11
- 238000004458 analytical method Methods 0.000 abstract description 6
- 210000002683 foot Anatomy 0.000 description 20
- 239000011521 glass Substances 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 210000003371 toe Anatomy 0.000 description 6
- 239000003086 colorant Substances 0.000 description 4
- 206010061159 Foot deformity Diseases 0.000 description 3
- 208000001963 Hallux Valgus Diseases 0.000 description 3
- 230000017531 blood circulation Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 206010006585 Bunion Diseases 0.000 description 2
- 206010020649 Hyperkeratosis Diseases 0.000 description 2
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 210000000454 fifth toe Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 208000003643 Callosities Diseases 0.000 description 1
- 241000469816 Varus Species 0.000 description 1
- 240000008042 Zea mays Species 0.000 description 1
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 1
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 235000005822 corn Nutrition 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】足裏画像等の画像情報から、演算量を抑えた簡易な方法で重心位置を求めることができる画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムを提供する。【解決手段】被測定者の部位の画像情報を読み取る画像読取装置と、画像情報を用いて部位に関する解析を行う画像解析装置と、を備える画像解析システムであって、画像読取装置が、被測定者の部位が接触する接触板と、接触板に対して、部位が接触している面の反対側の面に光を照射することにより、画像情報を取得する画像取得部と、を備え、画像解析装置が、画像情報から、部位が接触板に接触している接触領域を検出し、接触領域に関する接触情報を求める接触領域検出部と、接触情報を基に求められる、接触領域の面積を二等分する少なくとも2本の二等分線の交点より、被測定者の重心位置を求める重心検出部と、を備える。【選択図】図1An image analysis system, an image analysis apparatus, an image analysis method, and an image analysis program capable of obtaining a center-of-gravity position from image information such as a sole image by a simple method with a reduced amount of calculation are provided. Kind Code: A1 An image analysis system comprising an image reading device for reading image information of a part of a person to be measured, and an image analysis device for analyzing the part using the image information, wherein the image reading device a contact plate with which a part of a person comes into contact; and an image acquisition unit that acquires image information by irradiating a surface of the contact plate opposite to the surface with which the part is in contact with light. The analysis device detects the contact area where the part is in contact with the contact plate from the image information, and the contact area detection unit that obtains the contact information about the contact area, and the area of the contact area that is obtained based on the contact information. a center-of-gravity detection unit that obtains the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that divide equally. [Selection drawing] Fig. 1
Description
本発明は、被測定者の足の裏等の部位に関して重心位置の解析等を行う画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムに関する。 The present invention relates to an image analysis system, an image analysis apparatus, an image analysis method, and an image analysis program for analyzing the position of the center of gravity of a part such as the sole of a person's foot.
直立した状態での人の足の裏(足裏)の画像(以下、「足裏画像」とする)が、病院、靴屋等で利用されている。例えば、病院や整骨院では、足裏画像から足の裏にかかる圧力の分布や重心の位置を求めることにより、体のバランスや歪み等の診断に利用することができる。足指の角度を計算することにより、外反母趾や内反小趾の診断に利用することができる。靴屋では、足裏画像から足裏の長さや横幅等を測定することにより、顧客に適切な靴の選定を行うことができ、オーダーメイドでの靴の提供にも利用できる。 2. Description of the Related Art Images of the soles of a person's feet (soles) in an upright position (hereinafter referred to as "sole images") are used in hospitals, shoe stores, and the like. For example, in hospitals and osteopathic clinics, the distribution of pressure applied to the soles of the feet and the position of the center of gravity can be obtained from the images of the soles of the feet, which can be used for diagnosing the balance and distortion of the body. By calculating the angle of the toes, it can be used for diagnosis of hallux valgus and bunion little toe. Shoe stores can select appropriate shoes for customers by measuring the length, width, etc. of the soles from the images of the soles, and can also be used to provide custom-made shoes.
足裏画像から求められる情報の1つである重心位置については、圧力センサや荷重センサ等を使用して求める方法が多く提案されている(例えば、特開2009-254811号公報(特許文献1))。重心は、物体の各部分に働く重力の合力が作用するとみなされる点であるから、モーメント演算により重心位置を求めるべく、モーメント演算に使用する圧力を圧力センサや荷重センサ等により検出する。一方、センサを使用する方法はコストの増加や装置の複雑化等を招くとして、低コスト化や装置のコンパクト化等を図るために、足裏画像を利用して重心位置を求める方法が提案されている。 Regarding the position of the center of gravity, which is one of the information obtained from the sole image, many methods have been proposed that use pressure sensors, load sensors, and the like (for example, JP-A-2009-254811 (Patent Document 1)). ). Since the center of gravity is considered to be the point where the resultant force of gravity acting on each part of the object acts, the pressure used for moment calculation is detected by a pressure sensor, load sensor, or the like in order to obtain the position of the center of gravity by moment calculation. On the other hand, the method using a sensor increases the cost and complicates the device, so in order to reduce the cost and make the device more compact, a method of finding the center of gravity position using the sole image has been proposed. ing.
例えば、特開2009-232942号公報(特許文献2)に開示されている重心位置解析法では、足の底圧は足裏画像の接地面画像の輝度と相関していることを利用して重心位置を求めている。被測定者は内部に光を投射させたガラス板の上に足を載せ、ガラス板の下から被測定者の足を撮影する。この際、皮膚接触部分では光は乱反射するが、皮膚のガラスへの接触面積は圧力に比例して増大するので、接触面の光の量は圧力に比例して輝度値(光量)が増加することになる。よって、足裏画像の接地部領域の各画素での輝度値と座標軸(X座標、Y座標)との積の全画素の合計を輝度モーメントとして計算し、その輝度モーメントを接地部領域の全輝度値の合計で除することで、足の重心位置(重心座標)を求めている。 For example, in the center-of-gravity position analysis method disclosed in Japanese Patent Application Laid-Open No. 2009-232942 (Patent Document 2), the center of gravity is calculated by utilizing the fact that the bottom pressure of the foot is correlated with the brightness of the ground surface image of the sole image. looking for a position. A person to be measured puts his/her foot on the glass plate, which is illuminated with light, and the person's foot is photographed from under the glass plate. At this time, the light is diffusely reflected at the part in contact with the skin, but since the contact area of the skin with the glass increases in proportion to the pressure, the amount of light on the contact surface increases in brightness value (light amount) in proportion to the pressure. It will be. Therefore, the sum of the products of the luminance value of each pixel in the contact area of the foot sole image and the coordinate axis (X coordinate, Y coordinate) for all pixels is calculated as the luminance moment, and the luminance moment is the total luminance of the contact area. By dividing by the sum of the values, the position of the center of gravity of the foot (coordinates of the center of gravity) is obtained.
しかしながら、特許文献2の方法で重心位置を求めるためには、接地部領域の全画素での輝度値と座標軸との積和演算、接地部領域の全輝度値の加算演算等が必要であり、演算量は少なくない。 However, in order to obtain the center-of-gravity position by the method of Patent Document 2, it is necessary to perform a sum-of-products operation of the luminance values of all pixels in the ground portion region and the coordinate axes, an addition operation of all the luminance values of the ground portion region, and the like. The amount of computation is not small.
本発明は上述のような事情よりなされたものであり、本発明の目的は、足裏画像等の画像情報から、演算量を抑えた簡易な方法で重心位置を求めることができる画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the circumstances described above. An object of the present invention is to provide an image analysis device, an image analysis method, and an image analysis program.
本発明は、被測定者の部位の画像情報を読み取る画像読取装置と、前記画像情報を用いて前記部位に関する解析を行う画像解析装置と、を備える画像解析システムに関し、本発明の上記目的は、前記画像読取装置が、前記被測定者の部位が接触する接触板と、前記接触板に対して、前記部位が接触している面の反対側の面に光を照射することにより、前記画像情報を取得する画像取得部と、を備え、前記画像解析装置が、前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、前記接触情報を基に求められる、前記接触領域の面積を二等分する少なくとも2本の二等分線の交点より、前記被測定者の重心位置を求める重心検出部と、を備えることにより達成される。 The present invention relates to an image analysis system comprising an image reading device for reading image information of a part of a person to be measured, and an image analysis device for analyzing the part using the image information. The image reading device irradiates a contact plate with which the part of the person to be measured is in contact, and a surface of the contact plate opposite to the surface with which the part is in contact, thereby reading the image information. wherein the image analysis device detects, from the image information, a contact area where the site is in contact with the contact plate, and obtains contact information regarding the contact area. and a center-of-gravity detection unit that obtains the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that bisect the area of the contact area, which is obtained based on the contact information. This is achieved by
また、本発明は、被測定者の部位の画像情報を用いて前記部位に関する解析を行う画像解析装置に関し、本発明の上記目的は、前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力し、前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、前記接触情報を基に求められる、前記接触領域の面積を二等分する少なくとも2本の二等分線の交点より、前記被測定者の重心位置を求める重心検出部と、を備えることにより達成される。 The present invention also relates to an image analysis apparatus that analyzes a part of a person to be measured using image information of the part. a contact area detection unit for inputting the image information, detecting a contact area where the part is in contact with the contact plate from the image information, and obtaining contact information about the contact area; a center-of-gravity detection unit that obtains the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that bisect the area of the contact area.
また、本発明は、被測定者の部位の画像情報を用いて前記部位に関する解析を行う画像解析方法に関し、本発明の上記目的は、前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力する入力ステップと、前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出ステップと、前記接触情報を基に求められる、前記接触領域の面積を二等分する少なくとも2本の二等分線の交点より、前記被測定者の重心位置を求める重心検出ステップと、を含むことにより達成される。 The present invention also relates to an image analysis method for analyzing a site using image information of a site of a person to be measured. a contact area detection step of detecting a contact area where the site is in contact with the contact plate from the image information and obtaining contact information about the contact area; and the contact information and a center-of-gravity detection step of determining the center-of-gravity position of the person to be measured from the intersection of at least two bisectors that bisect the area of the contact area.
さらに、本発明の上記目的は、コンピュータに、上記の画像解析方法を実行させるための画像解析プログラムにより達成される。 Furthermore, the above object of the present invention is achieved by an image analysis program for causing a computer to execute the above image analysis method.
本発明の画像解析システム、画像解析装置、画像解析方法、及び画像解析プログラムによれば、被測定者の部位が接触板に接触している接触領域の面積を基にして重心位置を求めるので、多くの演算量を必要とする演算を用いずに、簡易な方法で画像情報から重心位置を求めることができる。 According to the image analysis system, image analysis apparatus, image analysis method, and image analysis program of the present invention, the position of the center of gravity is obtained based on the area of the contact area where the part of the subject is in contact with the contact plate. The position of the center of gravity can be obtained from the image information by a simple method without using calculations requiring a large amount of calculations.
本発明では、被測定者の足裏等の部位を接触板に接触させて撮影された画像(画像情報)から、部位が接触板に接触している領域である接触領域を検出し、接触領域の面積を基に重心位置を求める。具体的には、接触領域における各点の圧力はバラツキが少ないと推測し、接触領域の面積を二等分する二等分線を複数求め、それらの二等分線の交点から重心位置を求める。重心を通る線が必ずしも面積を二等分するとは限らないが、二等分線の中には重心を通るものがあり、少なくとも重心の近傍を通るので、二等分線の交点の位置を近似的に重心位置とする。交点が複数ある場合は、それらの交点から求められる点、例えば幾何中心(重心)等の位置を重心位置とする。 In the present invention, from an image (image information) photographed by contacting a part such as the sole of the subject's foot with the contact plate, the contact area, which is the area where the part is in contact with the contact plate, is detected, and the contact area is detected. Find the center of gravity position based on the area of . Specifically, assuming that the pressure at each point in the contact area has little variation, multiple bisectors that bisect the area of the contact area are obtained, and the position of the center of gravity is obtained from the intersection of these bisectors. . Although the lines passing through the centroids do not necessarily bisect the area, some bisectors pass through the centroids, or at least near the centroids, so approximate the location of the intersection of the bisectors. center of gravity. If there are a plurality of intersection points, the point obtained from those intersection points, for example, the position of the geometric center (center of gravity), etc., is defined as the position of the center of gravity.
以下に、本発明の実施の形態を、図面を参照して説明する。なお、各図において、同一構成要素には同一符号を付し、説明を省略することがある。また、以下では、本発明を実施するための主要な構成及び動作を中心にして説明しており、本発明を実施するために必要となる汎用的な処理、例えばデータ送受信処理、画面表示処理等については説明を簡略又は省略している。 BEST MODE FOR CARRYING OUT THE INVENTION Below, embodiments of the present invention will be described with reference to the drawings. In addition, in each figure, the same code|symbol may be attached|subjected to the same component and description may be abbreviate|omitted. Further, the following description focuses on the main configuration and operation for implementing the present invention, and general-purpose processing required for implementing the present invention, such as data transmission/reception processing, screen display processing, etc. The description of is simplified or omitted.
本発明に係る画像解析システムの構成例(第1実施形態)を図1に示す。なお、本実施形態の画像解析システムの解析対象は足裏とするが、その他の人体の部位、例えば手のひら等も解析の対象とすることができる。 FIG. 1 shows a configuration example (first embodiment) of an image analysis system according to the present invention. Note that the analysis target of the image analysis system of this embodiment is the sole, but other parts of the human body, such as the palm of the hand, can also be the analysis target.
図1に示されるように、画像解析システム1は、画像読取装置10及び画像解析装置20を備え、画像読取装置10と画像解析装置20はケーブル30で接続されている。
As shown in FIG. 1 , the image analysis system 1 includes an
画像読取装置10は一般的なコピー機が有しているスキャナ機能と同様な機能を有しており、ガラス板(接触板)11に載置された対象物をスキャンして、画像として取り込む。本実施形態では、被測定者はガラス板11の上に両足を載せて直立した状態となって足裏をスキャンされるので、ガラス板11は被測定者の体重に耐えうる強度が必要であり、例えば耐荷重200kgを持つように設計されており、被測定者の両足が載るだけの十分な面積をもつ矩形状に形成されている。
The
図2は画像読取装置10の平面図である。画像読取装置10は略直方体の形状をしており、面積が広い上面にガラス板11が嵌着されている。図2において、上面の長辺の方向(図2での縦方向)をX軸、短辺の方向(図2での横方向)をY軸とし、右下端を原点とする。被測定者は、つま先と踵を結ぶ線がY軸と略同じ方向で、両足がX軸上で並ぶように、破線で示した位置に、直立した状態で、両足をガラス板11に載せる。
FIG. 2 is a plan view of the
画像読取装置10は、装置内部に光源、ミラー、レンズ及び画像読取手段(図示せず)を備え、CCD(Charge Coupled Device)方式で対象物の画像を取り込む。即ち、光源として白色光を用い、ガラス板11に載せられた対象物を、対象物が載せられた面とは反対の面から光源で照らし、その反射光がミラーで反射され、レンズを通って画像読取手段に対象物の像が入力される。光源は、図2(A)に示されるY軸方向の端から端までの1行を照射するようになっており、一定の速度でX軸方向に移動する。よって、画像読取手段には縮小された光の像が帯状に順次入力されることになる。画像読取手段は光信号を電気信号に変換するCCDイメージセンサ、アナログ・デジタル変換を行うA/Dコンバータ等で構成され、順次入力される光の像を、赤(Red)、緑(Green)及び青(Blue)で表現されるRGB色空間の値(以下、「RGB値」とする)に変換し、画像情報Vdとして出力する。Y軸方向の1行分の画像情報Vdは、図2(A)において右から左の順序で出力されるので、画像読取装置10は、図2(B)に示される矢印の順序で、画素単位で画像情報Vdを出力することになる。画像情報VdであるRGB値は、R(赤)、G(緑)、B(青)の各色を256階調(0~255)で表した値となっており、画像情報Vdは画素毎のRGB値であるvri、vgi及びvbi(i=1,2,…,I、Iは画素数)で構成されている。なお、光源、ミラー、レンズ及び画像読取手段より画像取得部が構成される。
The
このように、画像読取装置10は、一般のコピー機が有する機能の内のスキャン機能のみを応用しているので、ピドスコープ等の従来の画像読取装置に比べると、コンパクトな構造となっている。
As described above, the
なお、画像読取装置10は、CCD方式ではなく、CIS(Contact Image Sensor)方式で対象物の画像を取り込んでも良い。この場合、ミラーは不要となり、光源としてRGB3原色のLEDを使用し、画像読取手段ではCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを使用する。また、画像読取装置10は、対象物をスキャンして画像を取り込むのではなく、ガラス板11全体を撮影する機能を搭載し、対象物が載せられた面とは反対の面を1回撮影することにより、対象物の画像を取り込むようにしても良い。
Note that the
画像解析装置20は、画像情報Vdから被測定者の足裏の重心位置Cdを求め、重心の相対的な位置が視覚的にわかるように表示する。
The
画像解析装置20の構成例を図3に示す。画像解析装置20は、入力制御部21、画像記憶部22、接触領域検出部23、接触情報記憶部24、重心検出部25及び表示制御部26を備える。画像解析装置20としては、デスクトップ型パソコンやノートパソコン等を使用し、入力制御部21、接触領域検出部23、重心検出部25及び表示制御部26は、パソコンで動作するプログラムとして実現される。なお、図3には本実施形態で必要な構成要素のみを示しており、パソコンが有するその他のハードウェア及びソフトウェアの構成要素は示していない。また、画像解析装置20として、パソコンではなく、専用の装置を使用しても良い。
A configuration example of the
入力制御部21は、画像読取装置10に対象物のスキャンを開始させ、画像読取装置10から送信される画像情報Vdを入力し、画像記憶部22に格納する。
The
画像解析装置20を構成するパソコンの画面上に、画像読取装置10に対象物のスキャンを開始させるための動作開始ボタンを設け、パソコンに接続しているマウス等により動作開始ボタンを押すと、入力制御部21はそのことを検知し、画像読取装置10に対して動作開始信号Sgを送信する。画像読取装置10は、動作開始信号Sgを受信したら、対象物のスキャンを開始する。なお、パソコンの画面上に動作開始ボタンを設けるのではなく、パソコンに接続しているキーボードの任意のキー(例えば、Enterキー等)を動作開始ボタンとして使用しても良い。また、画像解析装置20ではなく、画像読取装置10に動作開始ボタンを設けても良い。この場合、動作開始信号Sgの送受信は不要となるが、動作開始ボタンを押す前に、画像解析装置20を起動させ、画像読取装置10から送信される画像情報Vdを受信できる状態にしておく必要がある。
An operation start button is provided on the screen of the personal computer that constitutes the
画像読取装置10からは、図2(B)に示される矢印の順序で画像情報Vdが送信されるので、入力制御部21は、画像読取装置10でのスキャン終了まで画像情報Vdを順次入力し、その順序通りに画像情報Vdを画像記憶部22に格納する。例えば、順次出力される画像情報Vdを、アドレスの昇順で画像記憶部22に格納していく。
Since the image information Vd is transmitted from the
画像記憶部22は、入力制御部21から出力される画像情報Vdを記憶する。画像記憶部22は、画像読取装置10での1回のスキャンにより生成される画像情報Vdを1つのファイルとして記憶しても良い。
The
接触領域検出部23は、画像記憶部22に記憶されている画像情報Vdから接触領域を検出し、接触領域に関する情報(接触情報)Tdとして出力する。
The contact
接触領域検出部23は、画像解析装置20が足裏全体における重心位置を的確に把握できるような画像を表示するために、接触領域だけではなく、ガラス板11に接触していない足裏の領域(以下、「非接触領域」とする)も検出する。つまり、接触領域検出部23は、足裏画像を、接触領域、非接触領域、及びガラス板11にて足が載っていない足裏以外の領域(以下、「非足裏領域」とする)の3つの領域に区分する。そのために、接触領域検出部23は、画像情報Vdに含まれる色情報を用いて、接触領域及び非接触領域を検出する。
The contact
人体の表面には毛細血管が張り巡っているので、被測定者の部位を接触板に接触させて、接触した部位の皮膚に圧力を加えると、圧力が加わった箇所の毛細血管が圧迫され、血流が抑制される。人体の皮膚、特に手のひらや足裏の皮膚の色は、毛細血管内の血液の色である赤色を反映した色となっているので、皮膚に圧力が加わっていない通常の血流での皮膚の色と、皮膚に圧力が加わり抑制された血流での皮膚の色には違いが生じる。このような違いが生じる皮膚の色を反映した色情報を用いることにより、接触領域及び非接触領域を検出することができる。特に、人体の足裏の色は、病気等による異常がない場合、人種、性別、年齢に関わらず、圧力が加わっていない状態では、メラニンや毛細血管内の血液の色を反映して、肌色(うすだいだい、ペールオレンジ)となっている。足裏に圧力が加わると、上述のように毛細血管内の血流が抑制されるので、色が白色に変化する。このように圧力を加えることにより足裏の色が肌色から白色に変化する現象を利用して、接触領域検出部23は、画像情報Vdから接触領域及び非接触領域を検出する。つまり、接触領域検出部23は、接触領域及び非接触領域に対して、白色に関連する色の範囲及び肌色に関連する色の範囲をそれぞれ設定して対応付け、それら以外の色の範囲は非足裏領域に対応付ける。そして、その設定に基づいて、画像情報Vd中の各画素が属する領域を決定する。各領域に対して特定の番号(以下、「領域番号」とする)を、例えば、接触領域に1、非接触領域に2、非足裏領域に0を設定することとし、接触情報Tdは、画素毎に決定された領域番号ri(以下、「領域値」とする)で構成される。
Since the surface of the human body is covered with capillaries, when the part of the person to be measured is brought into contact with the contact plate and pressure is applied to the skin of the contacting part, the capillaries at the part where the pressure is applied are compressed, Blood flow is restricted. The color of the skin of the human body, especially the skin of the palms and soles, reflects the red color of the blood in the capillaries. There is a difference between the color and the color of the skin under pressure and restricted blood flow to the skin. By using color information that reflects the skin color that causes such a difference, it is possible to detect the contact area and the non-contact area. In particular, the color of the soles of the human body reflects the color of melanin and blood in the capillaries when no pressure is applied, regardless of race, gender, or age, unless there is an abnormality due to disease, etc. It is skin color (light orange, pale orange). When pressure is applied to the sole, the blood flow in the capillaries is suppressed as described above, so the color changes to white. The contact
接触領域検出部23は、RGB値を入力とし、領域値を出力とする関数Fを用いて、画像情報Vdから接触情報Tdを求める。画像記憶部22に記憶されている画像情報Vd中のRGB値vri、vgi及びvbiを格納された順序で読み出し、関数Fを用いて領域値riを求め、接触情報Tdとして順次出力する。関数Fは条件判定も含んだ関数である。例えば、以下の(1)~(5)の処理全体を関数Fとして定義する。
The contact
(1)RGB値vri、vgi及びvbiを色相(Hue)、彩度(Saturation)及び明度(Value)で表現されるHSV色空間の値(以下、「HSV値」とする)vhi、vsi及びvviに変換する。 (1) HSV color space values (hereinafter referred to as “HSV values” ) in which the RGB values vri, vg i and vb i are represented by Hue, Saturation and Value vh i , vs i and vv i .
(2)肌色に対応するH(色相)及びV(明度)の範囲(以下、「肌色範囲」とする)を予め設定し、vhi及びvviが肌色範囲に属するか判定する。 (2) A range of H (hue) and V (brightness) corresponding to skin color (hereinafter referred to as "skin color range") is set in advance, and it is determined whether vh i and vv i belong to the skin color range.
(3)vhi及びvviが肌色範囲に属する場合、S(彩度)に対して0から所定の値までを2つの範囲に分け、前半の範囲に領域番号1(接触領域)を、後半の範囲に領域番号2(非接触領域)を割り当て、vsiが属する範囲を調べる。 (3) When vh i and vv i belong to the skin color range, the range from 0 to a predetermined value for S (saturation) is divided into two ranges. assign region number 2 (non-contact region) to the range of , and examine the range to which vs i belongs.
(4)vsiが属する範囲がある場合、その範囲に対して設定されている領域番号を領域値riとする。 (4) If there is a range to which vs i belongs, let the region number set for that range be the region value ri .
(5)vhi及びvviが肌色範囲に属さない場合、又は、vsiが属する範囲がない場合、領域値riを0(非足裏領域)とする。 (5) If vh i and vv i do not belong to the skin color range, or if there is no range to which vs i belongs, the region value r i is set to 0 (non-foot sole region).
なお、関数Fとして、上記(2)及び(3)のように肌色に関連する色の範囲及び白色に関連する色の範囲(肌色範囲において、S=0は白色に相当する)を設定しての処理を行うのであれば、上記(1)~(5)以外の処理を定義しても良い。または、RGB値から算出される輝度等を用いて、関数Fを定義しても良い。 As the function F, the color range related to skin color and the color range related to white (in the skin color range, S=0 corresponds to white) are set as in (2) and (3) above. If the processing of (1) to (5) is performed, processing other than the above (1) to (5) may be defined. Alternatively, the function F may be defined using luminance or the like calculated from RGB values.
接触情報記憶部24は、接触領域検出部23から出力される接触情報Tdを記憶する。接触情報Tdは、図2(B)の矢印で示される順序と同じ順序で出力されるので、接触情報記憶部24でも、その順序を保持するように接触情報Tdが記憶される。例えば、順次出力される接触情報Tdを、アドレスの昇順で接触情報記憶部24に記憶していく。
The contact
重心検出部24は、接触情報記憶部24に記憶されている接触情報Tdを用いて、重心位置Cdを検出する。重心検出部24は、接触領域の面積を基に、重心位置Cdを求める。具体的には、接触領域を含む、重心位置Cdを探索するための探索領域を設定し、その探索領域に対して接触領域の面積を二等分する、直交する2本の二等分線を求め、それらの交点の位置を重心位置Cdとする。
The center-of-
重心検出部24の構成例を図4に示す。重心検出部24は探索領域設定部251、二等分線決定部252(第1二等分線決定部)及び253(第2二等分線決定部)、並びに重心決定部254を備え、接触情報Tdは、探索領域設定部251、二等分線決定部252及び253に入力される。
A configuration example of the center-of-
探索領域設定部251は、接触情報Tdに対して探索領域を設定する。探索領域として、接触領域及び非接触領域(以下、両領域を合わせて「足裏領域」とする)を含む矩形状の領域を設定する。探索領域の設定例を示すイメージを図5に示す。図5において、図2にて定義されたX軸及びY軸は、横方向がX軸、縦方向がY軸となり、左下端が原点となる。また、足裏領域101は接触領域と非接触領域が区別されずに一体として記載されている。接触情報Tdは、図5の実線で示される矩形状に配列された画素と同様の構成が形成される並びで、画素毎に領域値riを有する。この接触情報Tdに対して、探索領域102は、図5の破線で示されるように、外周が足裏領域101と接する矩形状の領域として設定される。即ち、足裏領域101の左右端に接してY軸と平行な縦方向の辺である縦辺102A及び102Bと、足裏領域101の上下端に接してX軸と平行な横方向の辺である横辺102C及び102Dからなる矩形内部を探索領域102とする。領域値riが1は接触領域を、2は非接触領域を表すので、領域値riから足裏領域101を判別し、足裏領域101内の各画素のX軸及びY軸上での位置(X座標、Y座標)を基に、縦辺102A及び102B並びに横辺102C及び102Dを設定する。即ち、足裏領域101内の各画素のX座標の中で最小のX座標の線を縦辺102A、最大のX座標の線を縦辺102Bとし、各画素のY座標の中で最大のY座標の線を横辺102C、最小のY座標の線を横辺102Dとする。設定された縦辺102A及び102Bは縦辺情報Svとして、横辺102C及び102Dは横辺情報Shとして出力される。縦辺情報Svは二等分線決定部252に、横辺情報Shは二等分線決定部253にそれぞれ入力される。
The search
二等分線決定部252は、接触情報Td及び縦辺情報Svより、縦辺102A及び102Bと平行で、接触領域の面積を二等分する二等分線(第1二等分線)を求める。縦辺102Aと102Bの間に分割線(第1分割線)を設定し、その分割線を移動させることにより、二等分線を求める。
The
二等分線決定部252は、まず、縦辺102Aと102Bの間の中央に、縦辺102A及び102Bと平行な分割線を設定する。そして、縦辺102Aと分割線で挟まれた範囲での接触領域の面積と、分割線と縦辺102Bで挟まれた範囲での接触領域の面積を比較する。両面積が等しい場合、設定した分割線を二等分線とする。両面積が等しくない場合、面積が大きい接触領域を含む範囲の方に、分割線を所定の距離(例えば、画素の幅)だけ移動する。移動後の分割線に対して、上述のような両範囲での接触領域の面積を比較し、比較結果に応じて同様の処理を実行する。この分割線の移動と面積の比較を繰り返すことにより、二等分線を求める。分割線の移動による接触領域の面積の増減量は離散的な値であり、両面積が全く同じにならないことがあるので、その場合は、両面積の差が最小となる分割線を二等分線とする。「接触領域の面積を二等分する」とは、このように、両面積が等しい場合だけではなく、両面積の差が最小となる場合も含むものとする。求められた二等分線は二等分線Bvとして重心決定部254に入力される。なお、面積として、実際の面積だけではなく、画素数等を使用しても良い。また、二等分線を、他の方法、例えば接触領域全体の面積を求め、その半分の値を基にした方法等で求めるようにしても良い。
The
二等分線決定部253は、接触情報Td及び横辺情報Shより、横辺102C及び102Dと平行で、接触領域の面積を二等分する二等分線(第2二等分線)を求める。二等分線決定部253は、横辺102Cと102Dの間の中央に分割線(第2分割線)を設定し、二等分線決定部252と同様に、その分割線を移動させることにより、二等分線を求める。求められた二等分線は二等分線Bhとして重心決定部254に入力される。
The
重心決定部254は、二等分線Bv及びBhより重心位置Cdを求める。即ち、二等分線Bv及びBhの交点を重心として、その重心のX軸及びY軸上での位置(X座標、Y座標)を重心位置Cdとする。
The center-of-
なお、重心検出部25は、直交する二等分線Bv及びBhの交点を重心として重心位置Cdを求めているが、直交していない二等分線の交点から重心位置Cdを求めても良く、3本以上の二等分線から重心位置Cdを求めても良い。後者において二等分線の交点が複数存在する場合、複数の交点から求められる幾何中心や任意の交点等の位置を重心位置Cdとする。
The center-of-
表示制御部26は、接触情報記憶部24に記憶されている接触情報Td及び重心検出部25から出力される重心位置Cdを表示する。表示制御部26にはディスプレイが接続されており、接触情報Td及び重心位置Cdはディスプレイに表示される。具体的には、各領域番号(0、1、2)に対応した色を予め設定し、入力された接触情報Td中の領域値riに合わせて、対応する色を表示し、重心位置Cdは×印等を用いて表示する。接触情報Td中の領域値riは、図2(B)の矢印で示される順序と同じ順序で接触情報記憶部24に記憶されているので、表示制御部26は、接触情報記憶部24に記憶されている順番を基に決定される位置に、領域値riに応じた色を表示する。
The
ケーブル30は、画像読取装置10と画像解析装置20を接続する。ケーブル30として、USB(Universal Serial Bus)ケーブル等の有線を使用し、画像読取装置10及び画像解析装置20それぞれが装備するUSBポート等にケーブル30を接続する。画像読取装置10と画像解析装置20を、有線ではなく、無線で接続しても良く、或いは、USBメモリ等の外付け記録媒体へのデータ書き込み機能を画像読取装置10に付加し、外付け記録媒体を介して、画像読取装置10から画像解析装置20へ画像情報Vdを送るようにしても良い。後者の場合、例えば、画像読取装置10により複数の被測定者の画像情報を取得して外付け記録媒体に記録し、後日、画像解析装置20を用いて各被測定者の重心位置を求めるということも可能となる。
A
このような画像解析システム1の構成において、その動作例及び使用例を図6及び図7のフローチャートを参照して説明する。図6において、破線の矢印は画像読取装置10と画像解析装置20の間でのデータの送受信を示す。
In such a configuration of the image analysis system 1, an example of its operation and an example of its use will be described with reference to the flow charts of FIGS. 6 and 7. FIG. In FIG. 6 , dashed arrows indicate transmission and reception of data between the
先ず、画像読取装置10及び画像解析装置20を起動する。
First, the
被測定者は、画像読取装置10のガラス板11に裸足の状態で両足を載せ、直立した状態となる。この際、通常の状態での重心位置が得られるように、画像読取装置10は、傾きがない平坦な場所に設置し、被測定者には計測であることを意識せずにリラックスした状態で直立してもらうようにする。被測定者の姿勢が整ったら、画像読取装置10に対象物のスキャンを開始させるために、測定者は画像解析装置20に設けられた動作開始ボタンを押下する。
The person to be measured places both bare feet on the
画像解析装置20は動作開始ボタンの押下を検知したら、入力制御部21より動作開始信号Sgを画像読取装置10に送信する(ステップS10)。
When the
画像読取装置10は、動作開始信号Sgを受信したら(ステップS20)、被測定者の足裏のスキャンを開始する(ステップS30)。被測定者には、スキャン中は動かないようにしてもらう。
When receiving the operation start signal Sg (step S20), the
画像読取装置10は、光源を一定速度で移動させることにより、ガラス板11に載せられた足裏全体を照射し、その反射光がミラー及びレンズを介して画像読取手段に到達し、画像読取手段により画像情報Vdに変換される。画像情報Vdは、図2(B)の矢印で示される順序で画像解析装置20に送信される(ステップS40)。
The
画像解析装置20は画像情報Vdを受信し(ステップS50)、入力制御部21が、受信した画像情報Vdを画像記憶部22に格納する(ステップS60)。
The
画像情報Vdが画像記憶部22に格納されたら、接触領域検出部23は、画像記憶部22から画像情報Vd中のRGB値vri、vgi及びvbiを読み出す(ステップS70)。そして、関数Fを用いて、領域値riを求め(ステップS80)、接触情報Tdとして接触情報記憶部24に格納する(ステップS90)。
After the image information Vd is stored in the
全ての領域値riが接触情報記憶部24に格納されたら(ステップS100)、重心検出部25は、接触情報Tdを読み出し、重心位置Cdを検出する(ステップS110)。重心検出部25の動作例については、図7のフローチャートを参照して説明する。
When all the region values ri are stored in the contact information storage unit 24 (step S100), the center-of-
接触情報記憶部24から読み出された接触情報Tdは探索領域設定部251並びに二等分線決定部252及び253に入力される。探索領域設定部251は、接触情報Td中の領域値riから足裏領域101を判別し、足裏領域101内の各画素の座標(X座標、Y座標)より、探索領域102の縦辺102A及び102B並びに横辺102C及び102Dを求める(ステップS111)。縦辺102A及び102Bは、縦辺情報Svとして、二等分線決定部252に入力され、横辺102C及び102Dは、横辺情報Shとして、二等分線決定部253に入力される。
The contact information Td read from the contact
二等分線決定部252は、接触情報Td及び縦辺情報Svを入力したら、縦辺102A及び102Bの間の中央に分割線を設定する(ステップS112)。そして、分割線と縦辺102A及び102Bとで挟まれた2つの範囲での接触領域の面積の比較と、その比較結果に応じた分割線の移動により、接触領域の面積を二等分する二等分線Bvを求める(ステップS113)。二等分線Bvは重心決定部254に入力される。
After inputting the contact information Td and the vertical side information Sv, the
同様に、二等分線決定部253は、接触情報Td及び横辺情報Shを入力したら、横辺102C及び102Dの間の中央に分割線を設定し(ステップS114)、分割線と横辺102C及び102Dとで挟まれた2つの範囲での接触領域の面積の比較と、その比較結果に応じた分割線の移動により、接触領域の面積を二等分する二等分線Bhを求める(ステップS115)。二等分線Bhも重心決定部254に入力される。
Similarly, after inputting the contact information Td and the horizontal side information Sh, the
重心決定部254は、入力した二等分線Bv及びBhより重心位置Cdを求める(ステップS116)。重心位置Cdは表示制御部26に入力される。
The center-of-
なお、二等分線決定部252の動作(ステップS112及びS113)と二等分線決定部253の動作(ステップS114及びS115)は、逆の順番で実行されても、平行して実行されても良い。 Note that the operations of the bisector determining unit 252 (steps S112 and S113) and the operations of the bisector determining unit 253 (steps S114 and S115) are performed in parallel even if they are performed in reverse order. Also good.
重心位置Cdを入力した表示制御部26は、接触情報記憶部24に記憶された接触情報Tdを読み出す(ステップS120)。そして、接触情報Td中の領域値riに対応する色を、予め設定された色の中から決定し、接触情報記憶部24に記憶されている順番に応じたディスプレイ上の位置に、決定した色を表示する。また、重心位置Cdに対応するディスプレイ上の位置に、重心位置を表す×印を表示する(ステップS130)。
The
なお、画像解析装置20に、重心位置の表示を開始するボタンを、動作開始ボタンと同様の形態で用意し、そのボタンが押されたら、ステップS70~S130を実行するようにしても良い。
A button for starting the display of the center-of-gravity position may be provided in the
接触情報Td及び重心位置Cdの表示例を図8に示す。図8には、接触情報Tdに基づいて、足裏領域101を構成する接触領域101A及び非接触領域101Bと、重心位置Cdに基づいて、重心位置103が表示されており、更に、探索領域102が表示されている。このように、足裏領域と共に重心位置を表示することにより重心位置を的確に把握することができると共に、足裏全体における重心の位置を見ることにより、被測定者の体の歪の推測等の一助とすることができる。
FIG. 8 shows a display example of the contact information Td and the center-of-gravity position Cd. In FIG. 8, the contact area 101A and the non-contact area 101B forming the
なお、重心検出部25は、外周が足裏領域101と接する矩形状の領域を探索領域102として重心位置Cdを検出しているが、外周が接触領域101Aと接する矩形状の領域を探索領域102として重心位置Cdを検出しても良い。この場合、表示制御部26が、接触領域101A及び非接触領域101Bではなく、接触領域101Aのみを表示することにすると、接触領域検出部23での非接触領域101Bの検出は不要となり、接触情報Tdは接触領域を示す番号とそれ以外を示す番号の二値の情報となる。
Note that the center-of-
画像読取装置10は、図2(B)に示される矢印の順序で画像情報Vdを出力し、画像解析装置20は、その順序に従って接触情報Tdの算出、記憶及び表示を行っているので、ディスプレイの画面上での接触情報Tdの表示位置は一意に決まるが、画像情報Vd及び接触情報Tdに座標等の位置情報を付加し、位置情報を基に表示位置を決めるようにしても良い。また、画像記憶部22はRGB値からなる画像情報Vdを記憶しているが、記憶容量の削減等のために、圧縮された画像情報を記憶するようにしても良い。接触情報Tdも圧縮して、接触情報記憶部24に記憶するようにしても良い。更に、画像読取装置10から画像解析装置20に送信される画像情報Vdは、画像記憶部22に格納され、接触領域検出部23は画像記憶部22内の画像情報Vdから接触情報Tdを求めているが、画像情報Vdを画像記憶部22に格納せず、画像読取装置10から送信される画像情報Vdを順次用いて接触情報Tdを求めるようにしても良い。この場合、画像記憶部22は不要となる。
The
本発明の他の実施形態について説明する。 Another embodiment of the present invention will be described.
画像解析装置にプリンタ等を接続して印刷機能を付加し、接触情報及び重心位置をディスプレイに表示するだけではなく、印刷することも可能である。この場合の画像解析装置の構成例(第2実施形態)を図9に示す。第1実施形態の画像解析装置20と比べると、第2実施形態の画像解析装置40では、重心位置記憶部27及び印刷制御部28が追加されており、その他の構成は第1実施形態と同じである。
By connecting a printer or the like to the image analysis apparatus and adding a printing function, it is possible not only to display the contact information and the center of gravity position on the display but also to print them. FIG. 9 shows a configuration example (second embodiment) of an image analysis apparatus in this case. Compared to the
重心位置記憶部27は、重心検出部25から出力される重心位置Cdを記憶する。
The center-of-gravity
印刷制御部28にはプリンタ(図示せず)が接続されており、印刷制御部28は、接触情報記憶部24に記憶されている接触情報Td及び重心位置記憶部27に記憶された重心位置Cdを読み出し、プリンタに出力する。即ち、印刷制御部28は、接触情報Td中の領域値riを順次入力し、表示制御部26と同様の手順により領域値riに対応した色を決定し、プリンタに出力して印刷すると共に、重心位置Cdに対応する位置に×印等を印刷する。
A printer (not shown) is connected to the
なお、表示制御部26も、重心検出部25から重心位置Cdを入力するのではなく、重心位置記憶部27に記憶された重心位置Cdを使用するようにしても良い。また、表示制御部26を削除し、接触情報及び重心位置の出力をプリンタによる印刷のみに特化しても良い。この場合、重心位置記憶部27も削除可能である。
The
第1実施形態では、画像情報Vdから重心位置のみを求めているが、画像情報Vdからはその他にも有用な情報を抽出することができるので、それらを求めることも可能である。この場合の画像解析装置の構成例(第3実施形態)を図10に示す。第1実施形態の画像解析装置20と比べると、第3実施形態の画像解析装置50では、関連情報抽出部29が追加され、表示制御部26が表示制御部56に代わっており、その他の構成は第1実施形態と同じである。
In the first embodiment, only the center-of-gravity position is obtained from the image information Vd, but other useful information can be extracted from the image information Vd, so it is also possible to obtain them. FIG. 10 shows a configuration example (third embodiment) of an image analysis apparatus in this case. Compared to the
関連情報抽出部29は、画像記憶部22に記憶された画像情報Vdから被測定者の足裏に関連する情報を抽出し、関連情報Rdとして表示制御部56に出力する。関連情報として、例えば、足裏の圧力分布、モアレ画像、足裏の長さ及び横幅、足指の角度等を抽出する。
The related
足裏の圧力分布は、接触領域検出部23での接触領域の検出と同様に、画像情報Vdに含まれる色情報を用いて求めることができる。足裏に圧力を加えることによる足裏の色の変化の割合は、加える圧力の大きさに依存することを利用して、圧力分布を求める。接触領域検出部23は足裏領域を接触領域及び非接触領域の2つに分類しているが、この分類する数を増やし(例えば16分類)、足裏領域を圧力に応じて段階的に分類した圧力分布を求める。この圧力分布を、段階毎に設定された色を用いて表示することにより、圧力の違いを分かり易く把握することができるようになり、足の内側及び外側並びに前及び後ろに圧力がどのようにかかっているのか、足の指がそれぞれ接地しているのか等、体のバランスを容易に確認することができる。また、重心位置と圧力分布を比較することにより、体の歪み等を推測することができる。なお、足裏の圧力分布を求めるとした場合、接触領域検出部23での接触領域及び非接触領域の検出を、圧力分布を用いて行っても良い。即ち、圧力分布と接触領域及び非接触領域とを対応付けることにより、圧力分布から接触領域及び非接触領域を決定する。
The pressure distribution of the sole can be obtained using the color information included in the image information Vd, similarly to the detection of the contact area by the contact
モアレ画像は、モアレと呼ばれる光の干渉の現象を利用して、様々な物体の等高線を描く方法であるモアレ・トポグラフィーにより生成された画像のことである。足裏のモアレ画像の例を図11に示す。モアレ画像を利用することにより、目視では確認が難しい足裏の凹凸等の足裏の形を詳細に確認することが可能となる。例えば、土踏まずの形状がどうなっているか、タコや魚の目等がないか、等を確認することができる。 A moire image is an image generated by moire topography, which is a method of drawing contour lines of various objects using a phenomenon of light interference called moire. FIG. 11 shows an example of a moiré image of a sole. By using the moire image, it is possible to confirm in detail the shape of the sole, such as unevenness of the sole, which is difficult to confirm visually. For example, it is possible to check the shape of the arch of the foot, whether there are calluses, corns, or the like.
足指の角度として、例えば親指の角度(外反母趾角)、小指の角度(内反小趾角)、開帳角(FICK角)を求める。足裏の画像にこれらの値を表示させることにより、外反母趾や内反小趾の診断に利用することができる。 As the angle of the toes, for example, the angle of the thumb (hallux valgus angle), the angle of the little finger (varus little toe angle), and the spread angle (FICK angle) are obtained. Displaying these values on the image of the sole can be used for diagnosis of hallux valgus and bunion.
上述の実施形態(第1~第3実施形態)において、画像記憶部22に記憶された画像情報、接触情報記憶部24に記憶された接触情報及び第2実施形態での重心位置記憶部27に記憶された重心位置の内の少なくとも1つを、解析が終了した後も記憶したままとするか、或いは他の外部記録媒体に記録することにより、過去の解析結果との比較を可能とすることができる。これにより、治療や施術による効果、体のバランスの経年変化等を確認することが可能となる。
In the above-described embodiments (first to third embodiments), the image information stored in the
上述の実施形態は、画像記憶部、接触情報記憶部及び重心位置記憶部をメモリとして、それ以外の構成要素の処理を、上述のようにプログラムとして実現することにより、コンピュータとメモリの構成で実現可能である。各構成要素は専用IC(Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアでも実現可能である。また、本発明は、上述の画像読取装置及び画像解析装置を備える画像解析システムとして実現しても、画像情報は既存製品等を利用して取得するようにして、画像解析装置として実現しても良い。更に、本発明は、方法又はプログラムとしての形態を取ることも可能である。 The above-described embodiment is realized by a computer and memory configuration by using the image storage unit, the contact information storage unit, and the center-of-gravity position storage unit as memories, and realizing the processing of other components as programs as described above. It is possible. Each component can also be realized by hardware such as a dedicated IC (Integrated Circuit) or FPGA (Field Programmable Gate Array). Further, the present invention may be implemented as an image analysis system including the above-described image reading device and image analysis device, or may be implemented as an image analysis device by acquiring image information using an existing product or the like. good. Furthermore, the present invention can also take the form of a method or program.
なお、本発明は上記形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。 It should be noted that the present invention is not limited to the above embodiments, and various modifications are possible without departing from the gist of the present invention.
1 画像解析システム
10 画像読取装置
11 ガラス板
20、40、50 画像解析装置
21 入力制御部
22 画像記憶部
23 接触領域検出部
24 接触情報記憶部
25 重心検出部
26、56 表示制御部
27 重心位置記憶部
28 印刷制御部
29 関連情報抽出部
30 ケーブル
101 足裏領域
102 探索領域
103 重心位置
251 探索領域設定部
252、253 二等分線決定部
254 重心決定部
1
Claims (5)
前記画像読取装置が、
前記被測定者の部位が接触する接触板と、
前記接触板に対して、前記部位が接触している面の反対側の面に光を照射することにより、前記画像情報を取得する画像取得部と、を備え、
前記画像解析装置が、
前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、
前記接触情報を基に求められる、前記接触領域の面積を二等分する、直交する2本の二等分線の交点の位置を、前記被測定者の重心位置として求める重心検出部と、を備え、
前記重心検出部が、
前記接触情報を基に、前記接触領域全体を含む矩形状の領域を、前記重心位置を探索する探索領域として設定する探索領域設定部と、
前記探索領域の縦方向の辺である2本の縦辺間の中央に第1分割線を設定し、前記第1分割線と一方の前記縦辺で挟まれた範囲における前記接触領域の面積と、前記第1分割線と他方の前記縦辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第1分割線を移動し、前記移動された第1分割線を前記二等分線の1本とし、第1二等分線として出力する第1二等分線決定部と、
前記探索領域の横方向の辺である2本の横辺間の中央に第2分割線を設定し、前記第2分割線と一方の前記横辺で挟まれた範囲における前記接触領域の面積と、前記第2分割線と他方の前記横辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第2分割線を移動し、前記移動された第2分割線を前記二等分線のもう1本とし、第2二等分線として出力する第2二等分線決定部と、
前記第1二等分線と前記第2二等分線の交点の位置を前記重心位置とする重心決定部と、を備えることを特徴とする画像解析システム。 An image analysis system comprising: an image reading device for reading image information of a part of a person to be measured; and an image analysis device for analyzing the part using the image information,
The image reading device
a contact plate with which the part of the person to be measured contacts;
an image acquisition unit that acquires the image information by irradiating the surface of the contact plate opposite to the surface in contact with the portion with light,
The image analysis device is
a contact area detection unit that detects a contact area where the part is in contact with the contact plate from the image information and obtains contact information about the contact area;
a center-of-gravity detection unit that obtains the position of the intersection of two orthogonal bisectors that bisect the area of the contact area, which is obtained based on the contact information, as the center-of-gravity position of the person to be measured; prepared ,
The center-of-gravity detection unit
a search area setting unit that sets a rectangular area including the entire contact area as a search area for searching for the position of the center of gravity based on the contact information;
A first dividing line is set at the center between two vertical sides that are vertical sides of the search area, and the area of the contact area in the range sandwiched between the first dividing line and one of the vertical sides moving the first dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the first dividing line and the other vertical side; A first bisector determination unit for outputting a first bisector as one of the bisectors;
A second dividing line is set at the center between two horizontal sides that are horizontal sides of the search area, and the area of the contact area in the range sandwiched between the second dividing line and one of the horizontal sides moving the second dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the second dividing line and the other horizontal side; A second bisector determination unit that outputs as another bisector and outputs as a second bisector;
An image analysis system , comprising: a center of gravity determination unit that sets the position of the intersection of the first bisector and the second bisector as the position of the center of gravity .
前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力し、
前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出部と、
前記接触情報を基に求められる、前記接触領域の面積を二等分する、直交する2本の二等分線の交点の位置を、前記被測定者の重心位置として求める重心検出部と、を備え、
前記重心検出部が、
前記接触情報を基に、前記接触領域全体を含む矩形状の領域を、前記重心位置を探索する探索領域として設定する探索領域設定部と、
前記探索領域の縦方向の辺である2本の縦辺間の中央に第1分割線を設定し、前記第1分割線と一方の前記縦辺で挟まれた範囲における前記接触領域の面積と、前記第1分割線と他方の前記縦辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第1分割線を移動し、前記移動された第1分割線を前記二等分線の1本とし、第1二等分線として出力する第1二等分線決定部と、
前記探索領域の横方向の辺である2本の横辺間の中央に第2分割線を設定し、前記第2分割線と一方の前記横辺で挟まれた範囲における前記接触領域の面積と、前記第2分割線と他方の前記横辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第2分割線を移動し、前記移動された第2分割線を前記二等分線のもう1本とし、第2二等分線として出力する第2二等分線決定部と、
前記第1二等分線と前記第2二等分線の交点の位置を前記重心位置とする重心決定部と、を備えることを特徴とする画像解析装置。 An image analysis device that analyzes a part of a person to be measured using image information of the part,
inputting the image information obtained by bringing the part of the person to be measured into contact with the contact plate;
a contact area detection unit that detects a contact area where the part is in contact with the contact plate from the image information and obtains contact information about the contact area;
a center-of-gravity detection unit that obtains the position of the intersection of two orthogonal bisectors that bisect the area of the contact area, which is obtained based on the contact information, as the center-of-gravity position of the person to be measured; prepared ,
The center-of-gravity detection unit
a search area setting unit that sets a rectangular area including the entire contact area as a search area for searching for the position of the center of gravity based on the contact information;
A first dividing line is set at the center between two vertical sides that are vertical sides of the search area, and the area of the contact area in the range sandwiched between the first dividing line and one of the vertical sides moving the first dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the first dividing line and the other vertical side; A first bisector determination unit for outputting a first bisector as one of the bisectors;
A second dividing line is set at the center between two horizontal sides that are horizontal sides of the search area, and the area of the contact area in the range sandwiched between the second dividing line and one of the horizontal sides moving the second dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the second dividing line and the other horizontal side; A second bisector determination unit that outputs as another bisector and outputs as a second bisector;
An image analysis apparatus , comprising: a center-of-gravity determination unit that sets the position of the intersection of the first bisector and the second bisector as the position of the center of gravity .
前記被測定者の部位を接触板に接触させて取得される前記画像情報を入力する入力ステップと、
前記画像情報から、前記部位が前記接触板に接触している接触領域を検出し、前記接触領域に関する接触情報を求める接触領域検出ステップと、
前記接触情報を基に求められる、前記接触領域の面積を二等分する、直交する2本の二等分線の交点の位置を、前記被測定者の重心位置として求める重心検出ステップと、を含み、
前記重心検出ステップが、
前記接触情報を基に、前記接触領域全体を含む矩形状の領域を、前記重心位置を探索する探索領域として設定する探索領域設定ステップと、
前記探索領域の縦方向の辺である2本の縦辺間の中央に第1分割線を設定し、前記第1分割線と一方の前記縦辺で挟まれた範囲における前記接触領域の面積と、前記第1分割線と他方の前記縦辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第1分割線を移動し、前記移動された第1分割線を前記二等分線の1本とし、第1二等分線とする第1二等分線決定ステップと、
前記探索領域の横方向の辺である2本の横辺間の中央に第2分割線を設定し、前記第2分割線と一方の前記横辺で挟まれた範囲における前記接触領域の面積と、前記第2分割線と他方の前記横辺で挟まれた範囲における前記接触領域の面積の差が最小となるように前記第2分割線を移動し、前記移動された第2分割線を前記二等分線のもう1本とし、第2二等分線とする第2二等分線決定ステップと、
前記第1二等分線と前記第2二等分線の交点の位置を前記重心位置とする重心決定ステップと、を含むことを特徴とする画像解析方法。 An image analysis method for analyzing a part of a person to be measured using image information of the part,
an input step of inputting the image information acquired by bringing the part of the person to be measured into contact with the contact plate;
a contact area detection step of detecting a contact area where the site is in contact with the contact plate from the image information and obtaining contact information about the contact area;
a center-of-gravity detection step of determining the position of the intersection of two orthogonal bisectors that bisect the area of the contact area, which is obtained based on the contact information, as the center-of-gravity position of the person to be measured; including
The centroid detection step includes
a search area setting step of setting a rectangular area including the entire contact area as a search area for searching for the position of the center of gravity based on the contact information;
A first dividing line is set at the center between two vertical sides that are vertical sides of the search area, and the area of the contact area in the range sandwiched between the first dividing line and one of the vertical sides moving the first dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the first dividing line and the other vertical side; A first bisector determination step as one of the bisectors and a first bisector;
A second dividing line is set at the center between two horizontal sides that are horizontal sides of the search area, and the area of the contact area in the range sandwiched between the second dividing line and one of the horizontal sides moving the second dividing line so as to minimize the difference in the area of the contact area in the range sandwiched between the second dividing line and the other horizontal side; A second bisector determination step that is another bisector and a second bisector;
and a barycentric determination step of determining the position of the intersection of the first bisector and the second bisector as the barycentric position .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021182653A JP7175045B1 (en) | 2021-11-09 | 2021-11-09 | Image analysis system, image analysis device, image analysis method and image analysis program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021182653A JP7175045B1 (en) | 2021-11-09 | 2021-11-09 | Image analysis system, image analysis device, image analysis method and image analysis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7175045B1 true JP7175045B1 (en) | 2022-11-18 |
JP2023070456A JP2023070456A (en) | 2023-05-19 |
Family
ID=84101919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021182653A Active JP7175045B1 (en) | 2021-11-09 | 2021-11-09 | Image analysis system, image analysis device, image analysis method and image analysis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7175045B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117100250A (en) * | 2023-07-10 | 2023-11-24 | 北京华益精点生物技术有限公司 | Toe position determining method and device, electronic equipment and storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232942A (en) | 2008-03-26 | 2009-10-15 | Asahi Corp | Method for analyzing gravity center position |
JP2016209546A (en) | 2015-04-28 | 2016-12-15 | 住友理工株式会社 | Balance ability measuring apparatus |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2760484B2 (en) * | 1995-12-19 | 1998-05-28 | アニマ株式会社 | Floor reaction force measuring device |
-
2021
- 2021-11-09 JP JP2021182653A patent/JP7175045B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009232942A (en) | 2008-03-26 | 2009-10-15 | Asahi Corp | Method for analyzing gravity center position |
JP2016209546A (en) | 2015-04-28 | 2016-12-15 | 住友理工株式会社 | Balance ability measuring apparatus |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117100250A (en) * | 2023-07-10 | 2023-11-24 | 北京华益精点生物技术有限公司 | Toe position determining method and device, electronic equipment and storage medium |
CN117100250B (en) * | 2023-07-10 | 2024-05-28 | 北京华益精点生物技术有限公司 | Toe position determining method and device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2023070456A (en) | 2023-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5001580B2 (en) | Body measuring device | |
TW202212791A (en) | Surface pressure analysis device, method, and program | |
US9317913B2 (en) | Method for measuring the absorption of fluid in an absorbent product | |
JP6380778B2 (en) | Exercise posture analysis apparatus and exercise posture analysis information generation method | |
JP6869002B2 (en) | Measuring device | |
JP7175045B1 (en) | Image analysis system, image analysis device, image analysis method and image analysis program | |
CN115428050A (en) | Hybrid gait analysis device for fall prevention and fall prevention management system comprising same | |
JP5417654B2 (en) | Center of gravity analysis method | |
JPH07128163A (en) | Tactile sensor | |
JP2004219404A (en) | Foot type measuring instrument | |
WO2021256459A1 (en) | Image display system and image display method | |
CN111868734A (en) | Contactless Rolling Fingerprint | |
JP7133245B1 (en) | Image analysis system, image analysis device, image analysis method and image analysis program | |
TWM501834U (en) | A foot sensing and measuring system | |
KR20160035497A (en) | Body analysis system based on motion analysis using skeleton information | |
JP6981561B1 (en) | Color chart | |
JPH10201740A (en) | Apparatus for measuring and judging on the surface state of skin | |
KR102266345B1 (en) | Fingernails and toenails diseases detection apparatus and method thereof | |
CN113012112A (en) | Evaluation method and system for thrombus detection | |
US20240000374A1 (en) | Skin inspection device for identifying abnormalities | |
JP7253298B2 (en) | Biometric information acquisition device | |
US12050182B2 (en) | System and method for assessing wear on the tread of a shoe for limiting slip and fall risk | |
JP7240014B2 (en) | Biological information measuring method, biological information measuring program, and biological information measuring device | |
JP7241293B2 (en) | Shooting method and shooting device | |
US20160292390A1 (en) | Method and system for a customized definition of food quantities based on the determination of anthropometric parameters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7175045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |