JP2014002502A - Stretched-out hand detector, stretched-out hand detecting method and program - Google Patents
Stretched-out hand detector, stretched-out hand detecting method and program Download PDFInfo
- Publication number
- JP2014002502A JP2014002502A JP2012136681A JP2012136681A JP2014002502A JP 2014002502 A JP2014002502 A JP 2014002502A JP 2012136681 A JP2012136681 A JP 2012136681A JP 2012136681 A JP2012136681 A JP 2012136681A JP 2014002502 A JP2014002502 A JP 2014002502A
- Authority
- JP
- Japan
- Prior art keywords
- area
- person
- detection
- hand
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 34
- 238000001514 detection method Methods 0.000 claims abstract description 145
- 238000013459 approach Methods 0.000 claims abstract description 43
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 18
- 230000006399 behavior Effects 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 8
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、単一の距離画像センサで取得した各画素が距離データからなる2次元距離データを解析し、商品棚などの対象物に対する手のばしを検出する手のばし検出技術に関するものである。 The present invention relates to a hand extension detection technique for analyzing a two-dimensional distance data in which each pixel acquired by a single distance image sensor includes distance data and detecting a hand extension to an object such as a product shelf.
従来から、店舗などにおける消費者の行動を解析する行動解析システムが開発されている。一般的な行動解析システムでは、ビデオカメラなどによって店舗内の消費者を撮影し、撮影された静止画像や動画像を解析することによって、消費者の動作や移動経路などを把握する。 Conventionally, behavior analysis systems that analyze consumer behavior in stores and the like have been developed. In a general behavior analysis system, a consumer in a store is photographed with a video camera or the like, and a consumer's movement or movement route is grasped by analyzing the photographed still image or moving image.
例えば、特許文献1では、カメラで店舗内を撮影し、カメラ画像を処理することによって各々の消費者を特定し、特定した消費者の移動軌跡を解析する発明が開示されている。
しかし、カメラ画像を用いた行動解析手法では、消費者の顔などが映るため、個人情報保護の観点から問題がある。
For example, Patent Document 1 discloses an invention in which a store is photographed with a camera, each consumer is identified by processing the camera image, and the movement trajectory of the identified consumer is analyzed.
However, the behavior analysis method using a camera image has a problem from the viewpoint of personal information protection because a consumer's face is reflected.
また、特許文献2では、非接触ICカードや非接触ICタグなどのRFID(Radio
Frequency Identification)を消費者に所持させ、RFIDを検出する検出器を店舗内に設置し、RFIDを検出した検出器を時系列で調べることによって、消費者の移動軌跡を解析する発明が開示されている。
In Patent Document 2, RFID (Radio) such as a non-contact IC card and a non-contact IC tag is used.
An invention is disclosed in which a consumer's movement trajectory is analyzed by causing a consumer to hold a frequency identification), installing a detector that detects RFID in a store, and examining the detector that detects RFID in time series. Yes.
しかし、RFIDを用いた行動解析手法では、消費者の商品棚等への接近や接触を認識することは可能であるが、詳細な行動を認識することはできないという問題がある。
さらに、RFIDを用いて消費者の詳細な行動を解析するためには、RFIDの検出器を多数設置することが必要となる。
However, the behavior analysis method using RFID can recognize a consumer's approach to or contact with a product shelf or the like, but there is a problem that detailed behavior cannot be recognized.
Furthermore, in order to analyze the detailed behavior of consumers using RFID, it is necessary to install a large number of RFID detectors.
この点、特許文献3では、距離画像センサが出力する2次元距離データおよび2次元距離データに含まれる距離データを階調に変換することで生成した距離画像を用いて、消費者の手のばしや前屈みを検出する発明が開示されている。この2次元距離データは、各画素が距離画像センサから対象物までの距離データであるため、個人情報は問題とならない。また、2次元距離データには2次元に配列された画素で計測された距離データが含まれるため、2次元距離データに含まれる距離データの差を解析することで、商品棚などの前に存在する消費者の領域を認識でき、画像処理と同様に詳細な行動の解析が可能である。さらに、1台の距離画像センサから正確な2次元距離データを得ることができるため、複数の距離画像センサを設置する必要はない。 In this regard, in Patent Document 3, using the distance image generated by converting the two-dimensional distance data output from the distance image sensor and the distance data included in the two-dimensional distance data into gradations, An invention for detecting forward bending is disclosed. Since this two-dimensional distance data is distance data from each distance image sensor to the object, personal information does not matter. In addition, since the two-dimensional distance data includes distance data measured by pixels arranged in two dimensions, the difference between the distance data included in the two-dimensional distance data is analyzed, so that the two-dimensional distance data exists before the product shelf. The consumer's area can be recognized, and detailed behavior analysis can be performed in the same manner as image processing. Furthermore, since accurate two-dimensional distance data can be obtained from one distance image sensor, it is not necessary to install a plurality of distance image sensors.
特許文献3に記載の手のばし検出技術では、図16に示すように、距離画像センサ2を商品棚3の上に設置して斜め下方に向け人物4(消費者)を撮像する。そして、図17に示すように、距離画像の下部領域に特定形状があった場合に、人物4の手のばしと判定している。このため、手(腕)以外の身体箇所が下部領域にあっても、手のばしと誤判定してしまう問題がある。また、商品棚のどこに手をのばしたかが判定しづらいという問題がある。さらに、商品棚と消費者の位置を考慮せず消費者の人物領域情報のみから手のばしを判定するため、商品棚にどの程度手を近づけたかがわからないという問題がある。 In the hand extension detection technique described in Patent Document 3, as shown in FIG. 16, the distance image sensor 2 is installed on the product shelf 3, and the person 4 (consumer) is imaged obliquely downward. And as shown in FIG. 17, when there exists a specific shape in the lower area | region of a distance image, it determines with the extension of the hand of the person 4. For this reason, even if a body part other than the hand (arm) is in the lower region, there is a problem that it is erroneously determined as a hand extension. In addition, there is a problem that it is difficult to determine where in the product shelf the hand is extended. Furthermore, since the hand extension is determined from only the consumer person area information without considering the position of the product shelf and the consumer, there is a problem that it is not known how close the hand is to the product shelf.
本発明は、かかる課題を解決するためになされたものであり、対象物(商品棚など)の正面斜め前方の上方に距離画像センサを設置し、対象物と人物との距離データを用いることによって、対象物の距離画像における指定した領域において、人物の手のばしを正確に検出する技術を提供することを目的とする。 The present invention has been made in order to solve such a problem, and by installing a distance image sensor on the upper front side of an object (such as a product shelf) and using distance data between the object and a person. An object of the present invention is to provide a technique for accurately detecting a person's hand extension in a specified region in a distance image of an object.
前述した課題を解決するために第1の発明は、距離画像センサから出力される2次元距離データに基づく距離情報データを解析し、対象物に対する人物の手のばしを検出する手のばし検出装置であって、前記距離情報データにおいて、手のばし検出を行う検出領域を指定する検出領域指定手段と、前記距離情報データから人物領域を算出する人物領域算出手段と、前記人物領域と前記検出領域とが重なる領域を接近領域とし、前記人物領域のうち前記接近領域以外の領域を遠隔領域とする接近判定手段と、前記接近領域と前記遠隔領域とから前記人物の手のばしを判定する手のばし判定手段と、を具備することを特徴とする手のばし検出装置である。 In order to solve the above-described problem, a first invention is a hand extension detection device that analyzes distance information data based on two-dimensional distance data output from a distance image sensor and detects a person's hand extension with respect to an object. Then, in the distance information data, a detection area designating unit for designating a detection area for detecting a hand extension, a person area calculating unit for calculating a person area from the distance information data, and the person area and the detection area overlap. An approach determination unit that sets an area as an approach region, and a region other than the approach region of the person region as a remote region, and a hand extension determination unit that determines a palm of the person from the approach region and the remote region; It is a hand extension detection device characterized by comprising.
第1の発明によって、距離画像において人物ののばした手が対象物と重なっている場合に人物の手のばしを正確に検出することができるとともに、手以外の体が対象物と重なっても手のばしと誤検出されないようにすることができる。また、検出領域を指定することによって、対象物に対する手のばしの位置を正確に検出することができる。
なお、「対象物」とは、商品棚や壁などの手のばしの検出をする対象である。
また、「距離情報データ」とは、距離画像センサから出力される2次元距離データ、又は、2次元距離データを加工したデータであり、例えば、2次元距離データを256階調の画像データに変換した距離画像である。
According to the first invention, it is possible to accurately detect the extension of the person's hand when the extended hand of the person overlaps the target object in the distance image, and the hand even if the body other than the hand overlaps the target object. It is possible to prevent false detections. In addition, by specifying the detection area, it is possible to accurately detect the position of the hand with respect to the object.
The “object” is an object for detecting the extension of a hand such as a product shelf or a wall.
The “distance information data” is two-dimensional distance data output from the distance image sensor or data obtained by processing the two-dimensional distance data. For example, the two-dimensional distance data is converted into image data of 256 gradations. This is a distance image.
第1の発明における接近判定手段は、前記人物領域のうち、前記検出領域と重なる領域であって、距離データの差が閾値より小さい領域を、前記接近領域とすることが望ましい。
これによって、距離情報データにおいて人物ののばした手が対象物と重なっている場合に人物の手のばしを正確に検出できる。
In the first aspect of the present invention, it is preferable that the approach determination means sets a region that overlaps the detection region and has a difference in distance data smaller than a threshold among the person regions as the approach region.
This makes it possible to accurately detect the extension of the person's hand when the extension hand of the person overlaps the object in the distance information data.
第1の発明における手のばし判定手段は、前記接近領域の最大幅の所定倍が前記遠隔領域の最大幅より小さい場合に手のばしであると判定することが望ましい。
これによって、人物の手のばしを正確に検出することができるとともに、手以外の体が対象物と重なっても手のばしと誤検出されないようにすることができる。
In the first aspect of the present invention, it is desirable that the hand length determining means determines that the hand length is a predetermined length when a predetermined multiple of the maximum width of the approaching area is smaller than the maximum width of the remote area.
Accordingly, it is possible to accurately detect the palm of a person's hand and prevent erroneous detection of the palm of the hand even if a body other than the hand overlaps the object.
第1の発明における検出領域指定手段は、前記距離情報データにおいて、複数の前記検出領域を指定することが望ましい。
これによって、対象物の複数の領域において手のばしの検出をすることができる。
The detection area designating means in the first invention preferably designates a plurality of the detection areas in the distance information data.
Accordingly, it is possible to detect a hand extension in a plurality of regions of the object.
第1の発明における手のばし検出装置は、さらに、前記距離画像センサから出力される前記2次元距離データに含まれる距離データを所定の階調に変換して前記距離情報データとする変換手段を、具備することが望ましい。
これによって、手のばし検出装置は、2次元距離データを、例えば、256階調の距離画像である距離情報データに変換して、検出領域の指定などのその後の処理を行うことができる。
The hand extension detecting device according to the first aspect of the present invention further includes conversion means for converting the distance data included in the two-dimensional distance data output from the distance image sensor into a predetermined gradation to obtain the distance information data. It is desirable to have it.
Accordingly, the hand extension detection device can convert the two-dimensional distance data into distance information data that is, for example, a 256-tone distance image, and perform subsequent processing such as designation of a detection region.
第1の発明における距離画像センサを設置する位置は、前記対象物の正面前方であって、前記対象物の鉛直方向中心より片側かつ水平方向中心より上側であることが望ましい。あるいは、第1の発明における距離画像センサを設置する位置は、前記対象物の正面前方であって、前記対象物の鉛直方向の外端より外側かつ水平方向の上端より上側であることが望ましい。
これによって、対象物の正面斜め前方の上方から2次元距離データを撮像できるため、対象物に対して人物の手のばしの位置を正確に撮像することができる。
The position where the distance image sensor according to the first invention is installed is preferably in front of the object, one side from the vertical center of the object and above the center in the horizontal direction. Alternatively, the position where the distance image sensor according to the first invention is installed is preferably in front of the object and outside the vertical outer end of the object and above the horizontal upper end.
Thereby, since the two-dimensional distance data can be imaged from above and obliquely in front of the object, the position of the person's hand can be accurately imaged with respect to the object.
第2の発明は、距離画像センサから出力される2次元距離データに基づく距離情報データを解析し、対象物に対する人物の手のばしを検出する手のばし検出方法であって、前記距離情報データにおいて、手のばし検出を行う検出領域を指定する検出領域指定ステップと、前記距離情報データから人物領域を算出する人物領域算出ステップと、前記人物領域と前記検出領域とが重なる領域を接近領域とし、前記人物領域のうち前記接近領域以外の領域を遠隔領域とする接近判定ステップと、前記接近領域と前記遠隔領域とから前記人物の手のばしを判定する手のばし判定ステップと、を含むことを特徴とする手のばし検出方法である。
第2の発明によって、2次元距離データにおいて人物ののばした手が対象物と重なっている場合に人物の手のばしを正確に検出することがとともに、手以外の体が対象物と重なっても手のばしと誤検出されないようにすることができる。また、検出領域を指定することによって、対象物に対する手のばしの位置を正確に検出することができる。
The second invention is a hand extension detection method for analyzing the distance information data based on the two-dimensional distance data output from the distance image sensor and detecting a person's hand extension with respect to the object, wherein the distance information data includes: A detection area designating step for designating a detection area for performing a hand extension detection; a person area calculating step for calculating a person area from the distance information data; and an area where the person area and the detection area overlap with each other. An approach determining step in which an area other than the approaching area in the area is a remote area, and a hand extending determining step for determining the extension of the person's hand from the approaching area and the remote area. This is an extended detection method.
According to the second invention, when the hand extended by the person in the two-dimensional distance data overlaps with the object, the person's hand extension can be accurately detected, and even if a body other than the hand overlaps with the object It is possible to prevent false detection of a hand extension. In addition, by specifying the detection area, it is possible to accurately detect the position of the hand with respect to the object.
第3の発明は、コンピュータに、距離画像センサから出力される2次元距離データに基づく距離情報データを解析し、対象物に対する人物の手のばしを検出する手のばし検出方法を実行させるためのプログラムであって、前記コンピュータに、前記距離情報データにおいて、手のばし検出を行う検出領域を指定する検出領域指定ステップと、前記距離情報データから人物領域を算出する人物領域算出ステップと、前記人物領域と前記検出領域とが重なる領域を接近領域とし、前記人物領域のうち前記接近領域以外の領域を遠隔領域とする接近判定ステップと、前記接近領域と前記遠隔領域とから前記人物の手のばしを判定する手のばし判定ステップと、を実行させるためのプログラムである。
第3の発明を汎用のコンピュータにインストールすることによって、第1の発明の手のばし検出装置を得て、第2の発明の手のばし検出方法を実行することができる。
A third invention is a program for causing a computer to analyze a distance information data based on two-dimensional distance data output from a distance image sensor and to execute a hand extension detection method for detecting a person's hand extension with respect to an object. In the distance information data, the computer includes a detection area designating step for designating a detection area for detecting a hand extension, a person area calculating step for calculating a person area from the distance information data, the person area, An approach determination step in which an area that overlaps the detection area is an approach area, and an area other than the access area of the person area is a remote area, and a hand that determines the extension of the person's hand from the approach area and the remote area This is a program for executing the extension determination step.
By installing the third invention in a general-purpose computer, it is possible to obtain the palm detection device of the first invention and execute the palm detection method of the second invention.
本発明により、対象物(商品棚など)の正面斜め前方の上方に距離画像センサを設置し、対象物と人物との2次元距離データを用いることによって、対象物の距離画像上の指定した領域において、人物の手のばしを正確に検出することができる。 According to the present invention, a distance image sensor is installed above and obliquely in front of an object (such as a product shelf), and two-dimensional distance data between the object and a person is used to designate a specified area on the distance image of the object Therefore, it is possible to accurately detect the extension of a person's hand.
以下、図面に基づいて、本発明の実施形態を詳細に説明する。
本発明の手のばし検出装置1は、距離情報データに広く適用可能なものである。距離情報データとは、距離画像センサ2から出力される2次元距離データ、又は、2次元距離データを加工したデータであり、例えば、2次元距離データを256階調の画像データに変換したデータである。この2次元距離データを所定の階調の画像データに変換したデータを距離画像という。
距離画像センサ2は、一般に画角範囲に存在する物体までの距離データを2次元に配列した2次元距離データを出力するものである。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
The palm detection device 1 of the present invention is widely applicable to distance information data. The distance information data is two-dimensional distance data output from the distance image sensor 2 or data obtained by processing the two-dimensional distance data. For example, the distance information data is data obtained by converting the two-dimensional distance data into image data of 256 gradations. is there. Data obtained by converting the two-dimensional distance data into image data of a predetermined gradation is called a distance image.
The distance image sensor 2 generally outputs two-dimensional distance data in which distance data to an object existing in the field angle range is two-dimensionally arranged.
図1は、手のばし検出装置1の適用例を示す図である。図1は、対象物3(商品棚や壁などの人物の手のばしの対象となるもの)と、対象物3に対して手のばしを行う人物4(消費者)と、対象物3の正面斜め前方の上方に柱5などに設置され対象物3及び人物4を画角内に収める距離画像センサ2と、距離画像センサ2から出力される2次元距離データ又は2次元距離データを256階調に変換することで生成される距離画像を処理する手のばし検出装置1と、によって構成される店舗内の状況を模式的に示している。 FIG. 1 is a diagram illustrating an application example of the palm detection device 1. FIG. 1 shows an object 3 (object to be extended by a person such as a product shelf or a wall), a person 4 (consumer) who extends the object 3, and an oblique front view of the object 3. The distance image sensor 2 installed on the pillar 5 or the like in the front and containing the object 3 and the person 4 within the angle of view, and the two-dimensional distance data or the two-dimensional distance data output from the distance image sensor 2 in 256 gradations The situation in the store comprised by hand extension detection device 1 which processes the distance picture generated by transforming is shown typically.
距離画像センサ2には、市販の距離画像センサを利用することができる。距離画像センサ2には、例えば、D-Imager(パナソニック株式会社)、SwissRanger(MESA Imaging)などの光波測距(Time of Flight)式のものや、Kinect(Microsoft株式会社)などのパターン照射(Light Coding)式のものがある。光波測距式の距離画像センサ2は、距離画像センサのLEDから照射された光が物体に反射し、その光が距離画像センサに戻るまでの時間を利用して、距離画像センサから物体までの距離を2次元で配列された画素毎に計測し、各画素の距離情報を所定のフレームレート(例えば、30fps)で出力する機能を備えている。パターン照射式の距離画像センサ2は、距離画像センサから照射された光学パターンが物体に反射し、そのパターンの幾何学的な歪みを利用し、距離画像センサから物体までの距離を2次元で配列された画素毎に計測し、各画素の距離情報を所定のフレームレート(例えば、30fps)で出力する機能を備えている。なお、市販の距離画像センサ2には、距離測定機能に加え、画像撮影機能を備えているセンサもあるが、個人情報保護の観点から、本発明の実施形態では、距離測定機能のみを利用し、画像撮影機能を利用しない。 As the distance image sensor 2, a commercially available distance image sensor can be used. The distance image sensor 2 may be, for example, a light wave ranging (Time of Flight) type such as D-Imager (Panasonic Corporation), SwissRanger (MESA Imaging), or pattern irradiation (Light) such as Kinect (Microsoft Corporation). Coding) type. The distance image sensor 2 of the light wave distance measuring type uses the time until the light irradiated from the LED of the distance image sensor is reflected on the object and returns to the distance image sensor, from the distance image sensor to the object. The distance is measured for each pixel arranged in two dimensions, and the distance information of each pixel is output at a predetermined frame rate (for example, 30 fps). The pattern irradiation type distance image sensor 2 reflects the optical pattern irradiated from the distance image sensor on an object and uses the geometric distortion of the pattern to arrange the distance from the distance image sensor to the object in two dimensions. It has a function of measuring each pixel and outputting distance information of each pixel at a predetermined frame rate (for example, 30 fps). Although the commercially available distance image sensor 2 includes a sensor having an image photographing function in addition to the distance measuring function, from the viewpoint of protecting personal information, the embodiment of the present invention uses only the distance measuring function. Do not use the image shooting function.
図2は、距離画像センサ2の設置状況と画角範囲を示す模式図である。図2(a)は、図1において水平方向左側から見た図に相当するものである。図2(a)のように、距離画像センサ2は、対象物3の水平方向の中心を示す破線21より上側、又は、水平方向の上端を示す破線22より上側に設置する。距離画像センサ2の垂直方向の画角は例えば60度で、この画角内に対象物3の手のばしを検出したい領域が収まるように設置する。 FIG. 2 is a schematic diagram showing the installation state of the distance image sensor 2 and the field angle range. FIG. 2A corresponds to the view seen from the left in the horizontal direction in FIG. As shown in FIG. 2A, the distance image sensor 2 is installed above the broken line 21 indicating the horizontal center of the object 3 or above the broken line 22 indicating the upper end in the horizontal direction. The vertical angle of view of the distance image sensor 2 is, for example, 60 degrees, and the distance image sensor 2 is installed so that an area in which the extension of the hand of the object 3 is desired to be detected falls within this angle of view.
また、図2(b)は、図1において鉛直方向上方から見た図に相当するものである。図2(b)のように、距離画像センサ2は、対象物3の鉛直方向の中心を示す破線23の片側、又は、鉛直方向の外端を示す破線24の外側に設置する。距離画像センサ2の水平方向の画角は例えば45度で、この画角内に対象物3の手のばしを検出したい領域が収まるように設置する。 FIG. 2B corresponds to a view seen from above in the vertical direction in FIG. As shown in FIG. 2B, the distance image sensor 2 is installed on one side of a broken line 23 indicating the center of the object 3 in the vertical direction, or outside the broken line 24 indicating the outer end in the vertical direction. The horizontal angle of view of the distance image sensor 2 is 45 degrees, for example, and the distance image sensor 2 is installed so that an area in which the extension of the hand of the object 3 is desired to be detected falls within this angle of view.
このように、距離画像センサ2を設置することで、対象物3に対する人物4の手のばしの位置を正確に撮像することができる。なお、図2(b)において、距離画像センサ2は、対象物3の正面に向かって右側に設置してあるが、左側に設置してもよい。 In this way, by installing the distance image sensor 2, it is possible to accurately image the position of the hand 4 of the person 4 with respect to the object 3. In FIG. 2B, the distance image sensor 2 is installed on the right side toward the front of the object 3, but may be installed on the left side.
図3は、距離画像センサ2から出力される2次元距離データの例を示す図である。この例では、2次元距離データは、水平方向160画素×垂直方向120画素から構成されている。各画素には、距離画像センサ2から撮像した物体までの距離データが16進数で表されている。これは、実際の距離であってもよいし、所定の比例定数をかけて実際の距離に変換するものであってもよい。 FIG. 3 is a diagram illustrating an example of two-dimensional distance data output from the distance image sensor 2. In this example, the two-dimensional distance data is composed of 160 pixels in the horizontal direction × 120 pixels in the vertical direction. In each pixel, distance data from the distance image sensor 2 to the imaged object is expressed in hexadecimal. This may be an actual distance or may be converted to an actual distance by applying a predetermined proportional constant.
図4は、図1及び図2のように距離画像センサ2を設置した場合に、実際に距離画像センサ2が、対象物3と人物4とを撮像した距離画像の例である。この距離画像は、可視化のため、各画素が距離データそのものではなく、距離データを256階調の濃淡差で表した値に変換したものとなっている。これは、各階調ごとに対応する距離を予め定めておき、各画素の距離データを階調に変換することによって生成することができる。 FIG. 4 is an example of a distance image in which the distance image sensor 2 actually captures the object 3 and the person 4 when the distance image sensor 2 is installed as in FIGS. 1 and 2. In this distance image, each pixel is not the distance data itself but is converted into a value represented by a gradation difference of 256 gradations for each pixel for visualization. This can be generated by previously determining a distance corresponding to each gradation and converting the distance data of each pixel into a gradation.
以下の実施形態において、手のばし検出装置1は、距離画像センサ2から出力される2次元距離データに対して処理を行ってもよいし、前述の方法によって、2次元距離データを所定の階調の画像データである距離画像に変換して、変換した距離画像に対して処理を行ってもよい。 In the following embodiments, the hand extension detection device 1 may perform processing on the two-dimensional distance data output from the distance image sensor 2, and the two-dimensional distance data is converted to a predetermined gradation by the method described above. It is also possible to convert the converted distance image into a distance image that is image data of the image data, and perform the processing on the converted distance image.
[手のばし検出装置のハードウェア構成]
図5は、手のばし検出装置1のハードウェア構成図である。なお、図5のハードウェア構成は一例であり、用途、目的に応じて様々な構成ととることが可能である。
[Hardware configuration of the palm detection device]
FIG. 5 is a hardware configuration diagram of the palm detection device 1. Note that the hardware configuration in FIG. 5 is merely an example, and various configurations can be employed depending on the application and purpose.
手のばし検出装置1を実現するコンピュータは、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。 A computer that implements the hand extension detection device 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, etc. Connected through.
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、手のばし検出装置1が行う後述する処理を実現する。ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。 The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU calls a program stored in the storage unit 12, ROM, recording medium, etc. to a work memory area on the RAM, executes it, drives and controls each device connected via the bus 18, and detects the palm detection device 1. The process to be described later is realized. The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM is a volatile memory, and temporarily stores programs, data, and the like loaded from the storage unit 12, ROM, recording medium, and the like, and includes a work area used by the control unit 11 for performing various processes.
記憶部12は、例えば、HDD(Hard Disk Drive)であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、各種の手段として実行される。 The storage unit 12 is, for example, an HDD (Hard Disk Drive), and stores a program executed by the control unit 11, data necessary for program execution, an OS (Operating System), and the like. As for the program, a control program corresponding to the OS and an application program for causing a computer to execute processing to be described later are stored. Each of these program codes is read by the control unit 11 as necessary, transferred to the RAM, and executed as various means.
メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。 The media input / output unit 13 (drive device) inputs / outputs data, for example, media such as a CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, etc.) Has input / output devices. The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between a computer and a network, and performs communication control between other computers via the network. The network may be wired or wireless.
入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。表示部16は、CRTモニタ、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。なお、入力部15及び表示部16は、タッチパネルディスプレイのように、一体となっていても良い。 The input unit 15 inputs data and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad. An operation instruction, an operation instruction, data input, and the like can be performed on the computer via the input unit 15. The display unit 16 includes a display device such as a CRT monitor and a liquid crystal panel, and a logic circuit (such as a video adapter) for realizing a video function of the computer in cooperation with the display device. The input unit 15 and the display unit 16 may be integrated like a touch panel display.
周辺機器I/F(インタフェース)部17は、コンピュータに周辺機器(例えば、距離画像センサ2など)を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器(イメージスキャナ、複合機等)とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。 The peripheral device I / F (interface) unit 17 is a port for connecting a peripheral device (for example, the distance image sensor 2) to the computer, and the computer is connected to the peripheral device (image) via the peripheral device I / F unit 17. Send / receive data to / from scanners, multifunction devices, etc. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-232C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless. The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.
[手のばし検出装置の処理]
次に、図6〜図8に示すフローチャートに沿って、図9〜図15を適宜参照しながら、手のばし検出装置1の処理を説明する。
[Handle detection device processing]
Next, processing of the hand extension detection device 1 will be described along the flowcharts shown in FIGS. 6 to 8 with reference to FIGS. 9 to 15 as appropriate.
最初に、手のばし検出装置1における検出領域の指定の前処理について説明する。この前処理は、手のばし検出の対象となる対象物3と距離画像センサ2の設置位置とに応じて一度行えばよい。事前に、距離画像センサ2は、図1に示したように、対象物3(商品棚など)の正面斜め前方の上方に設置しておく。図6は、手のばし検出装置1の検出領域の指定の前処理を示すフローチャートである。適宜参照する図9は、手のばし検出装置1の検出領域の指定を示す模式図である。 First, preprocessing for designating a detection area in the palm detection device 1 will be described. This pre-processing may be performed once according to the object 3 that is the target of hand extension detection and the installation position of the distance image sensor 2. As shown in FIG. 1, the distance image sensor 2 is installed in front of the object 3 (such as a product shelf) obliquely in front of the front in advance. FIG. 6 is a flowchart showing pre-processing for designating the detection area of the palm detection device 1. FIG. 9 to be referred to as needed is a schematic diagram showing the designation of the detection area of the palm detection device 1.
図6に示すように、手のばし検出装置1の制御部11は、距離画像センサ2から、背景画像を読み込む(S11)。図9(a)は、背景画像の例を示したものである。この背景画像は、人物4がいない時に対象物3を撮像した距離画像である。この背景画像には、対象物3以外の背景31の部分があってもよい。なお、この背景画像は、事前に撮像して記憶部12に保存しておいたものを、制御部11が記憶部12から読み込んでもよい。 As illustrated in FIG. 6, the control unit 11 of the palm detection device 1 reads a background image from the distance image sensor 2 (S11). FIG. 9A shows an example of a background image. This background image is a distance image obtained by capturing the object 3 when the person 4 is not present. This background image may have a portion of the background 31 other than the object 3. The background image may be read from the storage unit 12 by the control unit 11 that has been captured in advance and stored in the storage unit 12.
次に、手のばし検出装置1の制御部11は、背景画像を表示部16に表示する(S12)。これは、手のばし検出装置1のユーザに、背景画像の対象物3において、手のばし検出を行いたい検出領域32の指定をさせるためである。 Next, the control unit 11 of the palm detection device 1 displays a background image on the display unit 16 (S12). This is to allow the user of the palm detection device 1 to specify the detection area 32 where the palm detection is desired in the object 3 of the background image.
次に、ユーザは、手のばし検出装置1の入力部15から、背景画像の対象物3において、手のばしの検出を行いたい検出領域32を指定する(S13)。この指定には、キーボードで座標を入力したり、マウスで領域を指定したり、タッチパネルディスプレイで領域を指定したりすることができる。 Next, the user designates a detection region 32 in which the hand extension is to be detected in the object 3 of the background image from the input unit 15 of the hand extension detection device 1 (S13). For this designation, coordinates can be input with a keyboard, an area can be designated with a mouse, or an area can be designated with a touch panel display.
図9(b)は、背景画像において、検出領域32(斜線部分)が指定された例を示したものである。この検出領域32は、特に矩形に限られるわけではなく、閉じた領域であれば形状は任意である。また、ユーザは、対象物3に対して、この検出領域32を複数指定してもよい。検出領域32が複数指定された場合には、以下の検出領域32に対する処理は、各検出領域32に対して行う。 FIG. 9B shows an example in which the detection area 32 (shaded portion) is designated in the background image. The detection area 32 is not particularly limited to a rectangle, and the shape is arbitrary as long as it is a closed area. Further, the user may designate a plurality of detection areas 32 for the object 3. When a plurality of detection areas 32 are designated, the following processing for the detection areas 32 is performed for each detection area 32.
次に、手のばし検出装置1の制御部11は、背景画像と指定された検出領域32とから、マスク画像を作成する(S14)。具体的には、制御部11は、背景画像から指定された検出領域32のみを残し、それ以外の部分の画素値を取り除いた(例えば、最も遠いことを示す値とした)ものをマスク画像として作成する。図9(c)は、マスク画像の例を示したものである。
なお、実際には、背景画像において検出領域32の判定をするための座標があればよいので、制御部11は、マスク画像を作成せずに、検出領域32の座標を、次のS15で保存してもよい。
Next, the control unit 11 of the palm detection device 1 creates a mask image from the background image and the designated detection area 32 (S14). Specifically, the control unit 11 leaves only the detection region 32 designated from the background image and removes the pixel values of other parts (for example, a value indicating the farthest value) as a mask image. create. FIG. 9C shows an example of a mask image.
Actually, since it is only necessary to have coordinates for determining the detection region 32 in the background image, the control unit 11 stores the coordinates of the detection region 32 in the next S15 without creating a mask image. May be.
次に、手のばし検出装置1の制御部11は、背景画像及びマスク画像を記憶部12又はRAMに保存する(S15)。
以上で、前処理は終了である。
Next, the control unit 11 of the palm detection device 1 stores the background image and the mask image in the storage unit 12 or the RAM (S15).
This is the end of the preprocessing.
続いて、手のばし検出装置1における手のばし判定の処理について説明する。この処理は、距離画像センサ2が距離画像を撮像するごとに行う処理である。図7は、手のばし検出装置1の手のばし判定の処理を示すフローチャートである。適宜参照する図10は、手のばし検出装置1の人物領域の算出を示す模式図である。図11は、人物領域における接近領域と遠隔領域の例を示す模式図である。図12は、人物領域における接近領域の最大幅と遠隔領域の最大幅の例を示す模式図である。 Next, a process of hand extension determination in the hand extension detection device 1 will be described. This process is performed every time the distance image sensor 2 captures a distance image. FIG. 7 is a flowchart showing the process of hand extension determination of the hand extension detection device 1. FIG. 10 to be referred to as needed is a schematic diagram showing calculation of the person area of the palm detection device 1. FIG. 11 is a schematic diagram illustrating an example of an approach area and a remote area in a person area. FIG. 12 is a schematic diagram illustrating an example of the maximum width of the approach area and the maximum width of the remote area in the person area.
最初に、手のばし検出装置1の制御部11は、距離画像センサ2から入力画像を読み込む(S21)。図10の左図に示すように、この入力画像は、前述した背景画像(対象物3及び対象物3以外の背景31)に人物4を加えて撮像した距離画像である。 First, the control unit 11 of the palm detection device 1 reads an input image from the distance image sensor 2 (S21). As shown in the left diagram of FIG. 10, this input image is a distance image obtained by adding the person 4 to the background image (the object 3 and the background 31 other than the object 3) described above.
次に、手のばし検出装置1の制御部11は、記憶部12又はRAMから背景画像及びマスク画像を読み込む(S22)。これらは、前述した前処理によって作成及び保存されたものである(図9の(a)及び(c))。 Next, the control unit 11 of the palm detection device 1 reads the background image and the mask image from the storage unit 12 or the RAM (S22). These are created and stored by the preprocessing described above ((a) and (c) of FIG. 9).
次に、手のばし検出装置1の制御部11は、入力画像及び背景画像のノイズ除去処理を行う(S23)。ノイズ除去処理には、従来技術を用いる。制御部11は、例えば、空間フィルタを利用した処理と、領域分割を利用した処理の2種類の処理を実行する。 Next, the control unit 11 of the palm detection device 1 performs noise removal processing on the input image and the background image (S23). A conventional technique is used for the noise removal processing. For example, the control unit 11 executes two types of processing, that is, processing using a spatial filter and processing using region division.
空間フィルタを利用した処理としては、例えば、3画素×3画素の移動平均法による平滑化処理が考えられる。また、領域分割を利用した処理としては、例えば、4近傍ラベリング処理により領域の分割を行い、領域の大きさが一定値より小さいノイズを除去することが考えられる。空間フィルタを利用した処理及び領域分割を利用した処理の両方を行うことによって、精度良くノイズを除去することができる。 As a process using a spatial filter, for example, a smoothing process using a moving average method of 3 pixels × 3 pixels can be considered. Further, as a process using area division, for example, it is conceivable to divide an area by a 4-neighbor labeling process to remove noise whose area size is smaller than a certain value. By performing both processing using a spatial filter and processing using region division, noise can be accurately removed.
図13〜図15は、距離画像に対するノイズ除去処理の例を示す図である。図13は、ノイズ除去処理を行う前の距離画像の例、図14は、空間フィルタを利用した処理後の距離画像の例、図15は、領域分割を利用した処理後の距離画像の例である。 13 to 15 are diagrams illustrating an example of noise removal processing for a distance image. FIG. 13 shows an example of a distance image before noise removal processing, FIG. 14 shows an example of a distance image after processing using a spatial filter, and FIG. 15 shows an example of a distance image after processing using region division. is there.
図7の説明に戻る。次に、手のばし検出装置1の制御部11は、入力画像と背景画像との差分を人物領域33として算出する(S24)。具体的には、制御部11は、入力画像の各画素について、その距離データと、背景画像の同一座標の画素の距離データとを比較し、異なる場合には、人物4を構成する画素であるのでそのまま残し、同一である場合には、背景であるので取り除く(例えば、最も遠いことを示す値とする)。これにより、制御部11は、入力画像において、人物領域33を算出する。 Returning to the description of FIG. Next, the control unit 11 of the palm detection device 1 calculates the difference between the input image and the background image as the person region 33 (S24). Specifically, for each pixel of the input image, the control unit 11 compares the distance data with the distance data of the pixel having the same coordinates of the background image, and if they are different, the control unit 11 is a pixel constituting the person 4. Therefore, if it is the same, it is removed because it is the background (for example, a value indicating the farthest distance). Thereby, the control part 11 calculates the person area | region 33 in an input image.
図10は、この処理の模式図である。左図の入力画像と、中央の背景画像との上述の意味での差分をとると、右図の人物領域33を算出することができる。 FIG. 10 is a schematic diagram of this process. If the difference in the above meaning between the input image in the left figure and the central background image is taken, the person area 33 in the right figure can be calculated.
図7の説明に戻る。次に、手のばし検出装置1の制御部11は、人物領域33の画素全体を接近領域と遠隔領域とに分割する(S25)。これは、人物領域33の画素全体を、検出領域32内にあって対象物3に近いもの(接近領域に含まれる画素であって、「手」と想定されるもの)と、それ以外のもの(遠隔領域に含まれる画素)とに分割する処理である。図8を用いて、この処理の詳細を説明する。 Returning to the description of FIG. Next, the control unit 11 of the palm detection device 1 divides the entire pixel of the person area 33 into an approach area and a remote area (S25). This is because the entire pixels of the person area 33 are within the detection area 32 and close to the object 3 (pixels included in the approach area and assumed to be “hands”) and others This is a process of dividing into (pixels included in the remote area). Details of this processing will be described with reference to FIG.
図8は、手のばし検出装置の人物領域の分割処理の詳細を示すフローチャートである。まず、手のばし検出装置1の制御部11は、人物領域33の全ての画素を判定したか、判断する(S31)。制御部11は、判定し終えている場合(S31でYes)、分割処理(図7のS25)を終了する。 FIG. 8 is a flowchart showing details of the person area dividing process of the palm detection device. First, the control unit 11 of the palm detection device 1 determines whether all the pixels in the person area 33 have been determined (S31). When the determination has been completed (Yes in S31), the control unit 11 ends the dividing process (S25 in FIG. 7).
手のばし検出装置1の制御部11は、判定し終えてない場合(S31でNo)、未判定の画素Pの座標(x,y)はマスク画像の検出領域32内にあるか、判断する(S32)。制御部11は、検出領域32内にないと判断した(S32でNo)場合、Pを遠隔領域を構成する点とし(S35)、S31に戻る。 When the determination has not been completed (No in S31), the control unit 11 of the hand extension detection device 1 determines whether the coordinates (x, y) of the undetermined pixel P is within the detection area 32 of the mask image ( S32). If the control unit 11 determines that it is not within the detection area 32 (No in S32), P is set as a point constituting a remote area (S35), and the process returns to S31.
手のばし検出装置1の制御部11は、検出領域32内にあると判断した(S32でYes)場合、人物領域33のPの距離データと、マスク画像の座標(x,y)の画素Qの距離データとの差が閾値より小さいか、判断する(S33)。制御部11は、小さくないと判断した(S33でNo)場合、Pを遠隔領域を構成する点とし(S35)、S31に戻る。 When the control unit 11 of the hand extension detection device 1 determines that the position is within the detection region 32 (Yes in S32), the P distance data of the person region 33 and the pixel Q of the coordinate (x, y) of the mask image It is determined whether the difference from the distance data is smaller than the threshold value (S33). When the control unit 11 determines that it is not small (No in S33), P is set as a point constituting a remote area (S35), and the process returns to S31.
手のばし検出装置1の制御部11は、小さいと判断した(S33でYes)場合、Pを接近領域を構成する点とし(S34)、S31に戻る。
このように、制御部11は、人物領域33の画素全体を接近領域と遠隔領域とに分割する。
When the control unit 11 of the hand extension detection device 1 determines that the size is small (Yes in S33), P is set as a point constituting the approach region (S34) and the process returns to S31.
In this way, the control unit 11 divides the entire pixel of the person area 33 into the approach area and the remote area.
図11は、この様子を示した模式図である。図11(a)のように、人物4が対象物3の前方に立っていて、対象物3の検出領域4に手をのばしているとする。この場合には、人物領域33の「手」の部分が検出領域32内にあって、対象物3と近いことになるので、図で黒く塗りつぶした部分が接近領域34とされ、人物領域33のそれ以外の部分が遠隔領域35とされる。 FIG. 11 is a schematic diagram showing this state. As shown in FIG. 11A, it is assumed that the person 4 stands in front of the object 3 and extends his hand to the detection area 4 of the object 3. In this case, since the “hand” portion of the person area 33 is in the detection area 32 and is close to the object 3, the black-colored portion in FIG. The other part is the remote area 35.
一方、図11(b)のように、例えば、人物4が対象物3の前方に対象物3に対して背を向けて立っているとする。この場合には、人物領域33の「体」の半分程度が検出領域32内にあって、対象物3と近いことになるので、図で黒く塗りつぶした部分が接近領域34とされ、人物領域33のそれ以外の部分が遠隔領域35とされる。 On the other hand, as shown in FIG. 11B, for example, it is assumed that the person 4 stands with the back facing the object 3 in front of the object 3. In this case, about half of the “body” of the person area 33 is in the detection area 32 and is close to the object 3. The other part is the remote area 35.
図7の説明に戻る。次に、手のばし検出装置1の制御部11は、
接近領域の最大幅×5 < 遠隔領域の最大幅 ・・・ (1)
が成立するか、判断する(S26)。ここでいう領域の最大幅とは、画素を2次元平面を構成する点としたときの領域に含まれる2点間の距離の最大値である。これによって、接近領域が「手」の部分となっていて、遠隔領域が「体」の部分となっていれば、上記の不等式が成立し、手のばしと判定できる。定数5は、手の幅と身長との比を表す程度の値であればよく、5に限られない。なお、処理の簡単のため、最大幅は、2次元平面の垂直方向又は水平方向の最大幅としてもよい。
Returning to the description of FIG. Next, the control unit 11 of the palm detection device 1
Maximum width of approaching area x 5 <Maximum width of remote area (1)
Is determined (S26). The maximum width of the region here is the maximum value of the distance between two points included in the region when the pixel is a point constituting a two-dimensional plane. As a result, if the approach area is the “hand” part and the remote area is the “body” part, the above inequality is established, and it can be determined that the hand is stretched. The constant 5 is not limited to 5 as long as it is a value representing the ratio between the width of the hand and the height. For the sake of simplicity of processing, the maximum width may be the maximum width in the vertical direction or horizontal direction of the two-dimensional plane.
図12は、この様子を示した模式図である。図12(a)では、人物領域33のうち、接近領域34は「手」の部分で、遠隔領域35は「体」の部分となっているので、接近領域の最大幅36と遠隔領域の最大幅37について、前記(1)式が成り立ち、手のばしと判定されることになる。 FIG. 12 is a schematic diagram showing this state. In FIG. 12A, in the person area 33, the approach area 34 is a "hand" part and the remote area 35 is a "body" part. For large 37, the above equation (1) holds, and it is determined that the hand is open.
一方、図12(b)では、人物領域33のうち、接近領域34は「体」の半分程度となっていて、遠隔領域35はそれ以外の部分となっているので、接近領域の最大幅36と遠隔領域の最大幅37について、前記(1)式が成り立たず、手のばしと判定されない。 On the other hand, in FIG. 12B, in the person area 33, the approach area 34 is about half of the “body”, and the remote area 35 is the other part. For the maximum width 37 of the remote area, the above equation (1) does not hold and it is not determined that the hand is open.
図7の説明に戻る。次に、手のばし検出装置1の制御部11は、S26でYesと判断した場合、「手のばし」と判定する(S27)。また、制御部11は、S26でNoと判断した場合、「手のばしでない」と判定する(S28)。 Returning to the description of FIG. Next, when the control unit 11 of the palm detection device 1 determines Yes in S26, it determines “hand extension” (S27). Moreover, the control part 11 determines with "it is not a hand extension", when it is judged No at S26 (S28).
そして、手のばし検出装置1の制御部11は、表示部16に手のばし判定の結果を表示して(S29)、終了する。 Then, the control unit 11 of the palm detection device 1 displays the result of palm determination on the display unit 16 (S29), and the process ends.
以上、手のばし検出装置1の手のばし判定の処理について説明した。
なお、手のばし検出装置1の手のばし判定の処理はこれに限定されるものではなく、その趣旨を逸脱しない範囲で変更可能である。
Heretofore, the process of hand extension determination of the hand extension detection device 1 has been described.
In addition, the process of hand extension determination of the hand extension detection device 1 is not limited to this, and can be changed without departing from the spirit of the process.
例えば、手のばし判定の処理は、制御部11が、距離画像センサ2から取得した2次元距離データから生成した距離画像に対して行うとしたが、制御部11は、予め距離画像センサ2から取得した複数の2次元距離データから生成した複数の距離画像(動画像)を記憶部12又はRAMに保存しておき、記憶部12又はRAMから読み出した各距離画像に対して、手のばし判定の処理を行ってもよい。 For example, it is assumed that the hand extension determination process is performed on the distance image generated from the two-dimensional distance data acquired from the distance image sensor 2 by the control unit 11, but the control unit 11 is previously acquired from the distance image sensor 2. A plurality of distance images (moving images) generated from the plurality of two-dimensional distance data are stored in the storage unit 12 or the RAM, and hand extension determination processing is performed on each distance image read from the storage unit 12 or the RAM. May be performed.
また、例えば、人物領域の画素全体を接近領域と遠隔領域とに分割する処理において、図8に示すフローチャートでは、S31において、人物領域の全ての画素を判定するとしたが、はじめに検出領域の境界で人物領域を分割し、検出領域内の人物領域の各画素に対して、S33、及び、S34又はS35のステップを行ってもよい。 Further, for example, in the process of dividing the entire pixel of the person area into the approach area and the remote area, in the flowchart shown in FIG. 8, all the pixels of the person area are determined in S31. The person area may be divided and the steps of S33, S34, or S35 may be performed on each pixel of the person area in the detection area.
また、検出領域の指定の前処理において、マスク画像を作成せず、図6のS15において、制御部11が、背景画像及び検出領域の座標を記憶部12又はRAMに保存した場合には、図7のS22において、制御部11は、背景画像及び検出領域の座標を読み込むとともに、図8において、制御部11は、マスク画像を用いる場合に、検出領域の座標指定がされている背景画像をもちいればよい。 In addition, in the preprocessing for designating the detection area, a mask image is not created, and the control unit 11 stores the background image and the coordinates of the detection area in the storage unit 12 or the RAM in S15 of FIG. 7, the control unit 11 reads the background image and the coordinates of the detection area, and in FIG. 8, the control unit 11 uses the background image for which the coordinates of the detection area are specified when a mask image is used. It only has to be.
[実施形態の効果]
本実施形態の手のばし検出装置1によって、人物が対象物3(商品棚など)に触れていないが距離画像上重なって見える場合でも、手のばし判定を正確に行うことができる。
また、手以外の体などが対象物3と重なっていても、手のばしでないと判定することができる。
また、対象物3の手のばしされたか知りたい部分を検出領域に指定することによって、どの部分に手のばしされたか知ることができる。
[Effect of the embodiment]
With the palm detection device 1 of the present embodiment, even when the person does not touch the object 3 (such as a product shelf) but appears to overlap the distance image, the palm determination can be performed accurately.
Even if a body other than the hand overlaps the object 3, it can be determined that the hand is not a hand.
In addition, by designating a portion of the object 3 that the user wants to know whether the hand has been extended as a detection region, it is possible to know which portion has been extended.
なお、実際に手のばし判定が行いやすいと考えられるシーケンス(動画像)を撮像し、本手のばし検出装置によって、精度を確認した。手のばし判定が行いやすいと考えられる状況として、
・白壁に対する手のばし
・手が体で隠れない場合の手のばし
・人と対象物がはっきり離れている場合の手のばし
を確認した。
It should be noted that a sequence (moving image) that is considered to be easy to determine hand extension actually was captured, and the accuracy was confirmed by the hand extension detection device. As a situation where it is considered easy to perform hand extension judgment,
・ Hand extension to the white wall ・ Hand extension when the hand is not hidden by the body ・ Hand extension when the person and the object are clearly separated were confirmed.
この結果、実際に手のばしをした状況で正しく判定された検出精度は86パーセント、実際に手のばしをしなかった状況で正しく判定された検出精度は94パーセントであり、シーケンス全体の検出精度は92パーセントであった。 As a result, the detection accuracy correctly determined in the situation where the hand is actually extended is 86%, the detection accuracy correctly determined in the situation where the hand is not actually extended is 94%, and the detection accuracy of the entire sequence is 92%. It was a percentage.
本発明は、消費者の商品棚などへの手のばしを検出する行動解析システムの一例であるが、広く物体の対象物への接近を検出するシステムへの応用が可能である。 The present invention is an example of a behavior analysis system that detects a user's hand on a product shelf or the like, but can be widely applied to a system that detects the approach of an object to an object.
以上、添付図面を参照しながら、本発明に係る手のばし検出装置の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As described above, the preferred embodiments of the palm detection device according to the present invention have been described with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.
距離画像センサ2と本発明の手のばし検出装置1は、距離画像センサから取得した二次元距離データを解析することで、店舗や施設などに設置されている商品棚や販売促進用什器、タッチパネル端末などに対する消費者の行動を把握することができる。
本発明を利用した調査の特徴として、
・消費者の行動を定量的に把握することができる
・距離情報を可視化したものになるめ、個人情報の問題がない
・距離画像を通じて消費者の行動を共有できる
などがある。
The distance image sensor 2 and the hand extension detection device 1 of the present invention analyze the two-dimensional distance data acquired from the distance image sensor, thereby allowing a product shelf, a sales promotion fixture, a touch panel terminal, etc. installed in a store or facility, etc. To understand consumer behavior.
As a feature of the survey using the present invention,
・ Consider consumer behavior quantitatively ・ Distance information is visualized and there is no problem of personal information ・ Consumer behavior can be shared through distance images.
1 手のばし検出装置
2 距離画像センサ
3 対象物(商品棚、壁など)
31 対象物以外の背景
32 検出領域
33 人物領域
34 接近領域
35 遠隔領域
36 接近領域の最大幅
37 遠隔領域の最大幅
4 人物(消費者など)
5 柱
1 Hand extension detection device 2 Distance image sensor 3 Object (product shelf, wall, etc.)
31 Non-target background 32 Detection area 33 Person area 34 Approach area 35 Remote area 36 Maximum width of approach area 37 Maximum width of remote area 4 Person (consumer, etc.)
5 pillars
Claims (8)
前記距離情報データにおいて、手のばし検出を行う検出領域を指定する検出領域指定手段と、
前記距離情報データから人物領域を算出する人物領域算出手段と、
前記人物領域と前記検出領域とが重なる領域を接近領域とし、前記人物領域のうち前記接近領域以外の領域を遠隔領域とする接近判定手段と、
前記接近領域と前記遠隔領域とから前記人物の手のばしを判定する手のばし判定手段と、
を具備することを特徴とする手のばし検出装置。 A hand extension detection device that analyzes distance information data based on two-dimensional distance data output from a distance image sensor and detects a person's hand extension with respect to an object,
In the distance information data, a detection area designating unit for designating a detection area for performing hand extension detection;
Human area calculation means for calculating a human area from the distance information data;
An approach determination means in which an area where the person area and the detection area overlap is an approach area, and an area other than the approach area of the person area is a remote area;
Hand extension determination means for determining the extension of the person's hand from the approach area and the remote area;
A hand detection device characterized by comprising:
前記人物領域のうち、前記検出領域と重なる領域であって、距離データの差が閾値より小さい領域を、前記接近領域とする
ことを特徴とする請求項1に記載の手のばし検出装置。 The approach determining means includes
The palm detection device according to claim 1, wherein an area that overlaps the detection area of the person area and that has a difference in distance data smaller than a threshold is defined as the approach area.
前記接近領域の最大幅の所定倍が前記遠隔領域の最大幅より小さい場合に手のばしであると判定する
ことを特徴とする請求項1又は請求項2に記載の手のばし検出装置。 The hand length determining means is:
The hand extension detection device according to claim 1, wherein the hand extension detection device determines that the hand extension is present when a predetermined multiple of a maximum width of the approach area is smaller than a maximum width of the remote area.
前記距離情報データにおいて、複数の前記検出領域を指定する
ことを特徴とする請求項1乃至請求項3に記載の手のばし検出装置。 The detection area designating means includes
4. The palm detection device according to claim 1, wherein a plurality of the detection areas are designated in the distance information data. 5.
前記距離画像センサから出力される前記2次元距離データに含まれる距離データを所定の階調に変換して前記距離情報データとする変換手段を、具備する
ことを特徴とする請求項1乃至請求項4に記載の手のばし検出装置。 The hand extension detection device further includes:
2. The conversion device according to claim 1, further comprising conversion means for converting the distance data included in the two-dimensional distance data output from the distance image sensor into a predetermined gradation to obtain the distance information data. 4. The palm detection device according to 4.
前記対象物の正面前方であって、前記対象物の鉛直方向中心より片側かつ水平方向中心より上側である
ことを特徴とする請求項1乃至請求項5に記載の手のばし検出装置。 The position where the distance image sensor is installed is
6. The palm detection device according to claim 1, wherein the palm detection device is located in front of the object, on one side of the center of the object in the vertical direction and above the center of the object in the horizontal direction.
前記距離情報データにおいて、手のばし検出を行う検出領域を指定する検出領域指定ステップと、
前記距離情報データから人物領域を算出する人物領域算出ステップと、
前記人物領域と前記検出領域とが重なる領域を接近領域とし、前記人物領域のうち前記接近領域以外の領域を遠隔領域とする接近判定ステップと、
前記接近領域と前記遠隔領域とから前記人物の手のばしを判定する手のばし判定ステップと、
を含むことを特徴とする手のばし検出方法。 A hand extension detection method for analyzing distance information data based on two-dimensional distance data output from a distance image sensor and detecting a person's hand extension with respect to an object,
In the distance information data, a detection area designating step for designating a detection area for performing hand extension detection;
A person area calculating step of calculating a person area from the distance information data;
An approach determination step in which an area where the person area and the detection area overlap is an approach area, and an area other than the approach area of the person area is a remote area;
A hand extension determination step of determining the extension of the person's hand from the approach area and the remote area;
A method for detecting a stretch of a hand, comprising:
前記コンピュータに、
前記距離情報データにおいて、手のばし検出を行う検出領域を指定する検出領域指定ステップと、
前記距離情報データから人物領域を算出する人物領域算出ステップと、
前記人物領域と前記検出領域とが重なる領域を接近領域とし、前記人物領域のうち前記接近領域以外の領域を遠隔領域とする接近判定ステップと、
前記接近領域と前記遠隔領域とから前記人物の手のばしを判定する手のばし判定ステップと、
を実行させるためのプログラム。 A program for causing a computer to analyze distance information data based on two-dimensional distance data output from a distance image sensor and to execute a hand extension detection method for detecting a person's hand extension with respect to an object,
In the computer,
In the distance information data, a detection area designating step for designating a detection area for performing hand extension detection;
A person area calculating step of calculating a person area from the distance information data;
An approach determination step in which an area where the person area and the detection area overlap is an approach area, and an area other than the approach area of the person area is a remote area;
A hand extension determination step of determining the extension of the person's hand from the approach area and the remote area;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012136681A JP2014002502A (en) | 2012-06-18 | 2012-06-18 | Stretched-out hand detector, stretched-out hand detecting method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012136681A JP2014002502A (en) | 2012-06-18 | 2012-06-18 | Stretched-out hand detector, stretched-out hand detecting method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014002502A true JP2014002502A (en) | 2014-01-09 |
Family
ID=50035639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012136681A Pending JP2014002502A (en) | 2012-06-18 | 2012-06-18 | Stretched-out hand detector, stretched-out hand detecting method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014002502A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018045669A (en) * | 2016-09-12 | 2018-03-22 | 沖電気工業株式会社 | Production navigation system, support system therefor, and data management method |
JP2021047747A (en) * | 2019-09-19 | 2021-03-25 | キヤノンマーケティングジャパン株式会社 | Information processor, method for processing information, and program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330415A (en) * | 1996-06-10 | 1997-12-22 | Hitachi Ltd | Image monitoring method and image monitoring system |
JP2002032550A (en) * | 2000-07-17 | 2002-01-31 | Kyodo Printing Co Ltd | Customer information management system |
JP2004265222A (en) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, apparatus, and program |
JP2005276230A (en) * | 2005-04-18 | 2005-10-06 | Toshiba Corp | Image recognition apparatus |
JP2005326920A (en) * | 2004-05-12 | 2005-11-24 | Namco Ltd | Image processing system, program, information storage medium, and image processing method |
JP2010067079A (en) * | 2008-09-11 | 2010-03-25 | Dainippon Printing Co Ltd | Behavior analysis system and behavior analysis method |
JP2011039844A (en) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | Image recognition device, operation decision method and program |
JP2011523742A (en) * | 2008-05-20 | 2011-08-18 | 本田技研工業株式会社 | Rectangle table detection using RGB and depth measurement hybrid camera sensors |
-
2012
- 2012-06-18 JP JP2012136681A patent/JP2014002502A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330415A (en) * | 1996-06-10 | 1997-12-22 | Hitachi Ltd | Image monitoring method and image monitoring system |
JP2002032550A (en) * | 2000-07-17 | 2002-01-31 | Kyodo Printing Co Ltd | Customer information management system |
JP2004265222A (en) * | 2003-03-03 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | Interface method, apparatus, and program |
JP2005326920A (en) * | 2004-05-12 | 2005-11-24 | Namco Ltd | Image processing system, program, information storage medium, and image processing method |
JP2005276230A (en) * | 2005-04-18 | 2005-10-06 | Toshiba Corp | Image recognition apparatus |
JP2011523742A (en) * | 2008-05-20 | 2011-08-18 | 本田技研工業株式会社 | Rectangle table detection using RGB and depth measurement hybrid camera sensors |
JP2010067079A (en) * | 2008-09-11 | 2010-03-25 | Dainippon Printing Co Ltd | Behavior analysis system and behavior analysis method |
JP2011039844A (en) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | Image recognition device, operation decision method and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018045669A (en) * | 2016-09-12 | 2018-03-22 | 沖電気工業株式会社 | Production navigation system, support system therefor, and data management method |
JP7139570B2 (en) | 2016-09-12 | 2022-09-21 | 沖電気工業株式会社 | production navigation system |
JP2021047747A (en) * | 2019-09-19 | 2021-03-25 | キヤノンマーケティングジャパン株式会社 | Information processor, method for processing information, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7640194B2 (en) | Fine-grained visual recognition in mobile augmented reality | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US9857876B2 (en) | Non-linear motion capture using Frenet-Serret frames | |
US9165212B1 (en) | Person counting device, person counting system, and person counting method | |
JP6639091B2 (en) | Display control device and display control method | |
US9552514B2 (en) | Moving object detection method and system | |
JP5853141B2 (en) | People counting device, people counting system, and people counting method | |
JP6731097B2 (en) | Human behavior analysis method, human behavior analysis device, device and computer-readable storage medium | |
JP2010067079A (en) | Behavior analysis system and behavior analysis method | |
US9633450B2 (en) | Image measurement device, and recording medium | |
US12167172B2 (en) | Video monitoring apparatus, control method thereof, and computer readable medium | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR101125233B1 (en) | Fusion technology-based security method and security system thereof | |
JP6638723B2 (en) | Image analysis device, image analysis method, and image analysis program | |
US9019373B2 (en) | Monitoring device, method thereof | |
US20170091944A1 (en) | Position estimating device and position estimating method | |
US10489921B2 (en) | Behavior analysis apparatus and behavior analysis method | |
JP2014002502A (en) | Stretched-out hand detector, stretched-out hand detecting method and program | |
JP2013058054A (en) | Moving body tracking device, moving body tracking method, and program | |
CN113763458A (en) | Method and device for determining target object placing surface | |
JP6289027B2 (en) | Person detection device and program | |
WO2020175085A1 (en) | Image processing apparatus and image processing method | |
EP4231251A1 (en) | Setting program, detection program, setting method, detection method, setting apparatus, and detection appratus | |
KR101200009B1 (en) | Presentation system for providing control function using user's hand gesture and method thereof | |
JP5618366B2 (en) | Monitoring system, monitoring device, monitoring method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160412 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161018 |