JP6909986B2 - Identification device - Google Patents
Identification device Download PDFInfo
- Publication number
- JP6909986B2 JP6909986B2 JP2020049530A JP2020049530A JP6909986B2 JP 6909986 B2 JP6909986 B2 JP 6909986B2 JP 2020049530 A JP2020049530 A JP 2020049530A JP 2020049530 A JP2020049530 A JP 2020049530A JP 6909986 B2 JP6909986 B2 JP 6909986B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- person
- motion
- model
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、識別装置に関する。 The present invention relates to an identification device.
近年、人物の姿勢を識別する技術が知られている。 In recent years, a technique for identifying a person's posture has been known.
例えば特許文献1には、カメラの画像から人物の手、肘及び肩の特徴点の位置を検出し、あらかじめ作成された関節モデルに適合するよう手、肘及び肩の特徴点位置を補正する装置が開示されている。
For example,
しかしながら、特許文献1に記載の装置では、人物が革ジャケットなど近赤光に対する反射率の低い衣服を着用している場合に、体・腕部分の画素値が正常に得られず、肩及び肘の関節を検知することができないため、人物の姿勢を識別することができないという課題があった。
However, in the device described in
本発明の目的は、人物の姿勢を識別することができる識別装置を提供することである。 An object of the present invention is to provide an identification device capable of identifying the posture of a person.
本発明の一態様に係る識別装置は、カメラで撮影された人物の画像情報を受け取る入力部と、前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含むみ、前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルとを切り替えて用いる。
また、本発明の一態様に係る識別装置は、カメラで撮影された人物の画像情報を受け取る入力部と、前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含み、前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルを組み合わせて用いる。
The identification device according to one aspect of the present invention has an input unit that receives image information of a person photographed by a camera, identifies the person based on the image information, and detects at least the head and hand parts of the person. The motion model includes the person identified by performing, the detected portion, and a control unit that identifies the motion of the person based on the motion model in which the motion of the person is registered for each person. only including a first behavior model is generated based on the operation of the person identified by the control unit, and a second operation model stored is previously generated, the said control unit, said first operation model The first operation model and the second operation model are switched and used based on the accumulated amount of .
Further, the identification device according to one aspect of the present invention includes an input unit that receives image information of a person photographed by a camera, identification of the person based on the image information, and at least head and hand parts of the person. The motion model comprises a control unit that detects and identifies the person, the detected part, and the motion of the person based on the motion model registered for each person. , A first motion model generated based on the motion of the person identified by the control unit, and a second motion model generated and stored in advance, the control unit includes the first motion. The first motion model and the second motion model are used in combination based on the accumulated amount of the model.
なお、ここでいう「人物」とは、特定の個人の意味には限られず、任意の年齢、性別及び体格の人物一般も意味する。 The term "person" as used herein is not limited to the meaning of a specific individual, but also means a person of any age, gender, and physique in general.
本発明によれば、人物の姿勢を識別することができる。 According to the present invention, the posture of a person can be identified.
以下、本発明の各実施の形態について、図面を参照して詳細に説明する。ただし、各実施の形態において、同一機能を有する構成には、同一符号を付し、重複する説明は省略する。 Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings. However, in each embodiment, configurations having the same function are designated by the same reference numerals, and duplicate description will be omitted.
まず、本発明の実施の形態に係る識別装置100の構成の一例について、図1aを用いて説明する。図1aは、本発明の実施の形態に係る識別装置100の構成の一例を示すブロック図である。
First, an example of the configuration of the
図1aに示す識別装置100、カメラ200、及び機器300は、例えば、自動車、鉄道車両、船舶、航空機などの移動体に搭載される。本実施の形態では、識別装置100、カメラ200、及び機器300が自動車に搭載される場合を例に挙げて説明する。
The
カメラ200は、例えば、ステレオカメラ、TOF(Time Of Flight)方式のカメラなどの測距カメラであり、車室内における人物の存在する範囲を撮影して画像情報を取得し、その画像情報を識別装置100へ出力する。画像情報は、近赤外光の反射強度の強さを表す近赤画像を少なくとも含む。またステレオカメラまたはTOFカメラの場合には距離の遠近を表す距離画像をさらに含んでも良い。
The
機器300は、自動車において用いられる機器である。機器300は、例えば、カーナビゲーション装置、オーディオ装置、エアコンディショナー装置、タブレット、スマートフォン、リアカメラ、サイドカメラ、フロントカメラ、ETC車載器である。または、機器300は、例えば、ハンドル、シフトレバー(ギアレバー)、ウィンカーレバー(ウィンカースイッチ)、ワイパーレバー(ワイパースイッチ)、ドアロックスイッチ、パワーウィンドウの昇降スイッチ、エンジンスタートスイッチ、アクセルペダル、ブレーキペダル、クラッチペダルなどでもよい。
The
機器300は、有線ネットワーク(例えば、CAN:Controller Area Network )、無線ネットワーク(例えば、無線LAN:Local Area Network)、または、有線ネットワークと無線ネットワークが混在したネットワークを介して識別装置100と接続される。そして、機器300は、識別装置100から受け取る制御信号に基づき制御される。
The
識別装置100は、入力部101、制御部102を備える。
The
入力部101は、カメラ200から人物の画像情報を受け取り、制御部102に出力する。
The
制御部102は、入力部101から受け取った画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する。このような構成により、人物の姿勢を識別することができる。
The
次に、制御部102の構成の一例について、図1bを用いて説明する。図1bは、制御部の構成の一例を示すブロック図である。
Next, an example of the configuration of the
図1bに示すように、制御部102は、検知制御部110、骨格検知部120、骨格動作識別部130、人物識別部140、動作モデル部150、部位検知部160、部位動作識別部170、機器制御部180を備える。
As shown in FIG. 1b, the
検知制御部110は、カメラ200から画像情報を受け取り、画像情報を解析し、骨格検知部120、人物識別部140、部位検知部160に画像情報を出力する。具体的には、検知制御部110は、画像情報の解析により骨格検知が可能かどうかを判定し、骨格検知が可能であると判定された場合は、骨格検知部120及び人物識別部140に画像情報を出力する。一方、骨格検知が可能でないと判定された場合は、更に後述する動作モデルが利用可能かどうかを判定し、動作モデルが利用可能であると判定された場合は、人物識別部140及び部位検知部160に画像情報を出力する。骨格検知が可能かどうかの判定については後述する。
The
骨格検知部120は、検知制御部110から受け取った画像情報に基づいて、人物の骨格位置を検知し、検知した結果を示す骨格情報を骨格動作識別部130に出力する。人物の骨格位置とは頭、首、腰、肩、肘、手などの領域を表す代表点の位置を示すものである。代表点の位置は画像上の2次元座標として特定される。
The
図2は、骨格検知処理の例を示したものである。画像1000は人物を撮影した画像の例であり、自動車を運転している人物がハンドルを握っている画像の模式図である。画像1001は画像1000における人物の骨格位置を検知した結果画像の例であり、頭、首、腰、左肩、左肘、左手、右肩、右肘、右手の代表点である9点の位置を検知した状態を示している。骨格情報とは検知した代表点の位置座標であり、画像上の代表点9点の位置座標(X1,Y1)、(X2,Y2)・・・(X9,Y9)として得られるものである。骨格検知は、例えば特許文献1に示されているような既存の方法を用いる事で実現が可能である。
FIG. 2 shows an example of the skeleton detection process.
また、画像1001では、頭、首、腰、左肩、左肘、左手、右肩、右肘、右手の代表点である9点の位置を検知することができたため、検知制御部110は、骨格検知が可能であると判定する。一方、画像1002は、撮影した人物が革ジャケットなど近赤光に対する反射率の低い衣服を着用している場合に得られる人物の骨格位置を検知した結果画像の例を示している。画像1002では、頭、左手、右手の代表点である3点の位置しか検知できていないことがわかる。この場合、検知制御部110は、骨格検知が可能でないと判定する。
Further, in the
骨格動作識別部130は、骨格検知部120から受け取った骨格情報に基づいて、乗員の動作を識別する。乗員の動作とは、例えばエアコンディショナー装置、ハンドル、オーディオ装置等の機器を操作する動作、運転中の物探し、振り向きなどのしぐさ等である。
The skeleton
骨格情報に基づく動作の識別は、既存の手法、例えば比較対象パラメータの木構造に従う複数回の大小比較から既定のパターンのうちのひとつを特定する、いわゆるランダムフォレスト等の手法を使用することで行うことができる。 Identification of behavior based on skeletal information is performed by using an existing method, for example, a method such as a so-called random forest that identifies one of the predetermined patterns from multiple magnitude comparisons according to the tree structure of the parameters to be compared. be able to.
骨格動作識別部130は、上記のような乗員の動作の識別結果を示す動作情報及び骨格情報を、動作モデル部150に出力する。また、骨格動作識別部130は、動作情報を、機器制御部180に出力する。
The skeleton
人物識別部140は、検知制御部110から受け取った画像情報に基づいて、人物が誰であるのかを識別し、識別した結果を示す人物情報を動作モデル部150、及び部位動作識別部170に出力する。
The
人物識別の実現には例えば既存の顔認証の技術を利用することが可能である。例えば自動車を運転する複数人物の顔画像を予め登録しておき、それらの人物が実際に自動車を運転する際に顔画像を取得し、取得した顔画像と登録済の顔画像とを既存技術で照合することにより、どの登録者か識別することができる。顔識別の既存技術としては、顔の特徴量をLBP(Local Binary Pattern)またはHOG(Histogram of Oriented Gradient)といった手法で取得し、その特徴量を照合する方法がある。 For example, existing face authentication technology can be used to realize person identification. For example, the face images of a plurality of people driving a car are registered in advance, the face images are acquired when those people actually drive the car, and the acquired face images and the registered face images are combined with the existing technology. By collating, it is possible to identify which registrant. As an existing technique for face recognition, there is a method of acquiring facial features by a method such as LBP (Local Binary Pattern) or HOG (Histogram of Oriented Gradient) and collating the features.
動作モデル部150は、骨格動作識別部130からの動作情報、骨格情報、及び人物識別部140からの人物情報をもとに、動作モデルを生成し、記憶するとともに、記憶した動作モデルを部位動作識別部170に出力する。
The
動作モデルは、人物情報(登録された人物に対応した登録番号)、骨格情報(骨格の特徴点の位置座標)、及び動作情報(動作の種類に対応した動作番号)を関連付けて記憶したデータベースの形態とする。ここで、骨格情報としては、骨格検知部120から出力された全ての特徴点情報を登録するのではなく、後述する部位検知部160での部位検知処理で検知対象となる頭部、左手、及び右手の特徴点の情報のみを登録する。図3に例として、人物情報、頭部・左手・右手の骨格情報、及び動作情報の関連データベース1003を示す。
The motion model is a database in which person information (registration number corresponding to a registered person), skeleton information (positional coordinates of feature points of the skeleton), and motion information (motion number corresponding to the type of motion) are stored in association with each other. Make it a form. Here, as the skeleton information, instead of registering all the feature point information output from the
本実施の形態では、動作モデルのデータベースは、骨格検知部120による骨格検知が可能な状態にて検知された骨格情報、人物情報及び動作情報を一定数以上蓄積できた後に利用可能となる。例えば、動作モデルのデータベースが利用可能となるためには、人物情報、骨格情報、及び動作情報の組合せを10000組以上蓄積することを必要とする。
In the present embodiment, the motion model database becomes available after accumulating a certain number or more of skeleton information, person information, and motion information detected in a state where the skeleton can be detected by the
動作モデル部150は、動作モデルが利用可能かどうかの状態情報を検知制御部110に出力する。検知制御部110では動作モデルが利用可能かどうかに従って処理を分岐させる。
The
部位検知部160は、検知制御部110から受け取った画像情報に基づいて、人物の部位情報として頭部位置、左手位置、及び右手位置を検知し、検知結果の部位情報を部位動作識別部170に出力する。
The
上述した骨格検知部120においても、頭部位置、左手位置、右手位置を含む複数の特徴点の位置座標を検出しているが、ここでは人物の身体部分の画像情報が正常に得られない場合における検知手法を用いる。
The
例えば部位情報の検知を既存の手法の組合せにより実現する方法として、画像情報に含まれる距離情報を用いて等距離に存在する距離情報の固まりを検知し、その固まりの位置を複数フレーム間でトラッキングする手法を用いることが可能である。 For example, as a method of realizing detection of site information by combining existing methods, a mass of distance information existing at equal distances is detected using the distance information included in the image information, and the position of the mass is tracked between a plurality of frames. It is possible to use the method of
部位動作識別部170は、人物識別部140からの人物情報、動作モデル部150からの動作モデル、及び部位検知部160からの部位情報に基づいて、乗員の動作を識別する。
The part
部位動作識別部170において乗員の動作を識別する部位動作識別処理の手法について、図4を用いて説明する。
A method of the site motion identification process for identifying the motion of the occupant in the site
部位動作識別処理では、部位動作識別部170の入力情報2001における人物情報及び部位情報を、既に動作モデルとして登録されている登録情報2002における人物情報及び骨格情報と照合し、登録情報2002の中から、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報に最も近いデータを検索する。
In the site motion identification process, the person information and the site information in the
入力情報の部位情報に最も近い骨格情報を有する登録情報を検索する手法として、例えば、次に示す手法を採用することができる。まず、入力情報と登録情報との間の、対応する部位同士(例えば、頭部位置同士、左手位置同士、右手位置同士)の距離をそれぞれ算出する。そして、算出された各部位同士の距離の合計が最も小さい登録情報を、入力情報の部位情報に最も近い骨格情報を有する登録情報であると判断する。 As a method of searching the registered information having the skeleton information closest to the part information of the input information, for example, the following method can be adopted. First, the distances between the corresponding parts (for example, the head positions, the left hand positions, and the right hand positions) between the input information and the registration information are calculated. Then, it is determined that the registration information having the smallest total distance between the calculated parts is the registration information having the skeleton information closest to the part information of the input information.
入力情報と登録情報の照合を行う際には、動作の識別精度を考慮すると、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報と一致するデータを検索することが理想である。しかしながら、所定の動作をする場合の人の動きは常に同じとは限らないので、登録情報における骨格情報に、入力情報における部位情報と一致するものがない場合が考えられる。 When collating the input information with the registration information, considering the identification accuracy of the operation, search for data in which the person information matches the person information in the input information and the skeleton information matches the part information in the input information. Is ideal. However, since the movement of a person when performing a predetermined movement is not always the same, it is conceivable that the skeleton information in the registration information does not match the part information in the input information.
このような場合を考慮して、本実施の形態では、入力情報と登録情報の照合を行う際には、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報に最も近いデータを検索する。 In consideration of such a case, in the present embodiment, when collating the input information and the registration information, the person information matches the person information in the input information, and the skeleton information is the part information in the input information. Find the data closest to.
図4の例の場合には、入力情報2001は、登録情報2002のうち2003のデータに最も近いため、部位動作識別部170は、動作情報は「6」であると識別し、部位動作情報を機器制御部180に出力する。
In the case of the example of FIG. 4, since the
機器制御部180は、骨格動作識別部130からの動作情報または部位動作識別部170からの動作情報に基づいて、不図示の機器300を制御するための制御情報を生成し、生成した制御情報を機器300に出力する。
The
機器300は、機器制御部180から受け取った制御情報に基づき制御される。
The
なお、図1bの例では、制御部102が骨格検知部120及び骨格動作識別部130を含む構成としたが、制御部102は、骨格検知部120及び骨格動作識別部130を含まない構成としてもよい。詳細については後述する。
In the example of FIG. 1b, the
また、図1bの例では、制御部102が機器制御部180を含む構成としたが、機器制御部180は、制御部102とは別に設けられていてもよい。
Further, in the example of FIG. 1b, the
すなわち、制御部102は、少なくとも検知制御部110、人物識別部140、動作モデル部150、部位検知部160及び部位動作識別部170を含む構成であればよい。
That is, the
次に、本実施の形態に係る制御部102の動作の一例について、図5を用いて説明する。図5は、本実施の形態に係る制御部102の動作の流れの一例を示すフロー図である。
Next, an example of the operation of the
まず、ステップS101で、検知制御部110は、カメラ200から画像情報を受け取る。上述したとおり、画像情報は乗員を撮影した画像である。
First, in step S101, the
続いて、ステップS102で、検知制御部110は、画像情報をもとに、骨格検知が可能な画像かどうかを判定する。具体的には、画像情報から検知すべき全ての代表点位置を検知することができた場合に、骨格検知が可能な画像であると判定し、画像情報から検知すべき代表点位置のうち一部の代表点位置しか検知することができなかった場合に、骨格検知が可能な画像でないと判定する。
Subsequently, in step S102, the
ステップS102で骨格検知が可能な画像であると判定された場合(ステップS102:YES)、ステップS103に進み、ステップS103で、骨格検知部120は、骨格検知処理を行う。
If it is determined in step S102 that the image is capable of detecting the skeleton (step S102: YES), the process proceeds to step S103, and in step S103, the
続いて、ステップS104で、人物識別部140は、人物識別処理を行い、ステップS105で、骨格動作識別部130は、動作識別処理を行い、ステップS106で、機器制御部180は、機器制御情報生成処理を行う。
Subsequently, in step S104, the
ステップS106に続くステップS107では、ステップS103の骨格検知処理で識別された骨格情報、ステップS104の人物識別処理で識別された人物情報、及びステップS105の動作識別処理で識別された動作情報に基づき、動作モデル部150は、動作モデルの更新を行う。具体的には、得られた骨格情報、人物情報及び動作情報を動作モデルのデータベースに加える作業を行う。なお、ステップS106とステップS107を行う順番は逆でもよく、また、ステップS106とステップS107を同時に行ってもよい。
In step S107 following step S106, based on the skeleton information identified by the skeleton detection process of step S103, the person information identified by the person identification process of step S104, and the operation information identified by the operation identification process of step S105. The
ステップS102で骨格検知が可能な画像であると判定されなかった場合(ステップS102:NO)、ステップS108に進み、ステップS108で、検知制御部110は、動作モデルが利用可能かどうかを判定する。
If it is not determined in step S102 that the image is capable of detecting the skeleton (step S102: NO), the process proceeds to step S108, and in step S108, the
ステップS108で動作モデルが利用可能であると判定された場合(ステップS108:YES)、ステップS109に進み、ステップS109で、部位検知部160は、部位検知処理を行う。
If it is determined in step S108 that the operation model is available (step S108: YES), the process proceeds to step S109, and in step S109, the
続いて、ステップS110で、人物識別部140は、人物識別処理を行う。
Subsequently, in step S110, the
ステップS110に続くステップS111で、部位動作識別部170は、ステップS109の部位検知処理で識別された部位情報、ステップS110の人物識別処理で識別された人物情報、及び予め記憶された動作モデルに基づき、部位動作識別処理を行う。
In step S111 following step S110, the site
ステップS111に続くステップS112で、機器制御部180は、機器制御情報生成処理を行う。
In step S112 following step S111, the
ステップS108で動作モデルが利用可能であると判定されなかった場合(ステップS108:NO)には、ステップS113に進み、ステップS113で、検知制御部110は、動作識別処理が不可能と判定して、動作識別処理の実行を禁止し、エラー情報を提示するなどして処理を終了する。
If it is not determined in step S108 that the operation model is available (step S108: NO), the process proceeds to step S113, and in step S113, the
以上説明したように、本実施の形態の識別装置100では、入力部101から受け取った画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する。
As described above, in the
そのため、人物が革ジャケット等の近赤外光に対する反射率の低い衣服を着用しており、体・腕部分の距離が正常に出力されず、肩及び肘の関節を検知できない場合、部位情報だけでは動作識別を誤る可能性があるが、本実施の形態の識別装置100は、そのような場合でも、人物の動作を正しく識別することができる。
Therefore, if the person is wearing clothes with low reflectance to near-infrared light such as a leather jacket, the distance between the body and arms is not output normally, and the shoulder and elbow joints cannot be detected, only the part information is available. However, the
また、例えば、人物の頭部、左手、右手の位置が同じであっても、人物のしぐさのクセまたは体格の違いにより、動作の種類に違いが生じてしまう場合がある。このような場合にも、本実施の形態の識別装置100は、人物情報、部位情報及び基本動作モデルに基づいて人物の動作を識別するので、人物の違いによる動作の違いを吸収して、動作を正しく識別することができる。
Further, for example, even if the positions of the head, left hand, and right hand of a person are the same, the type of movement may differ due to the habit of the person's gesture or the difference in physique. Even in such a case, since the
以上、本発明の実施の形態について説明したが、本発明は、実施の形態の説明に限定されない。以下、各変形例について説明する。 Although the embodiment of the present invention has been described above, the present invention is not limited to the description of the embodiment. Hereinafter, each modification will be described.
<変形例1>
上述した実施の形態では、識別装置100、カメラ200、および機器300が自動車に備えられる例を挙げて説明したが、これに限定されない。識別装置100、カメラ200、および機器300は、自動車以外の移動体(例えば、鉄道車両、船舶、航空機等)に備えられてもよいし、移動体以外の場所に備えられてもよい。
<Modification example 1>
In the above-described embodiment, the
<変形例2>
上述した実施の形態では、部位動作識別処理において、人物情報が入力情報における人物情報と同じであり、かつ、骨格情報が入力情報における部位情報に最も近い登録情報における動作情報を、入力情報の動作情報と識別するようにしたが、これに限定されない。
<
In the above-described embodiment, in the part motion identification process, the motion information in the registered information in which the person information is the same as the person information in the input information and the skeleton information is closest to the site information in the input information is the operation of the input information. I tried to identify it as information, but it is not limited to this.
例えば、入力情報と登録情報の間で人物情報は一致するが、入力情報における部位情報と登録情報における骨格情報で一致するものがない場合に、入力情報における部位情報と近い順に登録情報を所定数検索し、これら所定数の登録情報における動作情報が全て同一である場合に、当該動作情報を入力情報における動作情報として用いるようにしてもよい。検索される登録情報の数については、予め決定しておく。 For example, if the person information matches between the input information and the registration information, but there is no match between the part information in the input information and the skeleton information in the registration information, a predetermined number of registration information is provided in the order of proximity to the part information in the input information. When the search is performed and the operation information in the predetermined number of registered information is all the same, the operation information may be used as the operation information in the input information. The number of registration information to be searched is determined in advance.
以下、変形例2の具体的態様について、図6を用いて説明する。なお、図6では、説明を容易にするため、登録情報のうち、人物情報が「2」であるもののみを示している。また、以下の説明では、検索される登録情報の数を3個とした例を示す。 Hereinafter, a specific embodiment of the second modification will be described with reference to FIG. In addition, in FIG. 6, in order to facilitate the explanation, only the registered information whose personal information is "2" is shown. Further, in the following description, an example in which the number of registered information to be searched is three is shown.
図6において、登録情報3002のうち、入力情報3001における部位情報と近い登録情報として、最も近いデータである3005のデータ、2番目に近いデータである3007、及び3番目に近いデータである3003のデータが検索される。そして、この場合、検索された3個のデータにおける動作情報が全て「1」であるので、入力情報における動作情報は「1」であると判定する。
In FIG. 6, among the
このようにすれば、単純に入力情報における部位情報に最も近い登録情報における骨格情報を用いるよりも動作識別精度が向上する。特に、登録情報が少ない状態では、入力情報における部位情報に最も近い登録情報における骨格情報を用いると動作識別精度が低下することが懸念されるので、上述の方法を用いた動作情報の推定は効果的である。 In this way, the motion identification accuracy is improved as compared with simply using the skeleton information in the registered information closest to the part information in the input information. In particular, when the amount of registered information is small, there is a concern that the motion identification accuracy will decrease if the skeleton information in the registered information closest to the part information in the input information is used. Therefore, estimation of the motion information using the above method is effective. Is the target.
<変形例3>
上述した実施の形態では、人物情報、骨格情報、及び動作情報の組合せを例えば10000組以上蓄積するまでは動作モデルのデータベースを利用できない態様としたが、動作モデルの利用制限はこれに限定されない。
<Modification example 3>
In the above-described embodiment, the motion model database cannot be used until, for example, 10,000 or more combinations of person information, skeleton information, and motion information are accumulated, but the usage restrictions of the motion model are not limited to this.
人物情報、骨格情報、及び動作情報の組合せの蓄積量が10000組に満たない場合でも、ある程度信頼性を担保できるだけの情報が蓄積された段階で動作モデルのデータベースを利用可能とすることが可能である。また、人物情報、骨格情報、及び動作情報の組合せの蓄積量が少ない状態であっても、特定の動作についてのみ動作モデルのデータベースを利用可能とすることも可能である。 Even if the accumulated amount of combinations of person information, skeleton information, and motion information is less than 10,000 pairs, it is possible to make the database of motion models available at the stage when information that can guarantee reliability to some extent is accumulated. be. Further, even when the accumulated amount of the combination of the person information, the skeleton information, and the motion information is small, it is possible to make the database of the motion model available only for a specific motion.
特に、変形例2に示した方法と組み合わせることにより、人物情報、骨格情報、及び動作情報の組合せの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。 In particular, by combining with the method shown in the second modification, the database of the motion model can be used while ensuring the motion identification accuracy even when the accumulated amount of the combination of the person information, the skeleton information, and the motion information is small. ..
<変形例4>
上述した実施の形態では、動作モデルを骨格検知が可能な画像に基づいて作成し、記憶する態様としたが、動作モデルを記憶させる態様についてはこれに限定されない。基本となる動作モデル(以下、「基本動作モデル」という)を、識別装置100を出荷する時点で予め識別装置100内に記憶させておくことも可能である。
<Modification example 4>
In the above-described embodiment, the motion model is created and stored based on an image capable of detecting the skeleton, but the mode in which the motion model is stored is not limited to this. It is also possible to store the basic operation model (hereinafter referred to as “basic operation model”) in the
基本動作モデルは、所定の年齢、性別、体格毎に、標準的な骨格情報と動作情報が登録されたものである。この基本動作モデルは、様々な実験および/または計算により得られたデータにより予め作成される。 In the basic motion model, standard skeletal information and motion information are registered for each predetermined age, gender, and physique. This basic motion model is pre-built with data obtained from various experiments and / or calculations.
基本動作モデルを利用する場合には、画像情報に基づいて乗員の年齢、性別、体格等を識別し、記憶してある複数の基本動作モデルの中から、適切な基本動作モデルを選択する。 When using the basic motion model, the age, gender, physique, etc. of the occupant are identified based on the image information, and an appropriate basic motion model is selected from a plurality of stored basic motion models.
また、識別装置100内には、識別精度向上のため、年齢、性別、体格が異なる多数の基本動作モデルを記憶させておくことが好ましい。
Further, in order to improve the identification accuracy, it is preferable to store a large number of basic motion models having different ages, genders, and physiques in the
<変形例5>
変形例5は、変形例4において、基本動作モデルのデータベースと、骨格検知が可能な画像に基づいて作成する動作モデルのデータベースとを別で準備しておき、基本動作モデルと、骨格検知が可能な画像に基づいて作成した動作モデルを切り替えて用いるようにしたものである。
<Modification 5>
In the modified example 5, in the modified example 4, the database of the basic motion model and the database of the motion model created based on the image capable of detecting the skeleton are separately prepared, and the basic motion model and the skeleton can be detected. The operation model created based on the various images is switched and used.
具体的には、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態では、基本動作モデルを用い、骨格検知が可能な画像に基づいて作成した動作モデルの蓄積量が所定量以上となった場合に、用いる動作モデルを、基本動作モデルから、骨格検知が可能な画像に基づいて作成した動作モデルに切り替える。 Specifically, when the accumulated amount of the motion model created based on the image capable of detecting the skeleton is small, the accumulated amount of the motion model created based on the image capable of detecting the skeleton using the basic motion model is large. When the amount exceeds a predetermined amount, the motion model to be used is switched from the basic motion model to the motion model created based on the image capable of skeleton detection.
このようにすれば、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。 By doing so, it is possible to use the motion model database while ensuring the motion identification accuracy even when the accumulation amount of the motion model created based on the image capable of skeleton detection is small.
<変形例6>
変形例6は、変形例4において、基本動作モデルと、骨格検知が可能な画像に基づいて作成した動作モデルを組み合わせて用いるようにしたものである。
<
In the modified example 6, in the modified example 4, the basic motion model and the motion model created based on the image capable of detecting the skeleton are used in combination.
具体的には、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態で、基本動作モデルを用いると共に、骨格検知が可能な画像に基づいて動作モデルが作成された場合に、作成された動作モデルを用いて基本動作モデルのデータベースを更新する。具体的には、得られた骨格情報、人物情報及び動作情報を基本動作モデルのデータベースに加える作業を行う。 Specifically, when the basic motion model is used and the motion model is created based on the image capable of detecting the skeleton while the accumulated amount of the motion model created based on the image capable of detecting the skeleton is small. In addition, the database of the basic operation model is updated using the created operation model. Specifically, the work of adding the obtained skeleton information, person information, and motion information to the database of the basic motion model is performed.
このようにすれば、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。更に、基本動作モデルに骨格検知が可能な画像に基づいて作成された信頼性の高い動作モデルのデータを取り入れることで、動作モデルの信頼性を更に向上させることができる。 By doing so, it is possible to use the motion model database while ensuring the motion identification accuracy even when the accumulation amount of the motion model created based on the image capable of skeleton detection is small. Furthermore, the reliability of the motion model can be further improved by incorporating highly reliable motion model data created based on an image capable of detecting the skeleton into the basic motion model.
<変形例7>
上述した実施の形態では、骨格検知が可能な画像に基づいて動作モデルを作成する態様としたが、動作モデルの作成についてはこれに限定されない。例えば、動作モデルを用いて、部位動作識別部170で動作情報を識別した際に、その人物情報、部位情報及び動作情報を動作モデル部150にフィードバックさせるようにする。
<Modification 7>
In the above-described embodiment, the motion model is created based on an image capable of detecting the skeleton, but the creation of the motion model is not limited to this. For example, when the motion information is identified by the site
具体的には、図5のフロー図において、ステップS111の後に、部位動作識別処理に用いた人物情報及び部位情報と、部位動作識別処理において識別された動作情報を、動作モデル部150に出力し、動作モデル部150において、動作モデルの更新を行う。
Specifically, in the flow diagram of FIG. 5, after step S111, the person information and the site information used in the site motion identification process and the motion information identified in the site motion identification process are output to the
こうすることで、骨格検知が可能な画像に基づく動作モデルの作成に加え、人物情報、部位情報、及び動作モデルに基づいて識別した動作情報からも動作モデルを作成することができるので、動作モデルの蓄積量が飛躍的に増大する。なお、部位動作識別部から出力されるデータのうち、入力情報における部位情報と登録情報における骨格情報のうち複数が一致するもの等、動作の識別の信頼性が高いデータのみをフィードバックさせるようにすることで、動作モデルの信頼性の低下を防止することができる。 By doing so, in addition to creating a motion model based on an image capable of detecting the skeleton, a motion model can be created from person information, part information, and motion information identified based on the motion model, so that the motion model can be created. The amount of accumulated information increases dramatically. Of the data output from the site motion identification unit, only data with high reliability of motion identification, such as data in which a plurality of site information in the input information and skeleton information in the registration information match, is fed back. Therefore, it is possible to prevent the reliability of the operation model from being lowered.
<変形例8>
上述した実施の形態では、乗員である運転者が近赤光に対する反射率の低い長袖の衣服を着用していることを想定し、部位検知部160で検知する部位を、露出している頭部、左手、右手の3箇所としたが、部位検知部160で検知する部位についてはこれに限定されない。検知する部位を3箇所より少なくしてもよいし、3箇所より多くしてもよい。また、手(手首から指先まで)に代えて、もしくは加えて、肘または肩など、上肢における所定の箇所を検知するようにしてもよい。
<Modification 8>
In the above-described embodiment, it is assumed that the driver, who is an occupant, is wearing long-sleeved clothing having a low reflectance to near-red light, and the part to be detected by the
例えば、運転者が近赤光に対する反射率の低い半袖の衣服及び手袋を着用している場合を考えると、上述の実施の形態では、頭部を検知することはできるが両手を検知することができず、部位動作識別処理を行うことができない。しかしながら、手に代えて、肘を検知するようにすれば、部位動作識別処理を行うことができる。 For example, considering the case where the driver wears short-sleeved clothes and gloves having low reflectance to near-red light, in the above-described embodiment, the head can be detected but both hands can be detected. It is not possible to perform the site motion identification process. However, if the elbow is detected instead of the hand, the site motion identification process can be performed.
また、運転席が車両進行方向右側である場合、運転者は機器300を左手で操作することが多い。そこで、検知する部位を、頭部と、左上肢の1箇所以上とすれば、検知部位を少なくしたとしても、検知部位の動きが多いため、運転者の動作を正しく識別することができる。
Further, when the driver's seat is on the right side in the vehicle traveling direction, the driver often operates the
<変形例9>
上述した実施の形態では、動作モデルにおいて記憶される骨格情報として、部位検知部160での部位検知処理で検知対象となる部位の骨格情報のみを登録する態様としたが、動作モデルに記憶させる骨格情報の種類については、これに限定されない。
<Modification example 9>
In the above-described embodiment, as the skeleton information stored in the motion model, only the skeleton information of the site to be detected by the site detection process in the
例えば、動作モデルに全骨格情報を記憶させるようにしてもよい。その場合、部位動作識別部170では、画像情報から検知することができた部位の部位情報と、動作モデルにおける骨格情報のうち、画像情報から検知することができた部位に対応する部位の骨格情報を照合する。
For example, the motion model may store the entire skeleton information. In that case, the part
このようにすれば、検知可能な部位の組合せが変わった場合でも、部位動作識別処理を行うことができる。 In this way, even if the combination of detectable parts changes, the part motion identification process can be performed.
以上、本発明の実施の形態および変形例について説明した。 The embodiments and modifications of the present invention have been described above.
図7は、上述した実施の形態および変形例における各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。 FIG. 7 is a diagram showing a hardware configuration of a computer that programmatically realizes the functions of each part in the above-described embodiment and modification.
図7に示すように、コンピュータ2100は、入力ボタン、タッチパッドなどの入力装置2101、ディスプレイ、スピーカなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。
As shown in FIG. 7, the
そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。
Then, the
そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
Then, the
本発明に係る識別装置は、所定の機器を操作する人物を識別するのに有用である。 The identification device according to the present invention is useful for identifying a person who operates a predetermined device.
100 識別装置
101 入力部
102 制御部
110 検知制御部
120 骨格検知部
130 骨格動作識別部
140 人物識別部
150 動作モデル部
160 部位検知部
170 部位動作識別部
180 機器制御部
200 カメラ
300 機器
1000、1001、1002 画像
1003 データベース
2001 入力情報
2002 登録情報
2003 データ
2100 コンピュータ
2101 入力装置
2102 出力装置
2103 CPU
2104 ROM
2105 RAM
2106 記憶装置
2107 読取装置
2108 送受信装置
2109 バス
3001 入力情報
3002 登録情報
3003、3004、3005、3006、3007 データ
100
2104 ROM
2105 RAM
2106
Claims (5)
前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、
前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含み、
前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルとを切り替えて用いる、識別装置。 An input unit that receives image information of a person taken by a camera,
Based on the image information, the person is identified and at least the head and hand parts of the person are detected, and the identified person, the detected part, and the movement of the person are registered for each person. A control unit that identifies the movement of the person based on the model is provided.
The operation model, viewed contains a first behavior model is generated based on the operation of the person identified by the control unit, and a second operation model stored are generated in advance, a,
The control unit is an identification device that switches between the first operation model and the second operation model based on the accumulated amount of the first operation model.
前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、
前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含み、
前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルを組み合わせて用いる、識別装置。 An input unit that receives image information of a person taken by a camera,
Based on the image information, the person is identified and at least the head and hand parts of the person are detected, and the identified person, the detected part, and the movement of the person are registered for each person. A control unit that identifies the movement of the person based on the model is provided.
The motion model includes a first motion model generated based on the motion of the person identified by the control unit, and a second motion model generated and stored in advance.
Wherein the control unit is used by combining the second operation model and the first behavior model based on the accumulated amount of the first operation model, identification device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020049530A JP6909986B2 (en) | 2016-04-28 | 2020-03-19 | Identification device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016091760A JP6688990B2 (en) | 2016-04-28 | 2016-04-28 | Identification device, identification method, identification program, and recording medium |
JP2020049530A JP6909986B2 (en) | 2016-04-28 | 2020-03-19 | Identification device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016091760A Division JP6688990B2 (en) | 2016-04-28 | 2016-04-28 | Identification device, identification method, identification program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020095756A JP2020095756A (en) | 2020-06-18 |
JP6909986B2 true JP6909986B2 (en) | 2021-07-28 |
Family
ID=71085217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020049530A Active JP6909986B2 (en) | 2016-04-28 | 2020-03-19 | Identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6909986B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4481663B2 (en) * | 2004-01-15 | 2010-06-16 | キヤノン株式会社 | Motion recognition device, motion recognition method, device control device, and computer program |
US9274594B2 (en) * | 2010-05-28 | 2016-03-01 | Microsoft Technology Licensing, Llc | Cloud-based personal trait profile data |
JP5625643B2 (en) * | 2010-09-07 | 2014-11-19 | ソニー株式会社 | Information processing apparatus and information processing method |
-
2020
- 2020-03-19 JP JP2020049530A patent/JP6909986B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020095756A (en) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6688990B2 (en) | Identification device, identification method, identification program, and recording medium | |
EP2743799B1 (en) | Control apparatus, vehicle, and portable terminal using hand information for command generation | |
KR101807513B1 (en) | The analysis apparatus and method of user intention using video information in three dimensional space | |
JP5877053B2 (en) | Posture estimation apparatus and posture estimation method | |
JP2019040465A (en) | Action recognition device, learning device, method and program | |
JP7091983B2 (en) | Equipment control device | |
CN111104820A (en) | Gesture recognition method based on deep learning | |
CN103310188A (en) | Method and apparatus for pose recognition | |
JP5217754B2 (en) | Action estimation device, program | |
US20230410356A1 (en) | Detection apparatus, detection method, and non-transitory storage medium | |
JP2017199302A (en) | Determination device, determination method, determination program and storage medium | |
US11887257B2 (en) | Method and apparatus for virtual training based on tangible interaction | |
JPWO2019163124A1 (en) | 3D position estimation device and 3D position estimation method | |
JP2010079639A (en) | Pedestrian detecting device for vehicle | |
JP6909986B2 (en) | Identification device | |
JP4613999B2 (en) | Action estimation device, program | |
JP2004259215A (en) | Face detection system and its method | |
KR101976498B1 (en) | System and method for gesture recognition of vehicle | |
JP4683123B2 (en) | Action estimation device, program | |
JP2018089161A (en) | Target person recognition method, device, system, and program | |
Ribas et al. | In-Cabin vehicle synthetic data to test Deep Learning based human pose estimation models | |
JP2019179289A (en) | Processing device and program | |
Kapgate et al. | Human following robot using kinect in embedded platform | |
KR102486161B1 (en) | Vehicle, Control Method of the vehicle and Image tracking apparatus | |
US20220309400A1 (en) | Learning method, learning device, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210330 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210617 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6909986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |