JP6443393B2 - 行動認識装置,学習装置,並びに方法およびプログラム - Google Patents
行動認識装置,学習装置,並びに方法およびプログラム Download PDFInfo
- Publication number
- JP6443393B2 JP6443393B2 JP2016110288A JP2016110288A JP6443393B2 JP 6443393 B2 JP6443393 B2 JP 6443393B2 JP 2016110288 A JP2016110288 A JP 2016110288A JP 2016110288 A JP2016110288 A JP 2016110288A JP 6443393 B2 JP6443393 B2 JP 6443393B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- vehicle
- human body
- feature amount
- parts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000009471 action Effects 0.000 title claims description 61
- 238000000034 method Methods 0.000 title claims description 33
- 230000006399 behavior Effects 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000003066 decision tree Methods 0.000 claims description 14
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 8
- 238000007637 random forest analysis Methods 0.000 description 8
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
されている.非特許文献1では,入力画像から解像度の異なる複数の画像(ピラミッド画像)を作成し,得られたピラミッド画像から高密度に着目点を検出する.また,各々の着目点を時間方向に追跡して得られた軌跡毎に,HOG,HOF,MBHといった複数の種類の画像
特徴量を算出する.さらに,これらの画像特徴量を次元方向に連結し,Bag-of-Feature表現を用いて,より記述能力の高い画像特徴量に変換する.最終的に,識別対象となる行動毎に得られた画像特徴量を入力とする非線形SVM (Support Vector Machine)を用いて識別器を学習する.
)を用いて,第一の特徴量を算出する.また,得られた第一の特徴量に対して,フィッシャー・カーネル(Fisher Kernel)を適用することで,より記述能力の高い第2の特徴量(Fisher Vector)に変換する.最終的に,識別対象となる行動毎に算出した第2の特徴量を入力とする非線形SVMを用いて識別器を学習する.
用する場合,ジェスチャー認識のような,動画像中の人物が意図した行動を認識するのに有効である反面,動画像中の人物が意図しない危険行動などを認識するのは困難であるという問題がある.
車両内を撮影した車内画像に基づいて,前記車内画像における車両内の人物の,人体の複数の部位の位置を検出する人体部位検出手段と,
前記人体部位検出手段で得られた部位間の距離の大きさの順位に基づく特徴量である順位特徴量を算出する特徴量算出手段と,
あらかじめ学習された識別器と,前記特徴量算出手段が算出した順位特徴量とを用いて,車両内乗員の行動を識別する識別手段と,
を有することを特徴とする.
あってもよいし,奥行情報も考慮した3次元的な距離であってもよい.
どの手法によって学習されたものであってもよい.
像,より詳細には複数フレームから構成される動画像に基づいて認識することが好ましい.この場合,行動認識装置は,動画像を構成する複数フレームの画像に対して,人体の部位位置の検出,順位特徴量の算出,および前記複数の行動それぞれに対する確からしさの算出を行い,前記確からしさの二乗和が最大となる行動を前記車両内乗員の行動であると判断する,ことが好ましい.ここでは確からしさの二乗和を用いて評価しているが,単純和や積などを用いても構わない.
の学習装置であって,
車両内を撮影した車内画像における車両内の人物の人体の複数の部位の位置,および車両内の人物が取った正解の行動を取得する入力手段と,
人体の部位間の距離の大きさの順位に基づく特徴量である順位特徴量を算出する特徴量算出手段と,
前記特徴量算出手段が算出した順位特徴量と,前記正解の行動とに基づいて,車両内乗員の行動を識別するための識別器を学習する学習手段と,
を有することを特徴とする.
いし,奥行情報も考慮した3次元的な距離であってもよい.3次元的な距離を採用する場合には,奥行情報も利用する必要がある.なお,人体の部位の位置の検出は,学習装置が行ってもよいし,人間が行ってもよい.
本発明の実施形態に関して,図面を参照して説明する.図1(a)は,本実施形態に係る行動認識装置1の概略構成を示すブロック図である.本実施形態に係る行動認識装置1は,半導体集積回路(LSI)を用いて実現できる.ここで,行動認識装置1は,図1(a)に示すように,赤外画像入力部11,奥行情報入力部12,人体部位検出部13,特徴量算出部14,識別部16を有する.識別部16は,1枚の画像から識別対象行動それぞれの確率(確からしさ)を求
める確率算出部161と,複数フレームの画像から車両内乗員の行動を特定するための確率
積算部162とを含む.これらの構成要素は,行動認識装置1が果たす機能にそれぞれ対応し
ている.
情報入力部12,人体部位検出部13,学習部15,正解行動入力部17を有する.学習部15は,微小振動印加部151,特徴量算出部152,判定条件設定部153を含む.ここで,学習装置2が有する機能ブロックのうち行動認識装置1が有するものと同一のものについては,同一の
参照番号を付している.
まず,学習装置2が行う学習処理について説明する.図2は学習処理の流れを示すフローチャートである.
奥行情報)を取得し,得られた時刻t (t=1,2,…,T)での奥行情報D(t)を人体部位検出部13に出力する.ここで,奥行情報D(t)は,すでに市販されているステレオカメラやTOFセン
サーなどを車両内に設置して取得すればよい.
して行われる.
部位を検出する.
行情報入力部12で得られた奥行情報D(t)とに基づいて,車両内乗員のM個の部位の2次元座標(xm(t),ym(t)) (m=1,2,…,M)を検出し,学習部15に出力する.
.また,ym(t)は,時刻tでのm番目の部位の赤外画像I(t)における垂直方向座標を表す.
一方,zm(t)は,時刻tでのm番目の部位の奥行方向座標を表し,奥行情報D(t)における2次元座標(xm(t),ym(t))上の値で与えられる.
タを用いて,車両内乗員のM個の部位の2次元座標(xm(t),ym(t)) (m=1,2,…,M)を検出するための識別器C1を構成し,得られた識別器C1を用いて,車両内乗員のM個の部位の2次元座標(xm(t),ym(t)) (m=1,2,…,M)を検出すればよい.
て,車両内乗員のM個の部位の2次元座標(xm(t),ym(t)) (m=1,2,…,M)を検出してもよい.
えて,似て非なるK個の学習用データDk(t) (k=1,2,…,K)を作成する.微小変動を加えた
後も,正解行動は正解行動入力部17に入力されたものと同一である.
部位の2次元座標(xm(t), ym(t)) (m=1,2,…,M)に対して微小な変動(Δxm,k(t),Δym,k(t)) (m=1,2,…,M, k=1,2,…,K)を加えることで,似て非なるK個の学習用データDk(t)(k=1,2,…,K)を作成し,特徴量算出部152に出力する.
…,K)毎に値が異なる.さらに,最大値ΔxmaxとΔymaxは,各々試行錯誤的に決められる
.
を算出する.具体的には,順位特徴量F(t)は,次の式(1)を用いて算出される.
ユークリッド距離,R(D(m,n))は,D(1,2), D(1,3),・・・,D(8,9), D(9,10)を降順に並び替えたときのD(m,n)の順位を各々表す.たとえば,図6(a)のように,便宜上4つの部位
を考え,すべての部位のペア間の距離D(t)が,
D(t) = (D(1,2), D(1,3), D(1,4), D(2,3), D(2,4), D(3,4))
= (5.5, 2.6, 2.8, 3.5, 4.3, 4.0)
で与えられたとすると,時刻tにおける順位特徴量F(t)は,
F(t) = (1, 5, 6, 4, 3, 2)
のように算出できる.
変であり,また微小変動に対して頑健であるという特性がある.すなわち,順位特徴量F(
t)は,人体の部位間の距離の順位のみに依存するため,拡大・縮小といったスケール変動が生じても不変であり,人体の部位の位置が微小に変動しても,その変動がそれらの順位に影響しなければ,順位特徴量F(t)は一定である.このような特性により,車両内乗員の行動を推定する際に生じる様々な変動,たとえば,座席位置の水平移動,乗員の体格差,カメラの位置や向き,深層学習による人体の部位の位置の推定誤差などによる影響を抑制することができる.
り返しにより,入力された動画像の各フレームについて当該処理が実行される.
ゴリを用いて,識別対象カテゴリc(=1,…,C)に対する識別器C3を学習する.本実施形態では,決定木学習,特に非特許文献5のようなRandom Forestsを用いて,識別器C3を学習す
る.
一種であり,複数のノードr(=1,...,R)と,ノード間を接続するリンクとから構成される
.最上位層にあるノードをルート・ノード,最下位層にあるノードをリーフ・ノード,それ以外を単にノードとよぶ.各ノードには学習により,ノード内の順位特徴量を左右のノードに振り分けるための判定条件Φr(r=1,...,R)と,識別対象カテゴリc(=1,…,C)に対する確率Pr(c) (r=1,...,R)とが格納される.
に決定する.
を行い,I - J > τが成立する場合は右側のノードに,成立しない場合は左側のノードに遷移する.たとえば,順位特徴量F(t)=(1, 5, 6, 4, 3, 2)に対して判定条件(i, j, τ)=(1, 5, 1)を適用した場合,i(=1)番目の要素I=5と,j(=5)番目の要素J=2とから,I-J = 5-2 = 3 > 1 = τが成立するため,右側のノードに遷移する.同様に,判定条件(i, j, τ)=(1, 0, 7)を適用した場合,i(=1)番目の要素I=5と,j(=0)番目の要素J=1とから,I-J =
5-1 = 4 < 7 = τが成立するため,左側のノードに遷移する.
められた手順に従って学習をすればよい.ここでいう学習とは,各ノードr(=1,...,R)に
適切な判定条件Φr(r=1,...,R)と,識別対象カテゴリc(=1,…,C)に対する確率Pr(c) (r=1,...,R)を設定することをいう.具体的には,r番目のノードにおける判定条件Φr(r=1,…,R)は,判定条件の候補φm(m=1,...,M)のうちで,式(2)で定義される信頼度G(φ)を最
大にするものを設定すればよい.
に遷移したサンプルの識別対象カテゴリに対する情報エントロピー,H(Qr(φ))は,判定
条件φで右側のノードに遷移したサンプルの識別対象カテゴリに対する情報エントロピーを各々表す.
,識別対象カテゴリc(=1,…,C)に対する確率Pr(c) (r=1,...,R)が決定される.学習に用
いる学習データの部分集合および判定条件の候補φmを異ならせて上記の処理を複数回行
い,複数の決定木を作成する.識別器(識別部16の確率算出部161に相当)の識別結果は
,各決定木によって求められる識別対象カテゴリcに対する確率Pr(c)を統合したものである.
次に,行動認識装置1が行う行動認識処理について説明する.図8は行動認識処理の流れを示すフローチャートである.
して行われる.
ステップS21およびS22における処理は,学習処理におけるステップS11およびS12の処理と同様である.
よって算出された順位特徴量の認識対象カテゴリc(=1,…,C)それぞれに対応する確率を求める.特徴量算出部14によって新たに入力された順位特徴量をF(t')と表す.順位特徴量F(t')は,認識対象カテゴリが未知である.確率算出部161は,学習部15で得られたRandom Forestsの各ノードr(=1,...,R)における判定条件Φr(r=1,...,R)と,識別対象カテゴリc(=1,…,C)に対する確率Pr(c) (r=1,...,R)とに基づいて,順位特徴量F(t’) (t’=1,…,T
’)の認識対象カテゴリc(=1,…,C)に対する確率P(t’, c)を算出する.算出された確率P(t', c)は確率積算部162に出力される.
の確率)に基づいて,入力された動画像における車両内乗員の行動を決定する.具体的には,確率積算部162は,確率算出部161で得られた時刻t’での認識対象カテゴリc(=1,…,C)に対する確率P(t’, c)を時間方向にLフレーム積算することで,順位特徴量F(t’)が,
認識対象カテゴリc(=1,…,C)のうちのどれに属するかを判定する.具体的には,順位特徴量F(t’)が属する認識対象カテゴリc(F(t’)) (1からCのいずれか)は,式(3)を用いて
判定すればよい.
.また,Lの値は,試行錯誤的に決定すればよい.
上記の説明では,人体の部位の位置として2次元位置(xm(t), ym(t))を求めており,し
たがって,部位間の距離もxy面内での距離が用いられている.しかしながら,人体の部位の位置を3次元で求めて,部位間の距離として3次元空間内での距離を用いることも好適である.この場合,学習処理において部位の位置に微小変動を加える際には,x,y,zの各成
分に無作為な値を加えてもよいし,x,yの成分に無作為な値を加えてz成分は奥行情報D(t)における(xm(t)+Δxm,k(t), ym(t)+Δym,k(t))の値としてもよい.
な行動カテゴリの認識結果を決定しているが,単純和や積(あるいは,相加平均や相乗平均)に基づいて決定してもよい.
あって構わない.統計的機械学習とは,学習データから統計的方法に基づいて,入力データのクラス判別を行うモデルを生成する学習処理を指す.たとえば,非特許文献6のよう
な多クラスSupport Vector Machineを用いることができる.あるいは,非特許文献7のよ
うな最小二乗確率的分類法を用いることもできる.その他にも,ベイズ推定やニューラルネットワークなどを用いることもできる.
されず,汎用的なマイクロプロセッサやメモリを有するコンピュータがプログラムを実行することによって実現されても構わない.また,上記の説明では,行動認識装置1と学習
装置2を異なる装置として説明したが,1台の装置において学習モードを認識モードとを切り替えられるように構成しても構わない.
11…赤外画像入力部
12…奥行情報入力部
13…人体部位検出部
14…特徴量算出部
15…学習部
16…識別部
17…正解情報入力部
Claims (11)
- 車両内を撮影した車内画像に基づいて、前記車内画像における車両内の人物の、人体の複数の部位の位置を検出する人体部位検出手段と、
前記人体部位検出手段で得られた部位間の距離の大きさの順位に基づく特徴量である順位特徴量を算出する特徴量算出手段と、
あらかじめ学習された識別器と、前記特徴量算出手段が算出した順位特徴量とを用いて、車両内乗員の行動を識別する識別手段と、
を有することを特徴とする行動認識装置。 - 前記識別器は、決定木学習によって学習されたものであり、人体のある部位間の距離の大きさの順位と、別のある部位間の距離の大きさの順位との大小関係に基づいて構成される、
請求項1に記載の行動認識装置。 - 前記識別器は、統計的機械学習に基づいて構成される、
請求項1に記載の行動認識装置。 - 前記識別手段は、あらかじめ定められた複数の行動それぞれに対する確からしさを算出するものであり、
動画像を構成する複数フレームの画像に対して、人体の部位位置の検出、順位特徴量の算出、および前記複数の行動それぞれに対する確からしさの算出を行い、前記確からしさの二乗和が最大となる行動を前記車両内乗員の行動であると判断する、
請求項1から3のいずれか1項に記載の行動認識装置。 - 車両内を撮影した車内画像における車両内の人物の人体の複数の部位の位置、および車両内の人物が取った正解の行動を取得する入力手段と、
人体の部位間の距離の大きさの順位に基づく特徴量である順位特徴量を算出する特徴量算出手段と、
前記特徴量算出手段が算出した順位特徴量と、前記正解の行動とに基づいて、車両内乗員の行動を識別するための識別器を学習する学習手段と、
を有することを特徴とする学習装置。 - 前記学習手段は、人体のある部位間の距離の大きさの順位と別のある部位間の距離の大きさの順位との大小関係に基づく決定木学習によって前記識別器を学習する、
請求項5に記載の学習装置。 - 前記学習手段は、統計的機械学習に基づいて前記識別器を学習する、
請求項5に記載の学習装置。 - 前記車内画像における複数の部位の位置に微小変動を加えた入力データも同一の正解行動を表す学習データとして用いて識別器を学習する、
請求項5から7のいずれか1項に記載の学習装置。 - 車両内を撮影した車内画像に基づいて、前記車内画像における車両内の人物の、人体の複数の部位の位置を検出する人体部位検出ステップと、
前記人体部位検出ステップにおいて得られた部位間の距離の大きさの順位に基づく特徴量である順位特徴量を算出する特徴量算出ステップと、
あらかじめ学習された識別器と、前記特徴量算出ステップにおいて算出した順位特徴量とを用いて、車両内乗員の行動を識別する識別ステップと、
を含むことを特徴とする行動認識方法。 - 車両内を撮影した車内画像における車両内の人物の人体の複数の部位の位置、および車両内の人物が取った正解の行動を取得する入力ステップと、
人体の部位間の距離の大きさの順位に基づく特徴量である順位特徴量を算出する特徴量算出ステップと、
前記特徴量算出ステップにおいて算出した順位特徴量と、前記正解の行動とに基づいて、車両内乗員の行動を識別するための識別器を学習する学習ステップと、
を含むことを特徴とする学習方法。 - 請求項9または10に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016110288A JP6443393B2 (ja) | 2016-06-01 | 2016-06-01 | 行動認識装置,学習装置,並びに方法およびプログラム |
US15/492,367 US10192126B2 (en) | 2016-06-01 | 2017-04-20 | Behavior recognition apparatus, learning apparatus, and method |
DE102017111707.5A DE102017111707A1 (de) | 2016-06-01 | 2017-05-30 | Verhaltenserkennungsgerät, lerngerät und verfahren |
CN201710406027.4A CN107451524B (zh) | 2016-06-01 | 2017-06-01 | 行为识别装置、学习装置、行为识别方法、学习方法及计算机可读的记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016110288A JP6443393B2 (ja) | 2016-06-01 | 2016-06-01 | 行動認識装置,学習装置,並びに方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017215861A JP2017215861A (ja) | 2017-12-07 |
JP6443393B2 true JP6443393B2 (ja) | 2018-12-26 |
Family
ID=60327592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016110288A Expired - Fee Related JP6443393B2 (ja) | 2016-06-01 | 2016-06-01 | 行動認識装置,学習装置,並びに方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10192126B2 (ja) |
JP (1) | JP6443393B2 (ja) |
CN (1) | CN107451524B (ja) |
DE (1) | DE102017111707A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7031685B2 (ja) * | 2017-12-08 | 2022-03-08 | 日本電気株式会社 | モデル学習装置、モデル学習方法及びコンピュータプログラム |
JP6977551B2 (ja) * | 2017-12-26 | 2021-12-08 | コニカミノルタ株式会社 | 情報処理装置、情報処理方法、および、情報処理プログラム |
US11850514B2 (en) | 2018-09-07 | 2023-12-26 | Vulcan Inc. | Physical games enhanced by augmented reality |
CN110956060A (zh) * | 2018-09-27 | 2020-04-03 | 北京市商汤科技开发有限公司 | 动作识别、驾驶动作分析方法和装置及电子设备 |
CN111079474A (zh) * | 2018-10-19 | 2020-04-28 | 上海商汤智能科技有限公司 | 乘客状态分析方法和装置、车辆、电子设备、存储介质 |
WO2020093344A1 (en) | 2018-11-09 | 2020-05-14 | Beijing Didi Infinity Technology And Development Co., Ltd. | System and method for detecting in-vehicle conflicts |
US11670080B2 (en) | 2018-11-26 | 2023-06-06 | Vulcan, Inc. | Techniques for enhancing awareness of personnel |
CN109711289B (zh) * | 2018-12-13 | 2021-11-16 | Oppo广东移动通信有限公司 | 乘车提醒方法、装置、电子设备和存储介质 |
US10643085B1 (en) * | 2019-01-30 | 2020-05-05 | StradVision, Inc. | Method and device for estimating height and weight of passengers using body part length and face information based on human's status recognition |
JP7196645B2 (ja) * | 2019-01-31 | 2022-12-27 | コニカミノルタ株式会社 | 姿勢推定装置、行動推定装置、姿勢推定プログラム、および姿勢推定方法 |
WO2020163530A1 (en) | 2019-02-08 | 2020-08-13 | Vulcan Inc. | Devices to assist ecosystem development and preservation |
WO2020198070A1 (en) | 2019-03-22 | 2020-10-01 | Vulcan Inc. | Underwater positioning system |
US12147997B1 (en) | 2019-04-23 | 2024-11-19 | Vale Group Llc | Sensor data collection and processing |
JP7003335B2 (ja) * | 2019-09-05 | 2022-01-20 | 三菱電機株式会社 | 操作者判定装置および操作者判定方法 |
US11132585B2 (en) * | 2019-12-17 | 2021-09-28 | Robert Bosch Gmbh | System and method for detecting abnormal passenger behavior in autonomous vehicles |
CN111985295A (zh) * | 2020-06-05 | 2020-11-24 | 深圳市金溢科技股份有限公司 | 一种电动自行车行为识别方法、系统、工控机及摄像头 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983817B2 (en) * | 1995-06-07 | 2011-07-19 | Automotive Technologies Internatinoal, Inc. | Method and arrangement for obtaining information about vehicle occupants |
JP4670803B2 (ja) * | 2006-12-04 | 2011-04-13 | 株式会社デンソー | 操作推定装置およびプログラム |
JP5391876B2 (ja) * | 2009-07-01 | 2014-01-15 | 日本電気株式会社 | 代表特徴抽出システム、方法およびプログラム |
JP5596628B2 (ja) * | 2011-06-17 | 2014-09-24 | トヨタ自動車株式会社 | 物体識別装置 |
CN103782255B (zh) * | 2011-09-09 | 2016-09-28 | 泰利斯航空电子学公司 | 交通工具娱乐系统的眼动追踪控制 |
KR101270351B1 (ko) * | 2012-04-03 | 2013-05-31 | 조선대학교산학협력단 | 얼굴 인식을 위한 얼굴 영상 획득 방법 및 장치 |
WO2015186436A1 (ja) * | 2014-06-06 | 2015-12-10 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、および、画像処理プログラム |
US9714037B2 (en) * | 2014-08-18 | 2017-07-25 | Trimble Navigation Limited | Detection of driver behaviors using in-vehicle systems and methods |
US9373203B1 (en) * | 2014-09-23 | 2016-06-21 | State Farm Mutual Automobile Insurance Company | Real-time driver monitoring and feedback reporting system |
CN105138995B (zh) * | 2015-09-01 | 2019-06-25 | 重庆理工大学 | 基于骨架信息的时不变及视不变的人体行为识别方法 |
CN105279483B (zh) * | 2015-09-28 | 2018-08-21 | 华中科技大学 | 一种基于深度图像的跌倒行为实时检测方法 |
CN105320944B (zh) * | 2015-10-24 | 2019-09-27 | 西安电子科技大学 | 一种基于人体骨架运动信息的人体行为预测方法 |
US9864918B2 (en) * | 2015-11-04 | 2018-01-09 | Ford Global Technologies, Llc | Predicting vehicle movements based on driver body language |
-
2016
- 2016-06-01 JP JP2016110288A patent/JP6443393B2/ja not_active Expired - Fee Related
-
2017
- 2017-04-20 US US15/492,367 patent/US10192126B2/en active Active
- 2017-05-30 DE DE102017111707.5A patent/DE102017111707A1/de active Pending
- 2017-06-01 CN CN201710406027.4A patent/CN107451524B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017215861A (ja) | 2017-12-07 |
CN107451524A (zh) | 2017-12-08 |
US20170351928A1 (en) | 2017-12-07 |
US10192126B2 (en) | 2019-01-29 |
DE102017111707A1 (de) | 2017-12-07 |
CN107451524B (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6443393B2 (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
JP2019040465A (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
CN112590794B (zh) | 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置 | |
EP3690720B1 (en) | Method and device for estimating height and weight of passengers using body part length and face information based on human's status recognition | |
WO2019184573A1 (en) | Passenger-related item loss mitigation | |
US8676733B2 (en) | Using a model tree of group tokens to identify an object in an image | |
CN111587437A (zh) | 使用视频管的活动识别方法 | |
US20200311855A1 (en) | Object-to-robot pose estimation from a single rgb image | |
WO2019136449A2 (en) | Error correction in convolutional neural networks | |
Weinrich et al. | Estimation of human upper body orientation for mobile robotics using an SVM decision tree on monocular images | |
WO2003091941A1 (en) | High-performance object detection with image data fusion | |
JP2005311691A (ja) | 物体検出装置及び方法 | |
CN108256454B (zh) | 一种基于cnn模型的训练方法、人脸姿态估测方法及装置 | |
CN113366493A (zh) | 信息处理方法、以及信息处理系统 | |
WO2020030722A1 (en) | Sensor system including artificial neural network configured to perform a confidence measure-based classification or regression task | |
Kumar et al. | Tracking occupant activities in autonomous vehicles using capacitive sensing | |
US20240375664A1 (en) | Prediction of operator input to a steering element | |
Devarakota et al. | Occupant classification using range images | |
JP2020009316A (ja) | 学習方法および学習装置 | |
JP2014186496A (ja) | 対象物姿勢推定装置、及びプログラム | |
JP2019106140A (ja) | 機械学習のモデルパラメータの学習装置 | |
Dos Santos et al. | Performance comparison of convolutional neural network models for object detection in tethered balloon imagery | |
KR101503398B1 (ko) | 이동물체 분류장치 및 분류방법 | |
Huang et al. | A hierarchical temporal memory based hand posture recognition method | |
US20240273922A1 (en) | Methods and Systems for Automated Machine Vision Monitoring of Vehicle Seats |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181112 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6443393 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |