JP7422456B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP7422456B2 JP7422456B2 JP2019213738A JP2019213738A JP7422456B2 JP 7422456 B2 JP7422456 B2 JP 7422456B2 JP 2019213738 A JP2019213738 A JP 2019213738A JP 2019213738 A JP2019213738 A JP 2019213738A JP 7422456 B2 JP7422456 B2 JP 7422456B2
- Authority
- JP
- Japan
- Prior art keywords
- joint
- score
- joints
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims 2
- 238000012545 processing Methods 0.000 title description 22
- 230000010365 information processing Effects 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 17
- 210000003127 knee Anatomy 0.000 claims description 15
- 210000003423 ankle Anatomy 0.000 claims description 14
- 241001465754 Metazoa Species 0.000 claims description 2
- 230000007423 decrease Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 41
- 210000003739 neck Anatomy 0.000 description 22
- 230000036544 posture Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 18
- 238000013527 convolutional neural network Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000001936 parietal effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003108 foot joint Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
Description
本発明の実施形態に係る画像処理装置を、図面を参照しながら説明する。なお、図面間で符号の同じものは同じ動作をするとして重ねての説明を省く。また、この実施の形態に掲載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。
本実施形態について、まず、学習済みモデルを用いた実行フェーズを説明し、次に、学習済みモデルの学習フェーズを説明する。実行フェーズでは、関節位置毎に、その関節(と他の関節を結んだ線)が属する物体を示すスコアを対応付けたスコアマップを出力する学習済みモデルを用いて、画像に映った物体の識別処理を行う例を述べる。スコアマップは、同じ種類の物体でも、物体毎に異なる(分散が大きい)スコアを算出する。学習済みモデルは、異なる物体に属する関節位置に対して分散の大きいスコアを出力するように学習済みである。ここでは、関節位置に対応付いたスコアを用いて、人物の関節と関節を結ぶ線上にスコアを推論する。そして、複数の人物が映った画像から特定の人物を同定する処理について説明する。
f(x)=x 式(1-3)
次に、物体が撮像された画像を入力すると、物体の関節と関節を結ぶ線上に対して異なる物体を識別するためのスコアを含むスコアマップを出力する学習モデルの生成する処理について説明する。まず、ある物体に属する関節とその物体と他の物体に属する関節とを識別するために、画像内の位置情報に基づいて1つの物体に対応する関節群を特定する。そして、スコアマップに基づいて、ある物体に属する関節群に対応するスコアと、他の物体に属する関節群に対応するスコアとの差を比較する。損失計算部における損失関数は、差が所定の値より大きい場合は小さい損失値を、差が所定の値より小さい場合は大きい損失値を出力する。スコアの差が大きければ大きいほど、ゼロに近づくような小さな損失値を出力する。その決定された損失値が所定の値より大きい場合、学習が十分に進んでいないため、学習モデルのパラメータ(学習モデルを構成する層間の結合重み付け係数)を更新する。また、同一物体におけるスコアについて、損失関数は、ある物体に属する関節群に対応するスコアの分散が所定の値より大きい場合はスコアに対する損失を大きく、所定の値より小さい場合はスコアに対する損失が小さくなるように損失値を出力する。その決定された損失値が所定の値より大きい場合、学習が十分に進んでいないため、学習モデルのパラメータを更新する。これらの損失関数から出力した損失値の合計が所定の値より小さくなるまで学習を行う。
Loss=γLossposition+θLossid 式(1-8)
実施形態1における式(1-4)のかわりに、式(3-1)のようにしてスコアを求める。
本実施形態では、実施形態1と同様に、画像から関節位置と、関節が属する人物を推定する。実施形態1では、関節が属する人物を決定するため、推定されたスコアに基づいてスコアを式(1-4)に基づいて決定した。本実施形態では、推定されたスコアと、関節と関節の空間的位置関係も利用して関節が属する人物を決定する。ここで説明する損失関数は、第1の物体と第2の物体との距離に基づいて、損失値を出力する。具体的には、式(2-1)に基づいて、スコアを計算する。式(2-1)中のixおよびiyは、関節iのx座標とy座標をそれぞれ示し、i’xおよびi’yは、関節i’のx座標とy座標をそれぞれ示している。また、WスコアとWpоsitiоnは、それぞれの項に対して経験的に決められるパラメータである。式(2-1)は、式(1-4)に関節と関節の距離に関する項を加えている。つまり、関節と関節の位置が近ければスコアは小さくなり(同一人物である可能性が上がり)、関節と関節の位置が離れていればスコアは大きくなる(同一人物である可能性が下がる)。関節と関節の位置関係は、たいていの場合、異なる人物同士の関節同士よりも、同一人物の関節同士のほうが距離的に近い位置にあることを利用している。このようにスコアを計算することにより、空間的に遠く離れた人物同士の関節はスコアが大きくなる。このため、推定されたスコアが二つの関節間で類似していたとしても、同一人物だと判定し難くなり、ロバスト性が向上する。
本実施形態では、実施形態1において説明した、関節位置推定を、バラ積み部品の自動ロボットピッキングに応用する例を示す。なお、ハードウェア構成は、図1で示した実施形態1と同様の構成でよい。
本実施形態では、実施形態1において説明した、関節位置推定を、スポーツシーンの映像自動解析に応用する例を示す。なお、ハードウェア構成は、図1で示した実施形態1と同様の構成でよい。
101 画像取得部
102 推定部
104 特定部
105 記憶部
106 認識部
Claims (14)
- 画像から検出される複数の物体のそれぞれの関節の位置を示す位置情報を取得する取得手段と、
前記複数の物体のそれぞれの関節の位置に対して前記複数の物体の個体に応じたスコアを示すスコアマップを出力するように学習された学習済みモデルに前記画像を入力する入力手段と、
前記入力手段により前記学習済みモデルに前記画像が入力されることで得られるスコアであって前記関節の位置に対応するスコアに基づいて、前記位置情報により示される関節同士を結ぶ線がどの物体に属するかを特定する特定手段と、を有することを特徴とする情報処理装置。 - 前記入力手段は、前記学習済みモデルに前記画像を入力することでスコアマップを取得し、
前記特定手段は、前記スコアマップを参照することで前記関節の位置に対応するスコアを特定することを特徴とする請求項1に記載の情報処理装置。 - 前記位置情報は、前記関節の位置を関節の種類毎に示し、
前記特定手段は、前記関節の種類に応じて決定された関節のペアを結ぶ2以上の線分のそれぞれのスコアに基づいて同一物体に属する関節のペアを判定することを特徴とする請求項1又は2に記載の情報処理装置。 - 前記学習済みモデルは、注目物体と他の物体との距離に基づいて損失値を出力する損失関数を用いて、前記損失値が小さくなっていくように学習モデルを構成する層間の結合重み付け係数を更新して学習されることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記位置情報は、前記画像において関節の種類毎に前記物体に属する関節の位置と、異なる種類の関節同士の位置関係とを示し、
前記学習済みモデルは、前記位置情報に基づいて、同じ物体に属する関節の位置に対応づけられた前記スコアの分散が小さくなるように学習されることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 - 前記物体に属する関節の位置に基づいて前記画像における前記物体の姿勢を認識する認識手段を更に有することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記取得手段は、前記関節の種類毎に前記画像における位置を示した前記位置情報を取得することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記取得手段は、前記関節として、頭頂部、頸部、腰部、右膝、左膝、右足首部、左足首部のうち少なくともいずれか2つ以上の前記位置情報を取得することを特徴とする請求項7に記載の情報処理装置。
- 前記特定手段は、前記スコアマップと関節の種類毎の前記位置情報に基づいて、同一の物体について、頭頂部、頸部、腰部、右膝、左膝、右足首部、左足首部のうちいずれか2つ以上の関節を含む組合せを特定することを特徴とする請求項7または8に記載の情報処理装置。
- 前記位置情報と前記スコアマップとを出力するように学習した前記学習済みモデルを学習させる学習手段を更に有し、
前記取得手段は、前記学習済みモデルに基づいて、関節毎の前記位置情報を取得することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 - 前記学習手段は、物体に属する複数の関節の位置を示す関節データに基づいて関節の種類毎に関節位置を示すGTマップを生成し、
前記スコアマップに対する損失値を前記GTマップに基づいて算出し、前記損失値が所定の閾値より大きい場合に前記学習済みモデルのパラメータを更新することを特徴とする請求項10に記載の情報処理装置。 - 前記物体は、人物、ロボット、動物のうち、少なくともいずれかであることを特徴とする請求項1乃至11のうちいずれか1項に記載の情報処理装置。
- コンピュータを、請求項1乃至12のいずれか1項に記載の情報処理装置が有する各手段として機能させるためのプログラム。
- 画像から検出される複数の物体のそれぞれの関節の位置を示す位置情報を取得する取得工程と、
前記複数の物体のそれぞれの関節の位置に対して前記複数の物体の個体に応じたスコアを示すスコアマップを出力するように学習された学習済みモデルに前記画像を入力する入力工程と、
前記入力工程により前記学習済みモデルに前記画像が入力されることで得られるスコアであって前記関節の位置に対応するスコアに基づいて、前記位置情報により示される関節同士を結ぶ線がどの物体に属するかを特定する特定工程と、を有することを特徴とする情報処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213738A JP7422456B2 (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法及びプログラム |
US17/095,413 US11836944B2 (en) | 2019-11-26 | 2020-11-11 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213738A JP7422456B2 (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021086322A JP2021086322A (ja) | 2021-06-03 |
JP2021086322A5 JP2021086322A5 (ja) | 2022-10-27 |
JP7422456B2 true JP7422456B2 (ja) | 2024-01-26 |
Family
ID=75974180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019213738A Active JP7422456B2 (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11836944B2 (ja) |
JP (1) | JP7422456B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7490359B2 (ja) * | 2019-12-24 | 2024-05-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2023149600A (ja) | 2022-03-31 | 2023-10-13 | 株式会社アイシン | 物体特徴点検出装置 |
JP7455889B2 (ja) * | 2022-04-08 | 2024-03-26 | 楽天グループ株式会社 | 画像評価装置、画像処理システム、ユーザ端末、画像評価方法、および画像評価プログラム |
WO2023228304A1 (en) * | 2022-05-25 | 2023-11-30 | Nec Corporation | Key-point associating apparatus, key-point associating method, and non-transitory computer-readable storage medium |
CN117314993A (zh) * | 2022-06-21 | 2023-12-29 | 鸿海精密工业股份有限公司 | 深度估计模型训练方法、深度估计方法及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013999A (ja) | 2016-07-21 | 2018-01-25 | 日本電信電話株式会社 | 姿勢推定装置、方法、及びプログラム |
JP2019185420A (ja) | 2018-04-11 | 2019-10-24 | 株式会社アジラ | 行動推定装置 |
-
2019
- 2019-11-26 JP JP2019213738A patent/JP7422456B2/ja active Active
-
2020
- 2020-11-11 US US17/095,413 patent/US11836944B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018013999A (ja) | 2016-07-21 | 2018-01-25 | 日本電信電話株式会社 | 姿勢推定装置、方法、及びプログラム |
JP2019185420A (ja) | 2018-04-11 | 2019-10-24 | 株式会社アジラ | 行動推定装置 |
Non-Patent Citations (1)
Title |
---|
NEWELL, Alejandro、他2名,Associative Embedding: End-to-End Learning for Joint Detection and Grouping,Computer Vision and Pattern Recognition,ARXIV.ORG,2017年06月09日,p.1-11,インターネット:<URL:https://arxiv.org/pdf/1611.05424.pdf> |
Also Published As
Publication number | Publication date |
---|---|
US20210158566A1 (en) | 2021-05-27 |
US11836944B2 (en) | 2023-12-05 |
JP2021086322A (ja) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7422456B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN110222665B (zh) | 一种基于深度学习和姿态估计的监控中人体动作识别方法 | |
US20220358770A1 (en) | Scene reconstruction in three-dimensions from two-dimensional images | |
US10242266B2 (en) | Method and system for detecting actions in videos | |
US9330470B2 (en) | Method and system for modeling subjects from a depth map | |
JP4318465B2 (ja) | 人物検出装置および人物検出方法 | |
Lee et al. | Human pose tracking in monocular sequence using multilevel structured models | |
KR100886557B1 (ko) | 적응형 학습에 기반한 얼굴 인식 시스템 및 방법 | |
US20200074165A1 (en) | Image analysis using neural networks for pose and action identification | |
CN114220176A (zh) | 一种基于深度学习的人体行为的识别方法 | |
US20220254157A1 (en) | Video 2D Multi-Person Pose Estimation Using Multi-Frame Refinement and Optimization | |
Del Rincón et al. | Tracking human position and lower body parts using Kalman and particle filters constrained by human biomechanics | |
CN112989889B (zh) | 一种基于姿态指导的步态识别方法 | |
Li et al. | Robust multiperson detection and tracking for mobile service and social robots | |
CN109255783B (zh) | 一种多人图像上的人体骨骼关键点的位置排布检测方法 | |
Sheu et al. | Improvement of human pose estimation and processing with the intensive feature consistency network | |
Bhargavas et al. | Human identification using gait recognition | |
JP2005351814A (ja) | 検出装置および検出方法 | |
CN110826495A (zh) | 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统 | |
JP7537700B2 (ja) | 学習装置、学習データの作成方法、学習方法、及び学習プログラム | |
CN116259107A (zh) | 一种基于时空信息提取及融合的步态识别方法 | |
Botzheim et al. | Growing neural gas for information extraction in gesture recognition and reproduction of robot partners | |
JP5688514B2 (ja) | 視線計測システム、方法およびプログラム | |
De Beugher et al. | Semi-automatic hand annotation making human-human interaction analysis fast and accurate | |
Min et al. | Extraction and temporal segmentation of multiple motion trajectories in human motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240110 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7422456 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |