JP6324025B2 - 情報処理装置、情報処理方法 - Google Patents
情報処理装置、情報処理方法 Download PDFInfo
- Publication number
- JP6324025B2 JP6324025B2 JP2013229806A JP2013229806A JP6324025B2 JP 6324025 B2 JP6324025 B2 JP 6324025B2 JP 2013229806 A JP2013229806 A JP 2013229806A JP 2013229806 A JP2013229806 A JP 2013229806A JP 6324025 B2 JP6324025 B2 JP 6324025B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- orientation
- model
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
やブラー、特徴検出アルゴリズムの精度、カメラ間の対応等に起因する誤差が存在する。
本実施形態における位置姿勢推定の処理について詳細を述べる。なお、本実施形態で述べる「位置姿勢」とは、対象物体と当該部品を撮影するカメラとの相対的な位置姿勢の関係のことを意味する。
R. Y. Tsai, “A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987
まず、ステップS1100において、撮像装置2030に対する対象物体の位置及び姿勢の概略値を、概略位置姿勢入力部140を介して情報処理装置1に入力する。本実施形態では、前述したように、前の時刻において計測された位置及び姿勢を、物体の概略位置姿勢として用いる。概略位置姿勢の入力が終了したら、ステップS1100の処理を終了し、ステップS1200に進む。
次に、ステップS1200において、対象物体の濃淡画像を取得する。2次元画像撮像装置20から濃淡画像を取得し、画像入力部120を介して情報処理装置1に入力する。濃淡画像の取得が終了したら、ステップS1200の処理を終了し、ステップS1300に進む。
次に、ステップS1300において、対象物体の距離データを取得する。距離画像撮像装置30からの距離画像の取得を行い、距離データ入力部130を介して情報処理装置1に入力する。本実施形態では、距離画像は撮像装置から対象物体の表面までの距離が格納されているものとする。前述のように、2次元画像撮像装置20と距離画像撮像装置30の光軸は一致しているため、濃淡画像の各画素と距離画像の各画素の対応は既知である。距離画像の取得した後、距離画像から3次元点群を算出する。距離画像からの三次元点群の算出は、距離画像の各画素について、画素位置に対応する視線ベクトルに奥行き値を乗算することにより行う。距離画像の取得および3次元点群の算出が終了したら、ステップS1300の処理を終了し、ステップS1400に進む。
次に、ステップS1400では、ステップS1200において取得した濃淡画像から画像特徴の検出を行う。本実施形態では、画像特徴としてエッジを検出する。エッジは濃度勾配の極値となる点である。本実施形態ではエッジ検出方法として、以下の文献で開示されるCannyエッジアルゴリズムを用いる。
Canny, J., “A Computational Approach To Edge Detection,” IEEE Trans. Pattern Analysis and Machine Intelligence, 8(6):679−698, 1986.
次に、ステップS1500では、ステップS1400において濃淡画像から抽出された画像エッジ、および、S1300において入力された距離点群と3次元形状モデル10との対応を算出し、対応間の3次元空間におけるずれ量を算出する。
まず、ステップS1510では、ステップS1100において入力された、対象物体の概略位置姿勢に基づいて、ステップS1400において抽出された濃淡画像中の画像エッジと、3次元形状モデル10との対応付けを行う。それぞれの物体の概略位置姿勢と校正済みの2次元画像撮像装置30の内部パラメータを用いて3次元形状モデルを構成する局所線特徴を画像へ投影し、投影像近傍の領域を探索して検出されたエッジと局所線特徴とを対応付けする。局所線特徴の投影像近傍で複数のエッジが検出された場合には、複数検出されたエッジのうち、投影された局所線特徴に対して画像上で最も近いエッジを対応付ける。
次に、ステップS1520では、ステップS1100において入力された、対象物体の概略位置姿勢に基づいて、ステップS1300において取得した距離画像および3次元点群と3次元形状モデル10との対応付けを行う。概略位置姿勢と校正済みの距離画像撮像装置30の内部パラメータを用いて、3次元形状モデルを構成する各局所面特徴を距離画像上に投影する。そして、各局所面特徴の投影位置で参照される距離値に基づく距離点を各局所面特徴に対応する3次元点として保持する。
次に、ステップS1530では、ステップS1510で算出した局所線特徴と画像エッジの対応間の残差とそのヤコビアンを算出する。前述した通り、本実施形態では、撮像装置2030の視点位置(カメラ中心)から画像エッジを通る3次元平面を算出し、該3次元平面と、局所線特徴の位置と間の符号付き距離を、画像エッジと局所線特徴との3次元空間中における残差として算出する。図5(a)は、画像エッジを通る3次元平面と局所線特徴との残差計量を説明する図である。
erredge=−nimg・(qimg−pe) (式3)
次に、局所線特徴と画像エッジの3次元空間中における残差に関するヤコビアンを算出する。ここで、残差のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、局所線特徴と画像エッジとの間の残差が変化する割合を表す値である。また、対象物体の位置及び姿勢sは6次元ベクトルであり、対象物体の位置を表す3つの要素(s1,s2,s3)と、姿勢を表す3つの要素(s4,s5,s6)からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。この位置及び姿勢sの各パラメータで、対応間残差erredgeを偏微分することによって、以下のヤコビアン行列を算出する。
次に、ステップS1540では、ステップS1520で算出した局所面特徴と距離点との対応間の残差とそのヤコビアンを算出する。図5(b)は、局所面特徴と対応点(距離画像中の3次元点)との残差の計算を説明する図である。対象物体の概略位置姿勢sに基づいて算出した、撮像装置2030から見た局所面特徴の位置をpr、面の法線方向をnrとし、所面特徴点に対応する距離点の3次元座標をqrとすると、局所面特徴と距離点との間の残差は、以下の式より算出できる。
errrange=−nr・(qr−pr) (式5)
そして、局所線特徴のヤコビアンと同様に、仮想カメラの位置及び姿勢sの各パラメータで、対応間距離errrangeを偏微分することによって、局所面特徴と距離点間の残差のヤコビアン行列は以下のように算出できる。
次に、ステップS1600では、ステップS1500において算出した残差を最小化するように対象物体の位置及び姿勢を算出(位置姿勢導出)する。上述したように、画像エッジと局所線特徴間の残差と、距離点と局所面特徴の残差は、3次元空間中の残差として共通の尺度で計量されているため、各対応間の残差を最小になるように線形連立方程式を解くことで、尺度が統一化して併用した位置姿勢の推定が可能である。
JΔs=E (式8)
次式に示すように一般化逆行列を用いて式12を解くことにより補正値Δsを求める。
Δs=(JTJ)−1JTE (式9)
これにより得られたΔsを用いて、位置及び姿勢を更新する。
次に、ステップS1700では、ステップS1600で更新した位置姿勢が、収束しているか否か、すなわち、さらに反復計算を必要とするか否かの判定を行う。具体的には、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後の差がほぼ0である場合に収束したと判定する。収束していなければ、ステップS1500に戻り、更新した位置姿勢を用いて、再度3次元ずれ算出処理および位置姿勢算出処理を行う。収束していると判断した場合は、この処理は終了する。
第1の実施形態では、画像特徴とモデル特徴との残差計量方法として、2次元画像から得られる画像特徴の方向と位置および視点位置により定義される3次元平面と、モデル特徴との距離を計量する方法について説明した。しかし、画像特徴とモデル特徴との残差を、3次元空間中の距離として統一的に計量する方法は、上述の方式に限るものではない。
qe=(qimgpez) (式10)
そして、得られた画像エッジの3次元位置qeに基づき、局所線特徴と画像エッジとの対応間の3次元空間内における残差erredgeを算出する、対応間残差erredgeは、画像エッジの3次元位置qeと、局所線特徴の方向deに沿って局所線特徴の位置peと視点位置を通る3次元平面との、符号付き距離として算出する。該3次元平面の法線方向をne=de×peとすると、局所線特徴と画像エッジとの間の3次元空間内における残差erredgeは以下の式より算出できる。
erredge=−ne・(qe−pe) (式11)
こうして得られた生成した局所線特徴と画像エッジとの間の3次元空間内における残差erredgeに基づき、ステップS1530の以降の処理を第1の実施形態と同様に実行する
また、画像特徴とモデル特徴との残差計量方法は、以上に示す方法に限るものではなく、画像特徴とモデル特徴との間の、3次元空間中における残差を計量できる限り、残差計量方法に特に制限はなく、いかなる方法を用いても特に問題はない。
第1の実施形態および第1の変形例では、画像特徴の位置と方向、または、モデル特徴の位置と方向から定義される3次元平面に基づいて、画像特徴とモデル特徴との残差計量を行う方法について説明した。
n=de×vimg (式13)
以上で求めた最短距離方向nと、局所線特徴の3次元位置をpeおよび画像エッジの視線ベクトルvimgより、画像エッジと局所線特徴の3次元空間中の残差erredgeを以下の式により算出する。
erredge=−n・(vimg−pe) (式14)
こうして得られた生成した局所線特徴と画像エッジとの間の3次元空間内における残差erredgeに基づき、ステップS1530の以降の処理を第1の実施形態と同様に実行する
以上、画視点から画像特徴の位置へ伸ばした視線ベクトルと、モデル特徴の位置と方向から定義される3次元直線との最短距離に基づいて、画像特徴とモデル特徴との距離を算出する方法について説明した。
以上説明した実施形態・変形例では、二次元画像上の特徴としてエッジを用いていた。しかしながら、二次元画像上の特徴はエッジに限るものではなく、その他の特徴であってもよい。例えば、対象物体の三次元形状モデルを三次元点群データによって表し、画像特徴として特徴点を検出して、特徴点と三次元の点の対応に基づいて位置姿勢を算出してもよい。また、一つの種類の特徴のみ用いるのではなく、複数種の特徴(特徴点とエッジ)を位置姿勢の算出に利用してもよい。
本発明による情報処理装置1の好適な適用事例としては、以下のような形態も考えられる。すなわち、2次元画像撮像装置20および距離画像撮像装置30により得られる2次元画像と距離画像を基に対象物体40の位置姿勢を推定し、産業用ロボットアーム60によりその把持・組み付け・分解などの操作を行う利用例があげられる。以下、図8を用いて本発明の一実施例である情報処理装置1の適用例を説明する。図8では、情報処理装置1とロボット60を用いて対象物体40を把持するロボットシステムの構成例を示す。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
第1の実施形態では、2次元画像とモデルとの距離として、2次元画像から得られる画像特徴を3次元空間中に逆投影することで得られる3次元平面とモデル特徴の3次元位置との間の距離を算出することで、3次元空間中の距離として統一的に計量して2次元画像と距離データを併用した位置姿勢推定を行う方法について述べた。従来手法のような概略位置姿勢の奥行き値に基づく残差尺度の変換処理を行わないため、高精度な位置姿勢推定を行うことが可能になる。また、画像エッジの残差の尺度変換処理自体必要なくなるため、従来の濃淡画像と距離データを併用した位置姿勢推定手法よりも高速な位置姿勢推定が可能となる。
Claims (9)
- 対象物体の形状を表すモデルを保持する保持手段と、
撮像装置により撮像された前記対象物体の2次元画像と前記対象物体の表面上の3次元点群の情報とを取得する取得手段と、
前記対象物体の概略の位置姿勢を取得する概略位置姿勢取得手段と、
前記取得した2次元画像から画像エッジの位置と方向を検出する検出手段と、
前記概略の位置姿勢に基づいて、前記検出された画像エッジと前記モデルを構成する局所線特徴とを対応付け、前記3次元点群の距離点と前記モデルを構成する局所面特徴とを対応づける対応付け手段と、
前記撮像装置の視点位置及び該視点位置から見た前記画像エッジの位置を通り、該画像エッジの方向と平行な3次元平面と、3次元空間で前記概略位置姿勢に配置した前記モデルにおいて前記画像エッジと対応付けられた局所線特徴の3次元位置との距離に基づいて、当該画像エッジと対応付けられた局所線特徴との3次元空間における残差を第1の残差として取得する第1の取得手段と、
前記対応づけられた距離点の3次元位置と3次元空間で前記概略位置姿勢に配置した前記モデルの局所面特徴との3次元空間における残差を第2の残差として取得する第2の取得手段と、
3次元空間における前記第1の残差及び第2の残差に基づいて、前記対象物体の位置姿勢を導出する位置姿勢導出手段とを備えることを特徴とする情報処理装置。 - 前記対応付け手段は、前記概略位置姿勢に基づいて、前記2次元画像上に前記モデルを投影し、該投影されたモデルの局所線特徴に対応する画像エッジを探索することによって、前記投影されたモデルの局所線特徴と該モデルに対応する画像エッジとを対応づけることを特徴とする請求項1に記載の情報処理装置。
- 前記3次元点群の情報は、前記対象物体を撮影した距離画像から取得することを特徴とする請求項1または2に記載の情報処理装置。
- 前記対応付け手段は、前記概略位置姿勢に基づいて、前記距離画像上に前記モデルを投影し、該投影されたモデルの局所面特徴に対応する距離点を探索することによって、前記投影されたモデルの局所面特徴と該モデルに対応する距離点とを対応づけることを特徴とする請求項3に記載の情報処理装置。
- 前記位置姿勢導出手段は、前記取得した第1の残差と第2の残差とが小さくなるように、前記概略位置姿勢を更新することによって、前記対象物体の位置姿勢を導出することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記モデルはCADモデルであることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 前記概略位置姿勢は、前記2次元画像または前記3次元点群の情報に対して、パターンマッチングを行うことにより取得されることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記位置姿勢導出手段による前記対象物体の位置姿勢の推定結果に基づいて、前記対象物体を操作する操作手段をさらに備えることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- コンピュータを、請求項1乃至8のいずれか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013229806A JP6324025B2 (ja) | 2013-11-05 | 2013-11-05 | 情報処理装置、情報処理方法 |
US14/531,780 US9639942B2 (en) | 2013-11-05 | 2014-11-03 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013229806A JP6324025B2 (ja) | 2013-11-05 | 2013-11-05 | 情報処理装置、情報処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015090298A JP2015090298A (ja) | 2015-05-11 |
JP2015090298A5 JP2015090298A5 (ja) | 2016-12-22 |
JP6324025B2 true JP6324025B2 (ja) | 2018-05-16 |
Family
ID=53007080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013229806A Active JP6324025B2 (ja) | 2013-11-05 | 2013-11-05 | 情報処理装置、情報処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9639942B2 (ja) |
JP (1) | JP6324025B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6440937B2 (ja) * | 2013-12-24 | 2018-12-19 | 株式会社東芝 | 情報対応付け装置、その方法及びそのプログラム |
JP6317618B2 (ja) * | 2014-05-01 | 2018-04-25 | キヤノン株式会社 | 情報処理装置およびその方法、計測装置、並びに、作業装置 |
JP6677522B2 (ja) * | 2016-02-15 | 2020-04-08 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP6717113B2 (ja) * | 2016-08-22 | 2020-07-01 | 株式会社Ihi | 観察装置および観察方法 |
CN109791696B (zh) * | 2016-08-24 | 2024-04-30 | 苏黎世大学 | 用于场景的3d重建的方法、设备和定位事件摄像机的方法 |
US10290119B2 (en) * | 2016-09-15 | 2019-05-14 | Sportsmedia Technology Corporation | Multi view camera registration |
JP2018084954A (ja) * | 2016-11-24 | 2018-05-31 | セイコーエプソン株式会社 | プログラム、姿勢導出方法、姿勢導出装置 |
JP7320352B2 (ja) * | 2016-12-28 | 2023-08-03 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元モデル送信方法、三次元モデル受信方法、三次元モデル送信装置及び三次元モデル受信装置 |
JP6922605B2 (ja) * | 2017-09-26 | 2021-08-18 | 富士フイルムビジネスイノベーション株式会社 | 3次元物体検出装置、ロボット、及びプログラム |
CN108846864A (zh) * | 2018-05-29 | 2018-11-20 | 珠海全志科技股份有限公司 | 一种运动物体的位置捕捉系统、方法及装置 |
US11389965B2 (en) | 2019-07-26 | 2022-07-19 | Mujin, Inc. | Post-detection refinement based on edges and multi-dimensional corners |
JP7306366B2 (ja) * | 2020-11-16 | 2023-07-11 | 横河電機株式会社 | 機器登録端末、機器登録方法、および、機器登録プログラム |
CN112683169A (zh) * | 2020-12-17 | 2021-04-20 | 深圳依时货拉拉科技有限公司 | 物体尺寸测量方法、装置、设备及存储介质 |
JP7549221B2 (ja) | 2021-02-26 | 2024-09-11 | 株式会社デンソーウェーブ | 認識システム |
CN113191374B (zh) * | 2021-05-19 | 2023-04-18 | 甘肃省地震局(中国地震局兰州地震研究所) | 基于金字塔注意力网络的PolSAR图像山脊线提取方法 |
CN116168214B (zh) * | 2023-04-25 | 2023-07-18 | 浙江一山智慧医疗研究有限公司 | 医疗图像纹理特征提取方法、装置及应用 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006138525A2 (en) * | 2005-06-16 | 2006-12-28 | Strider Labs | System and method for recognition in 2d images using 3d class models |
GB2452508A (en) * | 2007-09-05 | 2009-03-11 | Sony Corp | Generating a three-dimensional representation of a sports game |
US8107721B2 (en) * | 2008-05-29 | 2012-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of semi-specular objects |
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP5618569B2 (ja) * | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | 位置姿勢推定装置及びその方法 |
JP5612916B2 (ja) * | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
JP5839971B2 (ja) * | 2010-12-14 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US8457355B2 (en) * | 2011-05-05 | 2013-06-04 | International Business Machines Corporation | Incorporating video meta-data in 3D models |
JP5383836B2 (ja) * | 2012-02-03 | 2014-01-08 | ファナック株式会社 | 検索ウィンドウを自動的に調整する機能を備えた画像処理装置 |
JP6004809B2 (ja) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
-
2013
- 2013-11-05 JP JP2013229806A patent/JP6324025B2/ja active Active
-
2014
- 2014-11-03 US US14/531,780 patent/US9639942B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20150125034A1 (en) | 2015-05-07 |
JP2015090298A (ja) | 2015-05-11 |
US9639942B2 (en) | 2017-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP5839971B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6370038B2 (ja) | 位置姿勢計測装置及び方法 | |
JP5567908B2 (ja) | 3次元計測装置、その計測方法及びプログラム | |
JP5393318B2 (ja) | 位置姿勢計測方法及び装置 | |
JP5624394B2 (ja) | 位置姿勢計測装置、その計測処理方法及びプログラム | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP6444027B2 (ja) | 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム | |
JP6092530B2 (ja) | 画像処理装置、画像処理方法 | |
US20130230235A1 (en) | Information processing apparatus and information processing method | |
JP6677522B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6317618B2 (ja) | 情報処理装置およびその方法、計測装置、並びに、作業装置 | |
JP6626338B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP6180158B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP2015132523A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びプログラム | |
JP2015135333A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6285765B2 (ja) | 情報処理装置、情報処理方法 | |
JP6766229B2 (ja) | 位置姿勢計測装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180410 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6324025 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |