[go: up one dir, main page]

JP5612916B2 - 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム - Google Patents

位置姿勢計測装置、その処理方法、プログラム、ロボットシステム Download PDF

Info

Publication number
JP5612916B2
JP5612916B2 JP2010139948A JP2010139948A JP5612916B2 JP 5612916 B2 JP5612916 B2 JP 5612916B2 JP 2010139948 A JP2010139948 A JP 2010139948A JP 2010139948 A JP2010139948 A JP 2010139948A JP 5612916 B2 JP5612916 B2 JP 5612916B2
Authority
JP
Japan
Prior art keywords
image
feature
orientation
geometric feature
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010139948A
Other languages
English (en)
Other versions
JP2012002761A (ja
JP2012002761A5 (ja
Inventor
圭祐 立野
圭祐 立野
藤木 真和
真和 藤木
内山 晋二
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010139948A priority Critical patent/JP5612916B2/ja
Priority to US13/702,365 priority patent/US9111177B2/en
Priority to PCT/JP2011/063752 priority patent/WO2011158885A1/en
Publication of JP2012002761A publication Critical patent/JP2012002761A/ja
Publication of JP2012002761A5 publication Critical patent/JP2012002761A5/ja
Application granted granted Critical
Publication of JP5612916B2 publication Critical patent/JP5612916B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、位置姿勢計測装置、その処理方法プログラム、ロボットシステムに関する。
近年、これまで人間が行なっていた複雑なタスクをロボットが代わりに行なうようになりつつある。複雑なタスクの代表例として、工業製品の組み立てが挙げられる。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組み立てを行なう。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。
一般に、このような位置及び姿勢の計測方法としては、カメラが撮像する2次元画像上から検出される画像特徴や距離センサから得られる距離画像に対して、物体の3次元形状モデルをモデルフィッティングさせる(当てはめる)技術が知られている。
非特許文献1には、2次元画像上から検出される画像特徴としてエッジを利用する技術が開示されている。この技術では、物体の形状を3次元線分の集合によって表し、物体の概略の位置及び姿勢の情報を既知として、当該2次元画像上で検出されるエッジに3次元線分の投影像をモデルフィッティングさせる。テクスチャのない直線を基調とした人工的な物体が多い環境下等で物体の位置及び姿勢を計測する場合、エッジを利用した計測が適している。
ここで、2次元画像から検出される画像特徴に基づいて、物体の位置及び姿勢の計測を正確に行なうためには、検出される画像特徴と3次元形状モデルにおける幾何特徴とが正確に対応付けられる必要がある。
上述した非特許文献1では、3次元線分を2次元画像上に投影した位置の近傍で検出されたエッジと3次元線分とを対応付けている。すなわち、この方法では、3次元線分の投影像の最近傍に検出されたエッジが正しく対応するエッジとみなしている。そのため、最近傍に検出されたエッジが、本来対応するはずのないエッジであれば、物体の位置及び姿勢を正確に計測できないか、また、計測の精度が低下するかしてしまう。特に、物体の概略の位置及び姿勢が不正確な場合や、また、2次元画像が複雑で対応候補となるエッジが多量に検出される場合には、3次元形状モデルの線分とエッジとの対応付けに誤対応が発生してしまう。
このような問題を解決するため、非特許文献2では、エッジ周辺の輝度値を利用することで3次元形状モデルの線分と濃淡画像中のエッジとの対応付けの精度を向上させる手法が開示されている。具体的には、学習画像を用いて、3次元形状モデル中の線分が画像上でどのような輝度分布として検出されるかを予め学習させておく。そして、濃淡画像中から実際に検出されたエッジ周辺の輝度分布との類似度を算出し、その結果に基づいてエッジの対応付けを行なう。この技術は、対象物体の表面情報として、ユニークに識別できるような輝度分布が含まれているような場合に有用である。
T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002. H. Wuest. F. Vial, and D. Stricker, "Adaptive line tracking with multiple hypotheses for augmented reality," Proc. The Fourth Int'l Symp. on Mixed and Augmented Reality (ISMAR05), pp.62-69, 2005. L. Vacchetti, V. Lepetit, and P. Fua, "Combining edge and texture information for real-time accurate 3D camera tracking, " Proc. 3rd IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR ‘04) , pp.48-57, 2004. R. Y. Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses", IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987.
上述した通り、濃淡画像上の輝度を利用してエッジを対応付ける手法では、対象物体にユニークに識別可能な表面色情報がある場合など、見かけ上の輝度の分布に再現性が高い場合には有効に働く。
しかし、濃淡画像上の輝度は、物体の表面情報、光源状態、物体を観察する視点位置によって多様に変化するため、対象物体の表面色や環境状況によっては、3次元形状モデル中の幾何特徴と画像特徴とに誤対応が生じる可能性が高くなる。
本発明は、上記課題に鑑みてなされたものであり、2次元画像上における画像特徴の方向を用いて、当該画像特徴と3次元形状モデルを構成する幾何特徴と対応付け、その対応付け結果に基づいて物体の位置及び姿勢の計測を行なうようにした技術を提供する。
上記課題を解決するため、本発明の一態様による位置姿勢計測装置は、物体の幾何特徴を表す3次元形状モデルを保持するモデル保持手段と、
前記物体の位置及び姿勢の概略値を取得する概略値取得手段と、
撮像装置により撮像された前記物体の2次元画像を取得する画像取得手段と、
前記概略値に基づいて前記3次元形状モデルにおける幾何特徴を前記2次元画像上に投影し、当該2次元画像上に投影された3次元形状モデルの幾何特徴の方向を取得する投影手段と、
前記2次元画像から画像特徴と、当該画像特徴の方向と、を検出する検出手段と、
幾何特徴毎に当該幾何特徴に対する各画像特徴の方向の差を算出し当該算出により得られたそれぞれの幾何特徴における画像特徴の方向の差に基づいて基準値を導出する導出手段と、
各幾何特徴に対応して検出された複数の画像特徴の中から、前記基準値から所定範囲内の方向の差を示すいずれかの画像特徴を選択する選択手段と、
各幾何特徴に対して前記選択手段により選択された画像特徴を対応付ける対応付け手段と、
前記対応付け手段により対応付けられた前記画像特徴と前記幾何特徴とに基づいて、前記物体の位置及び姿勢を算出する位置姿勢算出手段と
を具備することを特徴とする。
本発明によれば、3次元形状モデルを構成する幾何特徴と2次元画像上から検出した画像特徴とを従来よりも正確に対応付けられる。
本発明の一実施の形態に係わる位置姿勢計測装置1の構成の一例を示す図。 3次元形状モデルの定義の一例を示す図。 物体の位置及び姿勢を計測する際の全体的な処理の流れの一例を示すフローチャート。 2次元画像からエッジを検出する際の処理の流れの一例を示すフローチャート。 エッジ検出の概要を示す図。 対応付け処理の概要を示す図。
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係わる位置姿勢計測装置1の構成の一例を示す図である。なお、本実施形態においては、計測対象となる物体(以下、計測対象物体、又は単に物体と呼ぶ場合もある)の概略の位置及び姿勢が既知であると仮定する。そして、その概略値に基づいて3次元形状モデルデータ(以下、単に、3次元形状モデルと呼ぶ)と2次元画像(濃淡画像)とを対応させることにより物体の位置及び姿勢の計測(推定)を行なう。
ここで、計測対象とする物体がほぼ剛体であるとみなすと、対象物体が一体として変位及び回転していたとしても、物体面上の各所の相互関係は変化しない。物体の概略の位置及び姿勢が、実際の物体の位置及び姿勢とある程度近い場合は、面と面の境界といった物体面上の3次元線分の2次元投影像の方向に関しても、この相互関係は概ね維持される傾向となる。
そこで、本実施形態においては、この特性に着目し、3次元形状モデルの3次元線分を投影した投影像の方向と、2次元画像上のエッジの方向との差を算出して、その差が全体の最頻値に近いエッジを対応するエッジとして判定する。これにより、物体の位置及び姿勢の計測を行なう。
ここで、位置姿勢計測装置1には、撮像装置30が接続されている。なお、撮像装置30は、位置姿勢計測装置1内に内蔵されていても構わない。
撮像装置30は、例えば、カメラであり、2次元画像を撮像する。本実施形態においては、撮像装置30により撮像される2次元画像が、計測対象となる物体の輝度を表現する濃淡画像である場合を例に挙げて説明するが、これに限られず、例えば、カラー画像が撮像されても良い。
撮像装置30により撮像された2次元画像は、2次元画像取得部22を介して位置姿勢計測装置1内に入力される。なお、カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータ(2次元画像撮像時のパラメータ)は、例えば、非特許文献4に記載される方法によって予めキャリブレーションしておく。
位置姿勢計測装置1は、モデル保持部21に保持された計測対象となる物体の形状を表す3次元形状モデルに基づいて、2次元画像内に含まれる物体の位置及び姿勢の計測を行なう。なお、本実施形態においては、位置姿勢計測装置1(モデル保持部21)に保持された3次元形状モデルが、現実に撮像される物体の形状に即していることを前提とする。
ここで、位置姿勢計測装置1は、その機能的な構成として、モデル保持部21と、2次元画像取得部22と、概略値取得部23と、モデル投影部24と、画像特徴検出部25と、対応付け部26と、位置姿勢算出部27とを具備して構成される。
モデル保持部21は、計測対象となる物体の3次元形状モデルを保持する。3次元形状モデルは、例えば、物体の幾何特徴(形状)を複数の線分(エッジ)を用いて定義する。
より具体的には、3次元形状モデルは、点の集合及び各点を結んで構成される線分の集合によって定義される。物体の3次元形状モデル10は、図2(a)に示すように、点P1〜点P14の14点から構成される。点P1〜点P14は、図2(c)に示すように、3次元座標値により表される。なお、3次元形状モデル10に規定される基準座標系の原点をP12とする。そして、点P12から点P13に向かう方向をx軸とし、点P12から点P8に向かう方向をy軸とし、点P12から点P11に向かう方向をz軸とする。なお、y軸は、鉛直上方向(重力軸の反対方向)に一致する。
3次元形状モデル10は、図2(b)に示すように、線分L1〜L16により構成されている。線分L1〜L16は、図2(d)に示すように、線分を構成する点のID(識別子)によって表される。なお、ここでは図示を省略するが、3次元形状モデル10は、面の情報も保持する。この場合、各面は、各面を構成する頂点のIDにより表される。
概略値取得部23は、位置姿勢計測装置1に対する物体の位置及び姿勢の概略値を取得する。本実施形態において、位置姿勢計測装置1に対する物体の位置及び姿勢とは、撮像装置30(カメラ座標系)を基準とした物体の位置及び姿勢を示すが、必ずしも、撮像装置30を基準にする必要はない。例えば、撮像装置30の座標系に対する物体の相対的な位置及び姿勢が既知であり、且つその位置及び姿勢が変化しないのであれば、位置姿勢計測装置1におけるその他の部分を基準としても良い。また、本実施形態においては、物体の位置及び姿勢の概略値として、位置姿勢計測装置1が当該物体から過去(例えば、直前)に計測した計測値を用いる。但し、物体の位置及び姿勢の概略値は、必ずしも、このような値である必要はない。例えば、過去に計測した物体の位置及び姿勢の計測値に対して時系列フィルタリング処理(例えば、線形フィルタ、カルマンフィルタ)を実施し、物体の運動速度や角速度を推定する。そして、その推定結果に基づいて物体の位置及び姿勢を予測した値を概略値としても良い。また、外部のセンサから得られる物体の位置及び姿勢を概略値としても良い。ここで、センサは、物体の位置及び姿勢を6自由度で計測できれば良く、その方式(例えば、磁気式、光学式、超音波式)は、特に問わない。なお、物体の置かれているおおよその位置や姿勢が予め分かっているのであれば、その値を概略値として用いても良い。
モデル投影部24は、撮像装置30の内部パラメータや概略値取得部23により取得された概略値を用いて、モデル保持部21に保持された3次元形状モデルを2次元画像上(濃淡画像上)に投影する。そして、この投影の結果として、3次元形状モデルを構成する線分の2次元座標及び2次元方向を算出する。なお、3次元形状モデルの投影方法については後述する。
画像特徴検出部25は、2次元画像取得部22により取得された2次元画像から画像特徴としてエッジを検出する。そして、そのエッジの方向として輝度勾配の方向の法線を算出する。エッジ検出方法については後述する。
対応付け部26は、画像特徴検出部25により検出された各画像特徴(各エッジ)と、3次元形状モデルの各幾何特徴(3次元形状モデルを構成する各線分)とを対応付ける。この対応付け処理では、モデル投影部24により算出された3次元形状モデルの線分の2次元方向と、2次元画像上のエッジの方向とにおける差に基づいて、2次元画像上のエッジに対して3次元形状モデルの線分を対応付ける。なお、対応付け処理の詳細については後述する。
位置姿勢算出部27は、対応付け部26により対応付けられた3次元形状モデルの線分と2次元画像上のエッジとの対応関係(組)を用いて、物体の位置及び姿勢を算出する。なお、物体の位置及び姿勢の算出処理の詳細については後述する。
以上が、位置姿勢計測装置1の構成の一例についての説明である。なお、上記説明した、位置姿勢計測装置1には、コンピュータが内蔵されている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備されていてもよい。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
次に、図3を用いて、図1に示す位置姿勢計測装置1により計測対象物体の位置及び姿勢を計測する際の処理の流れの一例について説明する。
[S101]
位置姿勢計測装置1は、まず、初期化処理を行なう。この初期化処理では、例えば、概略値取得部23において、位置姿勢計測装置1に対する物体の位置及び姿勢の概略値を取得する。本実施形態においては、上述した通り、物体の位置及び姿勢の概略値として、位置姿勢計測装置1が当該物体から過去(例えば、直前)に計測した計測値を用いる。また、初期化処理においては、撮像装置30の内部パラメータ等の取得も行なわれる。
[S102]
位置姿勢計測装置1は、2次元画像取得部22において、撮像装置30を介して物体の2次元画像(濃淡画像)を取得する。
[S103]
位置姿勢計測装置1は、画像特徴検出部25において、S102の処理で取得した2次元画像上から物体の画像特徴としてエッジを検出する。エッジは、濃度勾配の極値となる点である。本実施形態においては、非特許文献3に開示される方法を用いてエッジの検出を行なう。
ここで、S103におけるエッジ検出について説明する。図4には、2次元画像(濃淡画像)からエッジを検出する際の処理の流れの一例が示される。
[S201]
位置姿勢計測装置1は、まず、モデル投影部24において、S101の処理で取得した概略値と、撮像装置30の内部パラメータとを用いて、3次元形状モデルを2次元画像上へ投影する。なお、3次元形状モデルの投影は計算により行なわれる。そのため、この投影により、3次元形状モデルを構成する線分各々(幾何特徴各々)の2次元画像上における座標と方向が計算される。3次元形状モデル(線分)の投影像は、2次元画像上でも線分となる。
[S202]
続いて、位置姿勢計測装置1は、モデル投影部24において、S201の処理で算出された投影像上(投影線分上)に制御点を設定する。制御点は、投影線分を等間隔に分割するように設定される。以降、この制御点をEdgeletと呼称する。
位置姿勢計測装置1は、Edgelet毎(制御点毎)に、3次元形状モデルを構成する線分の3次元座標及び3次元方向と、投影結果として得られる2次元座標及び2次元方向とを保持する。なお、Edgeletの数は、物体の形状等に合わせて適宜変更する。また、Edgeletの数が増える程、処理時間が長くなるため、Edgeletの総数が一定になるように、Edgelet間の間隔を適宜変更しても良い。
[S203]
Edgelet(制御点)の設定が済むと、位置姿勢計測装置1は、画像特徴検出部25において、S202の処理で設定したEdgelet各々(制御点各々)に対応する2次元画像上のエッジを検出する。図5を用いて、本実施形態に係わるエッジ検出の概要について説明する。
エッジの検出は、図5(a)に示すように、投影像(投影線分)の法線方向に平行で且つEdgeletを通過する線分(以下、探索ライン)上からエッジを1次元探索することにより行なう。ここで、画像特徴検出部25は、図5(b)に示すように、探索ライン上における2次元画像上の濃度勾配から極値を算出する(この場合、複数の極値(エッジ)が存在する)。すなわち、エッジは、探索ライン上において濃度勾配が極値をとる位置に存在する。そして、探索ライン上で検出された全てのエッジの2次元座標を、各Edgeletの対応候補のエッジ(対応候補エッジ)の位置として保持する。このような処理により、3次元形状モデルの幾何特徴毎(より具体的には、Edgelet毎)に、対応候補となるエッジが2次元画像上から検出される。
対応候補エッジの検出が済むと、位置姿勢計測装置1は、画像特徴検出部25において、S203の処理で検出された各対応候補エッジの方向を算出する。エッジの方向は、対応候補エッジ周辺の画素に対してエッジ検出フィルタを用いてフィルタリング処理し、それにより得られた画素の勾配方向に基づいて求めれば良い。本実施形態においては、対応候補エッジから所定範囲内の画素(例えば、9画素)に対して、水平方向のsobelフィルタと垂直方向のsobelフィルタとをかけ、その応答を正規化する。これにより、画素の勾配方向を算出する。そして、勾配方向の法線方向を求め、それをエッジの方向として取得する。
なお、画素の勾配方向の算出には、必ずしも、sobelフィルタを用いた手法を採用する必要はない。すなわち、注目したエッジの勾配方向を算出できれば良く、その手法については特に問わない。例えば、prewittフィルタなどの別のエッジ検出フィルタを用いても良い。また、cannyアルゴリズムにより画像全体からエッジを検出し、それにより、勾配方向を算出しても良い。
[S204]
以上の処理をEdgelet全てに対して実施し、それにより、全てのEdgeletにおける全ての対応候補エッジの位置及び方向を算出する。
[S104]
図3の説明に戻り、位置姿勢計測装置1は、対応付け26において、3次元形状モデルを構成する線分における各Edgeletに対して、対応候補エッジのいずれかをそれぞれ対応付ける。
ここで、図6を用いて、対応付け部26による対応付け処理について説明する。
対応付け部26は、まず、全てのEdgeletにおいて、その各々の対応候補エッジと3次元形状モデルの線分との方向の差を算出する(図6(a))。そして、その方向の差に基づいて、ヒストグラムを作成する(図6(b))。
このヒストグラムにおけるピークは、全てのEdgeletにおける各対応候補エッジと3次元形状モデルの線分との方向の差の最頻値を示している。このとき、ヒストグラムの横軸(bin)の大きさが調整パラメータとなる。binの単位が細かいほど、エッジの方向の分解能が高くなる。その一方で、エッジの方向は、このbinを単位としたノイズの影響により変動するため、binの単位が細かすぎると、ノイズの影響を受け易くなる。そこで、本実施形態においては、ヒストグラムのbinの単位は、1[degree(角度)]とする。
次に、対応付け部26は、各Edgelet毎に、3次元形状モデルを構成する線分と各対応候補エッジとにおける方向を比較し、その差が、最頻値から所定範囲内にあるか否かをチェックする。そして、両方向の差が、最頻値から所定範囲内にある対応候補エッジを対応エッジとして残し、それ以外の対応候補エッジを誤対応するエッジとみなして除外する。このとき、複数の対応候補エッジが残った場合には、その残った対応候補エッジの中からEdgeletから最も近傍に検出された対応候補エッジを対応するエッジとして選択する。
ここで、最頻値から所定範囲内にあるか否かをチェックする際に用いる閾値が調整パラメータとなる。このパラメータは、エッジ方向の検出誤差がどの程度発生するかによって調整することが望ましい。本実施形態においては、エッジ方向の検出誤差が5[degree]ほど発生するとみなし、閾値を5[degree]に設定する。このような処理を、全Edgeletの全対応候補エッジに対して繰り返し実施し、全てのEdgeletに対して対応エッジを判定する。全てのEdgeletに対して対応エッジの判定が済むと、S104の処理を終了し、S105の処理に進む。
[S105]
次に、位置姿勢計測装置1は、位置姿勢算出部27において、物体に係わる3次元情報(位置姿勢計測装置1に対する計測対象物体の位置及び姿勢)を算出(計測)する。本実施形態においては、非線形最適化計算を用いて、物体の概略の位置及び姿勢を示す概略値を反復演算により補正することにより、物体の位置及び姿勢を算出する。
より具体的には、非線形最適化手法の一つであるガウス−ニュートン(Gauss-Newton)法により反復演算し、物体の位置及び姿勢の概略値を補正する。これにより、物体の位置及び姿勢を算出する。なお、位置姿勢算出処理は、ガウス−ニュートン法に限られず、例えば、より計算がロバストであるLevenberg−Marquardt法を用いても良いし、よりシンプルな方法である最急降下法を用いても良い。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
ここでは、対応付け部26により対応付けられた2次元画像のエッジ(の3次元座標)と、(概略値に基づいてカメラ座標系に変換した)3次元形状モデルにおける線分との組を用いて、物体の位置及び姿勢を算出する。すなわち、当該対応するエッジと線分との3次元空間における距離の差に基づいて、物体の位置及び姿勢の概略値の最適化する。
より具体的には、3次元空間中での点と直線との符号付距離を、物体の位置及び姿勢の関数として線形近似する。そして、符号付距離が0になるような位置及び姿勢の微小変化に係わる線形の連立方程式を立式して解く。これにより、物体の位置及び姿勢の微小変化を求め、この値を補正する処理を繰り返す。なお、物体の位置及び姿勢の算出については、従来の技術(例えば、非特許文献1に記載された技術)を用いれば良いため、ここでは、その詳細な処理についての説明は省略する。
[S106]
最後に、位置姿勢計測装置1は、この処理を終了するか否かの判定を行なう。この処理を終了するか否かは、例えば、ユーザに処理の終了が指示されたか否かに基づき判定される。ここで、ユーザにより処理の終了が指示された場合には、そのままこの処理を終了し、そうでなければ、新たな2次元画像を取得し、再度、上述した処理を行なう。
以上説明したように本実施形態によれば、2次元画像(濃淡画像)上における輝度の変化から直接的な影響が少ない情報(エッジの方向)を用いて、3次元形状モデルを構成する線分に対して対応付けるエッジを判定する。そのため、物体の表面情報、光源状態、物体を観察する視点位置によらず、3次元形状モデルにおける線分と2次元画像上のエッジとの対応付けを安定した精度で行なえる。
これにより、輝度分布による識別が困難な物体や、光源の状態変化、物体と光源との相対的な位置姿勢変化があるようなシーンにおいても、物体の位置及び姿勢の計測をロバストに行なうことができる。
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。ここでいくつか変形例について列挙する。
(変形例1)
上述した実施形態においては、対応候補エッジの中から対応エッジを選択する際に、全てのEdgeletにおける全対応候補エッジと3次元形状モデルの線分との方向の差に基づいて算出した最頻値を基準値として用いたが、これに限られない。例えば、例えば、最頻値の代わりに、Edgeletと対応候補エッジとの2次元方向の差の中央値を用いても良い。具体的には、全てのEdgeletの全対応候補エッジに対して、3次元形状モデルの線分と対応候補エッジとの2次元方向の差の中央値(平均値)を算出し、当該中央値から所定範囲内の方向の差を示すエッジを対応するエッジとして選択(判定)しても良い。
また、このような基準値(最頻値、中央値)に限られず、基準値は、3次元形状モデルにおける線分の2次元方向と対応候補エッジの方向とが、全体として類似するか否かを判定することができる指標であれば良い。
(変形例2)
上述した実施形態においては、2次元画像上から検出する画像特徴がエッジである場合について説明したが、画像特徴は、エッジに限られない。例えば、3次元形状モデルとして、3次元面の変曲点とその方向を保持しておく。そして、2次元画像上の特徴として、濃淡が緩やかに変化する領域を検出し、その特徴の方向として濃度が変化する方向を算出する方法を採っても良い。具体的には、2次元画像上での濃淡変化方向と3次元面の変曲点の方向とに基づいて、3次元面の編曲点と、2次元画像上の濃淡変化部分とを対応付けることで物体の位置及び姿勢を計測(推定)するように構成しても良い。2次元画像上で位置と方向を表現できる特徴である限り、特徴の表現に制限はない。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (9)

  1. 物体の幾何特徴を表す3次元形状モデルを保持するモデル保持手段と、
    前記物体の位置及び姿勢の概略値を取得する概略値取得手段と、
    撮像装置により撮像された前記物体の2次元画像を取得する画像取得手段と、
    前記概略値に基づいて前記3次元形状モデルにおける幾何特徴を前記2次元画像上に投影し、当該2次元画像上に投影された3次元形状モデルの幾何特徴の方向を取得する投影手段と、
    前記2次元画像から画像特徴と、当該画像特徴の方向と、を検出する検出手段と、
    幾何特徴毎に当該幾何特徴に対する各画像特徴の方向の差を算出し当該算出により得られたそれぞれの幾何特徴における画像特徴の方向の差に基づいて基準値を導出する導出手段と、
    各幾何特徴に対応して検出された複数の画像特徴の中から、前記基準値から所定範囲内の方向の差を示すいずれかの画像特徴を選択する選択手段と、
    各幾何特徴に対して前記選択手段により選択された画像特徴を対応付ける対応付け手段と、
    前記対応付け手段により対応付けられた前記画像特徴と前記幾何特徴とに基づいて、前記物体の位置及び姿勢を算出する位置姿勢算出手段と
    を具備することを特徴とする位置姿勢計測装置。
  2. 前記3次元形状モデルにおける幾何特徴は、前記物体の形状を示す線分であり、
    前記検出手段は、
    前記投影手段により前記2次元画像上に投影された3次元形状モデルの線分に対して等間隔に設定された制御点に対応して、当該2次元画像上から画像特徴として複数のエッジと当該エッジの方向とを検出し、
    前記導出手段は、
    制御点毎に前記線分に対する各エッジの方向の差を算出し、当該算出により得られたそれぞれの制御点におけるエッジの方向の差に基づいて基準値を導出し、
    前記選択手段は、
    各制御点に対応して検出された複数のエッジの中から、前記基準値から所定範囲内の方向の差を示すいずれかのエッジを選択し、
    前記対応付け手段は、
    前記3次元形状モデルの線分における各制御点に対して前記選択されたエッジを対応付ける
    ことを特徴とする請求項1記載の位置姿勢計測装置。
  3. 前記基準値は、
    全ての制御点における全てのエッジの方向の差の最頻値である
    ことを特徴とする請求項記載の位置姿勢計測装置。
  4. 前記基準値は、
    全ての制御点における全てのエッジの方向の差の平均値である
    ことを特徴とする請求項記載の位置姿勢計測装置。
  5. 前記対応付け手段は、前記2次元画像から検出された画像特徴の方向と、前記取得された幾何特徴の方向とを比較することにより、前記画像特徴と前記幾何特徴とを対応付けることを特徴とする請求項1乃至のいずれか1項に記載の位置姿勢計測装置。
  6. 前記位置姿勢算出手段は、前記対応付け手段により対応付けられた前記画像特徴と前記幾何特徴とに基づいて前記概略値を補正することにより、前記物体の位置及び姿勢を算出することを特徴とする請求項1乃至の何れか1項に記載の位置姿勢計測装置。
  7. 請求項1乃至のいずれか1項に記載の位置姿勢計測装置を備えることを特徴とするロボットシステム。
  8. 位置姿勢計測装置の処理方法であって、
    概略値取得手段が、物体の位置及び姿勢の概略値を取得する工程と、
    画像取得手段が、撮像装置により撮像された前記物体の2次元画像を取得する工程と、
    投影手段が、前記物体の幾何特徴を表す3次元形状モデルにおける幾何特徴を前記概略値に基づいて前記2次元画像上に投影し、当該2次元画像上に投影された3次元形状モデルの幾何特徴の方向を取得する工程と、
    検出手段が、前記2次元画像から画像特徴と、当該画像特徴の方向と、を検出する工程と、
    導出手段が、幾何特徴毎に当該幾何特徴に対する各画像特徴の方向の差を算出し当該算出により得られたそれぞれの幾何特徴における画像特徴の方向の差に基づいて基準値を導出する工程と、
    選択手段が、各幾何特徴に対応して検出された複数の画像特徴の中から、前記基準値から所定範囲内の方向の差を示すいずれかの画像特徴を選択する工程と、
    対応付け手段が、各幾何特徴に対して前記選択工程で選択された画像特徴を対応付ける工程と、
    位置姿勢算出手段が、前記対応付け工程で対応付けられた前記画像特徴と前記幾何特徴とに基づいて、前記物体の位置及び姿勢を算出する工程と
    を含むことを特徴とする位置姿勢計測装置の処理方法。
  9. 物体の幾何特徴を表す3次元形状モデルを保持するモデル保持手段を有するコンピュータを、
    前記物体の位置及び姿勢の概略値を取得する概略値取得手段、
    撮像装置により撮像された前記物体の2次元画像を取得する画像取得手段、
    前記概略値に基づいて前記3次元形状モデルにおける幾何特徴を前記2次元画像上に投影し、当該2次元画像上に投影された3次元形状モデルの幾何特徴の方向を取得する投影手段、
    前記2次元画像から画像特徴と、当該画像特徴の方向と、を検出する検出手段、
    幾何特徴毎に当該幾何特徴に対する各画像特徴の方向の差を算出し当該算出により得られたそれぞれの幾何特徴における画像特徴の方向の差に基づいて基準値を導出する導出手段、
    各幾何特徴に対応して検出された複数の画像特徴の中から、前記基準値から所定範囲内の方向の差を示すいずれかの画像特徴を選択する選択手段、
    各幾何特徴に対して前記選択手段により選択された画像特徴を対応付ける対応付け手段、
    前記対応付け手段により対応付けられた前記画像特徴と前記幾何特徴とに基づいて、前記物体の位置及び姿勢を算出する位置姿勢算出手段
    として機能させるためのプログラム。
JP2010139948A 2010-06-18 2010-06-18 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム Active JP5612916B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010139948A JP5612916B2 (ja) 2010-06-18 2010-06-18 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
US13/702,365 US9111177B2 (en) 2010-06-18 2011-06-09 Position/orientation measurement apparatus, processing method therefor, and non-transitory computer-readable storage medium
PCT/JP2011/063752 WO2011158885A1 (en) 2010-06-18 2011-06-09 Position/orientation measurement apparatus, processing method therefor, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010139948A JP5612916B2 (ja) 2010-06-18 2010-06-18 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム

Publications (3)

Publication Number Publication Date
JP2012002761A JP2012002761A (ja) 2012-01-05
JP2012002761A5 JP2012002761A5 (ja) 2013-08-08
JP5612916B2 true JP5612916B2 (ja) 2014-10-22

Family

ID=44627677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010139948A Active JP5612916B2 (ja) 2010-06-18 2010-06-18 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム

Country Status (3)

Country Link
US (1) US9111177B2 (ja)
JP (1) JP5612916B2 (ja)
WO (1) WO2011158885A1 (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5393318B2 (ja) * 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5624394B2 (ja) 2010-07-16 2014-11-12 キヤノン株式会社 位置姿勢計測装置、その計測処理方法及びプログラム
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5671281B2 (ja) * 2010-08-20 2015-02-18 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US11313654B2 (en) 2010-11-10 2022-04-26 True Velocity Ip Holdings, Llc Polymer ammunition having a projectile made by metal injection molding
US11340050B2 (en) 2010-11-10 2022-05-24 True Velocity Ip Holdings, Llc Subsonic polymeric ammunition cartridge
US11215430B2 (en) 2010-11-10 2022-01-04 True Velocity Ip Holdings, Llc One piece polymer ammunition cartridge having a primer insert and methods of making the same
US10352670B2 (en) 2010-11-10 2019-07-16 True Velocity Ip Holdings, Llc Lightweight polymer ammunition cartridge casings
US10408592B2 (en) 2010-11-10 2019-09-10 True Velocity Ip Holdings, Llc One piece polymer ammunition cartridge having a primer insert and methods of making the same
US11209252B2 (en) 2010-11-10 2021-12-28 True Velocity Ip Holdings, Llc Subsonic polymeric ammunition with diffuser
US10480915B2 (en) 2010-11-10 2019-11-19 True Velocity Ip Holdings, Llc Method of making a polymeric subsonic ammunition cartridge
US11231257B2 (en) 2010-11-10 2022-01-25 True Velocity Ip Holdings, Llc Method of making a metal injection molded ammunition cartridge
US10876822B2 (en) 2017-11-09 2020-12-29 True Velocity Ip Holdings, Llc Multi-piece polymer ammunition cartridge
US11293732B2 (en) 2010-11-10 2022-04-05 True Velocity Ip Holdings, Llc Method of making polymeric subsonic ammunition
US11047664B2 (en) 2010-11-10 2021-06-29 True Velocity Ip Holdings, Llc Lightweight polymer ammunition cartridge casings
US9885551B2 (en) 2010-11-10 2018-02-06 True Velocity, Inc. Subsonic polymeric ammunition
US8561543B2 (en) 2010-11-10 2013-10-22 True Velocity, Inc. Lightweight polymer ammunition cartridge casings
US11300393B2 (en) 2010-11-10 2022-04-12 True Velocity Ip Holdings, Llc Polymer ammunition having a MIM primer insert
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
DE102011086456A1 (de) * 2011-11-16 2013-05-16 Siemens Aktiengesellschaft Rekonstruktion von Bilddaten
JP5777507B2 (ja) * 2011-12-27 2015-09-09 キヤノン株式会社 情報処理装置、情報処理方法、及びそのプログラム
JP6004809B2 (ja) 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP6045178B2 (ja) * 2012-04-13 2016-12-14 キヤノン株式会社 計測装置、計測方法及びプログラム
JP5904917B2 (ja) * 2012-09-20 2016-04-20 三菱電機株式会社 移動体搭載端末の端末位置及び方向検知装置
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
JP6197340B2 (ja) * 2013-04-05 2017-09-20 オムロン株式会社 画像処理装置、画像処理方法、およびプログラム
TWI503579B (zh) * 2013-06-07 2015-10-11 Young Optics Inc 立體影像裝置、其立體影像掃描底座及其運作方法
US9536339B1 (en) * 2013-06-13 2017-01-03 Amazon Technologies, Inc. Processing unordered point cloud
WO2015033810A1 (ja) * 2013-09-06 2015-03-12 ソニー株式会社 撮像装置および方法、並びにプログラム
WO2015035462A1 (en) * 2013-09-12 2015-03-19 Reservoir Rock Technologies Pvt Ltd Point feature based 2d-3d registration
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP6324025B2 (ja) * 2013-11-05 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法
JP6253368B2 (ja) 2013-11-25 2017-12-27 キヤノン株式会社 三次元形状計測装置およびその制御方法
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
JP6444027B2 (ja) 2013-12-09 2018-12-26 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
US9911176B2 (en) * 2014-01-11 2018-03-06 Userful Corporation System and method of processing images into sub-image portions for output to a plurality of displays such as a network video wall
KR102197964B1 (ko) * 2014-01-29 2021-01-04 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
JP6310288B2 (ja) * 2014-03-20 2018-04-11 日本ユニシス株式会社 画像処理装置および3次元物体トラッキング方法
US9305345B2 (en) * 2014-04-24 2016-04-05 General Electric Company System and method for image based inspection of an object
US9754192B2 (en) * 2014-06-30 2017-09-05 Microsoft Technology Licensing, Llc Object detection utilizing geometric information fused with image data
KR102358548B1 (ko) 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
DE102015010919A1 (de) * 2015-08-20 2017-02-23 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zum Bestimmen einer Ausrichtung eines Objekts
US9671500B1 (en) * 2015-12-22 2017-06-06 GM Global Technology Operations LLC Systems and methods for locating a vehicle
US9835427B2 (en) 2016-03-09 2017-12-05 True Velocity, Inc. Two-piece primer insert for polymer ammunition
CN105741270B (zh) * 2016-05-16 2019-02-22 杭州职业技术学院 千兆电子计算机断层扫描的前列腺三维图像分割方法
DE102016211244B4 (de) * 2016-06-23 2018-01-18 Kuka Roboter Gmbh Roboter-Bedienhandgerätverbund mit einem Grundsteuerungs-Lagesensor
US10760882B1 (en) 2017-08-08 2020-09-01 True Velocity Ip Holdings, Llc Metal injection molded ammunition cartridge
WO2019070867A2 (en) 2017-10-08 2019-04-11 Magik Eye Inc. DISTANCE MEASUREMENT USING A LONGITUDINAL GRID PATTERN
GB201717011D0 (en) * 2017-10-17 2017-11-29 Nokia Technologies Oy An apparatus a method and a computer program for volumetric video
WO2019160742A2 (en) 2018-02-14 2019-08-22 True Velocity Ip Holdings, Llc Device and method of determining the force required to remove a projectile from an ammunition cartridge
CN114827573A (zh) 2018-03-20 2022-07-29 魔眼公司 调整相机曝光以用于三维深度感测和二维成像
JP6937995B2 (ja) * 2018-04-05 2021-09-22 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
EP3803266A4 (en) 2018-06-06 2022-03-09 Magik Eye Inc. DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS
AU2019299428A1 (en) 2018-07-06 2021-01-28 True Velocity Ip Holdings, Llc Multi-piece primer insert for polymer ammunition
US11614314B2 (en) 2018-07-06 2023-03-28 True Velocity Ip Holdings, Llc Three-piece primer insert for polymer ammunition
WO2020033169A1 (en) 2018-08-07 2020-02-13 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
CN113272624B (zh) 2019-01-20 2024-11-26 魔眼公司 包括具有多个通带的带通滤波器的三维传感器
US10704872B1 (en) 2019-02-14 2020-07-07 True Velocity Ip Holdings, Llc Polymer ammunition and cartridge having a convex primer insert
US10704879B1 (en) 2019-02-14 2020-07-07 True Velocity Ip Holdings, Llc Polymer ammunition and cartridge having a convex primer insert
US10704880B1 (en) 2019-02-14 2020-07-07 True Velocity Ip Holdings, Llc Polymer ammunition and cartridge having a convex primer insert
US10921106B2 (en) 2019-02-14 2021-02-16 True Velocity Ip Holdings, Llc Polymer ammunition and cartridge having a convex primer insert
US10731957B1 (en) 2019-02-14 2020-08-04 True Velocity Ip Holdings, Llc Polymer ammunition and cartridge having a convex primer insert
USD893668S1 (en) 2019-03-11 2020-08-18 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
USD893667S1 (en) 2019-03-11 2020-08-18 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
USD893666S1 (en) 2019-03-11 2020-08-18 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
USD893665S1 (en) 2019-03-11 2020-08-18 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
USD891569S1 (en) 2019-03-12 2020-07-28 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
USD891570S1 (en) 2019-03-12 2020-07-28 True Velocity Ip Holdings, Llc Ammunition cartridge nose
USD892258S1 (en) 2019-03-12 2020-08-04 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
USD891568S1 (en) 2019-03-12 2020-07-28 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
USD891567S1 (en) 2019-03-12 2020-07-28 True Velocity Ip Holdings, Llc Ammunition cartridge nose having an angled shoulder
JP7188201B2 (ja) * 2019-03-13 2022-12-13 富士通株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US11512936B2 (en) 2019-03-19 2022-11-29 True Velocity Ip Holdings, Llc Methods and devices metering and compacting explosive powders
USD894320S1 (en) 2019-03-21 2020-08-25 True Velocity Ip Holdings, Llc Ammunition Cartridge
US11474209B2 (en) 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
EP3970362A4 (en) * 2019-05-12 2023-06-21 Magik Eye Inc. MAPPING THREE-DIMENSIONAL DEPTH MAP DATA TO TWO-DIMENSIONAL IMAGERY
AU2020340203A1 (en) 2019-07-16 2022-03-03 True Velocity Ip Holdings, Llc Polymer ammunition having an alignment aid, cartridge and method of making the same
WO2021113135A1 (en) 2019-12-01 2021-06-10 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information
US11580662B2 (en) 2019-12-29 2023-02-14 Magik Eye Inc. Associating three-dimensional coordinates with two-dimensional feature points
JP2023510738A (ja) 2020-01-05 2023-03-15 マジック アイ インコーポレイテッド 3次元カメラの座標系を2次元カメラの入射位置に移動させる方法
CN111275827B (zh) * 2020-02-25 2023-06-16 北京百度网讯科技有限公司 基于边缘的增强现实三维跟踪注册方法、装置和电子设备
JP7163947B2 (ja) * 2020-10-22 2022-11-01 セイコーエプソン株式会社 投写領域の設定支援方法、設定支援システム、及びプログラム
JP2023001984A (ja) * 2021-06-22 2023-01-10 コニカミノルタ株式会社 対象物認識装置およびプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2720155B1 (fr) 1994-05-19 1996-06-28 Lorraine Laminage Mesure tridimensionnelle de la surface d'un objet de grande dimension.
US6438272B1 (en) 1997-12-31 2002-08-20 The Research Foundation Of State University Of Ny Method and apparatus for three dimensional surface contouring using a digital video projection system
US7414732B2 (en) 2000-05-16 2008-08-19 Steinbichler Optotechnik Gmbh Method and device for determining the 3D profile of an object
JP3626400B2 (ja) * 2000-08-31 2005-03-09 株式会社東芝 ターゲットマーカを用いた対象物の位置計測方法及びロボットシステム
JP3796449B2 (ja) 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
EP1349114A3 (en) 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
JP4136859B2 (ja) 2003-01-10 2008-08-20 キヤノン株式会社 位置姿勢計測方法
US7327857B2 (en) 2004-03-09 2008-02-05 General Electric Company Non-contact measurement method and apparatus
JP2006039872A (ja) 2004-07-26 2006-02-09 Canon Inc 情報処理方法及び情報処理装置
JP4599184B2 (ja) 2005-02-02 2010-12-15 キヤノン株式会社 指標配置計測方法、指標配置計測装置
JP5063023B2 (ja) 2006-03-31 2012-10-31 キヤノン株式会社 位置姿勢補正装置、位置姿勢補正方法
JP5538667B2 (ja) 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
JP5013961B2 (ja) * 2007-05-21 2012-08-29 キヤノン株式会社 位置姿勢計測装置及びその制御方法
JP5111210B2 (ja) 2008-04-09 2013-01-09 キヤノン株式会社 画像処理装置、画像処理方法
JP2010134649A (ja) 2008-12-03 2010-06-17 Canon Inc 情報処理装置、その処理方法及びプログラム
JP5422987B2 (ja) 2008-12-15 2014-02-19 株式会社リコー 画像形成装置および定着装置
JP5290864B2 (ja) 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
JP5247590B2 (ja) 2009-05-21 2013-07-24 キヤノン株式会社 情報処理装置及びキャリブレーション処理方法
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
JP5746477B2 (ja) 2010-02-26 2015-07-08 キヤノン株式会社 モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP5548482B2 (ja) 2010-02-26 2014-07-16 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
JP5297403B2 (ja) 2010-02-26 2013-09-25 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体

Also Published As

Publication number Publication date
JP2012002761A (ja) 2012-01-05
US9111177B2 (en) 2015-08-18
US20130076865A1 (en) 2013-03-28
WO2011158885A1 (en) 2011-12-22

Similar Documents

Publication Publication Date Title
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP6415066B2 (ja) 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US9025857B2 (en) Three-dimensional measurement apparatus, measurement method therefor, and computer-readable storage medium
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
JP6736257B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
JPWO2005043466A1 (ja) 物体の状態を推定する推定システム、推定方法および推定プログラム
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
JP2018022247A (ja) 情報処理装置およびその制御方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2014053018A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
JP6766229B2 (ja) 位置姿勢計測装置及び方法
JP2011174878A (ja) 位置姿勢計測装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130618

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140905

R151 Written notification of patent or utility model registration

Ref document number: 5612916

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151