[go: up one dir, main page]

JP2019190969A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2019190969A
JP2019190969A JP2018083368A JP2018083368A JP2019190969A JP 2019190969 A JP2019190969 A JP 2019190969A JP 2018083368 A JP2018083368 A JP 2018083368A JP 2018083368 A JP2018083368 A JP 2018083368A JP 2019190969 A JP2019190969 A JP 2019190969A
Authority
JP
Japan
Prior art keywords
line
image
differential
pixel
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018083368A
Other languages
English (en)
Inventor
拓海 時光
Takumi Tokimitsu
拓海 時光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018083368A priority Critical patent/JP2019190969A/ja
Priority to US16/383,960 priority patent/US20190325593A1/en
Priority to CN201910331286.4A priority patent/CN110398215A/zh
Publication of JP2019190969A publication Critical patent/JP2019190969A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 ラインを含むパターンを投影した被検物の画像から該ラインをより高精度に検出するための技術を提供すること。【解決手段】 ラインを含むパターンが投影された被検物の画像を取得する画像取得手段が取得した該画像から検出されたラインに対応する画素ごとに、該画素に対応する該ラインの傾斜を取得する。画素ごとに取得した傾斜に基づいて画像におけるラインの検出を行う。【選択図】 図1

Description

本発明は、画像からのライン検出技術に関する。
物体の表面形状を計測する技術の一つに、光学式のアクティブステレオ法と称される方式がある。この方式は、プロジェクタにより所定の投影パターンを被検物に投影し、投影方向とは異なる方向から撮像を行い、三角測量の原理から各画素位置における距離情報を算出し、被検物の三次元情報を計測するものである。
アクティブステレオ法にて用いられるパターンに関しては様々な方式が存在する。その一つとして、特許文献1に記されるように、ラインパターン上に切断点(ドット)を配するパターンを投影する方式(以下、ドットラインパターン方式と称する)が知られている。本方式においては、検出された各ラインが投影パターン上のどのラインに対応するかの指標を、ライン上にて検出されたドットの座標情報を基に与えられるため、一回の画像撮影によって物体全体の三次元距離情報が取得可能である。
また、特許文献2には、ドットラインパターン方式のライン検出の際に、ラインピークおよびラインエッジを検出することで、計測される距離点の密度を向上させる技術が開示されている。また、特許文献2には、ドット近傍のラインネガティブピークやラインエッジ位置の精度が悪化するため、計測点から排除する技術も開示されている。
特許第2517062号 特開2016−200503号公報
ドットラインパターン方式の計測においては、パターン情報におけるドットの座標情報と検出されたドットの座標情報の対応付けのために十分な数のドットが検出されている必要がある。したがって、被検物のサイズが小さい場合においても被検物上に投影されるドットの数を十分に得るために、パターン中のドット密度を高く設定することが好ましい。
その場合、特許文献2に開示されている技術のように、ドット近傍の計測点を排除した場合には距離計測点密度が低下してしまう。加えて、後述するように、画素配列から計測線が傾く場合においては、ラインネガティブピークやラインエッジだけではなく、ピークの検出精度も大きく悪化してしまうことから、計測点の排除よりも検出精度の改善が求められる。本発明では、ラインを含むパターンを投影した被検物の画像から該ラインをより高精度に検出するための技術を提供する。
本発明の一様態は、ラインを含むパターンが投影された被検物の画像を取得する画像取得手段が取得した該画像から検出されたラインに対応する画素ごとに、該画素に対応する該ラインの傾斜を取得する取得手段と、前記画素ごとに前記取得手段が取得した傾斜に基づいて前記画像におけるラインの検出を行う検出手段とを備えることを特徴とする。
本発明の構成によれば、ラインを含むパターンを投影した被検物の画像から該ラインをより高精度に検出することができる。
三次元座標計測装置100の構成例及び被検物5の例を示す図。 ドットラインパターン及び撮像画像の一例を示す図。 演算処理ユニット4が行う処理のフローチャート。 ソーベルフィルタ及び回転微分フィルタの構成例を示す図。 ライン座標の一例を示す図。 ドット部によりライン座標の検出誤差が発生する原因を説明する図。 マップの構成例を示す図。 演算処理ユニット4が行う処理のフローチャート。 制御システムの構成例を示す図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施形態の1つである。
[第1の実施形態]
本実施形態では、オブジェクト(被検物)に対してライン(計測線)を含むパターン(ラインパターン)を投影し、該ラインパターンが投影された被検物を撮像し、該撮像で得られる画像に基づいて被検物の三次元形状を計測する計測システムについて説明する。このような計測システムを適用した本実施形態に係る三次元座標計測装置100の構成例を図1(a)に示す。
図1(a)に示す如く、三次元座標計測装置100は、投影装置の一例であるプロジェクタ1、撮像装置の一例である撮像ユニット3、コンピュータ装置の一例である演算処理ユニット4と、を有する。そしてプロジェクタ1及び撮像ユニット3は演算処理ユニット4に接続されている。
先ず、プロジェクタ1について説明する。LED6から射出された光束は、照明光学系8で集光されて、空間変調素子7を照明する。空間変調素子7は、照明光学系8から入射した光束を変調して「複数のラインを含むパターン(ラインパターン)」を射出する(LED6からの光束にラインパターンを付与する)。空間変調素子7から射出されたラインパターンは、投影光学系10を介して被検物5に投影される。なお、被検物5に上記のラインパターンを投影することができる装置であれば、投影装置は図1(a)のプロジェクタ1に限らない。
次に、撮像ユニット3について説明する。外界からの光は撮像光学系11を介して撮像素子13に入光する。撮像素子13には画素が2次元的に配列されており(図1(a)に示す如く、u軸方向及びv軸方向に画素が配列されており)、それぞれの画素の受光光量に基づいて撮像画像を生成し、該撮像画像を演算処理ユニット4に対して出力する。なお、u軸とv軸とは直交している。然るに図1(a)の場合は、撮像ユニット3は、プロジェクタ1によってラインパターンが投影された被検物5の撮像画像(ラインパターン画像)を生成して演算処理ユニット4に出力する。なお、ラインパターンが投影された被検物5の撮像画像を生成して演算処理ユニット4に出力することができる装置であれば、撮像装置は図1(a)の撮像ユニット3に限らない。
ここで、プロジェクタ1と撮像ユニット3は、両者の主点間の線分である基線2を介して離れた距離に設置されている。ラインパターンに含まれている複数のラインの長手の向きは基線2と直交するX軸方向とし、撮像素子13のu軸方向はX軸方向と略等しく配置され、エピポーラ線方向と略直交する。
次に、演算処理ユニット4について説明する。演算処理ユニット4は、演算処理ユニット4が行うものとして後述する各処理を実行可能なコンピュータ装置であり、例えば、次のようなハードウェア構成を有する。
CPU151は、RAM152やROM153に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU151は、演算処理ユニット4全体の動作制御を行うと共に、演算処理ユニット4が行うものとして後述する各処理を実行若しくは制御する。
RAM152は、ROM153や外部記憶装置156からロードされたコンピュータプログラムやデータ、I/F(インターフェース)157を介して外部から受信したデータ(例えば撮像ユニット3から受信した撮像画像)、を格納するためのエリアを有する。更にRAM152は、CPU151が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM152は、各種のエリアを適宜提供することができる。ROM153には、演算処理ユニット4の設定データや起動プログラム等、書換不要の情報が格納されている。
操作部154は、キーボードやマウスなどのユーザインターフェースであり、ユーザが操作することで各種の指示をCPU151に対して入力することができる。表示部155は、液晶画面やタッチパネルなどにより構成されており、CPU151による処理結果を画像や文字などでもって表示することができる。また、表示部155がタッチパネルであれば、ユーザによるタッチパネルへの操作入力はCPU151に通知される。
外部記憶装置156は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置156には、OS(オペレーティングシステム)や、演算処理ユニット4が行うものとして後述する各処理をCPU151に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。外部記憶装置156に保存されているデータには、以下の説明において既知の情報として取り扱うものや、プロジェクタ1が投影するラインパターンのデータなどが含まれている。外部記憶装置156に保存されているコンピュータプログラムやデータは、CPU151による制御に従ってRAM152にロードされ、CPU151による処理対象となる。
I/F157は、外部装置とのデータ通信を行うためのインタフェースとして機能するものであり、図1(a)の構成では、I/F157には、撮像ユニット3やプロジェクタ1が接続されていることになる。CPU151、RAM152、ROM153、操作部154、表示部155、外部記憶装置156、I/F157、は何れもバス158に接続されている。
上記のような構成を有する演算処理ユニット4は、撮像ユニット3からの撮像画像に含まれている各ラインの座標(ライン座標)を検出する。ライン座標の検出は、撮像画像から得られる受光光量ピークから該撮像画像上の座標を検出することで行われる。複数のラインパターンを用いたパターン投影法では、撮像されたラインパターンの対応付けを行う必要がある。ラインパターンの対応付けとは、画像から検出された各ラインに対し、該ラインが空間変調素子7が付与したラインパターンに含まれるラインのうち何本目のラインであるのかを対応付ける処理工程である。複数枚のラインパターン画像から上記の対応付けを行う手法も複数知られているが、本実施形態では、特許文献1、2で開示されているような1枚のラインパターン画像から対応付けを行うことができる「ランダムに配置されたドット(切断点)によって符号化された図2(a)にパターンの一部を示すドットラインパターン」を、プロジェクタ1が投影するラインパターンとして用いる。
そして演算処理ユニット4は撮像画像から検出したライン座標、上記の対応付けの結果、事前に校正されたプロジェクタ1及び撮像ユニット3の光学特性や相対位置関係に基づいて被検物5の三次元形状(被検物5の表面の各位置における三次元座標)を求める。
演算処理ユニット4が撮像ユニット3による撮像画像からラインを検出するために行う処理について、同処理のフローチャートを示す図3を用いて説明する。ステップS301では、CPU151は、撮像ユニット3から送出された撮像画像を、I/F157を介してRAM152に取得する。ステップS302では、CPU151は、ステップS301においてRAM152に取得した撮像画像fの各画素に対して、v軸方向に微分方向を持つソーベルフィルタSvを適用することで、微分画像gvを生成する。ソーベルフィルタSvの構成例を図4(a)に示す。撮像画像fの各画素に対するソーベルフィルタSvの適用は、例えば、以下の式(1)のように、撮像画像fとソーベルフィルタフィルタSvの畳み込み演算により実施される。
ここで、f(u、v)は、撮像画像f中の画素位置(u、v)における画素値を表し、Sv(m、n)は、ソーベルフィルタSvの中心位置を(0,0)としたときの該中心位置に対する相対位置(m、n)における要素の値を表す。また、gv(u、v)は、微分画像gv中の画素位置(u、v)における画素値(輝度値)を表している。以下では、画像(撮像画像や微分画像など)において水平方向をu軸方向、垂直方向をv軸方向とする。
ステップS303では、CPU151は、ステップS302において生成した微分画像gvの各垂直ライン(u座標ごとのv軸方向ライン)について、該垂直ラインの輝度分布において微分値が正から負に変わる座標(ピーク位置)をライン座標として検出する。例えば、着目垂直ラインからライン座標を検出する場合には、該着目垂直ラインを構成する各画素の輝度値から成る輝度分布(画素間の輝度値は補間などにより求める)において微分値が正から負に変わる座標(ピーク位置)をライン座標として検出する。ここで、輝度分布は垂直ライン方向の連続関数であるから、ライン座標のu座標値は整数値(該ライン座標を検出した垂直ラインのu座標値)、ライン座標のv座標値は実数値(ピーク位置)を取る。
また、ラインが切れているドット部であってもラインが連続する状態で検出される必要があるため、撮像画像上で観測されるラインとドットの輝度値を平滑化させるフィルタを、ソーベルフィルタ適用前の撮像画像に適用してもよい。この平滑化処理は光学系によるボケ(コントラスト劣化)が十分あり、ドット部であってもラインが連続する状態で検出される場合は不要である。
次に、ステップS304では、CPU151は、ステップS303で得られたライン座標に対してラインラベリングを行う。ラインラベリングでは、着目ライン座標に対してu軸方向に隣接する(規定画素数離間しても良い)ライン座標は該着目ライン座標と同一ライン上の点の座標であるとし、該ライン座標に対して該着目ライン座標と同じラベルを割り当てる。
そしてCPU151は、同じラベルが割り当てられたライン座標で形成されるラインのうち、長さ(例えば、u軸方向やv軸方向の画素数)が規定値以上となるラインを特定し、該特定したラインを形成しているライン座標を第1ライン座標とする。なお、CPU151は、長さが規定値未満のラインはノイズであると判断し、該ラインを形成しているライン座標については非ライン座標とする。
ここで、図1(b)に示す如く、被検物5の面51が撮像ユニット3に対して正対している(面51が撮像ユニット3の視軸と略直交している)場合に該撮像ユニット3により得られる撮像画像の例を図2(b)に示す。図2(b)に示す撮像画像は、撮像ユニット3に正対している面51に投影されたラインパターンを撮像して得られるため、u軸に略平行なラインが写っている。図2(b)に示した撮像画像をステップS301で取得した場合に、該撮像画像に対して上記のステップS302〜S304の処理を行うことで得られるライン座標(第1のライン座標)を図5(a)に示す。図5(a)ではライン座標に対応する位置にドット(黒)を記している。図2(b)に示す撮像画像にはu軸に略平行なラインが写っているため、図5(a)に示す如く、ライン座標は、u軸に略平行なラインを形成している。
図1(c)に示す如く、撮像ユニット3の撮像範囲に被検物5の面51及び面52(撮像ユニット3に対しY軸周りに傾いた2面)が含まれる(面51と面52との境界部分が含まれる)場合に該撮像ユニット3により得られる撮像画像の例を図2(c)に示す。図2(c)に示す撮像画像では、面51及び面52に投影されたラインパターンがu軸に対してそれぞれ傾いたラインパターンとして写っている。図2(c)に示した撮像画像をステップS301で取得した場合に、該撮像画像に対して上記のステップS302〜S304の処理を行うことで得られるライン座標(第1のライン座標)を図5(b)に示す。図5(b)ではライン座標に対応する位置にドット(黒)を記している。図2(c)に示す撮像画像には、u軸に対して傾いたラインパターンが写っているため、図5(b)に示す如く、ライン座標は、u軸に対して傾いたラインを形成している。ここで、図5(b)に示す如く、ライン座標にはドット部に起因して検出誤差が発生する。つまり、面51及び面52が平面である場合は各面について直線の検出結果が得られるが、ドット部に対応する部分でうねりが生じている。
撮像画像に傾いたラインパターンが写っている場合に、ドット部によりライン座標の検出誤差が発生する原因について、図6を用いて説明する。図6(a)は、u軸に略平行なラインが写っている撮像画像に対してv軸方向に微分した微分画像から検出されたライン座標を示す図である。図6(a)において、L1はラインの中心線、L11,L21は該ラインの明部を示しており、ドットによって切れている。ただし、前述のとおり、実際の光量分布では明部L11及びL12が同一ラインとして連続する状態で検出される程度に平滑化されており、明部L11及びL12ではドット近傍の隅部では光量分布がボケている。D1は、撮像画像に対する微分方向(v軸方向)を垂直ラインごとに示したものであり、ラインと略直交している。黒丸は垂直ラインごとに検出されたライン座標である。図6(a)のようにラインがu軸に略平行である場合には、ラインの中心線L1とライン座標とは略一致し、誤差なくライン座標を検出できる。
図6(b)は、u軸に対して傾いているラインが写っている撮像画像に対してv軸方向に微分した微分画像から検出されたライン座標を示す図である。図6(b)において、L2はラインの中心線、L12,L22は該ラインの明部を示しており、図6(a)と同様に、ドットによって切れているが、上記の明部L11及びL21と同様に、明部L12及びL22ではドット近傍の隅部では光量分布がボケている。D2は、撮像画像に対する微分方向(v軸方向)を垂直ラインごとに示したものであり、ラインは該微分方向に対して傾斜している。黒丸は垂直ラインごとに検出されたライン座標である。図6(b)のように、ラインがu軸に対して傾いているような撮像画像に対してv軸方向に微分した微分画像では、該ラインの中心線L2からずれた位置をライン座標として検出してしまうケースが発生する。このずれが発生する原因について、図6(b)に示す明部L22周辺を拡大した図6(c)を用いて説明する。
図6(c)の明部L22の輪郭線を光量の等高線として捉えると、輝度分布のピーク位置を探索するための探索線D21と明部(等高線)L22の2つの交点C1,C2の中間点(ラインの中心線L2からずれた位置P1)がライン座標として検出されてしまう。このように、u軸に対して傾いているラインが写っている撮像画像に対してv軸方向に微分した微分画像に対してv軸方向にピーク位置を探索すると、ドット部がラインにとってノイズとして作用し、ドット部近傍でライン座標の検出に誤差が発生する。このような誤差の低減には、図6(d)に示すように、撮像画像をラインの傾きに応じた微分方向D3に微分した微分画像からライン座標の検出を行うことが効果的である。撮像画像をラインの傾きに応じた微分方向D3に微分した微分画像では、図6(d)に示す如く、ラインの中心線L2上にピーク位置(黒丸)が登場する。然るに、このような微分画像に対してv軸方向にピーク位置を探索しても、ラインの中心線L2上でライン座標を検出することができ、ドットの影響を低減して、良好な精度でライン検出を行うことができる。
ステップS305以降では、ステップS304までの処理で求めた第1のライン座標におけるラインの傾きを求め、該傾きに応じて撮像画像を微分した微分画像からライン検出を行う。
ステップS305では、CPU151は、同じラベルが割り当てられた第1のライン座標の集合(つまり同一ラインを形成している第1のラインの集合)ごとに、該集合に含まれている各第1のライン座標におけるラインの傾斜角αを求める。例えば、着目集合に含まれている第1のライン座標においてu座標値がn(nは整数)の第1のライン座標P(n)のv座標値をv(n)とする。このとき、P(n)におけるラインの傾斜角αはα=arctan((v(n−1)−v(n+1))/2)を計算することで求めることができる。なお、着目集合においてu座標値が最小の第1のライン座標(=umin)におけるラインの傾斜角αは、第1のライン座標P(umin+1)におけるラインの傾斜角αと同じものを採用する。また、着目集合においてu座標値が最大の第1のライン座標(umax)におけるラインの傾斜角αは、第1のライン座標P(umax−1)におけるラインの傾斜角αと同じものを採用する。このように、ステップS305では、全ての第1のライン座標について傾斜角αを求める。
ステップS306では、CPU151は、撮像画像の各画素に対応する傾斜角を登録したマップを生成する。マップの構成例を図7(a)に示す。マップの水平方向にu軸、垂直方向にv軸を取る。マップにおいて位置(u、v)における要素(マス)には、撮像画像において画素位置(u、v)に対応する傾斜角が登録される。このようなマップを生成するために、本実施形態では、第1のライン座標(u、y)について求めた傾斜角を、マップにおいて位置(u、Z(y))に登録する。ここでZ(y)はyの整数部を返す関数である。例えば、Z(y)は、yの小数部が0.5以上であれば、yの整数部に1を加えてyの小数部を切り捨て、yの小数部が0.5未満であれば、yの小数部を切り捨ててyの整数部は変更しない関数である。
このようにして生成されるマップは、図7(a)の例では、例えば位置(u、v)=(1,4)における要素(マス)には傾斜角Ta1が登録されている。なお、図7(a)では、ラベル「a」が割り当てられた第1のライン座標に対応する傾斜角をTa1,Ta2,…,Ta14としており、ラベル「b」が割り当てられた第1のライン座標に対応する傾斜角をTb3,Tb4,…,Tb14としている。Txyは、ラベル「x」が割り当てられた第1のライン座標のうちu座標が「2」の第1のライン座標の傾斜角を表している。
次に、CPU151は、図7(a)に矢印で示したように、傾斜角を登録した要素の上下2要素に該傾斜角をコピーし、傾斜角を登録していない要素には0を登録する。例えば図7(a)、(b)に示す如く、傾斜角Ta1が登録されている要素(位置(1,4)の要素)の上下2要素(位置(1,2)、(1,3)、(1,5)、(1,6)の要素)に傾斜角Ta1を登録し、傾斜角を登録していない要素には0を登録する。
なお、本実施形態では、傾斜角を登録した要素の上下2要素に該傾斜角をコピーするようにしたが、傾斜角を登録した要素の上下NN(NNは1以上の整数)要素に該傾斜角をコピーするようにしても良い。このとき、NNは、微分フィルタのサイズや、撮像画像上で観測されるラインのピッチを基準に決定することができる。
次に、ステップS307では、CPU151は、撮像画像を構成する各画素のうち未選択の画素を1つ選択画素として選択する。そしてCPU151は、上記のマップにおいて選択画素の画素位置に登録されている要素値θ(傾斜角若しくは値「0」)を取得する。例えば、選択画素の画素位置が(2,4)であれば、CPU151は、マップにおいて(2,4)の位置に登録されている要素値θを取得する。
ステップS308では、CPU151は、v軸方向に微分方向を持つソーベルフィルタSvと、u軸方向に微分方向を持つソーベルフィルタSuと、をステップS307でマップから取得した要素値θに応じて合成した回転微分フィルタSrotを生成する。ソーベルフィルタSuの構成例を図4(b)に示す。例えばCPU151は、ソーベルフィルタSvと、ソーベルフィルタSuと、ステップS307でマップから取得した要素値θと、を用いて以下の式を計算することで、回転微分フィルタSrot(θ)を生成する。
Srot(θ)=Sv×cosθ+Su×sinθ
回転微分フィルタは、ソーベルフィルタSvやソーベルフィルタSuによる微分方向をθだけ回転させた微分方向を有する微分フィルタである。回転微分フィルタSrot(θ)の構成例を図4(c)に示す。
ステップS309では、CPU151は、選択画素に対して回転微分フィルタSrot(θ)を適用する。選択画素に対する回転微分フィルタSrot(θ)の適用は、以下の(式2)に従って実施される。
ここで、f(u、v)は、撮像画像fにおける選択画素の画素位置(u、v)における画素値を表す。Srot(m、n、θ(u、v))はソーベルフィルタSv、Suを選択画素の画素位置(u、v)に対応する要素値θ(u、v)に応じて合成した回転微分フィルタの中心位置を(0,0)としたときの中心位置からの相対位置(m、n)における要素値を表す。また、grot(u、v)は、撮像画像fの微分画像grotの画素位置(u、v)における画素値(輝度値)であり、該画素値は、撮像画像fにおける選択画素に回転微分フィルタSrotを適用したことで得られる画素値である。
ステップS310では、CPU151は、撮像画像における全ての画素を選択画素として選択したか否かを判断する。この判断の結果、撮像画像における全ての画素を選択した場合には、処理はステップS311に進み、撮像画像において未だ選択画素として選択していない画素が残っている場合には、処理はステップS307に戻る。撮像画像における全ての画素についてステップS307〜ステップS310の処理を行うことで、撮像画像fの微分画像grotが完成する。
ステップS311でCPU151は、微分画像grotの各垂直ライン(u座標ごとのv軸方向ライン)について、上記のステップS303と同様に、該垂直ラインの輝度分布において微分値が正から負に変わる座標(ピーク位置)をライン座標として求める。
ステップS312では、CPU151は、ステップS311で得られたライン座標に対して上記のステップS304と同様の処理を行う。つまり、CPU151は、ステップS311で得られたライン座標に対してラインラベリングを行い、同じラベルが割り当てられたライン座標で形成されているラインのうち長さが規定値以上のラインを形成しているライン座標を第2のライン座標とする。
図2(c)に示した撮像画像をステップS301で取得した場合に、図3のフローチャートに従った処理によって得られる第2のライン座標を図5(c)に示す。ステップS304までで得られたライン座標(図5(b))から検出精度が改善していることが分かる。このように回転微分フィルタSrot(θ)を用いることで、ラインの傾斜角が画像中の場所ごとに変化した場合においても、ラインの傾斜角に応じた微分画像を得ることができるため、高い精度でライン検出を行うことができる。
そして、図3のフローチャートに従った処理の完了後、CPU151は、同じラベルが割り当てられた第2のライン座標で形成されるラインを、被検物5の三次元形状計測に用いることで、より高精度に被検物5の三次元形状計測を行うことができる。なお、被検物5の三次元形状の計測結果の用途については様々な用途がある。
<変形例1>
ステップS311におけるライン座標の探索方向は、微分方向と同様に傾斜角に応じて回転することも可能であるが、微分方向を回転することで微分応答に対するドット起因のノイズは低減されているため、u軸方向から変更しなくとも検出精度改善が得られる。
<変形例2>
第1の実施形態では、画素ごとに回転微分フィルタを求めていたが、画素ごとに求めた傾斜角を、傾斜角が近いグループ(傾斜角間の差が規定値以内のグループ)単位で分割し、グループごとに回転微分フィルタを求めても良い。この場合、グループに含まれている傾斜角の代表傾斜角(グループに含まれている傾斜角の平均値や代表値等)を上記のθとして用いて該グループに対応する回転微分フィルタを求める。グループごとの回転微分フィルタは、ステップS307の開始前に生成しておく。そして選択画素に対応する傾斜角を特定した場合には、該傾斜角が属するグループに対応する回転微分フィルタを該選択画素に適用する。
また、例えば、予め規定傾斜角範囲ごとに回転微分フィルタを求めておき、選択画素に対応する傾斜角を特定した場合には、該傾斜角を含む傾斜範囲(規定傾斜角範囲)に対応する回転微分フィルタを該選択画素に適用するようにしても良い。規定傾斜角範囲は、例えば、0〜9、10〜19,…,340〜359というように360度を複数の範囲に分割し、それぞれの分割範囲を規定傾斜角範囲としても良い。また、画素ごとに求めた傾斜角の最大値及び最小値をそれぞれ上限及び下限とする範囲を複数の範囲に等分したそれぞれを規定傾斜角範囲としても良い。そして、着目規定傾斜角範囲に対応する回転微分フィルタは、該着目規定傾斜角範囲の代表傾斜角(着目規定傾斜角範囲における中央の値等)を上記のθとして用いて求めることができる。規定傾斜角範囲ごとの回転微分フィルタは、ステップS307の開始前に生成しておく。
このように、どのような単位で回転微分フィルタを求めておくのかについては、特定の単位に限らない。また、傾斜角の代わりに、上記のcosθやsinθに相当する情報等、第1のライン座標におけるラインの傾斜を表す情報であれば、如何なる情報を採用しても構わない。
<変形例3>
第1の実施形態では、撮像ユニット3とプロジェクタ1とを別個の装置としているが、撮像ユニット3の機能と、プロジェクタ1の機能と、を有する1つの装置として一体化させても良い。
[第2の実施形態]
以下では、第1の実施形態との差分について説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。本実施形態では、直交する微分方向を持つ2つの微分画像を、画素ごとのラインの傾きに応じて合成した微分画像を生成し、該生成した微分画像からライン検出を行う。これにより、第1の実施形態のライン検出精度改善効果と同等の結果を得ることができる。
演算処理ユニット4が撮像ユニット3による撮像画像からラインを検出するために行う処理について、同処理のフローチャートを示す図8を用いて説明する。図8において、図3に示した処理ステップと同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS800では、CPU151は、ステップS301においてRAM152に取得した撮像画像fの各画素に対して、u軸方向に微分方向を持つソーベルフィルタSuを適用することで、微分画像guを生成する。撮像画像fの各画素に対するソーベルフィルタSuの適用は、例えば、以下の式(3)のように、撮像画像fとソーベルフィルタフィルタSvの畳み込み演算により実施される。
ここで、Su(m、n)は、ソーベルフィルタSuの中心位置を(0,0)としたときの該中心位置からの相対位置(m、n)における要素の値を表す。また、gu(u、v)は、微分画像gu中の画素位置(u、v)における画素値(輝度値)を表している。なお、微分画像guの生成処理は、ステップS805の開始前であればよく、図8に示した処理順に限らない。図8では、ステップS800の処理をステップS801,S802と並行して行っているため、並列化演算による演算時間短縮にも寄与しうる。
ステップS801では、CPU151は、同じラベルが割り当てられた第1のライン座標の集合(つまり同一ラインを形成している第1のラインの集合)ごとに、該集合に含まれている各第1のライン座標におけるラインの傾きβを求める。例えば、着目集合に含まれている第1のライン座標においてu座標値がn(nは整数)の第1のライン座標P(n)のv座標値をv(n)とする。このとき、P(n)におけるラインの傾きβはβ=((v(n−1)−v(n+1))/2を計算することで求めることができる。なお、着目集合においてu座標値が最小の第1のライン座標(=umin)におけるラインの傾きβは、第1のライン座標P(umin+1)におけるラインの傾きβと同じものを採用する。また、着目集合においてu座標値が最大の第1のライン座標(umax)におけるラインの傾きβは、第1のライン座標P(umax−1)におけるラインの傾きβと同じものを採用する。このように、ステップS801では、全ての第1のライン座標について傾きβを求める。
ステップS802では、CPU151は、上記のステップS306のマップ生成処理において「撮像画像の各画素に対応する傾斜角」の代わりに「撮像画像の各画素に対応するラインの傾き」を用いる点のみがステップS306と異なる。
ステップS803では、CPU151は、撮像画像を構成する各画素のうち未選択の画素を1つ選択画素として選択する。そしてCPU151は、ステップS802で生成したマップにおいて選択画素の画素位置に登録されている要素値(傾き若しくは値「0」)を取得する。
ステップS804では、CPU151は、ステップS302で生成した微分画像gvと、ステップS800で生成した微分画像guと、をステップS803で取得した要素値に応じて合成した微分画像grotにおいて選択画素に対応する画素値を求める。具体的には、CPU151は、以下の(式4)を計算することで、微分画像grotにおいて選択画素に対応する画素値を求めることができる。
ここで、tanθ(u、v)は、ステップS802で生成したマップにおいて位置(u、v)に登録されている要素値に相当する。つまり、本実施形態では、微分画像grotを生成するまでの過程において三角関数を用いた計算を行わないので、三角関数を用いて微分画像grotを生成する第1の実施形態よりも低い演算コストで第1の実施形態と同等のライン検出結果を得ることができる。
この点についてより詳細に説明する。微分画像gvと微分画像guとを第1の実施形態で生成したマップを用いて合成した微分画像grotの生成は以下の(式5)を計算することで実施することができる。
このような(式5)に従って生成される微分画像grotは、第1の実施形態にて生成した微分画像grotと同等の微分画像となる。しかし、(式5)の計算を行うためには、第1の実施形態にて生成したマップが必要となり、上記の三角関数を用いた演算が必要となる。しかし、(式5)の右辺は(式4)の右辺に変形可能であることから、(式5)の演算は三角関数の演算を必要としない(式4)の演算に置き換えることができる。然るに、(式4)の演算により、三角関数を用いないで第1の実施形態と同等の微分画像grotを得ることができる。なお、本実施形態では、第1の実施形態に対して微分画像guのみ追加で演算すればよく、全体として第1の実施形態よりも演算量が削減している。
ステップS805では、CPU151は、撮像画像における全ての画素を選択画素として選択したか否かを判断する。この判断の結果、撮像画像における全ての画素を選択画素として選択した場合には、処理はステップS311に進み、撮像画像において未だ選択画素として選択していない画素が残っている場合には、処理はステップS803に戻る。撮像画像における全ての画素についてステップS803及びステップS804の処理を行うことで、撮像画像の微分画像grotが完成する。以降は第1の実施形態と同様である。
[第3の実施形態]
第1,2の実施形態では、撮像画像中のラインの方向に関係なく、図3のフローチャートに従った処理や、図8のフローチャートに従った処理を行った。しかし、上記の通り、ラインがu軸方向と略平行な場合には、v軸方向に微分した微分画像から良好なライン検出が可能であり、ステップS305以降の処理やステップS800(S801)以降の処理は省いても構わない。然るに、例えば、ユーザが撮像画像中のラインを確認し、撮像画像中のラインが図2(b)に示す如く、u軸方向と略平行な場合には、ステップS301〜ステップS304の処理(第1の処理)の実行指示を操作部154を用いて指示する。一方、ユーザが撮像画像中のラインを確認した結果、撮像画像中のラインが図2(c)に示す如く、u軸方向に対して傾いているとする。この場合には、ユーザは、第1の処理及びステップS305以降の処理若しくはステップS800(S801)以降の処理(第2の処理)の実行指示を操作部154を用いて指示する。CPU151は、操作部154からの実行指示に従って第1の処理を実行する若しくは第1の処理及び第2の処理を実行する。なお、撮像画像中のラインがu軸方向と略平行であるのかそれとも傾いているのかを判断する方法はユーザによる視認に限らず、演算処理ユニット4による画像処理によって判断しても良い。
また、第1の処理については演算処理ユニット4とは別個の装置が実行するようにしても良く、その場合、演算処理ユニット4は、別個の装置が実行した第1の処理の結果を取得することになる。
なお、以上説明した各実施形態や各変形例の一部若しくは全部を適宜組み合わせて使用しても構わないし、以上説明した各実施形態や各変形例の一部若しくは全部を選択的に使用しても構わない。
[第4の実施形態]
上述の三次元座標計測装置100は、ある支持部材に支持された状態で使用されうる。本実施形態では、一例として、図9のようにロボットアーム300(把持装置)に備え付けられて使用される制御システムについて説明する。三次元座標計測装置100は、支持台350に置かれた被検物210にパターン光を投影して撮像し、画像を取得(画像取得)する。そして、三次元座標計測装置100の制御部が、又は、三次元座標計測装置100の制御部から画像データを取得した制御部310が、被検物210の位置および姿勢を求め、求められた位置および姿勢の情報を制御部310が取得する。制御部310は、その位置および姿勢の情報に基づいて、ロボットアーム300に駆動指令を送ってロボットアーム300を制御する。ロボットアーム300は先端のロボットハンドなど(把持部)で被検物210を保持して、並進や回転などの移動をさせる。さらに、ロボットアーム300によって被検物210を他の部品に組み付けることにより、複数の部品で構成された物品、例えば電子回路基板や機械などを製造することができる。また、移動された被検物210を加工することにより、物品を製造することができる。制御部310は、CPUなどの演算装置やメモリなどの記憶装置を有する。なお、ロボットを制御する制御部を制御部310の外部に設けても良い。また、三次元座標計測装置100により計測された計測データや得られた画像をディスプレイなどの表示部320に表示してもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:プロジェクタ 3:撮像ユニット 4:演算処理ユニット 5:被検物

Claims (11)

  1. ラインを含むパターンが投影された被検物の画像を取得する画像取得手段が取得した該画像から検出されたラインに対応する画素ごとに、該画素に対応する該ラインの傾斜を取得する取得手段と、
    前記画素ごとに前記取得手段が取得した傾斜に基づいて前記画像におけるラインの検出を行う検出手段と
    を備えることを特徴とする画像処理装置。
  2. 前記取得手段は、前記画像の微分画像において輝度がピークとなる複数の座標に基づいて該複数の座標の各々における傾斜を求め、該座標について求めた傾斜を、該座標に対応する前記画像中の画素に対応するラインの傾斜とすることを特徴とする請求項1に記載の画像処理装置。
  3. 前記取得手段は、前記画像の微分画像において輝度がピークとなる座標について求めたラインの傾斜を該座標に対応する前記画像中の画素に対応するラインの傾斜として登録したマップを生成することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記検出手段は、
    水平方向に微分方向を有する微分フィルタと、垂直方向に微分方向を有する微分フィルタと、を前記画素について前記取得手段が取得した傾斜に基づいて合成した回転微分フィルタを生成し、該回転微分フィルタを前記画素に適用することで前記画像の微分画像を生成し、該微分画像からラインの検出を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記検出手段は、
    水平方向に微分方向を有する微分フィルタと、垂直方向に微分方向を有する微分フィルタと、を前記画素について前記取得手段が取得した傾斜を含む傾斜範囲の代表傾斜に基づいて合成した回転微分フィルタを生成し、該回転微分フィルタを前記画素に適用することで前記画像の微分画像を生成し、該微分画像からラインの検出を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  6. 前記検出手段は、
    前記画像を水平方向に微分した微分画像と、前記画像を垂直方向に微分した微分画像と、を前記画素について前記取得手段が取得した傾斜に基づいて合成した微分画像からラインの検出を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  7. 前記画像処理装置は更に、前記検出手段が検出したラインに基づいて前記被検物の三次元形状を計測する手段を備えることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 請求項1乃至7の何れか1項に記載の画像処理装置と、
    前記画像処理装置による計測結果に基づいて被検物を保持して移動させるロボットと、を有するシステム。
  9. 請求項1乃至7の何れか1項に記載の画像処理装置を用いて被検物を計測する工程と、
    該計測結果に基づいて被検物を処理することにより物品を製造する工程と、を有することを特徴とする物品の製造方法。
  10. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、ラインを含むパターンが投影された被検物の画像を取得する画像取得手段が取得した該画像から検出されたラインに対応する画素ごとに、該画素に対応する該ラインの傾斜を取得する取得工程と、
    前記画像処理装置の検出手段が、前記画素ごとに前記取得工程で取得した傾斜に基づいて前記画像におけるラインの検出を行う検出工程と
    を備えることを特徴とする画像処理方法。
  11. コンピュータを、請求項1乃至7の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2018083368A 2018-04-24 2018-04-24 画像処理装置、画像処理方法 Pending JP2019190969A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018083368A JP2019190969A (ja) 2018-04-24 2018-04-24 画像処理装置、画像処理方法
US16/383,960 US20190325593A1 (en) 2018-04-24 2019-04-15 Image processing apparatus, system, method of manufacturing article, image processing method, and non-transitory computer-readable storage medium
CN201910331286.4A CN110398215A (zh) 2018-04-24 2019-04-24 图像处理装置和方法,系统,物品制造方法,存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018083368A JP2019190969A (ja) 2018-04-24 2018-04-24 画像処理装置、画像処理方法

Publications (1)

Publication Number Publication Date
JP2019190969A true JP2019190969A (ja) 2019-10-31

Family

ID=68237054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083368A Pending JP2019190969A (ja) 2018-04-24 2018-04-24 画像処理装置、画像処理方法

Country Status (3)

Country Link
US (1) US20190325593A1 (ja)
JP (1) JP2019190969A (ja)
CN (1) CN110398215A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075206A1 (ja) 2019-10-18 2021-04-22 ナミックス株式会社 重合性組成物及びそれを用いる硬化性樹脂組成物

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020153718A (ja) * 2019-03-18 2020-09-24 株式会社リコー 測定装置及び造形装置
GB2584439B (en) * 2019-06-03 2023-02-22 Inspecvision Ltd Projector assembly system and method
CN111664791B (zh) * 2020-04-30 2022-02-15 广东博智林机器人有限公司 测量仪和造楼系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008241569A (ja) * 2007-03-28 2008-10-09 Fuji Electric Holdings Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
US9607239B2 (en) * 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
JP6424020B2 (ja) * 2014-06-09 2018-11-14 株式会社キーエンス 画像検査装置、画像検査方法、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6512912B2 (ja) * 2015-04-10 2019-05-15 キヤノン株式会社 被計測物の形状を計測する計測装置
CN105157626B (zh) * 2015-09-29 2018-01-02 中国民用航空总局第二研究所 一种使用结构光的固定式道面检测装置及方法
JP6278171B1 (ja) * 2016-07-19 2018-02-14 新日鐵住金株式会社 形状測定装置及び形状測定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075206A1 (ja) 2019-10-18 2021-04-22 ナミックス株式会社 重合性組成物及びそれを用いる硬化性樹脂組成物

Also Published As

Publication number Publication date
CN110398215A (zh) 2019-11-01
US20190325593A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
EP3081900B1 (en) Measurement devices and methods for measuring the shape of an object to be measured, and method of manufacturing an article
JP6320051B2 (ja) 三次元形状計測装置、三次元形状計測方法
CN113146073B (zh) 基于视觉的激光切割方法及装置、电子设备、存储介质
US20130136305A1 (en) Pattern generation using diffractive optical elements
JP2019190969A (ja) 画像処理装置、画像処理方法
KR20100087083A (ko) 물체의 모양을 삼차원 측정하기 위한 시스템 및 방법
US20150077399A1 (en) Spatial coordinate identification device
WO2020217878A1 (ja) 対象物の位置姿勢を検出する装置、方法およびプログラム
JP6425406B2 (ja) 情報処理装置、情報処理方法、プログラム
CN110612428B (zh) 使用特征量的三维测量方法及其装置
CN109544643A (zh) 一种摄像机图像校正方法及装置
JP2011007710A (ja) 検査装置、検査方法および検査プログラム
CN110462688B (zh) 使用基于模型的峰值选择的三维轮廓确定系统及方法
JP2023538706A (ja) 歪み測定を行うための融合ベースのデジタル画像相関フレームワーク
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5956296B2 (ja) 形状計測装置及び形状計測方法
CN113048912A (zh) 投影仪的标定系统及方法
JP2000205821A (ja) 三次元形状計測装置及びその三次元形状計測方法
JP2022152480A (ja) 3次元計測装置、3次元計測方法、プログラム、システム、及び物品の製造方法
JP7502343B2 (ja) 画像処理システム
JP4429135B2 (ja) 三次元形状計測システム及び計測方法
JPH1114327A (ja) 3次元形状計測方法及びその装置
EP4350280A1 (en) Three-dimensional measurement device
JP6867766B2 (ja) 情報処理装置およびその制御方法、プログラム
JP2019192156A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113