JP7184203B2 - 画像処理装置、3次元計測システム、画像処理方法 - Google Patents
画像処理装置、3次元計測システム、画像処理方法 Download PDFInfo
- Publication number
- JP7184203B2 JP7184203B2 JP2021545002A JP2021545002A JP7184203B2 JP 7184203 B2 JP7184203 B2 JP 7184203B2 JP 2021545002 A JP2021545002 A JP 2021545002A JP 2021545002 A JP2021545002 A JP 2021545002A JP 7184203 B2 JP7184203 B2 JP 7184203B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- map
- parallax
- pattern
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 116
- 238000005259 measurement Methods 0.000 title claims description 94
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000000034 method Methods 0.000 claims description 64
- 238000012937 correction Methods 0.000 claims description 36
- 238000003708 edge detection Methods 0.000 claims description 34
- 230000002194 synthesizing effect Effects 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 2
- 238000012546 transfer Methods 0.000 description 22
- 238000007781 pre-processing Methods 0.000 description 20
- 238000005286 illumination Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000012805 post-processing Methods 0.000 description 12
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 8
- 101150064138 MAP1 gene Proteins 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 4
- 238000000691 measurement method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置に関し、特に画像から高精度な3次元情報を得るための技術に関する。
画像を用いて物体の3次元情報を取得する手法の一つに、アクティブ計測と呼ばれる手法がある(非特許文献1参照)。アクティブ計測は、物体表面にパターン光を投影するため、画像特徴が少ない物体(例えば、表面にテクスチャがない物体など)でも高精度に3次元計測が可能であるという利点をもち、パッシブ計測に比べて実用性に優れる。
P. Vuylsteke and A. Oosterlinck, Range Image Acquisition with a Single Binary-Encoded Light Pattern, IEEE PAMI 12(2), pp. 148-164, 1990.
しかしながら、アクティブ計測は、物体のエッジ近傍において計測精度が低下しやすいという固有の課題をもつ。エッジ部分では物体の高さが不連続となるため、投影されるパターンもエッジを挟んで不連続となる。そうすると、エッジの近傍でパターンの誤認識が発生しやすくなり、物体表面上の点を背景の点と誤認したり、逆に背景の点を物体表面上の点と誤認したりしてしまい、誤った高さ情報が出力されるのである。図18は、アクティブ計測で得られた3次元情報(点群データ)と実際の物体のエッジ(外形)とのズレを模式的に示している。エッジから点群がはみ出している箇所や、点群が欠けている箇所があることがわかる。
アクティブ計測の用途や目的によっては、このような3次元情報と実際の形状のあいだのわずかなズレ(以下単に「計測誤差」と呼ぶ)が無視できないケースも想定される。例えば、アクティブ計測によって物体の外形を認識し、その認識結果をピッキングロボットの把持制御に利用する場面においては、計測誤差がピック又はプレースの不具合を招く可能性がある。具体的には、物体の外形を過大認識した結果、当該物体とその周囲のあいだにハンドを挿入する隙間がないと誤判定し、ピック又はプレースの動作を中断してしまったり、逆に、物体の外形を過小認識した結果、当該物体を把持するときにハンドと物体の干渉が発生してしまうなどの不具合が想定される。また、アクティブ計測によって物体の位置や姿勢を認識しながら、部材の嵌合や組付けを行う場面においては、ミクロンオーダーの位置決めが必要となるため、上記のような計測誤差は致命的となる。また、表面に位置決め用のマーク(突起や溝など)が設けられている部材などでは、アクティブ計測で得られた3次元情報に現れている表面の凹凸が、位置決め用のマークなのか計測誤差による凹凸なのか判別がつかず、位置決め用のマークを認識できない可能性もある。
本発明は、上記実情に鑑みてなされたものであり、物体のエッジ部分におけるパターンの誤認に起因して生じる計測誤差を排除ないし低減するための技術を提供することを目的とする。
本発明の一側面は、対象物にパターン光を投影して撮影された画像を用いて、各画素に奥行距離に関する情報が関連付けられたデータであるマップを生成するマップ生成手段と、前記対象物にパターン光を投影せずに撮影された画像を用いて、前記対象物のエッジを検出するエッジ検出手段と、奥行距離が不連続となる位置が前記対象物のエッジの位置に合致するように、前記検出されたエッジに基づいて前記マップを修正する修正手段と、を有することを特徴とする画像処理装置を提供する。
マップ生成手段により生成されるマップは、対象物にパターン光を投影して撮影された画像から奥行距離を復元したものであるため、その原理上、パターンの誤認に起因する計測誤差を含んでいる可能性がある。一方、エッジ検出手段により生成されるエッジの情報は、パターン光を投影せずに撮影された画像から得られる情報であるため、パターンの誤認に起因する誤差は含まない。したがって、検出されたエッジの位置を基準にしてマップを修正することによって、マップに含まれる計測誤差を排除ないし低減することができ、従来よりも高精度なマップを得ることができる。
前記マップ生成手段が前記マップを生成する手法は問わない。例えば、前記マップ生成手段は、前記対象物にパターン光を投影し異なる視点から撮影された複数の画像を用いて、ステレオマッチングにより、前記マップを生成するものであってもよい。ステレオマッチングは、異なる視点から撮影された2枚の画像のあいだの視差に基づき三角計測の原理で奥行距離を算出する方法である。ステレオマッチングによれば、空間分解能の高い3次元計測を精度よく行うことができる。ステレオマッチングの場合、前記マップは、視差マップ、デプスマップなどであってもよい。
あるいは、前記マップ生成手段は、前記対象物にパターン光を投影して撮影された画像を用いて、空間符号化パターン方式により、前記マップを生成するものであってもよい。空間符号化パターン方式は、カメラの画素と符号化パターンの対応点の関係から三角計測の原理で奥行距離を算出する方法であり、1枚の画像から3次元情報を得ることができる。空間符号化パターン方式によれば、3次元計測を高速かつ精度よく行うことができる。空間符号化パターン方式の場合、前記マップは、デプスマップなどであってもよい。
あるいは、前記マップ生成手段は、前記対象物にパターン光を投影し異なる視点から撮影された第1画像と第2画像からなる画像ペアを取得する取得手段と、ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測する視差予測手段と、予測された視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段と、前記第1画像と前記第2画像を用い、前記設定された探索範囲に限定したステレオマッチングを行うステレオマッチング手段と、を有してもよい。一般的なステレオマッチングでは、比較画像の全体から対応点の探索を行うため、高解像度の画像を用いると不可避的に処理時間が長くなってしまう。これに対し、上記構成では、予測された視差に基づき対応点の探索範囲が限定される。これにより、探索範囲を格段に狭くできるため、対応点の探索に要する時間を大幅に短縮することができる。
前記視差予測手段は、空間符号化パターン方式により得られた距離情報に基づいて、視差を予測してもよい。空間符号化パターン方式は、ステレオマッチングと同じ解像度のイメージセンサを用いた場合、ステレオマッチングよりも格段に短い処理時間で距離情報を得ることができるからである。なお、空間符号化パターン方式の測距の空間分解能は、ステレオマッチング方式に比べて低いものの、視差の予測に用いる目的であれば必要十分といえる。
前記マップ生成手段は、複数の画像ペアのそれぞれから前記ステレオマッチング手段により生成された複数の視差マップを合成することにより、合成視差マップを生成する視差マップ合成手段をさらに有するとよい。この場合、前記修正手段は、前記合成視差マップ、または、前記合成視差マップから変換されたデプスマップを修正するとよい。複数の画像ペアから得られた視差マップを合成することで、計測のばらつきを低減することができ、高精度かつ信頼性の高いマップを安定して得ることができる。
前記視差予測手段は、複数の予測視差を生成し、前記設定手段は、前記複数の予測視差を合成した合成予測視差を、前記複数の画像ペアの探索範囲の設定に用いてもよい。このように予測視差の生成(計測)も複数回行うことによって、精度及びロバスト性を向上することができる。
前記対象物にパターン光を投影せずに撮影された画像は、前記対象物に均一光を投影して撮影された画像であってもよい。例えば、白色の均一光源などを用いてもよい。
本発明の第二側面は、パターン光を投影する第1投光部、および、1つ以上のカメラを少なくとも有するセンサユニットと、前記センサユニットから取り込まれる画像を用いて処理を行う、第一側面に係る画像処理装置と、を有することを特徴とする3次元計測システムを提供する。この構成によれば、対象物のエッジ部分におけるパターンの誤認に起因する計測誤差が排除ないし低減された、3次元情報を得ることができる。
本発明は、上記手段の少なくとも一部を有する画像処理装置又は3次元計測システムとして捉えてもよい。また、本発明は、上記処理の少なくとも一部を含む画像処理方法、3次元計測方法、測距方法、画像処理装置の制御方法、3次元計測システムの制御方法などとして捉えてもよく、または、かかる方法を実現するためのプログラムやそのプログラムを非一時的に記録した記録媒体として捉えてもよい。なお、上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
本発明によれば、物体のエッジ部分におけるパターンの誤認に起因して生じる計測誤差を排除ないし低減することが可能である。
<適用例>
図1は、本発明の適用例の一つである3次元計測システムの構成例を模式的に示す図である。3次元計測システム1は、画像センシングによって対象物12の3次元形状を計測するためのシステムであり、概略、センサユニット10と画像処理装置11から構成される。センサユニット10は、少なくとも、パターン光を投影する第1投光部と非パターン光を投影する第2投光部と1つ以上のカメラ(イメージセンサや撮像装置とも呼ばれる)を備えており、必要に応じて他のセンサや照明を備える場合もある。センサユニット10の出力は画像処理装置11に取り込まれる。画像処理装置11は、センサユニット10から取り込まれたデータを用いて各種の処理を行うデバイスである。画像処理装置11の処理としては、例えば、距離計測(測距)、3次元形状認識、物体認識、シーン認識などが含まれてもよい。画像処理装置11の処理結果は、例えば、ディスプレイなどの出力装置に出力されたり、外部に転送されて、検査や他の装置の制御等に利用される。このような3次元計測システム1は、例えば、コンピュータビジョン、ロボットビジョン、マシンビジョンをはじめとして、幅広い分野に適用される。特に、本開示に係る3次元計測システム1では対象物12の高精度な3次元情報を得ることができるため、物体のピッキング、位置決め、組み立て、検査などを行う各種の産業用ロボットの制御に好ましく適用することができる。
図1は、本発明の適用例の一つである3次元計測システムの構成例を模式的に示す図である。3次元計測システム1は、画像センシングによって対象物12の3次元形状を計測するためのシステムであり、概略、センサユニット10と画像処理装置11から構成される。センサユニット10は、少なくとも、パターン光を投影する第1投光部と非パターン光を投影する第2投光部と1つ以上のカメラ(イメージセンサや撮像装置とも呼ばれる)を備えており、必要に応じて他のセンサや照明を備える場合もある。センサユニット10の出力は画像処理装置11に取り込まれる。画像処理装置11は、センサユニット10から取り込まれたデータを用いて各種の処理を行うデバイスである。画像処理装置11の処理としては、例えば、距離計測(測距)、3次元形状認識、物体認識、シーン認識などが含まれてもよい。画像処理装置11の処理結果は、例えば、ディスプレイなどの出力装置に出力されたり、外部に転送されて、検査や他の装置の制御等に利用される。このような3次元計測システム1は、例えば、コンピュータビジョン、ロボットビジョン、マシンビジョンをはじめとして、幅広い分野に適用される。特に、本開示に係る3次元計測システム1では対象物12の高精度な3次元情報を得ることができるため、物体のピッキング、位置決め、組み立て、検査などを行う各種の産業用ロボットの制御に好ましく適用することができる。
図1の構成はあくまで一例であり、3次元計測システム1の用途に応じてそのハードウェア構成は適宜設計すればよい。例えば、センサユニット10と画像処理装置11は無線で接続されてもよいし、センサユニット10と画像処理装置11が一体の装置で構成されていてもよい。また、センサユニット10と画像処理装置11をLAN又はインターネット等の広域ネットワークを介して接続してもよい。また、1つの画像処理装置11に対し複数のセンサユニット10を設けてもよいし、逆に、1つのセンサユニット10の出力を複数の画像処理装置11に提供してもよい。さらに、センサユニット10をロボットや移動体に取り付けるなどしてセンサユニット10の視点を移動可能にしてもよい。
<計測処理の流れ>
図2及び図3を参照して、3次元計測システム1による計測処理の大まかな流れを説明する。図2は3次元計測システム1の計測処理の流れを示すフローチャートであり、図3は計測処理で用いられる画像及びマップを模式的に示す図である。
図2及び図3を参照して、3次元計測システム1による計測処理の大まかな流れを説明する。図2は3次元計測システム1の計測処理の流れを示すフローチャートであり、図3は計測処理で用いられる画像及びマップを模式的に示す図である。
ステップS200において、センサユニット10(第1投光部)から対象物12にパターン光を投影する。パターン光のパターンは、固定のパターンでもよいし、ランダムパターンでもよいし、位相シフト法などで用いられる縞状のパターンでもよい。3次元情報の復元アルゴリズムに合わせて、適切なパターンを選べばよい。
ステップS201において、センサユニット10(カメラ)が、パターン光が投影された対象物12を撮影する。得られた画像30(以後、パターンが投影された画像という意味で「パターン画像」とも呼ぶ。)は画像処理装置11に取り込まれる。
ステップS202において、画像処理装置11(マップ生成手段)が、ステップS201で取り込まれたパターン画像30から3次元情報の復元を行い、各画素に奥行距離に関する情報が関連付けられたデータであるマップ31を生成する。「奥行距離に関する情報」は、奥行距離(デプス)そのものでもよいし、奥行距離に換算可能な情報(例えば視差情報)でもよい。
次に、ステップS203において、センサユニット10(第2投光部)から対象物12に非パターン光を投影する。例えば、白色の均一光で対象物12を照明してもよい。なお、十分に明るい環境の場合は、対象物12の照明を行わなくてもよい。
ステップS204において、センサユニット10(カメラ)が、対象物12を撮影する。得られた画像32(以後、パターンが投影されていない画像という意味で「非パターン画像」とも呼ぶ。)は画像処理装置11に取り込まれる。
ステップS205において、画像処理装置11(エッジ検出手段)が、ステップS204で取り込まれた非パターン画像32を用いて、対象物12のエッジを検出する。エッジ検出には、例えば微分フィルタやラプラシアンフィルタなど、どのような手法を適用してもよい。
ステップS206において、画像処理装置11(修正手段)が、ステップS205で得られたエッジ33の情報に基づいて、ステップS202で得られたマップ31を修正する。ステップS202の処理で3次元情報が正確に復元されている場合には、マップ31内の奥行距離が不連続となる位置は、ステップS205で検出されたエッジ33の位置と一致するはずである。しかしながら、対象物12のエッジ部分においてパターンを誤認し3次元情報の復元に誤差が生じると、マップ31中の奥行距離が不連続となる位置とエッジの位置にズレが発生する。そこでステップS206では、奥行距離が不連続となる位置がエッジの位置に合致するように、マップ31の修正を行う。
ステップS207において、画像処理装置11(3次元情報生成手段)は、修正後のマップ34をもとに出力用の3次元情報(例えば点群データ)を生成する。このような処理によれば、パターンの誤認に起因する計測誤差を排除ないし低減することができるため、高精度かつ高信頼の3次元情報を生成することが可能となる。
<マップの修正>
図4及び図5を参照して、ステップS206のマップ修正処理の一例を具体的に説明する。図4は画像処理装置11により実行されるマップ修正処理のフローチャートであり、図5はマップ修正処理の一例を模式的に示す図である。
図4及び図5を参照して、ステップS206のマップ修正処理の一例を具体的に説明する。図4は画像処理装置11により実行されるマップ修正処理のフローチャートであり、図5はマップ修正処理の一例を模式的に示す図である。
ステップS400において、画像処理装置11が、マップ50に対して奥行距離に基づくセグメンテーションを行い、対象物12に相当する領域51を抽出する。セグメンテーションの方法は問わない。例えば、奥行距離に基づきマップ50を二値化又はN値化したのちラベリング処理を行ってもよいし、奥行距離が略同一又は連続で且つ空間的に連続している領域を抽出してもよい。
ステップS401において、画像処理装置11が、マップ50から抽出された領域51に対し、エッジ検出(図2のステップS205)で得られたエッジ52を重ね合わせる。そして、画像処理装置11は、エッジ52によって領域51を分割し(ステップS402)、各分割領域53a~53cの面積(画素数)Sを計算する(ステップS403)。
ステップS404において、画像処理装置11は、各分割領域53a~53cの面積Sを所定の閾値Xと比較し、閾値Xよりも面積Sが小さい分割領域53a、53cは計測誤差と判定する。ステップS405において、画像処理装置11は、計測誤差と判定された分割領域53a、53cを除去する修正をマップ50に施し、修正後のマップ54を出力する。分割領域を除去する操作は、例えば、分割領域内の画素の奥行距離の値を背景領域の奥行距離の値に置き換える操作でもよいし、マップ50が点群データの場合(つまり、奥行距離の情報をもつ点の集合の場合)であれば分割領域内の点群を削除する操作でもよい。以上の処理によって、パターンの誤認に起因するマップの計測誤差を排除ないし低減することができる。
<第1実施形態>
図6を参照して、本発明の第1実施形態に係る3次元計測システム1の構成例について説明する。第1実施形態では、空間符号化パターン方式により対象物12の3次元情報が生成される。
図6を参照して、本発明の第1実施形態に係る3次元計測システム1の構成例について説明する。第1実施形態では、空間符号化パターン方式により対象物12の3次元情報が生成される。
(センサユニット)
センサユニット10は、第1カメラ101、パターン投光部(第1投光部)103、照明部(第2投光部)104、画像転送部105、駆動制御部106を有する。
センサユニット10は、第1カメラ101、パターン投光部(第1投光部)103、照明部(第2投光部)104、画像転送部105、駆動制御部106を有する。
第1カメラ101は、対象物12を撮影し画像データを取得する撮像装置である。第1カメラ101としては、モノクロのカメラを用いてもよいし、カラーのカメラを用いてもよい。
パターン投光部103は、空間符号化パターン方式の測距で用いるパターン光を対象物12に投影するための投光装置であり、プロジェクタとも呼ばれる。空間符号化パターン方式の測距では、例えば、距離を特定するための規則性のあるパターン(符号化されたパターン)が用いられる。図7にパターン投光部103の構成例を模式的に示す。パターン投光部103は、例えば、光源部180、導光レンズ181、パターン生成部182、投写レンズ183などから構成される。光源部180としては、LED、レーザー、VCSEL(Vertical cavity Surface-emitting Laser)などを用いることができる。導光レンズ181は光源部180からパターン生成部182に光を導くための光学素子であり、レンズ又はガラスロッドなどを用いることができる。パターン生成部182は、合成パターンを生成する部材ないし装置であり、フォトマスク、回折光学素子(例えばDOE(Diffractive Optical Element))、光変調素子(例えば、DLP(Digital Light Processing)、LCD(Liquid Crystal Display)、LCoS(Liquid Crystal on Silicon)、MEMS(Micro Electro Mechanical Systems))などを用いることができる。投写レンズ183は生成されたパターンを拡大し投写する光学素子である。
照明部104は、一般的な可視光画像を撮影するために用いられる均一照明である。例えば白色LED照明などが用いられる。もしくはパターン投光部103と同じ波長帯の照明でもよい。
画像転送部105は、第1カメラ101で撮影された画像データを画像処理装置11へ転送する。駆動制御部106は、第1カメラ101、パターン投光部103、及び、照明部104を制御するユニットである。なお、画像転送部105と駆動制御部106は、センサユニット10側ではなく、画像処理装置11側に設けてもよい。
(画像処理装置)
画像処理装置11は、画像取得部110、パターン復号部(マップ生成手段)111、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113を有する。
画像処理装置11は、画像取得部110、パターン復号部(マップ生成手段)111、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113を有する。
画像取得部110は、センサユニット10から必要な画像データを取り込む機能を有する。画像取得部110は、パターン光を投影して撮影された画像(パターン画像)はパターン復号部111へ送り、非パターン光を投影して撮影された画像(非パターン画像)はエッジ検出部112へ送る。パターン復号部111は、空間符号化パターン方式によって、パターン画像から奥行距離の情報(デプス情報)を取得する。パターン復号部111からはデプスマップが出力される。エッジ検出部112は、非パターン画像から対象物12のエッジを検出する。マップ修正部113は、検出されたエッジに基づいてデプスマップを修正し、修正後のデプスマップを出力する。このデプスマップは、例えば、対象物12の形状認識、物体認識などに利用される。
画像処理装置11は、例えば、CPU(プロセッサ)、RAM(メモリ)、不揮発性記憶装置(ハードディスク、SSDなど)、入力装置、出力装置などを備えるコンピュータにより構成される。この場合、CPUが、不揮発性記憶装置に格納されたプログラムをRAMに展開し、当該プログラムを実行することによって、上述した各種の機能が実現される。ただし、画像処理装置11の構成はこれに限られず、上述した機能のうちの全部又は一部を、FPGAやASICなどの専用回路で実現してもよいし、クラウドコンピューティングや分散コンピューティングにより実現してもよい。以後の実施形態でも同様である。
以上述べた本実施形態の構成によれば、空間符号化パターン方式を利用するので、3次元計測を高速かつ精度よく行うことができる。加えて、非パターン画像から検出されたエッジの位置を基準にしてデプスマップを修正するので、パターンの誤認に起因する計測誤差を排除ないし低減することができ、従来よりも高精度なデプスマップを得ることができる。
<第2実施形態>
図8を参照して、本発明の第2実施形態に係る3次元計測システム1の構成例について説明する。第2実施形態では、ステレオマッチングにより対象物12の3次元情報が生成される。
図8を参照して、本発明の第2実施形態に係る3次元計測システム1の構成例について説明する。第2実施形態では、ステレオマッチングにより対象物12の3次元情報が生成される。
(センサユニット)
センサユニット10は、第1カメラ101、第2カメラ102、パターン投光部(第1投光部)103、照明部(第2投光部)104、画像転送部105、駆動制御部106を有する。
センサユニット10は、第1カメラ101、第2カメラ102、パターン投光部(第1投光部)103、照明部(第2投光部)104、画像転送部105、駆動制御部106を有する。
第1カメラ101と第2カメラ102は、いわゆるステレオカメラを構成するカメラ対であり、所定の距離だけ離れて配置されている。2つのカメラ101、102で同時に撮影を行うことで、異なる視点から撮影した画像ペアを得ることができる(第1カメラ101の画像を第1画像、第2カメラ102の画像を第2画像と呼ぶ)。2つのカメラ101、102は、互いの光軸が交差し、且つ、水平ライン(又は垂直ライン)が同一平面上にくるように、配置されるとよい。このような配置をとることで、エピポーラ線が画像の水平ライン(又は垂直ライン)と平行になるため、ステレオマッチングにおける対応点を同じ位置の水平ライン(又は垂直ライン)内から探索すればよく、探索処理の簡易化が図れるからである。なお、カメラ101、102としては、モノクロのカメラを用いてもよいし、カラーのカメラを用いてもよい。
パターン投光部103は、いわゆるアクティブステレオ測距で用いるパターン光を対象物12に投影するための投光装置であり、プロジェクタとも呼ばれる。アクティブステレオ測距では、例えば、第1実施形態と同様に距離を特定するための規則性のあるパターン(符号化されたパターン)が用いられてもよいし、ランダムドットなどの規則性のないパターンが用いられてもよい。照明部104は、一般的な可視光画像を撮影するために用いられる均一照明である。パターン投光部103及び照明部104の具体的な構成は第1実施形態と同じでよい。
画像転送部105は、第1カメラ101で撮影された第1画像のデータ、及び、第2カメラ102で撮影された第2画像のデータを、画像処理装置11へ転送する。画像転送部105は、第1画像と第2画像を別々の画像データとして転送してもよいし、第1画像と第2画像を繋ぎ合わせてサイドバイサイド画像を生成し単一の画像データとして転送してもよい。駆動制御部106は、第1カメラ101、第2カメラ102、パターン投光部103、及び、照明部104を制御するユニットである。なお、画像転送部105と駆動制御部106は、センサユニット10側ではなく、画像処理装置11側に設けてもよい。
(画像処理装置)
画像処理装置11は、画像取得部110、前処理部800、対応点探索部(マップ生成手段)801、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113、視差マップ後処理部802、デプスマップ生成部803を有する。
画像処理装置11は、画像取得部110、前処理部800、対応点探索部(マップ生成手段)801、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113、視差マップ後処理部802、デプスマップ生成部803を有する。
画像取得部110は、パターン光を投影して撮影された第1画像と第2画像からなるステレオ画像ペアは前処理部800へ送り、非パターン光を投影して撮影された画像はエッジ検出部112へ送る。前処理部800は、第1画像と第2画像に対して、必要な前処理を行う機能を有する。対応点探索部801は、第1画像と第2画像の対応点を探索し、その探索結果に基づき視差マップを生成する機能を有する。エッジ検出部112は、非パターン画像から対象物12のエッジを検出する機能を有し、マップ修正部113は、検出されたエッジに基づいて視差マップを修正し、修正後の視差マップを出力する機能を有する。視差マップ後処理部802は、視差マップに対して必要な後処理を行う機能を有する。デプスマップ生成部803は、視差マップの視差情報を距離情報に変換し、デプスマップを生成する機能を有する。
(マップ生成)
図9を参照して、第2実施形態におけるマップ生成処理の流れを説明する。図9は、図2のステップS202、S205、S206の詳細を示すフロー図である。
図9を参照して、第2実施形態におけるマップ生成処理の流れを説明する。図9は、図2のステップS202、S205、S206の詳細を示すフロー図である。
ステップS900において、画像取得部110が、センサユニット10から第1画像と第2画像を取得する。第1画像及び第2画像はそれぞれ、パターン投光部103から対象物12にパターン光を投影した状態で、第1カメラ101及び第2カメラ102で撮影された画像である。なお、センサユニット10からサイドバイサイド画像形式のデータが取り込まれた場合は、画像取得部110がサイドバイサイド画像を第1画像と第2画像に分割する。画像取得部110は、前処理部800に第1画像と第2画像を送る。
ステップS901において、前処理部800が、第1画像及び第2画像に対し平行化処理(レクティフィケーション)を行う。平行化処理とは、2つの画像の間の対応点が画像中の同じ水平ライン(又は垂直ライン)上に存在するように、一方又は両方の画像を幾何変換する処理である。平行化処理によりエピポーラ線が画像の水平ライン(又は垂直ライン)と平行になるため、後段の対応点探索の処理が簡単になる。なお、センサユニット10から取り込まれる画像の平行度が十分高い場合には、ステップS901の平行化処理は省略してもよい。
ステップS902において、前処理部800が、平行化された第1画像及び第2画像の各画素についてハッシュ特徴量を計算し、各画素の値をハッシュ特徴量に置き換える。ハッシュ特徴量は、注目画素を中心とする局所領域の輝度特徴を表すものであり、ここでは、8要素のビット列からなるハッシュ特徴量を用いる。このように、各画像の輝度値をハッシュ特徴量に変換しておくことで、後段の対応点探索における局所的な輝度特徴の類似度計算が極めて効率化される。
ステップS903において、対応点探索部801が、第1画像と第2画像の間で対応点の探索を行い、各画素の視差を求める。対応点探索部801は、対応点の検出に成功した点(画素の座標)に視差情報を関連付けた視差データを生成する。この情報が視差マップである。
次にステップS910において、画像取得部110が、センサユニット10から非パターン画像を取得する。非パターン画像は、照明部104から対象物12に非パターン光(均一照明など)を投影した状態で、第1カメラ101又は第2カメラ102で撮影された画像である。
ステップS911において、エッジ検出部112は、非パターン画像に対し平行化処理(レクティフィケーション)を行う。なお、画像の平行度が十分高い場合には、平行化処理は省略してもよい。ステップS912において、エッジ検出部112は、非パターン画像から対象物12のエッジを検出する。
そして、ステップS913において、マップ修正部113が、ステップS912で検出されたエッジを基準として、ステップS903で生成された視差マップを修正する。マップ修正処理の詳細は図4で示したとおりである。
(後処理)
図10を参照して、第2実施形態における後処理の流れを説明する。図10は、図2のステップS207の詳細を示すフロー図である。
図10を参照して、第2実施形態における後処理の流れを説明する。図10は、図2のステップS207の詳細を示すフロー図である。
ステップS1000において、視差マップ後処理部802が、視差マップの後処理を行う。対応点探索によって推定された視差マップには誤計測点や計測抜けなどが含まれるため、後処理として、周囲の画素の視差情報に基づき誤計測点の修正や計測抜けの補完を行う。
ステップS1001において、デプスマップ生成部803が、視差マップの各画素の視差情報を奥行距離情報に変換し、デプスマップを生成する。このデプスマップ(点群データ)は、例えば、対象物12の形状認識、物体認識などに利用される。
以上述べた本実施形態の構成によれば、ステレオマッチングを利用するので、空間分解能の高い3次元計測を精度よく行うことができる。加えて、非パターン画像から検出されたエッジの位置を基準にして視差マップを修正するので、パターンの誤認に起因する計測誤差を排除ないし低減することができ、従来よりも高精度な視差マップを得ることができる。なお、本実施形態では、視差マップに対しマップ修正処理を施したが、視差マップからデプスマップへの変換処理を先に行い、デプスマップに対しマップ修正処理を施してもよい。
<第3実施形態>
図11を参照して、本発明の第3実施形態に係る3次元計測システム1の構成例について説明する。第3実施形態では、複数の画像ペアについてステレオマッチングを行い、各画像ペアから生成された視差マップを合成することにより、計測の精度及びロバスト性を向上する。以下の説明では、第2実施形態と異なる構成を主に説明し、第2実施形態と同様の構成については説明を省略する。
図11を参照して、本発明の第3実施形態に係る3次元計測システム1の構成例について説明する。第3実施形態では、複数の画像ペアについてステレオマッチングを行い、各画像ペアから生成された視差マップを合成することにより、計測の精度及びロバスト性を向上する。以下の説明では、第2実施形態と異なる構成を主に説明し、第2実施形態と同様の構成については説明を省略する。
(センサユニット)
センサユニット10は、第1カメラ101、第2カメラ102、第3カメラ1100、第4カメラ1101、パターン投光部(第1投光部)103、照明部(第2投光部)104、画像転送部105、駆動制御部106を有する。本実施形態のセンサユニット10は4つのカメラを備えており、1回の投影で4つの視点の画像を同時に撮影できる。
センサユニット10は、第1カメラ101、第2カメラ102、第3カメラ1100、第4カメラ1101、パターン投光部(第1投光部)103、照明部(第2投光部)104、画像転送部105、駆動制御部106を有する。本実施形態のセンサユニット10は4つのカメラを備えており、1回の投影で4つの視点の画像を同時に撮影できる。
第3カメラ1100と第4カメラ1101は、いわゆるステレオカメラを構成するカメラ対であり、所定の距離だけ離れて配置されている(第3カメラ1100の画像を第3画像、第4カメラ1101の画像を第4画像と呼ぶ)。2つのカメラ1100、1101は、互いの光軸が交差し、且つ、水平ライン(又は垂直ライン)が同一平面上にくるように、配置されるとよい。このような配置をとることで、エピポーラ線が画像の水平ライン(又は垂直ライン)と平行になるため、ステレオマッチングにおける対応点を同じ位置の水平ライン(又は垂直ライン)内から探索すればよく、探索処理の簡易化が図れるからである。なお、カメラ1100、1101としては、モノクロのカメラを用いてもよいし、カラーのカメラを用いてもよい。
画像転送部105は、第1カメラ101~第4カメラ1101で撮影された第1画像~第4画像のデータを、画像処理装置11へ転送する。画像転送部105は、第1画像~第4画像を別々の画像データとして転送してもよいし、第1画像~第4画像を繋ぎ合わせてサイドバイサイド画像を生成し単一の画像データとして転送してもよい。
(画像処理装置)
画像処理装置11は、画像取得部110、前処理部800、対応点探索部(マップ生成手段)801、視差マップ合成部(視差マップ合成手段)1103、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113、視差マップ後処理部802、デプスマップ生成部803を有する。視差マップ合成部1103は、複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する機能を有する。
画像処理装置11は、画像取得部110、前処理部800、対応点探索部(マップ生成手段)801、視差マップ合成部(視差マップ合成手段)1103、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113、視差マップ後処理部802、デプスマップ生成部803を有する。視差マップ合成部1103は、複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する機能を有する。
(マップ生成)
図12を参照して、第3実施形態におけるマップ生成処理の流れを説明する。図12は、図2のステップS202、S205、S206の詳細を示すフロー図である。
図12を参照して、第3実施形態におけるマップ生成処理の流れを説明する。図12は、図2のステップS202、S205、S206の詳細を示すフロー図である。
ステップS1200において、画像取得部110が、センサユニット10から第1画像~第4画像を取得する。第1画像~第4画像はそれぞれ、パターン投光部103から対象物12にパターン光を投影した状態で、第1カメラ101、第2カメラ102、第3カメラ1100、及び第4カメラ1101で撮影された画像である。なお、センサユニット10からサイドバイサイド画像形式のデータが取り込まれた場合は、画像取得部110がサイドバイサイド画像を第1画像~第4画像に分割する。本実施形態では、第1画像と第2画像を第1の画像ペア、第3画像と第4画像を第2の画像ペアとして、ステレオマッチングに利用する。
ステップS1201において、前処理部800が、第1画像~第4画像に対し平行化処理(レクティフィケーション)を行う。ステップS1202において、前処理部800が、平行化された第1画像~第4画像の各画素についてハッシュ特徴量を計算し、各画素の値をハッシュ特徴量に置き換える。
ステップS1203において、対応点探索部801が、第1の画像ペアである第1画像と第2画像の間で対応点の探索を行い、視差マップ1を生成する。続いて、ステップS1204において、対応点探索部801が、第2の画像ペアである第3画像と第4画像の間で対応点の探索を行い、視差マップ2を生成する。
ステップS1205において、視差マップ合成部1103が、第1の画像ペアから得られた視差マップ1と第2の画像ペアから得られた視差マップ2を合成し、合成視差マップを生成する。合成方法は特に限定されないが、例えば、視差マップ1と視差マップ2の両方で視差が得られている場合はそれらの平均値を合成視差とし、視差マップ1と視差マップ2のいずれか一方だけで視差が得られた場合はその値をそのまま合成視差とすればよい。
次にステップS1210において、画像取得部110が、センサユニット10から非パターン画像を取得する。非パターン画像は、照明部104から対象物12に非パターン光(均一照明など)を投影した状態で、第1カメラ101又は第2カメラ102で撮影された画像である。
ステップS1211において、エッジ検出部112は、非パターン画像に対し平行化処理(レクティフィケーション)を行う。なお、画像の平行度が十分高い場合には、平行化処理は省略してもよい。ステップS1212において、エッジ検出部112は、非パターン画像から対象物12のエッジを検出する。
そして、ステップS1213において、マップ修正部113が、ステップS1212で検出されたエッジを基準として、ステップS1205で生成された合成視差マップを修正する。マップ修正処理の詳細は図4で示したとおりである。
以上述べた本実施形態の構成によれば、複数の画像ペアから得られた視差マップを合成することで、計測のばらつきを低減することができる。したがって、第2実施形態の構成よりもさらに高精度かつ信頼性の高いマップを安定して得ることができる。
なお、本実施形態では、合成視差マップに対しマップ修正処理を施したが、合成視差マップからデプスマップへの変換処理を先に行い、デプスマップに対しマップ修正処理を施してもよい。また、本実施形態では、2組の画像ペアを用いたが、3組以上の画像ペアを用いてもよい。また、同じ画像を2つ以上の画像ペアで利用してもよい。例えば、第1画像~第3画像の3枚の画像を用いて、第1画像と第2画像のペア、第1画像と第3画像のペア、第2画像と第3画像のペアの3組の画像ペアを形成してもよい。また、画像ペアごとに撮影条件を異ならせてもよい。例えば、本実施形態の構成において、第1カメラと第2カメラの露光時間と、第3カメラと第4カメラの露光時間を異ならせることにより、いわゆるハイダイナミックレンジ(HDR)撮影に準じた効果が得られ、計測のロバスト性を向上できる。また、本実施形態のように2組のステレオカメラを用いるのではなく、1組のステレオカメラで複数回の撮影を行うことにより複数組の画像ペアを取得してもよい。この場合も、撮影回ごとに撮影条件(露光時間やパターン光の点灯時間など)を異ならせることで、計測のロバスト性を向上することができる。
さらに、非パターン光投影時にも、複数のカメラで同時に撮影を行うことで複数の非パターン画像を取得し、それぞれの非パターン画像から検出されたエッジ情報を合成することで、高精度なエッジ情報を生成することも好ましい。エッジ情報の精度を向上することにより、修正マップの精度及び信頼性をさらに向上することができる。
<第4実施形態>
図13を参照して、本発明の第4実施形態に係る3次元計測システム1の構成例について説明する。第4実施形態では、空間符号化パターン方式とステレオマッチングを組み合わせて対象物12の3次元情報を高速かつ高精度に求める。
図13を参照して、本発明の第4実施形態に係る3次元計測システム1の構成例について説明する。第4実施形態では、空間符号化パターン方式とステレオマッチングを組み合わせて対象物12の3次元情報を高速かつ高精度に求める。
センサユニット10の構成は第2実施形態と同じでよい。画像処理装置11は、画像取得部110、パターン復号部1300、視差予測部1301、前処理部800、探索範囲設定部1302、対応点探索部801、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113、視差マップ後処理部802、デプスマップ生成部803を有する。パターン復号部1300は、空間符号化パターン方式によって、第1画像から距離情報を取得する機能をもつ。視差予測部1301は、パターン復号部1300で得られた距離情報に基づき第1画像と第2画像の間の視差を予測し参考視差マップを出力する機能を有する。探索範囲設定部1302は、予測視差に基づいて対応点の探索範囲を設定する機能を有する。それ以外の構成は第2実施形態と実質的に同じであるため説明を割愛する。
(マップ生成)
図14を参照して、第4実施形態におけるマップ生成処理の流れを説明する。図14は、図2のステップS202、S205、S206の詳細を示すフロー図である。なお、第2実施形態のマップ生成処理(図9)と同じ処理については同一のステップ番号を付し、詳しい説明を割愛する。
図14を参照して、第4実施形態におけるマップ生成処理の流れを説明する。図14は、図2のステップS202、S205、S206の詳細を示すフロー図である。なお、第2実施形態のマップ生成処理(図9)と同じ処理については同一のステップ番号を付し、詳しい説明を割愛する。
ステップS900において、画像取得部110が、センサユニット10から第1画像と第2画像を取得する。ステップS901において、前処理部800が、第1画像及び第2画像に対し平行化処理(レクティフィケーション)を行う。ステップS902において、前処理部800が、平行化された第1画像及び第2画像の各画素についてハッシュ特徴量を計算し、各画素の値をハッシュ特徴量に置き換える。
ステップS1400において、パターン復号部1300が、第1画像を解析しパターンを復号することによって、第1画像上の複数の点における奥行方向の距離情報を取得する。
ステップS1401において、視差予測部1301が、ステップS1400で得られた各点の距離情報に基づき、各点を平行化された第1画像の画像座標系に射影したときの2次元座標と、同じ点を平行化された第2画像の画像座標系に射影したときの2次元座標とを計算し、2つの画像の間での座標の差を計算する。この差が予測視差である。視差予測部1301は、ステップS1400で距離情報が得られたすべての点についての予測視差を求め、そのデータを参考視差マップとして出力する。
ステップS1402において、探索範囲設定部1302が、予測視差に基づいて、第1画像及び第2画像に対し、対応点の探索範囲を設定する。探索範囲の大きさは、予測の誤差を考慮して決定される。例えば、予測の誤差が±10画素である場合には、マージンを含めても、予測視差を中心とした±20画素程度を探索範囲に設定すれば十分と考えられる。仮に水平ラインが640画素である場合に、探索範囲を±20画素(つまり40画素)に絞り込むことができれば、水平ライン全体を探索するのに比べて探索処理を単純に1/16に削減することができる。
ステップS1403において、対応点探索部801が、設定された探索範囲に限定して第1画像と第2画像の間で対応点の探索を行い、各画素の視差を求める。対応点探索部801は、対応点の検出に成功した点(画素の座標)に視差情報を関連付けた視差データを生成する。この情報が視差マップである。
次にステップS1410において、画像取得部110が、センサユニット10から非パターン画像を取得する。非パターン画像は、照明部104から対象物12に非パターン光(均一照明など)を投影した状態で、第1カメラ101又は第2カメラ102で撮影された画像である。
ステップS1411において、エッジ検出部112は、非パターン画像に対し平行化処理(レクティフィケーション)を行う。なお、画像の平行度が十分高い場合には、平行化処理は省略してもよい。ステップS1412において、エッジ検出部112は、非パターン画像から対象物12のエッジを検出する。
そして、ステップS1413において、マップ修正部113が、ステップS1412で検出されたエッジを基準として、ステップS1403で生成された視差マップを修正する。マップ修正処理の詳細は図4で示したとおりである。
以上述べた本実施形態では、予測された視差に基づき対応点の探索範囲が限定される。これにより、探索範囲を格段に狭くできるため、対応点の探索に要する時間を大幅に短縮することができる。また、ステレオマッチング、つまり対応点探索の成功率及び精度の向上も期待できる。したがって、本実施形態によれば、空間分解能の高い3次元計測を、高速かつ高精度に行うことができる。
なお、本実施形態では、視差の予測のために空間符号化パターン方式による測距を行ったが、ステレオマッチングよりも高速に測距ないし視差予測が可能な方法であれば、空間符号化パターン方式以外の手法で測距ないし視差予測を行ってもよい。例えば、時間コード化パターン投影方式、モアレトポグラフィ方式(等高線方式)、照度差ステレオ方式(照射方向/Photometric Stereo)、照度差方式、レーザー共焦点方式、白色共焦点方式、光干渉方式、視体積交差方式(Shape from silhouette)、因子分解方式(factorization)、Depth from Motion(Structure from Motion)方式、Depth from Shading方式、Depth from focusing方式、Depth from defocus方式、Depth from zoom方式、光時間差(TOF)測定方式、光位相差(TOF)測定方式等が挙げられる。また、本実施形態では、視差マップに対しマップ修正処理を施したが、視差マップからデプスマップへの変換処理を先に行い、デプスマップに対しマップ修正処理を施してもよい。
また、第3実施形態で述べた構成(複数の画像ペアを用いることによる視差マップの精度向上や、複数の非パターン画像を用いることによるエッジ情報の精度向上など)を第4実施形態に組み合わせてもよい。
<第5実施形態>
図15を参照して、本発明の第5実施形態に係る3次元計測システム1の構成例について説明する。第5実施形態は、第4実施形態の方法(空間符号化パターン方式とステレオマッチングの組み合わせ)の変形例であり、予測視差の生成とステレオマッチング(視差マップの生成)をともに複数回行うことで、計測の精度及びロバスト性をさらに向上する。以下の説明では、第4実施形態と異なる構成を主に説明し、第4実施形態と同様の構成については説明を省略する。
図15を参照して、本発明の第5実施形態に係る3次元計測システム1の構成例について説明する。第5実施形態は、第4実施形態の方法(空間符号化パターン方式とステレオマッチングの組み合わせ)の変形例であり、予測視差の生成とステレオマッチング(視差マップの生成)をともに複数回行うことで、計測の精度及びロバスト性をさらに向上する。以下の説明では、第4実施形態と異なる構成を主に説明し、第4実施形態と同様の構成については説明を省略する。
センサユニット10の構成は第4実施形態と同じでよい。画像処理装置11は、画像取得部110、パターン復号部1300、視差予測部1301、前処理部800、探索範囲設定部1302、対応点探索部801、視差マップ合成部1103、エッジ検出部(エッジ検出手段)112、マップ修正部(修正手段)113、視差マップ後処理部802、デプスマップ生成部803を有する。視差マップ合成部1103は、複数の画像ペアのそれぞれから生成された複数の視差マップを合成することにより合成視差マップを生成する機能を有する。
(マップ生成)
図16及び図17を参照して、第5実施形態におけるマップ生成処理の流れを説明する。図16は、図2のステップS202、S205、S206の詳細を示すフロー図である。図17は、タイミングチャートである。
図16及び図17を参照して、第5実施形態におけるマップ生成処理の流れを説明する。図16は、図2のステップS202、S205、S206の詳細を示すフロー図である。図17は、タイミングチャートである。
駆動制御部106からの開始信号をトリガとして、1回目の計測が実施される。まずパターン投光部103が点灯し、所定のパターン照明を対象物12に投影する。そして、第1カメラ101と第2カメラ102で同時に撮像が行われ、画像転送部105から第1画像及び第2画像の転送が行われる。ステップS1600、S1601において、画像取得部110が、第1画像及び第2画像からなる第1の画像ペアを取得する。画像取得部110は、パターン復号部1300に第1画像を送り、前処理部800に第1画像と第2画像を送る。
続いて、駆動制御部106からの開始信号をトリガとして、2回目の計測が実施される。まずパターン投光部103が点灯し、所定のパターン照明を対象物12に投影する。そして、第1カメラ101と第2カメラ102で同時に撮像が行われ、画像転送部105から第1画像及び第2画像の転送が行われる。ステップS1610、S1611において、画像取得部110が、第1画像及び第2画像からなる第2の画像ペアを取得する。画像取得部110は、パターン復号部1300に第2画像を送り、前処理部800に第1画像と第2画像を送る。
2回目の計測と並列に、1回目の計測で得られた第1の画像ペアに対する画像処理が開始される。ステップS1602において、前処理部800が、第1画像及び第2画像に対し平行化処理(レクティフィケーション)を行う。ステップS1603において、前処理部800が、平行化された第1画像及び第2画像の各画素についてハッシュ特徴量を計算し、各画素の値をハッシュ特徴量に置き換える。
ステップS1604において、パターン復号部1300が、第1画像を解析しパターンを復号することによって、第1画像上の複数の点における奥行方向の距離情報を取得する。
ステップS1605において、視差予測部1301が、ステップS1604で得られた各点の距離情報に基づき予測視差を求め、そのデータを参考視差マップとして出力する。なお、第1画像に対する処理は、第1画像の転送が完了した時点から開始してもよい。
2回目の計測で得られた第2の画像ペアの転送が完了すると、第2の画像ペアに対する画像処理が開始される。ステップS1612において、前処理部800が、第1画像及び第2画像に対し平行化処理(レクティフィケーション)を行う。ステップS1613において、前処理部800が、平行化された第1画像及び第2画像の各画素についてハッシュ特徴量を計算し、各画素の値をハッシュ特徴量に置き換える。ステップS1614において、パターン復号部1300が、第2画像を解析しパターンを復号することによって、第2画像に基づく距離情報を取得する。そして、ステップS1615において、視差予測部1301が、距離情報に基づいて予測視差を計算する。
理論上は、1回目(ステップS1605)で得られる予測視差と2回目(ステップS1615)で得られる予測視差は同じになるはずであるが、実際は完全に同一にはならない。1回目と2回目では異なるカメラ(視点)で撮影された画像を用いるため、画像の見え(つまり画像情報)に差異があるからである。それゆえ、1回目と2回目で予測視差の値に差が生じたり、一方は視差の予測に成功したが他方は失敗するということもあり得る。そこで、ステップS1620において、視差予測部1301が1回目の予測視差と2回目の予測視差を合成し、合成予測視差を求める。合成方法は特に限定されないが、例えば、1回目と2回目の両方で予測視差が得られている場合はそれらの平均値を合成予測視差とし、1回目と2回目のいずれか一方だけで予測視差が得られた場合はその値をそのまま合成予測視差とすればよい。
ステップS1621において、探索範囲設定部1302が、合成予測視差に基づいて、第1の画像ペアと第2の画像ペアのそれぞれに対し、対応点の探索範囲を設定する。
ステップS1622において、対応点探索部801が、第1の画像ペアの間で対応点の探索を行い、各画素の視差を求め、視差マップ1を生成する。同様に、ステップS1623において、対応点探索部801が、第2の画像ペアの間で対応点の探索を行い、視差マップ2を生成する。
ステップS1624において、視差マップ合成部1103が、第1の画像ペアから得られた視差マップ1と第2の画像ペアから得られた視差マップ2を合成し、合成視差マップを生成する。合成方法は特に限定されないが、例えば、視差マップ1と視差マップ2の両方で視差が得られている場合はそれらの平均値を合成視差とし、視差マップ1と視差マップ2のいずれか一方だけで視差が得られた場合はその値をそのまま合成視差とすればよい。
続いて、駆動制御部106からの開始信号をトリガとして、非パターン画像の撮影が行われる。まず照明部104が点灯し、均一照明を対象物12に投影する。そして、第1カメラ101又は第2カメラ102で撮像が行われ、画像転送部105から非パターン画像の転送が行われる(図17は、第1カメラで非パターン画像を撮影する場合のシーケンスを示している。)。ステップS1630において、画像取得部110が、非パターン画像を取得する。画像取得部110は、エッジ検出部112に非パターン画像を送る。
ステップS1631において、エッジ検出部112は、非パターン画像に対し平行化処理(レクティフィケーション)を行う。なお、画像の平行度が十分高い場合には、平行化処理は省略してもよい。ステップS1632において、エッジ検出部112は、非パターン画像から対象物12のエッジを検出する。
そして、ステップS1633において、マップ修正部113が、ステップS1632で検出されたエッジを基準として、ステップS1624で生成された合成視差マップを修正する。以後の処理は前述の実施形態と同様である。
以上述べた本実施形態の構成によれば、第4実施形態と同様の作用効果に加え、次のような利点を有する。第一に、複数の画像ペアから得られた視差マップを合成することから、計測のばらつきを低減することができる。第二に、第1画像と第2画像の両方から視差を予測することで、高精度な予測視差を得ることができる。仮に一方の画像の情報が欠損していたとしても、他方の画像を使って視差を予測できる可能性が高い。したがって、対応点の探索範囲をより適切に設定でき、精度及びロバスト性をさらに向上することができる。
<変形例>
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、上記実施形態では、エッジ検出用の画像を撮影する際に非パターン光で対象物12を照明しているが、十分に明るい環境の下では、そのような専用の照明を行わずに(つまり非パターン光を照射せずに)エッジ検出用の画像を撮影してもよい。すなわち、エッジ検出用の画像は、測距用のパターンが投影されていない状態で撮影された画像であればよく、エッジ検出用の画像の撮影時に非パターン光を照射するか否かは重要ではない。
上記実施形態は、本発明の構成例を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、上記実施形態では、エッジ検出用の画像を撮影する際に非パターン光で対象物12を照明しているが、十分に明るい環境の下では、そのような専用の照明を行わずに(つまり非パターン光を照射せずに)エッジ検出用の画像を撮影してもよい。すなわち、エッジ検出用の画像は、測距用のパターンが投影されていない状態で撮影された画像であればよく、エッジ検出用の画像の撮影時に非パターン光を照射するか否かは重要ではない。
また、上記実施形態では、アクティブ計測の例として、空間符号化パターン方式(第1実施形態)、ステレオマッチング(第2及び第3実施形態)、空間符号化パターン方式とステレオマッチングのハイブリッド(第4及び第5実施形態)の3種類の3つの方式を例示したが、本発明はこれら以外のアクティブ計測に対しても適用可能である。例えば、第1実施形態のように1つの投光装置と1つのカメラからなる計測系において、パターン光として、ランダムドットパターン、グレイパターン、時間符号化されたパターンなどを用いてもよい。
上記実施形態では、ステレオマッチングにハッシュ特徴量を利用したが、対応点の類似度評価には他の手法を用いてもよい。例えば、類似度の評価指標としてはSAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、NC(Normalized Correlation)などによる左右画像の画素の類似度計算法がある。また、上記実施形態では、視差の予測とステレオマッチングとで共通するカメラの画像を用いたが、それぞれ異なる三次元計測用のカメラ画像を用いてもよい。
<付記>
対象物(12)にパターン光を投影して撮影された画像を用いて、各画素に奥行距離に関する情報が関連付けられたデータであるマップを生成するマップ生成手段(111,801)と、
前記対象物(12)にパターン光を投影せずに撮影された画像を用いて、前記対象物のエッジを検出するエッジ検出手段(112)と、
奥行距離が不連続となる位置が前記対象物(12)のエッジの位置に合致するように、前記検出されたエッジに基づいて前記マップを修正する修正手段(113)と、
を有することを特徴とする画像処理装置(11)。
対象物(12)にパターン光を投影して撮影された画像を用いて、各画素に奥行距離に関する情報が関連付けられたデータであるマップを生成するマップ生成手段(111,801)と、
前記対象物(12)にパターン光を投影せずに撮影された画像を用いて、前記対象物のエッジを検出するエッジ検出手段(112)と、
奥行距離が不連続となる位置が前記対象物(12)のエッジの位置に合致するように、前記検出されたエッジに基づいて前記マップを修正する修正手段(113)と、
を有することを特徴とする画像処理装置(11)。
1:3次元計測システム
10:センサユニット
11:画像処理装置
12:対象物
10:センサユニット
11:画像処理装置
12:対象物
Claims (13)
- 対象物にパターン光を投影して撮影された画像を用いて、各画素に奥行距離に関する情報が関連付けられたデータであるマップを生成するマップ生成手段と、
前記対象物にパターン光を投影せずに撮影された画像を用いて、前記対象物のエッジを検出するエッジ検出手段と、
奥行距離が不連続となる位置が前記対象物のエッジの位置に合致するように、前記検出されたエッジに基づいて前記マップを修正する修正手段と、
を有することを特徴とする画像処理装置。 - 前記修正手段は、前記マップから前記対象物の領域を抽出し、当該領域を前記検出されたエッジによって複数の分割領域に分割し、前記複数の分割領域のうち所定の閾値より小さい分割領域を除外することによって、前記マップを修正する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記マップ生成手段は、前記対象物にパターン光を投影し異なる視点から撮影された複数の画像を用いて、ステレオマッチングにより、前記マップを生成するものである
ことを特徴とする請求項1または2に記載の画像処理装置。 - 前記マップ生成手段は、前記対象物にパターン光を投影して撮影された画像を用いて、空間符号化パターン方式により、前記マップを生成するものである
ことを特徴とする請求項1または2に記載の画像処理装置。 - 前記マップ生成手段は、
前記対象物にパターン光を投影し異なる視点から撮影された第1画像と第2画像からなる画像ペアを取得する取得手段と、
ステレオマッチングとは異なる方式により前記第1画像と前記第2画像の間の視差を予測する視差予測手段と、
予測された視差に基づき、ステレオマッチングにおける対応点の探索範囲を設定する設定手段と、
前記第1画像と前記第2画像を用い、前記設定された探索範囲に限定したステレオマッチングを行うステレオマッチング手段と、
を有する
ことを特徴とする請求項3に記載の画像処理装置。 - 前記視差予測手段は、空間符号化パターン方式により得られた距離情報に基づいて、視差を予測する
ことを特徴とする請求項5に記載の画像処理装置。 - 前記マップ生成手段は、複数の画像ペアのそれぞれから前記ステレオマッチング手段により生成された複数の視差マップを合成することにより、合成視差マップを生成する視差マップ合成手段をさらに有する
ことを特徴とする請求項5または6に記載の画像処理装置。 - 前記修正手段は、前記合成視差マップ、または、前記合成視差マップから変換されたデプスマップを修正する
ことを特徴とする請求項7に記載の画像処理装置。 - 前記視差予測手段は、複数の予測視差を生成し、
前記設定手段は、前記複数の予測視差を合成した合成予測視差を、前記複数の画像ペアの探索範囲の設定に用いる
ことを特徴とする請求項7または8に記載の画像処理装置。 - 前記対象物にパターン光を投影せずに撮影された画像は、前記対象物に均一光を投影して撮影された画像である
ことを特徴とする請求項1~9のうちいずれか1項に記載の画像処理装置。 - パターン光を投影する第1投光部、および、1つ以上のカメラを少なくとも有するセンサユニットと、
前記センサユニットから取り込まれる画像を用いて処理を行う、請求項1~10のうちいずれか1項に記載の画像処理装置と、
を有することを特徴とする3次元計測システム。 - コンピュータを、請求項1~10のうちいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
- 対象物にパターン光を投影して撮影された画像を用いて、各画素に奥行距離に関する情報が関連付けられたデータであるマップを生成するステップと、
前記対象物にパターン光を投影せずに撮影された画像を用いて、前記対象物のエッジを検出するステップと、
奥行距離が不連続となる位置が前記対象物のエッジの位置に合致するように、前記検出されたエッジに基づいて前記マップを修正するステップと、
を有することを特徴とする画像処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/035512 WO2021048917A1 (ja) | 2019-09-10 | 2019-09-10 | 画像処理装置、3次元計測システム、画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021048917A1 JPWO2021048917A1 (ja) | 2021-03-18 |
JP7184203B2 true JP7184203B2 (ja) | 2022-12-06 |
Family
ID=74866262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021545002A Active JP7184203B2 (ja) | 2019-09-10 | 2019-09-10 | 画像処理装置、3次元計測システム、画像処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US12125226B2 (ja) |
EP (1) | EP4009274A4 (ja) |
JP (1) | JP7184203B2 (ja) |
CN (1) | CN114341940A (ja) |
WO (1) | WO2021048917A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7298562B2 (ja) * | 2020-07-20 | 2023-06-27 | トヨタ自動車株式会社 | 車両の周辺検知装置 |
US20220044192A1 (en) * | 2020-08-04 | 2022-02-10 | Transportation | Warehouse Optimization SaaS LLC | Managing automated guidance and validation of stacking items to handling units |
US11979661B1 (en) * | 2022-11-07 | 2024-05-07 | Himax Technologies Limited | Method for performing light shaping with aid of adaptive projector, and associated apparatus |
CN117437288B (zh) * | 2023-12-19 | 2024-05-03 | 先临三维科技股份有限公司 | 摄影测量方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015035658A (ja) | 2013-08-07 | 2015-02-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、および撮像装置 |
JP2019502295A (ja) | 2015-11-09 | 2019-01-24 | ヴァーシテック・リミテッドVersitech Limited | アーチファクトを意識したビュー合成のための補助データ |
JP2019138822A (ja) | 2018-02-14 | 2019-08-22 | オムロン株式会社 | 3次元計測システム及び3次元計測方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2618102A2 (en) * | 2006-11-21 | 2013-07-24 | Mantisvision Ltd. | 3d geometric modeling and 3d video content creation |
EP2168096A1 (en) * | 2007-07-12 | 2010-03-31 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
JP6234401B2 (ja) * | 2013-03-05 | 2017-11-22 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
US9582888B2 (en) * | 2014-06-19 | 2017-02-28 | Qualcomm Incorporated | Structured light three-dimensional (3D) depth map based on content filtering |
US10424075B2 (en) * | 2015-05-06 | 2019-09-24 | Peking University Shenzhen Graduate School | Depth/disparity map post-processing method and device |
KR102550931B1 (ko) * | 2016-11-29 | 2023-07-04 | 삼성전자주식회사 | 스테레오 매칭 방법 및 장치 |
US20190068853A1 (en) * | 2017-08-22 | 2019-02-28 | Microsoft Technology Licensing, Llc | Structured light and flood fill light illuminator |
JP6970376B2 (ja) * | 2017-12-01 | 2021-11-24 | オムロン株式会社 | 画像処理システム、及び画像処理方法 |
-
2019
- 2019-09-10 CN CN201980099847.0A patent/CN114341940A/zh active Pending
- 2019-09-10 JP JP2021545002A patent/JP7184203B2/ja active Active
- 2019-09-10 EP EP19944896.0A patent/EP4009274A4/en active Pending
- 2019-09-10 US US17/638,536 patent/US12125226B2/en active Active
- 2019-09-10 WO PCT/JP2019/035512 patent/WO2021048917A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015035658A (ja) | 2013-08-07 | 2015-02-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、および撮像装置 |
JP2019502295A (ja) | 2015-11-09 | 2019-01-24 | ヴァーシテック・リミテッドVersitech Limited | アーチファクトを意識したビュー合成のための補助データ |
JP2019138822A (ja) | 2018-02-14 | 2019-08-22 | オムロン株式会社 | 3次元計測システム及び3次元計測方法 |
Also Published As
Publication number | Publication date |
---|---|
EP4009274A4 (en) | 2023-08-02 |
CN114341940A (zh) | 2022-04-12 |
EP4009274A1 (en) | 2022-06-08 |
US12125226B2 (en) | 2024-10-22 |
US20220292703A1 (en) | 2022-09-15 |
WO2021048917A1 (ja) | 2021-03-18 |
JPWO2021048917A1 (ja) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7184203B2 (ja) | 画像処理装置、3次元計測システム、画像処理方法 | |
US9392262B2 (en) | System and method for 3D reconstruction using multiple multi-channel cameras | |
CN103824318B (zh) | 一种多摄像头阵列的深度感知方法 | |
US8836766B1 (en) | Method and system for alignment of a pattern on a spatial coded slide image | |
KR101892168B1 (ko) | 반사도 맵 표현을 이용한 깊이 맵 표현의 증강 | |
JP7078173B2 (ja) | 画像処理装置及び3次元計測システム | |
CN111971525B (zh) | 用立体镜测量物体的方法和系统 | |
WO2012096747A1 (en) | Forming range maps using periodic illumination patterns | |
Martel et al. | An active approach to solving the stereo matching problem using event-based sensors | |
JP7168077B2 (ja) | 3次元計測システム及び3次元計測方法 | |
CN104335005A (zh) | 3d扫描以及定位系统 | |
KR20120058828A (ko) | 3차원 좌표 추출 시스템 및 그 방법 | |
KR20230065978A (ko) | 구조화된 광을 사용하여 장면에서 평면 표면들을 직접 복구하기 위한 시스템, 방법 및 매체 | |
CN108592886B (zh) | 图像采集设备和图像采集方法 | |
JP7078172B2 (ja) | 画像処理装置及び3次元計測システム | |
KR20120045269A (ko) | 3d 메쉬 모델링 및 에볼루션에 기반한 홀로그램 생성 방법 및 장치 | |
Harvent et al. | Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system | |
JP4337203B2 (ja) | 距離画像生成装置および距離画像生成方法、並びにプログラム提供媒体 | |
CN111373222A (zh) | 光投射系统 | |
JP2021018219A (ja) | 3次元形状計測システム、3次元形状計測方法、及び3次元形状計測プログラム | |
US11425353B1 (en) | Disparity interpolation refinement for stereo vision | |
TW202034024A (zh) | 結構光校正系統 | |
Nishihara et al. | Multiple active stereo systems calibration method based on Neural SDF using DSSS for wide area 3D reconstruction | |
Li et al. | The Research of Depth Perception Method Based on Sparse Random Grid | |
JP2022083132A (ja) | 3次元形状計測システム、3次元形状計測方法、及び3次元形状計測プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7184203 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |