JP5336325B2 - Image processing method - Google Patents
Image processing method Download PDFInfo
- Publication number
- JP5336325B2 JP5336325B2 JP2009250092A JP2009250092A JP5336325B2 JP 5336325 B2 JP5336325 B2 JP 5336325B2 JP 2009250092 A JP2009250092 A JP 2009250092A JP 2009250092 A JP2009250092 A JP 2009250092A JP 5336325 B2 JP5336325 B2 JP 5336325B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image data
- dimensional
- value
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、対象物の2次元画像からステレオ相関法で3次元形状データを生成する画像処理方法に関する。そして本発明は、物品検査、ロボットの視覚、個人認証、監視カメラ、衛星画像解析、医療画像解析、顕微鏡画像解析などに利用できる。 The present invention relates to an image processing method for generating three-dimensional shape data from a two-dimensional image of an object by a stereo correlation method. The present invention can be used for article inspection, robot vision, personal authentication, surveillance camera, satellite image analysis, medical image analysis, microscope image analysis, and the like.
3次元物体の対象物に対して、非接触でその3次元距離データを計測する場合、例えば特開平2−29878号公報(特許文献1)に示されているように、光軸及び座標系(撮像面)が平行な2台のカメラを使用することが提案されている。これは、その2台のカメラで同一対象物を撮像し、各撮像画像の同一領域を構成する画素についてそれぞれ対応付けを行い、その結果から視差を抽出することにより対象物までの距離を演算するようにしたものである。 When measuring the three-dimensional distance data of a three-dimensional object in a non-contact manner, for example, as disclosed in JP-A-2-29878 (Patent Document 1), an optical axis and a coordinate system ( It has been proposed to use two cameras whose imaging surfaces are parallel. This is to calculate the distance to the object by capturing the same object with the two cameras, associating the pixels constituting the same area of each captured image, and extracting the parallax from the result. It is what I did.
一方、対象物の3次元形状データを生成する方法として、ステレオ相関法がしばしば用いられる。ステレオ相関法では、複数台のカメラを備えた撮像装置によって対象物を撮影し、視点の異なる複数の2次元画像を得る。それら複数の2次元画像について、相関法または勾配法などを用いて対応点を探索する。探索結果を合成し、3次元再構成を行って3次元形状データを生成する。 On the other hand, a stereo correlation method is often used as a method for generating three-dimensional shape data of an object. In the stereo correlation method, an object is photographed by an imaging device having a plurality of cameras, and a plurality of two-dimensional images having different viewpoints are obtained. Corresponding points are searched for the plurality of two-dimensional images using a correlation method or a gradient method. The search results are combined and three-dimensional reconstruction is performed to generate three-dimensional shape data.
更に詳しく、ステレオ相関法は、輝度画像から物体の形状を計測する簡便な3次元計測手法である。基本的な原理は、2台のカメラから対象物体上の同一点を探し、画像中の2次元座標から各カメラからの方向ベクトルを得て三角測量の原理で3次元座標を計算する。計算に用いるカメラの位置と画像中の2次元位置から方向ベクトルに変換する変換式および式のパラメータは、あらかじめキャリブレーションを行って計測しておく。 More specifically, the stereo correlation method is a simple three-dimensional measurement method for measuring the shape of an object from a luminance image. The basic principle is to find the same point on the target object from two cameras, obtain the direction vector from each camera from the two-dimensional coordinates in the image, and calculate the three-dimensional coordinates by the principle of triangulation. The conversion formula for converting the position of the camera used for the calculation and the two-dimensional position in the image into a direction vector and the parameters of the formula are measured by performing calibration in advance.
ステレオ相関法においては、第一のカメラ画像の各画素内に一点を選び、その周囲に近傍の微小領域(以下近傍領域という)のウィンドウを設ける。多くの場合、近傍領域は注目点を中心とする矩形である。次に、第二のカメラにおいても同様に対応点の候補となる点の周辺に同じ形状のウィンドウを設ける。これらのウィンドウ間で輝度分布の類似度を計算する。類似度の評価方法にはさまざまな方法がある。一例として、SAD(Sum of Absolute Difference)と呼ばれる方法では相対的位置が等しい画素同士の輝度の差の絶対値のウィンドウ全体における総和を計算する。この場合、計算結果が小さいものほど類似度は高くなる。対応点が決定すれば,2台のカメラからそれぞれの画像上の点への方向ベクトルが決まり、対象物体上の点の3次元座標値が計算できる。 In the stereo correlation method, one point is selected in each pixel of the first camera image, and a window of a nearby minute region (hereinafter referred to as a nearby region) is provided around the selected point. In many cases, the neighboring region is a rectangle centered on the point of interest. Next, in the second camera, similarly, a window having the same shape is provided around a point that is a candidate for a corresponding point. The similarity of the luminance distribution is calculated between these windows. There are various methods for evaluating similarity. As an example, in a method called SAD (Sum of Absolute Difference), the sum of the absolute values of luminance differences between pixels having the same relative position is calculated over the entire window. In this case, the smaller the calculation result, the higher the similarity. When the corresponding points are determined, the direction vectors from the two cameras to the points on the respective images are determined, and the three-dimensional coordinate values of the points on the target object can be calculated.
ここで対象物が立体的でその側面画像は、異なるカメラで撮像された異なる2次元画像中の対象物体上の同一点に観測されることは稀で、一般に異なる位置に現れたり、片方の画像にしか存在しなかったりする。即ち、一方のカメラから見えており撮像される領域が視線の異なる他方のカメラから見えず撮像されない領域が存在する。以後、この領域をオクルージョン領域(Occulusion)と称す。この結果,誤って対応付けられた点から計算された三次元座標値は、正しい値を持たない。 Here, the object is three-dimensional and its side image is rarely observed at the same point on the target object in different two-dimensional images captured by different cameras, and generally appears at a different position or one of the images. It only exists in In other words, there is a region that is visible from one camera and is not imaged because the imaged region is not visible from the other camera with a different line of sight. Hereinafter, this area is referred to as an occlusion area. As a result, the three-dimensional coordinate value calculated from the points that are incorrectly associated does not have a correct value.
そのため、対応点の探索が困難であり、生成された3次元形状データが不正確となる。よって、対応点はカメラに向いた対象物の正面の平面領域内から選ぶのが好ましい。従って、対象物に対して、ステレオ相関法を正しく行うためには、カメラに向かって対象物画像に現れる側面領域を含むオクルージョン領域を検出し、さらに可能であれば正面の平面領域を判定する必要がある。そして、既存の対象物の正面の領域を判定する方法は、対象物のエッジを検出する方法(特許文献2)などがある。 Therefore, it is difficult to search for corresponding points, and the generated three-dimensional shape data becomes inaccurate. Therefore, it is preferable to select the corresponding point from the plane area in front of the object facing the camera. Therefore, in order to correctly perform a stereo correlation method on an object, it is necessary to detect an occlusion area including a side area appearing in the object image toward the camera, and to determine a front plane area if possible. There is. And the method (patent document 2) etc. which detect the area | region of the front of the existing target object include the edge of a target object.
しかし、上に述べた従来の方法によってもオクルージョン領域の判定をより精度良く行うことは出来ない。対象物が不特定形状で乱雑に配置されているような場合や、乱雑に積層されているような場合は、エッジ検出だけでカメラに向かって正面の平面領域は特定出来ない。例えば、カメラからの視野に積層された上部の対象物の平面に連続して下部の対象物の側面が見えることもあれば、右側の対象物の側面に連続して左側の対象物の平面が見えることもある。そのため、やはり対応点の探索が正確に行われない部分が生じ、正確な3次元形状データを生成することが困難である。 However, the conventional method described above cannot determine the occlusion area with higher accuracy. When the object is randomly arranged in an unspecified shape or is randomly stacked, the plane area in front of the camera cannot be specified only by edge detection. For example, the side surface of the lower object may be visible continuously from the plane of the upper object stacked in the field of view from the camera, or the plane of the left object may be continuous from the side of the right object. Sometimes it can be seen. For this reason, there is a portion where the corresponding point search is not accurately performed, and it is difficult to generate accurate three-dimensional shape data.
本発明は、ステレオ相関法を用いて物体の3次元形状を計測する際に問題となる画像中に観測されるオクルージョン領域成分の判定を行うことを目的とする。 An object of the present invention is to determine an occlusion region component observed in an image that becomes a problem when measuring a three-dimensional shape of an object using a stereo correlation method.
本発明は上記課題を解決するために、光を照射する照射手段で対象物を照明し、少なくとも1つの撮像手段によって撮像した第一2次元画像データを得る第一撮像工程と、第一撮像工程と同一の撮像手段によって同一の対象物を異なる照明位置から照射手段で照明して撮像した第二2次元画像データを得る第二撮像工程と、第一2次元画像データと第二2次元画像データとから反射光量による輝度値の変動領域を判定する抽出工程と、前記撮像手段を含む複数の撮像手段で対象物を異なる視点から撮像して得た複数の2次元画像データから3次元形状データを生成する時に、前記抽出工程で変動領域を判定した前記撮像手段による2次元画像データにおいて変動領域以外の画像から3次元形状データを生成する生成工程と、を具備するようにしたものである。 In order to solve the above-described problems, the present invention provides a first imaging step of illuminating an object with an irradiation unit that emits light and obtaining first two-dimensional image data captured by at least one imaging unit, and a first imaging step A second imaging step of obtaining second 2D image data obtained by illuminating the same object from different illumination positions with an illuminating unit by the same imaging unit, and first 2D image data and second 2D image data 3D shape data from a plurality of two-dimensional image data obtained by imaging a target object from different viewpoints by a plurality of imaging units including the imaging unit A generation step of generating three-dimensional shape data from an image other than the fluctuation region in the two-dimensional image data by the imaging means that has determined the fluctuation region in the extraction step when generating. Those were.
また本発明の請求項1記載の画像処理方法において、前記抽出工程は第一2次元画像データと第二2次元画像データとから反射光量による輝度値の差分データを生成し、この差分データの平均値を基準に設定した閾値以上の輝度を示す画像データを対象物の画像データの変動領域と判定するようにしたものである。
Further, in the image processing method according to
また本発明の請求項2記載の画像処理方法において、前記閾値は差分データの平均値から標準偏差の値を離した値であるようにしたものである。
Further, in the image processing method according to
また本発明の請求項1記載の画像処理方法において、前記第一撮像工程と前記第二撮像工程は照射手段による照明位置の対象物からの角度が異なるようにしたものである。
In the image processing method according to
本発明は上記課題を解決するために、第一撮像手段のオクルージョン領域成分を判定する第一抽出工程と、第二撮像手段のオクルージョン領域成分を判定する第二抽出工程と、前記第一撮像手段と第二撮像手段によって対象物を撮像して得た2次元画像データから3次元形状データを生成する時に、前記第一抽出工程と第二抽出工程で判定したオルクージョン領域成分を除外して画像処理する3次元形状データを生成する生成工程と、を具備し、前記第一と第二抽出工程は、第一撮像手段が照射手段による照明位置の対象物からの角度が異なる第一撮像工程と第二撮像工程と、を備え、前記第一撮像工程と第二撮像工程にて得た第一と第二2次元画像データからオクルージョン領域を判定するようにしたものである。 In order to solve the above problems, the present invention provides a first extraction step for determining an occlusion region component of the first imaging means, a second extraction step for determining an occlusion region component of the second imaging means, and the first imaging means. When the three-dimensional shape data is generated from the two-dimensional image data obtained by imaging the object by the second imaging means, image processing is performed by excluding the occlusion region component determined in the first extraction step and the second extraction step. Generating the three-dimensional shape data , wherein the first and second extraction steps are different from the first imaging step and the first imaging step in which the first imaging means is different in angle from the object of the illumination position by the irradiation means. And an occlusion region is determined from the first and second two-dimensional image data obtained in the first imaging step and the second imaging step .
また本発明の請求項5記載の画像処理方法において、前記第一と第二抽出工程は第一と第二2次元画像データとから反射光量による輝度値の差分データを生成し、この差分デー
タの平均値を基準に設定した閾値以上の輝度を示す画像データを対象物の画像データの変
動領域と判定するようにしたものである。
Further, in the image processing method according to claim 5 of the present invention, the first and second extraction steps generate difference data of luminance values based on the amount of reflected light from the first and second two-dimensional image data. The image data indicating the luminance equal to or higher than the threshold value set based on the average value is determined as the fluctuation region of the image data of the target object.
また本発明の請求項6記載の画像処理方法において、前記閾値は差分データの平均値から標準偏差の値を離した値であるようにしたものである。 In the image processing method according to claim 6 of the present invention, the threshold value is a value obtained by separating a standard deviation value from an average value of difference data.
本発明の請求項1に係る画像処理方法によれば、画像データ中の変動領域分が簡単に判定される。その結果、正確な3次元形状データを生成することができる。 According to the image processing method of the first aspect of the present invention, the fluctuation region in the image data is easily determined. As a result, accurate three-dimensional shape data can be generated.
また本発明の請求項2に係る画像処理方法によれば、2次元画像データ中の変動領域を高い精度で特定することができる効果を奏する。 In addition, according to the image processing method of the present invention, it is possible to specify the fluctuation region in the two-dimensional image data with high accuracy.
また本発明の請求項3に係る画像処理方法によれば、第一撮像工程と第二撮像工程にて得られた2次元画像データによる変動領域をより高い精度で特定することができる効果を奏する。 According to the image processing method according to claim 3 of the present invention, an effect that may be specific with high accuracy variation region by the two-dimensional image data obtained by the first imaging step and a second imaging step Play.
また本発明の請求項4に係る画像処理方法によれば、第一撮像工程と第二撮像工程にて2次元画像データの変動領域をより高い精度で特定することができる効果を奏する。 In addition, according to the image processing method of the present invention, it is possible to specify the fluctuation region of the two-dimensional image data with higher accuracy in the first imaging step and the second imaging step.
また本発明の請求項5に係る画像処理方法によれば、2次元画像データのオクルージョン領域成分を除外して画像処理することで正確な3次元形状データを生成することができる。また、第一撮像工程と第二撮像工程にて2次元画像データのオクルージョン領域成分をより高い精度で特定することができる効果を奏する。 According to the image processing method of the fifth aspect of the present invention, accurate three-dimensional shape data can be generated by performing image processing while excluding the occlusion region component of the two-dimensional image data. In addition, there is an effect that the occlusion region component of the two-dimensional image data can be specified with higher accuracy in the first imaging step and the second imaging step.
また本発明の請求項6に係る画像処理方法によれば、2次元画像データ中のオクルージョン領域成分を高い精度で特定することができる効果を奏する。 Further, according to the image processing method of the sixth aspect of the present invention, there is an effect that the occlusion region component in the two-dimensional image data can be specified with high accuracy.
また本発明の請求項7に係る画像処理方法によれば、第一抽出工程と第二抽出工程にて得られた2次元画像データによるオクルージョン領域成分をより高い精度で特定することができる。 Further, according to the image processing method of the seventh aspect of the present invention, the occlusion region component based on the two-dimensional image data obtained in the first extraction step and the second extraction step can be specified with higher accuracy.
以下、本発明の実施例を図1乃至図3に基づいて説明する。 Embodiments of the present invention will be described below with reference to FIGS.
図1は本発明に係る第1の実施形態の3次元形状生成装置1の機能的な構成を示すブロック図、図2は撮像装置および照明装置の配置の例を示す図である。
FIG. 1 is a block diagram illustrating a functional configuration of a three-dimensional
本発明では、2台のカメラで同時に例えば床面に置かれた立体形状の対象物Qを撮像し、1対のステレオ視対を用意し、そのステレオ視対で距離を計算する。まず個々のステレオ視の画像についてオクルージョン領域が存在している変動領域を抽出し、ついでステレオ視対において3次元形状画像データを生成する。 In the present invention, for example, a three-dimensional object Q placed on the floor surface is simultaneously imaged by two cameras, a pair of stereo vision pairs is prepared, and a distance is calculated using the stereo vision pair. First, a fluctuation region where an occlusion region exists is extracted from each stereo vision image, and then three-dimensional shape image data is generated in a stereo vision pair.
これらの図において、3次元形状生成装置1は、撮像装置M1、照明装置F1,F2、および処理装置10からなる。撮像装置M1は、2台のカメラC1,C2を一体的に備える。これらのカメラC1,C2は、光学系を介して結像する対象物Qの2次元画像を撮像(撮影)するCCDやCMOSなどを有する公知のデジタルカメラである。2つのカメラC1,C2は、床面に置かれた対象物Qに対して互いに視点が異なるように配置され、互いに視差のある2次元画像データFDを取得する。
In these drawings, the three-dimensional
2台のカメラC1,C2の配置に関して、図2を参照して詳述する。カメラC1とC2は互いに所定の距離(視間)を離れて配置され、対象部Qに向かって傾斜される。よって、カメラC1とC2は互いに異なる方向に傾斜している。この配置によるとカメラC1の投影中心から見て対象物Qの側面Q1と平面Q2は撮像領域となり、側面Q3はカメラC1からは見えないオクルージョン領域となる。一方、カメラC2の投影中心から見て対象物Qの側面Q3と平面Q2は撮像領域となり、側面Q1はカメラC2からは見えないオクルージョン領域となる。即ち、カメラC1とカメラC2の両方の撮像領域に入るのは平面Q2となる。ここで、カメラC1とカメラC2の視間が広くなるとそれぞれのカメラC1とC2との傾斜角度が床面と平行に近づくため、カメラC1とカメラC2との間で平面Q2の撮像画像が小さくなり、オルクージョン領域が広くなるので対応点の設定が限られてしまう。そのため、平面Q2が適宜の大きさに撮像される視間が設定される。
The arrangement of the two cameras C1 and C2 will be described in detail with reference to FIG. The cameras C1 and C2 are arranged at a predetermined distance (between eyes) and are inclined toward the target portion Q. Therefore, the cameras C1 and C2 are inclined in different directions. According to this arrangement aspect Q1 and the plane Q2 of the object Q as viewed projected in heart or al of the camera C1 becomes the imaging area, sides Q3 becomes occlusion area which are transparent to the camera C1. On the other hand, as viewed projected in heart or al of the camera C2 side Q3 and the plane Q2 of the object Q becomes the imaging area, sides Q1 becomes occlusion area which are transparent to the camera C2. That is, the plane Q2 enters both the imaging areas of the cameras C1 and C2. Here, when the distance between the cameras C1 and C2 is widened, the inclination angles of the cameras C1 and C2 approach the parallel to the floor surface, so the captured image of the plane Q2 between the camera C1 and the camera C2 becomes small. Since the orchestration area becomes wide, the setting of corresponding points is limited. Therefore, it while viewing the
カメラC1,C2により取得された視差を有する2つの2次元画像データFD1、FD2に基づいて、処理装置10において、ステレオ相関法によって3次元形状画像データDTが生成される。なお、3つ以上のカメラCを用い、それらから得られる2つの2次元画像データFDに基づいて3次元形状画像データDTを生成し、他の1つの2次元画像データFDを各点の信頼性データの取得に用いることも可能である。このようにすると、データの欠落部分の評価が容易である。
Based on the two two-dimensional image data FD1 and FD2 having parallax acquired by the cameras C1 and C2, the
照明装置F1,F2は、対象物Qに照明光を照射するもので、本発明の照射手段に相当する。本実施例において、対象物Qの撮像が室内で行なわれるため、撮像における適正露出が得られる撮像環境を得るために撮像装置M1による撮像時に光を照射するものである。なお、この照明装置F1,F2による光量は撮像環境によって変わるもので、対象物Qの撮像が室外で行なわれるときには、天候にもよるが自然光による光量が多い環境では適正露出を得るのに照明装置F1,F2による光量は少なくとも良い。 The illuminating devices F1 and F2 irradiate the object Q with illumination light and correspond to the irradiating means of the present invention. In this embodiment, since the object Q is imaged indoors, light is emitted during imaging by the imaging device M1 in order to obtain an imaging environment in which appropriate exposure in imaging is obtained. Incidentally, the amount of light by the lighting device F1, F2 intended to vary imaging environment, when the imaging of the object Q is carried out in outdoors, though depending on the weather obtain proper exposure in an environment light intensity due to natural light is large irradiation The light quantity by the bright devices F1 and F2 is at least good.
次に、各照明装置F1,F2は、対象物Qに対して互いに異なる角度で照明光を照射する。照明装置F1,F2は撮像装置M1を挟んで左右に配置され、撮像装置M1に対向配置された対象物Qに向かうように互いに逆向きに傾斜される。これら照明装置F1,F2は、撮像装置M1による撮影に際して、1回目は照明装置F1により、2回目は照明装置F2によりそれぞれ照明が行なわれる動作と、両方を同時に点灯する動作が可能である。これら、撮像装置M1および照明装置F1,F2の動作は、処理装置10によって制御される。
Next, each illuminating device F1, F2 irradiates illumination light with respect to the target object Q at mutually different angles. The illuminating devices F1 and F2 are arranged on the left and right sides with the imaging device M1 interposed therebetween, and are inclined in opposite directions so as to face the object Q arranged to face the imaging device M1. These illuminating devices F1 and F2 can perform an operation in which illumination is performed by the illuminating device F1 for the first time and by the illuminating device F2 for the second time, and an operation for simultaneously lighting both. The operations of the imaging device M1 and the illumination devices F1 and F2 are controlled by the
撮像装置M1で得られる2次元画像データFDにおいて、オルクージョン領域があった場合、いずれの照明装置F1,F2がオンしているかによって照明光が照射されるオクルージョン領域の位置が異なる。図2に示すように、照明装置F1によって照明される時、対象物Qの側面Q1と平面Q2は照明されるが、側面Q3は照明されず影となる。一方、照明装置F2によって照明される時、対象物Qの側面Q3と平面Q2は照明されるが、側面Q1は照明されず影となる。よって、照明装置F1とF2の点灯状態によってオクルージョン領域は照明状態が変動するが、共通撮像領域は照明状態の変動が小さくなる。 In the two-dimensional image data FD obtained by the imaging device M1, when there is an occlusion region, the position of the occlusion region to which the illumination light is irradiated differs depending on which illumination device F1, F2 is on. As shown in FIG. 2, when illuminated by the illumination device F1, the side surface Q1 and the plane Q2 of the object Q are illuminated, but the side surface Q3 is not illuminated and becomes a shadow. On the other hand, when illuminated by the illumination device F2, the side surface Q3 and the plane Q2 of the object Q are illuminated, but the side surface Q1 is not illuminated and becomes a shadow. Therefore, the illumination state of the occlusion area varies depending on the lighting state of the illumination devices F1 and F2, but the variation of the illumination state is small in the common imaging area.
処理装置10は、制御部11、記憶部12、変動領域判定部13、および3次元形状画像生成部15などを有する。制御部11には、撮像制御部21および照明制御部22が設けられる。撮像制御部21は、撮像装置M1を制御する。例えば、撮像装置M1のシャッタを制御し、露出タイミング、露出時間などを制御する。照明制御部22は、各照明装置F1,F2を制御する。例えば、撮像装置M1による撮影に際して、照明装置F1,F2を順次オンするように切り換える。
The
その他、制御部11は処理装置10の全体を制御する。記憶部12は、撮像装置M1から出力される複数組みの2次元画像データFD、その他のデータおよびプログラムを記憶する。また、制御部11からの指令によって、記憶した2次元画像データFDを変動領域判定部13に出力する。
In addition, the
変動領域判定部13は、2次元画像データFD1、FD2の中からオクルージョン成分領域を検出する。その方法として次の方法がある。画像データ中の1画素ごとの輝度値を基準に所定の閾値との比較でもって画素または領域をオクルージョン成分領域として抽出する。具体的には、撮像装置M1の一方のカメラC1で撮像される対象物Qに含まれるオクルージョン領域とカメラC2により撮像されるオクルージョン領域は異なる。また、それぞれのカメラC1,C2による撮像領域において照明装置F1,F2により光照射領域も異なる。この場合、撮像装置M1に対向する対象物Qの正面の平面Q2領域はほぼ均等に照明されることとなるが、略垂直面の側面Q1、Q3であるオルクージョン領域は、カメラC1に撮像される側面Q1は照明装置F1に照明されるが照明装置F2によっては照明されない位置関係となる。一方、カメラC2に撮像される側面Q3は照明装置F2に照明されるが照明装置F1によっては照明されない位置関係となる。即ち、一方のカメラC1で撮像する際に照明装置F1のみを用いた画像と照明装置F2のみを用いた画像では側面Q1とQ3で大きくその明るさが変動する。これはカメラC2でも同様である。そこでこの変動の大きな領域を抽出することで対象物Qのオルクージョン領域成分と判定する。
The fluctuation
更に具体的には、一方のカメラC1で使用する照明装置F1とF2を異ならせた2つの画像を撮像する。通常のカメラにおいては撮像素子に入射する光量を積算し、その値をA/D変換によって整数値に変換し画像フォーマットの形式で保持するが、A/D変換あるいは画像フォーマットの制限により、この際に画素で表現可能な輝度の最大値が存在する。たとえば輝度を8bitで表現する画像フォーマットであれば、最大値は255となり最小値は0となる。したがって、そのようなカメラの使用においては、2つの画像における輝度値の差分画像を得ることで、その差分値が大きい値ほど2つの画像で明るさがことなる点、即ちオクルージョン領域と判定できる。詳細は後述するが本実施例では、差分画像において、全輝度値の平均値から全輝度値の標準偏差を減算した値を閾値として、オクルージョン領域成分の有無を設定する。 More specifically, two images with different illumination devices F1 and F2 used in one camera C1 are taken. In a normal camera, the amount of light incident on the image sensor is integrated, and the value is converted into an integer value by A / D conversion and held in the form of an image format. There is a maximum luminance value that can be expressed by pixels. For example, in the case of an image format that expresses luminance in 8 bits, the maximum value is 255 and the minimum value is 0. Therefore, when using such a camera, by obtaining a difference image of luminance values between the two images, it can be determined that the brightness of the two images differs as the difference value increases, that is, an occlusion region. Although details will be described later, in the present embodiment, in the difference image, the presence / absence of an occlusion region component is set using a value obtained by subtracting the standard deviation of all luminance values from the average value of all luminance values as a threshold value.
このような変動領域判定部13によって、2次元画像データFD1、FD2の中のオクルージョン領域成分を自動的に検出することが可能である。なお、2次元画像データFD1におけるオクルージョン領域成分の位置と、2次元画像データFD2におけるオクルージョン領域成分の位置とは異なる。照明装置F1,F2とカメラC1、C2との位置が異なるためである。
Such a fluctuation
3次元形状画像生成部15は、2次元画像データFD1、FD2に基づいて、3次元形状画像データDTを生成する。また、複数の3次元形状画像データDTを統合して1つの3次元形状画像データDTとする。3次元形状画像生成部13のこのような機能は、従来から公知である。この3次元形状画像データDTを生成する基となる2次元画像データFD1、FD2の対応点は変動領域判定部13にて検出された情報を元にオクルージョン領域成分以外の画像から探索される。
The three-dimensional shape
このような処理装置10は、CPU、RAM、ROM、磁気ディスク装置、光磁気ディスク装置、媒体ドライブ装置、入力装置、ディスプレイ装置、および適当なインタフェースなどを用い、CPUがプログラムを実行することによって実現することができる。パーソナルコンピュータなどを用いて構成することも可能である。そのようなプログラムは、適当な記録媒体によって供給することが可能であり、また、ネットワークを介して他のサーバからダウンロードすることも可能である。
Such a
次に、3次元形状生成装置1の動作の流れを、タイムチャートを参照して説明する。図3は3次元形状生成装置1の処理工程を示すタイムチャートである。横軸は時間(t)、縦軸には対応する構成のONとOFFを示す。3次元形状生成装置1で対象物Qの3次元形状画像データDTを作成したい場合、操作者は3次元形状生成装置1の図示しない動作スイッチをオンする。そのオンに続いて、3次元形状生成装置1は制御部11によって自動的に以下の動作を行なう。
Next, an operation flow of the three-dimensional
図3において、照明装置F1、F2の両方を消灯して撮像装置M1による1回目の撮像を行う。この時、照明装置F1、F2による照明光量が無いので、対象物Qを室内において外来光のみで撮像される。ここで撮像装置M1による撮影時間は以後の処理工程と同じでよく、特に変更する必要はない。 In FIG. 3, both of the illumination devices F1 and F2 are turned off, and the first imaging by the imaging device M1 is performed. At this time, since there is no illumination light quantity by the illuminating devices F1 and F2, the object Q is imaged with only extraneous light indoors. Here, the imaging time by the imaging device M1 may be the same as the subsequent processing steps, and does not need to be changed.
カメラC1、C2を介して得られた2つの2次元画像データFD11、FD21を、記憶部12の所定のメモリ領域に記憶し、後述する変動領域の抽出工程において用いられる2次元画像データにおいて外来光の影響を無くす処理が実行される時に利用される(工程S1)。即ち、照明装置F1、F2による照明光量が無いので2次元画像データFD11、FD21の輝度値は外来光のみによるものなるので、照明装置F1、F2による照明光量がある場合は、その外来光の輝度値を引き算することで、仮に外来光にムラがあった場合に、そのムラの影響を少なくすることが出来る。ただし、このプレ撮像工程は外来光が均一な環境であれば無くても良い。
Two pieces of two-dimensional image data FD11 and FD21 obtained via the cameras C1 and C2 are stored in a predetermined memory area of the
次に、照明装置F1をON、照明装置F2をOFFにして撮像装置M1による2回目の撮像を行う。この時、照明装置F1による初期露光時間T1と初期照明光量は、対象物Qを室内において撮像装置M1で撮影する際の通常の撮像条件が設定される。即ち、一般的にカメラは対象物を撮影するのに適正露出となるよう公知の自動露出機能を有している。本発明では、撮影装置M1に自動露出により適正露出が設定されることで、初期露光時間T1と初期照射光量が設定される。カメラC1、C2を介して得られた2つの2次元画像データFD12、FD22を、記憶部12の所定のメモリ領域に記憶される。これは本発明の第一撮像工程に相当する(工程S2)。
Next, the illumination device F1 is turned on and the illumination device F2 is turned off, and the second imaging by the imaging device M1 is performed. At this time, the normal exposure conditions for photographing the object Q indoors with the imaging device M1 are set for the initial exposure time T1 and the initial illumination light quantity by the illumination device F1. That is, generally, a camera has a known automatic exposure function so as to obtain an appropriate exposure for photographing an object. In the present invention, the initial exposure time T1 and the initial irradiation light quantity are set by setting appropriate exposure to the photographing apparatus M1 by automatic exposure. Two two-dimensional image data FD12 and FD22 obtained via the cameras C1 and C2 are stored in a predetermined memory area of the
次に、照明装置F1をOFF、照明装置F2をONにして撮像装置M1による3回目の撮像を行う。この時、照明装置F1による初期露光時間T1と初期照明光量は、工程S2と同じく対象物Qを室内において撮像装置M1で撮影する際の通常の撮像条件が設定される。そして、カメラC1、C2を介して得られた2つの2次元画像データFD13、FD23を、記憶部12の所定のメモリ領域に記憶される。これは本発明の第二撮像工程に相当する(工程S3)。
Next, the illumination device F1 is turned off and the illumination device F2 is turned on to perform the third imaging by the imaging device M1. At this time, as for the initial exposure time T1 and the initial illumination light amount by the illuminating device F1, normal imaging conditions when the object Q is imaged indoors by the imaging device M1 are set as in step S2. Then, the two two-dimensional image data FD13 and FD23 obtained through the cameras C1 and C2 are stored in a predetermined memory area of the
カメラC1、C2を介して得られた4つの2次元画像データFD12、FD13、FD22、FD23を用いて、それぞれの画像に対して変動領域判定部13によって分析される。
Using the four two-dimensional image data FD12, FD13, FD22, and FD23 obtained through the cameras C1 and C2, each image is analyzed by the fluctuation
次に、変動領域の判定に関して説明する。判定処理は、4つの2次元画像データから同一のカメラによって撮像され照明装置が異なる2つの画像データを用いて行われる。ここでは、まずカメラC1によって撮像された2次元画像データFD12とFD13を用いて判定を行う。 Next, determination of the fluctuation region will be described. The determination process is performed using two pieces of image data captured by the same camera from four pieces of two-dimensional image data and having different illumination devices. Here, a determination is first made using the two-dimensional image data FD12 and FD13 captured by the camera C1.
2次元画像データFD12とFD13の全画素における256階調で表した輝度値の差分データを求める。1画素ごとの階調値の差分を計算することで、2次元画像データFD12とFD13との間で照射光の照射される領域の状態が大きく異なる領域ほど差分値が「0(ゼロ)」から離れる。即ち、カメラC1での撮影領域において対象物Qの側面Q1は照明装置F1で照射された2次元画像データFD12ではその輝度値が「0」に近くなる。一方、同じ側面Q1は照明装置F2で照射された2次元画像データFD13ではその輝度値が「255」に近くなる。そのため、差分値は「0」よりも負側のマイナスの値を示す。逆の場合は、差分値は「0」よりも正側のプラスの値を示す。即ち、2次元画像データFD12とFD13との間で照射光の照射される領域が異ならない領域ほど、即ち平面Q2は画素の輝度値が等しくなるので差分値が「0(ゼロ)」に近づく。 Difference data of luminance values represented by 256 gradations in all pixels of the two-dimensional image data FD12 and FD13 is obtained. By calculating the difference in gradation value for each pixel, the difference value from “0 (zero)” becomes larger in the region where the state of the region irradiated with irradiation light is greatly different between the two-dimensional image data FD12 and FD13. Leave. That is, the luminance value of the side surface Q1 of the object Q in the imaging region of the camera C1 is close to “0” in the two-dimensional image data FD12 irradiated by the illumination device F1. On the other hand, the brightness value of the same side surface Q1 is close to “255” in the two-dimensional image data FD13 irradiated by the illumination device F2. Therefore, the difference value indicates a negative value on the negative side of “0”. In the opposite case, the difference value is a positive value on the positive side of “0”. That is, the area where the irradiation light is not different between the two-dimensional image data FD12 and FD13, that is, the difference value approaches “0 (zero)” because the luminance value of the pixel is equal in the plane Q2.
ここで、この差分データから所定の閾値をもってオクルージョン領域成分を判定する。差分データ中においてその値が「0」に近いほど2次元画像データFD12とFD13において対象物Qにおける照明装置F1とF2による照明状態に変動がなかった領域と言える。言い換えるとカメラC1に対向する正面である平面Q2領域が相当する。そのため、逆にマイナスまたはプラスの値が大きいほど、照射状態の変更によって照射光量が変動する側面等の略垂直面を含むオクルージョン領域と考えられる。よって、所定の閾値をオクルージョン領域が示す照射光量の変動に相当する境界値とすることで良好にオクルージョン領域成分を判定することができる。 Here, the occlusion region component is determined from the difference data with a predetermined threshold. In the difference data, the closer the value is to “0”, it can be said that in the two-dimensional image data FD12 and FD13, the illumination state of the object Q by the illumination devices F1 and F2 is not changed. In other words, it corresponds to the plane Q2 region that is the front surface facing the camera C1. Therefore, conversely, the larger the negative or positive value, the more likely it is an occlusion region including a substantially vertical surface such as a side surface in which the amount of irradiation light varies as the irradiation state changes. Therefore, the occlusion region component can be satisfactorily determined by setting the predetermined threshold value as a boundary value corresponding to the fluctuation of the irradiation light amount indicated by the occlusion region.
詳細に説明すると、所定の閾値は、まず差分データの全画像データの平均値と標準偏差を求める。そして、平均値から標準偏差を減算または加算することで、平均値から標準偏差の値を離した値を閾値とする。差分データの全データの標準偏差を求めることで、2次元画像データFD12とFD13における照射光量の変動のバラツキが求められるので、その値を超える照射光量の変動を示すことは、2次元画像データFD12とFD13において光照射が変動しているものと言える。対象物Qのオクルージョン領域は照明装置F1とF2による光照射の状態が異なり大きく輝度値が変動する。よって、差分データにおける値も差分データの平均値から標準偏差の値を超えて離れた値である場合、オクルージョン領域成分と判断する。なお、このカメラC1に対する工程S3が本発明の第一抽出工程に相当する。
More specifically, as the predetermined threshold, first, an average value and a standard deviation of all image data of difference data are obtained. Then, by subtracting or adding the standard deviation from the average value, a value obtained by separating the standard deviation value from the average value is set as a threshold value. By obtaining the standard deviation of all the difference data, variation in the amount of irradiation light in the two-dimensional image data FD12 and FD13 is obtained. Therefore, indicating the variation in the amount of irradiation light exceeding that value is the two-dimensional image data FD12. It can be said that the light irradiation fluctuates in the
次に、2次元画像データFD22とFD23を用いて同様にオクルージョン領域成分の判定が繰り返される。なお、このカメラC2に対する工程S3が本発明の第二抽出工程に相当する。そして、それぞれの画像に対して変動領域判定部13によって分析された結果が制御部11に与えられる。制御部11では、カメラC1,C2による2次元画像領域にオクルージョン領域成分であることを示すフラグを個別に記憶するようにして、両方の画像データにおいて対応点の探索時に利用して3次元形状画像データDTを生成する基とすればよい。なお、これら第一抽出工程と第二抽出工程は、それぞれ本発明の第一発明の抽出工程にも相当する(工程S3)。
Next, the determination of the occlusion region component is repeated using the two-dimensional image data FD22 and FD23. The process S3 for the camera C2 corresponds to the second extraction process of the present invention. Then, the result analyzed by the fluctuation
次に、照明装置F1をON、照明装置F2をONにして撮像装置M1による4回目の撮像を行う。この時、照明装置F1,F2による初期露光時間T1と初期照明光量は、工程S2と同じく対象物Qを室内において撮像装置M1で撮影する際の通常の撮像条件が設定される。そして、カメラC1、C2を介して得られた2つの2次元画像データFD14、FD24を、記憶部12の所定のメモリ領域に記憶される(工程S4)。 Next, the illumination device F1 is turned on and the illumination device F2 is turned on to perform the fourth imaging by the imaging device M1. At this time, as for the initial exposure time T1 and the initial illumination light amount by the illuminating devices F1 and F2, normal imaging conditions when the object Q is imaged indoors by the imaging device M1 are set as in step S2. Then, the two two-dimensional image data FD14 and FD24 obtained through the cameras C1 and C2 are stored in a predetermined memory area of the storage unit 12 (step S4).
3次元形状画像生成部15は、2次元画像データFD14、FD24に基づいて、3次元形状画像データDTを画像処理で生成する。また、複数の3次元形状画像データDTを統合して1つの3次元形状画像データDTとする。3次元形状画像生成部13のこのような機能は、従来から公知である。この3次元形状画像データDTを生成する基となる2次元画像データFD14、FD24の対応点は変動領域判定部13にて検出された情報を元にオクルージョン領域成分以外の画像から探索される。なお、これは本発明の生成工程に相当する。
The three-dimensional shape
このように、上記第1の実施形態によれば、オクルージョン領域を示すオクルージョン領域成分を2次元画像データ中で判定することで、その領域成分以外の画像データから3次元形状画像データを生成する対応点を設定し探索することで正確な3次元形状データを生成することができる。 As described above, according to the first embodiment, the occlusion region component indicating the occlusion region is determined in the two-dimensional image data, thereby generating the three-dimensional shape image data from the image data other than the region component. By setting and searching for points, accurate three-dimensional shape data can be generated.
次に、本発明の第2の実施形態を図4に基づいて説明する。上記実施形態では、オクルージョン領域成分領域の抽出を2つの2次元画像データFDの差分データの中から、輝度値が所定の閾値以上になっている画素または領域を変動領域であるオクルージョン領域成分として抽出しているが、その方法として他に次の方法がある。図4は本発明に係る第2の実施形態の変動領域の判定方法を示す図である。 Next, a second embodiment of the present invention will be described with reference to FIG. In the above-described embodiment, the occlusion region component region is extracted from the difference data of the two two-dimensional image data FD as a pixel or region whose luminance value is equal to or greater than a predetermined threshold value as an occlusion region component that is a variable region. However, there are the following other methods. FIG. 4 is a diagram showing a method for determining a fluctuation region according to the second embodiment of the present invention.
差分データの画素値である0から255の値がオクルージョン領域成分である可能性を示す値と関係付けを行う。具体的には、差分データが201から255までを80%の可能性、151から200までを70%の可能性、101から150までを50%の可能性、残りの0から100までを0%の可能性と設定するテーブル30を生成する。この関係テーブル30でもって図4に示すように差分データのマトリクス表31を画素ごとに可能性を示す数値に置き換えたデータのマトリクス表32を変動領域判定部13に生成する。こうすることで、オクルージョン領域と見做される状態の領域を以後の処理で省くようにフラグを立てたい時は、可能性の閾値を50%として設定する。そして、50%以上の値を示す画素を全てオクルージョン領域成分と判定するようにすればよい。
A value from 0 to 255, which is a pixel value of the difference data, is correlated with a value indicating the possibility of being an occlusion region component. Specifically, if the difference data is 201 to 255, the probability is 80%, 151 to 200 is 70%, 101 to 150 is 50%, the remaining 0 to 100 is 0% And the table 30 to be set is generated. With this relationship table 30, as shown in FIG. 4, a data matrix table 32 in which the difference data matrix table 31 is replaced with a numerical value indicating the possibility for each pixel is generated in the variable
また、よりオクルージョン領域の可能性が高い状態の領域を以後の処理で省くようにフラグを立てたい時は、可能性の閾値を80%として設定する。そして、80%以上の値を示す画素を全てオクルージョン領域成分と判定するようにすればよい。この可能性の閾値は任意に設定できるようにしてもよく、対象物Qの高さが低い形状の場合は、閾値を80%に設定してもよい。また、テーブル30の可能性の閾値を更に細かく設定してもよい。 Further, when it is desired to set a flag so that an area with a higher possibility of an occlusion area is omitted in the subsequent processing, the possibility threshold is set to 80%. Then, all the pixels showing a value of 80% or more may be determined as occlusion region components. The threshold value of this possibility may be set arbitrarily, and the threshold value may be set to 80% when the shape of the object Q is low. Further, the threshold value of the possibility of the table 30 may be set more finely.
次に、本発明に係る第3の実施形態を図5に基づいて説明する。図5は、第1の実施形態の3次元形状生成装置1を産業用ロボットのアーム部に配置した状態を示す図である。産業用ロボット200は、回転自在のロボット本体201と、ロボット本体201に装着されたアーム202より構成される。
Next, a third embodiment according to the present invention will be described with reference to FIG. FIG. 5 is a diagram illustrating a state in which the three-dimensional
アーム202は、伸縮自在の多間接アームより構成され、その先端に装着された対象物Qを挟むことが可能な挟持動作をするハンド203より構成され、このハンド203に3次元形状生成装置1の照明装置F1、F2と撮像装置M1がユニットとして装着される。
The
この産業用ロボット200によれば、対象物Qをハンド203で掴む動作の開始にあたって、3次元形状生成装置1が第1の実施形態と同様の変動領域の判定を行なった上で、2次元画像データを生成する。その2次元画像データに基づいて,3次元形状画像データが形成され、対象物Qの画像上の点の三次元座標値が計算できる。その結果、アーム202の対象物Qまでの動作距離が計算されることで正確にハンド203が対象物Qを掴むことが可能となる。
According to this
工業製品をロボット等の自動機械で取り扱おうとする場合、工業製品の計測や認識を自動的に行う必要がある。従来の2次元あるいは3次元の画像による物体の3次元計測および認識技術では、画像中にオクルージョン領域があると、カメラによる撮像結果が著しく異なるので対応点の探索が困難になる。そのため、生産ラインの自動化は限られていた。 When an industrial product is to be handled by an automatic machine such as a robot, it is necessary to automatically measure and recognize the industrial product. In the conventional three-dimensional measurement and recognition technology of an object using a two-dimensional or three-dimensional image, if there is an occlusion area in the image, the result of imaging by the camera is significantly different, and it is difficult to search for corresponding points. For this reason, production line automation has been limited.
本発明により立体的な対象物体の位置姿勢を計測できるようになれば、生産ラインにおいて対象を選ばない自動化が可能になる。これは、生産コストの削減と同時に、従来法では自動化が難しかったため労働条件が悪くても人間による作業が必要だった分野においても作業を機械化できることで、労働者を悪条件から解放する効果がある。 If it becomes possible to measure the position and orientation of a three-dimensional target object according to the present invention, it becomes possible to automate the selection of a target in a production line. In addition to reducing production costs, this has the effect of freeing workers from unfavorable conditions by enabling mechanization of work even in areas where human work was necessary even if working conditions were poor because it was difficult to automate with conventional methods. .
上に述べた実施形態において、照明装置Fとして、キセノン管、その他の発光素子を用いたフラッシュ装置、ランプを用いた照明装置、マスクシャッタを備えた照明装置など、公知の種々のものを用いることができる。1つの撮影装置M1を用いたが、複数セットの撮影装置M1を用いてもよい。 In the embodiment described above, various known devices such as a xenon tube, a flash device using other light emitting elements, an illumination device using a lamp, and an illumination device equipped with a mask shutter are used as the illumination device F. Can do. Although one photographing apparatus M1 is used, a plurality of sets of photographing apparatuses M1 may be used.
上に述べた実施形態において、撮影装置M1としてデジタルカメラを用いたが、銀塩式カメラを用いて撮影し、得られた2次元画像データをスキャナーを用いてデジタル化してもよい。その他、3次元形状生成装置1の全体または各部の構成、個数、処理内容または処理順序などは、本発明の趣旨に沿って適宜変更することができる。
In the embodiment described above, a digital camera is used as the photographing apparatus M1, but it is also possible to photograph using a silver halide camera and digitize the obtained two-dimensional image data using a scanner. In addition, the configuration, number, processing contents, processing order, etc. of the whole or each part of the three-dimensional
1 3次元形状生成装置
M1 撮像装置
F1、F2 照明装置
10 処理装置
C1、C2 カメラ
Q 対象物
11 制御部
12 記憶部
13 変動領域判定部
15 3次元形状画像生成部
21 撮像制御部
22 照明制御部
FD、FD1、FD11、FD12、FD13、FD14、FD2、FD21、FD22、FD23、FD24 2次元画像データ
DT 3次元形状データ
DESCRIPTION OF
Claims (7)
第一撮像工程と同一の撮像手段によって同一の対象物を異なる照明位置から照射手段で照明して撮像した第二2次元画像データを得る第二撮像工程と、
第一2次元画像データと第二2次元画像データとから反射光量による輝度値の変動領域を判定する抽出工程と、
前記撮像手段を含む複数の撮像手段で対象物を異なる視点から撮像して得た複数の2次元画像データから3次元形状データを生成する時に、前記抽出工程で変動領域を判定した前記撮像手段による2次元画像データにおいて変動領域以外の画像から3次元形状データを生成する生成工程と、
を具備するようにしたことを特徴とする画像処理方法。 A first imaging step of illuminating an object with irradiation means for irradiating light and obtaining first two-dimensional image data imaged by at least one imaging means;
A second imaging step of obtaining the second two-dimensional image data obtained by illuminating the same object with the irradiation unit from different illumination positions by the same imaging unit as the first imaging step;
An extraction step of determining a fluctuation region of a luminance value due to the amount of reflected light from the first two-dimensional image data and the second two-dimensional image data;
When the three-dimensional shape data is generated from a plurality of two-dimensional image data obtained by imaging a target object from different viewpoints by a plurality of imaging means including the imaging means, by the imaging means that has determined the fluctuation region in the extraction step A generating step of generating three-dimensional shape data from an image other than the fluctuation region in the two-dimensional image data;
An image processing method comprising the steps of:
第二撮像手段のオクルージョン領域成分を判定する第二抽出工程と、
前記第一撮像手段と第二撮像手段によって対象物を撮像して得た2次元画像データから3次元形状データを生成する時に、前記第一抽出工程と第二抽出工程で判定したオルクージョン領域成分を除外して画像処理する3次元形状データを生成する生成工程と、
を具備し、
前記第一と第二抽出工程は、第一撮像手段が照射手段による照明位置の対象物からの角度が異なる第一撮像工程と第二撮像工程と、を備え、
前記第一撮像工程と第二撮像工程にて得た第一と第二2次元画像データからオクルージョン領域を判定するようにしたことを特徴とする画像処理方法。 A first extraction step of determining an occlusion region component of the first imaging means;
A second extraction step of determining an occlusion region component of the second imaging means;
When the three-dimensional shape data is generated from the two-dimensional image data obtained by imaging the object by the first imaging unit and the second imaging unit, the orchestration region component determined in the first extraction step and the second extraction step is used. A generation step of generating three-dimensional shape data to be image-processed by exclusion;
Equipped with,
The first and second extraction steps include a first imaging step and a second imaging step in which the first imaging unit has different angles from the object at the illumination position by the irradiation unit,
An occlusion region is determined from first and second two-dimensional image data obtained in the first imaging step and the second imaging step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009250092A JP5336325B2 (en) | 2009-10-30 | 2009-10-30 | Image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009250092A JP5336325B2 (en) | 2009-10-30 | 2009-10-30 | Image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011095131A JP2011095131A (en) | 2011-05-12 |
JP2011095131A5 JP2011095131A5 (en) | 2012-05-17 |
JP5336325B2 true JP5336325B2 (en) | 2013-11-06 |
Family
ID=44112206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009250092A Expired - Fee Related JP5336325B2 (en) | 2009-10-30 | 2009-10-30 | Image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5336325B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101327433B1 (en) | 2011-12-08 | 2013-11-11 | 주식회사 엔티리서치 | Apparatus for monitoring three-dimensional shape of target object |
JP6020471B2 (en) * | 2012-01-10 | 2016-11-02 | コニカミノルタ株式会社 | Image processing method, image processing apparatus, and image processing program |
MY179329A (en) * | 2012-03-01 | 2020-11-04 | Nissan Motor | Three-dimensional object detection device |
JP7093680B2 (en) * | 2018-06-01 | 2022-06-30 | 日立Geニュークリア・エナジー株式会社 | Structure difference extraction device, structure difference extraction method and program |
JP7416231B2 (en) | 2020-05-21 | 2024-01-17 | 日本電気株式会社 | Installation support device, installation support method, and program |
WO2021258273A1 (en) * | 2020-06-23 | 2021-12-30 | 广东省航空航天装备技术研究所 | Processing method, apparatus and device based on three-dimensional imaging, and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04329344A (en) * | 1991-05-01 | 1992-11-18 | Elmo Co Ltd | Mounted board inspection equipment |
JP4337203B2 (en) * | 2000-01-24 | 2009-09-30 | ソニー株式会社 | Distance image generating apparatus, distance image generating method, and program providing medium |
JP2003150940A (en) * | 2001-11-16 | 2003-05-23 | Komatsu Ltd | Stereo image processor |
JP2006132947A (en) * | 2004-11-02 | 2006-05-25 | Hitachi High-Technologies Corp | Inspection apparatus and inspection method |
-
2009
- 2009-10-30 JP JP2009250092A patent/JP5336325B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011095131A (en) | 2011-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5342413B2 (en) | Image processing method | |
KR102674646B1 (en) | Apparatus and method for obtaining distance information from a view | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
WO2014044126A1 (en) | Coordinate acquisition device, system and method for real-time 3d reconstruction, and stereoscopic interactive device | |
JP2019194616A (en) | Position detection method, device and equipment based upon image, and storage medium | |
TW201724026A (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
JP2012215394A (en) | Three-dimensional measuring apparatus and three-dimensional measuring method | |
CN102589516B (en) | Dynamic distance measuring system based on binocular line scan cameras | |
JP2013101045A (en) | Recognition device and recognition method of three-dimensional position posture of article | |
CN102713671A (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
JP5336325B2 (en) | Image processing method | |
Ellmauthaler et al. | A novel iterative calibration approach for thermal infrared cameras | |
JP2003130621A (en) | Method and system for measuring three-dimensional shape | |
JP6304244B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
EP3382645A2 (en) | Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images | |
US9245375B2 (en) | Active lighting for stereo reconstruction of edges | |
US12125226B2 (en) | Image processing device, three-dimensional measurement system, and image processing method | |
JP2008275366A (en) | Stereo 3D measurement system | |
Beltran et al. | A comparison between active and passive 3d vision sensors: Bumblebeexb3 and Microsoft Kinect | |
US20210256729A1 (en) | Methods and systems for determining calibration quality metrics for a multicamera imaging system | |
JP2014112043A (en) | Stereoscopic shape recognition device and light source position estimation method for stereoscopic shape recognition device | |
CN114577135B (en) | 3D detection method and system for chip pin warpage based on single lens | |
KR102410300B1 (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
JP6409769B2 (en) | 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program | |
KR101578891B1 (en) | Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120328 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130416 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130423 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5336325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |