JPH0644363A - Method and device for processing distance image - Google Patents
Method and device for processing distance imageInfo
- Publication number
- JPH0644363A JPH0644363A JP4198678A JP19867892A JPH0644363A JP H0644363 A JPH0644363 A JP H0644363A JP 4198678 A JP4198678 A JP 4198678A JP 19867892 A JP19867892 A JP 19867892A JP H0644363 A JPH0644363 A JP H0644363A
- Authority
- JP
- Japan
- Prior art keywords
- distance image
- calculating
- processing method
- image processing
- calculated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、距離画像入力装置など
により入力される距離画像から、その距離画像によって
表わされる3次元物体の表面形状の特徴を示した情報を
作成する距離画像処理方法及びその装置に関するもので
ある。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a range image processing method and a range image processing method for creating information indicating the features of the surface shape of a three-dimensional object represented by the range image from the range image input by a range image input device. It relates to the device.
【0002】[0002]
【従来の技術】距離画像を処理対象とし、その中の3次
元物体の表面形状の特徴を示した情報を検出する距離画
像処理方法が例えば、次の文献「横矢直和、マーチン
D.レビン:“微分幾何学特徴に基づく距離画像分割の
ためのハイブリッド手法”,情報処理学会論文誌,Vol
30,No. 8, pp. 944-953 (1989)」に記載されて
いる。2. Description of the Related Art A range image processing method in which a range image is a processing target and information indicating characteristics of the surface shape of a three-dimensional object in the range image is detected is described in, for example, the following document "Naoko Yokoya, Martin".
D. Levin: “Hybrid method for distance image segmentation based on differential geometric features”, Transactions of Information Processing Society of Japan, Vol.
30, No. 8, pp. 944-953 (1989) ”.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、従来の
距離画像処理方法においては、物体が置かれている座標
系と画像の座標系との関係が規定されておらず、各座標
軸方向のアスペクト比などのパラメータを、各処理ごと
に与える必要があるという問題があった。However, in the conventional range image processing method, the relationship between the coordinate system in which the object is placed and the coordinate system of the image is not defined, and the aspect ratio in each coordinate axis direction, etc. There was a problem that the parameter of 1 had to be given for each process.
【0004】[0004]
【課題を解決するための手段】本発明の距離画像処理方
法は、以上の点に鑑みて発明されたものであり、入力さ
れた距離画像の型を変換し、各軸の正規化を行なう工程
と、変換された距離画像の値を演算して、当該距離画像
によって記述される物体表面の性質を表わすデータを作
成する演算工程と、前記演算工程によって作成されたデ
ータに基づいて、前記物体表面の性質を表わす画像情報
を表示する表示工程とを具える。The distance image processing method of the present invention has been invented in view of the above points, and a step of converting the type of an input distance image and normalizing each axis. And a calculation step of calculating the value of the converted distance image to create data representing the property of the object surface described by the distance image, and the object surface based on the data created by the calculation step. And a display step of displaying image information representing the property of.
【0005】また、本発明距離画像処理装置は、距離画
像データを入力する入力手段と、該入力手段より入力さ
れた距離画像の型を変換し、各軸の正規化を行なう正規
化手段と、該正規化手段により変換された距離画像デー
タの値を演算して、当該距離画像によって記述される物
体表面の性質を表わすデータを作成する演算手段と、該
演算手段によって作成されたデータに基づいて、前記物
体表面の性質を表わす画像情報を表示する表示手段とを
具える。The distance image processing apparatus of the present invention further comprises an input means for inputting the distance image data, a normalization means for converting the type of the distance image input by the input means, and normalizing each axis. Based on the data created by the computing means, computing the value of the distance image data converted by the normalizing means to create data representing the property of the object surface described by the distance image. , Display means for displaying image information representing the property of the surface of the object.
【0006】[0006]
【実施例】以下に、本発明の実施例の処理手順を詳述す
る前に、簡単に言葉の定義を行っておくと、「距離画
像」とは、距離計測センサにより測定された物体表面の
各点と基準面との垂直距離( 平行射影) 、を与えた距離
画像である。データ形式としては、(X,Y) の正方2次元
格子上の各点において、距離(Z値) が格納される。最近
Computer Vision やComputer Graphics 分野で利用され
始めたデータである。[Embodiments] Before describing the processing procedures of the embodiments of the present invention in detail below, the words are simply defined. A "distance image" is an object surface measured by a distance measuring sensor. It is a distance image given the vertical distance (parallel projection) between each point and the reference plane. As the data format, the distance (Z value) is stored at each point on the (X, Y) square two-dimensional grid. Recently
It is data that has begun to be used in the fields of Computer Vision and Computer Graphics.
【0007】(実施例1)以下、図面を参照して本発明
の第1実施例を詳細に説明する。(First Embodiment) A first embodiment of the present invention will be described in detail below with reference to the drawings.
【0008】図1は、本実施例における距離画像処理シ
ステムの基本構成を示すブロック図である。FIG. 1 is a block diagram showing the basic arrangement of a distance image processing system according to this embodiment.
【0009】同図において、1は各種処理手順を記憶す
るためのプログラムメモリ、2は、本システムの処理に
必要な情報、及び入出力データを記憶するためのデータ
メモリ、3は、プログラムメモリ1に記憶されている処
理手順に従って各種処理を行い、装置各部を制御するた
めのCPUである。In the figure, 1 is a program memory for storing various processing procedures, 2 is a data memory for storing information necessary for processing of this system, and input / output data, 3 is a program memory 1 The CPU is for controlling various parts of the apparatus by performing various processes in accordance with the processing procedure stored in.
【0010】4は、本システムで得られた3D形状モデ
ルを表示したり、ユーザからの指示をインタラクティブ
に表示する表示部であり、本実施例では、マルチウィン
ドウ形式の表示部であるとする。5は、ユーザからの指
令を入力するマウスである。6はキーボード(KB)で、ユ
ーザがプログラムを作成したり、本システムに指令を入
力するのに使用される。更に、7はレーザレンジファイ
ンダであり、物体表面の各点と基準面との垂直距離を測
定し、距離画像を入力する。Reference numeral 4 denotes a display unit for displaying a 3D shape model obtained by this system and interactively displaying an instruction from the user. In this embodiment, it is assumed that the display unit is a multi-window type display unit. Reference numeral 5 is a mouse for inputting a command from the user. A keyboard (KB) 6 is used by a user to create a program or input a command to the system. Further, 7 is a laser range finder, which measures the vertical distance between each point on the object surface and the reference surface and inputs a distance image.
【0011】図2は、プログラムメモリ1及びデータメ
モリ2の記憶内容を示す図である。図2の(a)のプロ
グラムメモリ1において、201は、距離画像の型を変
換し、各軸の正規化を行なう軸正規化プログラム。20
2は、距離画像からジャンプエッジを検出するジャンプ
エッジ検出プログラム。203は、距離画像から1次偏
微分を計算する1次偏微分計算プログラム。204は、
距離画像から2次偏微分を計算する2次偏微分計算プロ
グラム。205は、距離画像を局所的な1次平面に近似
してその方程式の係数を計算する局所1次平面近似プロ
グラム。206は、距離画像を局所的な2次曲面に近似
してその方程式の係数を計算する局所2次曲面近似プロ
グラム。207は、ガウス曲率を計算するガウス曲率計
算プログラム。208は、平均曲率を計算する平均曲率
計算プログラム。209は、法曲率を計算する法曲率計
算プログラム。210は、曲率半径を計算する曲率半径
計算プログラム。211は、ガウス曲率の符号を判別す
るガウス曲率符号判別プログラム。212は、平均曲率
の符号を判別する平均曲率符号判別プログラム。213
は、ガウス曲率の符号と平均曲率の符号の組合せにより
面種を判別する面種判別プログラム。214は、1次偏
微分画像から単位法線ベクトルを計算する法線ベクトル
計算プログラム。215は、単位法線ベクトルからルー
フエッジを検出するルーフエッジ検出プログラムであ
る。各プログラムの処理については、後述する。FIG. 2 is a diagram showing stored contents of the program memory 1 and the data memory 2. In the program memory 1 of FIG. 2A, 201 is an axis normalization program that converts the type of a range image and normalizes each axis. 20
2 is a jump edge detection program for detecting jump edges from a distance image. 203 is a primary partial differential calculation program for calculating a primary partial differential from a range image. 204 is
A secondary partial differential calculation program that calculates a secondary partial differential from a range image. Reference numeral 205 is a local first-order plane approximation program that approximates the range image to a local first-order plane and calculates the coefficient of the equation. 206 is a local quadratic surface approximation program that approximates a range image to a local quadric surface and calculates the coefficient of the equation. 207 is a Gaussian curvature calculation program that calculates Gaussian curvature. 208 is an average curvature calculation program for calculating the average curvature. Reference numeral 209 is a normal curvature calculation program for calculating a normal curvature. 210 is a curvature radius calculation program for calculating the curvature radius. Reference numeral 211 is a Gaussian curvature code determination program for determining the sign of Gaussian curvature. Reference numeral 212 is an average curvature sign determination program for determining the sign of the average curvature. 213
Is a surface type discriminating program that discriminates the surface type by the combination of the sign of Gaussian curvature and the sign of average curvature. A normal vector calculation program 214 calculates a unit normal vector from the first partial differential image. Reference numeral 215 is a roof edge detection program for detecting the roof edge from the unit normal vector. The processing of each program will be described later.
【0012】また、図2の(b)のデータメモリ2にお
いて、221は、距離画像入力装置などにより入力され
た入力距離画像。222は、距離画像から検出されたジ
ャンプエッジ画像。223は、距離画像から検出された
1次偏微分画像。224は、距離画像から検出された2
次偏微分画像。225は、距離画像から検出された係数
画像。226は、計算されたガウス曲率画像。227
は、計算された平均曲率画像。228は、計算された法
曲率画像。229は、計算された曲率半径画像。230
は、計算された単位法線ベクトルを表す法線ベクトル画
像。231は、計算されたガウス曲率符号画像。232
は、計算された平均曲率符号画像。233は、計算され
た面種画像。234は、計算されたルーフエッジ画像で
ある。Further, in the data memory 2 of FIG. 2B, reference numeral 221 denotes an input range image input by a range image input device or the like. 222 is a jump edge image detected from the distance image. 223 is a first partial differential image detected from the distance image. 224 is 2 detected from the range image
Second partial differential image. 225 is a coefficient image detected from the distance image. 226 is the calculated Gaussian curvature image. 227
Is the calculated average curvature image. 228 is the calculated normal curvature image. 229 is the calculated radius of curvature image. 230
Is a normal vector image that represents the calculated unit normal vector. 231 is the calculated Gaussian curvature code image. 232
Is the calculated mean curvature code image. 233 is the calculated face type image. 234 is a calculated roof edge image.
【0013】図3は、本実施例の流れを示すフローチャ
ートである。FIG. 3 is a flow chart showing the flow of this embodiment.
【0014】図3のフローチャートに基づき、本実施例
全体の処理の流れを説明する。The flow of processing of the entire embodiment will be described with reference to the flowchart of FIG.
【0015】なお、本処理の開始に当たっては、例え
ば、レーザレンジファインダ7によって、物体を測定す
ることにより、距離画像は既に入力され、データメモリ
2に格納されているものとする。また、本処理の対象と
なる距離画像は、このような実際の測定に基づくものば
かりでなく、画像データベース等より得られる人工的な
データであってもよい。ここで、距離画像の獲得方法に
ついては次の文献に詳しい。井口、佐藤:“三次元画像
計測”、昭昇堂、(1990)。At the start of this process, it is assumed that the range image has already been input and stored in the data memory 2 by measuring the object with the laser range finder 7, for example. Further, the distance image to be the subject of this processing is not limited to the one based on such actual measurement, but may be artificial data obtained from an image database or the like. Here, the method of acquiring the range image is detailed in the following document. Iguchi, Sato: "Three-dimensional image measurement", Shoshodo, (1990).
【0016】さて、先ず最初の処理として、データメモ
リ2に格納された距離画像データ221を取り出し(ス
テップS301)、これを表示部6に表示する(ステッ
プS302)。次に、軸正規化プログラム201に従っ
て、距離画像の型を変換し、各座標軸の正規化を行う
(ステップS303)。これにより、以下の計算では、
この変換された距離画像が用いられる。以下、ジャンプ
エッジ検出プログラム202に従って、ジャンプエッジ
を検出し、またこれを表示する(ステップS304〜3
05)。1次偏微分計算プログラム203、2次偏微分
計算プログラム204にそれぞれ従って、1次、2次の
偏微分を計算し、その値を表示する(ステップS306
〜309)。局所1次平面近似プログラム205、局所
2次曲面近似プログラム206に従って、局所的な1次
平面、2次曲面に当てはめ、平面及び曲面を表す式の係
数を求め、その結果を表示する(ステップS310〜3
12)。また、プログラム207〜211及び214に
従って、計算された1次偏微分データ223、2次偏微
分データ224の値を用いて、ガウス曲率、平均曲率、
法曲率、曲率半径、単位法線ベクトルを計算して表示す
る(ステップS313〜314、317〜320、32
7〜330)。更に、曲率符号判別プログラム211、
212に従って、求められたガウス曲率226、平均曲
率227より符号マップ231、232を作成して表示
する(ステップS321〜324)。更に面種判別プロ
グラム213に従って、2つの曲率符号の値によって、
面の種類を判別して、各画素に面種のクラス名(番号)
を与えた画像を表示する(ステップS325〜32
6)。また、ルーフエッジ検出プログラム215に従っ
て、計算された単位法線ベクトル230からルーフエッ
ジを検出して表示する(ステップS315〜316)。As the first process, the range image data 221 stored in the data memory 2 is taken out (step S301) and displayed on the display unit 6 (step S302). Next, according to the axis normalization program 201, the range image type is converted and each coordinate axis is normalized (step S303). Thus, in the calculation below,
This converted range image is used. Hereinafter, the jump edge is detected and displayed according to the jump edge detection program 202 (steps S304 to S3).
05). According to the primary partial differential calculation program 203 and the secondary partial differential calculation program 204, respectively, primary and secondary partial differentials are calculated and the values are displayed (step S306).
~ 309). According to the local first-order plane approximation program 205 and the local quadratic surface approximation program 206, it is applied to the local first-order plane and the second-order curved surface, the coefficients of the equations representing the plane and the curved surface are obtained, and the results are displayed (step S310-S1010). Three
12). Further, using the values of the first partial differential data 223 and the second partial differential data 224 calculated according to the programs 207 to 211 and 214, Gaussian curvature, average curvature,
The normal curvature, the radius of curvature, and the unit normal vector are calculated and displayed (steps S313 to 314, 317 to 320, 32).
7-330). Furthermore, the curvature code determination program 211,
According to 212, code maps 231 and 232 are created and displayed from the obtained Gaussian curvature 226 and average curvature 227 (steps S321 to 324). Further, according to the surface type discriminating program 213, by the values of the two curvature codes,
Distinguishing the type of surface, class name (number) of the surface type for each pixel
Is displayed (steps S325-32)
6). Further, according to the roof edge detection program 215, the roof edge is detected from the calculated unit normal vector 230 and displayed (steps S315 to 316).
【0017】以下、それぞれの処理を詳細に説明する。Each processing will be described in detail below.
【0018】各座標軸の正規化(ステップS303) 入力画像のx軸方向の1画素に相当する実際の長さと,
y軸方向の1画素に相当する実際の長さに、z軸方向の
1量子単位に相当する実際の長さを一致させるように濃
度変換した距離画像を出力する。出力画像の各画素は、
floatの値を持つ。Normalization of each coordinate axis (step S303) The actual length corresponding to one pixel in the x-axis direction of the input image,
The density image is output so that the actual length corresponding to one pixel in the y-axis direction matches the actual length corresponding to one quantum unit in the z-axis direction. Each pixel of the output image is
It has a float value.
【0019】いま、x軸方向の1画素に相当する実際の
長さとy軸方向の1画素に相当する実際の長さが、共に
Δx、z軸方向の1量子単位に相当する実際の長さをΔ
zであるとすると、入力された距離画像の各画素の値z
i (x、y)は次のzo (x、y)に変換される。Now, the actual length corresponding to one pixel in the x-axis direction and the actual length corresponding to one pixel in the y-axis direction are both actual lengths corresponding to one quantum unit in the Δx and z-axis directions. Δ
If z, the value z of each pixel of the input range image
i (x, y) is transformed to the next z o (x, y).
【0020】[0020]
【外1】 [Outer 1]
【0021】以後の処理では、この変換されたzが用い
られる。In the subsequent processing, this converted z is used.
【0022】ジャンプエッジ抽出(ステップS304) 入力画像に対して、視点からの距離が不連続である部分
を検出する。8近傍での距離差の最大値で、かつしきい
値よりも大きいものを検出する。しきい値をthreshold
とすると、各画素の値として、次式のJumpEdgeが与えら
れる。 JumpEdge(x, y)=Max {|Z(x,y)-Z(x+k,y+l)|: -1≦k, l≦1 } ……(1) 局所平面によるフィッティング(ステップS304) 表面を局所的な1次平面に近似してその方程式のパラメ
ータを計算する。すなわち、距離画像の物体表面S=
(x, y, -z(x, y)) を、平面ax+by+c=-zにwinsize2のウ
インドウを用いた最小自乗近似により各係数を計算す
る。Jump Edge Extraction (Step S304) In the input image, a portion where the distance from the viewpoint is discontinuous is detected. The maximum value of the distance difference in the vicinity of 8 and the value larger than the threshold value are detected. Threshold
Then, JumpEdge of the following equation is given as the value of each pixel. JumpEdge (x, y) = Max {| Z (x, y) -Z (x + k, y + l) |: -1≤k, l≤1} (1) Fitting by a local plane (step S304 ) Approximate the surface to a local first-order plane and calculate the parameters of the equation. That is, the object surface S of the range image =
Calculate each coefficient of (x, y, -z (x, y)) by the least squares approximation using the window of winsize 2 on the plane ax + by + c = -z.
【0023】各係数を算出するオペレ−タは次の様にし
て決定する。winsize はオペレ−タのウインドウサイズ
(正方形窓の一辺の画素数)とし、任意の正の奇数をと
るものとする。The operator for calculating each coefficient is determined as follows. winsize is the operator's window size (the number of pixels on one side of the square window), and any positive odd number.
【0024】 A・C=B ……(2) ただしA · C = B (2)
【0025】[0025]
【外2】 [Outside 2]
【0026】図4に示すwinsize =(2w+1)の大きさのウ
インドウを考え、原点をこのウインドウの中心にとる
と、Considering a window of size winsize = (2w + 1) shown in FIG. 4, and setting the origin at the center of this window,
【0027】[0027]
【外3】 として、この各要素を(eij )とおくと、[Outside 3] Assuming that each element is (e ij ),
【0028】[0028]
【外4】 つまり、[Outside 4] That is,
【0029】[0029]
【外5】 例としてwinsize =3,および5(3*3、および5*
5)の平面あてはめのオペレータを示す。[Outside 5] As an example winsize = 3, and 5 (3 * 3, and 5 *
The operator of the plane fitting of 5) is shown.
【0030】(a)ウインドウサイズ3*3(winsize
=3、w=1)の場合 w=1を(6)式に代入してE(すなわち e11, e22, e
33)を求め、(x1, x2,・・・ ,xn), (y1, y2, ・・・ yn)
を(8)式に代入して次のオペレ−タを求め、このオペ
レ−タをB(すなわち距離画像)に掛ける。(A) Window size 3 * 3 (winsize
= 3, w = 1) Substituting w = 1 into equation (6), E (that is, e 11 , e 22 , e
33 ), (x 1 , x 2 , ・ ・ ・, x n ), (y 1 , y 2 , ・ ・ ・ y n )
Is substituted into the equation (8) to obtain the next operator, and this operator is multiplied by B (that is, the range image).
【0031】[0031]
【外6】 (b)ウインドウサイズ5*5(winsize =5、w=
2)の場合 前記(a)と同様にして次のオペレ−タを得る。[Outside 6] (B) Window size 5 * 5 (winsize = 5, w =
In the case of 2), the following operator is obtained in the same manner as in (a) above.
【0032】[0032]
【外7】 [Outside 7]
【0033】局所2次曲面によるフィッティング(ステ
ップS312) 距離画像の物体表面S=(x, y, -z(x, y)) を、2次曲
面ax2+by2+cxy+dx+ey+f=-zに最小自乗近似によりあては
め、各係数を計算する。Fitting with local quadric surface (step S312) The object surface S = (x, y, -z (x, y)) of the range image is converted into a quadric surface ax 2 + by 2 + cxy + dx + ey +. Fit each coefficient to f = -z by least square approximation and calculate each coefficient.
【0034】各係数を算出するオペレ−タはすでに述べ
た局所平面によるフィッティングと同じ考え方で求め
る。詳しい説明はここでは省略するが、図5に2種類の
オペレ−タを示す。The operator for calculating each coefficient is obtained by the same idea as the fitting by the local plane described above. Although detailed description is omitted here, FIG. 5 shows two types of operators.
【0035】 1次・2次偏微分の計算(ステップS306,308) 距離画像から次の3つの方法で1次または2次偏微分を
計算する。(1)直接偏微分オペレ−タをかけて求め
る、(2)フィッティングされた局所平面方程式の係数
から求める、(3)フィッティングされた局所2次曲面
方程式の係数から求める。 (1)原画像から直接求める関数 例として第5図に2種類の偏微分オペレ−タを示す (2)フィッティングされた局所平面の係数から1次偏
微分を求める関数 ある注目点の微分値を次の方法で計算する。n、mはオ
ペレ−タサイズ(窓の一辺の画素数)とする。図7のよ
うに、注目点を含む大きさn×mの窓をn×m個用意
し、それぞれを局所2次平面によるフィッティングの説
明で述べた方法に従って、-z(x, y)=ax+by+cに近似す
る。n×m個の窓の中から誤差の絶対値の分散が最小で
ある窓を選択し、この窓の方程式から注目点の微分値を
求める。Calculation of First-Order and Second-Order Partial Derivatives (Steps S306 and 308) First-order or second-order partial derivatives are calculated from the range image by the following three methods. (1) Directly obtained by partial differential operator, (2) Obtained from the coefficient of the fitted local plane equation, (3) Obtained from the coefficient of the fitted local quadratic surface equation. (1) Function to directly obtain from the original image Fig. 5 shows two types of partial differential operators as an example. (2) Function to obtain first partial differential from the coefficients of the fitted local plane. Calculate using the following method. n and m are operator sizes (the number of pixels on one side of the window). As shown in FIG. 7, n × m windows of size n × m including the target point are prepared, and each of them is subjected to the method described in the description of the fitting by the local quadratic plane, and -z (x, y) = ax It is similar to + by + c. The window with the smallest variance of the absolute value of the error is selected from the n × m windows, and the differential value of the target point is obtained from the equation of this window.
【0036】平面の場合、あてはめた平面の式ax+by+c=
-zから偏微分値を計算すると次式を得る。For a plane, the fitted plane equation ax + by + c =
The following formula is obtained by calculating the partial differential value from -z.
【0037】 Zx=-a Zy=-b ……(9) (3)フィッティングされた局所2次曲面の係数から偏
微分を求める関数 ある注目点の微分値を次の方法で計算する。n、mはオ
ペレ−タサイズ(窓の一辺の画素数)とする。図6のよ
うに、注目点を含むn×m個の大きさn×mの窓を用意
し、それぞれを局所2次曲面によるフィッティングの説
明で述べた方法に従って-z(x, y)=ax+by+cに近似する。
n×m個の窓の中から誤差の絶対値の分散が最小である
窓を選択し、この窓の方程式から注目点の微分値を求め
る。平面の場合、あてはめた2次曲面の式ax2+by2+cxy+
dx+ey+f=-zから偏微分値を計算すると次式を得る。Z x = -a Z y = -b (9) (3) Function for obtaining partial differential from coefficient of fitted local quadratic surface A differential value of a certain point of interest is calculated by the following method. n and m are operator sizes (the number of pixels on one side of the window). As shown in FIG. 6, n × m windows of size n × m including the target point are prepared, and each of them is subjected to the method described in the explanation of the fitting by the local quadric surface, -z (x, y) = ax. It is similar to + by + c.
The window with the smallest variance of the absolute value of the error is selected from the n × m windows, and the differential value of the target point is obtained from the equation of this window. In the case of plane, fitted quadric surface expression ax 2 + by 2 + cxy +
The following formula is obtained by calculating the partial differential value from dx + ey + f = -z.
【0038】 Zx= -2ax-cy-d Zy= -2by-cx-e Zxx= 2a Zyy= 2b Zxy= c ……(10) 法線ベクトル計算(ステップS313) 表面の局所的な接平面の放線ベクトルを、大きさ1の単
位ベクトルとして計算する。Z x = −2ax-cy-d Z y = −2by-cx-e Z xx = 2a Z yy = 2b Z xy = c (10) Normal vector calculation (step S313) Local surface A normal vector of a tangent plane is calculated as a unit vector of size 1.
【0039】入力画像は1次偏微分画像である。The input image is a first partial differential image.
【0040】単位法線ベクトルのx、y、z各成分を次
式に基づいて計算する。単位法線ベクトルN(x、y、
z)=(N1, N2, N3) N1=Zx/(Zx 2+Zy 2+1)1/2 N2=Zy/(Zx 2+Zy 2+1)1/2 N3=-1/(Zx 2+Zy 2+1)1/2 ……(11) ただし、Zxは距離デ−タのx成分による1次編微分、Zy
は距離デ−タのy成分による1次編微分である。The x, y and z components of the unit normal vector are calculated based on the following equations. Unit normal vector N (x, y,
z) = (N 1 , N 2 , N 3 ) N 1 = Z x / (Z x 2 + Z y 2 +1) 1/2 N 2 = Z y / (Z x 2 + Z y 2 +1) 1/2 N 3 = -1 / (Z x 2 + Z y 2 +1) 1/2 (11) where Z x is the first derivative of the x component of the distance data, Z y
Is the first-order derivative of the y component of the distance data.
【0041】(11)式は次の計算に基づく。本手法で
扱う距離画像表面はS=(x, y, -z(x, y)) Sのx成分
による1次偏微分Sx =(1, 0, -Zx)と、Sのy成分に
よる1次偏微分Sy =(1, 0, -Zy)の外積として次式の
法線ベクトルを得る。Equation (11) is based on the following calculation. The range image surface treated by this method is S = (x, y, -z (x, y)) The first partial differential S x = (1, 0, -Z x ) by the x component of S and the y component of S As the outer product of the first partial differential S y = (1, 0, -Z y ), the normal vector of the following equation is obtained.
【0042】 N=(Zx, Zy, -1) ……(12) これを大きさ1の単位ベクトルとすれば(11)式が得
られる。N = (Z x , Z y , −1) (12) If this is a unit vector of size 1, then equation (11) is obtained.
【0043】ルーフエッジ抽出(ステップS315) 視点からの距離の屈折点を抽出する。入力画像は法線ベ
クトル画像である。8近傍での単位法線ベクトルの角度
差の最大値でかつしきい値threshold よりも大きいもの
を検出する。 各画素の値として次式のRoofEdgeが与
えられる。Roof edge extraction (step S315) A refraction point at a distance from the viewpoint is extracted. The input image is a normal vector image. The maximum value of the angular difference between the unit normal vectors in the vicinity of 8 and the value larger than the threshold value threshold are detected. The value of each pixel is given by Roof Edge of the following equation.
【0044】 RoofEdge(x, y)=Max{|N(x, y)・N(x+k, y+1)|:-1≦k, l≦1} ……(13) ただし、N(x, y)は次の法線ベクトルである。RoofEdge (x, y) = Max {| N (x, y) · N (x + k, y + 1) |: -1 ≦ k, l ≦ 1} (13) where N ( x, y) is the following normal vector.
【0045】 N(x, y)=(N1(x, y), N2(x, y), N3(x, y)) N1(x, y)は単位法線方向ベクトルのx成分画像 N2(x, y)は単位法線方向ベクトルのy成分画像 N3(x, y)は単位法線方向ベクトルのz成分画像 ガウス曲率計算(ステップS317) それぞれの偏微分値を次式に代入してガウス曲率Kを計
算する。N (x, y) = (N 1 (x, y), N 2 (x, y), N 3 (x, y)) N 1 (x, y) is x of the unit normal direction vector The component image N 2 (x, y) is the y component image of the unit normal direction vector N 3 (x, y) is the z component image of the unit normal direction vector Gaussian curvature calculation (step S317) The Gaussian curvature K is calculated by substituting it in the formula.
【0046】[0046]
【外8】 ただし、Zxは距離デ−タのx成分による1次偏微分 Zyは距離デ−タのy成分による1次偏微分 Zxxは距離デ−タのx成分による2次偏微分 Zyyは距離デ−タのy成分による2次偏微分 Zxyは距離デ−タのx,y成分による2次偏微分 平均曲率計算(ステップS317) それぞれの偏微分値を次式に代入して平均曲率Hを計算
する。[Outside 8] However, Z x is the first partial differential due to the x component of the distance data Z y is the first partial differential due to the y component of the distance data Z xx is the second partial differential due to the x component of the distance data Z yy is The secondary partial differential Z xy by the y component of the distance data is the secondary partial differential average curvature calculation by the x and y components of the distance data (step S317) Substituting each partial differential value into the following equation, the average curvature Calculate H.
【0047】[0047]
【外9】 ただし、Zxは距離デ−タのx成分による1次偏微分 Zyは距離デ−タのy成分による1次偏微分 Zxxは距離デ−タのx成分による2次偏微分 Zyyは距離デ−タのy成分による2次偏微分 Zxyは距離デ−タのx,y成分による2次偏微分 ガウス曲率符号マップ作成(ステップS321、32
2) kimg(x, y)を入力されるガウス曲率画像、thk は符号を
決めるしきい値(float)であるとする。各画素に次のク
ラスを与えた画像を出力する。[Outside 9] However, Z x is the first partial differential due to the x component of the distance data Z y is the first partial differential due to the y component of the distance data Z xx is the second partial differential due to the x component of the distance data Z yy is The second partial differential Z xy based on the y component of the distance data is the second partial differential based on the x and y components of the distance data. Gaussian curvature code map creation (steps S321, 32)
2) Let kimg (x, y) be the input Gaussian curvature image, and thk be the threshold value (float) that determines the sign. Output an image with the following class assigned to each pixel.
【0048】kimg(x, y)<−thk を、ガウス曲率が負と
みなして クラス1 −thk <kimg(x, y)<thk を、ガウス曲率が0とみなし
て クラス2 kimg(x, y)> thk を、ガウス曲率が正とみなして ク
ラス3 平均曲率符号マップ作成(ステップS323、324) himg(x, y)を入力される平均曲率画像、 thhは符号を決
めるしきい値(float)であるとする。 各画素に次のク
ラスを与えた画像を出力する。Considering kimg (x, y) <− thk as Gaussian curvature is negative, class 1 −thk <kimg (x, y) <thk is considered as Gaussian curvature 0, and class 2 kimg (x, y) )> Thk, class 3 average curvature code map creation assuming that Gaussian curvature is positive (steps S323, 324) himg (x, y) average curvature image input, thh is a threshold value (float) that determines the sign Suppose An image in which the following class is given to each pixel is output.
【0049】himg(x, y)<−thh を、平均曲率が負とみ
なして クラス1 −thh <himg(x, y)< thh を、平均曲率が0とみなし
て クラス2 himg(x, y)> thh を、平均曲率が正とみなして クラ
ス3Class 1 -thh <himg (x, y) <thh is regarded as having a mean curvature of 0, and class 2 himg (x, y) is considered as himg (x, y) <-thh. )> Thh, assuming that the average curvature is positive Class 3
【0050】面種分類(ステップS325、326) 微分幾何学の理論に基づいて表面を8つの面タイプに分
類する。thk 、thh は符号を決めるしきい値(float) で
ある。ここで曲面の微分幾何学については次の文献に詳
しい説明がある。 安達忠次:“微分幾何学概説”、培風館、(1976) 小林昭七:“曲線と局面の微分幾何”、裳華堂、(19
77) 本間、岡部:“微分幾何とトポロジ−入門”、基礎数学
叢書6、新曜社(1979) また、これを距離画像のセグメンテ−ションに利用した
例として次がある。 横矢、Martin D. Levine:“微分幾何学特徴に基づく距
離画像分割のためのハイブリッド手法”、情処論、VOl.
30 No.8 pp945-953 (1989) Paul J. Besl:“Surfaces in range image understand
ing ”,Springer-Verlag,(1988) Besel, P. J. and Jain, R. C. :“Invariant surface
characteristics for 3Dobject recognition in range
images”,CVGIP, 33, pp. 33-80, (1986) ガウス曲率画像kimg(x, y)、平均曲率画像himg(x, y)の
符号により次の8つのクラスを各画素に与えた画像を出
力する。Surface Type Classification (Steps S325, 326) The surface is classified into eight surface types based on the theory of differential geometry. thk and thh are thresholds that determine the sign. Here, the differential geometry of curved surfaces is explained in detail in the following literature. Tadatsugu Adachi: "Outline of Differential Geometry", Baifukan, (1976) Shoshichi Kobayashi: "Differential Geometry of Curves and Phases", Shokado, (19
77) Homma, Okabe: "Introduction to Differential Geometry and Topology-", Basic Mathematics Series 6, Shinyisha (1979) Moreover, the following is an example of using this for the segmentation of range images. Yokoya, Martin D. Levine: “Hybrid Method for Distance Image Segmentation Based on Differential Geometric Features”, Information Theory, VOL.
30 No.8 pp945-953 (1989) Paul J. Besl: “Surfaces in range image understand
ing ”, Springer-Verlag, (1988) Besel, PJ and Jain, RC:“ Invariant surface
characteristics for 3Dobject recognition in range
images ”, CVGIP, 33, pp. 33-80, (1986) An image in which the following eight classes are given to each pixel by the sign of the Gaussian curvature image kimg (x, y) and the average curvature image himg (x, y) Is output.
【0051】 kimg(x, y)>thk かつhimg(x, y)<−thh クラス1 kimg(x, y)>thk かつhimg(x, y)>thh クラス2 −thk <kimg(x, y)<thk かつhimg(x, y)<−thh クラス3 −thk <kimg(x, y)<thk かつhimg(x, y)>thh クラス4 −thk <kimg(x, y)<thk かつ−thh <himg(x, y)<thh クラス5 kimg(x, y)<−thk かつ−thh <himg(x, y)<thh クラス6 kimg(x, y)<−thk かつhimg(x, y)<−thh クラス7 kimg(x, y)<−thk かつhimg(x, y)> thh クラス8 kimg(x, y)>himg(x, y)2 (禁止域) クラス0 クラス1の点を負楕円点(K>0、H<0)、クラス2
の点を正楕円点(K>0、H>0)、クラス3の点を負
放物点(K=0、H<0)、クラス4の点を正放物点
(K=0、H>0)、クラス5の点を平坦点(K=0、
H=0)、クラス6の点を極小点(K<0、H=0)、
クラス7の点を負双曲点(K<0、H<0)、クラス8
の点を正双曲点(K<0、H>0)という。Kimg (x, y)> thk and himg (x, y) <− thh class 1 kimg (x, y)> thk and himg (x, y)> thh class 2 −thk <kimg (x, y ) <Thk and himg (x, y) <-thh class 3 -thk <kimg (x, y) <thk and himg (x, y)> thh class 4 -thk <kimg (x, y) <thk and- thh <himg (x, y) <thh Class 5 kimg (x, y) <-thk and -thh <himg (x, y) <thh Class 6 kimg (x, y) <-thk and himg (x, y ) <-Thh Class 7 kimg (x, y) <-thk and himg (x, y)> thh Class 8 kimg (x, y)> himg (x, y) 2 (prohibition area) Class 0 Class 1 point Is a negative elliptic point (K> 0, H <0), class 2
Points are positive elliptic points (K> 0, H> 0), points of class 3 are negative paraboloids (K = 0, H <0), and points of class 4 are positive paraboloids (K = 0, H). > 0), class 5 points are flat points (K = 0,
H = 0), the point of class 6 is a minimum point (K <0, H = 0),
Class 7 points are negative hyperbolic points (K <0, H <0), Class 8
Point is called a regular hyperbolic point (K <0, H> 0).
【0052】法曲率計算(ステップS327) z軸とx軸またはy軸と平行な直線を含む平面で切断し
た時のx、yそれぞれ各軸方向の法曲率を各画素に対し
て計算する。Calculation of Normal Curvature (Step S327) The normal curvatures in the respective x and y axis directions when cut on a plane including a straight line parallel to the z axis and the x axis or the y axis are calculated for each pixel.
【0053】入力されるの1次と2次の偏微分画像の各
画素値を次式に代入して、x、yそれぞれの方向の法曲
率κx, κy を計算する。The pixel values of the input primary and secondary partial differential images are substituted into the following equations to calculate the normal curvatures κ x and κ y in the x and y directions, respectively.
【0054】[0054]
【外10】 ただし、Zxは距離デ−タのx成分による1次偏微分 Zyは距離デ−タのy成分による1次偏微分 Zxxは距離デ−タのx成分による2次偏微分 Zyyは距離デ−タのy成分による2次偏微分[Outside 10] However, Z x is the first partial differential due to the x component of the distance data Z y is the first partial differential due to the y component of the distance data Z xx is the second partial differential due to the x component of the distance data Z yy is Second-order partial differentiation by the y component of distance data
【0055】曲率半径計算(ステップS329) z軸とx軸またはy軸と平行な直線を含む平面で切断し
た時のx、y各軸方向の曲率半径(1/法曲率)を各画
素に対して計算する。Calculation of radius of curvature (step S329) For each pixel, the radius of curvature (1 / normal curvature) in each of the x and y axis directions when cutting is performed on a plane including a straight line parallel to the z axis and the x axis or the y axis. Calculate.
【0056】入力されるの1次と2次のそれぞれの偏微
分画像の各画素値を次式に代入して曲率半径 ρx , ρ
y を計算する。Substituting each pixel value of the first-order and second-order partial differential images of the input into the following equation, the radii of curvature ρ x , ρ
Calculate y .
【0057】[0057]
【外11】 ただし、Zxは距離デ−タのx成分による1次偏微分 Zyは距離デ−タのy成分による1次偏微分 Zxxは距離デ−タのx成分による2次偏微分 Zyyは距離デ−タのy成分による2次偏微分 以上により、図3の各処理が実行される。[Outside 11] However, Z x is the first partial differential due to the x component of the distance data Z y is the first partial differential due to the y component of the distance data Z xx is the second partial differential due to the x component of the distance data Z yy is Second-order partial differentiation by y component of distance data By the above, each processing in FIG. 3 is executed.
【0058】また、本発明は、単体の装置に限らず、本
発明の機能が実行されるのであれば、複数の装置からな
るシステムにも適用可能であり、更に、装置あるいはシ
ステムにプログラムを供給することによって処理が行わ
れるシステムであっても適用できることは言うまでもな
い。Further, the present invention is not limited to a single device, but can be applied to a system composed of a plurality of devices as long as the functions of the present invention are executed, and further, a program is supplied to the device or the system. It goes without saying that the present invention can be applied even to a system in which processing is performed by doing so.
【0059】[0059]
【発明の効果】以上説明したように、本発明によれば距
離画像の型を変換し、各軸の正規化を行なうステップを
設けることにより、各座標軸方向のアスペクト比などの
パラメータを用いて、入力される距離画像の各画素に与
えられているデータの型に応じて各画素値を計算するの
で、物体が置かれている座標系と画像の座標系の関係を
予め規定し、各座標軸方向のアスペクト比などのパラメ
ータを各処理ごとに与えることが不要となった。As described above, according to the present invention, by providing the step of converting the type of the range image and normalizing each axis, parameters such as the aspect ratio in each coordinate axis direction are used, Since each pixel value is calculated according to the type of data given to each pixel of the input distance image, the relationship between the coordinate system in which the object is placed and the coordinate system of the image is specified in advance, and each coordinate axis direction It became unnecessary to give parameters such as aspect ratio of each process.
【図1】距離画像処理装置の全体構成を示すブロック図
である。FIG. 1 is a block diagram showing an overall configuration of a distance image processing device.
【図2】実施例のメモリ構成を示す図である。FIG. 2 is a diagram showing a memory configuration of an embodiment.
【図3】全体処理のフローチャートである。FIG. 3 is a flowchart of overall processing.
【図4】ウインドウの例を示す図である。FIG. 4 is a diagram showing an example of a window.
【図5】フィッティングした2次曲面の係数から、1次
偏微分と2次偏微分を直接求めるオペレ−タの例を示す
図である。FIG. 5 is a diagram showing an example of an operator for directly obtaining a first-order partial differential and a second-order partial differential from a fitted coefficient of a quadric surface.
【図6】原距離画像から1次偏微分と2次偏微分を直接
求めるオペレ−タの例を示す図である。FIG. 6 is a diagram showing an example of an operator for directly obtaining a first partial differential and a second partial differential from an original distance image.
【図7】選択的局所平面当てはめを説明する図である。FIG. 7 is a diagram illustrating selective local plane fitting.
1 プログラムメモリ 2 データメモリ 3 CPU 4 表示部 5 マウス 6 キーボード 7 レーザレンジファインダ 1 Program Memory 2 Data Memory 3 CPU 4 Display 5 Mouse 6 Keyboard 7 Laser Range Finder
───────────────────────────────────────────────────── フロントページの続き (72)発明者 吉崎 修 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Osamu Yoshizaki 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.
Claims (16)
の正規化を行なう工程と、 変換された距離画像の値を演算して、当該距離画像によ
って記述される物体表面の性質を表わすデータを作成す
る演算工程と、 前記演算工程によって作成されたデータに基づいて、前
記物体表面の性質を表わす画像情報を表示する表示工程
とを具えたことを特徴とする距離画像処理方法。1. A step of converting a type of an input distance image and normalizing each axis, and calculating a value of the converted distance image to determine a property of an object surface described by the distance image. A distance image processing method comprising: a calculation step of generating data to be represented; and a display step of displaying image information representing the property of the object surface based on the data generated by the calculation step.
エッジを検出する工程を含むことを特徴とする請求項1
記載の距離画像処理方法。2. The calculation step includes a step of detecting a jump edge from a distance image.
The described distance image processing method.
分を計算する工程を含むことを特徴とする請求項1記載
の距離画像処理方法。3. The distance image processing method according to claim 1, wherein the calculation step includes a step of calculating a first partial differential from the distance image.
分を計算する工程を含むことを特徴とする請求項1記載
の距離画像処理方法。4. The distance image processing method according to claim 1, wherein the calculation step includes a step of calculating a second partial differential from the distance image.
次平面に近似してその方程式の係数を計算する工程を含
むことを特徴とする請求項1記載の距離画像処理方法。5. The distance image is locally calculated in the calculation step.
The range image processing method according to claim 1, further comprising a step of calculating a coefficient of the equation by approximating to a quadratic plane.
次曲面に近似してその方程式の係数を計算する工程を含
むことを特徴とする請求項1記載の距離画像処理方法。6. The distance image is locally calculated in the calculation step.
The distance image processing method according to claim 1, further comprising the step of approximating a quadric surface to calculate the coefficient of the equation.
偏微分を計算する工程と、計算された1次、2次偏微分
を用いてガウス曲率を計算する工程を含むことを特徴と
する請求項3記載の距離画像処理方法。7. The calculation step further includes a step of calculating a second partial differential from a range image and a step of calculating a Gaussian curvature by using the calculated first and second partial differentials. The distance image processing method according to claim 3.
偏微分を計算する工程と、計算された1次、2次偏微分
を用いて平均曲率を計算する工程を含むことを特徴とす
る請求項3記載の距離画像処理方法。8. The calculation step further includes a step of calculating a second partial differential from a range image, and a step of calculating an average curvature using the calculated first and second partial differentials. The distance image processing method according to claim 3.
偏微分を計算する工程と、計算された1次、2次偏微分
を用いて法曲率を計算する工程を含むことを特徴とする
請求項3記載の距離画像処理方法。9. The calculation step further includes a step of calculating a second partial differential from a range image, and a step of calculating a normal curvature by using the calculated first and second partial differentials. The distance image processing method according to claim 3.
次偏微分を計算する工程と、計算された1次、2次偏微
分を用いて曲率半径を計算する工程を含むことを特徴と
する請求項3記載の距離画像処理方法。10. The calculation step further comprises 2 from the range image.
4. The distance image processing method according to claim 3, further comprising a step of calculating a second partial differential and a step of calculating a radius of curvature by using the calculated first and second partial differentials.
ス曲率の符号を判別する工程を含むことを特徴とする請
求項7記載の距離画像処理方法。11. The distance image processing method according to claim 7, wherein the calculation step further includes a step of determining a sign of the calculated Gaussian curvature.
曲率の符号を判別する工程を含むことを特徴とする請求
項8記載の距離画像処理方法。12. The distance image processing method according to claim 8, wherein the calculation step further includes a step of determining a sign of the calculated average curvature.
2次偏微分を計算する偏微分演算工程と、計算された1
次、2次偏微分を用いてガウス曲率および平均曲率を計
算する曲率演算工程と、計算されたガウス曲率および平
均曲率の符号を判別する符号判別工程と、判別されたガ
ウス曲率の符号と平均曲率の符号の組合せにより面種を
判別する面種判別工程とを含むことを特徴とする請求項
1記載の距離画像処理方法。13. The calculation step is a first order from a range image,
Partial differential operation step for calculating the second partial differential, and the calculated 1
Next, a curvature calculation step of calculating the Gaussian curvature and the average curvature by using the second partial differential, a code determination step of determining the sign of the calculated Gaussian curvature and the average curvature, a sign of the determined Gaussian curvature and the average curvature The distance image processing method according to claim 1, further comprising: a surface type determination step of determining a surface type by a combination of symbols.
分を用いて単位法線ベクトルを計算する工程を含むこと
を特徴とする請求項3記載の距離画像処理方法。14. The distance image processing method according to claim 3, wherein the calculation step includes a step of calculating a unit normal vector by using the calculated first partial differential.
ベクトルからルーフエッジを検出する工程を含むことを
特徴とする請求項14記載の距離画像処理方法。15. The distance image processing method according to claim 14, wherein the calculating step includes a step of detecting a roof edge from the calculated unit normal vector.
と、 該入力手段より入力された距離画像の型を変換し、各軸
の正規化を行なう正規化手段と、 該正規化手段により変換された距離画像データの値を演
算して、当該距離画像によって記述される物体表面の性
質を表わすデータを作成する演算手段と、 該演算手段によって作成されたデータに基づいて、前記
物体表面の性質を表わす画像情報を表示する表示手段と
を具えたことを特徴とする距離画像処理装置。16. An input means for inputting range image data, a normalizing means for converting the type of the range image input from the input means, and normalizing each axis, and a normalizing means for converting. Calculation means for calculating the value of the range image data to create data representing the property of the object surface described by the range image; and representing the property of the object surface based on the data created by the calculation means. A distance image processing device, comprising: a display unit for displaying image information.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4198678A JPH0644363A (en) | 1992-07-24 | 1992-07-24 | Method and device for processing distance image |
EP92113328A EP0526881B1 (en) | 1991-08-06 | 1992-08-05 | Three-dimensional model processing method, and apparatus therefor |
DE69232403T DE69232403T2 (en) | 1991-08-06 | 1992-08-05 | Three-dimensional model processing method and device |
US08/401,296 US5936628A (en) | 1991-08-06 | 1995-03-09 | Three-dimensional model processing method, and apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4198678A JPH0644363A (en) | 1992-07-24 | 1992-07-24 | Method and device for processing distance image |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0644363A true JPH0644363A (en) | 1994-02-18 |
Family
ID=16395232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4198678A Pending JPH0644363A (en) | 1991-08-06 | 1992-07-24 | Method and device for processing distance image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0644363A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6470271B2 (en) | 2000-02-28 | 2002-10-22 | Honda Giken Kogyo Kabushiki Kaisha | Obstacle detecting apparatus and method, and storage medium which stores program for implementing the method |
JP2005114733A (en) * | 2003-10-07 | 2005-04-28 | Global Nuclear Fuel Americas Llc | Geometric constructs and methods in Monte Carlo modeling |
JP2010256209A (en) * | 2009-04-27 | 2010-11-11 | Ihi Corp | Device and method for recognizing baglike workpiece |
-
1992
- 1992-07-24 JP JP4198678A patent/JPH0644363A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6470271B2 (en) | 2000-02-28 | 2002-10-22 | Honda Giken Kogyo Kabushiki Kaisha | Obstacle detecting apparatus and method, and storage medium which stores program for implementing the method |
JP2005114733A (en) * | 2003-10-07 | 2005-04-28 | Global Nuclear Fuel Americas Llc | Geometric constructs and methods in Monte Carlo modeling |
US7650265B2 (en) | 2003-10-07 | 2010-01-19 | Global Nuclear Fuel - Americas, Llc | Methods of using geometric constructs for neutronics modeling |
JP2010256209A (en) * | 2009-04-27 | 2010-11-11 | Ihi Corp | Device and method for recognizing baglike workpiece |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113139453B (en) | Orthoimage high-rise building base vector extraction method based on deep learning | |
US9087232B2 (en) | 3D object recognition | |
KR101007276B1 (en) | 3D face recognition | |
EP1329850B1 (en) | Apparatus, program and method for detecting both stationary objects and moving objects in an image | |
CN111241989A (en) | Image recognition method and device and electronic equipment | |
CN103632129A (en) | Facial feature point positioning method and device | |
US7928978B2 (en) | Method for generating multi-resolution three-dimensional model | |
CN101147159A (en) | Fast method of object detection by statistical template matching | |
CN115639547A (en) | Multi-line laser radar and GNSS-INS combined calibration method, system and medium | |
JP3078166B2 (en) | Object recognition method | |
CN113673413A (en) | Drawing approval method, device, computer readable medium and electronic equipment for architectural drawings | |
JP4170096B2 (en) | Image processing apparatus for evaluating the suitability of a 3D mesh model mapped on a 3D surface of an object | |
US5173946A (en) | Corner-based image matching | |
CN108992033B (en) | Grading device, equipment and storage medium for vision test | |
CN112699748B (en) | Estimation method of distance between people and vehicles based on YOLO and RGB images | |
JPH0644363A (en) | Method and device for processing distance image | |
CN113781649A (en) | Building plane map generation method based on three-dimensional scanning point cloud | |
JPH0921610A (en) | Image-processing apparatus and image-processing method | |
Bénière et al. | Recovering primitives in 3D CAD meshes | |
US20240419182A1 (en) | Method and computing device for global localization of mobile robots | |
US12056942B2 (en) | Method and system for processing an image by determining rotation hypotheses | |
JP3300092B2 (en) | Image feature extraction device | |
Luo et al. | Automatic Tongue Tracking in X‐Ray Images | |
Garcia et al. | Approximation and processing of intensity images with discontinuity-preserving adaptive triangular meshes | |
Kamberov et al. | Topology and geometry of unorganized point clouds |