JPH08101038A - Motion identification device, motion identification method, shape estimation device, and shape measurement method - Google Patents
Motion identification device, motion identification method, shape estimation device, and shape measurement methodInfo
- Publication number
- JPH08101038A JPH08101038A JP6237414A JP23741494A JPH08101038A JP H08101038 A JPH08101038 A JP H08101038A JP 6237414 A JP6237414 A JP 6237414A JP 23741494 A JP23741494 A JP 23741494A JP H08101038 A JPH08101038 A JP H08101038A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- image
- shape
- data
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】 (修正有)
【目的】 形状に関して全く情報がない場合にも,物体
の位置,姿勢,運動パラメータ等を計測する。
【構成】 運動している物体の画像データを入力する画
像入力装置2,画像データにより物体を抽出する画像処
理部3,画像面に対する特徴点までの位置を計測する位
置計算部4,並びに特徴点の時系列の位置のデータに基
づいて物体の姿勢及び物体の運動パラメータを求める運
動同定部5を設け,求めた位置,姿勢,及び運動パラメ
ータを出力する。また,運動に併せて,物体の形状を推
定する。
(57) [Summary] (Correction) [Purpose] To measure the position, orientation, motion parameters, etc. of an object even when there is no information about the shape. An image input device for inputting image data of a moving object, an image processing unit for extracting an object from the image data, a position calculation unit for measuring a position to a feature point with respect to an image plane, and a feature point. The motion identifying unit 5 for determining the posture of the object and the motion parameter of the object based on the time-series position data is provided, and the determined position, posture, and motion parameter are output. In addition, the shape of the object is estimated along with the motion.
Description
【0001】[0001]
【産業上の利用分野】本発明は,等速運動,等角速度運
動をしている物体の姿勢,位置,運動パラメータ(並進
速度,回転軸,角速度等)を求める運動同定装置と運動
同定方法およびその物体の形状を求める形状推定装置お
よび形状測定方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion identification device and a motion identification method for obtaining the posture, position, and motion parameters (translational velocity, rotation axis, angular velocity, etc.) of an object that is moving at a constant velocity or at a constant velocity. The present invention relates to a shape estimating device and a shape measuring method for obtaining the shape of the object.
【0002】宇宙開発等において,宇宙空間を浮遊して
いる人工衛星などの捕獲作業を必要とする場合がある。
このような作業を自動的に行うためには,まず,捕獲す
る人工衛星に接近する必要があるので,その位置,姿
勢,運動パラメータ(並進速度,角速度)を計測する必
要がある。また,人工衛星に限らず,宇宙空間をただよ
うゴミを捕獲する必要もあり,そのような場合にもその
位置と運動の計測が必要になる。また,人工衛星や宇宙
ゴミを捕獲する場合にはその三次元的な形状(表面形
状,立体形状等)の計測も必要である。[0002] In space development and the like, there are cases where it is necessary to capture an artificial satellite or the like floating in outer space.
In order to perform such work automatically, first, it is necessary to approach the artificial satellite to be captured, so it is necessary to measure its position, attitude, and motion parameters (translational velocity, angular velocity). In addition, it is necessary to capture dust not only in artificial satellites but also in outer space, and in such cases it is necessary to measure its position and movement. When capturing artificial satellites and space debris, it is also necessary to measure their three-dimensional shape (surface shape, three-dimensional shape, etc.).
【0003】[0003]
【従来の技術】従来開発されている技術は,人工衛星の
モデルに基づく計測方法であり,人工衛星の大きさ,形
状が既知であったり,人工衛星にあらかじめ距離計測用
マークを付け,それらをもとに人工衛星の位置,姿勢お
よび運動パラメータを計測するようにしていた。また,
物体の形状推定も運動パラメータ(並進速度,角速度
等)が既知のものについて画像データをもとに形状を推
定する程度であった。2. Description of the Related Art Conventionally developed technology is a measurement method based on a model of an artificial satellite, in which the size and shape of the artificial satellite are known, or the artificial satellite is preliminarily marked with a distance measuring mark. Originally, the position, attitude, and motion parameters of satellites were measured. Also,
The shape of the object was estimated only based on the image data for those with known motion parameters (translational velocity, angular velocity, etc.).
【0004】[0004]
【発明が解決しようとする課題】従来の技術では,人工
衛星の形状のモデルがない場合,または実際には変形し
ていてモデルが使用できないような場合,さらには宇宙
空間のゴミのように形状に関して全く情報がない場合に
は対象物の位置,姿勢,運動パラメータ等を計測するこ
とができなかった。In the prior art, when there is no model of the shape of the artificial satellite, or when the model is actually deformed and the model cannot be used, the shape of the satellite is like dust in space. If there was no information about the, it was not possible to measure the position, posture, motion parameters, etc. of the object.
【0005】本発明は,形状に関して全く情報がない場
合にも対象物の位置,姿勢,運動パラメータ等を計測す
ることができる運動同定装置と運動同定方法および形状
推定装置と形状測定方法を提供することを目的とする。The present invention provides a motion identifying apparatus and a motion identifying method, a shape estimating apparatus and a shape measuring method capable of measuring the position, posture, motion parameter and the like of an object even when there is no information about the shape. The purpose is to
【0006】[0006]
【課題を解決するための手段】物体の角や模様などを特
徴点とし,その特徴点の距離を計測することにより時系
列の画像データと特徴点の距離とにより物体の位置,姿
勢,運動パラメータ(並進速度,回転軸,角速度等)を
計測することができる。例えば,物体を撮像装置等の画
像入力装置で画像データを求め,特徴点を抽出する。ま
た,その際に複数の視点(画像入力装置の位置)により
物体の特徴点を抽出できれば三角測量の原理により画像
入力装置から物体の特徴点までの距離および方向を計算
できる。あるいは,レーザなどを物体に照射して物体の
距離画像を生成し,その距離画像から物体の角(特徴
点)を抽出して特徴点の距離および方向を測定すること
もできる。[Means for Solving the Problem] Positions, postures, and motion parameters of an object are measured by time-series image data and distances of the characteristic points by measuring the distances of the characteristic points by using the corners and patterns of the object as characteristic points. (Translational velocity, rotation axis, angular velocity, etc.) can be measured. For example, image data of an object is obtained by an image input device such as an image pickup device, and feature points are extracted. Further, at that time, if the feature points of the object can be extracted from a plurality of viewpoints (positions of the image input device), the distance and direction from the image input device to the feature points of the object can be calculated by the principle of triangulation. Alternatively, a distance image of the object can be generated by irradiating the object with a laser or the like, and the angle (feature point) of the object can be extracted from the distance image to measure the distance and direction of the feature point.
【0007】また,物体の運動パラメータが求まれば,
物体の形状は画像面における輪郭(シルエット)の時系
列データと姿勢,位置,運動パラメータにより表面形状
を測定することができる。If the motion parameter of the object is obtained,
As for the shape of an object, the surface shape can be measured by time-series data of the contour (silhouette) on the image plane and the posture, position, and motion parameters.
【0008】図1は本発明の基本構成を示す。図1にお
いて,1は測定対象の物体であって,等速運動,等角速
度運動をしているものである。FIG. 1 shows the basic configuration of the present invention. In FIG. 1, reference numeral 1 denotes an object to be measured, which has a uniform velocity motion and a uniform angular velocity motion.
【0009】Fは運動同定装置である。2は画像入力装
置であって,複数の視点を持つ撮像装置もしくは視点一
つの撮像装置と物体の距離を測定するレーザ装置等であ
る。また,画像入力装置は撮影した画像データを保存す
る磁気ディスク装置等の画像データ保存装置10からの
保存データを入力するインタフェースも含む。F is a motion identification device. An image input device 2 is an image pickup device having a plurality of viewpoints, or a laser device for measuring a distance between an image pickup device having one viewpoint and an object. The image input device also includes an interface for inputting stored data from the image data storage device 10 such as a magnetic disk device for storing captured image data.
【0010】Kは運動同定手段である。K’は形状推定
手段である。3は画像処理部であって,物体の左右の画
像データを基に物体の特徴点を抽出するものである。K is a motion identification means. K'is a shape estimation means. An image processing unit 3 extracts the feature points of the object based on the left and right image data of the object.
【0011】4は位置計算部であって,複数(左右)の
視点により求められた特徴点の左右の対応付けを行い,
特徴点と画像面の間の距離および方向を計算し,特徴点
の位置を求めるものである。あるいは,視点ひとつの撮
像装置とレーザ装置等の距離測定装置により特徴点の距
離および方向を計測し,位置を求めても良い。A position calculation unit 4 associates the left and right characteristic points obtained from a plurality of (left and right) viewpoints,
The distance and direction between the feature point and the image plane are calculated to obtain the position of the feature point. Alternatively, the position and the position may be obtained by measuring the distance and direction of the characteristic point with an image pickup device for one viewpoint and a distance measuring device such as a laser device.
【0012】5は運動同定部であって,特徴点の時系列
の位置のデータに基づいて物体の位置,姿勢,運動パラ
メータを求めるものである。6は形状推定部であって,
画像入力装置2により得られた画像の輪郭の時系列デー
タと位置,姿勢,運動パラメータ等に基づいて物体の形
状を推定するものである。Reference numeral 5 denotes a motion identification unit, which obtains the position, orientation, and motion parameters of the object based on the time-series position data of the characteristic points. 6 is a shape estimation unit,
The shape of the object is estimated based on the time-series data of the contour of the image obtained by the image input device 2 and the position, posture, motion parameter and the like.
【0013】7は出力部であって,求めた位置,姿勢,
運動パラメータ,形状等を出力するものである。10は
画像データ保存装置であって,撮像装置等で得られた画
像データを保存するものである。Reference numeral 7 is an output unit,
It outputs motion parameters, shapes, etc. An image data storage device 10 stores image data obtained by an imaging device or the like.
【0014】[0014]
【作用】図1の本発明の基本構成の動作を説明する。画
像入力装置が複数の視点(例えば,左右2台の撮像装置
がある)の場合を例として説明する。The operation of the basic configuration of the present invention shown in FIG. 1 will be described. The case where the image input device has a plurality of viewpoints (for example, there are two left and right imaging devices) will be described as an example.
【0015】画像入力装置2は物体1の左右の画像デー
タを入力する。画像処理部3は左右の画像データの特徴
点(画像の角の点等)を抽出する。位置計算部4は左右
の画像データの特徴点同士を対応付け,各特徴点と撮像
装置との距離および方向を計算し,特徴点の位置を求め
る。The image input device 2 inputs the left and right image data of the object 1. The image processing unit 3 extracts the characteristic points (the corner points of the image, etc.) of the left and right image data. The position calculation unit 4 associates the characteristic points of the left and right image data with each other, calculates the distance and direction between each characteristic point and the imaging device, and obtains the position of the characteristic point.
【0016】運動同定部5は,特徴点の位置の時系列デ
ータに基づいて,物体の姿勢および運動パラメータを求
める。例えば,3点の特徴点A,B,Cに対して距離を
求める。そして,点Aを原点としてベクトルABをx
軸,ベクトルABとベクトルACの外積をz軸,x軸と
z軸の外積をy軸とすれば物体の直交座標系(重心座標
系)が決まる。重心座標の原点は,例えば特徴点の座標
の平均にとる。その重心座標系の座標軸の直交座標のカ
メラ座標に対する方向ベクトルとその原点の位置を各特
徴点の座標により計算し,その時系列データから物体の
姿勢,運動パラメータが求まり,運動を同定することが
できる。The motion identifying section 5 determines the posture and motion parameters of the object based on the time series data of the positions of the characteristic points. For example, the distance is calculated for the three characteristic points A, B, and C. Then, with the point A as the origin, the vector AB is x
If the cross product of the axes, the vector AB and the vector AC, is the z axis, and the cross product of the x axis and the z axis is the y axis, the Cartesian coordinate system (center of gravity coordinate system) of the object is determined. The origin of the barycentric coordinates is, for example, the average of the coordinates of the feature points. It is possible to identify the motion by calculating the direction vector and the position of the origin of the orthogonal coordinates of the coordinate axes of the barycentric coordinate system with respect to the camera coordinates by the coordinates of each feature point, and determining the pose and motion parameters of the object from the time series data. .
【0017】出力部7は運動同定部5の求めた位置,姿
勢,運動パラメータを物体の姿勢制御装置等に出力す
る。次に図2により本発明の形状推定装置の形状測定方
法について説明する。The output unit 7 outputs the position, posture, and motion parameters obtained by the motion identification unit 5 to a posture control device for an object or the like. Next, the shape measuring method of the shape estimating apparatus of the present invention will be described with reference to FIG.
【0018】図2 (a)は回転軸と垂直な平面の断面図で
あり,図2 (b)は回転軸に平行な画像面を示す。図2は
物体20の周囲を視点A,視点B,視点Cが時間ととも
に回転する状態を示す(実際の装置では視点が固定さ
れ,物体20が回転するのであるが,図2のように視点
が固定されていて物体20が回転する場合と相対的に同
じである)。FIG. 2 (a) is a sectional view of a plane perpendicular to the rotation axis, and FIG. 2 (b) shows an image plane parallel to the rotation axis. FIG. 2 shows a state in which the viewpoint A, the viewpoint B, and the viewpoint C rotate around the object 20 (in the actual device, the viewpoint is fixed and the object 20 rotates, but as shown in FIG. This is relatively the same as when the object 20 is fixed and the object 20 rotates).
【0019】図2 (a), (b)において,20は物体であ
る。21は物体の回転軸である。In FIGS. 2A and 2B, 20 is an object. Reference numeral 21 is a rotation axis of the object.
【0020】22は撮影範囲であって,視点A(24)に撮
影される物体20の範囲である。23は画像面であっ
て,時刻t1 における画像面である。24は視点Aであ
って,時刻t1 の視点である。Reference numeral 22 denotes a photographing range, which is a range of the object 20 photographed at the viewpoint A (24). An image plane 23 is an image plane at time t 1 . A viewpoint A is a viewpoint at time t 1 .
【0021】25は視点Bであって,時刻t2 の視点で
ある。26は視点Cであって,時刻t3 の視点である
(時刻はt1 ,t2 ,t3 の順番に経過するものとす
る)。A viewpoint B is a viewpoint B at time t 2 . Reference numeral 26 is a viewpoint C, which is a viewpoint at time t 3 (time is assumed to pass in the order of t 1 , t 2 , and t 3 ).
【0022】30は画像面であって,視点A(24)の方向
から見た回転軸に平行な面である。31は画像であっ
て,画像面30に映された物体20の画像である。32
は輪郭であって,画像31の輪郭である。Reference numeral 30 denotes an image plane, which is parallel to the rotation axis viewed from the direction of the viewpoint A (24). Reference numeral 31 is an image, which is an image of the object 20 reflected on the image surface 30. 32
Is the contour and is the contour of the image 31.
【0023】時刻t1 の画像31の輪郭,時刻t2 の画
像の輪郭,時刻t3 の画像の輪郭等の画像の輪郭の時系
列データと物体20の姿勢,位置,運動パラメータによ
り物体20の形状を推定できる。The time-series data of the contours of the image 31 such as the contour of the image 31 at time t 1 , the contour of the image at time t 2 , the contour of the image at time t 3 , and the posture, position, and motion parameters of the object 20 The shape can be estimated.
【0024】形状推定部6は,画像データを入力し,各
時刻における輪郭データを抽出し,運動同定部の求めた
物体の姿勢,位置,運動パラメータとにより物体の形状
推定をする。The shape estimation unit 6 inputs the image data, extracts the contour data at each time, and estimates the shape of the object based on the posture, position, and motion parameters of the object obtained by the motion identification unit.
【0025】なお,上記において,視点が一つの撮像装
置と物体の位置を測定するレーザ装置を備え,画像デー
タから特徴点を抽出し,その特徴点に対してレーザ光を
照射して反射光を受光し,位置を測定するようにしても
良い。In the above, an image pickup device having one viewpoint and a laser device for measuring the position of an object are provided, feature points are extracted from image data, and the feature points are irradiated with laser light to generate reflected light. You may make it receive light and measure a position.
【0026】なお,撮像装置により撮影された画像デー
タを磁気ディスク装置等の画像データ保存装置10に保
存し,画像データ保存装置10の画像データを取り出し
て入力するようにしても良い。The image data taken by the image pickup device may be stored in the image data storage device 10 such as a magnetic disk device, and the image data of the image data storage device 10 may be extracted and input.
【0027】本発明によれば,等速運動もしくは等角速
度運動している形状の既知でない物体の位置,姿勢,並
進速度,回転軸,角速度等の運動パラメータを求めるこ
とができる。また,形状,姿勢,位置,並進速度,角速
度の運動パラメータの既知でない物体に対して形状推定
も行うことができる。According to the present invention, it is possible to obtain motion parameters such as the position, orientation, translational speed, rotation axis, and angular velocity of an object whose shape is not known, which is moving at a constant velocity or at a constant angular velocity. In addition, shape estimation can be performed on an object whose motion parameters such as shape, posture, position, translational velocity, and angular velocity are unknown.
【0028】[0028]
【実施例】図3は本発明の運動同定装置の実施例であ
る。図3において,50は人工衛星等の浮遊物体であっ
て,並進速度(dv),回転軸(kv)の角速度(ω)
である。dvは速度ベクトル,kvは回転ベクトルであ
る。EXAMPLE FIG. 3 shows an example of the motion identifying apparatus of the present invention. In FIG. 3, reference numeral 50 denotes a floating object such as an artificial satellite, which has a translational velocity (dv) and an angular velocity (ω) about a rotation axis (kv).
Is. dv is a velocity vector and kv is a rotation vector.
【0029】51は運動同定装置である。52,53は
画像入力装置であって左右の撮像装置である。54,5
5は左右の画像処理部であって,特徴点を求めるもので
ある。Reference numeral 51 is a motion identification device. Image input devices 52 and 53 are left and right image pickup devices. 54,5
Reference numeral 5 is a left and right image processing unit for obtaining characteristic points.
【0030】56は位置計算部であって,左右の特徴点
を対応付け,特徴点と画像入力装置の間の距離および方
向を計算し,位置を求めるものである。57は運動同定
部であって,浮遊物体50の位置,姿勢,運動パラメー
タ(並進速度(dv),回転軸(kv),角速度
(ω))を求めるものである。Reference numeral 56 denotes a position calculation unit, which correlates the left and right characteristic points, calculates the distance and direction between the characteristic points and the image input device, and obtains the position. Reference numeral 57 is a motion identification unit that obtains the position, orientation, and motion parameters (translational velocity (dv), rotation axis (kv), angular velocity (ω)) of the floating object 50.
【0031】58は出力部であって,運動同定部57の
求めた結果を出力するインタフェースである。59は磁
気ディスク装置であって,運動同定部57の求めた結
果,画像入力装置52の画像データ等を保存するもので
ある。An output unit 58 is an interface for outputting the result obtained by the motion identifying unit 57. Reference numeral 59 denotes a magnetic disk device, which stores the result obtained by the motion identification unit 57, the image data of the image input device 52, and the like.
【0032】60はディスプレイである。61’はプリ
ンタである。出力結果は浮遊物体50の姿勢制御装置等
の外部装置にも出力される。Reference numeral 60 is a display. 61 'is a printer. The output result is also output to an external device such as a posture control device for the floating object 50.
【0033】図3の構成の動作を説明する。左右の画像
入力装置52,53は浮遊物体50を撮影する。左右の
撮像データはそれぞれ画像処理部54,画像処理部55
に入力され,特徴点が抽出される。The operation of the configuration shown in FIG. 3 will be described. The left and right image input devices 52 and 53 capture the floating object 50. The left and right imaging data are respectively processed by the image processing unit 54 and the image processing unit 55
And the feature points are extracted.
【0034】位置計算部56は左右の画像データの特徴
点の対応付けを行い,特徴点と画像入力装置52,53
との距離および方向を計算し,位置を求める。運動同定
部57は特徴点の位置の時系列データに基づいて,浮遊
物体50の姿勢,運動パラメータを計算する。運動同定
部57の計算結果は必要に応じてディスプレイ60,プ
リンタ61’等に出力される。また,磁気ディスク装置
59に格納されて保存される。The position calculation unit 56 associates the characteristic points of the left and right image data with each other, and the characteristic points and the image input devices 52 and 53.
Calculate the distance and direction to and find the position. The motion identification unit 57 calculates the posture and motion parameters of the floating object 50 based on the time-series data of the positions of the characteristic points. The calculation result of the motion identification unit 57 is output to the display 60, the printer 61 ′, etc. as necessary. In addition, it is stored and saved in the magnetic disk device 59.
【0035】図4は本発明の運動同定装置のシステム構
成実施例である。図4において図3と共通部分は共通の
番号で示す。図4において,51は運動同定装置であ
る。FIG. 4 shows an embodiment of the system configuration of the motion identification device of the present invention. In FIG. 4, parts common to those in FIG. 3 are indicated by common numbers. In FIG. 4, 51 is a motion identification device.
【0036】52は画像入力装置であって,撮像装置等
である。58は出力部である。59は磁気ディスク装置
である。An image input device 52 is an image pickup device or the like. Reference numeral 58 is an output unit. Reference numeral 59 is a magnetic disk device.
【0037】60はディスプレイである。61’はプリ
ンタである。65はCPUである。Reference numeral 60 is a display. 61 'is a printer. Reference numeral 65 is a CPU.
【0038】66はメモリである。メモリ66において
Kは運動同定手段である。メモリ66において,54は
画像処理部であって,画像データから特徴抽出するプロ
グラムである。Reference numeral 66 is a memory. In the memory 66, K is a motion identification means. In the memory 66, 54 is an image processing unit, which is a program for extracting features from image data.
【0039】56は位置計算部であって,左右の画像デ
ータの特徴点の対応付けと,画像入力装置と物体との距
離および方向を計算し,位置を求めるプログラムであ
る。57は運動同定部であって,座標系変換,姿勢演
算,運動同定演算等を行うプログラムである。A position calculation unit 56 is a program for associating feature points of left and right image data with each other, calculating the distance and direction between the image input device and the object, and obtaining the position. A motion identification unit 57 is a program that performs coordinate system conversion, posture calculation, motion identification calculation, and the like.
【0040】図4の動作の概略は図3と同様である。運
動同定手段の動作の詳細は後述する。図5は本発明の運
動同定の計算方法の説明図である。The operation of FIG. 4 is similar to that of FIG. Details of the operation of the motion identification means will be described later. FIG. 5 is an explanatory diagram of the motion identification calculation method of the present invention.
【0041】図5 (a)は実施例1の座標系であり,図5
(b)は実施例2の座標系である。 〔実施例1の運動同定の計算方法〕図5 (a)において,
30は画像入力装置の画像面であり,x軸,y軸,z軸
はカメラ座標系の直交座標であり,x軸,y軸は画像面
30にあり,z軸は画像面30に垂直(光軸方向)であ
る。FIG. 5 (a) shows the coordinate system of the first embodiment.
(b) is the coordinate system of the second embodiment. [Calculation Method for Motion Identification of Embodiment 1] In FIG.
Reference numeral 30 denotes an image plane of the image input device, x-axis, y-axis and z-axis are orthogonal coordinates of the camera coordinate system, x-axis and y-axis are on the image plane 30, and z-axis is perpendicular to the image plane 30 ( Optical axis direction).
【0042】50は物体である。物体50において,
A,B,Cは特徴点であり,Gはその重心(位置座標の
平均)である。物体50は,例えば人工衛星等の浮遊物
体である。Reference numeral 50 is an object. At the object 50,
A, B, and C are feature points, and G is the center of gravity (average of position coordinates). The object 50 is a floating object such as an artificial satellite.
【0043】時刻fの特徴点Aの位置ベクトルをAvf
とし,Avf =(Ax ,Ay ,Az )とする。同様に特
徴点Bの時刻fの位置ベクトルをBvf ,特徴点Cの時
刻fの位置ベクトルをCvf とする。The position vector of the feature point A at time f is set to Av f
And Av f = (A x , A y , A z ). Similarly, the position vector of the feature point B at time f is Bv f , and the position vector of the feature point C at time f is Cv f .
【0044】tvf は重心Gの位置を表すベクトルであ
り,x,y,z座標系での成分が(tx ,ty ,tz )
である。nvは重心座標系のx軸方向の方向ベクトルで
ある。mvは重心座標系のy軸方向の方向ベクトルであ
る。ovは重心座標系のz軸方向の方向ベクトルであ
る。nvはABベクトルの方向にとる。回転軸のベクト
ルkvを表すベクトルの原点となる位置もあらかじめ定
めておく。Tv f is a vector representing the position of the center of gravity G, and the components in the x, y, z coordinate system are (t x , t y , t z )
Is. nv is a direction vector in the x-axis direction of the barycentric coordinate system. mv is a direction vector in the y-axis direction of the barycentric coordinate system. ov is a direction vector in the z-axis direction of the barycentric coordinate system. nv is taken in the direction of the AB vector. The position that is the origin of the vector representing the vector kv of the rotation axis is also determined in advance.
【0045】 nv=(nx =ix ,ny =iy ,nz =iz ) av=(ax =jx ,ay =jy ,az =jz ) ov=(ox ,oy ,oz ) とする。Nv = (n x = i x , n y = i y , n z = i z ) av = (a x = j x , a y = j y , a z = j z ) ov = (o x , O y , o z ).
【0046】時刻fのnv,av,ovをそれぞれnv
f ,avf ,ovf とすると, nvf =Bvf −Avf avf =(Bvf −Avf )×(Cvf −Avf ) ovf =nvf ×avf である。(“×”は外積) Rvf は物体50の姿勢を表し,nv,av,ovを成
分とする次のマトリックスで表されるものである。Nv, av and ov at time f are respectively nv
Letting f , av f , and ov f , nv f = Bv f −Av f av f = (Bv f −Av f ) × (Cv f −Av f ) ov f = nv f × av f . (“×” is an outer product) Rv f represents the posture of the object 50, and is represented by the following matrix having nv, av, and ov as components.
【0047】[0047]
【数1】 [Equation 1]
【0048】である。kvは角速度ωの回転ベクトル,
dvは物体50の並進ベクトルである。mvは回転中心
座標系に対する重心Gの位置を表すベクトルである。Is as follows. kv is the rotation vector of angular velocity ω,
dv is a translation vector of the object 50. mv is a vector representing the position of the center of gravity G with respect to the rotation center coordinate system.
【0049】時刻fのtv,Rvをそれぞれtvf ,R
vf とし,ベクトルkv(角速度ω)の回転変換行列を
Rωとすると, Rvf+1 =RωRvf 従って,Rω=Rvf+1 Rvf -1 である。Let tv and Rv at time f be tv f and R, respectively.
Let v f be the rotation conversion matrix of the vector kv (angular velocity ω) be Rω , then Rv f + 1 = RωRv f, and thus Rω = Rv f + 1 Rv f −1 .
【0050】時刻f(fフレーム),P番目の特徴点の
カメラ座標系の座標(Pfx,Pfy,Pfz)に対して,P
fx=xfp,Pfy=yfp,Pfz=zfpとして表すと,時刻
fの各特徴の重心座標は次のようになる。At time f (f frame), the coordinates (P fx , P fy , P fz ) of the P-th feature point in the camera coordinate system are P
When expressed as fx = x fp , P fy = y fp and P fz = z fp , the barycentric coordinates of each feature at time f are as follows.
【0051】[0051]
【数2】 [Equation 2]
【0052】重心から見た特徴点の位置(カメラ座標
系)は,重心座標系をOg−XgYgZgとすると,The position of the feature point (camera coordinate system) viewed from the center of gravity is Og-XgYgZg in the center of gravity coordinate system.
【0053】[0053]
【数3】 (Equation 3)
【0054】である。次に重心座標系における各時刻の
座標により,It is Next, according to the coordinates of each time in the barycentric coordinate system,
【0055】[0055]
【数4】 [Equation 4]
【0056】という行列を作ったとき,W’を特異値分
解すると,When a matrix called
【0057】[0057]
【数5】 (Equation 5)
【0058】となる。ここで,(nxf,nyf,nzf)は
時刻fのXg軸のカメラ座標系に対する方向ベクトルで
ある。It becomes Here, (n xf , nyf , nzf ) is a direction vector with respect to the camera coordinate system on the Xg axis at time f.
【0059】(oxf,oyf,ozf)は時刻fのYg軸の
カメラ座標系に対する方向ベクトルである。(Sxp,S
yp,Szp)は重心座標系の特徴点の位置である。物体の
姿勢は,(O xf , o yf , o zf ) are direction vectors with respect to the camera coordinate system on the Yg axis at time f. (S xp , S
yp , S zp ) is the position of the feature point in the barycentric coordinate system. The pose of the object is
【0060】[0060]
【数6】 (Equation 6)
【0061】であり,時刻f,f+1において, Rvf+1 =Rω・Rvf であるので,回転変換行列Rωは Rω=Rvf+1 Rvf -1 により計算する。Since Rv f + 1 = RωRv f at times f and f + 1, the rotation conversion matrix Rω is calculated by Rω = Rv f + 1 Rv f -1 .
【0062】時刻fの重心の位置をtvf とすると,If the position of the center of gravity at time f is tv f ,
【0063】[0063]
【数7】 (Equation 7)
【0064】である。以上の関係から,カメラ座標に対
する回転軸の方向(kv),位置(gv),並進速度
(dv),角速度ωを求める。kvとωは,Rω=Rv
f+1 Rvf -1から求めることができる。Is as follows. From the above relationship, the direction (kv) of the rotation axis with respect to the camera coordinates, the position (gv), the translational velocity (dv), and the angular velocity ω are obtained. kv and ω are Rω = Rv
It can be obtained from f + 1 Rv f -1 .
【0065】また, gvf+1 =gvf +dv tvf =gvf +Rvf ・mv であるので, tvf =gv0 +dv・f+Rvf ・mv である。Since gv f + 1 = gv f + dv tv f = gv f + Rv f · mv, tv f = gv 0 + dv · f + Rv f · mv.
【0066】従って, tx =gv0x+f・dvx +nx ・mvx +ox ・mv
y +ax ・mvz ty =gv0y+f・dvy +ny ・mvx +oy ・mv
y +ay ・mvz tz =gv0z+f・dvz +nz ・mvx +oz ・mv
y +az ・mvz 以上の関係により,3時刻のtvf ,Rvf を測定し,
その測定値から得られる連立方程式を解いて,gv0 ,
dv,mvを求めることができる。Therefore, t x = gv 0x + f · dv x + n x · mv x + o x · mv
y + a x · mv z t y = gv 0y + f · dv y + n y · mv x + o y · mv
y + a y · mv z t z = gv 0z + f · dv z + n z · mv x + o z · mv
By the relation of y + a z · mv z or more, tv f and Rv f at three times are measured,
Solving the simultaneous equations obtained from the measured values, gv 0 ,
It is possible to obtain dv and mv.
【0067】図6は本発明のシステム構成実施例のフロ
ーチャート(1) である。 S1,S1’ 画像入力装置から左右の画像データを入
力する。 S2,S2’ 画像処理部54は左右の画像データから
それぞれの特徴抽出をする。FIG. 6 is a flowchart (1) of the system configuration embodiment of the present invention. S1 and S1 'Input left and right image data from the image input device. The S2, S2 'image processing unit 54 extracts respective features from the left and right image data.
【0068】S3 位置計算部56は左右の特徴点の対
応付けを行う。 S4 位置計算部56は特徴点の距離および方向を計算
し,位置を求める。 S5 運動同定部57は,各特徴点の位置の座標(カメ
ラ座標系)を重心座標系に変換する。The S3 position calculator 56 associates the left and right feature points. S4 The position calculation unit 56 calculates the distance and direction of the feature point to obtain the position. The S5 motion identification unit 57 converts the coordinates (camera coordinate system) of the position of each feature point into the barycentric coordinate system.
【0069】S6 各特徴点の座標のマトリックを特異
値分解する。 S7 運動同定部57は姿勢,回転成分を求める。 S8 運動同定部57は並進成分を計算する。S6 The matrix of the coordinates of each feature point is singularly decomposed. S7 The motion identification unit 57 obtains the posture and rotation components. S8 The motion identifying unit 57 calculates the translational component.
【0070】S9 運動同定結果を出力する。 S10 次の時刻の画像データ入力を要求する。 〔実施例2の運動同定方法の計算方法〕以上の説明で
は,特異値分解をして運動パラメータを求めたが,特異
値分解しないでも運動同定をすることができる。S9 The motion identification result is output. S10 Request input of image data at the next time. [Calculation Method of Motion Identification Method of Second Embodiment] In the above description, motion parameters are obtained by performing singular value decomposition, but motion identification can be performed without singular value decomposition.
【0071】図5 (b)を参照して,実施例2の物体の姿
勢,運動パラメータを計算する方法について説明する。
図5 (b)において,30は画像入力装置の画像面であ
り,x軸,y軸,z軸はカメラ座標系の直交座標(原点
Oであり,x軸,y軸は画像面30にあり,画像面の各
辺に平行である。z軸はxy平面に垂直(光軸方向)で
ある。With reference to FIG. 5B, a method of calculating the posture and motion parameters of the object according to the second embodiment will be described.
In FIG. 5 (b), 30 is the image plane of the image input device, and the x-axis, y-axis, and z-axis are the orthogonal coordinates of the camera coordinate system (origin O, and the x-axis and y-axis are on the image plane 30). , Is parallel to each side of the image plane, and the z axis is perpendicular to the xy plane (optical axis direction).
【0072】50は物体である。物体50において,
A,B,Cは特徴点である。時刻fの特徴点Aの位置ベ
クトルをAvf とし,カメラ座標系での座標をAvf =
(Ax ,Ay ,Az )とする。Reference numeral 50 is an object. At the object 50,
A, B and C are characteristic points. The position vector of the feature point A at time f is Av f , and the coordinates in the camera coordinate system are Av f =
(A x , A y , A z ).
【0073】同様に特徴点Bの時刻fの位置ベクトルを
Bvf ,特徴点Cの時刻fの位置ベクトルをCvf とす
る。対象物の座標系を重心座標系とし,その原点(重
心)Gのカメラ座標系の原点Oに対するベクトルをtv
f とする。重心座標系の原点を特徴点Aにとる。Similarly, the position vector of the characteristic point B at time f is Bv f , and the position vector of the characteristic point C at time f is Cv f . The coordinate system of the object is the barycentric coordinate system, and the vector of its origin (centroid) G with respect to the origin O of the camera coordinate system is tv.
Let f . The origin of the barycentric coordinate system is set to the characteristic point A.
【0074】tvf=Avfである。tvfの成分を
(tx ,ty ,tz )とする。nvは重心座標系のx軸
の単位方向ベクトルである。mvは重心座標系のy軸の
単位方向ベクトルである。ovは重心座標系のz軸の単
位方向ベクトルである。nv,av,ovをカメラ座標
系で表し, nv=(nx ,ny ,nz ) av=(ax ,ay ,az ) ov=(ox ,oy ,oz ) とする。Tvf = Avf. The component of tvf is (t x , t y , t z ). nv is a unit direction vector of the x-axis of the barycentric coordinate system. mv is a unit direction vector of the y-axis of the barycentric coordinate system. ov is a unit direction vector of the z-axis of the barycentric coordinate system. nv, av, represent ov the camera coordinate system and nv = (n x, n y , n z) av = (a x, a y, a z) ov = (o x, o y, o z) and .
【0075】時刻fのnv,av,ovをそれぞれnv
f ,avf ,ovf とすると, avf =(Bvf −Avf )×(Cvf −Avf ) ovf =nvf ×avf nvf =Bvf −Avf である(avf ,ovf ,nvf は単位ベクトルであっ
て,実際には右辺の計算結果を規格化したものである
が,便宜的に上式で表す)。Nv, av, and ov at time f are respectively nv
If f , av f , and ov f are set, av f = (Bv f −Av f ) × (Cv f −Av f ) ov f = nv f × av f nv f = Bv f −Av f (av f , ov f and nv f are unit vectors, which are actually standardized calculation results on the right side, but are represented by the above formulas for convenience).
【0076】Rvf は物体50の姿勢を表し,nv,a
v,ovを成分とする次のマトリックスで表されるもの
である。Rv f represents the posture of the object 50, and nv, a
It is represented by the following matrix having v and ov as components.
【0077】[0077]
【数8】 (Equation 8)
【0078】ものである。kvは角速度ωの回転ベクト
ル,dvは物体50の並進ベクトルである。mvは回転
中心座標系に対する重心Gの位置を表すベクトルであ
る。It is something. kv is a rotation vector of the angular velocity ω, and dv is a translation vector of the object 50. mv is a vector representing the position of the center of gravity G with respect to the rotation center coordinate system.
【0079】時刻fのtv,Rvをそれぞれtvf ,R
vf とし,ベクトルkv(角速度ω)の回転変換行列を
Rωとすると, Rvf+1 =RωRvf 従って,Rω=Rvf+1 Rvf -1である。Let tv and Rv at time f be tv f and R, respectively.
Let v f be the rotation conversion matrix of the vector kv (angular velocity ω) be Rω , then Rv f + 1 = RωRv f, and thus Rω = Rv f + 1 Rv f −1 .
【0080】以上の関係から,カメラ座標に対する回転
軸の方向(kv),位置(gv),並進速度(dv),
角速度(ω)を求める。kvとωは,Rω=Rvf+1 R
vf -1から求めることができる。From the above relationship, the direction (kv) of the rotation axis with respect to the camera coordinates, the position (gv), the translational velocity (dv),
Calculate the angular velocity (ω). kv and ω are Rω = Rv f + 1 R
It can be obtained from v f -1 .
【0081】また, gvf+1 =gvf +dv tvf =gvf +Rvf ・mv であるので, tvf =gv0 +dv・f+Rvf ・mv である。Since gv f + 1 = gv f + dv tv f = gv f + Rv f · mv, tv f = gv 0 + dv · f + Rv f · mv.
【0082】従って, tx =gv0x+f・dvx +nx ・mvx +ox ・mv
y +ax ・mvz ty =gv0y+f・dvy +ny ・mvx +oy ・mv
y +ay ・mvz tz =gv0z+f・dvz +nz ・mvx +oz ・mv
y +az ・mvz 以上の関係により,3時刻のtvf ,Rvf を測定し,
その測定値から得られる連立方程式を解いて,gv0 ,
dv,mvが求まる。Therefore, t x = gv 0x + f · dv x + n x · mv x + o x · mv
y + a x · mv z t y = gv 0y + f · dv y + n y · mv x + o y · mv
y + a y · mv z t z = gv 0z + f · dv z + n z · mv x + o z · mv
By the relation of y + a z · mv z or more, tv f and Rv f at three times are measured,
Solving the simultaneous equations obtained from the measured values, gv 0 ,
dv and mv are obtained.
【0083】なお,運動同定の計算方法のは,特願平5
−145633号に詳述されている。図7は本発明のシ
ステム構成の実施例のフローチャート(2) であって,上
記の運動同定方法(2) により運動同定する場合のフロー
チャートである。The calculation method for motion identification is described in Japanese Patent Application No.
No. 145633. FIG. 7 is a flowchart (2) of the embodiment of the system configuration of the present invention, which is a flowchart in the case of performing motion identification by the above-mentioned motion identification method (2).
【0084】S1,S1’ 画像データ入力部61は各
時刻毎に左右の画像入力装置から画像データを入力す
る。 S2,S2’ 画像処理部54は各時刻毎に左右の画像
の特徴点A,B,Cをそれぞれ抽出する。The S1, S1 'image data input section 61 inputs image data from the left and right image input devices at each time. The S2, S2 ′ image processing unit 54 extracts the characteristic points A, B, C of the left and right images at each time.
【0085】S3 位置計算部56は各時刻毎の左右の
特徴点の対応付けを行う。 S4 位置計算部56は各時刻毎に特徴点の距離および
方向を計算し,位置を求める。即ち,時刻fの特徴点
A,B,Cの位置ベクトルAvf =(Ax ,Ay,
Az ),Bvf =(Bx ,By ,Bz ),Cvf =(C
x ,Cy ,Cz )を求める。The S3 position calculator 56 associates the left and right feature points at each time. The S4 position calculation unit 56 calculates the distance and direction of the feature point at each time to obtain the position. That is, the position vector Av f = (A x , A y , of the feature points A, B, C at time f
A z), Bv f = ( B x, B y, B z), Cv f = (C
x , C y , C z ) is obtained.
【0086】S5 運動同定部57は重心座標系に座標
変換し,姿勢演算をする。即ち,時刻fの重心座標の直
交軸の方向ベクトルnv,av,ovをそれぞれn
vf ,avf ,ovf とすると, avf =(Bvf −Avf )×(Cvf −Avf ) ovf =nvf ×avf nvf =Bvf −Avf を求める。S5 The motion identifying section 57 performs coordinate conversion into the barycentric coordinate system and calculates the posture. That is, the direction vectors nv, av, ov of the orthogonal axes of the barycentric coordinates at time f are respectively n
v f, av f, when the ov f, obtaining the av f = (Bv f -Av f ) × (Cv f -Av f) ov f = nv f × av f nv f = Bv f -Av f.
【0087】S6 運動同定部57は特徴点の距離をも
とに連続する3時刻のtvf ,Rv f (f=0,1,
2)を求める。そして回転行列Rω=Rvf+1 Rvf -1
を求める。S6 The motion identification unit 57 also calculates the distances of the feature points.
Tv for 3 consecutive hoursf, Rv f(F = 0, 1,
2) is asked. And the rotation matrix Rω = Rvf + 1Rvf -1
Ask for.
【0088】さらに,gvf+1 =gvf +dv (dv
は並進速度ベクトル)より tvf =gv0 +dv・f+Rvf ・mv(f=0,
1,2) であるので,3時刻のtvf ,Rvf の測定値より得ら
れる,連立方程式を解いて,gv0 ,dv,mvを求め
る。Furthermore, gv f + 1 = gv f + dv (dv
Is a translational velocity vector) tv f = gv 0 + dv · f + Rv f · mv (f = 0,
1, 2), the simultaneous equations obtained from the measured values of tv f and Rv f at three times are solved to obtain gv 0 , dv, mv.
【0089】S7 出力部は運動同定結果を出力する。 S8 次の連続する3時刻の画像データを要求する。 図8は本発明の形状推定装置の実施例である。The S7 output section outputs the motion identification result. S8 Request image data for the next three consecutive times. FIG. 8 shows an embodiment of the shape estimation device of the present invention.
【0090】図8 (a)は装置構成を示す。図8 (b)は図
8 (a)の装置のフローチャートである。図8 (a)におい
て,50は浮遊物体であり,並進速度(kv),角速度
(ω),回転軸(kv)である。FIG. 8A shows the device configuration. FIG. 8 (b) is a flow chart of the apparatus of FIG. 8 (a). In FIG. 8 (a), 50 is a floating object, which is a translational velocity (kv), an angular velocity (ω), and a rotation axis (kv).
【0091】51’は形状推定装置であって,浮遊物体
50の形状を推定するものである。52,53は左右の
画像入力装置である。54,55は左右の画像処理部で
あって,左右の画像データの特徴点を抽出するものであ
る。Reference numeral 51 'is a shape estimating device for estimating the shape of the floating object 50. Reference numerals 52 and 53 are left and right image input devices. Reference numerals 54 and 55 are left and right image processing units for extracting feature points of left and right image data.
【0092】56は位置計算部であって,左右の特徴点
の対応付けをし,特徴点の位置を算出するものである。
58は出力部であって,形状推定した結果を出力するイ
ンタフェースである。Reference numeral 56 is a position calculation unit, which correlates the left and right characteristic points and calculates the positions of the characteristic points.
An output unit 58 is an interface for outputting the result of shape estimation.
【0093】70は形状推定部であって,浮遊物体50
の形状推定を行うものである。形状推定部70におい
て,57は運動同定部であって,浮遊物体50の姿勢,
運動パラメータを求めるものである。Reference numeral 70 denotes a shape estimation unit, which is a floating object 50.
Shape estimation is performed. In the shape estimating unit 70, 57 is a motion identifying unit, which is the posture of the floating object 50,
This is to obtain a motion parameter.
【0094】65は輪郭点座標保持部であって,画像の
輪郭データを抽出して保持するものである。66’は形
状推定演算部であって,画像の輪郭データと運動パラメ
ータにより形状推定を行うものである。Reference numeral 65 is a contour point coordinate holding unit, which extracts and holds contour data of an image. Reference numeral 66 'is a shape estimation calculation unit, which estimates the shape from the contour data of the image and the motion parameters.
【0095】60はディスプレイであって,推定形状を
画面に表示するものである。59は磁気ディスク装置で
あって,推定した形状データを保存するものである。Reference numeral 60 denotes a display, which displays the estimated shape on the screen. A magnetic disk device 59 stores the estimated shape data.
【0096】61’はプリンタであって,形状推定結果
のデータを印刷出力するものである。なお,出力部は物
体の位置,姿勢,運動パラメータ,形状を姿勢制御装置
等の外部装置にも出力する。Reference numeral 61 'is a printer for printing out the data of the shape estimation result. The output unit also outputs the position, posture, motion parameter, and shape of the object to an external device such as a posture control device.
【0097】図8 (b)の説明は後述する。図9は本発明
の形状推定装置のシステム構成の実施例である。図9に
おいて,51’は形状推定装置である。The description of FIG. 8B will be given later. FIG. 9 shows an embodiment of the system configuration of the shape estimation device of the present invention. In FIG. 9, 51 'is a shape estimation device.
【0098】52は左右の画像入力装置である。61は
画像データ入力部であって,画像データを入力するイン
タフェースである。Reference numeral 52 is a left and right image input device. An image data input unit 61 is an interface for inputting image data.
【0099】65はCPUである。66はメモリであ
る。K’は形状推定手段である。58は出力部であっ
て,形状推定データを外部装置に出力するインタフェー
スである。Reference numeral 65 is a CPU. 66 is a memory. K'is a shape estimation means. An output unit 58 is an interface that outputs shape estimation data to an external device.
【0100】59は磁気ディスク装置であって,画像デ
ータおよび形状推定データ等を保存するものである。6
0はディスプレイであって,推定した形状を画面に表示
するものである。A magnetic disk device 59 stores image data, shape estimation data and the like. 6
Reference numeral 0 denotes a display, which displays the estimated shape on the screen.
【0101】61’はプリンタである。メモリ66にお
いて,54は左右の画像処理部であって,画像データに
基づいて特徴点を抽出する等の処理を行うプログラムで
ある。Reference numeral 61 'is a printer. In the memory 66, the left and right image processing units 54 are programs that perform processing such as extracting feature points based on image data.
【0102】56は位置計算部であって,左右の特徴点
を対応付ける処理および各特徴点の位置を求めるプログ
ラムである。57は運動同定部であって,運動同定する
プログラムである。A position calculation unit 56 is a program for associating left and right characteristic points with each other and for obtaining the position of each characteristic point. 57 is a motion identification unit, which is a program for motion identification.
【0103】70は形状推定部である。形状推定部70
において,64は輪郭抽出部であって,画像データに基
づいて画像の輪郭を抽出するプログラムである。Reference numeral 70 is a shape estimation unit. Shape estimating unit 70
In the above, reference numeral 64 is a contour extraction unit, which is a program for extracting the contour of an image based on image data.
【0104】65は輪郭点座標保持部であって,輪郭の
座標を保持する領域である。66’は形状推定演算部で
あって,形状推定の演算を行うプログラムである。59
は磁気ディスク装置である。Reference numeral 65 denotes a contour point coordinate holding unit, which is an area for holding the coordinates of the contour. Reference numeral 66 'is a shape estimation calculation unit, which is a program for calculating shape estimation. 59
Is a magnetic disk device.
【0105】60はディスプレイである。61’はプリ
ンタである。図8 (b)により本発明の形状推定装置の動
作を説明する。Reference numeral 60 is a display. 61 'is a printer. The operation of the shape estimation device of the present invention will be described with reference to FIG.
【0106】本発明の形状推定装置の画像入力から運動
同定までの処理は前述の運動同定装置のものと同じであ
る。 S1 左右の画像入力装置52,53から画像入力をす
る。The process from image input to motion identification of the shape estimation device of the present invention is the same as that of the motion identification device described above. S1 Images are input from the left and right image input devices 52 and 53.
【0107】S2 左右の画像処理部54,55は画像
データから特徴点を抽出する。 S3 位置計算部56は左右の特徴点の対応付けを行
う。 S4 位置計算部56は特徴点の距離を計算する。S2 The left and right image processing units 54 and 55 extract feature points from the image data. The S3 position calculation unit 56 associates the left and right feature points. The S4 position calculation unit 56 calculates the distance between the feature points.
【0108】S5 運動同定部57は浮遊物体50の特
徴点の位置の時系列データから姿勢,運動パラメータを
求める。 S6 輪郭抽出部64は画像データから輪郭を抽出す
る。S5 The motion identification unit 57 obtains the posture and motion parameters from the time series data of the positions of the characteristic points of the floating object 50. S6 The contour extraction unit 64 extracts a contour from the image data.
【0109】S7 形状推定部70は連続する複数時点
の輪郭データと姿勢,位置,運動パラメータにより形状
を推定する。 S8 位置,姿勢,運動パラメータ,推定した形状を出
力する。S7 The shape estimating unit 70 estimates the shape from the contour data at a plurality of consecutive time points and the posture, position and motion parameters. S8 The position, posture, motion parameter, and estimated shape are output.
【0110】S9 次の画像データの入力要求をする。S9 Input request for the next image data is made.
【0111】[0111]
【発明の効果】本発明の運動同定装置によれば,物体の
モデルや距離計測用のマークがなくても物体の位置,姿
勢,運動パラメータを求めることができる。また,本発
明の形状測定装置によれば,物体のモデルや距離計測用
のマークがなくても物体の位置,姿勢,運動パラメータ
を求め,その測定結果を用いて物体の形状を求めること
もできる。According to the motion identifying apparatus of the present invention, the position, orientation, and motion parameters of an object can be obtained without a model of the object or a mark for distance measurement. Further, according to the shape measuring apparatus of the present invention, it is possible to obtain the position, orientation, and motion parameters of the object without using the object model or the mark for distance measurement, and to obtain the shape of the object using the measurement result. .
【図1】本発明の基本構成を示す図である。FIG. 1 is a diagram showing a basic configuration of the present invention.
【図2】本発明の形状推定装置の形状測定方法の説明図
である。FIG. 2 is an explanatory diagram of a shape measuring method of the shape estimating device of the present invention.
【図3】本発明の運動同定装置の実施例を示す図であ
る。FIG. 3 is a diagram showing an embodiment of the motion identification device of the present invention.
【図4】本発明の運動同定装置のシステム構成実施例を
示す図である。FIG. 4 is a diagram showing a system configuration example of the motion identification device of the present invention.
【図5】本発明の運動同定の計算方法(1) ,(2) の説明
図である。FIG. 5 is an explanatory diagram of calculation methods (1) and (2) for motion identification according to the present invention.
【図6】本発明のシステム構成実施例のフローチャート
(1) を示す図である。FIG. 6 is a flowchart of a system configuration example of the present invention.
It is a figure which shows (1).
【図7】本発明のシステム構成実施例のフローチャート
(2) を示す図である。FIG. 7 is a flowchart of a system configuration example of the present invention.
It is a figure which shows (2).
【図8】本発明の形状推定装置の実施例を示す図であ
る。FIG. 8 is a diagram showing an embodiment of a shape estimation device of the present invention.
【図9】本発明の形状推定装置のシステム構成実施例を
示す図である。FIG. 9 is a diagram showing a system configuration example of a shape estimation device of the present invention.
F:運動同定装置 1:測定対象の物体 2:画像入力装置(形状推定装置) K:運動同定手段 K’:形状推定手段 3:画像処理部 4:位置計算部 5:運動同定部 6:形状推定部 7:出力部 10:画像データ保存装置 F: Motion identification device 1: Object to be measured 2: Image input device (shape estimation device) K: Motion identification means K ': Shape estimation means 3: Image processing part 4: Position calculation part 5: Motion identification part 6: Shape Estimating unit 7: Output unit 10: Image data storage device
フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G01P 3/36 C G06T 7/00 7/60 Continuation of front page (51) Int.Cl. 6 Identification code Office reference number FI Technical display location G01P 3/36 C G06T 7/00 7/60
Claims (4)
る画像入力装置と,該画像データにより物体の特徴点を
抽出する画像処理部と,画像面に対する特徴点までの位
置を計測する位置計算部と,該特徴点の時系列の位置の
データに基づいて該物体の姿勢および物体の運動パラメ
ータを求める運動同定部と,求めた位置,姿勢,運動パ
ラメータを出力する出力部とを備えたことを特徴とする
運動同定装置。1. An image input device for inputting image data of a moving object, an image processing unit for extracting a feature point of the object from the image data, and a position calculation for measuring a position to the feature point with respect to an image plane. Section, a motion identifying section for obtaining the posture of the object and motion parameters of the object based on the time-series position data of the feature points, and an output section for outputting the obtained position, posture, and motion parameters Motion identification device characterized by.
姿勢および運動パラメータを求める運動同定手段と出力
部とを備え,運動同定手段は,画像入力装置から入力さ
れる画像データにより物体の特徴点を抽出し,該特徴点
の画像面に対する位置を算出し,該特徴点の時系列の位
置のデータに基づいて物体の姿勢および運動パラメータ
を求め,求めた位置,姿勢,運動パラメータを出力する
ことを特徴とする運動同定方法。2. An image input device, a motion identifying means for determining the position and orientation of a moving object, and a motion parameter, and an output part, wherein the motion identifying means uses the image data input from the image input device to detect the object. Extract feature points, calculate the position of the feature points with respect to the image plane, determine the pose and motion parameters of the object based on the time-series position data of the feature points, and output the calculated position, pose, and motion parameters A method for identifying movement, which comprises:
る画像入力装置と,該画像データにより物体の特徴点を
抽出する画像処理部と,画像面に対する該特徴点の位置
を計算する位置計算部と,該特徴点の時系列の位置のデ
ータに基づいて物体の姿勢および運動パラメータを求め
る運動同定部と,該物体の画像面上の輪郭と位置と姿勢
および運動パラメータとに基づいて該物体の形状を推定
する形状推定部と,求めた位置,姿勢,運動パラメータ
および形状を出力する出力部とを備えたことを特徴とす
る形状推定装置。3. An image input device for inputting image data of a moving object, an image processing unit for extracting a feature point of the object from the image data, and a position calculation for calculating a position of the feature point with respect to an image plane. Section, a motion identification section that obtains the pose and motion parameters of the object based on time-series position data of the feature points, and the object based on the contour, position, pose, and motion parameters of the object on the image plane. A shape estimation apparatus comprising: a shape estimation unit that estimates the shape of the object; and an output unit that outputs the obtained position, orientation, motion parameter, and shape.
姿勢および運動パラメータを求める形状推定手段と出力
部とを備え,形状推定手段は,画像入力装置から入力さ
れる画像データにより物体の特徴点を抽出し,画像面に
対する特徴点の位置を計算し,該位置の時系列データに
基づいて物体の姿勢および運動パラメータを求め,時系
列の画像の輪郭データを求め,該時系列の輪郭データと
位置と姿勢および運動パラメータとに基づいて物体の形
状を推定し,求めた位置,姿勢,運動パラメータおよび
形状を出力することを特徴とする形状測定方法。4. An image input device, a shape estimating means for obtaining the position and orientation of a moving object, and a motion parameter, and an output part. The shape estimating means uses the image data input from the image input device to detect the object. The feature points are extracted, the positions of the feature points with respect to the image plane are calculated, the posture and motion parameters of the object are obtained based on the time-series data of the positions, the contour data of the time-series image is obtained, and the contours of the time-series are obtained. A shape measuring method characterized by estimating the shape of an object based on data, a position, a posture, and a motion parameter, and outputting the obtained position, posture, motion parameter, and shape.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6237414A JPH08101038A (en) | 1994-09-30 | 1994-09-30 | Motion identification device, motion identification method, shape estimation device, and shape measurement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6237414A JPH08101038A (en) | 1994-09-30 | 1994-09-30 | Motion identification device, motion identification method, shape estimation device, and shape measurement method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08101038A true JPH08101038A (en) | 1996-04-16 |
Family
ID=17015019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6237414A Withdrawn JPH08101038A (en) | 1994-09-30 | 1994-09-30 | Motion identification device, motion identification method, shape estimation device, and shape measurement method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08101038A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011118476A1 (en) * | 2010-03-25 | 2011-09-29 | 株式会社東芝 | Three dimensional distance measuring device and method |
-
1994
- 1994-09-30 JP JP6237414A patent/JPH08101038A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011118476A1 (en) * | 2010-03-25 | 2011-09-29 | 株式会社東芝 | Three dimensional distance measuring device and method |
JP2011203108A (en) * | 2010-03-25 | 2011-10-13 | Toshiba Corp | Apparatus and method for measuring three-dimensional distance |
US9214024B2 (en) | 2010-03-25 | 2015-12-15 | Kabushiki Kaisha Toshiba | Three-dimensional distance measurement apparatus and method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Abidi et al. | A new efficient and direct solution for pose estimation using quadrangular targets: Algorithm and evaluation | |
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
CN102472609B (en) | Position and orientation calibration method and apparatus | |
Szeliski et al. | Shape ambiguities in structure from motion | |
JP5618569B2 (en) | Position and orientation estimation apparatus and method | |
JPH10253322A (en) | Method and apparatus for designating position of object in space | |
JPH06137840A (en) | Vision sensor automatic calibration device | |
Mery | Explicit geometric model of a radioscopic imaging system | |
CN111260736A (en) | In-orbit real-time calibration method for internal parameters of space camera | |
CN113137973A (en) | Image semantic feature point truth value determining method and device | |
JPH05196437A (en) | Three-dimensional information input device | |
Tan et al. | Structure from motion using the ground plane constraint | |
JP3512894B2 (en) | Relative moving amount calculating apparatus and relative moving amount calculating method | |
CN110955958A (en) | A working method of a workpiece positioning device based on a CAD model | |
Jiang et al. | A multi-view structured light measurement method based on pose estimation using deep learning | |
JPH08101038A (en) | Motion identification device, motion identification method, shape estimation device, and shape measurement method | |
JP3516668B2 (en) | Three-dimensional shape recognition method, apparatus and program | |
JPH08105724A (en) | Three-dimensional shape measuring device and three-dimensional shape measuring method | |
JP3512919B2 (en) | Apparatus and method for restoring object shape / camera viewpoint movement | |
Blostein et al. | Three-dimensional trajectory estimation from image position and velocity | |
JP2001245323A (en) | Three-dimensional input method and device | |
JP2005186193A (en) | Calibration method and three-dimensional position measuring method for robot | |
JP3504128B2 (en) | Three-dimensional information restoration apparatus and method | |
Shieh et al. | Motion estimation from a sequence of stereo images: A direct method | |
Leu et al. | Vision system for three-dimensional position measurement based on stereo disparity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020115 |