JP2000283720A - Method and device for inputting three-dimensional data - Google Patents
Method and device for inputting three-dimensional dataInfo
- Publication number
- JP2000283720A JP2000283720A JP11087552A JP8755299A JP2000283720A JP 2000283720 A JP2000283720 A JP 2000283720A JP 11087552 A JP11087552 A JP 11087552A JP 8755299 A JP8755299 A JP 8755299A JP 2000283720 A JP2000283720 A JP 2000283720A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional data
- subject
- dimensional
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Measurement Of Optical Distance (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、被写体の3次元デ
ータを入力するための3次元データ入力方法及び装置に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for inputting three-dimensional data of a subject.
【0002】[0002]
【従来の技術】光学式の3次元データ入力装置(3次元
カメラ)は、接触型に比べて高速の計測が可能であるこ
とから、CGシステムやCADシステムへのデータ入
力、身体計測、ロボットの視覚認識などに利用されてい
る。このような3次元データ入力装置に好適な計測方法
としてスリット光投影法(光切断法ともいう)が知られ
ている。2. Description of the Related Art An optical three-dimensional data input device (three-dimensional camera) can perform higher-speed measurement than a contact type, so that data input to a CG system or a CAD system, body measurement, and robot It is used for visual recognition. As a measurement method suitable for such a three-dimensional data input device, a slit light projection method (also referred to as a light cutting method) is known.
【0003】図8はスリット光投影法を適用した3次元
カメラ80の入力原理を示す図である。図8において、
3次元カメラ80は、投光部81と受光部82とを有す
る。投光部81は、断面が直線状のスリット光Sを照射
する。受光部82は、撮像面83及び図示しない結像レ
ンズを有する。投光部81と受光部82とは、通常、互
いに所定の寸法だけ離れた状態で、1つのハウジングに
一体的に組み込まれている。FIG. 8 is a diagram showing an input principle of a three-dimensional camera 80 to which the slit light projection method is applied. In FIG.
The three-dimensional camera 80 has a light projecting unit 81 and a light receiving unit 82. The light projecting unit 81 emits slit light S having a linear cross section. The light receiving section 82 has an imaging surface 83 and an imaging lens (not shown). The light-emitting unit 81 and the light-receiving unit 82 are usually integrated into one housing with a predetermined distance from each other.
【0004】被写体Q1は、投光部81からのスリット
光Sによって照射され、その反射光が撮像面83上でス
リット像として捕らえられる。このスリット像における
1つの点p' に対応する被写体Q1上の点pの空間座標
は、スリット光Sによって形成される平面と、点p' 及
び結像レンズの中心点Oを結ぶ直線Lとの交点の座標と
して求められる。したがって、スリット光Sで得られた
1枚のスリット像から、このスリット像上の各点に対応
した被写体Q1の表面の点群の空間座標が求められる。
スリット光Sを水平方向に移動させることで被写体Q1
を走査し、各走査位置でのスリット像を入力することで
被写体Q1の表側部分、つまりスリット光Sの照射を受
けた部分の3次元データが入力される。The subject Q1 is illuminated by the slit light S from the light projecting section 81, and the reflected light is captured as a slit image on the imaging surface 83. The spatial coordinates of a point p on the subject Q1 corresponding to one point p 'in the slit image are defined by a plane formed by the slit light S and a straight line L connecting the point p' and the center point O of the imaging lens. It is obtained as the coordinates of the intersection. Therefore, from one slit image obtained with the slit light S, the spatial coordinates of a point group on the surface of the subject Q1 corresponding to each point on this slit image are obtained.
By moving the slit light S in the horizontal direction, the subject Q1 is moved.
Is scanned, and a slit image at each scanning position is input, so that three-dimensional data of a front side portion of the subject Q1, that is, a portion irradiated with the slit light S is input.
【0005】被写体Q1の全周における3次元データを
得たい場合には、被写体Q1について複数方向から入力
することが必要となる。そのための方法として2つの方
法が知られている。第1の方法では、3次元カメラ80
を、その撮影方向が被写体Q1に向いた状態で被写体Q
1を中心とした所定の軌道上を移動させ、被写体Q1に
対して複数方向から撮影を行う。第2の方法では、回転
ステージに被写体Q1を載せて回転させ、所定位置に設
置した3次元カメラ80により、被写体Q1に対して複
数方向から撮影を行う。When it is desired to obtain three-dimensional data over the entire circumference of the subject Q1, it is necessary to input the subject Q1 from a plurality of directions. Two methods are known as a method for that. In the first method, the three-dimensional camera 80
With the subject Q facing the subject Q1.
The subject Q1 is moved on a predetermined trajectory with the center at 1, and shooting is performed on the subject Q1 from a plurality of directions. In the second method, the subject Q1 is placed on a rotating stage and rotated, and the three-dimensional camera 80 installed at a predetermined position captures an image of the subject Q1 from a plurality of directions.
【0006】複数方向から入力された被写体Q1の3次
元データは、3次元カメラ80の移動する軌道上におけ
る位置、又は回転ステージの位置に基づいて算出された
変換パラメータにより、それぞれ位置合わせの処理が行
われる。これにより、被写体Q1の全周における3次元
デ−タが得られる。[0006] The three-dimensional data of the subject Q1 input from a plurality of directions is subjected to alignment processing by a conversion parameter calculated based on the position on the trajectory of the three-dimensional camera 80 or the position of the rotary stage. Done. Thus, three-dimensional data over the entire circumference of the subject Q1 is obtained.
【0007】しかし、上述した方法では、位置合わせの
精度を向上するために、3次元カメラ80の位置又は回
転ステージの角度位置を高精度に検出する必要があり、
コスト高となる。However, in the above-described method, it is necessary to detect the position of the three-dimensional camera 80 or the angular position of the rotary stage with high accuracy in order to improve the positioning accuracy.
The cost is high.
【0008】しかも、3次元カメラ80を移動装置など
にセットすることとなるため、3次元カメラ80を手に
持って撮影することができない。そのため、入力を行う
ことのできる被写体が制限される。つまり、例えば、既
設の石像又は銅像などのように移動できない被写体は、
この方法によっては3次元デ−タの入力ができない。In addition, since the three-dimensional camera 80 is set on a moving device or the like, it is impossible to hold the three-dimensional camera 80 and hold an image. For this reason, subjects to which input can be made are limited. That is, for example, a subject that cannot move, such as an existing stone image or a copper image,
With this method, three-dimensional data cannot be input.
【0009】このような問題を解決するために、特開平
9−5051号公報に記載の装置が提案されている。こ
の従来の装置によると、被写体Q1を任意の複数方向か
ら撮影し、3次元デ−タの入力を行う。入力を行った
後、複数方向から入力された3次元形状、及び、それら
と同時に同一の視野から入力され且つ3次元データとの
対応付けがなされているカラー画像を表示する。ユーザ
は、表示されたカラー画像を見ながら、それらの3次元
形状における互いの対応点を色の変化などに基づいて手
動で指定する。ユーザにより指定された対応点に基づい
て、入力された3次元データの相互間の位置合わせが行
われる。In order to solve such a problem, an apparatus described in Japanese Patent Application Laid-Open No. 9-5051 has been proposed. According to this conventional apparatus, the subject Q1 is photographed from a plurality of arbitrary directions, and three-dimensional data is input. After the input, a three-dimensional shape input from a plurality of directions and a color image input simultaneously from the same field of view and associated with the three-dimensional data are displayed. The user manually designates corresponding points in the three-dimensional shapes based on a change in color while viewing the displayed color image. Based on the corresponding points specified by the user, the positions of the input three-dimensional data are aligned with each other.
【0010】[0010]
【発明が解決しようとする課題】しかし、上に述べた従
来の装置によると、複数の3次元データの相互間の位置
合わせのために、ユーザが対応点を指定する作業を行う
必要があり、その作業が極めて面倒である。However, according to the above-mentioned conventional apparatus, it is necessary for a user to perform a work of designating a corresponding point in order to align a plurality of three-dimensional data with each other. The work is extremely troublesome.
【0011】また、3次元デ−タの入力を行う際には、
被写体Q1の全周について旨く撮影が行われたか否かを
確認する方法がない。そのため、複数の3次元データが
適切な重なりを持って連続していなかったり、データが
不足する場合には、3次元データの相互間の対応点を旨
くとることができない。そのような場合には、3次元デ
ータの相互間の位置合わせの精度が低下したり、酷い場
合には撮影をやり直す必要がある。When inputting three-dimensional data,
There is no method for confirming whether or not photographing has been successfully performed on the entire circumference of the subject Q1. Therefore, when a plurality of three-dimensional data are not continuous with an appropriate overlap or are insufficient, a corresponding point between the three-dimensional data cannot be well determined. In such a case, the accuracy of the mutual alignment of the three-dimensional data is reduced, or in a severe case, the photographing needs to be performed again.
【0012】本発明は、上述の問題に鑑みてなされたも
ので、被写体の3次元データの入力を簡単に迅速に且つ
正確に行うことができ、被写体の全周又は所定範囲にお
ける欠落のない合成画像を容易に取得することを可能と
する3次元データ入力方法及び装置を提供することを目
的とする。SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and can easily, quickly, and accurately input three-dimensional data of a subject, and can perform composition without loss over the entire circumference or a predetermined range of the subject. It is an object of the present invention to provide a method and an apparatus for inputting three-dimensional data that enable easy acquisition of an image.
【0013】[0013]
【課題を解決するための手段】請求項1に係る3次元デ
ータ入力方法は、図5及び図6に示すように、被写体Q
を確認するためのモニタ画面21を有し、前記被写体Q
を撮影することによって前記被写体Qの3次元データの
入力を行うように構成された3次元データ入力装置2に
おける3次元データ入力方法であって、前記被写体Qの
一部分から入力した3次元データに基づいてその形状に
対応する3次元形状モデルの画像を生成し、前記3次元
形状モデルの画像をフレーミングの案内画像GPとして
前記モニタ画面21に表示し、前記案内画像GPと前記
被写体Qの画像QPのうち前記案内画像GPに対応する
画像とが重なるようにフレーミングを行い、前記フレー
ミングがなされた状態で前記被写体Qの撮影を行う。According to a first aspect of the present invention, there is provided a three-dimensional data input method, comprising the steps of:
Has a monitor screen 21 for checking the object Q
Is a three-dimensional data input method in the three-dimensional data input device 2 configured to input three-dimensional data of the subject Q by photographing the subject, based on three-dimensional data input from a part of the subject Q. To generate an image of a three-dimensional shape model corresponding to the shape, display the image of the three-dimensional shape model on the monitor screen 21 as a framing guide image GP, and display the guide image GP and the image QP of the subject Q. The framing is performed such that the image corresponding to the guide image GP overlaps, and the subject Q is photographed in the state where the framing is performed.
【0014】請求項2に係る3次元データ入力装置は、
図2乃至図6に示すように、被写体Qを確認するための
モニタ画面21を有し、前記被写体Qを撮影することに
よって前記被写体Qの3次元データの入力を行うように
構成された3次元データ入力装置2であって、前記被写
体Qの一部分から入力した3次元データに基づいてその
形状に対応する3次元形状モデルの画像を生成する3次
元形状モデル画像生成手段73と、前記3次元形状モデ
ルの画像をフレーミングの案内画像GPとして前記モニ
タ画面21に表示させる表示指示手段76と、フレーミ
ングがなされた被写体Qを撮影することによって入力さ
れる3次元データを記憶する記憶手段63と、を有す
る。The three-dimensional data input device according to claim 2 is
As shown in FIGS. 2 to 6, a three-dimensional screen having a monitor screen 21 for confirming the subject Q is configured to input three-dimensional data of the subject Q by photographing the subject Q. A three-dimensional shape model image generating means for generating a three-dimensional shape model image corresponding to the shape based on three-dimensional data input from a part of the subject; The display device has display instruction means 76 for displaying an image of the model as the framing guide image GP on the monitor screen 21 and storage means 63 for storing three-dimensional data input by photographing the framed subject Q. .
【0015】[0015]
【発明の実施の形態】図1は本発明に係る3次元カメラ
2を用いた計測システム1の構成図、図2は3次元カメ
ラ2の外観を示す図である。FIG. 1 is a block diagram of a measuring system 1 using a three-dimensional camera 2 according to the present invention, and FIG.
【0016】図1に示すように、計測システム1は、3
次元カメラ2及びホスト3から構成される。3次元カメ
ラ2は、スリット光投影法によって立体計測を行う可搬
型の3次元データ入力装置であり、入力対象となる被写
体Qを撮影することにより、3次元データ(距離デー
タ)を入力し、この3次元データに基づいて被写体Qの
3次元形状を求めるための基となるデータを算出し出力
する。As shown in FIG. 1, the measuring system 1
It comprises a two-dimensional camera 2 and a host 3. The three-dimensional camera 2 is a portable three-dimensional data input device that performs three-dimensional measurement by a slit light projection method. The three-dimensional camera 2 inputs three-dimensional data (distance data) by photographing a subject Q to be input. Based on the three-dimensional data, the base data for calculating the three-dimensional shape of the subject Q is calculated and output.
【0017】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。3次元カメラ2とホス
ト3との間では、オンライン及び可搬型の記録メディア
4によるオフラインの両方の形態のデータ受渡しが可能
である。記録メディア4としては、光磁気ディスク(M
O)、ミニディスク(MD)、メモリカードなどがあ
る。The host 3 includes a CPU 3a, a display 3
b, a keyboard 3c, a mouse 3d, and the like. Between the three-dimensional camera 2 and the host 3, both online and offline data transfer by the portable recording medium 4 is possible. As the recording medium 4, a magneto-optical disk (M
O), a mini disk (MD), a memory card, and the like.
【0018】ホスト3は、3次元カメラ2から送られた
3次元データに基づいて、三角測量法を用いてサンプリ
ング点の座標を求める演算処理や貼り合わせ処理(合成
処理)などを行う。そのためのソフトウエアはCPU3
aに組み込まれている。The host 3 performs, based on the three-dimensional data sent from the three-dimensional camera 2, an arithmetic process for obtaining the coordinates of the sampling points by using a triangulation method, a bonding process (synthesizing process), and the like. The software for that is CPU3
a.
【0019】図2(a)に示すように、3次元カメラ2
は、そのハウジング20の前面に投光窓20a及び受光
窓20bを有する。投光窓20aは受光窓20bに対し
て上側に位置する。内部の光学ユニットOUが射出する
スリット光(所定幅wの帯状のレーザビーム)Uは、投
光窓20aを通って被写体Qに向かう。スリット光Uの
長さ方向M1の放射角度φは固定である。被写体Qの表
面で反射したスリット光Uの一部が受光窓20bを通っ
て光学ユニットOUに入射する。なお、光学ユニットO
Uは、投光軸と受光軸との相対関係を適正化するための
2軸調整機構を備えている。As shown in FIG. 2A, the three-dimensional camera 2
Has a light projecting window 20a and a light receiving window 20b on the front surface of the housing 20. The light projecting window 20a is located above the light receiving window 20b. The slit light (band-shaped laser beam having a predetermined width w) U emitted from the internal optical unit OU travels toward the subject Q through the light projecting window 20a. The radiation angle φ in the length direction M1 of the slit light U is fixed. A part of the slit light U reflected on the surface of the subject Q enters the optical unit OU through the light receiving window 20b. The optical unit O
U has a two-axis adjustment mechanism for optimizing the relative relationship between the light emitting axis and the light receiving axis.
【0020】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びシャッターボタン27が設けられてい
る。また、図2(b)に示すように、ハウジング20の
背面には、ファインダー21、カーソルボタン22、セ
レクトボタン23、キャンセルボタン24、アナログ出
力端子32、ディジタル出力端子33、及び記録メディ
ア4の着脱口30aが設けられている。On the upper surface of the housing 20, zooming buttons 25a and 25b, a manual focusing button 26
a, 26b, and a shutter button 27 are provided. As shown in FIG. 2B, the viewfinder 21, the cursor button 22, the select button 23, the cancel button 24, the analog output terminal 32, the digital output terminal 33, and the attachment of the recording medium 4 are provided on the back of the housing 20. An outlet 30a is provided.
【0021】ファインダー21は、液晶ディスプレイな
どのモニタ画面を有した画像表示装置である。ファイン
ダー21上には、モニタ画像QP及び本発明の特徴であ
る案内画像GPが表示される。モニタ画像QP及び案内
画像GPの詳細については後述する。また、各操作段階
においてユーザが次に行うべき操作を文字や記号によっ
て指示する操作手順情報、及び撮影した部分の3次元デ
ータが濃淡によって表現された距離画像(濃淡画像)が
表示される。The finder 21 is an image display device having a monitor screen such as a liquid crystal display. On the finder 21, a monitor image QP and a guide image GP which is a feature of the present invention are displayed. Details of the monitor image QP and the guide image GP will be described later. In addition, in each operation stage, operation procedure information for instructing the next operation to be performed by the user by characters and symbols, and a distance image (shade image) in which the three-dimensional data of the captured portion is expressed by shading are displayed.
【0022】背面の各ボタン22〜24は、撮影モード
等の設定を行うためのものである。アナログ出力端子3
2からは、被写体Qの2次元画像信号が例えばNTSC
形式で出力される。ディジタル出力端子33は例えばS
CSI端子である。The buttons 22 to 24 on the back are used to set a photographing mode and the like. Analog output terminal 3
2, the two-dimensional image signal of the subject Q is, for example, NTSC
Output in format. The digital output terminal 33 is, for example, S
This is a CSI terminal.
【0023】次に、3次元カメラ2の機能について説明
する。図3は3次元カメラ2の機能構成を示すブロック
図である。図3における実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。Next, the function of the three-dimensional camera 2 will be described. FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. The solid arrows in FIG. 3 indicate the flow of electric signals, and the broken arrows indicate the flow of light.
【0024】図3に示すように、3次元カメラ2は、上
述の光学ユニットOUを構成する投光側及び受光側の2
つの光学系40,50を有している。光学系40におい
て、半導体レーザ(LD)41が射出する波長685n
mのレーザビームは、投光レンズ系42を通過すること
によってスリット光Uとなり、ガルバノミラー(走査手
段)43によって偏向される。半導体レーザ41のドラ
イバ44、投光レンズ系42の駆動系45、及びガルバ
ノミラー43の駆動系46は、システムコントローラ6
1によって制御される。As shown in FIG. 3, the three-dimensional camera 2 includes a light emitting side and a light receiving side constituting the optical unit OU.
It has two optical systems 40 and 50. In the optical system 40, the wavelength 685n emitted from the semiconductor laser (LD) 41
The m laser beam becomes slit light U by passing through the light projecting lens system 42, and is deflected by the galvanomirror (scanning means) 43. The driver 44 of the semiconductor laser 41, the drive system 45 of the light projecting lens system 42, and the drive system 46 of the galvanomirror 43
1 is controlled.
【0025】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用センサ53に入射する。可視帯域の光は、モニタ
用カラーセンサ54に入射する。計測用センサ53及び
モニタ用カラーセンサ54は、どちらもCCDエリアセ
ンサである。計測用センサ53及びモニタ用カラーセン
サ54は、それぞれ、被写体Qの撮影情報又は撮像情報
を電気信号として出力する。In the optical system 50, a zoom unit 51
The light condensed by the beam splitter 52 is split by the beam splitter 52. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the measurement sensor 53. Light in the visible band enters the monitor color sensor 54. The measurement sensor 53 and the monitor color sensor 54 are both CCD area sensors. The measurement sensor 53 and the monitor color sensor 54 each output photographing information or photographing information of the subject Q as an electric signal.
【0026】ズームユニット51は内焦型であり、図示
しないズームレンズが設けられている。このズームレン
ズを長焦点側と短焦点側との間で撮影方向に沿って移動
することにより、3次元データを様々な解像度で入力す
ることができる。また、入射光の一部がオートフォーカ
シング(AF)に利用される。AF機能は、AFセンサ
57、レンズコントローラ58、及びフォーカシング駆
動系59によって実現される。ズーミング駆動系60は
電動ズーミングのために設けられている。The zoom unit 51 is of an in-focus type, and has a zoom lens (not shown). By moving this zoom lens along the shooting direction between the long focal length side and the short focal length side, three-dimensional data can be input at various resolutions. A part of the incident light is used for auto focusing (AF). The AF function is realized by the AF sensor 57, the lens controller 58, and the focusing drive system 59. The zooming drive system 60 is provided for electric zooming.
【0027】次に、3次元カメラ2における電気信号の
主な流れについて説明する。まず、計測用センサ53に
よる撮影情報は、ドライバ55からのクロックに同期し
て出力処理回路62へ転送される。出力処理回路62
は、計測用センサ53の出力する各画素の光電変換信号
を増幅する増幅器、及び光電変換信号を8ビットの受光
データに変換するAD変換部を有している。出力処理回
路62で得られた受光データはメモリ63によって一時
的に記憶された後、重心演算回路73へ送られる。その
際のアドレス指定はメモリ制御回路63Aが行う。重心
演算回路73は、入力された受光データに基づいて3次
元形状を算出するための基となるデータを算出し、それ
を出力用メモリ64に出力する。出力用メモリ64に格
納されたデータは、SCSIコントローラ66を介して
ディジタル出力端子33から出力され、又は記録メディ
ア4に出力される。Next, the main flow of electric signals in the three-dimensional camera 2 will be described. First, the photographing information from the measurement sensor 53 is transferred to the output processing circuit 62 in synchronization with the clock from the driver 55. Output processing circuit 62
Has an amplifier that amplifies the photoelectric conversion signal of each pixel output from the measurement sensor 53, and an AD converter that converts the photoelectric conversion signal into 8-bit light reception data. The light receiving data obtained by the output processing circuit 62 is temporarily stored in the memory 63 and then sent to the center-of-gravity calculating circuit 73. The address specification at this time is performed by the memory control circuit 63A. The center-of-gravity calculation circuit 73 calculates data serving as a basis for calculating the three-dimensional shape based on the input light-receiving data, and outputs the data to the output memory 64. The data stored in the output memory 64 is output from the digital output terminal 33 via the SCSI controller 66 or is output to the recording medium 4.
【0028】また、重心演算回路73は、被写体Qの形
状に対応した3次元データである被写体形状データTD
を生成し、それを表示用メモリ74に出力する。表示用
メモリ74に格納された被写体形状データTDは、表示
制御部76によって後述する画像処理などが施された
後、案内画像GPとしてファインダー21上に表示され
る。The center-of-gravity calculating circuit 73 outputs subject shape data TD which is three-dimensional data corresponding to the shape of the subject Q.
Is generated and output to the display memory 74. The subject shape data TD stored in the display memory 74 is displayed on the finder 21 as a guide image GP after being subjected to image processing, which will be described later, by the display control unit 76.
【0029】一方、モニタ用カラーセンサ54による撮
像情報は、ドライバ56からのクロックに同期してカラ
ー処理回路67へ転送される。カラー処理を受けた撮像
情報は、NTSC変換回路70及びアナログ出力端子3
2を経てオンライン出力され、又はディジタル画像生成
部68で量子化されてカラー画像メモリ69に格納され
る。カラー画像メモリ69に格納された撮像情報は、S
CSIコントローラ66を介した後、ディジタル出力端
子33からオンライン出力され又は記録メディア4に書
き込まれる。撮像情報は、また、表示制御部76を介し
てファインダー21上にモニタ画像QPとして表示され
る。On the other hand, imaging information from the monitor color sensor 54 is transferred to the color processing circuit 67 in synchronization with a clock from the driver 56. The color-processed imaging information is supplied to the NTSC conversion circuit 70 and the analog output terminal 3
The digital image data is output on-line via the digital image processor 2 or quantized by the digital image generator 68 and stored in the color image memory 69. The imaging information stored in the color image memory 69 is S
After passing through the CSI controller 66, it is output online from the digital output terminal 33 or written to the recording medium 4. The imaging information is displayed on the finder 21 via the display control unit 76 as a monitor image QP.
【0030】システムコントローラ61は、表示制御部
76に対して、ファインダー21上に操作手順情報を表
示するための指示を与える。なお、被写体形状データT
Dを生成するための光学系40,50から重心演算回路
73に至るまでの回路、表示用メモリ74、カラー画像
メモリ69、表示制御部76、システムコントローラ6
1、及びファインダー21は、重合わせ画像発生部7を
構成する。The system controller 61 gives an instruction for displaying operation procedure information on the finder 21 to the display control unit 76. Note that the object shape data T
Circuits from the optical systems 40 and 50 for generating D to the center-of-gravity calculating circuit 73, a display memory 74, a color image memory 69, a display control unit 76, and a system controller 6
1 and the finder 21 constitute the superimposed image generator 7.
【0031】以上のような構成及び機能を有する3次元
カメラ2によって、被写体Qの全周又は所定範囲の3次
元データが入力される。図4は3次元カメラ2によって
被写体Qの全周又は所定範囲の3次元データを入力する
具体的な方法を示す図である。The three-dimensional camera 2 having the above-described configuration and function inputs three-dimensional data of the entire circumference or a predetermined range of the subject Q. FIG. 4 is a diagram showing a specific method of inputting three-dimensional data of the entire circumference or a predetermined range of the subject Q by the three-dimensional camera 2.
【0032】図4(a)に示す方法は、ユーザが3次元
カメラ2を被写体Qの周囲で移動させ、適応的に撮影条
件を変更して入力を行う。図4(b)に示す方法は、被
写体Qそれ自体を移動させながら、適応的に撮影条件を
変更して入力を行う。また、3次元カメラ2を所定のア
ームに取り付け、このアームを移動させることで被写体
Qを撮影する位置を変えるようにしてもよい。In the method shown in FIG. 4A, the user moves the three-dimensional camera 2 around the subject Q and adaptively changes the photographing conditions for input. In the method shown in FIG. 4B, an input is performed by adaptively changing the shooting conditions while moving the subject Q itself. Alternatively, the three-dimensional camera 2 may be attached to a predetermined arm, and the position at which the subject Q is photographed may be changed by moving the arm.
【0033】次に、モニタ画像QP及び案内画像GPに
ついて説明する。図5は重合わせ画像発生部7によるモ
ニタ画像QP及び案内画像GPの生成の過程を説明する
ための図、図6はファインダー21上に表示された被写
体Qのモニタ画像QP及び案内画像GPを示す図であ
る。Next, the monitor image QP and the guide image GP will be described. FIG. 5 is a diagram for explaining the process of generating the monitor image QP and the guide image GP by the superimposed image generator 7, and FIG. 6 shows the monitor image QP and the guide image GP of the subject Q displayed on the finder 21. FIG.
【0034】図5及び図6において、モニタ画像QP
は、被写体Qのうちユーザが3次元カメラ2の視線を向
けて3次元データを入力しようとしている部分をモニタ
するためのカラー画像であり、カラー画像メモリ69に
格納された撮像情報から生成される。5 and 6, the monitor image QP
Is a color image for monitoring a portion of the subject Q where the user intends to input three-dimensional data while looking at the line of sight of the three-dimensional camera 2, and is generated from imaging information stored in the color image memory 69. .
【0035】案内画像GPは、被写体Qの全周又は所定
範囲の3次元データを入力する際に、被写体Qをどの位
置からどのようにして撮影すべきかという情報をユーザ
に与える画像である。案内画像GPは、図5に示される
ように、被写体形状データTDから生成される。The guide image GP is an image that gives the user information on how and where to shoot the subject Q when inputting three-dimensional data of the entire circumference or a predetermined range of the subject Q. The guide image GP is generated from the subject shape data TD as shown in FIG.
【0036】ここで、被写体形状データTDは、被写体
Qを入力した際の当該入力部分の3次元データである。
本実施形態においては、兎の左半身が例として示されて
いる。Here, the subject shape data TD is three-dimensional data of the input portion when the subject Q is input.
In the present embodiment, the left half of the rabbit is shown as an example.
【0037】被写体形状データTDに対して、ワイヤー
フレーム、シェ一ディング、テクスチャマッピング、又
は色付けなどの処理が施される。色付けは、ワイヤーフ
レーム、シェ一ディング、又はテクスチャマッピング画
像に対して、モニタ画像QPとの識別を行い易くするた
めになされる。色付けにより、例えば、青、緑、赤など
の色となる。また、モニタ画像QPと案内画像GPの混
合比を変えることにより、つまりオーバーラップしてい
るこれら2つの画像の濃度の割合を任意に変えることに
より、ユーザにとって最も見やすい状態とすることも可
能である。これらの処理が施されることにより、案内画
像GPとモニタ画像QPとの重ね合わせが容易となる。
ユーザの希望に応じて、いずれの処理を施すかを選択す
ることが可能である。本実施形態においては、テクスチ
ャマッピングを施した例が示されている。Processing such as wire frame, shading, texture mapping, or coloring is performed on the subject shape data TD. The coloring is performed so that the wire frame, the shading, or the texture mapping image can be easily distinguished from the monitor image QP. By coloring, for example, colors such as blue, green, and red are obtained. Also, by changing the mixture ratio of the monitor image QP and the guide image GP, that is, by arbitrarily changing the density ratio of these two overlapping images, it is possible to make the user most visible. . By performing these processes, it is easy to superimpose the guide image GP and the monitor image QP.
It is possible to select which processing is performed according to the user's request. In the present embodiment, an example in which texture mapping is performed is shown.
【0038】ユーザは、案内画像GPが被写体を所望の
位置から見たときの状態となるように、被写体形状デー
タTDを回転(姿勢変化)させたり、ズーミングさせた
りすることができる。これによって案内画像GPが変化
する。ユーザはこの案内画像GPを参照して次の撮影位
置を決めることができる。以降、案内画像GPをその表
示形状によって他と区別する必要がある場合には、「G
P1」「GP2」などのように末尾に数字を付して示
す。The user can rotate (zoom) or zoom the subject shape data TD so that the guide image GP is in a state when the subject is viewed from a desired position. As a result, the guide image GP changes. The user can determine the next shooting position with reference to the guide image GP. Hereinafter, when it is necessary to distinguish the guide image GP from the others based on the display shape, “G
Numbers are added at the end, such as P1 and GP2.
【0039】これらのモニタ画像QP及び案内画像GP
を用いて3次元データの入力を行う方法について、図5
及び図6を参照して説明する。ユーザは、まず、被写体
Qを一方向から撮影する。ここでは、兎の左半身を右横
から撮影する。撮影によって、兎の左半身の3次元デー
タが得られる。得られた3次元データは、図6(a)に
示すように、案内画像GP1としてファインダー21上
に表示される。The monitor image QP and the guide image GP
FIG. 5 shows a method for inputting three-dimensional data using
This will be described with reference to FIG. First, the user photographs the subject Q from one direction. Here, the left half of the rabbit is photographed from the right side. By photographing, three-dimensional data of the left half of the rabbit is obtained. The obtained three-dimensional data is displayed on the finder 21 as a guide image GP1, as shown in FIG.
【0040】次に、ユーザは、例えば案内画像GP1
(被写体形状データTD)を、上から見て右方向に回転
させるように操作を行い、図6(b)に示すように、被
写体を後方から見たときの状態である案内画像GP2を
表示させる。このとき、被写体形状データTDの右側の
端領域GPRがファインダー21上に表示されるように
しておく。1回目の撮影で得られた被写体形状データT
Dと、2回目の撮影で得られる被写体形状データTDと
をつなぎ合わせるためののりしろを残しておくためであ
る。なお、のりしろとなる端領域GPRの色を他の部分
と異ならせておくと、ユーザが見やすくなる。Next, the user may input, for example, a guide image GP1.
An operation is performed to rotate the (subject shape data TD) rightward when viewed from above, and as shown in FIG. 6B, a guide image GP2 in a state when the subject is viewed from behind is displayed. . At this time, the right end region GPR of the subject shape data TD is displayed on the finder 21. Subject shape data T obtained in the first shooting
This is to leave a margin for joining D and the subject shape data TD obtained in the second shooting. It should be noted that if the color of the end area GPR, which is the margin, is different from that of the other parts, it becomes easier for the user to see.
【0041】次に、図6(c)に示すように、案内画像
GP2とモニタ画像QPのうち案内画像GP2に対応す
る部分とが重なるようにフレーミングを行う。なお、フ
レーミングに際しては、図4に示したように、3次元カ
メラ2を動かしてもよいし、被写体Qを動かしてもよ
い。ズーミングを行うことによって、又は3次元カメラ
2を移動させることによって、様々な解像度で入力でき
る。例えば、顔などの精細なデータが必要な部分は高い
解像度で入力し、これとは逆に背中などのあまり形状の
変化が激しくない部分は低い解像度で入力することがで
きる。これによって、不必要なデータの増大を防止でき
る。Next, as shown in FIG. 6C, framing is performed so that the guide image GP2 and the portion of the monitor image QP corresponding to the guide image GP2 overlap. At the time of framing, the three-dimensional camera 2 may be moved, or the subject Q may be moved, as shown in FIG. By performing zooming or moving the three-dimensional camera 2, input can be performed at various resolutions. For example, a portion requiring detailed data such as a face can be input at a high resolution, while a portion such as the back whose shape does not change much can be input at a low resolution. This can prevent unnecessary data from increasing.
【0042】フレーミングを行った後で、シャッターボ
タン27を押して2回目の撮影を行う。ここでは、2回
目は兎を後方から撮影する。同様な操作によって、案内
画像GP2を案内画像GP3、GP4…(図示せず)と
いうように順次変更し、被写体の全周にわたって撮影を
行う。これによって、被写体の全周の3次元データが入
力される。After the framing is performed, the shutter button 27 is pressed to perform the second photographing. Here, the second time, the rabbit is photographed from behind. By the same operation, the guide image GP2 is sequentially changed to the guide images GP3, GP4,... (Not shown), and shooting is performed over the entire circumference of the subject. Thereby, three-dimensional data of the entire circumference of the subject is input.
【0043】なお、3回目以降の案内画像GP3、GP
4…を生成するに当たって、例えば次の方法によること
ができる。 (1) 前回に撮影した画像から案内画像GPを生成す
る。 (2) これまでに撮影した全画像を使って案内画像G
Pを生成する。 (3) これまでに撮影した画像の中から任意の画像を
選択し、その画像から案内画像GPを生成する。The third and subsequent guidance images GP3 and GP
4 can be generated, for example, by the following method. (1) Generate a guide image GP from an image taken last time. (2) Guide image G using all images taken so far
Generate P. (3) An arbitrary image is selected from the images captured so far, and a guide image GP is generated from the selected image.
【0044】このように、順次になされる案内画像GP
の変更は、ユーザの希望に応じて行う手動モード又は予
プログラムによって決められた順序により行う自動モー
ドのいずれでも可能である。手動モードを選択した場合
には、マウスなどによって操作することも可能である。As described above, the guide images GP sequentially formed
Can be changed in either a manual mode performed according to the user's request or an automatic mode performed in an order determined by a pre-program. When the manual mode is selected, it is possible to operate with a mouse or the like.
【0045】案内画像GPを参考にして入力を行うこと
により、被写体の3次元データの入力を簡単に迅速に且
つ正確に行うことができる。また、撮影された複数の3
次元データは、位置合わせが容易であり、精度良く位置
合わせを行うことが可能であるから、被写体の全周又は
所定範囲における欠落のない合成画像を容易に取得する
ことができる。By inputting with reference to the guide image GP, it is possible to input three-dimensional data of the subject easily, quickly and accurately. In addition, several 3
Since the dimensional data can be easily positioned and accurately positioned, it is possible to easily obtain a composite image of the subject around the entire circumference or in a predetermined range without any loss.
【0046】図7は3次元データの入力動作及び処理を
示すフローチャートである。被写体に対し、適当な位置
を第1の視点として撮影を行うことにより、第1の3次
元データが入力される(#1)。第1の3次元データの
入力時における座標系でファインダー表示用視点位置が
決定される(#2)。第1の視点で、第1の3次元デー
タに基づいた案内画像GP1が表示される(#3)。案
内画像GP1は、自動的又はユーザの指定による回転や
ズーミングによって、案内画像GP2となる。次の視点
である第2の視点から案内画像GP2とモニタ画像QP
とを重ね合わせる(#4)。うまく重ね合わせができた
ら、第2の3次元データの入力を行う(#5)。第2の
3次元データを、第1の3次元データの座標系に変換す
るためのパラメータを求める。ファインダー21上で重
ね合わせて入力した3次元データはそれぞれの座標系の
データとなっており、これらの座標系の間で変換が必要
となる。3次元データの位置合わせを行うということ
は、一方の座標系への変換を行うということになる。位
置合わせを行う方法としては後述の2つの方法が可能で
ある(#6)。求められたパラメータにより、第2の3
次元データに対する座標変換が行われ(#7)、初期位
置合わせが完了する(#8)。さらに高精度に位置合わ
せを行うために、ICPにて微調整を行う(#9)。FIG. 7 is a flowchart showing the input operation and processing of three-dimensional data. The first three-dimensional data is input by taking an image of a subject with an appropriate position as a first viewpoint (# 1). The viewfinder display viewpoint position is determined in the coordinate system at the time of inputting the first three-dimensional data (# 2). From the first viewpoint, a guidance image GP1 based on the first three-dimensional data is displayed (# 3). The guide image GP1 becomes the guide image GP2 automatically or by rotation or zooming specified by the user. From the second viewpoint which is the next viewpoint, the guide image GP2 and the monitor image QP
And (# 4). When the overlay is successfully completed, the second three-dimensional data is input (# 5). A parameter for converting the second three-dimensional data into the coordinate system of the first three-dimensional data is obtained. The three-dimensional data superimposed and input on the finder 21 is data of each coordinate system, and conversion between these coordinate systems is required. Aligning the three-dimensional data means converting to one coordinate system. As a method of performing the alignment, the following two methods are possible (# 6). According to the determined parameters, the second 3
The coordinate conversion is performed on the dimensional data (# 7), and the initial alignment is completed (# 8). Fine adjustment is performed by ICP in order to perform positioning with higher accuracy (# 9).
【0047】なお、ICPとは、最も近い点を対応点と
して対応点間のトータル距離を最小にする方法である。
ICPについては「A method of regi
stration of 3−D shapes.」
(P.Besl and N.McKay.著、IEE
E Transactions on Pattern
Analysis and Machine Inte
lligence,12(2):239〜256,19
92.)を参照することができる。The ICP is a method of setting the closest point as a corresponding point and minimizing the total distance between the corresponding points.
For information on ICP, see "A method of regi
station of 3-D shapes. "
(P. Besl and N. McKay., IEEE.
E Transactions on Pattern
Analysis and Machine Inte
lligence, 12 (2): 239-256,19
92. ) Can be referred to.
【0048】次に、(#6)で述べた位置合わせを行う
2つの方法について説明する。 〔第1の位置合わせ方法〕説明には次に示す各パラメー
タを用いる。Next, two methods for performing the alignment described in (# 6) will be described. [First Positioning Method] The following parameters are used in the description.
【0049】 Pt:案内画像GP作成時の視点位置 Vt:案内画像GP作成時の視線方向 Ut:案内画像GP作成時の上方向ベクトル Ft:案内画像GP作成時の焦点距離 St:案内画像GP作成時の注視点までの距離 Fa:撮影した時の焦点距離 Sa:撮影距離 Pa:撮影した時の視点位置 Va:撮影した時の視線方向 Ua:撮影した時の上方向ベクトル Pa’:座標変換後の視点位置 Va’:座標変換後の視線方向 Ua’:座標変換後の上方向ベクトル ここに説明する方法では、撮影したときの視点位置Pa
を求めて位置合わせを行う。ファインダー21上に表示
された案内画像GPを作成するときに視点位置Ptと視
線方向Vtとが設定される。Pt: Viewpoint position when creating guide image GP Vt: Viewing direction when creating guide image GP Ut: Upward vector when creating guide image GP Ft: Focal length when creating guide image GP St: Creating guide image GP Distance to the gazing point at the time Fa: focal length at the time of shooting Sa: shooting distance Pa: viewpoint position at the time of shooting Va: gaze direction at the time of shooting Ua: upward direction vector at the time of shooting Pa ': after coordinate conversion Viewpoint position Va ′: gaze direction after coordinate conversion Ua ′: upward vector after coordinate conversion In the method described here, the viewpoint position Pa at the time of shooting is
Is obtained and alignment is performed. When creating the guide image GP displayed on the finder 21, the viewpoint position Pt and the line-of-sight direction Vt are set.
【0050】ファインダー21上で案内画像GPにモニ
タ画像QPを重ね合わせて被写体Qを撮影するときの視
線方向Va及び視点位置Paは次のようになる。すなわ
ち、視線方向Vaは視線方向Vtと同じ方向であり〔下
記の(3)式〕、視点位置Paは視線方向Vtと同じ方
向の前後に移動した位置となる。The line-of-sight direction Va and the viewpoint position Pa when photographing the subject Q by superimposing the monitor image QP on the guide image GP on the finder 21 are as follows. That is, the line-of-sight direction Va is the same direction as the line-of-sight direction Vt [Equation (3) below], and the viewpoint position Pa is a position moved back and forth in the same direction as the line-of-sight direction Vt.
【0051】ここで、撮影したときのレンズ情報(焦点
距離)が得られるため、像倍率が案内画像GPと同じに
なるように撮影距離Saを求めることにより、視線方向
Va(=Vt)の前後の移動距離(St一Sa)が計算
でき、下記の(4)式のように視点位置Paが求められ
る。すなわち、 Ft/St=Fa/Sa …(1) であるから、撮影距離Saは次の(2)式のようにな
る。Here, since the lens information (focal length) at the time of photographing is obtained, the photographing distance Sa is determined so that the image magnification becomes the same as that of the guide image GP, so that it can be obtained before and after the visual line direction Va (= Vt). Can be calculated (St-Sa), and the viewpoint position Pa is obtained as in the following equation (4). That is, since Ft / St = Fa / Sa (1), the photographing distance Sa is expressed by the following equation (2).
【0052】 Sa=(Fa×St)/Ft …(2) また、 Va=Vt,Ua=Ut …(3) であるから、撮影したときの視点位置Paは次の(4)
式のようになる。Sa = (Fa × St) / Ft (2) Further, since Va = Vt, Ua = Ut (3), the viewpoint position Pa at the time of photographing is given by the following (4).
It looks like an expression.
【0053】 Pa=Pt+(St一Sa)×Vt …(4) 各方向から得られた3次元データを視点位置Paに基づ
いて平行移動させ、視線方向Vaに基づいて回転移動さ
せることで、案内画像GPを作成したもとの3次元デー
タの座標系へ変換することが可能となる。もとの3次元
データの座標系へ変換する座標変換のための平行移動量
Tは次の(5)式のようになる。Pa = Pt + (St-Sa) × Vt (4) The three-dimensional data obtained from each direction is translated based on the viewpoint position Pa, and is rotationally moved based on the line-of-sight direction Va, thereby providing guidance. It is possible to convert the image GP into the coordinate system of the original three-dimensional data created. The parallel movement amount T for coordinate conversion for converting the original three-dimensional data into the coordinate system is expressed by the following equation (5).
【0054】 T=Pa’−Pa …(5) 座標変換後の視線方向Va’及び座標変換後の上方向ベ
クトルUa’は、回転マトリックスをRとすると、V
a,Uaを用いて、それぞれ次の(6)(7)式のよう
に表される。T = Pa′−Pa (5) The line-of-sight direction Va ′ after the coordinate transformation and the upward vector Ua ′ after the coordinate transformation are represented by
Using a and Ua, they are expressed as the following equations (6) and (7), respectively.
【0055】 Va’=R×Va …(6) Ua’=R×Ua …(7) 平行移動量T及び回転マトリックスRによって各方向か
ら得られた3次元データをもとの3次元データの座標系
でのデータに変換することで位置合わせが行われる。Va ′ = R × Va (6) Ua ′ = R × Ua (7) Coordinates of the original three-dimensional data based on the three-dimensional data obtained from each direction by the translation amount T and the rotation matrix R The alignment is performed by converting the data into system data.
【0056】重ね合わせを行うことで3次元カメラ2と
被写体Qとの相対的な移動量が求められる。複数位置か
ら入力した3次元データを、この移動量に基づいて、初
めに撮影したときの座標系におけるデータに変換する。
これにより、位置合わせが行える。By performing the superposition, the relative movement amount between the three-dimensional camera 2 and the subject Q can be obtained. The three-dimensional data input from a plurality of positions is converted into data in a coordinate system at the time of the first shooting based on the movement amount.
Thereby, alignment can be performed.
【0057】上述したように、複数位置から入力された
3次元データは、モニタ画像QPと案内画像GPとの重
ね合わせにより、精度良く位置合わせが行われた状態で
入力されている。したがって、事後的に位置合わせを行
う必要がなく楽である。As described above, the three-dimensional data input from a plurality of positions is input in a state where the monitor image QP and the guide image GP have been accurately positioned by superimposition. Therefore, there is no need to perform positioning afterwards, which is easy.
【0058】このように精度良く位置合わせが行われた
複数位置からの3次元データに基づいて、ホスト3で貼
り合わせ処理が行われる。したがって、ホスト3での貼
り合わせ処理が高速に且つ高精度で行える。 〔第2の位置合わせ方法〕この方法では、3次元データ
の重なり部分が既知であることを利用して位置合わせを
行なう。The bonding process is performed by the host 3 on the basis of the three-dimensional data from a plurality of positions that have been accurately positioned as described above. Therefore, the bonding process in the host 3 can be performed at high speed and with high accuracy. [Second Positioning Method] In this method, positioning is performed by utilizing the fact that the overlapping portion of three-dimensional data is known.
【0059】説明には次に示す各パラメータを用いる。 Pti:最初に撮影されたデータの対応点 Pai:ファインダー上で位置合わせして撮影したデー
タの対応点 T:平行移動量 R:回転移動を示す回転マトリックス ファインダー21上で重なったエリア内の点群に対し、
この2次元画像上で最も近い点を対応点とする。この対
応点の3次元上での距離が最小になるような座標変換を
行うことにより位置合わせが行われる。対応点の距離が
最小になる座標変換は、対応点の重心位置が一致するよ
うに平行移動量を決定し、次に回転移動を最小2乗法な
どを用いて求めることができる。その際に、次に示す
(8)(9)式を用いる。The following parameters are used for the description. Pti: Corresponding point of data photographed first Pai: Corresponding point of data photographed by aligning on the finder T: Parallel movement amount R: Rotation matrix showing rotational movement Point group in overlapping area on finder 21 Against
The closest point on the two-dimensional image is defined as a corresponding point. Positioning is performed by performing coordinate conversion such that the distance in three dimensions of the corresponding point is minimized. In the coordinate transformation that minimizes the distance of the corresponding point, the amount of parallel movement is determined so that the position of the center of gravity of the corresponding point coincides, and then the rotational movement can be obtained by using the least square method or the like. At this time, the following equations (8) and (9) are used.
【0060】[0060]
【数1】 (Equation 1)
【0061】回転マトリックスRはJを最小にするよう
に決定する。The rotation matrix R is determined so as to minimize J.
【0062】[0062]
【数2】 (Equation 2)
【0063】この計算方法については、文献「Faug
eras and Hebert,1986 O.Fa
ugeras and M.Hebert.The r
epresentation,recognition
and locati ngof 3−D objec
ts.Internatinoal Journal
of Robotics Research 5
(3):27−52,1986.」を参照することがで
きる。This calculation method is described in the document “Faug
eras and Hebert, 1986 O.M. Fa
ugeras and M.A. Hebert. Ther
presentation, recognition
and locati ngof 3-D object
ts. International Journal
of Robotics Research 5
(3): 27-52, 1986. Can be referred to.
【0064】以上のようにして求められた平行移動量T
及び回転マトリックスRを用いて第2の3次元データの
各点Piの座標変換を次の(10)式により行う。 P’i=R×(Pi一T) …(10) 上述の座標変換を行なうことにより、第1の3次元デー
タと第2の3次元データとの位置合わせが可能となる。The translation amount T obtained as described above
And the coordinate transformation of each point Pi of the second three-dimensional data using the rotation matrix R and the following equation (10). P′i = R × (Pi-T) (10) By performing the above-described coordinate conversion, the first three-dimensional data and the second three-dimensional data can be aligned.
【0065】上述の実施形態において、案内画像GP及
びモニタ画像QPを3次元カメラ2と一体となったファ
インダー21上に表示させたが、3次元カメラ2と別体
化したファインダーやホスト3におけるディスプレイ3
bに表示させることも可能である。In the above-described embodiment, the guide image GP and the monitor image QP are displayed on the viewfinder 21 integrated with the three-dimensional camera 2. 3
It is also possible to display in b.
【0066】上述の実施の形態において、ファインダー
21として、ハーフミラーなどを用いたシースルー方式
の表示装置を用いてもよい。これにより、3次元カメラ
2の消費電力が節約できる。In the above embodiment, a see-through display device using a half mirror or the like may be used as the finder 21. Thereby, the power consumption of the three-dimensional camera 2 can be saved.
【0067】上述の実施の形態においては、撮影した被
写体Qの3次元データに基づいて案内画像GPが生成さ
れるため、案内画像GPを予め作成する手間が省けると
ともに案内画像GPを格納しておくためのメモリが最小
限で済む。In the above-described embodiment, since the guide image GP is generated based on the three-dimensional data of the photographed subject Q, it is not necessary to prepare the guide image GP in advance, and the guide image GP is stored. Memory is minimal.
【0068】上述の実施形態において、計測システム
1、3次元カメラ2の各部又は全体の構成、形状、配
置、回路、処理形態などは、本発明の主旨に沿って適宜
変更することができる。In the above embodiment, the configuration, shape, arrangement, circuit, processing mode, and the like of each part or the whole of the measurement system 1 and the three-dimensional camera 2 can be appropriately changed in accordance with the gist of the present invention.
【0069】[0069]
【発明の効果】本発明によると、被写体の3次元データ
の入力を簡単に迅速に且つ正確に行うことができ、被写
体の全周又は所定範囲における欠落のない合成画像を容
易に取得することが可能となる。According to the present invention, it is possible to input three-dimensional data of a subject easily, quickly, and accurately, and to easily obtain a composite image of the subject around the entire circumference or in a predetermined range without any loss. It becomes possible.
【図1】本発明に係る3次元カメラを用いた計測システ
ムの構成図である。FIG. 1 is a configuration diagram of a measurement system using a three-dimensional camera according to the present invention.
【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.
【図3】3次元カメラの機能構成を示すブロック図であ
る。FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.
【図4】3次元カメラによって被写体の全周又は所定範
囲の3次元データを入力する具体的な方法を示す図であ
る。FIG. 4 is a diagram showing a specific method for inputting three-dimensional data of the entire circumference or a predetermined range of a subject by a three-dimensional camera.
【図5】重合わせ画像発生部によるモニタ画像及び案内
画像の生成の過程を説明するための図である。FIG. 5 is a diagram for explaining a process of generating a monitor image and a guide image by a superimposed image generation unit.
【図6】ファインダー上に表示された被写体のモニタ画
像及び案内画像を示す図である。FIG. 6 is a diagram showing a monitor image and a guide image of a subject displayed on a finder.
【図7】3次元データの入力動作及び処理を示すフロー
チャートである。FIG. 7 is a flowchart showing an input operation and processing of three-dimensional data.
【図8】スリット光投影法を適用した3次元カメラの入
力原理を示す図である。FIG. 8 is a diagram illustrating an input principle of a three-dimensional camera to which a slit light projection method is applied.
2 3次元カメラ(3次元データ入力装置) 21 ファインダー(モニタ画面) 63 メモリ(記憶手段) 73 重心演算回路(3次元形状モデル画像生成手段) 76 表示制御部(表示指示手段) Q 被写体 GP 案内画像 QP モニタ画像(画像) 2 Three-dimensional camera (three-dimensional data input device) 21 Viewfinder (monitor screen) 63 Memory (storage means) 73 Center of gravity calculation circuit (three-dimensional shape model image generation means) 76 Display control unit (display instruction means) Q subject GP guide image QP monitor image (image)
───────────────────────────────────────────────────── フロントページの続き (72)発明者 塩野 光一 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 川上 雄一 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA06 AA53 BB05 BB29 DD03 DD06 FF09 FF44 FF67 GG06 GG16 HH05 JJ03 JJ26 LL06 LL12 LL30 LL46 MM06 MM16 PP22 QQ03 QQ13 QQ21 QQ24 QQ32 SS13 UU01 5C061 AB06 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Koichi Shiono Inventor, Osaka International Building Minolta 2-3-1-13, Chuo-ku, Osaka-shi, Osaka (72) Yuichi Kawakami Yuichi Kawakami Azuchi-cho, Chuo-ku, Osaka-shi, Osaka chome No. 3 No. 13 Osaka International building Minolta Co., Ltd. in the F-term (reference) 2F065 AA04 AA06 AA53 BB05 BB29 DD03 DD06 FF09 FF44 FF67 GG06 GG16 HH05 JJ03 JJ26 LL06 LL12 LL30 LL46 MM06 MM16 PP22 QQ03 QQ13 QQ21 QQ24 QQ32 SS13 UU01 5C061 AB06
Claims (2)
し、前記被写体を撮影することによって前記被写体の3
次元データの入力を行うように構成された3次元データ
入力装置における3次元データ入力方法であって、 前記被写体の一部分から入力した3次元データに基づい
てその形状に対応する3次元形状モデルの画像を生成
し、 前記3次元形状モデルの画像をフレーミングの案内画像
として前記モニタ画面に表示し、 前記案内画像と前記被写体の画像のうち前記案内画像に
対応する画像とが重なるようにフレーミングを行い、 前記フレーミングがなされた状態で前記被写体の撮影を
行う、 ことを特徴とする3次元データ入力方法。1. A monitor screen for confirming an object, wherein the image of the object is captured by
A three-dimensional data input method in a three-dimensional data input device configured to perform input of three-dimensional data, the image of a three-dimensional shape model corresponding to a shape based on three-dimensional data input from a part of the subject Is generated, and the image of the three-dimensional shape model is displayed on the monitor screen as a framing guide image, and framing is performed so that the guide image and the image corresponding to the guide image among the images of the subject overlap each other. 3. A method for inputting three-dimensional data, wherein the subject is photographed in a state where the framing is performed.
し、前記被写体を撮影することによって前記被写体の3
次元データの入力を行うように構成された3次元データ
入力装置であって、 前記被写体の一部分から入力した3次元データに基づい
てその形状に対応する3次元形状モデルの画像を生成す
る3次元形状モデル画像生成手段と、 前記3次元形状モデルの画像をフレーミングの案内画像
として前記モニタ画面に表示させる表示指示手段と、 フレーミングがなされた被写体を撮影することによって
入力される3次元データを記憶する記憶手段と、 を有することを特徴とする3次元データ入力装置。2. A monitor screen for confirming an object, wherein the image of the object is photographed, and the monitor screen is displayed.
A three-dimensional data input device configured to input three-dimensional data, the three-dimensional data input device being configured to generate an image of a three-dimensional shape model corresponding to the shape based on three-dimensional data input from a part of the subject Model image generating means; display instructing means for displaying the image of the three-dimensional shape model on the monitor screen as a framing guide image; and storage for storing three-dimensional data input by photographing the framed subject. Means, and a three-dimensional data input device, comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08755299A JP4306006B2 (en) | 1999-03-30 | 1999-03-30 | Three-dimensional data input method and apparatus |
US09/536,686 US7046838B1 (en) | 1999-03-30 | 2000-03-28 | Three-dimensional data input method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08755299A JP4306006B2 (en) | 1999-03-30 | 1999-03-30 | Three-dimensional data input method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000283720A true JP2000283720A (en) | 2000-10-13 |
JP4306006B2 JP4306006B2 (en) | 2009-07-29 |
Family
ID=13918163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08755299A Expired - Fee Related JP4306006B2 (en) | 1999-03-30 | 1999-03-30 | Three-dimensional data input method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4306006B2 (en) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003014435A (en) * | 2001-07-04 | 2003-01-15 | Minolta Co Ltd | Measuring device and measuring method |
JP2007225434A (en) * | 2006-02-23 | 2007-09-06 | Yaskawa Electric Corp | Three-dimensional measuring device |
JP2010107300A (en) * | 2008-10-29 | 2010-05-13 | Aisin Seiki Co Ltd | Device for evaluating object shape |
JP2010107301A (en) * | 2008-10-29 | 2010-05-13 | Aisin Seiki Co Ltd | Surface defect evaluation device |
JP2011163822A (en) * | 2010-02-05 | 2011-08-25 | Aisin Seiki Co Ltd | Object-shape evaluating device |
JP2011198349A (en) * | 2010-02-25 | 2011-10-06 | Canon Inc | Method and apparatus for processing information |
JP2012529691A (en) * | 2009-06-11 | 2012-11-22 | 株式会社東芝 | 3D image generation |
JP2013114498A (en) * | 2011-11-29 | 2013-06-10 | Toshiba Corp | Electronic device and three-dimensional model generation support method |
JP2021073563A (en) * | 2016-09-23 | 2021-05-13 | アップル インコーポレイテッドApple Inc. | Image data for enhanced user interactions |
US11380077B2 (en) | 2018-05-07 | 2022-07-05 | Apple Inc. | Avatar creation user interface |
US11393258B2 (en) | 2017-09-09 | 2022-07-19 | Apple Inc. | Implementation of biometric authentication |
US11468155B2 (en) | 2007-09-24 | 2022-10-11 | Apple Inc. | Embedded authentication systems in an electronic device |
US11494046B2 (en) | 2013-09-09 | 2022-11-08 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
US11532112B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Emoji recording and sending |
US11619991B2 (en) | 2018-09-28 | 2023-04-04 | Apple Inc. | Device control using gaze information |
US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
US11755712B2 (en) | 2011-09-29 | 2023-09-12 | Apple Inc. | Authentication with secondary approver |
US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
US11928200B2 (en) | 2018-06-03 | 2024-03-12 | Apple Inc. | Implementation of biometric authentication |
US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
US12210603B2 (en) | 2021-03-04 | 2025-01-28 | Apple Inc. | User interface for enrolling a biometric feature |
US12218894B2 (en) | 2019-05-06 | 2025-02-04 | Apple Inc. | Avatar integration with a contacts user interface |
US12216754B2 (en) | 2021-05-10 | 2025-02-04 | Apple Inc. | User interfaces for authenticating to perform secure operations |
US12262111B2 (en) | 2011-06-05 | 2025-03-25 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
-
1999
- 1999-03-30 JP JP08755299A patent/JP4306006B2/en not_active Expired - Fee Related
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003014435A (en) * | 2001-07-04 | 2003-01-15 | Minolta Co Ltd | Measuring device and measuring method |
JP2007225434A (en) * | 2006-02-23 | 2007-09-06 | Yaskawa Electric Corp | Three-dimensional measuring device |
US11468155B2 (en) | 2007-09-24 | 2022-10-11 | Apple Inc. | Embedded authentication systems in an electronic device |
US11676373B2 (en) | 2008-01-03 | 2023-06-13 | Apple Inc. | Personal computing device control using face detection and recognition |
JP2010107300A (en) * | 2008-10-29 | 2010-05-13 | Aisin Seiki Co Ltd | Device for evaluating object shape |
JP2010107301A (en) * | 2008-10-29 | 2010-05-13 | Aisin Seiki Co Ltd | Surface defect evaluation device |
JP2012529691A (en) * | 2009-06-11 | 2012-11-22 | 株式会社東芝 | 3D image generation |
JP2011163822A (en) * | 2010-02-05 | 2011-08-25 | Aisin Seiki Co Ltd | Object-shape evaluating device |
JP2011198349A (en) * | 2010-02-25 | 2011-10-06 | Canon Inc | Method and apparatus for processing information |
US12262111B2 (en) | 2011-06-05 | 2025-03-25 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
US11755712B2 (en) | 2011-09-29 | 2023-09-12 | Apple Inc. | Authentication with secondary approver |
JP2013114498A (en) * | 2011-11-29 | 2013-06-10 | Toshiba Corp | Electronic device and three-dimensional model generation support method |
US12314527B2 (en) | 2013-09-09 | 2025-05-27 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
US11494046B2 (en) | 2013-09-09 | 2022-11-08 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
US11768575B2 (en) | 2013-09-09 | 2023-09-26 | Apple Inc. | Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs |
US11836725B2 (en) | 2014-05-29 | 2023-12-05 | Apple Inc. | User interface for payments |
JP7158509B2 (en) | 2016-09-23 | 2022-10-21 | アップル インコーポレイテッド | Image data for enhanced user interaction |
JP2021073563A (en) * | 2016-09-23 | 2021-05-13 | アップル インコーポレイテッドApple Inc. | Image data for enhanced user interactions |
US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
US11532112B2 (en) | 2017-05-16 | 2022-12-20 | Apple Inc. | Emoji recording and sending |
US12045923B2 (en) | 2017-05-16 | 2024-07-23 | Apple Inc. | Emoji recording and sending |
US11393258B2 (en) | 2017-09-09 | 2022-07-19 | Apple Inc. | Implementation of biometric authentication |
US11765163B2 (en) | 2017-09-09 | 2023-09-19 | Apple Inc. | Implementation of biometric authentication |
US11380077B2 (en) | 2018-05-07 | 2022-07-05 | Apple Inc. | Avatar creation user interface |
US11682182B2 (en) | 2018-05-07 | 2023-06-20 | Apple Inc. | Avatar creation user interface |
US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
US12340481B2 (en) | 2018-05-07 | 2025-06-24 | Apple Inc. | Avatar creation user interface |
US11928200B2 (en) | 2018-06-03 | 2024-03-12 | Apple Inc. | Implementation of biometric authentication |
US12189748B2 (en) | 2018-06-03 | 2025-01-07 | Apple Inc. | Implementation of biometric authentication |
US11809784B2 (en) | 2018-09-28 | 2023-11-07 | Apple Inc. | Audio assisted enrollment |
US12105874B2 (en) | 2018-09-28 | 2024-10-01 | Apple Inc. | Device control using gaze information |
US12124770B2 (en) | 2018-09-28 | 2024-10-22 | Apple Inc. | Audio assisted enrollment |
US11619991B2 (en) | 2018-09-28 | 2023-04-04 | Apple Inc. | Device control using gaze information |
US12218894B2 (en) | 2019-05-06 | 2025-02-04 | Apple Inc. | Avatar integration with a contacts user interface |
US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
US12210603B2 (en) | 2021-03-04 | 2025-01-28 | Apple Inc. | User interface for enrolling a biometric feature |
US12216754B2 (en) | 2021-05-10 | 2025-02-04 | Apple Inc. | User interfaces for authenticating to perform secure operations |
Also Published As
Publication number | Publication date |
---|---|
JP4306006B2 (en) | 2009-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4306006B2 (en) | Three-dimensional data input method and apparatus | |
US7046838B1 (en) | Three-dimensional data input method and apparatus | |
JP6504274B2 (en) | Three-dimensional shape data and texture information generation system, imaging control program, three-dimensional shape data and texture information generation method, and information recording medium | |
US7697126B2 (en) | Three dimensional spatial imaging system and method | |
US6304284B1 (en) | Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera | |
EP0782100B1 (en) | Three-dimensional shape extraction apparatus and method | |
USRE45785E1 (en) | Virtual reality camera | |
US6987531B2 (en) | Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system | |
US20050046702A1 (en) | Image photographing apparatus and image processing method | |
JP3957888B2 (en) | Imaging apparatus and captured image composition method | |
JP4221808B2 (en) | Three-dimensional data input method and apparatus | |
JP3178205B2 (en) | Image input system | |
JP2000283721A (en) | Three-dimensional input device | |
JP3282332B2 (en) | Image input system | |
JP3924576B2 (en) | Three-dimensional measurement method and apparatus by photogrammetry | |
JP3317093B2 (en) | 3D shape data processing device | |
US7657055B2 (en) | Image processing method and image generating apparatus | |
JP4451968B2 (en) | 3D image input device | |
JP2005050034A (en) | Image processing method and device | |
JP2000147643A (en) | Camera head and panoramic image / all sky image creation device | |
JP2000292121A (en) | Three-dimensional measurement method and three- dimensional input device | |
JP4839858B2 (en) | Remote indication system and remote indication method | |
JP7067091B2 (en) | Image pickup device and control method of image pickup device | |
JP3740848B2 (en) | 3D input device | |
JP2000275024A (en) | Three-dimensional input apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090414 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090427 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140515 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |