[go: up one dir, main page]

JP2002027495A - Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium - Google Patents

Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium

Info

Publication number
JP2002027495A
JP2002027495A JP2000201032A JP2000201032A JP2002027495A JP 2002027495 A JP2002027495 A JP 2002027495A JP 2000201032 A JP2000201032 A JP 2000201032A JP 2000201032 A JP2000201032 A JP 2000201032A JP 2002027495 A JP2002027495 A JP 2002027495A
Authority
JP
Japan
Prior art keywords
dimensional
cameras
image generation
dimensional image
pedestal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000201032A
Other languages
Japanese (ja)
Inventor
Ikoku Go
偉国 呉
Teruyuki Ushiro
輝行 後
Hidenori Koyaizu
秀紀 小柳津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000201032A priority Critical patent/JP2002027495A/en
Publication of JP2002027495A publication Critical patent/JP2002027495A/en
Pending legal-status Critical Current

Links

Landscapes

  • Synchronizing For Television (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional image generating system which can generate a three-dimensional image stably even in the outdoors, and a three- dimensional information service system. SOLUTION: A three-dimensional shape can be measured with high accuracy using a plurality of (more than one) portable terminals with camera by preparing bases for installing these portable terminals with camera and calibrating them. An image can be picked up with a stabilized luminance even in the outdoors by a 3D imaging mode where flash light is used while setting predetermined shutter speed and iris or the shutter speed or iris is adjusted automatically through a unit for measuring illuminance. Furthermore, an arrangement for transferring three-dimensional data measured through use of the portable terminal with camera or three-dimensional data stored in a server to other terminal is realized.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、いわゆる3次元画
像を生成するシステム、3次元画像生成方法及び3次元
情報サービスシステムに関する。さらに、詳細には、カ
メラのフラッシュ撮影やカメラ台座等を用いることによ
って、野外でも安定した3D形状計測を可能とした3次
元画像生成システム、3次元画像生成方法及び3次元情
報サービスシステムに関する。
The present invention relates to a system for generating a so-called three-dimensional image, a three-dimensional image generating method, and a three-dimensional information service system. More specifically, the present invention relates to a three-dimensional image generation system, a three-dimensional image generation method, and a three-dimensional information service system that enable stable 3D shape measurement even in the field by using a camera flash photography or a camera pedestal.

【0002】[0002]

【従来の技術】光や画像(写真)等を利用して3次元形
状を捉える手法は、大別して能動的手法(Active visio
n)と受動的手法(Passive vision)に分けられる。能
動的手法としては、(1)レーザ光や超音波等を発し
て、対象物からの反射光量や到達時間を計測し、奥行き
情報を抽出する手法や、(2)スリット光などの特殊な
パターン光源を用いて、対象表面パターンの幾何学的変
形等の画像情報より対象形状を推定する方法や、(3)光
学的処理によってモアレ縞により等高線を形成させて、
3次元情報を得る方法などがある。一方、受動的手法と
しては、対象物の見え方、光源、照明、影情報等に関す
る知識を利用して、一枚の画像から3次元情報を推定す
る単眼立体視や、人間の目と似て、三角測量原理で各画
素の奥行き情報を確実に推定する二眼(または多眼)立
体視や、動画像シーンからオプティカルフロー等を検出
し、得られたオプティカルフローの場から奥行き情報を
推定する運動立体視などが一般的に知られている。
2. Description of the Related Art A method of capturing a three-dimensional shape using light, an image (photograph), and the like is roughly classified into an active method (Active visio).
n) and Passive vision. Active methods include (1) measuring the amount of light reflected from the object and the arrival time by emitting laser light or ultrasonic waves and extracting depth information, and (2) special patterns such as slit light. Using a light source, a method of estimating the target shape from image information such as geometric deformation of the target surface pattern, and (3) forming contour lines by moiré fringes by optical processing,
There is a method of obtaining three-dimensional information. On the other hand, as a passive method, monocular stereoscopic vision, in which three-dimensional information is estimated from one image using knowledge about the appearance of an object, light source, illumination, shadow information, and the like, and similar to the human eye, A binocular (or multi-view) stereoscopic vision that reliably estimates the depth information of each pixel based on the principle of triangulation, an optical flow or the like is detected from a moving image scene, and the depth information is estimated from a field of the obtained optical flow. Motion stereoscopic vision and the like are generally known.

【0003】今まで、工業用製品などの3次元形状を精
度よく計測するために、スリット光を用いてリアルタイ
ムで距離画像を求める実用的計測システムや、カメラ内
部とカメラ間の特性が高精度キャリブレーションされた
二眼(または多眼)ステレオシステムなどといった3次
元センシング装置(または3次元ディジタイザ)が幾つ
か発表されている。
Until now, in order to accurately measure three-dimensional shapes of industrial products and the like, a practical measurement system for obtaining a real-time distance image using slit light, and a high-precision calibration of characteristics between a camera and a camera. Some three-dimensional sensing devices (or three-dimensional digitizers), such as a modified two-lens (or multi-lens) stereo system, have been announced.

【0004】人間が両目で対象の形状や奥行きを感知す
るのと同様な原理で、対象表面の三次元形状を計測する
ために、視点の異なる複数台のカメラで観測された画像
を用いて、三角測量原理に基づいて画像間での各画素の
対応付けによって、対象の形状または奥行きを計測する
ことができる。これは一般に「ステレオ視」または「ス
テレオ3次元画像計測」と呼ばれている。
[0004] In order to measure the three-dimensional shape of the surface of a subject using the same principle as that of detecting the shape and depth of a subject with both eyes, using images observed by a plurality of cameras with different viewpoints, The shape or depth of the target can be measured by associating each pixel between images based on the principle of triangulation. This is generally called "stereo vision" or "stereo three-dimensional image measurement".

【0005】ステレオ視の基本的な原理は三角測量であ
り、その最も基本的な構成は2台のカメラによるステレ
オ視である。すなわち、異なる視点にある2台のカメラ
によって同一の対象を画像として観測し、その画像上へ
の投影位置の違い(一般に、このような画像間における
投影点の位置ずれを視差と呼ぶ)によって、対象の3次
元座標位置を得ることができる。そこで、左右の画像間
で異なる投影位置にある同一の対象を見つけることがス
テレオ視の最も重要であり、一般的に「対応点付け」と
呼ばれている。
[0005] The basic principle of stereo vision is triangulation, the most basic configuration of which is stereo vision with two cameras. That is, the same target is observed as an image by two cameras at different viewpoints, and the difference in the projection position on the image (generally, the displacement of the projection point between the images is referred to as parallax). The three-dimensional coordinate position of the object can be obtained. Therefore, finding the same object at different projection positions between the left and right images is the most important in stereo vision, and is generally called “corresponding pointing”.

【0006】一方、画像間の投影点位置の対応付けは、
全く自由なものではなく、図1に示されたように、一方
の画像上にある点mbに対して、その対応点p1またはp2ま
たはp3は、別の視点で観測された他方の画像内のある直
線Lp上のm1またはm2またはm3に存在する。一般に、こ
の直線をエピポーラライン(Epipolar Line)と呼ぶ。
On the other hand, the correspondence between the projection point positions between the images is as follows:
It is not at all free and, as shown in FIG. 1, for a point mb on one image, its corresponding point p1 or p2 or p3 will be different in the other image observed from another viewpoint. It exists at m1, m2, or m3 on a certain straight line Lp. Generally, this straight line is called an epipolar line.

【0007】従来、よく使われている「対応点付け」の
手法としては、Pixel-basedマッチング、Area-basedマ
ッチングとFeature-basedマッチングの三つに大別され
る。Pixel-basedマッチングとは、一方の画像における
点の対応を、他方の画像でそのまま探索するのである
[参考文献:(1)C.Lawrence Zitnick and Jon A. Webb:
Multi-baseline Stereo Using Surface Extraction, Te
chnical Report, CMU-CS-96-196, (1996)]。Area-based
マッチングとは、一方の画像における点の対応を、他方
の画像で探す時、その点の周りの局所的な画像パターン
を用いて探索するのである[参考文献:(2)奥富、金出:
複数の基線長を利用したステレオマッチング、電子情
報通信学会論文誌D-II、Vol.J75-D-II, No.8, pp.1317-
1327, (1992)、(3)横山、三輪、芦ヶ原、小柳津、林、
後: Stereo Camera System and Its Application、 SR
F'97、(1997)、(4)金出、木村: ビデオレート・ステ
レオマシン、日本ロボット学会誌、Vol.13, No.3, pp.3
22〜326, (1995)、(5)金出、蚊野、木村、川村、吉田、
織田: ビデオレートステレオマシンの開発、日本ロボ
ット学会誌、Vol.15, No.2, pp.261〜267, (1997)、(6)
山口、高地、井口: 適応ウィンドウ法を用いた石像計
測のためのステレオ対応付け、人文科学とコンピュー
タ、Vol.32, No.10, pp.55〜60, (1996)、(7)横矢: 最
近の信号処理総合特集号 コンピュータビジョンの最近
の話題、システム/制御/情報、Vol.38, No.8, pp.436
〜441, (1994)]。Feature-basedマッチングとは、画像
から濃淡エッジなどの特徴を抽出し、画像間の特徴だけ
を用いて対応付けを行うのである[参考文献:(8)H.H.Ba
ker and T.O.Binford: Depth from edge and intensity
based stereo, In Proc. IJCAI'81, (1981)、(9)I石
山、角保、河井、植芝、富田:セグメントベーストステ
レオにおける対応候補探索、信学技報、Vol.96, No.13
6, (1997)、(10)W.E.L.Grimson: Computational experi
ments with a feature based stereo algorithm, IEEE
Trans. PAMI, Vol.7, No.1, pp.17〜34, (1985)]。
Conventionally, methods of “corresponding scoring” that are often used are roughly classified into three: pixel-based matching, area-based matching, and feature-based matching. Pixel-based matching is searching for the correspondence of points in one image as it is in the other image
[References: (1) C. Lawrence Zitnick and Jon A. Webb:
Multi-baseline Stereo Using Surface Extraction, Te
chnical Report, CMU-CS-96-196, (1996)]. Area-based
Matching refers to searching for the correspondence of a point in one image using a local image pattern around the point when searching in the other image [References: (2) Okutomi, Kinide:
Stereo matching using multiple baseline lengths, IEICE Transactions D-II, Vol.J75-D-II, No.8, pp.1317-
1327, (1992), (3) Yokoyama, Miwa, Ashigahara, Koyanatsu, Hayashi,
Later: Stereo Camera System and Its Application, SR
F'97, (1997), (4) Kanade, Kimura: Video rate stereo machine, Journal of the Robotics Society of Japan, Vol.13, No.3, pp.3
22-326, (1995), (5) Kinade, Mosquito Field, Kimura, Kawamura, Yoshida,
Oda: Development of a video rate stereo machine, Journal of the Robotics Society of Japan, Vol.15, No.2, pp.261-267, (1997), (6)
Yamaguchi, Takachi, Iguchi: Stereo matching for stone image measurement using the adaptive window method, Humanities and Computers, Vol.32, No.10, pp.55-60, (1996), (7) Yokoya: Recent Special Issue on Signal Processing in Computers, Recent Topics on Computer Vision, Systems / Control / Information, Vol.38, No.8, pp.436
441, (1994)]. Feature-based matching is to extract features such as shaded edges from images and perform correspondence using only features between images [Ref: (8) HHBa
ker and TOBinford: Depth from edge and intensity
based stereo, In Proc. IJCAI'81, (1981), (9) I Ishiyama, Kakuho, Kawai, Ueshiba, Tomita: Searching for Correspondence Candidates in Segment-Based Stereo, IEICE Technical Report, Vol.96, No.13
6, (1997), (10) WELGrimson: Computational experi
ments with a feature based stereo algorithm, IEEE
Trans. PAMI, Vol.7, No.1, pp.17-34, (1985)].

【0008】一般的なArea-basedマッチングによるステ
レオ視の対応点の求め方を説明する。図2に示されたよ
うに、基準となるカメラで観測された画像Im1(x,y)に
おいて、ある注目点の周りに局所的なウィンドーWを設
定し、それをテンプレートとして他方のカメラで観測さ
れた画像Im2(x,y)のエピポーラライン上で位置を変えな
がら、設定された探索範囲内でマッチングを行い、下式
によって一致度を求める。
[0008] A method of obtaining a corresponding point in stereo vision by general Area-based matching will be described. As shown in FIG. 2, in an image Im1 (x, y) observed by a reference camera, a local window W is set around a point of interest, and the window W is used as a template and observed by the other camera. The matching is performed within the set search range while changing the position on the epipolar line of the obtained image Im2 (x, y), and the degree of coincidence is obtained by the following equation.

【0009】[0009]

【数1】 (Equation 1)

【0010】上記式において、Δx、Δyはエピポーラ
ライン上での位置の移動量である。R(x,y)が最小となる
場合、ウィンドー間の一致度が最も高く、その時のテン
プレートの移動量Δx、Δyをその注目点の視差とし、
三角測量式によりその注目点の3次元形状または奥行き
を算出することができる。このようなマッチング処理を
繰り返すことによって、全ての画素に対応する3次元形
状データを得ることができる。
In the above equation, Δx and Δy are the amount of movement of the position on the epipolar line. When R (x, y) is the minimum, the degree of coincidence between the windows is the highest, and the movement amounts Δx and Δy of the template at that time are regarded as the disparity of the target point,
The three-dimensional shape or depth of the point of interest can be calculated by a triangulation formula. By repeating such a matching process, three-dimensional shape data corresponding to all pixels can be obtained.

【0011】実際には、画像上で全ての部分の対応付け
を正確に求めることは、非常に困難である。画像間の対
応付けは、本質的に“曖昧さ(Ambiguity)”が存在す
るからである。図2の例でも、画像全体から見れば非常
に小さい領域でテンプレートマッチングを行い、その最
も一致度の高い部分を見つけるのであるが、シーンによ
って、似たようなパターンが色んなところで存在する可
能性は高い。また、シーン中の同じ対象を見ても、違う
視点で見たときの幾何学的な歪み、カメラの特性の違い
などによって、左右画像上のパターンは完全に一致する
ことはない。
In practice, it is very difficult to accurately determine correspondence between all parts on an image. This is because the correspondence between the images essentially has “ambiguity (Ambiguity)”. In the example of FIG. 2 as well, template matching is performed in a very small area when viewed from the entire image, and a part having the highest matching degree is found. However, there is a possibility that similar patterns exist in various places depending on the scene. high. Further, even if the same target in the scene is viewed, the patterns on the left and right images do not completely match due to geometric distortion when viewed from different viewpoints, differences in camera characteristics, and the like.

【0012】[0012]

【発明が解決しようとする課題】これらの問題を解決
し、より正確に画像間の対応点付けを行うために、様々
な手法が提案され、ステレオ視の対応付けの曖昧さを低
減し、対応をより正確に決めることが可能となるが、実
際に十分とは言えない。特に、撮影環境の変化によっ
て、照明光による画像濃淡値が大きく変化し、カメラ間
の位置関係も必ずしも正確に一定を保つことができない
ので、実際に、野外で環境光やカメラ位置関係の微妙な
変化などに対応できるロバストな3次元形状計測法また
はシステムがないのが現状である。
Various methods have been proposed to solve these problems and to perform more accurate point matching between images. Can be determined more accurately, but not really enough. In particular, image density changes greatly due to illumination light due to changes in the shooting environment, and the positional relationship between cameras cannot always be kept exactly constant. At present, there is no robust three-dimensional shape measurement method or system that can respond to changes and the like.

【0013】そこで、本発明は、撮影環境によらないス
テレオ画像取得法、及びカメラ位置関係の微小変化に対
応できるロバストな3次元計測法及び計測システムを提
供することを目的とする。具体的な応用例としては、友
達同士が持っているカメラ付き携帯端末(2台以上)を
用いて、その場所でカメラのフラッシュ撮影やカメラ台
座等を用いることによって、野外でも安定した3D形状
計測が可能となるステレオシステム及び3次元情報サー
ビスシステムを実現する。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a stereo image acquisition method independent of a photographing environment, and a robust three-dimensional measurement method and a measurement system capable of coping with a minute change in a camera positional relationship. As a specific application example, using a camera-equipped mobile terminal (two or more) owned by friends, using a camera flash or a camera pedestal at that location, stable 3D shape measurement even in the field To realize a stereo system and a three-dimensional information service system capable of performing the above.

【0014】[0014]

【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、ステレ
オ計測法に基づいて3次元形状計測あるいは3次元画像
生成処理を実行する3次元画像生成システムであり、計
測対象の画像を異なる視点方向から撮影する複数のカメ
ラと、前記複数のカメラを一定の位置関係に設定する台
座とを有し、前記複数のカメラの少なくとも1台のカメ
ラは、3次元形状計測あるいは3次元画像生成処理を実
行するサーバーに、撮影画像データを送信可能な通信手
段を有する携帯端末カメラであり、前記通信手段を有す
る携帯端末カメラは、前記複数のカメラによって撮影さ
れた撮影画像と3次元形状計測あるいは3次元画像生成
処理に必要なデータを前記サーバーに送信する構成を有
することを特徴とする3次元画像生成システムにある。
SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and a first aspect of the present invention is to execute three-dimensional shape measurement or three-dimensional image generation processing based on a stereo measurement method. A plurality of cameras for capturing images of a measurement target from different viewpoint directions, and a pedestal for setting the plurality of cameras in a fixed positional relationship, wherein at least one of the plurality of cameras is provided. The two cameras are mobile terminal cameras having communication means capable of transmitting captured image data to a server that performs three-dimensional shape measurement or three-dimensional image generation processing. Characterized by having a configuration for transmitting to the server an image captured by a camera and data necessary for three-dimensional shape measurement or three-dimensional image generation processing. In 3-dimensional image generating system that.

【0015】さらに、本発明の3次元画像生成システム
の一実施態様において、前記3次元形状計測あるいは3
次元画像生成処理に必要なデータは、前記台座に設置さ
れる前記複数のカメラの位置関係を示すパラメータを含
むことを特徴とする。
Further, in one embodiment of the three-dimensional image generation system of the present invention, the three-dimensional shape measurement
The data required for the two-dimensional image generation processing includes a parameter indicating a positional relationship between the plurality of cameras installed on the pedestal.

【0016】さらに、本発明の3次元画像生成システム
の一実施態様において、前記サーバーは、前記台座の識
別データと、該台座に設置される複数のカメラの位置関
係を示すパラメータとを対応付けたテーブルを有し、前
記通信手段を有する携帯端末カメラから受信する台座の
識別データに基づいてカメラの位置関係を示すパラメー
タを抽出して3次元形状計測あるいは3次元画像生成処
理を実行する構成であることを特徴とする。
Further, in one embodiment of the three-dimensional image generation system of the present invention, the server associates identification data of the pedestal with a parameter indicating a positional relationship of a plurality of cameras installed on the pedestal. It has a table, and is configured to extract a parameter indicating a positional relationship of the camera based on identification data of a pedestal received from a mobile terminal camera having the communication unit, and execute three-dimensional shape measurement or three-dimensional image generation processing. It is characterized by the following.

【0017】さらに、本発明の3次元画像生成システム
の一実施態様において、前記台座は、該台座に設置され
る複数のカメラの撮影条件設定用の制御信号をカメラ相
互間で入出力するデータ信号路を有することを特徴とす
る。
Further, in one embodiment of the three-dimensional image generation system of the present invention, the pedestal is a data signal for inputting / outputting control signals for setting photographing conditions of a plurality of cameras installed on the pedestal between the cameras. Characterized by having a road.

【0018】さらに、本発明の3次元画像生成システム
の一実施態様において、前記台座は、該台座に設置され
る複数のカメラの同期信号をカメラ相互間で入出力する
データ信号路を有することを特徴とする。
Further, in one embodiment of the three-dimensional image generation system of the present invention, the pedestal has a data signal path for inputting / outputting a synchronization signal of a plurality of cameras installed on the pedestal between the cameras. Features.

【0019】さらに、本発明の3次元画像生成システム
の一実施態様において、前記サーバーは、複数のカメラ
で撮影された画像間の対応付け処理を線幅を設定したエ
ピポーラライン領域に基づいて実行する構成であること
を特徴とする。
Further, in one embodiment of the three-dimensional image generation system of the present invention, the server executes a process of associating images captured by a plurality of cameras based on an epipolar line area having a set line width. It is characterized by having a configuration.

【0020】さらに、本発明の3次元画像生成システム
の一実施態様において、前記サーバーは、前記携帯端末
カメラから受信した画像に基づく3次元形状計測データ
あるいは3次元画像データを格納する記憶手段を有し、
サーバーと通信可能な端末間における認証処理に基づい
て、前記記憶手段に格納したデータに対するアクセスの
認否処理を実行する構成であることを特徴とする。
Further, in one embodiment of the three-dimensional image generation system of the present invention, the server has storage means for storing three-dimensional shape measurement data or three-dimensional image data based on an image received from the portable terminal camera. And
The present invention is characterized in that, based on an authentication process between terminals communicable with a server, an access approval / denial process for data stored in the storage unit is executed.

【0021】さらに、本発明の第2の側面は、ステレオ
計測法に基づいて3次元形状計測あるいは3次元画像生
成処理を実行する3次元画像生成方法であり、複数のカ
メラを一定の位置関係に設定する台座に設置し、計測対
象の画像を異なる視点方向から複数のカメラにより撮影
する画像撮影ステップと、前記複数のカメラの少なくと
も1台のカメラを介して、撮影画像データと、3次元形
状計測あるいは3次元画像生成処理に必要なデータとを
送信するデータ送信ステップと、サーバーにおける受信
データに基づいて3次元形状計測あるいは3次元画像生
成処理を実行するデータ処理ステップと、を有すること
を特徴とする3次元画像生成方法にある。
Furthermore, a second aspect of the present invention is a three-dimensional image generation method for executing a three-dimensional shape measurement or a three-dimensional image generation process based on a stereo measurement method, wherein a plurality of cameras are placed in a fixed positional relationship. An image capturing step of installing the camera on a pedestal to be set and capturing images of an object to be measured from different viewpoint directions with a plurality of cameras; captured image data and three-dimensional shape measurement via at least one of the plurality of cameras; Alternatively, there is provided a data transmission step of transmitting data necessary for the three-dimensional image generation processing, and a data processing step of executing a three-dimensional shape measurement or a three-dimensional image generation processing based on the received data in the server. 3D image generation method.

【0022】さらに、本発明の3次元画像生成方法の一
実施態様において、前記3次元形状計測あるいは3次元
画像生成処理に必要なデータは、前記台座に設置される
前記複数のカメラの位置関係を示すパラメータを含むこ
とを特徴とする。
Further, in one embodiment of the three-dimensional image generation method of the present invention, the data necessary for the three-dimensional shape measurement or the three-dimensional image generation processing includes a positional relationship between the plurality of cameras installed on the pedestal. It is characterized by including the parameters shown.

【0023】さらに、本発明の3次元画像生成方法の一
実施態様において、前記サーバーは、前記台座の識別デ
ータと、該台座に設置される複数のカメラの位置関係を
示すパラメータとを対応付けたテーブルを有し、前記通
信手段を有する携帯端末カメラから受信する台座の識別
データに基づいてカメラの位置関係を示すパラメータを
抽出して3次元形状計測あるいは3次元画像生成処理を
実行することを特徴とする。
Further, in one embodiment of the three-dimensional image generating method of the present invention, the server associates identification data of the pedestal with a parameter indicating a positional relationship between a plurality of cameras installed on the pedestal. It has a table, and extracts a parameter indicating a positional relationship of the camera based on identification data of a pedestal received from a mobile terminal camera having the communication means, and performs three-dimensional shape measurement or three-dimensional image generation processing. And

【0024】さらに、本発明の3次元画像生成方法の一
実施態様において、前記画像撮影ステップにおいて、台
座に設置される複数のカメラの撮影条件設定用の制御信
号を、台座を介してカメラ相互間で入出力することを特
徴とする。
Further, in one embodiment of the three-dimensional image generating method of the present invention, in the image photographing step, a control signal for setting photographing conditions of a plurality of cameras installed on the pedestal is transmitted between the cameras via the pedestal. It is characterized by inputting and outputting with.

【0025】さらに、本発明の3次元画像生成方法の一
実施態様において、前記画像撮影ステップにおいて、台
座に設置される複数のカメラの同期信号をカメラ相互間
で入出力することを特徴とする。
Further, in one embodiment of the three-dimensional image generating method according to the present invention, in the image photographing step, a synchronizing signal of a plurality of cameras installed on the base is input and output between the cameras.

【0026】さらに、本発明の3次元画像生成方法の一
実施態様において、前記データ処理ステップは、複数の
カメラで撮影された画像間の対応付け処理を線幅を設定
したエピポーラライン領域に基づいて実行することを特
徴とする。
Further, in one embodiment of the three-dimensional image generating method according to the present invention, the data processing step performs the associating process between images photographed by a plurality of cameras based on an epipolar line region having a set line width. It is characterized by executing.

【0027】さらに、本発明の3次元画像生成方法の一
実施態様において、サーバーと通信可能な端末間におけ
る認証処理に基づいて、前記記憶手段に格納したデータ
に対するアクセスの認否処理を実行することを特徴とす
る。
Further, in one embodiment of the three-dimensional image generation method according to the present invention, the access permission / denial processing for the data stored in the storage means is executed based on the authentication processing between the terminals capable of communicating with the server. Features.

【0028】さらに、本発明の第3の側面は、ステレオ
計測法に基づいて3次元形状計測あるいは3次元画像生
成処理サービスを提供する3次元情報サービスシステム
であり、計測対象の画像を異なる視点方向から撮影する
ユーザ所有の複数のカメラと、前記複数のカメラを一定
の位置関係に設定するユーザ所有の台座とを有し、前記
複数のカメラの少なくとも1台のカメラは、撮影画像デ
ータをユーザの契約サーバーに対して送信可能な通信手
段を有する携帯端末カメラであり、前記通信手段を有す
る携帯端末カメラは、前記複数のカメラによって撮影さ
れた撮影画像と3次元形状計測あるいは3次元画像生成
処理に必要なデータを前記サーバーに送信し、前記サー
バーは、受信データに基づいて3次元形状計測あるいは
3次元画像生成処理を実行する構成を有することを特徴
とする3次元情報サービスシステムにある。
Further, a third aspect of the present invention is a three-dimensional information service system for providing a three-dimensional shape measurement or a three-dimensional image generation processing service based on a stereo measurement method. A plurality of cameras owned by a user that shoots images from a user, and a pedestal owned by the user that sets the plurality of cameras in a fixed positional relationship. At least one of the plurality of cameras converts captured image data of a user. A mobile terminal camera having communication means capable of transmitting to a contract server, wherein the mobile terminal camera having the communication means is capable of processing captured images captured by the plurality of cameras and three-dimensional shape measurement or three-dimensional image generation processing. The server transmits necessary data to the server, and the server performs three-dimensional shape measurement or three-dimensional image generation processing based on the received data. The three-dimensional information service system characterized by having a configuration for executing certain.

【0029】さらに、本発明の3次元情報サービスシス
テムの一実施態様において、前記サーバーは、前記携帯
端末カメラから受信した画像に基づく3次元形状計測デ
ータあるいは3次元画像データを格納する記憶手段を有
し、サーバーと通信可能な端末間における認証処理に基
づいて、前記記憶手段に格納したデータに対するアクセ
スの認否処理を実行する構成であることを特徴とする。
Further, in one embodiment of the three-dimensional information service system of the present invention, the server has storage means for storing three-dimensional shape measurement data or three-dimensional image data based on an image received from the portable terminal camera. Then, based on an authentication process between terminals capable of communicating with the server, an access approval / denial process for data stored in the storage means is executed.

【0030】さらに、本発明第4の側面は、ステレオ計
測法に基づいて3次元形状計測あるいは3次元画像生成
処理をコンピュータ・システム上で実行せしめるコンピ
ュータ・プログラムを有形的に提供するプログラム提供
媒体であって、前記コンピュータ・プログラムは、複数
のカメラを一定の位置関係に設定する台座に設置し、計
測対象の画像を異なる視点方向から複数のカメラにより
撮影する画像撮影ステップと、前記複数のカメラの少な
くとも1台のカメラを介して、撮影画像データと、3次
元形状計測あるいは3次元画像生成処理に必要なデータ
とを送信するデータ送信ステップと、サーバーにおける
受信データに基づいて3次元形状計測あるいは3次元画
像生成処理を実行するデータ処理ステップと、を有する
ことを特徴とするプログラム提供媒体にある。
Further, a fourth aspect of the present invention is a program providing medium tangibly providing a computer program for causing a computer system to execute three-dimensional shape measurement or three-dimensional image generation processing based on a stereo measurement method. The computer program is arranged on a pedestal that sets a plurality of cameras in a fixed positional relationship, and an image capturing step of capturing images of a measurement target from different viewpoint directions by the plurality of cameras; and A data transmission step of transmitting photographed image data and data necessary for three-dimensional shape measurement or three-dimensional image generation processing via at least one camera; and three-dimensional shape measurement or three-dimensional shape measurement based on received data in the server. A data processing step of executing a two-dimensional image generation process. In the program providing medium.

【0031】本発明の第4の側面に係るプログラム提供
媒体は、例えば、様々なプログラム・コードを実行可能
な汎用コンピュータ・システムに対して、コンピュータ
・プログラムをコンピュータ可読な形式で提供する媒体
である。媒体は、CDやFD、MOなどの記憶媒体、あ
るいは、ネットワークなどの伝送媒体など、その形態は
特に限定されない。
A program providing medium according to a fourth aspect of the present invention is a medium for providing a computer program in a computer-readable format to a general-purpose computer system capable of executing various program codes, for example. . The form of the medium is not particularly limited, such as a storage medium such as a CD, an FD, and an MO, and a transmission medium such as a network.

【0032】このようなプログラム提供媒体は、コンピ
ュータ・システム上で所定のコンピュータ・プログラム
の機能を実現するための、コンピュータ・プログラムと
提供媒体との構造上又は機能上の協働的関係を定義した
ものである。換言すれば、該提供媒体を介してコンピュ
ータ・プログラムをコンピュータ・システムにインスト
ールすることによって、コンピュータ・システム上では
協働的作用が発揮され、本発明の他の側面と同様の作用
効果を得ることができるのである。
Such a program providing medium defines a structural or functional cooperative relationship between the computer program and the providing medium for realizing the functions of a predetermined computer program on a computer system. Things. In other words, by installing the computer program into the computer system via the providing medium, a cooperative operation is exerted on the computer system, and the same operation and effect as the other aspects of the present invention can be obtained. You can do it.

【0033】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づく詳細な
説明によって明らかになるであろう。
Still other objects, features and advantages of the present invention are:
This will become apparent from the following detailed description based on the embodiments of the present invention and the accompanying drawings.

【0034】[0034]

【発明の実施の形態】本発明の3次元画像生成システ
ム、3次元画像生成方法において、適用される3次元画
像としてのステレオ法の基本的原理は、先に説明した図
1のステレオ法に従ったものである。図1の構成につい
て簡単に説明する。図1は、先述したように一般的なス
テレオ視のカメラ配置、及び三角原理による奥行き計測
の概念図である。三次元空間における三つの点P1、P
2、P3をカメラ1(基準カメラと呼ぶ)で観測する場
合、画像面において同じ位置mbに投影されるが、カメ
ラ2(検出カメラと呼ぶ)で観測すると、画像面におい
てm1、m2、m3に投影される。そこで、カメラレンズ
の長さ、カメラ間の位置関係(ベースラインと呼ぶ)が
予め知っていけば、mbとm1、m2、m3との間の位置
ずれ(視差と呼ぶ)を検出できれば、三角計測原理基づ
いて、カメラとP1、P2、P3との距離(奥行きと呼
ぶ)を計測することができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In a three-dimensional image generating system and a three-dimensional image generating method according to the present invention, a basic principle of a stereo method as a three-dimensional image applied is based on the stereo method of FIG. It is a thing. The configuration of FIG. 1 will be briefly described. FIG. 1 is a conceptual diagram of a general stereoscopic camera arrangement and depth measurement based on the triangular principle as described above. Three points P1, P in three-dimensional space
2. When observing P3 with camera 1 (referred to as a reference camera), it is projected at the same position mb on the image plane, but when observing with camera 2 (referred to as a detection camera), m1, m2, and m3 are observed on the image plane. Projected. Therefore, if the length of the camera lens and the positional relationship between the cameras (referred to as a base line) are known in advance, if the positional displacement (referred to as parallax) between mb and m1, m2, and m3 can be detected, triangulation measurement can be performed. Based on the principle, the distances (called depths) between the camera and P1, P2, P3 can be measured.

【0035】図2は、mbとm1、m2、m3との間の位置
ずれ(視差)を検出するために、一般的なテンプレート
マッチングによる対応点を求める手法の概念図を示す。
基準画像Im1における注目点(x,y)の周りに局所的なウ
ィンドーWを設定し、それをテンプレートとして検出カ
メラで観測された画像Im2のエピポーラライン上で位
置を変えながら、設定された探索範囲内でマッチングを
行い、一致度が最も高い場所を対応点の位置とし、視差
を求める。しかしながら、実際には、画像上で全ての部
分の対応付けを正確に求めることは、非常に困難であ
る。画像間の対応付けは、本質的に“曖昧さ(Ambiguit
y)”が存在するからである。特に、撮影環境の変化に
よって、照明光による画像濃淡値が大きく変化し、カメ
ラ間の位置関係も必ずしも正確に一定を保つことができ
ないので、実際に、野外で環境光やカメラ位置関係の微
妙な変化などに対応できるロバストな3次元形状計測法
またはシステムがないのが現状である。
FIG. 2 is a conceptual diagram of a method for obtaining a corresponding point by general template matching in order to detect a positional shift (parallax) between mb and m1, m2, and m3.
A search window set by setting a local window W around a point of interest (x, y) in the reference image Im1 and using the window as a template to change the position on the epipolar line of the image Im2 observed by the detection camera Is performed, and the location having the highest matching degree is set as the position of the corresponding point, and the parallax is obtained. However, in practice, it is very difficult to accurately determine correspondence between all parts on an image. The correspondence between images is essentially “ambiguity (Ambiguit
In particular, since the image density changes greatly due to the illumination light due to the change in the shooting environment, and the positional relationship between the cameras cannot always be kept exactly constant, the actual At present, there is no robust three-dimensional shape measurement method or system that can cope with subtle changes in environmental light and camera positional relationship.

【0036】本発明では、撮影環境によらないステレオ
画像取得法、及びカメラ位置関係の微小変化に対応でき
るロバストな3次元計測法及び計測システムを提案す
る。具体的な応用例としては、カメラ付き携帯端末(携
帯端末カメラ)を用いて、その場所でカメラのフラッシ
ュ撮影やカメラ台座等を用いることによって、野外でも
安定した3D形状計測が可能となるステレオシステム及
び3次元情報サービスシステムを提案する
The present invention proposes a stereo image acquisition method independent of a photographing environment, and a robust three-dimensional measurement method and measurement system that can cope with minute changes in the camera positional relationship. As a specific application example, a stereo system capable of performing stable 3D shape measurement even outdoors by using a camera-equipped mobile terminal (mobile terminal camera) and using a camera flash or a camera pedestal at that location. And 3D information service system

【0037】図3は、本発明の3次元画像生成システ
ム、3次元画像生成方法、3次元情報サービスシステム
の概略構成例を説明する図である。
FIG. 3 is a diagram illustrating a schematic configuration example of a three-dimensional image generation system, a three-dimensional image generation method, and a three-dimensional information service system according to the present invention.

【0038】図3において、カメラ付き携帯端末(携帯
端末カメラ)による3次元形状計測システムの概念図で
ある。予めに用意された台座上に複数台のカメラ付き携
帯端末301,302を設置し、任意の照明環境、例え
ば野外での自然光、あるいは室内での通常の照明環境
で、例えば人物の顔を撮影する。演算機能付きの携帯端
末を用いる場合、その演算機能を用いて所定の3次元形
状測定プログラムを適用すればその場で顔の3次元形状
を測定することができるが、演算機能を持たない携帯端
末では、3次元形状を測定することができない。
FIG. 3 is a conceptual diagram of a three-dimensional shape measurement system using a camera-equipped portable terminal (portable terminal camera). A plurality of camera-equipped mobile terminals 301 and 302 are installed on a pedestal prepared in advance, and, for example, a person's face is photographed in an arbitrary lighting environment, for example, natural light in the outdoors, or a normal lighting environment in a room. . When a mobile terminal with an arithmetic function is used, if a predetermined three-dimensional shape measurement program is applied using the arithmetic function, the three-dimensional shape of the face can be measured on the spot, but the mobile terminal without the arithmetic function Cannot measure the three-dimensional shape.

【0039】そこで、カメラ付き携帯端末301,30
2から、撮影された複数枚の画像を自動的にある決めら
れたサーバー303に送信する。自動送信は、例えば、
カメラ付き携帯端末301,302に3D撮影モードと
してのモード設定を実行することにより、各カメラで撮
影された撮影画像、および3次元形状測定に必要なパラ
メータをある決められたサーバーに送信処理プログラム
を実行させる構成とすることで実現される。
Therefore, the portable terminals with cameras 301, 30
From 2, a plurality of captured images are automatically transmitted to a predetermined server 303. Automatic transmission, for example,
By executing the mode setting as the 3D photographing mode in the camera-equipped mobile terminals 301 and 302, the photographing image photographed by each camera and the parameters necessary for the three-dimensional shape measurement can be transmitted to a predetermined server by a transmission processing program. This is realized by adopting a configuration in which the program is executed.

【0040】サーバー303側では、カメラ付き携帯端
末301,302から送られてきた画像を用いて3次元
形状計測処理を自動的に行い、得られた顔の3次元形状
データをサーバに付属する対応するユーザーのフォルダ
に保存したり、ユーザーの携帯端末に送り返したりす
る。また、サーバー303に蓄積された3次元画像は、
ユーザーのパスワード認証などによって、アクセス可能
とし、サーバー303を介して3次元計測データを友人
同士などに送信する構成とすることが可能である。
The server 303 automatically performs a three-dimensional shape measurement process using the images sent from the camera-equipped mobile terminals 301 and 302, and converts the obtained three-dimensional shape data of the face to the corresponding data attached to the server. Or send it back to the user's mobile device. The three-dimensional image stored in the server 303 is
A configuration is possible in which access is enabled by user password authentication or the like and three-dimensional measurement data is transmitted to friends via the server 303.

【0041】ところで、対象の3次元形状を精度よく計
測するためには、先の図1,2で説明したように、画像
間の正確な対応付けが行われることが必要である。その
ため、(1)撮影環境の照明光によらないロバストな撮
影方法と、(2)カメラパラメータ及び台座間の位置関
係のキャリブレーション、(3)カメラ間の位置関係の
微小変化に対応できるロバストなステレオマッチング手
法が必要となる。
By the way, in order to accurately measure the three-dimensional shape of an object, it is necessary to perform accurate correspondence between images as described with reference to FIGS. Therefore, (1) a robust imaging method that does not depend on the illumination light of the imaging environment, (2) calibration of the positional relationship between the camera parameters and the pedestal, and (3) a robust imaging method that can cope with minute changes in the positional relationship between the cameras. A stereo matching method is required.

【0042】図4は、幾つかの撮影環境の照明光によら
ないロバストな撮影方法の複数の例を説明する図を示
す。図4の各例は、2つのカメラとして基準カメラと検
出カメラが所定距離離間した位置に設定される。それぞ
れのカメラ位置は、形態端末設置用台座40によって、
予め定められた距離、離れた位置に決定される。
FIG. 4 is a diagram illustrating a plurality of examples of a robust photographing method that does not depend on illumination light in some photographing environments. In each example of FIG. 4, two cameras are set at positions where the reference camera and the detection camera are separated by a predetermined distance. Each camera position is set by the base 40 for the form terminal installation,
The position is determined to be a predetermined distance and apart.

【0043】図4(a)は、基準カメラ41に照度測定器4
11を設け、照度測定器411によって、太陽光、照明
等の環境光の照度を測定し、その値によって基準カメラ
41と検出カメラ42のシャッタースピードを自動的に
設定する構成である。すなわち、図4(a)の構成は絞
り固定のシャッタースピード優先方式である。なお、照
度測定器は、基準カメラ41と検出カメラ42のいずれ
か一方に設けて、双方のシャッタースピードを設定する
構成としても、あるいは、基準カメラ41と検出カメラ
42のそれぞれに独立した照度測定器を設けて、それぞ
れ独自にシャッタースピードを設定する構成としてもよ
い。
FIG. 4A shows that the reference camera 41 has an illuminance measuring device 4.
11, the illuminance measuring device 411 measures the illuminance of ambient light such as sunlight and illumination, and automatically sets the shutter speed of the reference camera 41 and the detection camera 42 based on the measured value. That is, the configuration in FIG. 4A is a shutter speed priority system with a fixed aperture. Note that the illuminance measuring device may be provided in one of the reference camera 41 and the detection camera 42 to set the shutter speed of both, or may be provided separately for the reference camera 41 and the detection camera 42. And the shutter speed may be independently set.

【0044】図4(b)は、基準カメラ43における照度
測定器431によって、環境光の照度を測定し、その値
によって基準カメラ43と検出カメラ44の絞り値を自
動的に設定する構成図を示す。すなわち、シャッタース
ピード固定の絞り優先方式である。なお、照度測定器
は、(a)と同様、基準カメラ43と検出カメラ44の
いずれか一方に設けて、双方の絞り値を設定する構成と
しても、あるいは、基準カメラ43と検出カメラ44の
それぞれに独立した照度測定器を設けて、それぞれ独自
に絞り値を設定する構成としてもよい。
FIG. 4B is a configuration diagram in which the illuminance of the ambient light is measured by the illuminance measuring device 431 in the reference camera 43, and the aperture values of the reference camera 43 and the detection camera 44 are automatically set based on the measured values. Show. That is, the aperture priority method is a fixed shutter speed. In addition, the illuminance measuring device may be provided in one of the reference camera 43 and the detection camera 44 to set the aperture value of both, as in FIG. It is also possible to provide an independent illuminance measuring device and set the aperture value independently.

【0045】図4(c)は、環境光の影響を除くため
に、基準カメラ45にストロボ451を設けて、基準カ
メラ45と検出カメラ46のシャッタースピードと絞り
を固定し、ストロボ光によって鮮明な顔画像を撮影する
構成図を示す。なお、ストロボは、(a),(b)と同
様、基準カメラ45と検出カメラ46のいずれか一方に
設けても、あるいは、基準カメラ45と検出カメラ46
のそれぞれに独立したストロボを設ける構成としてもよ
い。
FIG. 4C shows that a strobe 451 is provided in the reference camera 45 to eliminate the influence of ambient light, and the shutter speed and aperture of the reference camera 45 and the detection camera 46 are fixed. FIG. 3 shows a configuration diagram for capturing a face image. It should be noted that the strobe light may be provided in one of the reference camera 45 and the detection camera 46 as in (a) and (b), or the strobe may be provided in the reference camera 45 and the detection camera 46.
May be provided with independent strobes.

【0046】なお、上述の撮影方式では、いずれも基準
カメラと検出カメラが同期して動作する必要がある。同
期信号は、基準カメラとそのカメラを設定する台座を介
して入出力される。台座は携帯端末と別体としても、あ
るいは、後段で説明するが、一方の携帯端末に折り畳み
構成、または引出し構成として付属させた構成とする。
上述のシャッタースピード、絞り、ストロボ、同期信号
等の各種制御信号は、台座と携帯端末とを接続コネクタ
で接続して入出力させる構成とする。
In each of the above-described photographing methods, the reference camera and the detection camera need to operate in synchronization. The synchronization signal is input and output via a reference camera and a base for setting the camera. The pedestal may be separate from the portable terminal or, as will be described later, be configured to be attached to one of the portable terminals as a folded configuration or a drawer configuration.
Various control signals such as the above-described shutter speed, aperture, strobe, synchronization signal, and the like are configured to be input and output by connecting the pedestal and the portable terminal with the connector.

【0047】図5に、カメラと別体型の台座構成の例を
示す。図5は2台(図5(a))または3台(図5
(b))のカメラを用いるステレオ視に適用される台座
の概念図を示す。図5(a)または図5(b)では、携
帯端末1,501,503を基準カメラ用とし、携帯端
末2,502,504、および携帯端末3,505を検
出カメラ用とする。それぞれのカメラが台座上で、位
置、角度が固定され、カメラ相互の距離を所定距離離間
させて特定方向での被写体の撮影を可能としている。
FIG. 5 shows an example of a pedestal structure separate from the camera. FIG. 5 shows two (FIG. 5 (a)) or three (FIG.
FIG. 3B is a conceptual diagram of a pedestal applied to stereo vision using a camera of FIG. In FIG. 5A or 5B, the mobile terminals 1, 501, 503 are used for the reference camera, and the mobile terminals 2, 502, 504 and the mobile terminals 3, 505 are used for the detection camera. The position and angle of each camera are fixed on the pedestal, and the distance between the cameras is set to a predetermined distance so that the subject can be photographed in a specific direction.

【0048】台座に設置されたカメラ間の距離及び、相
対的な回転角α、βが、カメラのレンズ長さ、計測対象
(顔)との距離、計測レンジ、及びCCDサイズ、画素数
と要求される計測精度によって決められる。例えば、カ
メラのレンズ長さ=8mm、計測対象(顔)との距離=600
mm、計測レンジ=300mm、CCDサイズ=1/3"(4.8mm×3.6
mm)、CCD画素数=640×480、計測精度約±1.0mmとした
場合、台座間の距離が約120mmで、相対的な回転角αが
約8.3度と設定すればよい。また、正確な台座間の距離
及び相対的な回転角α、βが、標準の既知画像パターン
を用いるキャリブレーションで決まる。
The distance between the cameras mounted on the pedestal and the relative rotation angles α and β are determined by the lens length of the camera, the distance to the object to be measured (face), the measurement range, the CCD size, the number of pixels, and the requirements. It is determined by the measurement accuracy to be measured. For example, camera lens length = 8mm, distance from measurement target (face) = 600
mm, measurement range = 300 mm, CCD size = 1/3 "(4.8 mm x 3.6
mm), the number of CCD pixels = 640 × 480, and the measurement accuracy is about ± 1.0 mm, the distance between the pedestals should be about 120 mm, and the relative rotation angle α should be about 8.3 degrees. The exact distance between the pedestals and the relative rotation angles α and β are determined by calibration using a standard known image pattern.

【0049】このように、台座は、各カメラの位置、方
向を特定ポジションに設定することが可能であり、3次
元形状測定に必要なパラメータを台座の設定カメラ位置
に基づいて決定することが可能となる。従って、前述の
図3の構成において、カメラを備えた携帯端末が、撮影
画像とともに、台座の識別データをサーバー303に送
信することにより、サーバー303が、サーバーに予め
登録されている台座識別データと各台座に対応するパラ
メータデータを対応付けたテーブルから、受信識別デー
タに基づいて対応パラメータを抽出して、撮影画像に対
するパラメータを適用した画像処理が実行可能となる。
この構成では、携帯端末から、パラメータを送信せず、
台座の識別データを送信するのみで、サーバー側で3次
元形状の測定、3次元画像の生成処理を実行することが
できる。なお、カメラ自体の各パラメータについても、
カメラの識別データをサーバーに送信することで、サー
バー側に登録された各カメラに対応するパラメータを抽
出して処理を実行することが可能となる。
As described above, the position and the direction of each camera can be set to a specific position on the pedestal, and parameters required for three-dimensional shape measurement can be determined based on the set camera position of the pedestal. Becomes Therefore, in the configuration of FIG. 3 described above, the mobile terminal equipped with the camera transmits the identification data of the pedestal to the server 303 together with the captured image, so that the server 303 matches the pedestal identification data registered in the server in advance. The corresponding parameter is extracted from the table in which the parameter data corresponding to each pedestal is associated based on the received identification data, and image processing using the parameter for the captured image can be executed.
In this configuration, the mobile device does not send any parameters,
Only by transmitting the pedestal identification data, the server can execute the measurement of the three-dimensional shape and the processing of generating the three-dimensional image. Note that each parameter of the camera itself is also
By transmitting the camera identification data to the server, it becomes possible to extract parameters corresponding to each camera registered in the server and execute the processing.

【0050】図6は、カメラパラメータ及び複数台カメ
ラ設定用台座間の位置関係を求めるために、使われる既
知の画像パターン、及び求めたいパラメータ一覧を示
す。キャリブレーションの手法は、例えば、特開平11-5
3548号公報、特開平11-53549号公報などに開示されてい
る。図6(a)、(b)、(c)は、それぞれ距離1(近い距
離)、距離2(計測レンジの中間距離)、距離3(遠い距
離)で基準カメラにより観測された既知のチェッカパタ
ーン画像である。
FIG. 6 shows a known image pattern used to obtain the camera parameters and the positional relationship between the camera setting bases, and a list of parameters to be obtained. The calibration method is described in, for example,
No. 3548 and Japanese Patent Application Laid-Open No. 11-53549. 6 (a), (b), and (c) show known checker patterns observed by the reference camera at distance 1 (close distance), distance 2 (intermediate distance of the measurement range), and distance 3 (far distance), respectively. It is an image.

【0051】なお、同様に、検出カメラによって、三つ
の距離における3枚のチェッカパターン画像を観測でき
る。そして、それぞれの距離で観測された基準画像と参
照画像との合わせ込みによって、カメラ内部パラメータ
(focal length, distortioncoefficient, distortion
center, aspect ratio)と台座間の位置関係(つまり、
基準カメラと検出カメラの間の位置関係)を表すパラメ
ータ(rotation angles, translational components)
を決めることができる。
Similarly, three checker pattern images at three distances can be observed by the detection camera. Then, by combining the reference image and the reference image observed at each distance, camera internal parameters (focal length, distortioncoefficient, distortion).
center, aspect ratio) and the positional relationship between the pedestals (that is,
Parameters (rotation angles, translational components) representing the positional relationship between the reference camera and the detection camera
Can be determined.

【0052】しかしながら、台座の機械精度やカメラ本
体サイズのばらつき等によって、基準カメラと検出カメ
ラの間の位置関係が多少変化するので、注目点(x,y)
の対応点が必ずしもカメラの出荷時のキャリブレーショ
ンで求められたエピポーラライン上に存在すると限らな
い。
However, the positional relationship between the reference camera and the detection camera slightly changes due to the mechanical accuracy of the pedestal, the variation in the size of the camera body, and the like.
Does not always exist on the epipolar line obtained by the calibration at the time of shipment of the camera.

【0053】そこで、本発明では、台座の機械精度やカ
メラのばらつきなどの要素を考慮し、先に図2を用いて
説明したエピポーララインを線幅を持つエピポーラライ
ン(領域)として設定し、領域を持つエピポーラライン
に基づいて対応点を探索する。
Therefore, in the present invention, taking into account factors such as the mechanical accuracy of the pedestal and variations in the camera, the epipolar line described above with reference to FIG. 2 is set as an epipolar line (region) having a line width. The corresponding point is searched based on the epipolar line having.

【0054】図7は、線幅を持つエピポーラライン(領
域)上での探索によるステレオマッチング法の概念図を
示す。従来の対応付け法では、基準画像Im1における注
目点(x,y)に対して、検出画像上での対応点(x',y')
を見つけるために、注目点(x,y)を中心とするウィン
ドウWを用いて、それをテンプレートとして、検出画像
のエピポーラライン上で移動しながらテンプレートマッ
チングを行い、マッチングスコアが最大となる点(x',
y')を対応点とする。
FIG. 7 is a conceptual diagram of a stereo matching method by searching on an epipolar line (region) having a line width. In the conventional matching method, a point of interest (x, y) in the reference image Im1 corresponds to a corresponding point (x ′, y ′) on the detected image.
In order to find, using a window W centered on the point of interest (x, y), using it as a template, perform template matching while moving on the epipolar line of the detected image, and find the point (maximum matching score) x ',
y ') is the corresponding point.

【0055】エピポーララインの線幅は、台座の機械精
度やカメラのばらつきなどの要素を考慮した上で決めら
れる。基準画像Im1における注目点(x,y)を中心とする
ウィンドウ(テンプレート)を用いて、検出画像のエピ
ポーラライン領域上で移動しながらテンプレートマッチ
ングを行い、マッチングスコアが最大となる点(x',
y')を対応点とした。このような対応付けによって、よ
り高精度な3次元形状を求めることができる。
The line width of the epipolar line is determined in consideration of factors such as the mechanical accuracy of the pedestal and the variation of the camera. Using a window (template) centered on the point of interest (x, y) in the reference image Im1, template matching is performed while moving on the epipolar line region of the detected image, and the point (x ′,
y ') was taken as the corresponding point. By such association, a more accurate three-dimensional shape can be obtained.

【0056】エピポーララインの線幅は、出荷時のキャ
リブレーションで求められたエピポーララインL(x,y)
に基づいて、の領域R(x,y)を次のように設定する。こ
こでは、基準カメラと検出カメラが水平方向に沿って設
置されていると仮定する。
The line width of the epipolar line is the epipolar line L (x, y) obtained by the calibration at the time of shipment.
The region R (x, y) is set as follows based on Here, it is assumed that the reference camera and the detection camera are installed along the horizontal direction.

【0057】[0057]

【数2】 (Equation 2)

【0058】ただし、Kが台座の機械精度やカメラのば
らつきなどの要素を考慮した上で、経験的に決められ
る。基準画像Im1における注目点(x,y)を中心とするウ
ィンドウ(テンプレート)を用いて、検出画像のエピポ
ーラライン領域上で移動しながらテンプレートマッチン
グを行い、マッチングスコアが最大となる点(x',y')
を対応点とした。このような対応付けによって、より高
精度な3次元形状を求めることができる。
However, K is empirically determined in consideration of factors such as the mechanical accuracy of the pedestal and the variation of the camera. Using a window (template) centered on the point of interest (x, y) in the reference image Im1, template matching is performed while moving on the epipolar line region of the detected image, and the point (x ′, y ')
Was set as the corresponding point. By such association, a more accurate three-dimensional shape can be obtained.

【0059】図8は、カメラ付き携帯端末を用いる3次
元形状計測手順を示す処理フローである。3次元形状計
測対象としての顔画像を撮影してから、ある決められた
サーバへ自動的に画像と撮影時に使用したカメラ、台座
のパラメータ、あるいはカメラおよび台座の識別データ
を送信する。そして、サーバー上にインストールされて
いた3次元形状計測処理ソフト(例えば、ステレオマッ
チング手法・ソフト)によって、顔の3次元形状データ
を求めて、サーバー上に保存する。また、サーバに格納
された3次元形状データは、パスワードの認証などによ
って、特定ユーザによって加工・転送することが可能で
ある。従って、友人同士などがそれぞれ持っているカメ
ラ付きの携帯端末を介して、それぞれが撮影した画像を
サーバーを介して送受信することが可能となる。一方、
演算機能付きの携帯端末においては、サーバーを介さず
に、その場で3次元形状測定、3次元画像生成等の各種
処理を行うことが可能である。
FIG. 8 is a process flow showing a procedure for measuring a three-dimensional shape using a portable terminal with a camera. After capturing a face image as a three-dimensional shape measurement target, the image and the camera and pedestal parameters used at the time of capturing and the identification data of the camera and the pedestal are automatically transmitted to a predetermined server. Then, three-dimensional shape data of the face is obtained by using three-dimensional shape measurement processing software (for example, stereo matching method / software) installed on the server, and stored on the server. The three-dimensional shape data stored in the server can be processed and transferred by a specific user by authenticating a password or the like. Therefore, it becomes possible to transmit and receive the images taken by each of the friends via the server via the portable terminal with the camera which each of the friends has. on the other hand,
In a mobile terminal with an arithmetic function, various processes such as three-dimensional shape measurement and three-dimensional image generation can be performed on the spot without going through a server.

【0060】図8の処理フローについて説明する。ステ
ップS801では、カメラ付き携帯端末1とカメラ付き
携帯端末2とを台座に設置する。ステップS802,S
803では、カメラ付き携帯端末1,2においてそれぞ
れ対象、例えば顔の画像を撮影する。この時、モードを
3Dモードに設定する。3D計測モードに設定すること
により、図4で説明したように、一定のシャッタースピ
ードと絞りでフラッシュ光を用いるか、あるいは、照度
を測る装置を持ち、一定のシャッタースピードで絞りを
自動的に調整する撮影モードに設定される。さらに、演
算機能を持たないカメラ付き携帯端末においては、3D
計測モードの設定により、撮影画像を予め設定されたサ
ーバに転送する処理が実行される。
The processing flow of FIG. 8 will be described. In step S801, the camera-equipped mobile terminal 1 and the camera-equipped mobile terminal 2 are installed on a pedestal. Step S802, S
In step 803, an image of a target, for example, a face, is captured by each of the camera-equipped mobile terminals 1 and 2. At this time, the mode is set to the 3D mode. By setting to 3D measurement mode, as described in Fig. 4, use flash light with a fixed shutter speed and aperture, or have a device to measure illuminance and automatically adjust the aperture at a fixed shutter speed Shooting mode is set. Furthermore, in a camera-equipped mobile terminal that does not have an arithmetic function, 3D
According to the setting of the measurement mode, a process of transferring the captured image to a preset server is executed.

【0061】ステップS804,805では、3Dモー
ド処理としての処理、すなわち撮影画像を予め設定され
たサーバに転送する。なお、この処理は、自端末内で処
理する場合は実行されない。画像転送を行なう場合は、
台座のパラメータ、あるいは識別データについても送信
する。台座のパラメータは、図5で説明したように、台
座のカメラ間距離及び、相対的な回転角α、βである。
これらは、前述したように、カメラのレンズ長さ、計測
対象(顔)との距離、計測レンジ、及びCCDサイズ、画
素数と要求される計測精度によって決められ、予め求め
られる。
In steps S804 and 805, processing as 3D mode processing, that is, a captured image is transferred to a preset server. This processing is not executed when processing is performed in the terminal itself. When performing image transfer,
The pedestal parameters or identification data are also transmitted. The parameters of the pedestal are the inter-camera distance of the pedestal and the relative rotation angles α and β, as described with reference to FIG.
As described above, these are determined in advance by the lens length of the camera, the distance from the measurement target (face), the measurement range, the CCD size, the number of pixels, and the required measurement accuracy.

【0062】ステップS806では、サーバにおいて、
各カメラから受信した画像データおよびパラメータに基
づいて、サーバー上にインストールされていた3次元形
状計測処理ソフト、例えば、ステレオマッチング手法・
ソフトによって、撮影対象、例えば顔の3次元形状デー
タを求めて、サーバー上に保存する(S807)。
In step S806, the server
Based on image data and parameters received from each camera, three-dimensional shape measurement processing software installed on the server, such as a stereo matching method
The three-dimensional shape data of a photographing target, for example, a face, is obtained by software and stored on the server (S807).

【0063】また、ステップS808は、パスワードの
認証などによって、保存されていた3次元データの加工
・転送処理を実行するステップであり、カメラ付き携帯
端末と、サーバー間において、例えば共通鍵認証方式、
あるいは公開鍵認証方式による相互認証処理を実行し
て、それぞれの通信相手の確認を実行して、サーバー内
に格納されたデータへのアクセスを許可して、保存され
ていた3次元データの加工・転送処理を実行する。な
お、この場合の通信端末は、相互認証処理の可能な暗号
処理部を有することが必要となる。カメラ付き携帯端末
に相互認証処理の可能な暗号処理部を構成することによ
り、認証処理を実行して、サーバーからのデータ受信を
行なう構成としてもよく、また相互認証処理の可能な暗
号処理部を有するカメラ付きPCとサーバー間との間
で、認証処理を実行して、サーバーからのデータ受信を
行なう構成としてもよい。
Step S808 is a step of executing processing / transfer processing of the stored three-dimensional data by authenticating a password or the like. For example, a common key authentication method is used between the camera-equipped mobile terminal and the server.
Alternatively, a mutual authentication process using a public key authentication method is executed, a communication partner is confirmed, access to data stored in the server is permitted, and processing of the stored three-dimensional data is performed. Execute the transfer process. In this case, the communication terminal needs to have an encryption processing unit capable of performing mutual authentication processing. By configuring a cryptographic processing unit capable of mutual authentication processing in the camera-equipped mobile terminal, authentication processing may be performed to receive data from the server, and a cryptographic processing unit capable of mutual authentication processing may be configured. Authentication processing may be performed between the camera-equipped PC and the server to receive data from the server.

【0064】図9は、上述の3次元計測手法及びシステ
ムによる実施例と実験結果を示した図である。図9(a),
(b)は、それぞれカメラ付き携帯端末1(基準カメラ)
とカメラ付き携帯端末2(検出カメラ)によって観測し
た画像である。画像データを高速に送信するために、ス
テレオ画像をjpg(jペグ)フォーマットで保存し
た。サーバーに送られてきた2枚の画像とカメラ、台座
パラメータを用いて、ステレオマッチングを行い、図9
(c)の結果(顔の距離画像(x,y,depth))を求めた。
さらに、xyz空間上への変換を行い、顔の3次元デー
タ(x,y,z)を求めることができる。図9(d),(e)は、そ
の3次元形状をある視点で見た時の顔画像である。
FIG. 9 is a diagram showing an embodiment using the above-described three-dimensional measurement method and system and experimental results. Fig. 9 (a),
(b) is a mobile terminal 1 with a camera (reference camera)
And an image observed by the camera-equipped mobile terminal 2 (detection camera). Stereo images were stored in jpg (j peg) format for fast transmission of image data. Using the two images sent to the server and the camera and pedestal parameters, stereo matching is performed, and FIG.
The result of (c) (distance image (x, y, depth) of the face) was obtained.
Further, conversion into xyz space can be performed to obtain three-dimensional data (x, y, z) of the face. FIGS. 9D and 9E are face images when the three-dimensional shape is viewed from a certain viewpoint.

【0065】図10に台座を内蔵したカメラ付き携帯端
末の構成例を示す。図10(a)は、台座1003がカ
メラ部1002を有する携帯端末1001の下部に引出
し可能に収納された構成例であり、図10(b)は、台
座1006がカメラ部1005を有する携帯端末100
4の側部に折りたたみ可能に収納された構成例である。
FIG. 10 shows a configuration example of a camera-equipped mobile terminal having a built-in pedestal. FIG. 10A is a configuration example in which a pedestal 1003 is retractably stored in a lower part of a portable terminal 1001 having a camera unit 1002, and FIG. 10B is a portable terminal 100 having a pedestal 1006 having a camera unit 1005.
4 is an example of a configuration that is stored in a foldable manner on the side of No. 4.

【0066】図10(a),(b)それぞれの使用例を
図10(c),(d)に示す。図10(c)は、携帯端
末の下部に引出し可能に収納された台座を引出して、所
定距離、離間させて他のカメラをセットする構成であ
る。台座には、カメラの位置決めのための溝、あるいは
接続端子を有しており、一定距離、一定角度で2つのカ
メラの相対位置が決定される構成を持つ。
FIGS. 10C and 10D show examples of use of FIGS. 10A and 10B, respectively. FIG. 10C shows a configuration in which a pedestal housed in a lower part of the portable terminal so as to be able to be pulled out is pulled out, set at a predetermined distance and separated from another camera. The pedestal has a groove or a connection terminal for positioning the camera, and has a configuration in which the relative positions of the two cameras are determined at a fixed distance and a fixed angle.

【0067】また、台座には、2つのカメラの動作を同
期した処理として実行するための信号路が形成され、例
えば参照カメラ1007を台座1008にセットするこ
とにより台座1008の接続端子(図示せず)に参照カ
メラ1007が接続される。また、前述の図4で説明し
たシャッタースピード、絞り、ストロボ等の処理信号も
台座内の信号路、コネクタ端子を介して2つのカメラ間
で入出力される。
A signal path for executing the operations of the two cameras as synchronized processing is formed on the pedestal. For example, when the reference camera 1007 is set on the pedestal 1008, a connection terminal (not shown) of the pedestal 1008 is formed. ) Is connected to the reference camera 1007. Processing signals for the shutter speed, aperture, strobe, etc. described with reference to FIG. 4 are also input and output between the two cameras via a signal path in the base and connector terminals.

【0068】図10(d)は、携帯端末の側部に折りた
たみ可能に収納された台座を倒して、所定距離、離間さ
せて他のカメラをセットする構成である。(c)と同
様、台座には、カメラの位置決めのための溝、あるいは
接続端子を有しており、一定距離、一定角度で2つのカ
メラの相対位置が決定され、各種信号が入出力可能な構
成を持つ。
FIG. 10D shows a structure in which a pedestal which is foldably stored at the side of the portable terminal is turned down, and a predetermined distance and a distance are set to set another camera. As in (c), the pedestal has a groove or a connection terminal for positioning the camera, the relative position of the two cameras is determined at a fixed distance and a fixed angle, and various signals can be input / output. Have a configuration.

【0069】図11にカメラ付き携帯端末の他の構成例
を示す。図11は、モバイル形のパソコン(PC)にカ
メラおよび台座を構成した例である。図11(a)は、
台座1103がカメラ部1102を有するPC1101
のディスプレイ部の側部に折りたたみ可能に収納された
構成例であり、図11(b)は、台座1106がカメラ
部1105を有するPC1104のキーボード部に引き
出し可能に収納された構成例である。
FIG. 11 shows another configuration example of the mobile terminal with a camera. FIG. 11 shows an example in which a camera and a pedestal are configured in a mobile personal computer (PC). FIG. 11 (a)
PC 1101 having pedestal 1103 having camera unit 1102
11B is a configuration example in which the pedestal 1106 is retractably stored in a keyboard portion of a PC 1104 having a camera unit 1105.

【0070】図11(a),(b)それぞれの使用例を
図11(c),(d)に示す。図11(c)は、PCの
ディスプレイ部の側部に折りたたみ可能に収納された台
座を倒して、所定距離、離間させて他のカメラとしての
携帯端末をセットする構成である。台座には、カメラの
位置決めのための溝、あるいは接続端子を有しており、
一定距離、一定角度で2つのカメラの相対位置が決定さ
れる構成を持つ。
FIGS. 11C and 11D show examples of use of FIGS. 11A and 11B, respectively. FIG. 11C shows a configuration in which a pedestal that is foldably housed on the side of a display unit of a PC is tilted, and is separated by a predetermined distance to set a portable terminal as another camera. The pedestal has a groove for positioning the camera, or a connection terminal,
It has a configuration in which the relative positions of the two cameras are determined at a fixed distance and a fixed angle.

【0071】また、台座には、2つのカメラの動作を同
期した処理として実行するための信号路が形成され、例
えば携帯端末1107を台座1108にセットすること
により台座1108の接続端子(図示せず)に参照カメ
ラである携帯端末1107が接続される。また、前述の
図4で説明したシャッタースピード、絞り、ストロボ等
の処理信号も台座内の信号路、コネクタ端子を介して2
つのカメラ間で入出力される。
A signal path for executing the operations of the two cameras as a synchronized process is formed on the pedestal. For example, when the portable terminal 1107 is set on the pedestal 1108, a connection terminal (not shown) of the pedestal 1108 is formed. ) Is connected to a mobile terminal 1107 as a reference camera. Processing signals for the shutter speed, aperture, strobe, etc. described with reference to FIG. 4 are also transmitted via the signal path in the base and the connector terminals.
Input and output between two cameras.

【0072】図11(d)は、PCのキーボード部の側
部に引き出し可能に収納された台座を引き出して、所定
距離、離間させて他のカメラをセットする構成である。
(c)と同様、台座には、カメラの位置決めのための
溝、あるいは接続端子を有しており、一定距離、一定角
度で2つのカメラの相対位置が決定され、各種信号が入
出力可能な構成を持つ。
FIG. 11D shows a configuration in which a pedestal housed so as to be able to be pulled out on the side of the keyboard portion of the PC is pulled out, set at a predetermined distance and separated from another camera.
As in (c), the pedestal has a groove or a connection terminal for positioning the camera, the relative position of the two cameras is determined at a fixed distance and a fixed angle, and various signals can be input / output. Have a configuration.

【0073】図12に、図10の構成および、図11の
構成における3次元画像生成処理フローを示す。図12
(a)が図10の構成における3次元画像生成処理フロ
ーであり、図12(b)が図11の構成における3次元
画像生成処理フローである。
FIG. 12 shows a three-dimensional image generation processing flow in the configuration of FIG. 10 and the configuration of FIG. FIG.
FIG. 12A is a three-dimensional image generation processing flow in the configuration of FIG. 10, and FIG. 12B is a three-dimensional image generation processing flow in the configuration of FIG.

【0074】図12(a)の処理フローから説明する。
まず、ステップS1201で、携帯端末における3D計
測モードをセットする。3D計測モードは、図4で説明
したように、一定のシャッタースピードと絞りでフラッ
シュ光を用いるか、あるいは、照度を測る装置を持ち、
一定のシャッタースピードで絞りを自動的に調整する撮
影モードである。ステップS1202では、台座(アタ
ッチメント)が使用される携帯端末のカメラを基準カメ
ラとし、その他を参照カメラとして設定する。ステップ
S1203では基準カメラの撮影方式を設定し、台座
(アタッチメント)を通して、参照カメラの撮影方式や
パラメータを設定する。なお、撮影方式に関連するパラ
メータとは、シャッタスピード、絞りや、同期撮影タイ
ミングなどを意味する。ステップS1204において、
2台の携帯端末による同期撮影を実行する。ステップS
1205では、撮影された画像およびカメラ内部パラメ
ータ、および台座によって決められる位置関係パラメー
タを3D処理機能付きの機器に転送し、3D形状情報を
求める。具体的には、無線ネットワーク等を通して転送
する、あるいは、計算機能付きの携帯端末によって処理
してもよい。
A description will be given of the processing flow of FIG.
First, in step S1201, the 3D measurement mode in the mobile terminal is set. As described in FIG. 4, the 3D measurement mode uses a flash light with a constant shutter speed and aperture, or has a device for measuring illuminance,
This is a shooting mode in which the aperture is automatically adjusted at a constant shutter speed. In step S1202, the camera of the mobile terminal using the pedestal (attachment) is set as the reference camera, and the other camera is set as the reference camera. In step S1203, the shooting method of the reference camera is set, and the shooting method and parameters of the reference camera are set through the pedestal (attachment). Note that the parameters related to the shooting method mean shutter speed, aperture, synchronized shooting timing, and the like. In step S1204,
Synchronous shooting is performed by two mobile terminals. Step S
In step 1205, the captured image, camera internal parameters, and positional parameters determined by the pedestal are transferred to a device having a 3D processing function, and 3D shape information is obtained. Specifically, the data may be transferred through a wireless network or the like, or may be processed by a mobile terminal having a calculation function.

【0075】図12(b)の処理フローについて説明す
る。図12(b)の処理は、図11で説明したPCを有
する構成において、PC内に3次元画像生成処理プログ
ラムが格納された構成を前提とした処理フローである。
まず、ステップS1211において、パソコン上の3D
計測モード(ソフト)を実行する。ステップS1212
では、台座(アタッチメント)内部のケーブルを通し
て、パソコンから携帯端末へ3D計測モード、撮影方
式、パラメータ等を転送し、セットする。ステップS1
213において、カメラ付きパソコンと携帯端末上のカ
メラで同期撮影を行ない、携帯端末上の撮影画像、カメ
ラパラメータ等をアタッチメントを通してパソコンに転
送する。また、2台のカメラ間の一関係が台座(アタッ
チメント)で決められるので、そのパラメータがパソコ
ン側に設定される。ステップS1214で、パソコン上
の3D計測ソフトによって、3D形状を計測し、表示す
る。
The processing flow of FIG. 12B will be described. The processing in FIG. 12B is a processing flow based on the premise that a configuration in which a three-dimensional image generation processing program is stored in the PC in the configuration including the PC described in FIG.
First, in step S1211, the 3D
Execute the measurement mode (software). Step S1212
Then, the 3D measurement mode, the photographing method, the parameters, and the like are transferred from the personal computer to the portable terminal through the cable inside the pedestal (attachment) and set. Step S1
In step 213, synchronous photographing is performed by the personal computer with camera and the camera on the portable terminal, and the photographed image on the portable terminal, camera parameters, and the like are transferred to the personal computer through the attachment. In addition, since one relationship between the two cameras is determined by the pedestal (attachment), the parameters are set on the personal computer side. In step S1214, the 3D shape is measured and displayed by the 3D measurement software on the personal computer.

【0076】なお、上述の実施例では、携帯端末カメラ
の各々がサーバーに対するデータ送信を行なう構成を説
明してきたが、複数のカメラで撮影した複数画像を台座
を介して1つの携帯端末に送信し、その1つの端末か
ら、すべての撮影画像をサーバーに送信する構成として
もよい。
In the above-described embodiment, the configuration has been described in which each of the portable terminal cameras transmits data to the server. However, a plurality of images taken by a plurality of cameras are transmitted to one portable terminal via a base. Alternatively, the configuration may be such that all the captured images are transmitted from the one terminal to the server.

【0077】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。本発明の要旨を判断するためには、冒頭に
記載した特許請求の範囲の欄を参酌すべきである。
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the scope of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In order to determine the gist of the present invention, the claims described at the beginning should be considered.

【0078】[0078]

【発明の効果】以上、説明したように、本発明の3次元
画像生成システム、3次元画像生成方法及び3次元情報
サービスシステムによれば、以下のような様々な効果が
もたらされる。(1)一定のシャッタースピードと絞り
を設定して、フラッシュ光を用いた撮影を実行するか、
あるいは、照度を測る装置を持ち、シャッタースピー
ド、あるいは絞りを自動的に調整する3D撮影モードに
よって、野外でも安定した輝度値の画像を撮影すること
が可能となる。(2)カメラ付き携帯端末を複数台(2台
以上)使用し、それらのカメラ付き携帯端末を設置する
台座を予め用意し、キャリブレーションすることによっ
て、高精度3次元形状計測が可能となる。(3)カメラ
付き携帯端末を用いて、計測された3次元データ、また
はサーバーに保存されていた3次元形状データを他の端
末へ転送する等、3次元画像の共有が可能となる。
(4)カメラ間位置関係の微小変化に対応するために、
従来の手法を改良し、ある線幅を持つエピポーラライン
上での対応点探索法を用いるステレオマッチング法によ
って、高精度3次元計測が可能となる。(5)サーバー
上で保存された3次元形状データが、暗号化されたパス
ワード認証などによって、複数のユーザーがサーバに格
納した3次元画像データをダウンロードしたり、サーバ
を介して友人に送信したりする3次元情報サービスが可
能となる。(6)サーバーに台座の識別子とパラメータ
とを対応付けたテーブルを保持する構成とすることによ
り、カメラ付き携帯端末から撮影画像とともに送信され
る識別データに基づいてパラメータを選択してサーバー
側で正確な3次元形状計測、3次元画像生成処理を実行
することが可能となる。
As described above, according to the three-dimensional image generation system, the three-dimensional image generation method, and the three-dimensional information service system of the present invention, the following various effects can be obtained. (1) Set a fixed shutter speed and aperture and execute shooting using flash light, or
Alternatively, it is possible to take an image with a stable luminance value even outdoors by using a 3D photographing mode having a device for measuring illuminance and automatically adjusting a shutter speed or an aperture. (2) A plurality of (two or more) camera-equipped mobile terminals are used, a pedestal on which the camera-equipped mobile terminals are installed is prepared in advance, and calibration is performed, thereby enabling high-accuracy three-dimensional shape measurement. (3) Using a mobile terminal with a camera, three-dimensional images can be shared, such as transferring measured three-dimensional data or three-dimensional shape data stored in a server to another terminal.
(4) To cope with small changes in the positional relationship between cameras,
By improving the conventional method, a stereo matching method using a corresponding point search method on an epipolar line having a certain line width enables high-accuracy three-dimensional measurement. (5) A plurality of users can download the 3D image data stored in the server or transmit the 3D image data stored in the server to a friend via the server by using encrypted password authentication or the like for the 3D shape data stored on the server. 3D information service is possible. (6) By storing a table in which the pedestal identifier and the parameter are associated with each other in the server, the parameter is selected based on the identification data transmitted together with the captured image from the camera-equipped mobile terminal, and the server can accurately select the parameter. It is possible to execute three-dimensional shape measurement and three-dimensional image generation processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ステレオ視によるカメラ配置、エピポーラライ
ンについて説明する図である。
FIG. 1 is a diagram illustrating camera arrangement and epipolar lines in stereoscopic view.

【図2】テンプレートマッチングによる対応点探索処理
を説明する図である。
FIG. 2 is a diagram illustrating a corresponding point search process by template matching.

【図3】本発明の3次元画像生成システムの概要につい
て説明する図である。
FIG. 3 is a diagram illustrating an outline of a three-dimensional image generation system according to the present invention.

【図4】本発明の3次元画像生成システムの各方式につ
いて説明する図である。
FIG. 4 is a diagram illustrating each method of the three-dimensional image generation system according to the present invention.

【図5】本発明の3次元画像生成システムにおいて適用
可能な台座の構成例について説明する図である。
FIG. 5 is a diagram illustrating a configuration example of a pedestal applicable to the three-dimensional image generation system of the present invention.

【図6】本発明の3次元画像生成システムにおいて適用
されるカメラパラメータ、台座設定位置のキャリブレー
ション処理について説明する図である。
FIG. 6 is a diagram illustrating camera parameter and pedestal setting position calibration processing applied in the three-dimensional image generation system of the present invention.

【図7】本発明の3次元画像生成システムにおいて適用
される線幅を持つエピポーララインの構成について説明
する図である。
FIG. 7 is a diagram illustrating a configuration of an epipolar line having a line width applied in the three-dimensional image generation system of the present invention.

【図8】本発明の3次元画像生成システムにおける3次
元画像生成処理手順を説明する処理フローである。
FIG. 8 is a processing flow illustrating a three-dimensional image generation processing procedure in the three-dimensional image generation system of the present invention.

【図9】本発明の3次元画像生成システムにおける3次
元画像生成処理例を示す図である。
FIG. 9 is a diagram illustrating an example of a three-dimensional image generation process in the three-dimensional image generation system of the present invention.

【図10】本発明の3次元画像生成システムにおけるカ
メラ付き携帯端末の構成例、使用例を示す図(その1)
である。
FIG. 10 is a diagram showing a configuration example and a usage example of a mobile terminal with a camera in the three-dimensional image generation system of the present invention (part 1).
It is.

【図11】本発明の3次元画像生成システムにおけるカ
メラ付き携帯端末の構成例、使用例を示す図(その2)
である。
FIG. 11 is a diagram showing a configuration example and a usage example of a mobile terminal with a camera in the three-dimensional image generation system of the present invention (part 2).
It is.

【図12】本発明の3次元画像生成システムにおけるカ
メラ付き携帯端末による処理例を説明するフロー図であ
る。
FIG. 12 is a flowchart illustrating an example of processing by a mobile terminal with a camera in the three-dimensional image generation system of the present invention.

【符号の説明】 301,302 カメラ付き携帯端末 303 サーバー 40 台座 41,43,45 基準カメラ 42,44,46 検出カメラ 411,431 照度測定器 451 ストロボ 501〜505 カメラ付き携帯端末 1001,1004.1007 カメラ付き携帯端末 1002,1005 カメラ 1003,1006,1008 台座 1101,1104.1107 カメラ付きPC 1102,1105 カメラ 1103,1106,1108 台座[Description of Signs] 301, 302 Mobile terminal with camera 303 Server 40 Base 41, 43, 45 Reference camera 42, 44, 46 Detection camera 411, 431 Illuminance meter 451 Strobe 501-505 Mobile terminal with camera 1001, 1004.1007 Mobile terminal with camera 1002, 1005 Camera 1003, 1006, 1008 Base 1101, 1104.1107 PC with camera 1102, 1105 Camera 1103, 1106, 1108 Base

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小柳津 秀紀 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 Fターム(参考) 2F065 AA04 AA53 BB05 DD00 DD02 DD06 EE05 FF01 FF05 FF09 GG08 HH02 HH13 JJ03 JJ05 JJ09 JJ26 QQ38 RR07 SS02 SS13 UU03 UU05 5B057 CH14 DA07 DB03 DC09 DC32 5C020 AA12 5C061 AA29 AB04  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Hideki Koyanatsu 1-14-10 Higashi-Gotanda, Shinagawa-ku, Tokyo F-term in Sony Kihara Laboratory (reference) 2F065 AA04 AA53 BB05 DD00 DD02 DD06 EE05 FF01 FF05 FF09 GG08 HH02 HH13 JJ03 JJ05 JJ09 JJ26 QQ38 RR07 SS02 SS13 UU03 UU05 5B057 CH14 DA07 DB03 DC09 DC32 5C020 AA12 5C061 AA29 AB04

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】ステレオ計測法に基づいて3次元形状計測
あるいは3次元画像生成処理を実行する3次元画像生成
システムであり、 計測対象の画像を異なる視点方向から撮影する複数のカ
メラと、 前記複数のカメラを一定の位置関係に設定する台座とを
有し、 前記複数のカメラの少なくとも1台のカメラは、3次元
形状計測あるいは3次元画像生成処理を実行するサーバ
ーに、撮影画像データを送信可能な通信手段を有する携
帯端末カメラであり、 前記通信手段を有する携帯端末カメラは、前記複数のカ
メラによって撮影された撮影画像と3次元形状計測ある
いは3次元画像生成処理に必要なデータを前記サーバー
に送信する構成を有することを特徴とする3次元画像生
成システム。
1. A three-dimensional image generation system for performing three-dimensional shape measurement or three-dimensional image generation processing based on a stereo measurement method, comprising: a plurality of cameras for capturing images of a measurement target from different viewpoint directions; And a pedestal for setting the cameras in a fixed positional relationship, wherein at least one of the plurality of cameras can transmit captured image data to a server that executes a three-dimensional shape measurement or a three-dimensional image generation process The portable terminal camera having communication means, the portable terminal camera having the communication means transmits the images taken by the plurality of cameras and data necessary for three-dimensional shape measurement or three-dimensional image generation processing to the server. A three-dimensional image generation system having a configuration for transmitting.
【請求項2】前記3次元形状計測あるいは3次元画像生
成処理に必要なデータは、 前記台座に設置される前記複数のカメラの位置関係を示
すパラメータを含むことを特徴とする請求項1に記載の
3次元画像生成システム。
2. The data required for the three-dimensional shape measurement or three-dimensional image generation processing includes a parameter indicating a positional relationship between the plurality of cameras installed on the pedestal. 3D image generation system.
【請求項3】前記サーバーは、 前記台座の識別データと、該台座に設置される複数のカ
メラの位置関係を示すパラメータとを対応付けたテーブ
ルを有し、 前記通信手段を有する携帯端末カメラから受信する台座
の識別データに基づいてカメラの位置関係を示すパラメ
ータを抽出して3次元形状計測あるいは3次元画像生成
処理を実行する構成であることを特徴とする請求項1に
記載の3次元画像生成システム。
3. The server includes a table in which identification data of the pedestal is associated with a parameter indicating a positional relationship between a plurality of cameras installed on the pedestal. The three-dimensional image according to claim 1, wherein a parameter indicating a positional relationship of the camera is extracted based on the identification data of the pedestal to be received, and three-dimensional shape measurement or three-dimensional image generation processing is executed. Generation system.
【請求項4】前記台座は、 該台座に設置される複数のカメラの撮影条件設定用の制
御信号をカメラ相互間で入出力するデータ信号路を有す
ることを特徴とする請求項1に記載の3次元画像生成シ
ステム。
4. The pedestal according to claim 1, wherein the pedestal has a data signal path for inputting and outputting control signals for setting photographing conditions of a plurality of cameras installed on the pedestal between the cameras. 3D image generation system.
【請求項5】前記台座は、 該台座に設置される複数のカメラの同期信号をカメラ相
互間で入出力するデータ信号路を有することを特徴とす
る請求項1に記載の3次元画像生成システム。
5. The three-dimensional image generation system according to claim 1, wherein the pedestal has a data signal path for inputting and outputting a synchronization signal of a plurality of cameras installed on the pedestal between the cameras. .
【請求項6】前記サーバーは、 複数のカメラで撮影された画像間の対応付け処理を線幅
を設定したエピポーラライン領域に基づいて実行する構
成であることを特徴とする請求項1に記載の3次元画像
生成システム。
6. The server according to claim 1, wherein the server executes a process of associating images captured by a plurality of cameras based on an epipolar line area having a set line width. 3D image generation system.
【請求項7】前記サーバーは、 前記携帯端末カメラから受信した画像に基づく3次元形
状計測データあるいは3次元画像データを格納する記憶
手段を有し、 サーバーと通信可能な端末間における認証処理に基づい
て、前記記憶手段に格納したデータに対するアクセスの
認否処理を実行する構成であることを特徴とする請求項
1に記載の3次元画像生成システム。
7. The server has storage means for storing three-dimensional shape measurement data or three-dimensional image data based on an image received from the portable terminal camera, and performs authentication processing between terminals capable of communicating with the server. 2. The three-dimensional image generation system according to claim 1, wherein the system is configured to execute access approval / denial processing for data stored in the storage unit.
【請求項8】ステレオ計測法に基づいて3次元形状計測
あるいは3次元画像生成処理を実行する3次元画像生成
方法であり、 複数のカメラを一定の位置関係に設定する台座に設置
し、計測対象の画像を異なる視点方向から複数のカメラ
により撮影する画像撮影ステップと、 前記複数のカメラの少なくとも1台のカメラを介して、
撮影画像データと、3次元形状計測あるいは3次元画像
生成処理に必要なデータとを送信するデータ送信ステッ
プと、 サーバーにおける受信データに基づいて3次元形状計測
あるいは3次元画像生成処理を実行するデータ処理ステ
ップと、 を有することを特徴とする3次元画像生成方法。
8. A three-dimensional image generation method for performing three-dimensional shape measurement or three-dimensional image generation processing based on a stereo measurement method, wherein a plurality of cameras are set on a pedestal that sets a fixed positional relationship, and a measurement object is set. An image photographing step of photographing the image with a plurality of cameras from different viewpoint directions, and via at least one of the plurality of cameras,
A data transmission step of transmitting photographed image data and data necessary for three-dimensional shape measurement or three-dimensional image generation processing; and a data processing of executing three-dimensional shape measurement or three-dimensional image generation processing based on received data in the server A method for generating a three-dimensional image, comprising:
【請求項9】前記3次元形状計測あるいは3次元画像生
成処理に必要なデータは、 前記台座に設置される前記複数のカメラの位置関係を示
すパラメータを含むことを特徴とする請求項8に記載の
3次元画像生成方法。
9. The data necessary for the three-dimensional shape measurement or the three-dimensional image generation processing includes a parameter indicating a positional relationship between the plurality of cameras installed on the pedestal. 3D image generation method.
【請求項10】前記サーバーは、 前記台座の識別データと、該台座に設置される複数のカ
メラの位置関係を示すパラメータとを対応付けたテーブ
ルを有し、 前記通信手段を有する携帯端末カメラから受信する台座
の識別データに基づいてカメラの位置関係を示すパラメ
ータを抽出して3次元形状計測あるいは3次元画像生成
処理を実行することを特徴とする請求項8に記載の3次
元画像生成方法。
10. The portable server having a table in which identification data of the pedestal is associated with a parameter indicating a positional relationship of a plurality of cameras installed on the pedestal. 9. The three-dimensional image generation method according to claim 8, wherein a parameter indicating a positional relationship of the camera is extracted based on the identification data of the pedestal to be received, and three-dimensional shape measurement or three-dimensional image generation processing is executed.
【請求項11】前記画像撮影ステップにおいて、 台座に設置される複数のカメラの撮影条件設定用の制御
信号を、台座を介してカメラ相互間で入出力することを
特徴とする請求項8に記載の3次元画像生成方法。
11. The camera according to claim 8, wherein in the image photographing step, control signals for setting photographing conditions of a plurality of cameras installed on the pedestal are input and output between the cameras via the pedestal. 3D image generation method.
【請求項12】前記画像撮影ステップにおいて、 台座に設置される複数のカメラの同期信号をカメラ相互
間で入出力することを特徴とする請求項8に記載の3次
元画像生成方法。
12. The three-dimensional image generating method according to claim 8, wherein in the image photographing step, a synchronization signal of a plurality of cameras installed on a base is input and output between the cameras.
【請求項13】前記データ処理ステップは、 複数のカメラで撮影された画像間の対応付け処理を線幅
を設定したエピポーラライン領域に基づいて実行するこ
とを特徴とする請求項8に記載の3次元画像生成方法。
13. The data processing method according to claim 8, wherein in the data processing step, an associating process between images captured by a plurality of cameras is performed based on an epipolar line region having a set line width. Dimensional image generation method.
【請求項14】前記3次元画像生成方法は、さらに、 サーバーと通信可能な端末間における認証処理に基づい
て、前記記憶手段に格納したデータに対するアクセスの
認否処理を実行することを特徴とする請求項8に記載の
3次元画像生成方法。
14. The method for generating three-dimensional images according to claim 3, further comprising the step of performing an access approval / denial process for data stored in said storage means based on an authentication process between terminals capable of communicating with a server. Item 9. The three-dimensional image generation method according to Item 8.
【請求項15】ステレオ計測法に基づいて3次元形状計
測あるいは3次元画像生成処理サービスを提供する3次
元情報サービスシステムであり、 計測対象の画像を異なる視点方向から撮影するユーザ所
有の複数のカメラと、 前記複数のカメラを一定の位置関係に設定するユーザ所
有の台座とを有し、 前記複数のカメラの少なくとも1台のカメラは、撮影画
像データをユーザの契約サーバーに対して送信可能な通
信手段を有する携帯端末カメラであり、 前記通信手段を有する携帯端末カメラは、前記複数のカ
メラによって撮影された撮影画像と3次元形状計測ある
いは3次元画像生成処理に必要なデータを前記サーバー
に送信し、 前記サーバーは、受信データに基づいて3次元形状計測
あるいは3次元画像生成処理を実行する構成を有するこ
とを特徴とする3次元情報サービスシステム。
15. A three-dimensional information service system for providing a three-dimensional shape measurement or a three-dimensional image generation processing service based on a stereo measurement method, wherein a plurality of cameras owned by a user photograph an image of a measurement target from different viewpoint directions. And a pedestal owned by a user for setting the plurality of cameras in a fixed positional relationship, wherein at least one of the plurality of cameras is capable of transmitting captured image data to a user's contract server. A mobile terminal camera having communication means, the mobile terminal camera having the communication means transmitting images taken by the plurality of cameras and data necessary for three-dimensional shape measurement or three-dimensional image generation processing to the server. The server has a configuration for executing three-dimensional shape measurement or three-dimensional image generation processing based on received data. 3D information service system characterized and.
【請求項16】前記サーバーは、 前記携帯端末カメラから受信した画像に基づく3次元形
状計測データあるいは3次元画像データを格納する記憶
手段を有し、 サーバーと通信可能な端末間における認証処理に基づい
て、前記記憶手段に格納したデータに対するアクセスの
認否処理を実行する構成であることを特徴とする請求項
15に記載の3次元情報サービスシステム。
16. The server has storage means for storing three-dimensional shape measurement data or three-dimensional image data based on an image received from the portable terminal camera, and performs authentication processing between terminals capable of communicating with the server. 16. The three-dimensional information service system according to claim 15, wherein a configuration for performing an access approval / denial process for data stored in said storage means is executed.
【請求項17】ステレオ計測法に基づいて3次元形状計
測あるいは3次元画像生成処理をコンピュータ・システ
ム上で実行せしめるコンピュータ・プログラムを有形的
に提供するプログラム提供媒体であって、前記コンピュ
ータ・プログラムは、 複数のカメラを一定の位置関係に設定する台座に設置
し、計測対象の画像を異なる視点方向から複数のカメラ
により撮影する画像撮影ステップと、 前記複数のカメラの少なくとも1台のカメラを介して、
撮影画像データと、3次元形状計測あるいは3次元画像
生成処理に必要なデータとを送信するデータ送信ステッ
プと、 サーバーにおける受信データに基づいて3次元形状計測
あるいは3次元画像生成処理を実行するデータ処理ステ
ップと、 を有することを特徴とするプログラム提供媒体。
17. A program providing medium for tangibly providing a computer program for causing a computer system to execute three-dimensional shape measurement or three-dimensional image generation processing based on a stereo measurement method, wherein the computer program is An image capturing step in which a plurality of cameras are installed on a pedestal that sets a fixed positional relationship, and images of a measurement target are captured by a plurality of cameras from different viewpoint directions, and via at least one of the plurality of cameras. ,
A data transmission step of transmitting photographed image data and data necessary for three-dimensional shape measurement or three-dimensional image generation processing; and a data processing of executing three-dimensional shape measurement or three-dimensional image generation processing based on received data in the server A program providing medium, comprising: a step;
JP2000201032A 2000-07-03 2000-07-03 Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium Pending JP2002027495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000201032A JP2002027495A (en) 2000-07-03 2000-07-03 Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000201032A JP2002027495A (en) 2000-07-03 2000-07-03 Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium

Publications (1)

Publication Number Publication Date
JP2002027495A true JP2002027495A (en) 2002-01-25

Family

ID=18698795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000201032A Pending JP2002027495A (en) 2000-07-03 2000-07-03 Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium

Country Status (1)

Country Link
JP (1) JP2002027495A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004027708A1 (en) * 2002-09-19 2004-04-01 Topcon Corporation Image calibration method, image calibration processing device, and image calibration processing terminal
WO2004030374A1 (en) * 2002-09-27 2004-04-08 Sanyo Electric Co., Ltd. Multiple image transmission method and mobile device having multiple image simultaneous imaging function
KR100506267B1 (en) * 2002-09-26 2005-08-10 삼성전자주식회사 Method and apparatus for photographing in a mobile telephone
CN100388798C (en) * 2003-01-16 2008-05-14 夏普株式会社 Information terminal device
KR100889107B1 (en) * 2007-04-06 2009-03-17 (주)케이티에프테크놀로지스 A portable terminal having a plurality of cameras and a method of controlling a camera activation state thereof
JP2009058359A (en) * 2007-08-31 2009-03-19 Omron Corp Image processor
JP2010154334A (en) * 2008-12-25 2010-07-08 Panasonic Electric Works Co Ltd Wireless transmission device and wireless video transmission system using the same
US8150174B2 (en) 2007-05-14 2012-04-03 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
US8810632B2 (en) 2009-11-09 2014-08-19 Samsung Electronics Co., Ltd. Apparatus and method for generating a three-dimensional image using a collaborative photography group
JP2017208606A (en) * 2016-05-16 2017-11-24 キヤノン株式会社 Image processing apparatus, imaging device, image processing method and image processing program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004027708A1 (en) * 2002-09-19 2004-04-01 Topcon Corporation Image calibration method, image calibration processing device, and image calibration processing terminal
US7715644B2 (en) 2002-09-19 2010-05-11 Topcon Corporation Image calibration method, image calibration processing device, and image calibration processing terminal
KR100506267B1 (en) * 2002-09-26 2005-08-10 삼성전자주식회사 Method and apparatus for photographing in a mobile telephone
WO2004030374A1 (en) * 2002-09-27 2004-04-08 Sanyo Electric Co., Ltd. Multiple image transmission method and mobile device having multiple image simultaneous imaging function
KR100697150B1 (en) * 2002-09-27 2007-03-20 산요덴키가부시키가이샤 Portable device having multiple image transmission method and multiple image simultaneous shooting function
US7518641B2 (en) 2002-09-27 2009-04-14 Sanyo Electric Co., Ltd. Multiple-image transmission method and mobile apparatus having multiple-image simultaneous photographing function
CN100388798C (en) * 2003-01-16 2008-05-14 夏普株式会社 Information terminal device
KR100889107B1 (en) * 2007-04-06 2009-03-17 (주)케이티에프테크놀로지스 A portable terminal having a plurality of cameras and a method of controlling a camera activation state thereof
US8150174B2 (en) 2007-05-14 2012-04-03 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
JP2009058359A (en) * 2007-08-31 2009-03-19 Omron Corp Image processor
JP2010154334A (en) * 2008-12-25 2010-07-08 Panasonic Electric Works Co Ltd Wireless transmission device and wireless video transmission system using the same
US8810632B2 (en) 2009-11-09 2014-08-19 Samsung Electronics Co., Ltd. Apparatus and method for generating a three-dimensional image using a collaborative photography group
JP2017208606A (en) * 2016-05-16 2017-11-24 キヤノン株式会社 Image processing apparatus, imaging device, image processing method and image processing program
US11032533B2 (en) 2016-05-16 2021-06-08 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
US7825948B2 (en) 3D video conferencing
EP3230950B1 (en) Method, apparatus and medium for synchronisation of colour and depth videos
USRE47925E1 (en) Method and multi-camera portable device for producing stereo images
CN112005548B (en) Method of generating depth information and electronic device supporting the same
US12010286B2 (en) Separable distortion disparity determination
KR20150140841A (en) Active stereo with satellite device or devices
JP2005157921A (en) Image processing device and method
JP2009529824A (en) CMOS stereo camera for 3D image acquisition
WO2018028152A1 (en) Image acquisition device and virtual reality device
US11803982B2 (en) Image processing device and three-dimensional measuring system
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
JP2002027495A (en) Three-dimensional image generating system, three- dimensional image generating method and three- dimensional information service system, and program providing medium
JP2001266128A (en) Method and device for obtaining depth information and recording medium recording depth information obtaining program
CN107864372A (en) Solid picture-taking method, apparatus and terminal
US20240331286A1 (en) Three-dimensional model generation device, three-dimensional model generation method, and non-transitory storage medium
EP2866446B1 (en) Method and multi-camera portable device for producing stereo images
US20230188691A1 (en) Active dual pixel stereo system for depth extraction
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program
CN109328459B (en) Intelligent terminal, 3D imaging method thereof and 3D imaging system
JP2020177490A (en) AR space image projection system, AR space image projection method and user terminal
KR101745626B1 (en) Apparatus and method for location-information
JP2023007802A (en) Photographing device, method for controlling photographing device, and program
KR20230082523A (en) Apparatus and method for measuring size of part of body
JP2022111859A (en) Information processing device, its method, and program