JP2017003525A - 3D measuring device - Google Patents
3D measuring device Download PDFInfo
- Publication number
- JP2017003525A JP2017003525A JP2015120289A JP2015120289A JP2017003525A JP 2017003525 A JP2017003525 A JP 2017003525A JP 2015120289 A JP2015120289 A JP 2015120289A JP 2015120289 A JP2015120289 A JP 2015120289A JP 2017003525 A JP2017003525 A JP 2017003525A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- feature
- background
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 claims description 11
- 238000000034 method Methods 0.000 abstract description 91
- 238000012545 processing Methods 0.000 abstract description 14
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000004364 calculation method Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 11
- 241000196324 Embryophyta Species 0.000 description 9
- 239000003550 marker Substances 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 241000220223 Fragaria Species 0.000 description 4
- 235000016623 Fragaria vesca Nutrition 0.000 description 4
- 235000011363 Fragaria x ananassa Nutrition 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】撮影画像から被写体の三次元モデルを作成する技術において、背景が処理の阻害要因となる問題を解決する。
【解決手段】
標定用特徴表示となるカラーターゲット104,105とランダムドットパターン106を備え、回転が可能な回転台101と、カラーターゲット104,105と被写体103と背景特徴表示を構成するランダムドットパターン106が撮影範囲の全てを占めるようにセッティングされたカメラ102とを備える三次元計測装置。
【選択図】図1In a technique for creating a three-dimensional model of a subject from a photographed image, a problem that a background becomes an obstacle to processing is solved.
[Solution]
The imaging target is provided with color targets 104 and 105 serving as orientation characteristic displays and random dot patterns 106, and a rotatable turntable 101, color targets 104 and 105, subject 103, and random dot patterns 106 constituting a background feature display. And a camera 102 set to occupy all of the three-dimensional measuring device.
[Selection] Figure 1
Description
本発明は、画像を用いた三次元計測の技術に関する。 The present invention relates to a technique for three-dimensional measurement using an image.
画像を用いて植物の三次元形状に係るデータを取得する技術が知られている。例えば、特許文献1には、植物を回転させながら複数の視点から植物の写真撮影を行い、得られた複数の撮影画像から被写体(植物)の三次元モデルを得る技術が記載されている。 A technique for acquiring data relating to a three-dimensional shape of a plant using an image is known. For example, Patent Document 1 describes a technique for taking a photograph of a plant from a plurality of viewpoints while rotating the plant and obtaining a three-dimensional model of a subject (plant) from the obtained plurality of captured images.
画像を用いた三次元計測においては、対象となる被写体以外の背景等がノイズとなる。このような背景において、本発明は、撮影画像から被写体の三次元モデルを作成する技術において、背景が処理の阻害要因となる問題を解決することを目的とする。 In the three-dimensional measurement using an image, the background other than the target subject becomes noise. In such a background, an object of the present invention is to solve the problem that the background is an obstacle to processing in the technique of creating a three-dimensional model of a subject from a captured image.
請求項1に記載の発明は、ずらして重ねることができないパターンにより構成される特徴表示を備え、回転が可能であり、被写体が置かれる回転台と、前記被写体を撮影するカメラとを備えることを特徴とする三次元計測装置である。 The invention described in claim 1 is provided with a feature display constituted by a pattern that cannot be shifted and overlapped, can be rotated, and includes a turntable on which a subject is placed, and a camera that photographs the subject. It is a characteristic three-dimensional measuring device.
ずらして重ねることができないとパターンというのは、同じパターンのものを2つ用意し、それらを重ねた場合に、特徴表示を一致させる重ね方が一通りしかないパターンのことをいう。この場合、パターンが重なった状態から一方のパターンを相対的にずらしても、2つのパターンを一致させることはできない。 If the patterns cannot be shifted and overlapped, the pattern means a pattern in which two features having the same pattern are prepared and overlapped so that the feature display matches only one way. In this case, even if one pattern is relatively shifted from the state in which the patterns overlap, the two patterns cannot be matched.
パターンとしては、ドット、図形、文字、その他特徴表示として画像認識可能な模様等が挙げられる。パターンとして色彩の組み合わせを利用することもできる。また、各種のパターンを組み合わせて利用することもできる。 Examples of the pattern include dots, figures, characters, and other patterns that can be recognized as features. A combination of colors can also be used as a pattern. Also, various patterns can be used in combination.
本発明によれば、回転台の第1の回転角度位置で第1の静止画像の撮影を行い、第2の回転角度位置で第2の静止画像の撮影を行い、第3の回転角度位置で第3の静止画像の撮影を行い、・・・といった作業を行うことで、複数の異なる視点から撮影した被写体の静止画像が得られる。ここで、例えば第1の視点から得た第1の静止画像と第2の視点から得た第2の静止画像との対応関係を特定する際、特徴表示同士が一致する位置関係が一通りしかないので、効率よくまた正確に第1の静止画像と第2の静止画像の対応関係を特定することができる。カメラの数は、1台に限定されず2台以上であってもよい。撮影は、回転台を回転させつつ行ってもよいし、回転台の回転を停止した状態で行ってもよい。 According to the present invention, the first still image is taken at the first rotation angle position of the turntable, the second still image is taken at the second rotation angle position, and the third rotation angle position is taken. By taking a third still image and performing operations such as..., Still images of the subject taken from a plurality of different viewpoints can be obtained. Here, for example, when specifying the correspondence between the first still image obtained from the first viewpoint and the second still image obtained from the second viewpoint, there is only one positional relationship where the feature displays match. Therefore, the correspondence relationship between the first still image and the second still image can be specified efficiently and accurately. The number of cameras is not limited to one and may be two or more. Photographing may be performed while rotating the turntable, or may be performed in a state where the rotation of the turntable is stopped.
請求項2に記載の発明は、請求項1に記載の発明において、前記カメラは、前記回転台が撮影範囲の全てを占めるようにセッティングまたは前記被写体に焦点が合い、前記回転台以外の部分は焦点が合っておらず撮像した画像がぼける設定であることを特徴とする。 According to a second aspect of the present invention, in the first aspect of the present invention, the camera is focused on the setting or the subject so that the rotary base occupies the entire photographing range, and the portions other than the rotary base are This is characterized in that the image is out of focus and the captured image is blurred.
撮影視野が回転台で占められるようにすることで、背景がノイズとなる問題を回避できる。また、背景が写る場合であっても背景をぼかすことで、背景からの特徴点の抽出を回避でき、背景がノイズとなる問題を回避できる。 By making the photographing field of view occupied by the turntable, the problem of background noise can be avoided. Further, even if the background appears, blurring the background can avoid extraction of feature points from the background, and the problem of background noise can be avoided.
請求項3に記載の発明は、請求項1または2に記載の発明において、前記特徴表示にランダムドットパターンが含まれていることを特徴とする。ランダムドットパターンは、重ね方が一通りしかないので、本発明における「ずらして重ねることができないパターン」を容易に得ることができる。
The invention described in claim 3 is the invention described in
請求項4に記載の発明は、請求項1〜3のいずれか一項に記載の発明において、前記特徴表示に2点間の距離を与えるスケールが含まれていることを特徴とする。特徴表示の中に2点間の距離を与えるスケールを含ませておくことで、最終的に得られる三次元モデルに実スケールが与えられる。2点間の距離を与えるスケールとしては、個別に識別できるターゲットを2点に配置する方法や距離が既知の直線を表示させる方法等が挙げられる。簡便な方法としては、長さの定まった定規を回転台の上に置いておく方法も可能である。なお、2点間の距離を与えるスケールは複数あることが望ましい。 According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, the feature display includes a scale that gives a distance between two points. By including a scale that gives the distance between two points in the feature display, the real scale is given to the finally obtained three-dimensional model. Examples of the scale that gives the distance between two points include a method of arranging individually identifiable targets at two points, a method of displaying a straight line with a known distance, and the like. As a simple method, it is possible to place a ruler with a fixed length on a turntable. It is desirable that there are a plurality of scales that give the distance between the two points.
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記回転台から上方に向かって逆円錐形状に延在し、前記回転台と一緒に回転すると共に内側に前記特徴表示を備えたカバー部材を備えることを特徴とする。請求項5に記載の発明によれば、カメラの撮影視野内を被写体と特徴表示で埋めることができるので、撮影画像間のマッチングを取る際の障害となる背景画像等のノイズを排除できる。 According to a fifth aspect of the present invention, in the invention according to any one of the first to fourth aspects of the present invention, it extends in an inverted conical shape upward from the turntable and rotates together with the turntable. A cover member having the feature display is provided on the inner side. According to the fifth aspect of the present invention, since the field of view of the camera can be filled with the subject and the characteristic display, noise such as a background image that becomes an obstacle when matching between the captured images can be eliminated.
請求項6に記載の発明は、請求項1〜5のいずれか一項に記載の発明において、前記特徴表示がランダムドットパターンであり、前記被写体の特徴点の分布と前記ランダムドットパターンのドットの分布の違いまたは密度の違いを利用して前記特徴表示と前記被写体の画像とを分離することを特徴とする。 The invention according to claim 6 is the invention according to any one of claims 1 to 5, wherein the feature display is a random dot pattern, and the distribution of feature points of the subject and the dots of the random dot pattern The feature display and the image of the subject are separated using a difference in distribution or a difference in density.
特徴点の三次元モデルの作成に必要なのは、被写体の特徴点であり、画像間のマッチングが終了した段階で特徴表示の役割は終わる。したがって、被写体の三次元モデルを作成する前の段階で被写体を構成する特徴点と特徴表示から抽出された特徴点とを分離する必要がある。請求項5に記載の発明では、特徴表示と被写体の特徴点の分布や密度の違いを利用して、特徴表示の特徴点と被写体の特徴点を分離する。 What is necessary for creating a three-dimensional model of feature points is a feature point of the subject, and the role of feature display ends when matching between images is completed. Therefore, it is necessary to separate the feature points constituting the subject and the feature points extracted from the feature display before the three-dimensional model of the subject is created. According to the fifth aspect of the present invention, the feature point of the feature display and the feature point of the subject are separated by utilizing the difference in distribution and density of the feature display and the feature point of the subject.
例えば、被写体として植物を対象とした場合、抽出される特徴点は、茎や葉の輪郭部分に集中する。他方で、特徴表示としてランダムドットパターンを採用した場合、ランダムであるとはいえ、被写体の場合に比較すれば、特徴点の分布の一様性は高い。そこで、特徴点の分布の一様性を数値で評価し、抽出した特徴点が被写体のものであるのか、背景の特徴表示のものであるのか、を設定した閾値によって判定する。具体的には、特徴点の分布の一様性が高い領域を背景特徴表示と判定し、特徴点の分布の一様性が低い領域を被写体と判定する。 For example, when a subject is a plant, the extracted feature points are concentrated on the outlines of stems and leaves. On the other hand, when the random dot pattern is adopted as the feature display, the distribution of the feature points is more uniform than that of the subject even though it is random. Therefore, the uniformity of the distribution of the feature points is evaluated numerically, and it is determined based on a set threshold value whether the extracted feature points are the subject or the background feature display. Specifically, an area with high uniformity of feature point distribution is determined as background feature display, and an area with low uniformity of feature point distribution is determined as a subject.
請求項7に記載の発明は、請求項1〜6のいずれか一項に記載の発明において、前記カメラが撮影した画像を圧縮処理することで前記特徴表示と前記被写体の画像とを分離することを特徴とする。請求項6に関連して説明したように、被写体の特徴点の分布の一様性に比較して、特徴表示の特徴点の分布の一様性は高い。このことを利用して画像を圧縮した際に点の間隔が狭まり、点の隙間がなくなって真っ黒になるように特徴表示のドッドパターンを設定する。被写体の特徴点は輪郭の部分に集中するので、特徴点が面で密集する頻度は少なく、多くの場合、線状に分布する。したがって、圧縮画像とすることで特徴表示の部分の面を真っ黒にし、その部分を分離することで、被写体の特徴点を選択的に再抽出できる。 According to a seventh aspect of the invention, in the invention according to any one of the first to sixth aspects, the feature display and the image of the subject are separated by compressing an image taken by the camera. It is characterized by. As described in relation to the sixth aspect, the uniformity of the feature point distribution of the feature display is higher than the uniformity of the feature point distribution of the subject. By utilizing this, the dot display of the feature display is set so that when the image is compressed, the interval between the dots is narrowed and the gap between the dots is eliminated and the image becomes black. Since the feature points of the subject are concentrated on the contour portion, the feature points are less frequently concentrated on the surface, and in many cases, the feature points are distributed linearly. Therefore, the feature point of the subject can be selectively re-extracted by making the surface of the feature display portion black by using the compressed image and separating the portion.
本発明によれば、撮影画像から被写体の三次元モデルを作成する技術において、背景が処理の阻害要因となる問題が解決される。 According to the present invention, in the technique of creating a three-dimensional model of a subject from a photographed image, the problem that the background becomes an obstacle to processing is solved.
1.第1の実施形態
(概要)
図1には、三次元計測装置100が示されている。三次元計測装置100は、モータ等の駆動手段により回転する回転台101を備えている。回転台101は平坦な上面を備え、その上面には、カラーターゲット104,105により構成される標定用特徴表示とランダムドットパターンにより構成される背景特徴表示106が設けられている。また、回転台101の中央には、三次元モデルの作成対象となる被写体103が置かれている。この例では、被写体として植物が選択されている。
1. First embodiment (outline)
FIG. 1 shows a three-
ランダムドットパターンは、ドットが規則性なくランダムに分布しているドットパターンである。ランダムドットパターンに関する技術は、例えば、特開平11−39505号公報、特開平10−97641号公報、電子情報通信学会研究報告.COMP,コンビュテーション112(24),51-58,2012-05-07等に記載されている。 The random dot pattern is a dot pattern in which dots are randomly distributed without regularity. Techniques related to random dot patterns are disclosed in, for example, Japanese Patent Application Laid-Open No. 11-39505, Japanese Patent Application Laid-Open No. 10-97641, Research Reports of the Institute of Electronics, Information and Communication Engineers. Etc. are described.
被写体103は、カメラ102によって撮影される、カメラ102は、その画角(撮影視野)が回転台101の上面で占められるようにセッティングされている。すなわち、カメラ102が撮影する画像がカラーターゲット104,105、背景特徴表示106および被写体103で占められるようにシステムのセッティングが行なわれている。
The subject 103 is photographed by the
標定用特徴表示を構成するカラーターゲット104,105は、それぞれ複数のカラーマーカ104a,105aを備えている。複数のカラーマーカ104a,105aは、更に細かいカラーコード表示(図示省略)により構成されている。カラーマーカ104a,105aの位置は予め厳密に決められており、カラーコードとカラーマーカの位置の対応関係は予め取得されている。カラーマーカのカラーコード表示を画像として認識し、カラーコードを読み取ることで、各カラーコードの位置を読み取ることができる。カラーコードに関する技術は、例えば、日本国特許第4828125号公報に記載されている。
The color targets 104 and 105 constituting the orientation characteristic display include a plurality of
カラーターゲット104と105の間の距離、および複数あるカラーマーカ104a,105a間の距離は予め決められており、カラーマーカの位置を特定することで実スケールが与えられるように設定されている。
The distance between the color targets 104 and 105 and the distance between the plurality of
回転台101を回転させながらカメラ102により連続的に複数毎の画像撮影を行う。この場合、相対的には、回転台101を静止させ、カメラ102を回転台101の周りで移動させながら撮影を行う場合と同様の効果が得られ、視点を変更した複数枚の静止画像が得られる。撮影に当たっては、被写体103の写っていない部分が生じないように回転台101の回転速度とカメラ102の撮影間隔を調整する。
A plurality of images are continuously captured by the
図2には、実施形態の演算装置200のブロック図が示されている。演算装置200は、カメラ102が撮影した静止画像を処理し、被写体103の三次元モデルのデータを作成する。三次元計測装置200は、コンピュータとしての機能を有し、CPU、固体電子メモリ、ハードディスク記憶装置、各種のインターフェース、その他必要に応じた演算素子を備えている。図2には、機能として捉えた各種の機能部が記載されている。図示された各種の機能部の一部または複数は、ソフトウェア的に構成されていてもよいし、専用のハードウェアで構成されていてもよい。例えば、三次元計測装置200は、汎用のコンピュータを用いて図示する機能部の機能をソフトウェア的に実現することで得ることができる。
FIG. 2 is a block diagram of the
三次元計測装置200は、データ記憶部201、特徴点抽出部202、画像分類部204、特定画像抽出部205、外部標定要素算出部206、対応点特定部207、特徴点の三次元位置算出部208、三次元モデル作成部209、標定用特徴表示検出部210を備えている。データ記憶部201は、三次元計測装置200に外部から入力されるデータ、演算の途中で得られるデータ、演算結果のデータ、三次元計測装置200の動作に必要な動作プログラムを記憶する。なお、データ記憶部201に記憶されるデータは一時的に記憶されるデータであってもよい。
The three-
特徴点抽出部202は、カメラ102が撮影した画像の中から特徴点を抽出する。特徴点は、周囲から区別できる点であり、例えば、エッジ部分や周囲と色彩が異なっている部分が特徴点として抽出される。特徴点の抽出は、ソフトウェア処理により行われる。特徴点の抽出には、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタが用いられる。
The feature
画像分類部204は、特徴点の位置や分布の状態を利用して画像の分離を行う。まず、特徴点の位置の違いに基づき背景特徴表示106を他の画像から分離する方法について説明する。図1に示すように、背景特徴表示106は、平面であり、被写体103とは高さ方向における位置が異なっている。この位置の違いを利用して背景特徴表示から抽出された特徴点を被写体103から抽出された特徴点から分離する。
The
例えば、特徴点の位置に着目し、その高さ位置に閾値を設定する。そして、高さが閾値以下である場合に当該特徴点が被写体103を構成する特徴点でなく、他の部分(例えば、背景特徴表示106)を構成する特徴点であると判定する。また、例えば、カメラ102からの距離に閾値を設定し、カメラ102からの距離が閾値以上である場合に当該特徴点が被写体を構成する特徴点でなく、他の部分(例えば、背景特徴表示106)を構成する特徴点であると判定する。
For example, paying attention to the position of the feature point, a threshold is set at the height position. When the height is equal to or lower than the threshold value, it is determined that the feature point is not a feature point constituting the subject 103 but a feature point constituting another portion (for example, the background feature display 106). Also, for example, a threshold is set for the distance from the
次に、特徴点の密度を利用して背景特徴表示を他の画像から分離する方法を説明する。この方法の一つでは、画像全体を圧縮する。画像全体を圧縮すると、ランダムドットパターンのドット間隔がつまり、ある段階で背景画像が真っ黒になる。この現象を利用してランダムドットパターンにより構成される背景画像を分離する。 Next, a method of separating the background feature display from other images using the feature point density will be described. One method compresses the entire image. When the entire image is compressed, the dot interval of the random dot pattern is that is, the background image becomes black at a certain stage. Using this phenomenon, a background image composed of random dot patterns is separated.
ランダムドットパターンにより構成される背景画像を分離する他の方法として、特徴点の分布の偏りと密度を利用してランダムドットパターンの領域を選択的に検出する方法がある。この方法では、着目した領域を格子区画に区切り、各格子区画の特徴点の数の偏差を標準偏差によって評価することで特徴点の分布の偏りを判定する。他方で、着目した領域の特徴点の密度を検出する。そして、上記の標準偏差の値が閾値以下であり、且つ、特徴点の密度が閾値以上である場合に、当該着目した領域をランダムドットパターンにより構成される背景特徴表示(背景画像)であると判定する。 As another method of separating a background image composed of random dot patterns, there is a method of selectively detecting a random dot pattern region using the bias and density of the distribution of feature points. In this method, the region of interest is divided into grid sections, and the deviation of the number of feature points in each grid section is evaluated by a standard deviation to determine the distribution of the feature point distribution. On the other hand, the density of feature points in the focused area is detected. And when the value of said standard deviation is below a threshold value, and the density of a feature point is more than a threshold value, it is the background feature display (background image) comprised by the said focused area | region by a random dot pattern judge.
他の方法として以下の方法もある。ランダムドットパターンは、着目する領域の場所を変化させた場合におけるドットの密度の変化が相対的に小さいという性質がある。植物等の実際の物を対象とした場合、輪郭部分等に特徴点が集中するので、着目する領域の場所を数カ所に渡り変えてゆくと、あるタイミングで特徴点の密度が大きく変化する。この性質を利用して、ランダムドットパターンにより構成される背景画像を他の画像から分離する。 Other methods include the following methods. The random dot pattern has a property that a change in dot density is relatively small when the location of the region of interest is changed. When an actual object such as a plant is targeted, the feature points are concentrated on the contour portion or the like. Therefore, when the location of the region of interest is changed to several places, the density of the feature points changes greatly at a certain timing. Using this property, a background image composed of random dot patterns is separated from other images.
更に他の方法として以下の方法もある。ランダムドットパターンは、不規則にドットが分布しているので、特定の形状を構成しない。他方で、図1の被写体103やカラーターゲット104,105は、形状を特定する輪郭線を有するので、特徴点が線状に分布した部分が存在する。このことを利用し、直線や曲線といった特定の形状が検出されず、且つ、特徴点の密度が閾値以上である領域をランダムドットパターンにより構成させる背景画像であると判定する。 Still another method is the following method. The random dot pattern does not constitute a specific shape because the dots are irregularly distributed. On the other hand, since the subject 103 and the color targets 104 and 105 in FIG. 1 have contour lines that specify the shape, there are portions in which feature points are distributed in a linear shape. Using this fact, it is determined that the image is a background image in which a specific shape such as a straight line or a curve is not detected and a region where the density of feature points is equal to or higher than a threshold is configured by a random dot pattern.
標定用特徴表示抽出部210は、カラーターゲット104,105を検出する。カラーターゲット104,105の画像は、予め取得されており、それをリファレンスとして撮影画像中からカラーターゲット104,105の抽出が行なわれる。
The orientation feature
外部標定要素算出部206は、画像中の標定用特徴表示を利用して、図1のカメラ102の外部標定要素(位置と姿勢)を後方交会法により算出する。図3には、後方交会法の原理が示されている。後方交会法とは、未知点から3つ以上の既知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。後方交会法としては、単写真標定、DLT法(Direct Liner Transformation Method)が挙げられる。交会法については、基礎測量学(電気書院:2010/4発行)182p,p184に記載されている。また、特開2013―186816号公報には交会法に関して具体的な計算方法の例が示されている。
The external orientation
以下、後方交会法を用いて外部標定要素を求める方法について説明する。まず、撮影画像において、複数の標定用特徴表示が特定され、その位置を基準点として取得する。例えば、標定用特徴表示として図1に示すカラーターゲット104,105が採用されている場合を説明する。この場合、カラーマーカ104a,105aのカラーコード表示を画像として認識することで、各カラーマーカの位置を読み取ることができる。
Hereinafter, a method for obtaining the external orientation element using the backward intersection method will be described. First, in the captured image, a plurality of orientation characteristic displays are specified, and their positions are acquired as reference points. For example, a case will be described in which the color targets 104 and 105 shown in FIG. In this case, the position of each color marker can be read by recognizing the color code display of the
以下、具体的な計算の一例を説明する。この場合、例えば図3のP1〜P3がカラーマーカにより特定された基準点(外部標定要素算出用の基準点)となる。また、p1〜p3が基準点P1〜P3の着目している画像中における画面座標値となる。ここで、P1とp1、P2とp2、P3とp3を結ぶ3つの方向線を設定すると、その交点Oが当該画像を撮影したカメラ102の位置となる。また、点Oと画面の中心を結ぶ方向線の延長方向がカメラの向き(姿勢)となる。
Hereinafter, an example of specific calculation will be described. In this case, for example, P1 to P3 in FIG. 3 are reference points (reference points for calculating external orientation elements) specified by the color markers. Further, the screen coordinate value in the image p 1 ~p 3 is focused reference points P1 to P3. Here, by setting the three directions line connecting P1 and p 1, P2 and p 2, P3 and p 3, the position of the
カメラの外部標定要素を基準点でない特徴点(例えば、ランダムドットパターンから抽出したその絶対位置が特定されていない特徴点)から算出することもできる。この場合、外部標定要素は、撮影画像中の特徴点に対する相対的な位置と姿勢となる。この場合のカメラの外部標定要素の算出は、上述した後方交会法を用いて行う。この場合、点P1〜P3と交点Oとの相対的な位置関係が求まり、点P1〜P3に対する点Oにあるカメラの相対的な位置と向き(姿勢)が求まる。なおこの場合、利用する特徴点(上記の場合は、点P1〜P3の3点)の数をできるだけ多くすることで、算出されるカメラの外部標定要素の値の精度を確保する。なお、撮影に先立ちオリエンテーションを行い、カメラの外部標定用要素を求めておく処理を行ってもよい。この場合、基準点は必要とされない。なお、標定要素には、外部標定要素と内部標定要素があり、これら標定要素を求める処理をキャリブレーションというが、特に外部標定要素を求める処理をここではオリエンテーションと呼ぶ。 The external orientation element of the camera can also be calculated from a feature point that is not a reference point (for example, a feature point whose absolute position is extracted from a random dot pattern). In this case, the external orientation element is a relative position and orientation with respect to the feature point in the captured image. In this case, the external orientation element of the camera is calculated using the above-described backward intersection method. In this case, the relative positional relationship between the points P1 to P3 and the intersection point O is obtained, and the relative position and orientation (posture) of the camera at the point O with respect to the points P1 to P3 are obtained. In this case, by increasing the number of feature points to be used (in the above case, three points P1 to P3) as much as possible, the accuracy of the calculated value of the external orientation element of the camera is ensured. In addition, orientation may be performed prior to photographing, and processing for obtaining external orientation elements of the camera may be performed. In this case, no reference point is required. Note that the orientation elements include an external orientation element and an internal orientation element, and the process for obtaining these orientation elements is called calibration. In particular, the process for obtaining the external orientation elements is called orientation.
対応点特定部207は、異なる視点から撮影した2枚の画像中でそれぞれ個別に抽出された特徴点の対応関係を特定する。すなわち、一方の画像中で抽出された特徴点と同じ特徴点を他方の画像中で特定する処理を行う。この特徴点の対応関係を特定する処理は、例えば、図5に示すテンプレートマッチングを用いて行われる。
The corresponding
テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。以下、テンプレートマッチングの一例を説明する。テンプレートマッチングは、2つの座標系における画像の座標データを相互に比較し、両者の相関関係により、2つの画像の対応関係を求める方法である。テンプレートマッチングでは、2つの視点それぞれから見た画像の特徴点の対応関係が求められる。図5は、テンプレートマッチングの原理を説明する説明図である。この方法では、図示するように、N1×N1画素のテンプレート画像を、それよりも大きいM1×M1画素の入力画像内の探索範囲(M1−N1+1)2上で動かし、下記数1で示される相互相関関数C(a,b)が最大となるような(つまり相関の程度が最大となるような)テンプレート画像の左上位置を求める。 Examples of template matching include a residual sequential detection method (SSDA), a cross-correlation coefficient method, and the like. Hereinafter, an example of template matching will be described. Template matching is a method in which the coordinate data of images in two coordinate systems are compared with each other, and the correspondence between the two images is obtained by the correlation between the two. In template matching, a correspondence relationship between feature points of an image viewed from two viewpoints is obtained. FIG. 5 is an explanatory diagram for explaining the principle of template matching. In this method, as shown in the drawing, a template image of N 1 × N 1 pixel is moved on a search range (M 1 −N 1 +1) 2 in an input image of M 1 × M 1 pixel larger than that, The upper left position of the template image is calculated so that the cross-correlation function C (a, b) expressed by the following equation 1 is maximized (that is, the degree of correlation is maximized).
上記の処理は、一方の画像の倍率を変えながら、また回転させながら行われる。そして、相関関係が最大となった条件で、両画像の一致する領域が求まり、更にこの領域における特徴点を抽出することで、対応点の検出が行われる。 The above processing is performed while changing the magnification of one image and rotating it. And the area | region where both images correspond is calculated | required on the conditions from which the correlation became the maximum, Furthermore, the corresponding point is detected by extracting the feature point in this area | region.
テンプレートマッチングを用いることで、比較する2つの画像の一致する部分が特定でき、2つの画像の対応関係を知ることができる。この方法では、2つ画像の相関関係が最大となるように両者の相対的な位置関係が定められる。2つの画像の相関関係は、両画像の特徴点によって決まる。2つの画像間の対応関係を求める技術については、例えば特開2013−178656号公報や特開2014−35702号公報に記載されている技術を利用することができる。なお、特開2013−178656号公報や特開2014−35702号公報には、特徴点の抽出に係る技術、特徴点の三次元位置を求める技術についても記載されており、これらの技術は、本願明細書中で説明する技術に利用できる。 By using template matching, a matching portion between two images to be compared can be specified, and the correspondence between the two images can be known. In this method, the relative positional relationship between the two images is determined so as to maximize the correlation between the two images. The correlation between the two images is determined by the feature points of both images. As a technique for obtaining a correspondence relationship between two images, for example, techniques described in Japanese Patent Application Laid-Open Nos. 2013-178656 and 2014-35702 can be used. Note that Japanese Patent Application Laid-Open No. 2013-178656 and Japanese Patent Application Laid-Open No. 2014-35702 also describe a technique for extracting feature points and a technique for obtaining a three-dimensional position of feature points. It can be used for the technology described in the specification.
特徴点の三次元位置算出部208は、特徴点抽出部202が画像中から抽出した特徴点の三次元位置の算出を前方交会法により算出する。対象物を構成する多数の特徴点の三次元位置を算出することで、当該対象物を点の集合として把握可能なデータとなる三次元点群位置データが得られる。更には、この三次元点群位置データに基づき三次元モデルを作成することができる。
The feature point three-dimensional
図4には、前方交会法の原理が示されている。前方交会法では、既知の複数点(図4の場合は、O1とO2の2点)から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を求める。 FIG. 4 shows the principle of the forward intersection method. In the forward intersection method, a direction from a plurality of known points (two points O 1 and O 2 in the case of FIG. 4) to the unknown point P is observed, and the position of the unknown point P is determined as an intersection of these direction lines. Ask.
以下、一例を挙げて三次元位置算出部208における処理の一例を説明する。まず、回転台101を回転させつつ第1の視点で撮影した第1の画像と第2の視点で撮影した第2の画像があるとする。ここで、第1の画像は、第1の視点からの撮影画像となり、第2の画像は、第1の視点と異なる第2の視点からの撮影画像となる。
Hereinafter, an example of processing in the three-dimensional
ここで、Pが第1の画像と第2の画像において共通に写っている特徴点(両画像で対応する特徴点)、O1が第1の画像の視点(撮影位置)、O2が第2の画像の視点(撮影位置)、p1が特徴点Pの第1の画像中における画面座標、p2が特徴点Pの第2の画像中における画面座標となる。この場合、O1とp1を結ぶ方向線を設定し、他方でO2とp2を結ぶ方向線を設定し、この2つの方向線の交点の座標を算出することで、特徴点Pの三次元座標を算出することができる。 Here, P is a feature point that is common to the first image and the second image (a feature point corresponding to both images), O 1 is the first image viewpoint (photographing position), and O 2 is the first image. The viewpoint (photographing position) of the second image, p 1 is the screen coordinate in the first image of the feature point P, and p 2 is the screen coordinate in the second image of the feature point P. In this case, a direction line connecting O 1 and p 1 is set, on the other hand, a direction line connecting O 2 and p 2 is set, and by calculating the coordinates of the intersection of the two direction lines, the feature point P Three-dimensional coordinates can be calculated.
三次元モデル作成部209は、多数の撮影画像を解析することで得られた三次元点群位置データに基づいて三次元モデルを作成する。例えば、得られた多数の特徴点の座標からなる三次元点群位置データを用いてtin(不整三角形網)を作成し、撮影対象物の三次元モデルの作成が行われる。この際、複数のターゲットにより三次元モデルの実寸法が与えられる。点群位置データに基づいて三次元モデルを作成する技術に関しては、例えば、特開2012−230594号公報に記載されている。
The 3D
(処理の一例)
以下に処理の手順の一例を説明する。処理の手順を決めるプログラムは、データ記憶部202に記憶され、適当な記憶領域に読み出されて実行される。なお、当該プログラムを適当な記憶媒体に記憶させ、そこから提供する形態も可能である。図6には、処理の手順の一例を示すフローチャートが示されている。
(Example of processing)
An example of the processing procedure will be described below. A program for determining the processing procedure is stored in the
まず、回転台101を回転させつつカメラ102により連続して撮影を行い、異なる複数の視点からの被写体103の撮影を行う。得られた複数毎の画像に係る画像データは、データ記憶部201に記憶される(ステップS101)。次に、各画像において、カラーターゲット104,105の抽出が行なわれる(ステップS102)。この処理により予め位置が既知である基準位置が検出される。この処理は、標定用特徴表示抽出部210において行われる。
First, the
次に、各画像において、ステップS102で得た標定用画像を用いてカメラ102の外部標定要素の算出を行う(ステップS103)。この処理は、外部標定要素算出部206において行われる。この処理により、各画像におけるカメラの外部標定要素(位置と向き)が算出される。
Next, in each image, the external orientation element of the
次に、取得した複数の画像のそれぞれから特徴点の抽出を行う(ステップS104)。この処理は、特徴点抽出部202において行われる。特徴点を抽出したら、複数の画像間における特徴点の対応関係の特定を行う(ステップS105)。この処理は、対応点特定部207において行われる。例えば、この処理では、隣接する視点から得た2枚の画像の間における特徴点の対応関係の特定が行なわれる。この処理を対象となる全ての静止画像に対して行うことで、各静止画像間における特徴点の対応関係の特定が行なわれる。
Next, feature points are extracted from each of the acquired plurality of images (step S104). This process is performed in the feature
次に、ステップS105で抽出した特徴点の三次元位置の算出を行う(ステップS106)。この処理は、特徴点の三次元位置算出部(208)において行われる。この処理では、図4に示す原理による対応点の三次元座標の算出が行なわれる。 Next, the three-dimensional position of the feature point extracted in step S105 is calculated (step S106). This processing is performed in the feature point three-dimensional position calculation unit (208). In this process, the three-dimensional coordinates of the corresponding points are calculated according to the principle shown in FIG.
例えば、図4のО1を第1の視点、О2を第2の視点とし、Pが2つの静止画像間で対応する特徴点であるとする。この場合、p1が第1の写真画面上における画面座標値となり、p2が第2の写真画面上における画面座標値となる。ここで、О1の位置とその位置におけるカメラの姿勢、О2の位置とその位置におけるカメラの姿勢は、ステップS103の処理によって求められている。したがって、О1とp1を結ぶ方向線、О2とp2を結ぶ方向線を設定し、その交点の座標を求めることで、特徴点Pの位置(三次元座標位置)が求められる。 For example, assume that O 1 in FIG. 4 is a first viewpoint, O 2 is a second viewpoint, and P is a feature point corresponding to two still images. In this case, p 1 is a screen coordinate value of the first photo on the screen, p 2 is the screen coordinate value in the second photograph on the screen. Here, the attitude of the camera in position and its position of o 1, the orientation of the camera in position and its position of o 2, are obtained by the process of step S103. Accordingly, the direction line connecting O 1 and p 1 and the direction line connecting O 2 and p 2 are set, and the coordinates of the intersection are obtained, whereby the position of the feature point P (three-dimensional coordinate position) is obtained.
ステップS106で特徴点の位置を求めたら、特徴点の位置に基づく分類を行う(ステップS107)。この処理は、画像分類部204において行われる。この処理では、特徴点の位置の違いを利用して被写体103の特徴点とそれ以外の特徴点の分離を行う。この処理では、例えば、カメラからの距離の違いを利用して、被写体103の特徴点とそれ以外の特徴点の分離を行う。
When the position of the feature point is obtained in step S106, classification is performed based on the position of the feature point (step S107). This process is performed in the
次に、特徴量による分類を行う(ステップS108)。この処理は、画像分類部204において行われる。この処理では、特徴点検出部202が検出した特徴点の単位面積当たりの数がカウントされ、特徴点の密度の分布状態の情報を得る。そして、特徴点の分布状態に基づき背景画像を分離する。この処理では、特徴点の分布の不均一性が閾値以下であり、且つ、特徴点の密度が閾値以上である領域を背景特徴表示106(背景画像)とする処理を行う。この処理により、対象となる静止画像中から背景特徴表示106が分離される。また、この段階で、ステップS102で検出した標定用特徴表示であるカラーターゲット104,105の画像も被写体103の画像から分離する。
Next, classification based on feature amounts is performed (step S108). This process is performed in the
次に、各画像において、三次元モデル作成の対象となる画像の抽出(被写体103の画像の抽出)を行う(ステップS109)。この処理は、特定画像抽出部205において行われる。この処理では、既に分離されている背景特徴表示106と標定用特徴表示であるカラーターゲット104,105の画像が取り除かれ、被写体103の画像が抽出される。
Next, in each image, an image to be a target for creating a three-dimensional model (extraction of an image of the subject 103) is performed (step S109). This process is performed in the specific
被写体103の画像を抽出したら、ステップS104の処理で既に取得している被写体103に係る特徴点の三次元位置の情報に基づき、被写体103の三次元モデルの作成を行う(ステップS110)。この処理は、三次元モデル作成部209において行われる。
When the image of the subject 103 is extracted, a three-dimensional model of the subject 103 is created based on the information on the three-dimensional position of the feature point related to the subject 103 that has already been acquired in the process of step S104 (step S110). This process is performed in the 3D
(優位性)
図1のシステムでは、対象となる被撮影物の画像、標定用の画像、他の画像から分離し易い背景用の画像でカメラの撮影範囲が埋め尽くされるようにしている。こうすることで、三次元モデルの作成時に、ノイズとなる画像に起因する演算の増大や演算ミスが抑えられる。特に、背景画像を分離し易い画像とすることで、背景画像の処理に係る演算時間の増大や演算ミスを抑えることができる。
(Superiority)
In the system of FIG. 1, the image capturing range of the camera is filled with an image of an object to be captured, an image for orientation, and an image for background that can be easily separated from other images. By doing so, an increase in calculation and calculation errors due to an image that becomes noise can be suppressed when a three-dimensional model is created. In particular, by making the background image easy to separate, it is possible to suppress an increase in calculation time and calculation errors related to the background image processing.
また、背景画像として採用したランダムドットパターンは、異なる視点から撮影した静止画像間の対応関係を取り易いので、ステップS105の処理が効率良く行える。また、上記の例では、特徴点の位置の情報を利用したステップS107における画像の分類と、特徴量の違いを利用したステップS108における画像の分類とを行い、2段階に渡り被写体103以外のノイズとなる画像を分離する処理を行っている。このため、より効果的に被写体103以外のノイズとなる画像を分離した上での被写体103の三次元モデルの作成が行なえる。 Further, since the random dot pattern adopted as the background image can easily take the correspondence between still images taken from different viewpoints, the process of step S105 can be performed efficiently. In the above example, the image classification in step S107 using the feature point position information and the image classification in step S108 using the feature amount difference are performed, and noise other than the subject 103 is divided in two stages. The process which isolate | separates the image used as is performed. Therefore, it is possible to create a three-dimensional model of the subject 103 after separating an image that becomes noise other than the subject 103 more effectively.
2.第2の実施形態
図7には、図1に示す回転台101に内側にランダムドットパターン106’を設けた逆円錐形のカバー部材107を取り付けた構造が示されている。この例では、カメラ102の画角(撮影範囲)を更に広く設定することができる。図7の構成において、カバー部材107の内側に標定用特徴表示を設けてもよい。
2. Second Embodiment FIG. 7 shows a structure in which an inverted
3.第3の実施形態
図8には、図1の構成において、回転台101の上面にランダムドットパターンで構成される背景特徴表示106のみを配置している。この場合、背景特徴表示106を用いてカメラ102の外部標定要素を算出し、更に複数の撮影位置(視点)から撮影された静止画像に基づいて得られる被写体103の三次元モデルを得る。ここでは、撮影した画像内にスケールを与える表示がないので、得られる三次元モデルは、実スケールが与えられていない相対モデルとなる。また、カメラ102の外部標定要素は多数の特徴点に対する相対的な位置と向きとなる。なお、カメラ102の外部標定要素の算出においては、なるべく多くの特徴点を利用することでその算出精度を確保する。また、予めオリエンテーションを行いカメラ102の外部標定要素を求めておいてもよい。
3. Third Embodiment In FIG. 8, only the
得られた三次元モデルが相対モデルであっても、既知のスケールを写した静止画像を用いることで、当該三次元モデルにスケールを与えることができる。実スケールは、2点間の距離を与える表示を回転台101の上面に付与しておく、あるいは回転台101の上面にスケール(例えば定規)を置いておく、といった方法で与えることもできる。
Even if the obtained three-dimensional model is a relative model, a scale can be given to the three-dimensional model by using a still image obtained by copying a known scale. The actual scale can be given by a method of giving a display for giving a distance between two points on the top surface of the
4.第4の実施形態
図9には、回転台上面の中心に被写体となるイチゴを配置した例が示されている。図9には、回転台の上面にランダムドットパターン、特定のドットの位置を指定する数字の位置表示、周縁に配置されたカラーターゲットが配置(表示)された例が示されている。
4). Fourth Embodiment FIG. 9 shows an example in which a strawberry that is a subject is arranged at the center of the upper surface of the turntable. FIG. 9 shows an example in which a random dot pattern, a numerical position designation for designating the position of a specific dot, and a color target arranged on the periphery are arranged (displayed) on the upper surface of the turntable.
図9の例では、数字の位置表示やカラーターゲットを読み取り、それを利用してカメラの外部標定要素の算出や実スケールが与えられた三次元モデルの作成を行うことができる。 In the example of FIG. 9, it is possible to read a position display of a number or a color target and use it to calculate an external orientation element of a camera or create a three-dimensional model given an actual scale.
また、図9に示されるランダムドットパターン、特定のドットの位置を指定する数字の位置表示、周縁に配置されたカラーターゲットの一または複数を単なる模様として捉え、それを本発明におけるずらして重ねることができないパターンにより構成される特徴表示として用いることもできる。ランダムドットパターン、特定のドットの位置を指定する数字の位置表示、周縁に配置されたカラーターゲットの全てを単なる特徴表示とし用いた場合、実スケールは与えられない。この場合、得られた三次元モデルに後から実スケールを与えればよい。 In addition, the random dot pattern shown in FIG. 9, a numerical position designation designating the position of a specific dot, one or more of the color targets arranged at the periphery are regarded as simple patterns, and they are shifted and overlapped in the present invention. It can also be used as a feature display composed of patterns that cannot be performed. When a random dot pattern, a numerical position designation specifying the position of a specific dot, and all color targets arranged at the periphery are used as mere feature displays, no actual scale is given. In this case, an actual scale may be given later to the obtained three-dimensional model.
5.第5の実施形態
可変焦点カメラを用いて撮影した静止画像を用いて、被写体103の画像を抽出する方法もある。この場合、一つの視点から焦点を変えて被写体103を撮影し、複数毎の静止画像を得る。そして焦点の違いを利用して背景画像がぼけ、被写体103に焦点の合った画像を利用して、背景画像の分離を行う。以下、背景をぼかすことで背景を分離する技術の一例を説明する。
5. Fifth Embodiment There is also a method for extracting an image of the subject 103 using a still image taken with a variable focus camera. In this case, the subject 103 is photographed while changing the focus from one viewpoint, and a plurality of still images are obtained. The background image is blurred using the difference in focus, and the background image is separated using the image focused on the subject 103. Hereinafter, an example of a technique for separating the background by blurring the background will be described.
図10には、被写体であるイチゴに焦点を合わせ、背景をぼかした設定とした場合の画像が示されている。この場合、背景はぼけているので特徴点の抽出が行なわれず、マッチングの対象とならない。このため、複数の異なる視点から得た静止画像間の対応関係を求める処理(マッチング処理)において、背景の画像はノイズとならない。 FIG. 10 shows an image when the setting is focused on the subject strawberry and the background is blurred. In this case, since the background is blurred, feature points are not extracted and are not subject to matching. For this reason, in the process (matching process) for obtaining the correspondence between still images obtained from a plurality of different viewpoints, the background image does not become noise.
図10の場合、被写体であるイチゴの後ろ側の回転台上の特徴表示がぼけているが、マッチングには、焦点が合っている部分の特徴表示が利用される。したがって、複数の静止画像間の対応関係を特定する処理(マッチング処理)において問題は生じない。なお、図10には、スケールを与えるための定規が回転台の上に置かれた状態が示されている。 In the case of FIG. 10, the feature display on the turntable behind the strawberry that is the subject is blurred, but the feature display of the focused part is used for matching. Therefore, no problem occurs in the process (matching process) for specifying the correspondence between a plurality of still images. FIG. 10 shows a state in which a ruler for giving a scale is placed on the turntable.
6.第6の実施形態
図11には、背景を黒くし、且つ、被写体であるイチゴに焦点を合わせ、背景をぼかした設定とした場合の画像が示されている。この場合、背景が暗く(暗色で)、且つ、焦点が合っていないので、背景からは特徴点の抽出は行なわれない。このため、背景がマッチングの対象とならず、背景の画像がノイズとなる問題を回避できる。
6). Sixth Embodiment FIG. 11 shows an image when the background is set to black, and the setting is focused on the subject strawberry and the background is blurred. In this case, the feature point is not extracted from the background because the background is dark (in dark color) and not in focus. For this reason, it is possible to avoid the problem that the background is not the target of matching and the background image becomes noise.
4.その他
背景を特定の形状の表示が繰り返し配列されたものとする方法もある。例えば、画像認識し易い多角形(三角形等)の表示を繰り返し表示したもので背景画像を構成する方法が挙げられる。この場合、特定の形状が繰り返される領域を背景画像として分離する。
4). Others There is also a method in which the display of a specific shape is repeatedly arranged on the background. For example, there is a method of constructing a background image by repeatedly displaying polygons (triangles etc.) that are easy to recognize images. In this case, an area where a specific shape is repeated is separated as a background image.
また、背景画像を他の領域と識別できる特定の色として、色の違いにより背景画像を分離する方法もある。また、背景画像を特定の色彩パターンが繰り返される画像とすることで、他の画像と分離し易くする方法もある。また、ランダムドットパターンの代わりにランダムエッジパターン用いることもできる。ランダムエッジパターンは圧縮画像上で消去できるので、この現象を利用して背景画像の分離が可能となる。 There is also a method of separating a background image by a difference in color as a specific color that can distinguish the background image from other regions. In addition, there is a method in which the background image is an image in which a specific color pattern is repeated so that it can be easily separated from other images. Further, a random edge pattern can be used instead of the random dot pattern. Since the random edge pattern can be erased on the compressed image, this phenomenon can be used to separate the background image.
また、ハイパースペクトルカメラで撮影した場合に背景画像が際立つように背景画像を特定の波長を反射する形態とする方法が挙げられる。例えば、図1の背景特徴表示106の部分を被写体103およびカラーターゲット104および105には含まれない元素や材質を用いてコーティングする。この場合、当該背景特徴表示の部分からの反射光が他の部分とは異なるスペクトル分布の光となるので、ハイパースペクトルカメラによる画像中で当該背景特徴表示の部分を分離することができる。また、図1の背景特徴表示106の部分を蛍光塗料で塗装し、画像中で識別し易くする方法もある。
Further, there is a method in which the background image is reflected at a specific wavelength so that the background image stands out when taken with a hyperspectral camera. For example, the
図1の例では、カメラ102により撮影した画像が、被写体103、カラーターゲット104,105、更に背景特徴表示106によって埋め尽くされることで、ノイズの発生を抑える構成が示されている。ここで、背景特徴表示106の部分をカラーターゲットで埋め尽くしてもよい。
In the example of FIG. 1, an image captured by the
以上の説明では、植物を被写体とする場合の例を示したが、被写体は植物に限定されない。なお、本明明細書中で説明した複数の実施形態を組み合わせて利用することも可能である。 In the above description, an example in which a plant is a subject is shown, but the subject is not limited to a plant. Note that a plurality of embodiments described in this specification can be used in combination.
100…三次元計測システム、101…回転台、102…カメラ、103…被写体、104…カラーターゲット、104a…カラーマーカ、105…カラーターゲット、105a…カラーマーカ、106…背景特徴表示、107…背景特徴表示が設けられたカバー部材。
DESCRIPTION OF
Claims (7)
前記被写体を撮影するカメラと
を備えることを特徴とする三次元計測装置。 It has a feature display composed of patterns that cannot be shifted and superimposed, and can be rotated and a turntable on which the subject is placed;
A three-dimensional measuring apparatus comprising: a camera that photographs the subject.
前記被写体の特徴点の分布と前記ランダムドットパターンのドットの分布の違いまたは密度の違いを利用して前記特徴表示と前記被写体の画像とを分離することを特徴とする請求項1〜5のいずれか一項に記載の三次元計測装置。 The feature display is a random dot pattern;
6. The feature display and the image of the subject are separated using a difference in distribution or density of feature points of the subject and the random dot pattern. The three-dimensional measuring device according to claim 1.
The three-dimensional measurement apparatus according to claim 1, wherein the feature display and the image of the subject are separated by compressing an image captured by the camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015120289A JP2017003525A (en) | 2015-06-15 | 2015-06-15 | 3D measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015120289A JP2017003525A (en) | 2015-06-15 | 2015-06-15 | 3D measuring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017003525A true JP2017003525A (en) | 2017-01-05 |
Family
ID=57754654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015120289A Pending JP2017003525A (en) | 2015-06-15 | 2015-06-15 | 3D measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017003525A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108955525A (en) * | 2018-07-26 | 2018-12-07 | 广东工业大学 | Perspective projection formula machine learning image data labeling system and method |
JP2018197685A (en) * | 2017-05-23 | 2018-12-13 | 公益財団法人かずさDna研究所 | 3D measuring device |
CN109238166A (en) * | 2018-07-17 | 2019-01-18 | 北京农业信息技术研究中心 | A kind of plant phenotype acquisition device and its acquisition method |
JP2021189153A (en) * | 2020-06-05 | 2021-12-13 | エイチエスティ・ビジョン株式会社 | Image processing system and image processing method |
CN113874677A (en) * | 2019-05-31 | 2021-12-31 | 财团法人上总Dna研究所 | Three-dimensional measuring device, three-dimensional measuring method, and three-dimensional measuring program |
JP2023011704A (en) * | 2017-04-17 | 2023-01-24 | コグネックス・コーポレイション | High-accuracy calibration system and method |
JP2023035479A (en) * | 2021-09-01 | 2023-03-13 | 国立研究開発法人農業・食品産業技術総合研究機構 | Agricultural sheet and plant measurement method |
WO2023223958A1 (en) * | 2022-05-18 | 2023-11-23 | 株式会社Preferred Networks | Three-dimensional reconstruction method and three-dimensional reconstruction system |
-
2015
- 2015-06-15 JP JP2015120289A patent/JP2017003525A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023011704A (en) * | 2017-04-17 | 2023-01-24 | コグネックス・コーポレイション | High-accuracy calibration system and method |
JP2018197685A (en) * | 2017-05-23 | 2018-12-13 | 公益財団法人かずさDna研究所 | 3D measuring device |
CN109238166A (en) * | 2018-07-17 | 2019-01-18 | 北京农业信息技术研究中心 | A kind of plant phenotype acquisition device and its acquisition method |
CN108955525A (en) * | 2018-07-26 | 2018-12-07 | 广东工业大学 | Perspective projection formula machine learning image data labeling system and method |
CN108955525B (en) * | 2018-07-26 | 2024-04-09 | 广东工业大学 | Perspective projection type machine learning image data labeling system and method |
CN113874677A (en) * | 2019-05-31 | 2021-12-31 | 财团法人上总Dna研究所 | Three-dimensional measuring device, three-dimensional measuring method, and three-dimensional measuring program |
US20220215585A1 (en) * | 2019-05-31 | 2022-07-07 | Kazusa Dna Research Institute | Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program |
US11941852B2 (en) * | 2019-05-31 | 2024-03-26 | Kazusa Dna Research Institute | Three-dimensional measurement device, three-dimensional measurement method, and three-dimensional measurement program |
JP2021189153A (en) * | 2020-06-05 | 2021-12-13 | エイチエスティ・ビジョン株式会社 | Image processing system and image processing method |
JP2023035479A (en) * | 2021-09-01 | 2023-03-13 | 国立研究開発法人農業・食品産業技術総合研究機構 | Agricultural sheet and plant measurement method |
WO2023223958A1 (en) * | 2022-05-18 | 2023-11-23 | 株式会社Preferred Networks | Three-dimensional reconstruction method and three-dimensional reconstruction system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017003525A (en) | 3D measuring device | |
CN113379822B (en) | Method for acquiring 3D information of target object based on pose information of acquisition equipment | |
CN105825498B (en) | Measurement data processing device, measurement data processing method, and program | |
US9965870B2 (en) | Camera calibration method using a calibration target | |
JP6195915B2 (en) | Image measuring device | |
CN110956660B (en) | Positioning method, robot, and computer storage medium | |
JP5480914B2 (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
US9182220B2 (en) | Image photographing device and method for three-dimensional measurement | |
CN106871878A (en) | The method that spatial model is created using hand-held range unit | |
EP2294555A1 (en) | Three dimensional mesh modeling | |
CN111445529B (en) | Calibration equipment and method based on multi-laser ranging | |
JP2018197685A (en) | 3D measuring device | |
JP2017130146A (en) | Image management apparatus, image management method and program | |
CN110926330A (en) | Image processing apparatus, image processing method, and program | |
CN104700355A (en) | Generation method, device and system for indoor two-dimension plan | |
JP6017343B2 (en) | Database generation device, camera posture estimation device, database generation method, camera posture estimation method, and program | |
CN112200838A (en) | Projectile trajectory tracking method, device, equipment and storage medium | |
JP2022058658A (en) | Devices and methods for obtaining alignment error maps that represent the sharpness level of an image | |
CN112634377A (en) | Camera calibration method of sweeping robot, terminal and computer readable storage medium | |
JP7242431B2 (en) | Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program | |
CN114979618B (en) | Measuring system and recording medium having measuring program recorded therein | |
KR101673144B1 (en) | Stereoscopic image registration method based on a partial linear method | |
JP2015059812A (en) | On-site sketch drawing system and laser measuring device | |
JP3919722B2 (en) | Skin shape measuring method and skin shape measuring apparatus | |
JP5904168B2 (en) | Feature point extraction method and feature point extraction device for captured image |