[go: up one dir, main page]

JP2021033576A - Information processing equipment, information processing method, analysis system, and program - Google Patents

Information processing equipment, information processing method, analysis system, and program Download PDF

Info

Publication number
JP2021033576A
JP2021033576A JP2019152168A JP2019152168A JP2021033576A JP 2021033576 A JP2021033576 A JP 2021033576A JP 2019152168 A JP2019152168 A JP 2019152168A JP 2019152168 A JP2019152168 A JP 2019152168A JP 2021033576 A JP2021033576 A JP 2021033576A
Authority
JP
Japan
Prior art keywords
scale
information processing
designated
information
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019152168A
Other languages
Japanese (ja)
Inventor
哲 鳥居
Satoru Torii
哲 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019152168A priority Critical patent/JP2021033576A/en
Publication of JP2021033576A publication Critical patent/JP2021033576A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Position Input By Displaying (AREA)

Abstract

To estimate the surface shape of an object more accurately.SOLUTION: An information processing equipment acquires shape data of an object, estimates the surface shape at a specified part specified in displayed shape data, and outputs information indicating a scale having a plurality of reference points arranged at intervals corresponding to the estimated surface shape, which is a scale attached to the specified part of the object and arranged at the specified part of the object in order to estimate the orientation of the surface at the specified part.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理方法、分析システム、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, an analysis system, and a program.

従来、情報を格納するコードを撮影装置で撮影することで、その情報を画像から取得する技術が知られている。そのようなコードに関する技術として、例えば、撮影画像中のスケール上に略平行に配置された点群から、スケールを付された対象物の曲面の曲率及び傾きを算出する方法が、特許文献1に開示されている。 Conventionally, there is known a technique of acquiring information from an image by photographing a code for storing information with a photographing device. As a technique related to such a code, for example, a method of calculating the curvature and inclination of the curved surface of a scaled object from a point cloud arranged substantially parallel to the scale in a captured image is described in Patent Document 1. It is disclosed.

特開2014−229274号公報Japanese Unexamined Patent Publication No. 2014-229274

しかしながら、特許文献1に記載のスケールでは、スケール上の点群の密度が、スケールを付された曲面の形状を算出するために十分な密度であるかが不明であることにより、対象物表面の形状算出の精度が保証されていないという課題があった。 However, in the scale described in Patent Document 1, it is unclear whether the density of the point cloud on the scale is sufficient for calculating the shape of the curved surface with the scale, so that the surface of the object is surfaced. There is a problem that the accuracy of shape calculation is not guaranteed.

本発明は、対象物の表面の形状をより正確に推定することを目的とする。 An object of the present invention is to more accurately estimate the shape of the surface of an object.

本発明の目的を達成するために、例えば、一実施形態に係る情報処理装置は以下の構成を備える。すなわち、対象物の形状データを取得する第1の取得手段と、表示された前記形状データにおいて指定された指定部位における表面形状を推定する第1の評価手段と、前記指定部位における表面の向きを推定するために前記対象物の前記指定部位に配置されるスケールであって、前記推定された表面形状に対応する間隔で配置された複数の基準点を有するスケールを示す情報を出力する出力手段と、を備えることを特徴とする。 In order to achieve the object of the present invention, for example, the information processing apparatus according to one embodiment has the following configurations. That is, the first acquisition means for acquiring the shape data of the object, the first evaluation means for estimating the surface shape at the designated portion designated in the displayed shape data, and the orientation of the surface at the designated portion. An output means for outputting information indicating a scale arranged at the designated portion of the object for estimation and having a plurality of reference points arranged at intervals corresponding to the estimated surface shape. It is characterized by having.

対象物の表面の形状をより正確に推定することができる。 The shape of the surface of the object can be estimated more accurately.

実施形態1に係る情報処理装置を含む分析システムの構成の一例を示す図。The figure which shows an example of the structure of the analysis system including the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るスケールの構成の一例を示す図。The figure which shows an example of the structure of the scale which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法における処理例のフローチャート。The flowchart of the processing example in the analysis method which concerns on Embodiment 1. 実施形態1に係る情報処理装置の機能構成の一例を示す図The figure which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 1. 実施形態1に係る形状データのポリゴンの一例を示す図。The figure which shows an example of the polygon of the shape data which concerns on Embodiment 1. FIG. 実施形態1に係る情報処理方法における表示装置のUIの一例を示す図。The figure which shows an example of the UI of the display device in the information processing method which concerns on Embodiment 1. FIG. 実施形態1に係る情報処理方法における処理例のフローチャート。The flowchart of the processing example in the information processing method which concerns on Embodiment 1. 実施形態1に係る情報処理方法における平面性評価例のフローチャート。The flowchart of the flatness evaluation example in the information processing method which concerns on Embodiment 1. 実施形態1に係る情報処理方法における選択例のフローチャート。The flowchart of the selection example in the information processing method which concerns on Embodiment 1. 実施形態1に係る情報処理方法における表示装置の一例を示す図。The figure which shows an example of the display device in the information processing method which concerns on Embodiment 1. FIG. 実施形態1に係る分析装置の機能構成の一例を示す図。The figure which shows an example of the functional structure of the analyzer which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法における光源の位置の取得例を示す図。The figure which shows the acquisition example of the position of the light source in the analysis method which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法における反射特性の算出例を示す図。The figure which shows the calculation example of the reflection characteristic in the analysis method which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法における処理例のフローチャート。The flowchart of the processing example in the analysis method which concerns on Embodiment 1. 実施形態1に係る分析方法における形状算出例を示す図。The figure which shows the shape calculation example in the analysis method which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法におけるメタデータの一例を示す図。The figure which shows an example of the metadata in the analysis method which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法における形状算出処理例のフローチャート。The flowchart of the shape calculation processing example in the analysis method which concerns on Embodiment 1. 実施形態1に係る分析方法における分析部の機能構成の一例を示す図。The figure which shows an example of the functional structure of the analysis part in the analysis method which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法における分析例のフローチャート。The flowchart of the analysis example in the analysis method which concerns on Embodiment 1. 実施形態1に係る分析方法における法線方向算出例のフローチャート。The flowchart of the normal direction calculation example in the analysis method which concerns on Embodiment 1. 実施形態1に係る分析方法における光源方向算出例を示す図。The figure which shows the example of the light source direction calculation in the analysis method which concerns on Embodiment 1. FIG. 実施形態1に係る分析方法における分析手順の一例を示す図。The figure which shows an example of the analysis procedure in the analysis method which concerns on Embodiment 1. FIG. 実施形態2に係る情報処理装置を含む分析システムの構成の例を示す図。The figure which shows the example of the structure of the analysis system including the information processing apparatus which concerns on Embodiment 2. 実施形態2に係る情報処理装置の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 2. FIG. 実施形態2に係る情報処理方法における表示装置のUIの一例を示す図。The figure which shows an example of the UI of the display device in the information processing method which concerns on Embodiment 2. FIG. 実施形態2に係る情報処理方法における処理例のフローチャート。The flowchart of the processing example in the information processing method which concerns on Embodiment 2. 実施形態3に係る情報処理装置の機能構成の一例を示す図。The figure which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 3. 実施形態3に係る情報処理方法における表示装置のUIの一例を示す図。The figure which shows an example of the UI of the display device in the information processing method which concerns on Embodiment 3. 実施形態3に係る情報処理方法における測定部位の評価の一例を示す図。The figure which shows an example of the evaluation of the measurement part in the information processing method which concerns on Embodiment 3. 実施形態3に係る情報処理方法における評価例のフローチャート。The flowchart of the evaluation example in the information processing method which concerns on Embodiment 3. 実施形態4に係るコンピュータのハードウェア構成を示す図。The figure which shows the hardware configuration of the computer which concerns on Embodiment 4. FIG.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

[実施形態1]
[情報処理装置]
図1は、実施形態1に係る情報処理装置101を有する分析システムの構成の一例を示している。分析システムは、情報処理装置101と、分析装置107と、を有し、対象物103の表面の形状を推定し、対象物103の表面の色を分析するシステムである。情報処理装置101は、対象物103の表面の向きの測定を補助するスケール(マーカ)104を示す情報を出力する。情報処理装置101は、図1に示されるように表示装置102と有線で接続されていてもよいし、無線の通信を介して表示装置102との接続がなされていてもよい。また、情報処理装置101は、表示装置102と別々に独立した機器であってもよく、1つの機器内に一体となって構成される機器であってもよい。さらに、情報処理装置101は、表示装置102と接続されていなくともよい。表示装置102は、画像及び文字を表示可能なディスプレイである。表示装置102は、情報処理装置101が出力する処理の結果をディスプレイ上に表示する。表示装置102の種類は特に限定されないが、例えば、表示装置102が、持ち運びが簡便で及び場所を問わず情報処理装置101の処理結果を確認することができるタブレットPCであってもよい。
[Embodiment 1]
[Information processing device]
FIG. 1 shows an example of the configuration of an analysis system having the information processing apparatus 101 according to the first embodiment. The analysis system includes an information processing device 101 and an analysis device 107, estimates the shape of the surface of the object 103, and analyzes the color of the surface of the object 103. The information processing device 101 outputs information indicating a scale (marker) 104 that assists in measuring the orientation of the surface of the object 103. The information processing device 101 may be connected to the display device 102 by wire as shown in FIG. 1, or may be connected to the display device 102 via wireless communication. Further, the information processing device 101 may be a device that is independent of the display device 102, or may be a device that is integrally configured in one device. Further, the information processing device 101 does not have to be connected to the display device 102. The display device 102 is a display capable of displaying images and characters. The display device 102 displays the result of the process output by the information processing device 101 on the display. The type of the display device 102 is not particularly limited, but for example, the display device 102 may be a tablet PC that is easy to carry and can check the processing result of the information processing device 101 regardless of the location.

情報処理装置101は、対象物103について情報処理を行う。対象物103は平面又は曲面を含む表面からなる立体物である。本実施形態において、説明のため、対象物103は、それぞれ異なる曲率を有する、つまりそれぞれ異なる曲率半径を有する複数の曲面によって構成されているものとする。図1において、対象物103は、曲率半径が大きい円柱を下段、曲率半径が小さい円柱を中段、及び複数の方向に曲率を持つ曲面である球を上段として構成されている。しかし、対象物103の構成は特にこのようには限られず、例えば、自動車のドア又はフレームのような、機械製品の部品などであってもよい。 The information processing device 101 performs information processing on the object 103. The object 103 is a three-dimensional object composed of a surface including a flat surface or a curved surface. In the present embodiment, for the sake of explanation, it is assumed that the object 103 is composed of a plurality of curved surfaces having different curvatures, that is, having different radii of curvature. In FIG. 1, the object 103 is configured with a cylinder having a large radius of curvature as a lower stage, a cylinder having a small radius of curvature as a middle stage, and a sphere having a curvature in a plurality of directions as an upper stage. However, the configuration of the object 103 is not particularly limited in this way, and may be, for example, a part of a mechanical product such as a door or a frame of an automobile.

また、情報処理装置101は、対象物103に対応する3次元の形状データを記憶装置から取得する。図5はこの形状データの一例である。形状データは、3次元空間上の3点又は4点を頂点として持つ面であるポリゴンの集合によって構成されている。頂点をN個有するポリゴンのn番目(n≦N)の頂点は、その頂点の3次元空間上の座標を表すVn=(Xn、Yn、Zn)を保持している。図5の例では、形状データはポリゴンによって構成されているが、その形式は特にそれには限定されない。形状データは、例えば、形状の点と稜線のみのデータであるワイヤフレームによって構成されていてもよい。また、本実施形態では、形状データとして、対象物103の設計時に作製された3D CADデータを使用しているが、特に3D CADデータに限られるわけではない。情報処理装置101は、形状データとしては、例えば、3Dスキャナ、又は3次元測定器などによって測定された対象物103の3次元の形状データを用いてもよい。 Further, the information processing device 101 acquires three-dimensional shape data corresponding to the object 103 from the storage device. FIG. 5 is an example of this shape data. The shape data is composed of a set of polygons that are faces having three or four points as vertices in a three-dimensional space. The nth (n ≦ N) vertex of a polygon having N vertices holds Vn = (Xn, Yn, Zn) representing the coordinates of the vertices in the three-dimensional space. In the example of FIG. 5, the shape data is composed of polygons, but the format is not particularly limited thereto. The shape data may be composed of, for example, a wire frame which is data of only the points and ridges of the shape. Further, in the present embodiment, the 3D CAD data created at the time of designing the object 103 is used as the shape data, but the shape data is not particularly limited to the 3D CAD data. As the shape data, the information processing device 101 may use, for example, the three-dimensional shape data of the object 103 measured by a 3D scanner, a three-dimensional measuring device, or the like.

さらに、情報処理装置101は、対象物103の形状データ上に指定した測定部位の表面形状に基づいて、測定部位に対応する対象物103の表面の指定部位の向きの測定を補助するスケール104を示す情報を出力する。本実施形態におけるスケール104の一例が図2に示されている。スケール104は、対象物103の表面に貼付されることにより、その表面の領域の向きの分析装置107による推定を補助することができる。スケール104は、フレーム領域201、基準点202、コード領域203、及び開口部204を有している。図2の例において、スケール104は黒色のフレーム領域201に囲まれており、この領域に複数の基準点202を配置することができる。フレーム領域201及び基準点202の各色は、後述する基準点202の認識手順において、基準点202を認識するにあたり十分な相対的輝度比を保つことができる限りは特に限定されない。この例においてはフレーム領域201の色は黒色であり、基準点202の色は白色である。例えば、スケール104は、フレーム領域201の色と基準点202の色とを入れ替えて用いられてもよい。 Further, the information processing apparatus 101 provides a scale 104 that assists in measuring the orientation of the designated portion on the surface of the object 103 corresponding to the measurement portion based on the surface shape of the measurement portion designated on the shape data of the object 103. Output the information shown. An example of the scale 104 in this embodiment is shown in FIG. By being attached to the surface of the object 103, the scale 104 can assist the estimation by the analyzer 107 of the orientation of the region of the surface. The scale 104 has a frame area 201, a reference point 202, a code area 203, and an opening 204. In the example of FIG. 2, the scale 104 is surrounded by a black frame region 201, and a plurality of reference points 202 can be arranged in this region. Each color of the frame area 201 and the reference point 202 is not particularly limited as long as a sufficient relative luminance ratio can be maintained in recognizing the reference point 202 in the recognition procedure of the reference point 202 described later. In this example, the color of the frame region 201 is black, and the color of the reference point 202 is white. For example, the scale 104 may be used by exchanging the color of the frame area 201 and the color of the reference point 202.

基準点202は、スケール104を対象物103の表面の指定部位に貼付した場合に、基準点202の配置に基づいて分析装置107が指定部位の向きを推定できるように構成される複数の領域である。つまり、基準点202は、指定部位の歪曲度に応じて配置されていてもよい。図2の例では、基準点202は、円形のパターン領域であり、格子状に配列される。以下においては、説明のため、スケール104は、円形の基準点202を一定の間隔で複数個有する行が1つ以上の列に渡って略平行に、Δyの間隔で並んでいる、基準点202の格子状の配列を有しているものとする。そのような基準点202の配列を有するスケール104において、横方向とは行の方向を、及び縦方向とは列の方向を表すものとする。また、基準点202の横方向の間隔は一定の間隔Δxである。しかし、基準点202の配置は特にそのようには限定されず、例えば一定の間隔Δxで円環状に配置されていてもよい。また、基準点の形は特に限定されず、例えば楕円形又は四角形などであってもよい。例えば、撮影画像中から基準点202を認識又は抽出する場合において、被写界深度の影響などによって基準点202の輪郭が不明瞭になる場合の認識又は抽出精度を考慮すると、基準点202は、図2の例のように円形であってもよい。Δxの値については後述する。 The reference point 202 is a plurality of regions configured so that when the scale 104 is attached to a designated portion on the surface of the object 103, the analyzer 107 can estimate the orientation of the designated portion based on the arrangement of the reference point 202. is there. That is, the reference point 202 may be arranged according to the degree of distortion of the designated portion. In the example of FIG. 2, the reference points 202 are circular pattern regions and are arranged in a grid pattern. In the following, for the sake of explanation, the scale 104 has rows having a plurality of circular reference points 202 at regular intervals arranged substantially in parallel over one or more columns at intervals of Δy. It is assumed that it has a grid-like arrangement of. In a scale 104 having such an array of reference points 202, the horizontal direction shall represent the row direction and the vertical direction shall represent the column direction. Further, the lateral interval of the reference point 202 is a constant interval Δx. However, the arrangement of the reference points 202 is not particularly limited as such, and may be arranged in an annular shape at regular intervals Δx, for example. The shape of the reference point is not particularly limited, and may be, for example, an ellipse or a quadrangle. For example, when recognizing or extracting the reference point 202 from the captured image, the reference point 202 may be set in consideration of the recognition or extraction accuracy when the outline of the reference point 202 becomes unclear due to the influence of the depth of field or the like. It may be circular as in the example of FIG. The value of Δx will be described later.

基準点202の配列は、上述の通り、対象物103の指定部位の向きの推定を補助できるように決定される。そのために、基準点202は、例えば、対象物103の形状データの表面上にスケール104を貼付した場合に、隣接する基準点202間に存在する形状データの表面の弧が、それらの基準点202を結ぶ直線に近似できるような間隔で配置されてもよい。本実施形態においては、立体物上の複数の点の間に存在する、立体物を構成する曲面が、後述の基準に基づいてそれらの点を通る直線又は平面に近似できるような場合について、そのような曲面は平面性が高いと呼ぶ。本実施形態においては、対象物103の形状データにスケール104を貼付した場合において、隣接する2点の基準点202を結ぶ表面の弧の平面性が高くなるように、Δxの値が設定される。具体的には、本実施形態において、上述した隣接する2点の基準点を結ぶ弧の長さであるΔxと、この2点の間の直線距離との差が、既知である所定の閾値Th1以下である場合に、平面性が高くなる。つまり、対象物103の形状データの表面の、上述の弧の中心点における、弧方向の曲率半径の値をRとする場合に、Δxが下記の式(1)を満たすような場合に、この弧は平面性が高いとしてもよい。閾値Th1は、そのような用途のために、適宜所望の値として予め設定されていてもよい。閾値Th1としては、例えば、曲率半径Rの1/40の値であってもよく、Rの1/50の値であってもよい。基準点202間の間隔Δxは、曲率半径Rが与えられた場合に、式(1)を満たすような値を取ってもよい。つまり、Rの値に応じて、そのようなΔxを有するスケール104を用いることができる。Rの値については後述する。
Δx−2R・sin(Δx/2R)≦Th1 式(1)
As described above, the arrangement of the reference points 202 is determined so as to assist in estimating the orientation of the designated portion of the object 103. Therefore, for the reference point 202, for example, when the scale 104 is attached on the surface of the shape data of the object 103, the arc on the surface of the shape data existing between the adjacent reference points 202 is the reference point 202. They may be arranged at intervals that can be approximated to a straight line connecting the above. In the present embodiment, the case where the curved surface constituting the three-dimensional object existing between a plurality of points on the three-dimensional object can be approximated to a straight line or a plane passing through those points based on the criteria described later is the case. Such a curved surface is called having high flatness. In the present embodiment, when the scale 104 is attached to the shape data of the object 103, the value of Δx is set so that the flatness of the arc of the surface connecting the two adjacent reference points 202 becomes high. .. Specifically, in the present embodiment, the difference between Δx, which is the length of the arc connecting the above-mentioned two adjacent reference points, and the linear distance between the two points is a known predetermined threshold Th1. When the following, the flatness becomes high. That is, when the value of the radius of curvature in the arc direction at the center point of the arc on the surface of the shape data of the object 103 is R, this is the case when Δx satisfies the following equation (1). The arc may be highly flat. The threshold Th1 may be preset as a desired value as appropriate for such applications. The threshold value Th1 may be, for example, a value of 1/40 of the radius of curvature R or a value of 1/50 of R. The distance Δx between the reference points 202 may take a value that satisfies the equation (1) when the radius of curvature R is given. That is, a scale 104 having such Δx can be used depending on the value of R. The value of R will be described later.
Δx-2R · sin (Δx / 2R) ≤ Th1 equation (1)

コード領域203は、スケール104の識別情報をコード化した領域である。識別情報は、スケール104を識別するための情報であり、基準点202の配置に応じて生成される。識別情報は、例えば、スケール104の候補それぞれについて異なる番号を割り振られたIDであってもよい。また識別情報は、基準点202の数及び位置関係を示す情報を有していてもよい。図2の例においては、コード領域203のパターンは、8×8画素の計64ブロックに分割されており、並びに、各ブロックを白及び黒の2値で表現することにより、64ビットの識別情報を表現することができる。コード領域203のパターンは特にこのようには限定されない。コード領域203のパターンは、例えば、画像内において認識されることを考えて、スケール104の色に対して十分な相対的輝度比を持つ色で構成される、パターンを含まない領域であるマージン領域で囲まれていてもよい。また、コード領域203は、例えば、コード領域の位置認識用の切り出しシンボルを有していてもよい。さらに例えば、コード領域203には、QRコード(登録商標)が用いられていてもよい。基準点202の配置が異なるスケール104には、その配置に応じて異なるコード領域203が割り振られる。開口部204は、スケール104を対象物103に貼付した際に、この領域から、対象物103の表面を、撮影装置によって直接撮影することが可能になる領域であってもよい。また、開口部204は、スケール104の使用時にその開口部204の領域を切り取ることにより生じてもよい。本実施形態においては、説明のため、切り取ることにより開口部204が生じるスケール104上の領域を、切り取り領域と呼ぶ。また、1つの基準点202あたりの面積及びコード領域203の面積、又はそれらの面積比は、既知であってもよい。 The code area 203 is an area in which the identification information of the scale 104 is encoded. The identification information is information for identifying the scale 104, and is generated according to the arrangement of the reference point 202. The identification information may be, for example, an ID assigned a different number for each candidate of the scale 104. Further, the identification information may include information indicating the number and positional relationship of the reference points 202. In the example of FIG. 2, the pattern of the code area 203 is divided into a total of 64 blocks of 8 × 8 pixels, and each block is represented by two values of white and black, so that 64-bit identification information is obtained. Can be expressed. The pattern of the code area 203 is not particularly limited in this way. The pattern of the code area 203 is, for example, a margin area which is an area not including a pattern and is composed of colors having a sufficient relative luminance ratio with respect to the color of the scale 104 in consideration of being recognized in the image. It may be surrounded by. Further, the code area 203 may have, for example, a cutout symbol for recognizing the position of the code area. Further, for example, a QR code (registered trademark) may be used in the code area 203. A different code area 203 is allocated to the scale 104 in which the reference points 202 are arranged differently according to the arrangement. The opening 204 may be an area where the surface of the object 103 can be directly photographed by the photographing apparatus from this area when the scale 104 is attached to the object 103. Further, the opening 204 may be generated by cutting out the region of the opening 204 when the scale 104 is used. In the present embodiment, for the sake of explanation, the region on the scale 104 where the opening 204 is formed by cutting is referred to as a cut region. Further, the area per reference point 202 and the area of the code area 203, or their area ratio may be known.

スケール104は、不図示の印刷部を用いることにより、基材上に印刷される。この基材の素材は特に限定されないが、対象物103の表面に貼るという観点から、折り曲げ自在な素材を用いていてもよい。また、スケール104の素材としては、スケール104を複数回貼り、又は剥がすことを考慮に入れ、マグネットや吸着シートのような素材を用いていてもよい。さらに、スケール104の印刷に用いる記録材料の種類も特に限定されることはないが、光沢の出にくいインク又はトナーなどを用いていてもよい。このような基材及び記録材料の構成によれば、折り曲げ可能であり、複数回の貼付及び剥脱が可能であり、並びに撮影時の光源や周囲の映り込みを低減するスケール104を得ることができる。 The scale 104 is printed on the base material by using a printing portion (not shown). The material of this base material is not particularly limited, but a foldable material may be used from the viewpoint of being attached to the surface of the object 103. Further, as the material of the scale 104, a material such as a magnet or an adsorption sheet may be used in consideration of attaching or detaching the scale 104 a plurality of times. Further, the type of recording material used for printing the scale 104 is not particularly limited, but ink or toner having less gloss may be used. According to such a structure of the base material and the recording material, it is possible to obtain a scale 104 that can be bent, can be attached and detached a plurality of times, and reduces the light source and the reflection of the surroundings at the time of photographing. ..

本実施形態に係る情報処理装置101は、スケール104として、表示装置102が保持しているスケール104の候補を示す情報の内から、対象物103の指定部位の向きの推定を補助できるスケール104を示す情報を選択的に取得する。しかし、スケール104を取得する方法はこのような形には限定されず、例えば対象物103の指定部位の向きの推定を補助できるスケール104を示す情報を、情報処理装置101が生成してもよい。そのような例については後述の実施形態2において説明する。 The information processing device 101 according to the present embodiment uses the scale 104 as the scale 104, which can assist in estimating the orientation of the designated portion of the object 103 from the information indicating the candidates of the scale 104 held by the display device 102. Selectively acquire the information to be shown. However, the method of acquiring the scale 104 is not limited to such a form, and the information processing apparatus 101 may generate information indicating the scale 104 that can assist in estimating the orientation of the designated portion of the object 103, for example. .. Such an example will be described in the second embodiment described later.

図4は、本実施形態に係る情報処理装置101の機能構成の一例を示すブロック図である。情報処理装置101は、スケール保持部401と、スケール取得部402と、形状保持部403と、形状取得部404と、部位指定部405と、平面性評価部406と、出力部407を有している。本実施形態においては、情報処理装置101は表示装置102と接続されている。 FIG. 4 is a block diagram showing an example of the functional configuration of the information processing apparatus 101 according to the present embodiment. The information processing device 101 includes a scale holding unit 401, a scale acquisition unit 402, a shape holding unit 403, a shape acquisition unit 404, a site designation unit 405, a flatness evaluation unit 406, and an output unit 407. There is. In this embodiment, the information processing device 101 is connected to the display device 102.

スケール保持部401は、スケール104の候補を示す情報を1つ以上保持している。スケール104は、対象物103の指定部位に取り付けられ、該指定部位における表面の向きの推定を補助する。スケール104は、推定された表面形状に対応する間隔で配置された複数の基準点を有している。スケール104の候補を示す情報はユーザによって入力されてもよいが、ユーザによるスケール保持部401への入力方法は後述する。 The scale holding unit 401 holds one or more pieces of information indicating candidates for the scale 104. The scale 104 is attached to a designated site of the object 103 to assist in estimating the orientation of the surface at the designated site. The scale 104 has a plurality of reference points arranged at intervals corresponding to the estimated surface shape. The information indicating the candidate of the scale 104 may be input by the user, but the method of inputting by the user to the scale holding unit 401 will be described later.

スケール取得部402は、スケール保持部401が保持しているスケール104の候補群を示す情報から、スケール104の候補群の基準点202の間隔Δxの値及びコード領域203をそれぞれ取得する。これらの情報は、選定部407で用いられる。 The scale acquisition unit 402 acquires the value of the interval Δx of the reference point 202 of the candidate group of the scale 104 and the code region 203 from the information indicating the candidate group of the scale 104 held by the scale holding unit 401, respectively. This information is used by the selection unit 407.

形状保持部403は、対象物103に対応する、上述したような形状データを保持している。形状取得部404は、形状保持部403から、対象物に対応する形状データを取得する。形状保持部403が保持する形状データのポリゴンの一例が図5に示されている。形状データを構成するポリゴンは、図5に示されるように、多角形によって構成されている。 The shape holding unit 403 holds the shape data as described above corresponding to the object 103. The shape acquisition unit 404 acquires shape data corresponding to the object from the shape holding unit 403. An example of the shape data polygon held by the shape holding unit 403 is shown in FIG. The polygons that make up the shape data are made up of polygons, as shown in FIG.

部位指定部405は、形状取得部404が取得した形状データ上において、分析装置107が測定を行う部位である測定部位を指定する。部位指定部405が測定部位を指定する場合、表示装置102に表示されるUI上で指定が行われてもよい。そのUIの一例が、図6に示されている。この例においては、基準点202は、スケール104上に格子状に配置されており、横方向の間隔は所定の間隔Δxである。 The site designation unit 405 designates a measurement site, which is a site to be measured by the analyzer 107, on the shape data acquired by the shape acquisition unit 404. When the part designation unit 405 designates the measurement part, the designation may be made on the UI displayed on the display device 102. An example of the UI is shown in FIG. In this example, the reference points 202 are arranged in a grid pattern on the scale 104, and the lateral spacing is a predetermined spacing Δx.

図6のUI上において、スケール104の候補を示す情報がスケール保持部401へと入力され、及び形状データ上に測定部位が指定される。このUIは、図6(a)に示す処理ウィンドウ601、及び図6(b)に示す指定ウィンドウ614を有している。処理ウィンドウ601を介したユーザ操作に応じて、スケール104の候補を示す情報がスケール保持部401へと入力され、及びそのような候補の内から、測定部位に基づいた条件を満たすスケール104を示す情報が選択される。そのために、処理ウィンドウ601は、入力タブ602、追加ボタン603、形状入力欄611、設定ボタン612、選定ボタン613を有している。 On the UI of FIG. 6, information indicating a candidate for the scale 104 is input to the scale holding unit 401, and a measurement site is designated on the shape data. This UI has a processing window 601 shown in FIG. 6A and a designated window 614 shown in FIG. 6B. In response to the user operation via the processing window 601, information indicating a candidate for the scale 104 is input to the scale holding unit 401, and among such candidates, the scale 104 satisfying the condition based on the measurement site is indicated. Information is selected. Therefore, the processing window 601 has an input tab 602, an additional button 603, a shape input field 611, a setting button 612, and a selection button 613.

入力タブ602において、ユーザによってスケール104の候補となるスケール候補の情報がタブ内に入力され、スケール保持部401に保持される。入力タブ602は、ID604、縦基準点数605、縦間隔606、横基準点数607、及び横間隔608それぞれを入力する欄と、並びに削除ボタン610とを有する。ID604としては、スケール候補のコード領域203に格納される識別情報に対応する値を入力する。縦基準点数605及び横基準点数607としては、スケール候補について、それぞれ基準点の横方向の行の数及びその一行内に保有される基準点の数が入力される。縦間隔606及び横間隔608としては、それぞれ基準点の横方向の行と、その行と隣接する行との間隔、及びその行内での基準点202間の間隔(つまりΔx)が実寸法で入力される。ユーザは、入力タブ602を切り替えることにより、異なる複数のスケール候補の情報を、処理ウィンドウ601の異なるタブ内に入力することができる。追加ボタン603は、入力タブ602内へのタブの追加を行うユーザ入力を取得することができる。また、削除ボタン610は、入力タブ602内から任意のタブを削除するユーザ入力を取得することができる。形状入力欄611は、ユーザがこの欄内に対象物103の形状データが記録されているアドレスを入力することにより、形状データを取得する。形状入力欄611に入力されるアドレスは既知であり、対象物103に応じて適宜与えられる。形状データは、不図示の記憶装置に格納されていてもよい。また、設定ボタン612は、指定ウィンドウ614を表示するユーザ入力を取得することができる。指定ウィンドウ614は、形状入力欄611への操作を介して取得された形状データを表示する。 In the input tab 602, the information of the scale candidate that is a candidate for the scale 104 is input in the tab by the user and is held in the scale holding unit 401. The input tab 602 has a field for inputting an ID 604, a vertical reference point number 605, a vertical spacing 606, a horizontal reference point number 607, and a horizontal spacing 608, and a delete button 610. As the ID 604, a value corresponding to the identification information stored in the scale candidate code area 203 is input. As the number of vertical reference points 605 and the number of horizontal reference points 607, the number of horizontal rows of reference points and the number of reference points held in the row are input for each of the scale candidates. As the vertical spacing 606 and the horizontal spacing 608, the spacing between the horizontal row of the reference point and the adjacent row, and the spacing between the reference points 202 within the row (that is, Δx) are input in actual dimensions. Will be done. By switching the input tab 602, the user can input information on a plurality of different scale candidates in different tabs of the processing window 601. The add button 603 can acquire user input for adding a tab into the input tab 602. Further, the delete button 610 can acquire a user input for deleting an arbitrary tab from the input tab 602. The shape input field 611 acquires the shape data by the user inputting the address in which the shape data of the object 103 is recorded in this field. The address to be input to the shape input field 611 is known and is appropriately given according to the object 103. The shape data may be stored in a storage device (not shown). In addition, the setting button 612 can acquire the user input for displaying the designated window 614. The designation window 614 displays the shape data acquired through the operation on the shape input field 611.

指定ウィンドウ614は、対象物103について取得された形状データを表示する。ユーザは、指定ウィンドウ614上の形状データについて、その表面の測定を行う部位である測定部位を指定することができる。そのために、指定ウィンドウ614は、形状表示欄615、位置表示欄619、及び決定ボタン620を有する。また、形状表示欄615は、形状データ616、ポインタ617、及び測定部位618を表示する。この形状表示欄615において、部位指定部405は、形状データ616上に測定部位618を指定する、ポインタ617を介するユーザ入力を取得してもよい。部位指定部405が取得するユーザ入力は、図6においてはポインタ617を介して行われているが、そのような操作の種類は特に限定されない。そのようなユーザ入力は、例えば、図6に示されるようなマウスカーソルのようなポインタ617を介していてもよく、ユーザによるタッチ操作を介していてもよい。測定部位618は、指定された点がわかるように表示されていればどのように表示されていてもよく、例えば網掛け表示で表示されていてもよく、又は点線で覆われていてもよい。この時、位置表示欄619は、ユーザが指定した点の3次元座標を表示することができる。部位指定部405は、ユーザが決定ボタン620を押すことにより、測定部位618を現在指定されている部位として決定し、及びその3次元座標を測定部位Pとして保存することができる。また、平面性評価部406は、測定部位Pの3次元座標から、その測定部位618における曲率半径を取得する。次いで、選定部407は、ユーザが選定ボタン613を押すことにより、取得された測定部位618の曲率半径の内最も小さい値をRとした式(1)を満たすΔxを持つスケール104を、入力タブ602内に入力されている候補の内から選択する。ここで選択されたスケール104を示す情報を、出力部408が、表示装置102上に表示する。 The designation window 614 displays the shape data acquired for the object 103. The user can specify a measurement site, which is a site for measuring the surface of the shape data on the designation window 614. Therefore, the designation window 614 has a shape display field 615, a position display field 619, and a decision button 620. Further, the shape display field 615 displays the shape data 616, the pointer 617, and the measurement site 618. In the shape display field 615, the part designation unit 405 may acquire the user input via the pointer 617 that designates the measurement part 618 on the shape data 616. The user input acquired by the site designation unit 405 is performed via the pointer 617 in FIG. 6, but the type of such operation is not particularly limited. Such user input may be via, for example, a pointer 617 such as a mouse cursor as shown in FIG. 6, or may be via a touch operation by the user. The measurement site 618 may be displayed in any way as long as the designated point is clearly visible, and may be displayed in a shaded display, or may be covered with a dotted line, for example. At this time, the position display field 619 can display the three-dimensional coordinates of the point specified by the user. The site designation unit 405 can determine the measurement site 618 as the currently designated site and save the three-dimensional coordinates thereof as the measurement site P by pressing the decision button 620 by the user. Further, the flatness evaluation unit 406 acquires the radius of curvature at the measurement site 618 from the three-dimensional coordinates of the measurement site P. Next, when the user presses the selection button 613, the selection unit 407 inputs a scale 104 having Δx satisfying the equation (1) in which the smallest value among the radius of curvature of the acquired measurement site 618 is R. Select from the candidates entered in 602. The output unit 408 displays the information indicating the scale 104 selected here on the display device 102.

図6のUIにおける、各欄への入力を含む操作の方法はとくに限定されない。ユーザは、上述の操作を、例えばキーボード及びマウスを用いて行ってもよく、又はタッチパネルを用いて行ってもよい。また、図6は本実施形態における一例であり、UIはこのような形に限定されるわけではない。例えば、入力タブ602の有する各欄に入力する値を取得するために、入力タブ602は、不図示の記憶装置に格納されているスケール候補の画像データを取得し、その基準点を認識し、及び各欄の値を画像上で測定することで、各欄それぞれの値を取得してもよい。スケール候補の画像データは記憶装置に格納されていてもよく、又は平面に貼付されたスケール候補を焦点距離が既知の撮影装置で撮影することによって取得されてもよい。このような場合、スケール候補の全体領域、又は各領域について、実寸法は既知であるものとする。このような構成によれば、対象物103の形状データを用いて測定部位を指定し、その形状データに応じてスケール候補の内から適切なスケール104を選択することができる。 In the UI of FIG. 6, the method of operation including input to each field is not particularly limited. The user may perform the above-mentioned operation using, for example, a keyboard and a mouse, or may perform the above operation using a touch panel. Further, FIG. 6 is an example in the present embodiment, and the UI is not limited to such a form. For example, in order to acquire the value to be input in each field of the input tab 602, the input tab 602 acquires the image data of the scale candidate stored in the storage device (not shown), recognizes the reference point, and recognizes the reference point. And the value of each column may be obtained by measuring the value of each column on the image. The image data of the scale candidate may be stored in the storage device, or may be acquired by photographing the scale candidate attached to the plane with a photographing device having a known focal length. In such a case, it is assumed that the actual dimensions of the entire area of the scale candidate or each area are known. According to such a configuration, the measurement site can be specified using the shape data of the object 103, and an appropriate scale 104 can be selected from the scale candidates according to the shape data.

図7は、本実施形態に係る情報処理装置101による処理を行うための処理手順の一例を示すフローチャートである。本実施形態において、情報処理装置101は、対象物103の形状データに基づいて、対象物103の表面の指定部位の向きの推定を補助し得る適切なスケール104を選択し、そのようなスケール104を示す情報を出力することができる。以下において、対象物103の表面の指定部位の向きの推定を補助し得るスケールを、適切なスケールと表すものとする。 FIG. 7 is a flowchart showing an example of a processing procedure for performing processing by the information processing apparatus 101 according to the present embodiment. In the present embodiment, the information processing apparatus 101 selects an appropriate scale 104 that can assist in estimating the orientation of a designated portion on the surface of the object 103 based on the shape data of the object 103, and such a scale 104 Information indicating that can be output. In the following, a scale that can assist in estimating the orientation of a designated portion on the surface of the object 103 will be referred to as an appropriate scale.

ステップS701において、スケール取得部402は、スケール保持部401から、スケール候補群を示す情報として、そのそれぞれのコード領域に格納されたID、及び基準点202間の間隔Δxを取得する。ステップS702において、形状取得部404は、形状保持部403から、予め与えられている対象物に対応する形状データを取得する。次いで、ステップS703では、部位指定部405が、形状データ上に指定された測定部位の位置を測定部位Pとして取得する。本実施形態においては、部位指定部405は、上述の図6における指定ウィンドウ614を介して、指定した点の3次元座標を測定部位Pとして取得する。 In step S701, the scale acquisition unit 402 acquires the ID stored in each code area and the interval Δx between the reference points 202 as information indicating the scale candidate group from the scale holding unit 401. In step S702, the shape acquisition unit 404 acquires shape data corresponding to the object given in advance from the shape holding unit 403. Next, in step S703, the site designation unit 405 acquires the position of the measurement site designated on the shape data as the measurement site P. In the present embodiment, the site designation unit 405 acquires the three-dimensional coordinates of the designated point as the measurement site P via the designation window 614 in FIG. 6 described above.

ステップS704において、平面性評価部406が、形状データ上の測定部位Pについて、測定部位Pに貼付した場合にその部位の表面の向きを測定することができるようなスケール104の条件を算出する。ここにおける詳細な説明は図8のフローチャートと共に後述するが、平面性評価部406は、式(1)を満たす最大のΔxであるΔxmaxを算出することができる。ステップS705において、選定部407は、平面性評価部406が算出したスケール104に関する条件に基づいて、スケール取得部402が取得したスケール候補群から適切なスケール104を選択する。ここでの処理は図9に一例として記載されており、詳細は後述する。 In step S704, the flatness evaluation unit 406 calculates the condition of the scale 104 so that the orientation of the surface of the measurement site P on the shape data can be measured when the measurement site P is attached to the measurement site P. Although a detailed description here will be described later together with the flowchart of FIG. 8, the flatness evaluation unit 406 can calculate Δx max, which is the maximum Δx satisfying the equation (1). In step S705, the selection unit 407 selects an appropriate scale 104 from the scale candidate group acquired by the scale acquisition unit 402 based on the conditions relating to the scale 104 calculated by the flatness evaluation unit 406. The processing here is described as an example in FIG. 9, and the details will be described later.

ステップS706において、出力部408は、選定部407の選択結果に基づく情報を、表示装置102上に出力する。ステップS705での処理において、適切なスケール104を示す情報が出力可能であった場合は、出力部408は、適切なスケール104を示す情報を全て表示装置102上に出力する。この時、スケール104を示す情報の出力の方法は、スケール104がそれぞれ判別可能であれば特に限定されない。例えば、出力部408は、スケール104のIDのみを出力してもよく、又はスケール104のIDを含むそのスケールの画像データを出力してもよい。スケール104の画像データは、スケール保持部401の入力タブ602内に入力された数値に対応する画像データが予め記憶装置内に格納されていてもよく、又は入力タブ602内に入力された数値に応じて生成部(不図示)が生成してもよい。適切なスケール104を示す情報が出力可能でなかった場合は、出力部408は、条件を満たすスケールが見つからないためスケールを出力できないという旨を伝える警告を表示装置102上に出力することができる。 In step S706, the output unit 408 outputs information based on the selection result of the selection unit 407 on the display device 102. If the information indicating the appropriate scale 104 can be output in the process in step S705, the output unit 408 outputs all the information indicating the appropriate scale 104 on the display device 102. At this time, the method of outputting the information indicating the scale 104 is not particularly limited as long as the scales 104 can be discriminated from each other. For example, the output unit 408 may output only the ID of the scale 104, or may output the image data of the scale including the ID of the scale 104. As the image data of the scale 104, the image data corresponding to the numerical value input in the input tab 602 of the scale holding unit 401 may be stored in the storage device in advance, or the numerical value input in the input tab 602 may be used. A generation unit (not shown) may be generated accordingly. If the information indicating the appropriate scale 104 cannot be output, the output unit 408 can output a warning on the display device 102 notifying that the scale cannot be output because the scale satisfying the condition cannot be found.

図8は、ステップS704における平面性評価部406による評価を行うための処理手順の一例を示すフローチャートである。本実施形態において、平面性評価部406は、測定部位における曲率半径から、適切なスケール104における、基準点202間の距離Δxの取り得る値の条件を算出することができる。 FIG. 8 is a flowchart showing an example of a processing procedure for performing evaluation by the flatness evaluation unit 406 in step S704. In the present embodiment, the flatness evaluation unit 406 can calculate the condition of the possible value of the distance Δx between the reference points 202 on the appropriate scale 104 from the radius of curvature at the measurement site.

ステップS801において、平面性評価部406が、形状データの測定部位Pの3次元座標を参照し、測定部位Pにおける曲率半径を取得する。測定部位Pにおける曲率半径は、測定する方向に応じて値が異なる可能性がある。ここでは、平面性評価部406は、測定部位Pにおける曲率半径の内、値が最大になるものを取得するが、その理由は後述の実施形態2にて詳細に説明する。曲率半径の求め方は特に限定されない。例えば、平面性評価部406は、形状データのポリゴンを、測定部位Pを通り曲率半径を求めたい方向に切断できる。次いで、平面性評価部406は、その切断面から、測定部位Pに最も近い頂点と、その頂点を挟む両側1つずつの頂点を求め、その3点を通るような円の半径として曲率半径を取得してもよい。ここで算出される曲率半径の内、最も大きい値をRmaxとする。測定部位Pの曲率半径を求める方向は特に限定はされない。平面性評価部406は、測定部位Pの曲率半径として、例えば、まず測定部位Pについて任意の方向の曲率半径を算出し、次いで測定部位Pの法線方向を軸として、その方向から10度ずつ、最大170度回転させた方向についての曲率半径を求めてもよい。このような場合、測定部位Pの法線方向は、形状データから算出される。 In step S801, the flatness evaluation unit 406 refers to the three-dimensional coordinates of the measurement portion P of the shape data and acquires the radius of curvature at the measurement portion P. The radius of curvature at the measurement site P may have a different value depending on the measurement direction. Here, the flatness evaluation unit 406 acquires the radius of curvature at the measurement site P that has the maximum value, and the reason will be described in detail in the second embodiment described later. The method of obtaining the radius of curvature is not particularly limited. For example, the flatness evaluation unit 406 can cut the polygon of the shape data through the measurement site P in the direction in which the radius of curvature is desired to be obtained. Next, the flatness evaluation unit 406 obtains the apex closest to the measurement site P and one apex on each side sandwiching the apex from the cut surface, and determines the radius of curvature as the radius of a circle passing through the three points. You may get it. The largest value among the radii of curvature calculated here is R max . The direction for obtaining the radius of curvature of the measurement site P is not particularly limited. The flatness evaluation unit 406 first calculates the radius of curvature of the measurement site P in an arbitrary direction as the radius of curvature of the measurement site P, and then 10 degrees from that direction with the normal direction of the measurement site P as the axis. , The radius of curvature in the direction rotated up to 170 degrees may be obtained. In such a case, the normal direction of the measurement site P is calculated from the shape data.

ステップS802において、平面性評価部406は、測定位置Pにおける最大の曲率半径Rmaxに基づいて、測定位置Pが実質的に単一の方向にのみ曲率を持つかを判定する。つまり、平面性評価部406は、測定位置Pが後述の基準に基づいて円柱の側面状の形状に近似できるかどうかを判定する。これはすなわち、スケール104を対象物103に貼付する場合に、平面性評価部406が、スケール104上に皺を作らず、その表面の向きを高精度に測定できるかどうかを判定するということである。具体的には、最大の曲率半径の値であるRmaxの絶対値が、所定の閾値Th2以上であるかどうかを判定する。Rmaxの値が下記の式(2)を満たすと判定された場合には、ステップS803へと進む。Rmaxの絶対値が閾値以上でない場合は、用いることのできるスケール104が見つからないとして、平面性評価部406の操作を終了する。また、Rmaxの値が式(2)を満たさないと判定された場合、表示装置102に、測定部位Pの平面性が低いためスケールが出力できないという旨を伝える警告を表示してもよい。
|Rmax|≧Th2 式(2)
In step S802, the flatness evaluation unit 406 determines whether the measurement position P has a curvature in substantially only one direction, based on the maximum radius of curvature R max at the measurement position P. That is, the flatness evaluation unit 406 determines whether or not the measurement position P can be approximated to the side shape of the cylinder based on the criteria described later. This means that when the scale 104 is attached to the object 103, the flatness evaluation unit 406 determines whether or not the orientation of the surface can be measured with high accuracy without forming wrinkles on the scale 104. is there. Specifically, it is determined whether or not the absolute value of R max , which is the value of the maximum radius of curvature, is equal to or greater than a predetermined threshold value Th2. If it is determined that the value of R max satisfies the following equation (2), the process proceeds to step S803. If the absolute value of R max is not equal to or greater than the threshold value, it is assumed that a usable scale 104 cannot be found, and the operation of the flatness evaluation unit 406 is terminated. Further, when it is determined that the value of R max does not satisfy the equation (2), a warning may be displayed on the display device 102 notifying that the scale cannot be output because the flatness of the measurement site P is low.
| R max | ≧ Th2 equation (2)

ステップS803において、平面性評価部406は、ステップS801と同様にして、測定部位Pにおける最小の曲率半径の値Rminを取得する。次いでステップS804において、平面性評価部406は、Rの値にRminを代入した式(1)を満たすΔxの内、最大の値となるΔxmaxを算出する。平面性評価部406は、基準点の横方向の間隔ΔxがΔxmax以下であるスケール104を測定部位Pに付す場合に、隣接する基準点202間の弧は平面性が高いと評価し、及びそのような基準点202によって測定部位Pの向きの推定を補助することができる。測定部位Pの向きの推定の方法については後述する。 In step S803, the flatness evaluation unit 406 acquires the value Rmin of the minimum radius of curvature at the measurement site P in the same manner as in step S801. Next, in step S804, the flatness evaluation unit 406 calculates Δx max, which is the maximum value among Δx satisfying the equation (1) in which Rmin is substituted for the value of R. The flatness evaluation unit 406 evaluates that the arc between the adjacent reference points 202 has high flatness when the scale 104 in which the lateral distance Δx of the reference points is Δx max or less is attached to the measurement site P. Such a reference point 202 can assist in estimating the orientation of the measurement site P. The method of estimating the orientation of the measurement site P will be described later.

図9は、ステップS705における選定部407による選択を行うための処理手順の一例を示すフローチャートである。選定部407は、スケール保持部401が保持する全スケール候補を示す情報に対し、平面性評価部406が算出した条件を満たすかどうかの判定を行うことで、適切なスケールを選択する。ステップS901において、選定部407は、平面性評価部406で算出したΔxmaxを取得する。続くステップS902以降のステップにおける処理は、スケール保持部401に保持されているスケール候補について1つずつを処理対象として、保持されている全スケール候補それぞれに対して行われる。 FIG. 9 is a flowchart showing an example of a processing procedure for making a selection by the selection unit 407 in step S705. The selection unit 407 selects an appropriate scale by determining whether or not the conditions calculated by the flatness evaluation unit 406 are satisfied with respect to the information indicating all scale candidates held by the scale holding unit 401. In step S901, the selection unit 407 acquires Δx max calculated by the flatness evaluation unit 406. The processing in the subsequent steps S902 and subsequent steps is performed for each of the scale candidates held in the scale holding unit 401, one for each of the scale candidates held in the scale holding unit 401.

ステップS902において、選定部407は、スケール取得部402が取得した各スケール候補について、基準点202の横方向の間隔Δxをそれぞれ取得する。ステップS903において、選定部407は、下記の式(3)のように、ΔxがΔxmax以下であるかどうかを判定する。つまり、測定部位Pに付したスケール候補の、基準点202間の弧の平面性が高くなるかどうかが判定される。式(3)が満たされると判定された場合には、ステップS904へと進む。式(3)が満たされないと判定された場合には、測定部位Pに付したスケール候補において、基準点202間の弧の平面性が高くならず、測定部位Pの向きの推定を十分な精度で行えないと判定される。すべてのスケール候補のΔxに対して式(3)が満たされなかった場合において、表示装置102は、条件を満たすスケールが見つからないためスケールを出力できないという旨を伝える警告を表示してもよい。
Δx≦Δxmax 式(3)
In step S902, the selection unit 407 acquires the lateral distance Δx M of the reference point 202 for each scale candidate acquired by the scale acquisition unit 402. In step S903, the selection unit 407 determines whether or not Δx M is Δx max or less, as in the following equation (3). That is, it is determined whether or not the flatness of the arc between the reference points 202 of the scale candidate attached to the measurement site P becomes high. If it is determined that the equation (3) is satisfied, the process proceeds to step S904. When it is determined that the equation (3) is not satisfied, the flatness of the arc between the reference points 202 does not increase in the scale candidates attached to the measurement site P, and the estimation of the direction of the measurement site P is sufficiently accurate. It is judged that it cannot be done with. In the case where the formula (3) are not satisfied with respect to [Delta] x M of all scales candidate display device 102 may display a warning informing of being unable output scale due to missing satisfies scale ..
Δx M ≤ Δx max equation (3)

ステップS904において、選定部407は、測定部位Pに貼付した場合に基準点202間の弧の平面性が高くなるとステップS903で判定されたすべての適切なスケール104を示す情報を記録する。このような構成によれば、保持されているスケール候補の中から、適切なスケール104を選択することができる。 In step S904, the selection unit 407 records information indicating all the appropriate scales 104 determined in step S903 that the arc between the reference points 202 becomes more flat when attached to the measurement site P. According to such a configuration, an appropriate scale 104 can be selected from the held scale candidates.

出力部408は、表示装置102上に、適切なスケール104を示す情報を出力することができ、又は、ステップS802において式(2)が、若しくはステップS903において式(3)が満たされなかった場合に、警告を出力することができる。図10は、出力部408による出力が表示装置102上に表示される一例を示す図である。図10においては、表示装置102の出力表示欄1001上に、対象物103の形状データと、スケール104を示す情報又は警告とが表示されている。出力表示欄1001は、例えば、図6の指定ウィンドウ614に表示される形状データ上に指定された測定部位の表面形状に応じて、表示するスケール101を示す情報を切り替えて表示してもよい。出力表示欄1001は、対象物103の形状データと、そのようなスケール104を示す情報又は警告が出力できるのであれば特に種類は限定されない。出力表示欄1001は、例えば、表示装置102上に存在する独立した欄であってもよく、又は形状表示欄615にスケール104を示す情報又は警告を表示したものであってもよい。また、出力表示欄1001は、例えば、対象物103の形状データと、スケール104を示す情報又は警告とを表示していてもよく、スケール104を示す情報又は警告のみを表示していてもよい。 When the output unit 408 can output information indicating an appropriate scale 104 on the display device 102, or the equation (2) is not satisfied in step S802 or the equation (3) in step S903. A warning can be output. FIG. 10 is a diagram showing an example in which the output from the output unit 408 is displayed on the display device 102. In FIG. 10, the shape data of the object 103 and the information or warning indicating the scale 104 are displayed on the output display field 1001 of the display device 102. In the output display field 1001, for example, the information indicating the scale 101 to be displayed may be switched and displayed according to the surface shape of the measurement portion designated on the shape data displayed in the designated window 614 of FIG. The type of the output display field 1001 is not particularly limited as long as the shape data of the object 103 and information or a warning indicating such a scale 104 can be output. The output display field 1001 may be, for example, an independent field existing on the display device 102, or the shape display field 615 may display information or a warning indicating the scale 104. Further, the output display field 1001 may display, for example, the shape data of the object 103 and the information or warning indicating the scale 104, or may display only the information or warning indicating the scale 104.

図10(a)は、適切なスケール104が2つ見つかった例であり、その表示のために、出力表示欄1001は、測定部位1002及び選定表示欄1003を備えている。この例においては、選定表示欄1003は、スケール104を示す情報として、そのID及び画像データを表示している。選定表示欄1003は、取得されたスケール104を示す情報を全て表示してもよく、スケール104を示す情報の中から1つを選択的に表示してもよい。スケール104を示す情報の中から1つが選択的に表示される場合には、その基準は特に限定されない。例えば、選定表示欄1003は、適切なスケール104の内でΔxの値が最も大きいスケール104を示す情報を表示してもよい。図10(b)は、ステップS802において、測定部位Pにおける最大の曲率半径Rmaxが式(2)を満たさなかった場合の例であり、その表示のために、出力表示欄1001は、測定部位1004及び警告1005を有している。この例では、測定部位1004にスケール104を貼付した場合にはスケール104上に皺が生じてしまうため、この部位の向きを正確に推定することができない。よって、警告1005は、測定部位の平面性が低いためスケールを出力できないということを伝える旨のメッセージを有する。図10(c)は、ステップS903において、ΔxとΔxmaxが式(3)を満たさなかった場合の例であり、その表示のために、出力表示欄1001は、測定部位1006及び警告1007とを有している。この例においては、上述のように、出力表示欄1001上に表示することができる適切なスケール104が存在しない。よって、警告1007は、条件を満たすスケールが見つからないため出力できるスケール104が存在しない旨を伝えるメッセージを有する。 FIG. 10A shows an example in which two suitable scales 104 are found, and the output display column 1001 includes a measurement site 1002 and a selection display column 1003 for displaying the scale 104. In this example, the selection display field 1003 displays its ID and image data as information indicating the scale 104. The selection display field 1003 may display all the information indicating the acquired scale 104, or may selectively display one of the information indicating the scale 104. When one of the information indicating the scale 104 is selectively displayed, the standard is not particularly limited. For example, the selection display field 1003 may display information indicating the scale 104 having the largest value of Δx among the appropriate scales 104. FIG. 10B is an example in the case where the maximum radius of curvature R max at the measurement site P does not satisfy the equation (2) in step S802, and for the display, the output display column 1001 is the measurement site. It has 1004 and warning 1005. In this example, when the scale 104 is attached to the measurement site 1004, wrinkles are generated on the scale 104, so that the orientation of this site cannot be estimated accurately. Therefore, the warning 1005 has a message to convey that the scale cannot be output because the flatness of the measurement site is low. FIG. 10C is an example in the case where Δx M and Δx max do not satisfy the equation (3) in step S903, and for the display thereof, the output display column 1001 has the measurement site 1006 and the warning 1007. have. In this example, as described above, there is no suitable scale 104 that can be displayed on the output display field 1001. Therefore, the warning 1007 has a message telling that there is no scale 104 that can be output because a scale satisfying the condition cannot be found.

このような構成によれば、対象物の形状データに基づいて、対象物の指定部位に貼付された場合にその指定部位の向きの十分な精度での推定を補助することのできるような基準点の配列を有するスケールを示す情報を出力する、情報処理装置を得ることができる。 According to such a configuration, based on the shape data of the object, a reference point that can assist in estimating the orientation of the designated part with sufficient accuracy when attached to the designated part of the object. It is possible to obtain an information processing apparatus that outputs information indicating a scale having an array of.

[分析装置]
対象物103の表面の向きを測定することにより、その表面の色を、表面の位置から光源及び撮影装置への位置の方向に基づいて分析することが容易になる。そのような観点から、本実施形態に係る分析装置107は、撮影画像上での指定部位の色を測定する。また、分析装置107は、指定部位に対する光源及び撮影装置の位置の情報、対象物と色を比較する物体の光の反射特性を示す反射情報、並びにスケールに基づいて指定部位における表面の向きの情報を取得する。さらに、分析装置107は、取得した各情報に基づいて、指定部位の色と比較する基準色を算出し、指定部位の色と基準色とを比較して指定部位の色を分析する。
[Analysis equipment]
By measuring the orientation of the surface of the object 103, it becomes easy to analyze the color of the surface based on the direction of the position from the position of the surface to the light source and the photographing apparatus. From such a viewpoint, the analyzer 107 according to the present embodiment measures the color of the designated portion on the captured image. Further, the analyzer 107 provides information on the positions of the light source and the photographing device with respect to the designated portion, reflection information indicating the light reflection characteristics of the object for which the color is compared with the object, and information on the orientation of the surface at the designated portion based on the scale. To get. Further, the analyzer 107 calculates a reference color to be compared with the color of the designated portion based on each acquired information, compares the color of the designated portion with the reference color, and analyzes the color of the designated portion.

図1において、光源105は、対象物103の撮影を行う場合に、その光源として用いられる。光源105の種類は特に限定されない。光源105としては、例えば、人口太陽照明灯又はLEDライトなどであってもよい。また、この例では光源105の個数は1つだが、特にそのようには限定されない。光源105として、例えば、同じ光源を複数用いてもよく、異なる光源を複数組み合わせて用いてもよい。 In FIG. 1, the light source 105 is used as the light source when the object 103 is photographed. The type of the light source 105 is not particularly limited. The light source 105 may be, for example, an artificial solar lamp or an LED light. Further, in this example, the number of light sources 105 is one, but the number is not particularly limited to that. As the light source 105, for example, a plurality of the same light source may be used, or a plurality of different light sources may be used in combination.

撮影装置106は、撮影画像を取得する。撮影装置106は、撮影画像を、色を示す色情報の2次元分布として取得できるデジタルカメラである。本実施形態において、色情報の形式は特に限定されない。色情報は、例えば、各画素のR・G・Bの3成分(以下RGB値と呼ぶ)、X・Y・Zの3成分(以下XYZ値と呼ぶ)、又はL・a・bの3成分(以下L値と呼ぶ)を含んでいてもよい。つまり、例えば、撮影装置106は、対象物103を撮影した場合に、指定部位の色を示す情報として、撮影画像における対象物103の表面領域の各画素のRGB値を含むデータを取得することができる。 The photographing device 106 acquires a photographed image. The photographing device 106 is a digital camera capable of acquiring a photographed image as a two-dimensional distribution of color information indicating colors. In the present embodiment, the format of the color information is not particularly limited. The color information includes, for example, three components of R, G, and B (hereinafter referred to as RGB values), three components of X, Y, and Z (hereinafter referred to as XYZ values) of each pixel, or L * , a * , b *. 3 components (hereinafter referred to as L * a * b * value) may be contained. That is, for example, when the object 103 is photographed, the photographing device 106 may acquire data including RGB values of each pixel of the surface region of the object 103 in the photographed image as information indicating the color of the designated portion. it can.

分析装置107は、対象物103の色情報を分析する。分析装置107は、例えば、対象物103について、指定部位の色を示す測色値と、基準色を示す基準値と、を比較することにより、対象物103の色情報を分析する。そのような場合、分析装置107は、指定部位における測色値と基準値とを、同じカラーモデルで比較し、及びそれらの値の差である色差を算出する事で、色の分析を行うことができる。 The analyzer 107 analyzes the color information of the object 103. For example, the analyzer 107 analyzes the color information of the object 103 by comparing the colorimetric value indicating the color of the designated portion with the reference value indicating the reference color. In such a case, the analyzer 107 analyzes the color by comparing the colorimetric value and the reference value at the designated portion with the same color model and calculating the color difference which is the difference between those values. Can be done.

色差は、2つの色の間の、同一色空間におけるユークリッド距離であってもよい。色差としては、例えば、国際照明委員会(CIE)が色差として定義するΔE abを用いることができる。ΔE abは、L座標における2点の座標から、CIEが定義する色差式を用いて計算される。色差式としては、例えば、CIE76、CIE94及びCIEDE2000が用いられてもよい。本実施形態においては、色差式としてCIE94が用いられるが、特にそれに限られるものではない。色差としては、例えば、ΔL、Δa、Δb又はΔCが算出されてもよい。ΔCは、L色空間から計算される、LCh色空間における彩度の差である。色差式による計算については後述する。 The color difference may be the Euclidean distance between the two colors in the same color space. As the color difference, for example, ΔE * ab defined by the International Commission on Illumination (CIE) as the color difference can be used. ΔE * ab is calculated from the coordinates of two points in the L * a * b * coordinates using the color difference formula defined by CIE. As the color difference formula, for example, CIE76, CIE94 and CIEDE2000 may be used. In the present embodiment, CIE94 is used as the color difference formula, but the present invention is not particularly limited thereto. As the color difference, for example, ΔL, Δa, Δb or ΔC may be calculated. ΔC is the difference in saturation in the LCh color space calculated from the L * a * b * color space. The calculation by the color difference formula will be described later.

座標は、明度を意味する次元L*、並びに補色次元のa*及びb*を持つ補色空間における座標である。L座標は、色を示す座標の変化が、その色を認識する人間による色に対する知覚の変化と等しくなりやすい座標である。つまり、L座標における2点間のユークリッド距離は、その2点の色の相対的な知覚差異に近似することができる。視覚的な色の違いを数値で示すという観点から、分析装置107は、L値による上述の色差を算出することにより、例えば、対象物の色に基づく品質管理を行うことができる。L座標は、例えば、XYZ座標から算出することができる。L座標の算出については後述する。 The L * a * b * coordinates are the coordinates in the complementary color space having the dimension L * meaning lightness and the complementary color dimensions a * and b *. The L * a * b * coordinates are coordinates in which a change in the coordinates indicating a color is likely to be equal to a change in the perception of the color by a person who recognizes the color. That is, the Euclidean distance between two points at the L * a * b * coordinates can be approximated to the relative perceptual difference between the colors of the two points. From the viewpoint of numerically indicating the visual color difference, the analyzer 107 can perform quality control based on, for example, the color of the object by calculating the above-mentioned color difference based on the L * a * b * value. it can. The L * a * b * coordinates can be calculated from, for example, the XYZ coordinates. The calculation of the L * a * b * coordinates will be described later.

以下、本実施形態に係る分析システムの行う工程について、詳細な説明を行う。図3は本実施形態に係る分析を行うための処理手順の一例を示すフローチャートである。本実施形態において、分析装置107及び情報処理装置101は、対象物の表面の撮影可能な全領域に対して、各領域にそれぞれ以下の操作を行うことができる。 Hereinafter, the steps performed by the analysis system according to the present embodiment will be described in detail. FIG. 3 is a flowchart showing an example of a processing procedure for performing the analysis according to the present embodiment. In the present embodiment, the analyzer 107 and the information processing device 101 can perform the following operations on each region of the entire surface of the object that can be photographed.

ステップS301で情報処理装置101は、対象物103の形状データに基づいて、上述したようにスケール104を選択する。ステップS302で表示装置102は、情報処理装置101によるスケール104の選択の結果を表示する。表示装置102は、スケール104を1つ以上表示してもよく、又はスケール104を取得できなかったことに基づく警告を表示してもよい。 In step S301, the information processing apparatus 101 selects the scale 104 as described above based on the shape data of the object 103. In step S302, the display device 102 displays the result of selection of the scale 104 by the information processing device 101. The display device 102 may display one or more scales 104, or may display a warning based on the failure to acquire the scales 104.

ステップS303において、撮影装置106は、対象物103の、スケール104を貼付された指定部位を撮影する。なお、ユーザは、撮影装置106の撮影の前に、形状データの測定部位に対応する対象物103の指定部位に、適切なスケール104の選択時の測定部位に対する向きと対応する向きでスケール104を貼付しておく。表示装置102に表示されるスケール104を示す情報が複数存在している場合、ユーザは、その中から使用するスケール104を1つ選んでもよい。そのような場合、スケール104を選ぶ方法は特に限定されない。ユーザは、例えば、スケール104を示す情報の内から、Δxの値が最も大きいものを使用するスケール104として選んでもよく、又はΔxの値が最も小さいものを使用するスケール104として選んでもよい。スケール104を取得する際、その取得先は特に限定されるものではない。例えばユーザは、予め基材上に印刷してあるスケール104を用いてもよく、選択結果に応じたスケール104を印刷して用いてもよい。次いでステップS304で、詳細は後述するが、分析装置107は、指定部位の色を示す値と基準色を示す値との差を算出する事により、指定部位の色を分析する。 In step S303, the photographing apparatus 106 photographs the designated portion of the object 103 to which the scale 104 is attached. Before taking a picture of the photographing device 106, the user sets the scale 104 on the designated part of the object 103 corresponding to the measurement part of the shape data in the direction corresponding to the direction with respect to the measurement part when the appropriate scale 104 is selected. Paste it. When a plurality of information indicating the scale 104 displayed on the display device 102 exists, the user may select one of the scales 104 to be used. In such a case, the method of selecting the scale 104 is not particularly limited. For example, the user may select the scale 104 having the largest value of Δx from the information indicating the scale 104 as the scale 104 using the information having the smallest value of Δx. When acquiring the scale 104, the acquisition destination is not particularly limited. For example, the user may use the scale 104 printed on the base material in advance, or may print and use the scale 104 according to the selection result. Next, in step S304, although details will be described later, the analyzer 107 analyzes the color of the designated portion by calculating the difference between the value indicating the color of the designated portion and the value indicating the reference color.

図11は、本実施形態に係る分析装置の機能構成の一例を示すブロック図である。この例において、分析装置107は、撮影装置106との接続を有している。分析装置107は、対象物103の指定部位の色の分析を行う。そのために、分析装置107は、画像取得部1101、形状算出部1102、光源取得部1103、反射特性保持部1104、及び分析部1105を有する。 FIG. 11 is a block diagram showing an example of the functional configuration of the analyzer according to the present embodiment. In this example, the analyzer 107 has a connection with the imaging device 106. The analyzer 107 analyzes the color of the designated portion of the object 103. Therefore, the analyzer 107 includes an image acquisition unit 1101, a shape calculation unit 1102, a light source acquisition unit 1103, a reflection characteristic holding unit 1104, and an analysis unit 1105.

画像取得部1101は、撮影装置106が撮影したデジタル画像データを取得する。形状算出部1102は、画像中のスケール104、及び基準点202に基づいて、指定部位の形状を算出する。形状算出部1102による処理については図15、図16、図17、及び図20に示されており、詳細な説明は後述する。 The image acquisition unit 1101 acquires the digital image data captured by the photographing device 106. The shape calculation unit 1102 calculates the shape of the designated portion based on the scale 104 and the reference point 202 in the image. The processing by the shape calculation unit 1102 is shown in FIGS. 15, 16, 17, and 20, and a detailed description will be described later.

光源取得部1103は、撮影画像から、対象物103に対して照明を当てる光源105の位置の情報を取得する。図12に示すように、撮影装置106は、対象物103と光源測定部1201とを、1つの画像中に撮影する。これにより、撮影画像から光源105の位置を取得することができる。図12は、光源取得部1103が光源105の位置の情報を取得する一例を示す。光源測定部1201の種類は、図12においては鏡面状の半球であるが、撮影画像から光源105の位置が算出できるものであれば特に限定されない。光源測定部1201は、例えば、鏡面状の球体であってもよく、又は中空の透明な球体であってもよい。また、光源測定部1201の設置される位置は、撮影画像から光源105の位置が算出できるものであれば特に限定されない。光源測定部1201は、例えば撮影を行う空間の壁面に設置されていてもよく、同空間の床上に設置されていてもよく、又は同空間に吊るされていてもよい。 The light source acquisition unit 1103 acquires information on the position of the light source 105 that illuminates the object 103 from the captured image. As shown in FIG. 12, the photographing device 106 photographs the object 103 and the light source measuring unit 1201 in one image. As a result, the position of the light source 105 can be acquired from the captured image. FIG. 12 shows an example in which the light source acquisition unit 1103 acquires information on the position of the light source 105. The type of the light source measuring unit 1201 is a mirror-shaped hemisphere in FIG. 12, but is not particularly limited as long as the position of the light source 105 can be calculated from the captured image. The light source measuring unit 1201 may be, for example, a mirror-shaped sphere or a hollow transparent sphere. Further, the position where the light source measuring unit 1201 is installed is not particularly limited as long as the position of the light source 105 can be calculated from the captured image. The light source measuring unit 1201 may be installed, for example, on the wall surface of a space for photographing, may be installed on the floor of the same space, or may be suspended in the same space.

撮影画像から光源の方向を算出する方法の一例を図21に示す。図21の例においては、図12と同様に、光源測定部1201として鏡面状の半球を使用している。後述の光源算出部1803は、撮影画像中の光源測定部1201の鏡面に映った光源の像から、光源の方向を算出することができる。この例においては、光源算出部1803は、半球の中心から光源への方向を、3次元ベクトルで求める。図21(a)は、撮影装置106が、光源105の下で光源測定部1201を撮影した場合における、光源測定部1201の画像の一例を示している。像2101は、光源測定部1201の鏡面に映る光源105の像である。また、図21(b)は、光源取得部1103が、撮影画像中の光源測定部1201上に映る像2101から光源の方向を算出する方法の一例を示す。図21(b)において、半円2103の上には、光源測定部1201上に映る光源2101の位置、及びその位置を示す高さzが示されており、これは光源測定部1201から光源2101への方向に対応する。また、図21(b)には、撮影画像上における鏡面の像2102が示され、それぞれの同心円は半円2103上の等角度の点に対応する。したがって、光源取得部1103は、像2102における、光源の像2101と、同心円と、の位置関係に基づいて、又は光源の像2101のxy座標に基づいて、光源測定部1201から光源2101への方向を判定することができる。 FIG. 21 shows an example of a method of calculating the direction of the light source from the captured image. In the example of FIG. 21, a mirror-shaped hemisphere is used as the light source measuring unit 1201 as in FIG. The light source calculation unit 1803, which will be described later, can calculate the direction of the light source from the image of the light source reflected on the mirror surface of the light source measurement unit 1201 in the captured image. In this example, the light source calculation unit 1803 obtains the direction from the center of the hemisphere to the light source by a three-dimensional vector. FIG. 21A shows an example of an image of the light source measuring unit 1201 when the photographing device 106 photographs the light source measuring unit 1201 under the light source 105. The image 2101 is an image of the light source 105 reflected on the mirror surface of the light source measuring unit 1201. Further, FIG. 21B shows an example of a method in which the light source acquisition unit 1103 calculates the direction of the light source from the image 2101 displayed on the light source measurement unit 1201 in the captured image. In FIG. 21B, above the semicircle 2103, the position of the light source 2101 reflected on the light source measuring unit 1201 and the height z indicating the position are shown, which are indicated by the light source measuring unit 1201 to the light source 2101. Corresponds to the direction to. Further, FIG. 21B shows a mirror image 2102 on the captured image, and each concentric circle corresponds to a point at an equal angle on the semicircle 2103. Therefore, the light source acquisition unit 1103 is directed from the light source measurement unit 1201 to the light source 2101 based on the positional relationship between the light source image 2101 and the concentric circles in the image 2102, or based on the xy coordinates of the light source image 2101. Can be determined.

反射特性保持部1104は、対象物103の色の分析を行う場合における、基準色を示す情報である基準値を有している。つまり、反射特性保持部1104は、対象物103の色の分析を行う場合における、色の基準となる物体について、予め与えられた反射特性の情報を有している。対象物103の色の基準となる物体は特に限定されず、例えば、対象物103と同じ素材の平板であってもよく、又は対象物103の色を表す塗装を施した板であってもよい。反射特性の情報は、光源105、色の基準となる物体、及び撮影装置106の位置関係が様々に変化する場合における、色の基準となる物体の色情報を示す情報である。そのような反射特性の情報は、例えばRGB値として、予め算出される。図13は、そのような反射特性を算出する方法の一例を示している。この例では、対象物103と同一の素材で構成されている平板である基準板1301が、撮影装置106及び光源105との位置関係が様々に変化する場合について撮影される。図13(a)においては、基準板1301に対する光源105及び撮影装置106の位置及び姿勢を制御することにより、基準板1301に対する光源105からの光の入射角度及び撮影を行う向きが変化する。図13の例においては、光源105及び撮影装置106の姿勢は、基準板1301上の撮影を行っている点に対して向き続けるように、同時に制御されるものとする。 The reflection characteristic holding unit 1104 has a reference value which is information indicating a reference color when the color of the object 103 is analyzed. That is, the reflection characteristic holding unit 1104 has information on the reflection characteristic given in advance for an object that serves as a color reference when analyzing the color of the object 103. The object that serves as a reference for the color of the object 103 is not particularly limited, and may be, for example, a flat plate made of the same material as the object 103, or a painted plate representing the color of the object 103. .. The reflection characteristic information is information indicating the color information of the object that serves as a color reference when the positional relationship between the light source 105, the object that serves as a color reference, and the photographing apparatus 106 changes in various ways. Information on such reflection characteristics is calculated in advance as, for example, RGB values. FIG. 13 shows an example of a method for calculating such reflection characteristics. In this example, the reference plate 1301, which is a flat plate made of the same material as the object 103, is photographed when the positional relationship between the imaging device 106 and the light source 105 changes in various ways. In FIG. 13A, by controlling the positions and orientations of the light source 105 and the imaging device 106 with respect to the reference plate 1301, the incident angle of the light from the light source 105 with respect to the reference plate 1301 and the direction in which imaging is performed changes. In the example of FIG. 13, the postures of the light source 105 and the photographing device 106 are simultaneously controlled so as to keep facing the point where the photographing is performed on the reference plate 1301.

基準板1301に対して光源105及び撮影装置106の位置及び姿勢を制御する方法の一例が、図13(b)及び図13(c)に示されている。図13(b)の例では、光源105及び撮影装置106について、基準板1301上の撮影を行う点に対する仰角を変化させる様子が示されている。つまり、撮影を行う点に対して、基準板1301と平行な面を仰角0度として、仰角0〜90度まで10度毎の間隔で、光源105及び撮影装置106の位置及び姿勢を、それぞれ様々な組み合わせで制御することができる。図13(c)の例においては、撮影を行う点について仰角の代わりに方角(Yaw)角を用い、0〜350度まで10度毎の間隔で、光源105及び撮影装置106の位置及び姿勢を、それぞれ様々な組み合わせで制御することができる。図13(b)及び13(c)の制御を行いながら撮影を行うことにより、撮影装置106は、光源105、撮影装置106、及び基準板1301の位置関係が様々に変化する場合について、その位置関係に応じた基準板1301の色を取得することができる。反射特性保持部1104は、撮影装置106がそのように取得した色の情報を、その取得時の位置関係と関連付けて、基準板1301の反射特性の情報として保持する。反射特性保持部1104は、基準板1301の色を、それぞれRGB値で取得する。また、図13(b)及び13(c)の例では、各角度を10度ずつ制御したが、制御の方法はそのように限定はされない。例えば、上述の仰角及び方位角を1度ずつ制御してもよい。またそれぞれの位置関係に応じて制御を行う間隔を調整してもよい。そのような例としては、例えば、上述の仰角及び方位角を、光源105と撮影装置106が撮影を行う点に対して正反射方向にある時には1度間隔で制御し、その位置関係から遠ざかるに従って間隔が大きくなるように制御してもよい。このようにして反射特性保持部1104が基準板1301の反射特性の情報を保持することにより、分析装置107は、光源105と撮影装置106と指定部位との位置関係に基づいて、指定部位で撮影される基準の色の情報、つまり基準値を算出することができる。 An example of a method of controlling the positions and orientations of the light source 105 and the photographing apparatus 106 with respect to the reference plate 1301 is shown in FIGS. 13 (b) and 13 (c). In the example of FIG. 13B, it is shown that the light source 105 and the photographing apparatus 106 change the elevation angle with respect to the point where the photographing is performed on the reference plate 1301. That is, the positions and orientations of the light source 105 and the photographing device 106 are various at intervals of 10 degrees from the elevation angle of 0 to 90 degrees, with the plane parallel to the reference plate 1301 as the elevation angle of 0 degrees with respect to the point at which the photographing is performed. It can be controlled by various combinations. In the example of FIG. 13C, the direction (Yaw) angle is used instead of the elevation angle at the point of photographing, and the positions and orientations of the light source 105 and the photographing device 106 are set at intervals of 10 degrees from 0 to 350 degrees. , Each can be controlled in various combinations. By performing imaging while controlling FIGS. 13 (b) and 13 (c), the imaging device 106 is positioned when the positional relationship between the light source 105, the imaging device 106, and the reference plate 1301 changes in various ways. The color of the reference plate 1301 according to the relationship can be acquired. The reflection characteristic holding unit 1104 holds the color information acquired by the photographing apparatus 106 as the reflection characteristic information of the reference plate 1301 in association with the positional relationship at the time of acquisition. The reflection characteristic holding unit 1104 acquires the color of the reference plate 1301 as an RGB value, respectively. Further, in the examples of FIGS. 13 (b) and 13 (c), each angle is controlled by 10 degrees, but the control method is not so limited. For example, the elevation angle and the azimuth angle described above may be controlled once. Further, the interval for performing control may be adjusted according to the respective positional relationships. As such an example, for example, the above-mentioned elevation angle and azimuth angle are controlled at 1 degree intervals when the light source 105 and the photographing device 106 are in the specular reflection direction with respect to the point at which the photographing device 106 is photographed, and as the distance from the positional relationship increases It may be controlled so that the interval becomes large. In this way, the reflection characteristic holding unit 1104 holds the information on the reflection characteristic of the reference plate 1301, so that the analyzer 107 photographs at the designated portion based on the positional relationship between the light source 105, the imaging device 106, and the designated portion. Information on the reference color to be used, that is, the reference value can be calculated.

分析部1105は、撮影装置106が取得した撮影画像から取得される測定部位の色を示す情報(測色値)と、反射特性保持部1104が有する基準色を示す情報(基準値)とを比較し、それらの差を算出する事で、対象物の色の分析を行う。以下において、本実施形態に係る分析部1105の行う分析処理について詳細な説明を行う。 The analysis unit 1105 compares the information indicating the color of the measurement portion (color measurement value) acquired from the captured image acquired by the imaging device 106 with the information indicating the reference color of the reflection characteristic holding unit 1104 (reference value). Then, by calculating the difference between them, the color of the object is analyzed. Hereinafter, the analysis processing performed by the analysis unit 1105 according to the present embodiment will be described in detail.

図14は、本実施形態に係る分析装置107が分析を行うための処理手順の一例を示すフローチャートである。ステップS1401において、画像取得部1101は、撮影装置106から撮影画像のデジタルデータを取得する。画像取得部1101が撮影画像のデータを取得する手段は特に限定されない。例えば、画像取得部1101は、USBケーブルを介してデータを取得してもよく、SDカードを介してデータを取得してもよく、又は無線の通信を介してデータを取得してもよい。ステップS1402において、形状算出部1102は、撮影画像から、基準点202及びコード領域203を認識し、及び、それらに基づいて指定部位の形状を測定する。この測定方法の詳細について、図15、図16及び図17を用いて説明する。図15は、対象物103の表面に貼付されたスケール104を示している。スケール104は、上述のように、基準点202及びコード領域203を有している。 FIG. 14 is a flowchart showing an example of a processing procedure for the analyzer 107 according to the present embodiment to perform analysis. In step S1401, the image acquisition unit 1101 acquires digital data of the captured image from the photographing device 106. The means by which the image acquisition unit 1101 acquires the data of the captured image is not particularly limited. For example, the image acquisition unit 1101 may acquire data via a USB cable, data may be acquired via an SD card, or data may be acquired via wireless communication. In step S1402, the shape calculation unit 1102 recognizes the reference point 202 and the code region 203 from the captured image, and measures the shape of the designated portion based on them. Details of this measurement method will be described with reference to FIGS. 15, 16 and 17. FIG. 15 shows the scale 104 attached to the surface of the object 103. As described above, the scale 104 has a reference point 202 and a code area 203.

図16は、スケール104における各基準点が有するメタデータを説明するための図である。この例では、スケール104は格子状(横方向にNx個及び縦方向にNy個)に配置された基準点202を有している、長方形のスケールである。そのようなスケール104は、基準点の配列に基づくメタデータを有している。図16において、基準点202、及び隣接する4つの基準点を頂点として有する長方形の矩形領域を有するスケール104は、メタデータとして、図16(a)に示されるメタデータ1601、1602及び1603を有している。以下において、矩形領域とは、そのような隣接する4つの基準点202を頂点として有する長方形の矩形領域を指すものとする。 FIG. 16 is a diagram for explaining the metadata possessed by each reference point on the scale 104. In this example, the scale 104 is a rectangular scale having reference points 202 arranged in a grid pattern (Nx in the horizontal direction and Ny in the vertical direction). Such a scale 104 has metadata based on an array of reference points. In FIG. 16, the scale 104 having a reference point 202 and a rectangular rectangular region having four adjacent reference points as vertices has metadata 1601, 1602, and 1603 shown in FIG. 16A as metadata. doing. In the following, the rectangular area refers to a rectangular rectangular area having four such adjacent reference points 202 as vertices.

メタデータ1601は、各基準点202の中心点について、スケール104上でのXYZ座標値(XYZ座標系)を記録する領域である。このXYZ座標値の原点及び傾きは特に限定されない。例えば、メタデータ1601は、図16に示されるように、一番左上の基準点202の中心点を原点として、それぞれの中心点について相対的な座標の値が、1つの基準点202につき1行に記録されたデータ構造を有していてもよい。メタデータ1601は、このXYZ座標値を、スケール104上の基準点202すべてについて、つまりNx×Ny個記録する。メタデータ1602は、各基準点202の中心点について、スケール104上での2次元(UV)座標値(UV座標系)を記録する領域である。このUV座標の原点及び傾きは特に限定されない。 The metadata 1601 is an area for recording the XYZ coordinate values (XYZ coordinate system) on the scale 104 for the center point of each reference point 202. The origin and slope of the XYZ coordinate values are not particularly limited. For example, as shown in FIG. 16, the metadata 1601 has the center point of the upper left reference point 202 as the origin, and the relative coordinate values for each center point are one line for each reference point 202. It may have a data structure recorded in. The metadata 1601 records the XYZ coordinate values for all the reference points 202 on the scale 104, that is, Nx × Ny. The metadata 1602 is an area for recording a two-dimensional (UV) coordinate value (UV coordinate system) on the scale 104 for the center point of each reference point 202. The origin and inclination of the UV coordinates are not particularly limited.

本実施形態において、分析処理に撮影画像を用いることを考えて、例えば、メタデータ1602は、スケール104の左上の端を原点として、スケール104の縁に沿って右方向を正のU軸及び下方向を正のV軸として、画素値ごとの座標の値を示していてもよい。また、メタデータ1602は、一つの行に、1つの基準点202の中心点の座標の値が記録されたデータ構造を有していてもよい。メタデータ1602は、このUV座標値が、スケール104上の中心点すべてについて、Nx×Ny個記録されたデータ構造を有していてもよい。メタデータ1601及び1602内において、複数の基準点202それぞれについての情報の記録順序は特に限定されるものではないが、共に同じ順書で記録されていてもよい。この例においては、説明のため、メタデータ1601及び1602内においては、まずスケール104上の一行目の各基準点202を左から順番に記録し、次いで一行が終わるたびに次の行を、すべて左から順番に記録していくものとする。 Considering the use of captured images in the analysis process in the present embodiment, for example, the metadata 1602 has a positive U-axis and a lower right direction along the edge of the scale 104 with the upper left edge of the scale 104 as the origin. The coordinate values for each pixel value may be indicated with the direction as the positive V-axis. Further, the metadata 1602 may have a data structure in which the coordinate values of the center points of one reference point 202 are recorded in one line. The metadata 1602 may have a data structure in which Nx × Ny UV coordinate values are recorded for all center points on the scale 104. In the metadata 1601 and 1602, the recording order of the information for each of the plurality of reference points 202 is not particularly limited, but both may be recorded in the same order. In this example, for the sake of explanation, in the metadata 1601 and 1602, first, each reference point 202 on the first line on the scale 104 is recorded in order from the left, and then every time one line ends, the next line is all recorded. It shall be recorded in order from the left.

メタデータ1603は、図16(b)に示されるような各矩形領域が、その頂点に関連付けて記録されたデータ構造を有していてもよい。この矩形領域の頂点の記録のされ方は特に限定されない。例えば、メタデータ1603内において、図16(a)に示されるように、矩形領域それぞれについて、各頂点である中心点が、左上の頂点から反時計回りに矩形の外周を回る順番で、矩形領域1つにつき一行に記録されていてもよい。メタデータ1603は、矩形領域の頂点を、例えば、メタデータ1601での行番号/メタデータ1602での行番号として表現してもよい。また、メタデータ1603は、この例では矩形領域の頂点のデータを格納しているが、メタデータ1603がデータを格納する領域は矩形領域には限定されない。例えば、メタデータ1603の有するデータ構造は、矩形領域を1つの対角線で切断した場合に取得できる三角形領域の頂点を記録してもよい。なお、本実施形態で用いられるスケール104は、指定部位に貼付された際に、隣接する基準点202間の指定部の弧の平面性が高くなるようなスケールとして選択されているので、指定部位上のこれらの矩形領域及び三角形領域は平面に近似することができる。つまり、そのような矩形領域及び三角形領域の集合は、指定部位を構成するポリゴンのように扱うことができる。以下においては説明のため、メタデータ1603の有するデータ構造は矩形領域について記録しているものとして説明するが、そのようなデータ構造が三角形領域について記録している場合においても、分析装置107は同様に処理を行うことができる。さらに、説明のため、メタデータ1603の有するデータ構造は、まず一番左の領域の頂点を記録し、次いで順番に右方向の領域の頂点を記録していくものとするが、ここで記録する順番は特にそのように限定されるものではない。 The metadata 1603 may have a data structure in which each rectangular region, as shown in FIG. 16B, is recorded in association with its vertices. The method of recording the vertices of this rectangular area is not particularly limited. For example, in the metadata 1603, as shown in FIG. 16A, for each of the rectangular regions, the rectangular region is in the order in which the center point, which is each vertex, goes around the outer circumference of the rectangle counterclockwise from the upper left vertex. Each one may be recorded in one line. The metadata 1603 may represent the vertices of the rectangular region as, for example, a line number in the metadata 1601 / a line number in the metadata 1602. Further, although the metadata 1603 stores the data of the vertices of the rectangular area in this example, the area in which the metadata 1603 stores the data is not limited to the rectangular area. For example, the data structure of the metadata 1603 may record the vertices of a triangular region that can be obtained when the rectangular region is cut by one diagonal line. The scale 104 used in the present embodiment is selected as a scale that increases the flatness of the arc of the designated portion between the adjacent reference points 202 when the scale 104 is attached to the designated portion. These rectangular and triangular areas above can be approximated to a plane. That is, such a set of rectangular regions and triangular regions can be treated like polygons constituting a designated portion. Hereinafter, for the sake of explanation, the data structure of the metadata 1603 will be described as recording for the rectangular area, but even when such a data structure records for the triangular area, the analyzer 107 is the same. Can be processed. Further, for the sake of explanation, it is assumed that the data structure of the metadata 1603 first records the vertices of the leftmost region and then sequentially records the vertices of the rightward region. The order is not particularly limited in that way.

図17は、ステップS1402において形状算出部1102が行う算出処理の一例を示すフローチャートである。以下に示すように、ステップS1402において形状算出部1102は、撮影画像からスケール104及び基準点を認識し、基準点のメタデータを取得し、及びそのメタデータに基づいて各基準点の中心点の2次元座標を算出する。 FIG. 17 is a flowchart showing an example of the calculation process performed by the shape calculation unit 1102 in step S1402. As shown below, in step S1402, the shape calculation unit 1102 recognizes the scale 104 and the reference point from the captured image, acquires the metadata of the reference point, and based on the metadata, the center point of each reference point. Calculate the two-dimensional coordinates.

ステップS1701において、形状算出部1102は、画像取得部1101が取得した画像のデータを取得する。ステップS1702において、形状算出部1102は、画像のデータから、スケール104上のコード領域203を抽出することにより、スケール104の識別番号を取得する。この例では、コード領域203のパターンは、図2に示されるような、8×8画素の計64ブロックに分割されている、及びマージン領域を有するパターンであるとする。コード領域203の抽出方法は特に限定されない。形状算出部1102は、例えば、画像の画素値を、所定の閾値に基づいて2値化することができる。そのような場合、形状算出部1102は、2値化処理後の画像に対し、キャニー法を用いてエッジ抽出を行う。次いで、形状算出部1102は、その画像から、コード領域203が存在する位置を認識する。そのような場合、形状算出部1102は、コード領域203が有する、上述したマージン領域を認識することにより、画像におけるコード領域203の位置を認識してもよい。つまり、形状算出部1102は、8近傍画素にエッジ位置がある画素のエッジを輪郭とみなし、同値を持つ画素をグループ化することにより、画像内の輪郭を抽出する。そして形状算出部1102は、そのように抽出された複数の輪郭の中から、マージン領域の形状を持つ輪郭、この例においては四角形の輪郭を、コード領域203を示す輪郭として認識することができる。形状算出部1102は、認識されたその輪郭を、コード領域203の輪郭の形状と一致するように補正する。さらに、形状算出部1102は、補正を加えた四角形の輪郭の内部を、8×8画素のブロックに分割し、各ブロックの画素値のパターンに基づいて識別番号を読み取る。キャニー法については、公知の技術であるため詳細な説明は省略する。また、形状算出部1102が画像内に複数の四角形の輪郭を認識する場合において、以下に続く分析装置の処理工程を、認識されたすべての輪郭に対して行ってもよい。 In step S1701, the shape calculation unit 1102 acquires the image data acquired by the image acquisition unit 1101. In step S1702, the shape calculation unit 1102 acquires the identification number of the scale 104 by extracting the code region 203 on the scale 104 from the image data. In this example, it is assumed that the pattern of the code region 203 is a pattern that is divided into a total of 64 blocks of 8 × 8 pixels and has a margin region as shown in FIG. The extraction method of the code area 203 is not particularly limited. The shape calculation unit 1102 can, for example, binarize the pixel value of an image based on a predetermined threshold value. In such a case, the shape calculation unit 1102 performs edge extraction on the image after the binarization process by using the Canny method. Next, the shape calculation unit 1102 recognizes the position where the code region 203 exists from the image. In such a case, the shape calculation unit 1102 may recognize the position of the code area 203 in the image by recognizing the above-mentioned margin area of the code area 203. That is, the shape calculation unit 1102 extracts the contour in the image by regarding the edge of the pixel whose edge position is in the vicinity of 8 pixels as the contour and grouping the pixels having the same value. Then, the shape calculation unit 1102 can recognize the contour having the shape of the margin region, in this example, the contour of the quadrangle as the contour indicating the code region 203 from the plurality of contours extracted in this way. The shape calculation unit 1102 corrects the recognized contour so as to match the shape of the contour of the code region 203. Further, the shape calculation unit 1102 divides the inside of the corrected quadrangular contour into blocks of 8 × 8 pixels, and reads the identification number based on the pixel value pattern of each block. Since the Canny method is a known technique, detailed description thereof will be omitted. Further, when the shape calculation unit 1102 recognizes the contours of a plurality of quadrangles in the image, the following processing steps of the analyzer may be performed on all the recognized contours.

ステップS1703において、形状算出部1102は、ステップS1702で取得した識別番号から、基準点202に関するメタデータを取得する。メタデータは、識別番号に応じて、スケール保持部401の入力タブ602に入力されている情報からそれぞれ算出されてもよく、又はユーザ入力により取得されてもよい。 In step S1703, the shape calculation unit 1102 acquires the metadata related to the reference point 202 from the identification number acquired in step S1702. The metadata may be calculated from the information input to the input tab 602 of the scale holding unit 401, respectively, or may be acquired by user input, depending on the identification number.

ステップS1704において、形状算出部1102は、撮影画像から、スケール104上の各基準点202の中心点を抽出し、及び、そのような中心点の画像上での2次元座標を算出する。そのために、形状算出部1102は、ステップS1702と同様にして、画像内の輪郭を抽出する。次いで、形状算出部1102は、抽出された複数の輪郭の中から円又は楕円の輪郭を複数抽出し、それらの円又は楕円の面積を算出する。形状算出部1102は、ステップS1702で補正を行った四角形の面積を算出し、その面積から、このスケール104の、画像内における縮尺を算出する。また、形状算出部1102は、その縮尺から、画像内における基準点202の予測される面積を算出し、この予測される面積と抽出された円又は楕円の面積それぞれとの差の絶対値を算出し、及びその絶対値が0に近いものから順位付けを行う。形状算出部1102は、メタデータ1601が有する行数の値を算出し、及び、上述の面積の順位が高いほうからメタデータ1601が有する行数の値の個数までの円又は楕円それぞれを、基準点202として認識する。また、形状算出部1102は、そのように認識された基準点202の輪郭の中心点の画像上での2次元座標を算出する。さらに、形状算出部1102は、それらの中心点を、中心点の座標が、メタデータ1602に記録されている座標群と相対的な位置関係が一致するように対応付け、及び並び替えを行う。そのために、形状算出部1102は、例えば、テンプレートマッチング又は特徴点抽出などを用いて、既知であるスケール104の特徴量とのマッチングを行うことにより、認識された基準点の対応付け及び並び替えを行ってもよい。このような処理により、形状算出部1102は、画像内における基準点202のそれぞれを、メタデータに格納されているものと対応付けることができる。また、この例において形状算出部1102は、円又は楕円の輪郭から基準点202を認識する場合に、メタデータ1601が有する行数の値までの順位の輪郭を用いたが、特にそのようには限定されない。低順位の輪郭に基づく誤認識を防ぐという観点から、形状算出部1102、そのような行数の値から、例えば2又は4など適当な値を引いた値までの順位の輪郭を用いて、抽出された円又は楕円の中から基準点202を認識してもよい。また、ステップS1702で抽出した輪郭からスケール104の輪郭が認識できる場合において、形状算出部1102は、スケール104の輪郭上の円又は楕円のみを対象にして、上述の処理を行うことができる。テンプレートマッチング及び特徴点抽出については、公知の技術であるため詳細な説明は省略する。 In step S1704, the shape calculation unit 1102 extracts the center point of each reference point 202 on the scale 104 from the captured image, and calculates the two-dimensional coordinates of such a center point on the image. Therefore, the shape calculation unit 1102 extracts the contour in the image in the same manner as in step S1702. Next, the shape calculation unit 1102 extracts a plurality of contours of circles or ellipses from the plurality of extracted contours, and calculates the area of those circles or ellipses. The shape calculation unit 1102 calculates the area of the quadrangle corrected in step S1702, and calculates the scale of the scale 104 in the image from the area. Further, the shape calculation unit 1102 calculates the predicted area of the reference point 202 in the image from the scale, and calculates the absolute value of the difference between the predicted area and the area of the extracted circle or ellipse. And the ranking is performed from the one whose absolute value is close to 0. The shape calculation unit 1102 calculates the value of the number of rows possessed by the metadata 1601, and uses each of the circles or ellipses from the higher rank of the above-mentioned area to the number of values of the number of rows possessed by the metadata 1601 as a reference. Recognized as point 202. Further, the shape calculation unit 1102 calculates the two-dimensional coordinates on the image of the center point of the contour of the reference point 202 recognized as such. Further, the shape calculation unit 1102 associates and rearranges the center points so that the coordinates of the center points match the relative positional relationship with the coordinate group recorded in the metadata 1602. Therefore, the shape calculation unit 1102 performs matching with a known feature amount of the scale 104 by using, for example, template matching or feature point extraction, thereby associating and rearranging the recognized reference points. You may go. By such processing, the shape calculation unit 1102 can associate each of the reference points 202 in the image with those stored in the metadata. Further, in this example, when the shape calculation unit 1102 recognizes the reference point 202 from the contour of the circle or the ellipse, the contour of the rank up to the value of the number of rows possessed by the metadata 1601 is used. Not limited. From the viewpoint of preventing erroneous recognition based on low-ranked contours, the shape calculation unit 1102 extracts using the contours of the rank from the value of such number of lines to the value obtained by subtracting an appropriate value such as 2 or 4. The reference point 202 may be recognized from the circle or ellipse formed. Further, when the contour of the scale 104 can be recognized from the contour extracted in step S1702, the shape calculation unit 1102 can perform the above processing only for the circle or the ellipse on the contour of the scale 104. Since template matching and feature point extraction are known techniques, detailed description thereof will be omitted.

このように、形状算出部1102は、画像内での基準点202をメタデータと対応付けて認識することで、指定部位を、メタデータ1603に格納された矩形領域の集合として認識することができ、また、各領域の頂点の2次元座標を算出することができる。また、後述するように撮影装置106の内部パラメータが既知であることから、形状算出部1102は、カメラを原点とするカメラ座標系(uv座標系)として各基準点202の2次元座標値を算出及び記録することができる。 In this way, the shape calculation unit 1102 can recognize the designated portion as a set of rectangular regions stored in the metadata 1603 by recognizing the reference point 202 in the image in association with the metadata. In addition, the two-dimensional coordinates of the vertices of each region can be calculated. Further, since the internal parameters of the photographing device 106 are known as described later, the shape calculation unit 1102 calculates the two-dimensional coordinate values of each reference point 202 as the camera coordinate system (uv coordinate system) with the camera as the origin. And can be recorded.

ステップS1403において、光源取得部1103が、図21の例で説明したように光源の方向を取得する。次いでステップS1404において、分析部1105は、指定部位において、測色値を取得し、基準値を取得し、及びそれらの値の差を算出する事によって指定部位の色を分析する。次いでステップS1405で、分析装置107は、指定部位の色の分析結果を表示する。ステップS1405において分析結果を表示する場所は特に限定されない。例えば、分析装置107は、表示装置102上に色の分析結果を表示してもよく、又は、不図示の第2の表示装置に色の分析結果を表示してもよい。そのような場合、分析装置107は、表示装置102又は第2の表示装置と、別々に存在する機器であってもよく、又は同一の機器内に存在していてもよい。図18は、本実施形態に係る分析部1105の機能構成の一例を示すブロック図である。分析部1105は、指定部位の色を分析するために、測色値算出部1801、法線算出部1802、光源算出部1803、基準値取得部1804、及び分析値算出部1805を有する。 In step S1403, the light source acquisition unit 1103 acquires the direction of the light source as described in the example of FIG. Next, in step S1404, the analysis unit 1105 analyzes the color of the designated portion by acquiring the colorimetric value, acquiring the reference value, and calculating the difference between those values at the designated portion. Next, in step S1405, the analyzer 107 displays the analysis result of the color of the designated portion. The place where the analysis result is displayed in step S1405 is not particularly limited. For example, the analyzer 107 may display the color analysis result on the display device 102, or may display the color analysis result on a second display device (not shown). In such a case, the analyzer 107 may be a device that exists separately from the display device 102 or the second display device, or may exist in the same device. FIG. 18 is a block diagram showing an example of the functional configuration of the analysis unit 1105 according to the present embodiment. The analysis unit 1105 includes a color measurement value calculation unit 1801, a normal calculation unit 1802, a light source calculation unit 1803, a reference value acquisition unit 1804, and an analysis value calculation unit 1805 in order to analyze the color of a designated portion.

測色値算出部1801は、撮影画像における色情報を、測色値として取得する。例えば、測色値算出部1801は、撮影画像に基づいて、スケール104を貼付された対象物103の指定部位における色情報を、測色値として取得することができる。測色値は、例えば、XYZ値であってもよい。つまり、例えば、測色値算出部1801は、画像のデータに含まれるRGB値を、XYZ値に変換することで、色情報の測色値を取得してもよい。測色値算出部1801は、RGB値からXYZ値への変換を、例えば、特開2009−260474号公報の17段落から47段落に開示されている方法で生成される色処理条件を用いることにより行うことができる。 The colorimetric value calculation unit 1801 acquires the color information in the captured image as the colorimetric value. For example, the colorimetric value calculation unit 1801 can acquire color information at a designated portion of the object 103 to which the scale 104 is attached as a colorimetric value based on the captured image. The colorimetric value may be, for example, an XYZ value. That is, for example, the color measurement value calculation unit 1801 may acquire the color measurement value of the color information by converting the RGB value included in the image data into the XYZ value. The colorimetric value calculation unit 1801 converts the RGB value to the XYZ value by using, for example, the color processing conditions generated by the method disclosed in paragraphs 17 to 47 of JP2009-260474A. It can be carried out.

法線算出部1802は、形状算出部1102によって算出された基準点の2及び3次元座標から、対象物103の表面の、指定部位における向き、つまり法線方向を算出する。法線方向は、例えば3次元ベクトルであってもよい。光源算出部1803は、光源測定部1201が算出した光源の方向に基づいて、光源105から指定部位に対する方向を算出する。基準値取得部1804は、測色値と比較するための基準値を取得する。基準値取得部1804は、指定部位における法線方向、光源105から指定部位に対する方向、及び撮影装置106から指定部位に対する方向に基づいて、近い撮影の条件に対応する基準値を基準板1301の反射特性の情報から取得する。分析値算出部1805は、測色値及び基準値に基づいて、分析値を算出する。分析値算出部1805は、測色値と基準値との差を算出することにより、つまり観測された色と基準となる色との色差を求めることにより、分析値を算出してもよい。分析値は特に限定されないが、例えば、XYZ値であってもよく、L値であってもよい。続いて、法線算出部1802、光源算出部1803、基準値取得部1804、及び分析値算出部1805について、図面を参照しながら説明する。 The normal calculation unit 1802 calculates the direction of the surface of the object 103 at the designated portion, that is, the normal direction from the two- and three-dimensional coordinates of the reference point calculated by the shape calculation unit 1102. The normal direction may be, for example, a three-dimensional vector. The light source calculation unit 1803 calculates the direction from the light source 105 with respect to the designated portion based on the direction of the light source calculated by the light source measurement unit 1201. The reference value acquisition unit 1804 acquires a reference value for comparison with the colorimetric value. The reference value acquisition unit 1804 reflects the reference value corresponding to the near shooting conditions on the reference plate 1301 based on the normal direction at the designated portion, the direction from the light source 105 to the designated portion, and the direction from the imaging device 106 to the designated portion. Obtained from characteristic information. The analysis value calculation unit 1805 calculates the analysis value based on the colorimetric value and the reference value. The analysis value calculation unit 1805 may calculate the analysis value by calculating the difference between the colorimetric value and the reference value, that is, by obtaining the color difference between the observed color and the reference color. The analysis value is not particularly limited, but may be, for example, an XYZ value or an L * a * b * value. Subsequently, the normal calculation unit 1802, the light source calculation unit 1803, the reference value acquisition unit 1804, and the analysis value calculation unit 1805 will be described with reference to the drawings.

図20は、法線算出部1802が行う処理の一例を示すフローチャートである。ステップS2001において法線算出部1802は、メタデータ1603の各行を読み取ることで、スケール104上の各矩形領域の頂点の情報をそれぞれ取得する。次いで、法線算出部1802は、メタデータ1601から、その矩形領域の頂点に対応する3次元座標をそれぞれ取得する。なお、ステップS1704で述べた通り、算出された中心点の2次元座標は、メタデータ1603に記録されている領域の頂点と対応付けられている。このことから、ステップS2002において、法線算出部1802は、ステップS2001と同様にして、メタデータ1603の各行を読み取り、その頂点に対応する2次元座標を、ステップS1704で算出された情報から取得することができる。 FIG. 20 is a flowchart showing an example of processing performed by the normal calculation unit 1802. In step S2001, the normal calculation unit 1802 acquires the information of the vertices of each rectangular region on the scale 104 by reading each line of the metadata 1603. Next, the normal calculation unit 1802 acquires the three-dimensional coordinates corresponding to the vertices of the rectangular region from the metadata 1601, respectively. As described in step S1704, the calculated two-dimensional coordinates of the center point are associated with the vertices of the region recorded in the metadata 1603. Therefore, in step S2002, the normal calculation unit 1802 reads each line of the metadata 1603 in the same manner as in step S2001, and acquires the two-dimensional coordinates corresponding to the vertices from the information calculated in step S1704. be able to.

ステップS2003において法線算出部1802は、メタデータ1603に記録されている各領域について、式(4)に示される、r11〜r33の係数からなる回転行列と、t1〜t3の係数からなる並進ベクトルと、をそれぞれ推定する。fx及びfxは撮影装置106の焦点距離を表し、cx及びcyは撮影装置106の主点をそれぞれ表す。fx、fy、cx、及びcyは、それぞれ既知であってもよい。また、法線算出部1802は、式(4)に基づき、XYZ座標系のXYZ座標から、その点のuv座標を算出してもよい。式(4)において、(u、v)はステップS2002で取得した中心点のuv座標であり、及び(X、Y、Z)は同じ中心点の、ステップS2001で取得したXYZ座標である。法線算出部1802は、ステップS2002でuv座標を取得できたすべての中心点について、式(4)を適用してもよい。法線算出部1802は、公知のPnP(Perspective−n−Point)問題に基づいて、式(4)から、対応する(u、v)及び(X、Y、Z)を3組以上用いることにより、回転行列及び並進ベクトルを推定することができる。

Figure 2021033576
In step S2003, the normal calculation unit 1802 describes the rotation matrix consisting of the coefficients of r11 to r33 and the translation vector consisting of the coefficients of t1 to t3 shown in the equation (4) for each region recorded in the metadata 1603. And, respectively, are estimated. fx and fx represent the focal length of the photographing device 106, and cx and cy represent the principal points of the photographing device 106, respectively. fx, fy, cx, and cy may be known, respectively. Further, the normal calculation unit 1802 may calculate the uv coordinate of the point from the XYZ coordinates of the XYZ coordinate system based on the equation (4). In the formula (4), (u, v) is the uv coordinate of the center point acquired in step S2002, and (X, Y, Z) is the XYZ coordinate of the same center point acquired in step S2001. The normal calculation unit 1802 may apply the equation (4) to all the center points for which the uv coordinates have been acquired in step S2002. Based on the known PnP (Perjective-n-Point) problem, the normal calculation unit 1802 uses three or more sets of the corresponding (u, v) and (X, Y, Z) from the equation (4). , Rotation matrix and translation vector can be estimated.
Figure 2021033576

ステップS2004において法線算出部1802は、メタデータ1601に記録されている各中心点のXYZ座標から、撮影装置106を原点とするxyz座標系(カメラ座標系)における、それぞれ対応する中心点のxyz座標を算出することができる。このような算出は、下に示される式(5)によって行われる。Rは回転行列、tは並進ベクトルであり、ステップS2003で推定されたものである。次いで、法線算出部1802は、各中心点の座標から、メタデータ1603に格納されている矩形領域の法線ベクトルを算出する。法線算出部1802は、矩形領域が平面に近似可能であるという観点から、矩形領域の法線ベクトルとして、例えば、矩形の各頂点における法線ベクトルを算出してもよい。つまり、法線算出部1802は、矩形領域上の各画素における法線ベクトルとして、その矩形ベクトルの頂点における法線ベクトルを用いてもよい。具体的には、法線算出部1802は、各矩形領域において、ある頂点のxyz座標から、その頂点の対角線上に存在しない他の2点へのベクトルを算出し、及びその2つのベクトルの外積の単位ベクトルを、矩形領域の法線ベクトルとして算出することができる。また、例えば、同一矩形領域上の各頂点のXYZ座標におけるZの値が等しい場合において、法線算出部1802は、回転行列の3列目であるr13、r23及びr33を成分とする単位ベクトルを、その矩形領域の法線ベクトルとして算出してもよい。法線算出部1802は、ステップS2001からステップS2004までの一連の処理を、同一の頂点及び矩形領域に対して続けて行うことができる。また、法線算出部1802は、そのような一連の処理を、撮影画像で観察されるすべての矩形領域の頂点について行うことができる。

Figure 2021033576
In step S2004, the normal calculation unit 1802 uses the XYZ coordinates of each center point recorded in the metadata 1601 to xyz of the corresponding center points in the xyz coordinate system (camera coordinate system) with the photographing device 106 as the origin. The coordinates can be calculated. Such a calculation is performed by the formula (5) shown below. R is a rotation matrix and t is a translation vector, which was estimated in step S2003. Next, the normal calculation unit 1802 calculates the normal vector of the rectangular region stored in the metadata 1603 from the coordinates of each center point. The normal calculation unit 1802 may calculate, for example, the normal vector at each vertex of the rectangle as the normal vector of the rectangular region from the viewpoint that the rectangular region can be approximated to a plane. That is, the normal calculation unit 1802 may use the normal vector at the apex of the rectangular vector as the normal vector in each pixel on the rectangular region. Specifically, the normal calculation unit 1802 calculates a vector from the xyz coordinate of a vertex to two other points that do not exist on the diagonal of the vertex in each rectangular region, and the outer product of the two vectors. The unit vector of can be calculated as the normal vector of the rectangular region. Further, for example, when the Z values in the XYZ coordinates of the vertices on the same rectangular region are equal, the normal calculation unit 1802 uses a unit vector having r13, r23, and r33 as components in the third column of the rotation matrix. , May be calculated as a normal vector of the rectangular area. The normal calculation unit 1802 can continuously perform a series of processes from step S2001 to step S2004 on the same vertex and rectangular region. Further, the normal calculation unit 1802 can perform such a series of processing on the vertices of all the rectangular regions observed in the captured image.
Figure 2021033576

光源算出部1803は、光源測定部1201が算出した光源の方向に基づいて、光源から指定部位に対する方向を算出する。例えば光源算出部1803は、光源測定部1201の中心から光源への方向の単位ベクトルと、光源測定部1201の中心から光源までの距離と、xyz座標系における光源測定部1201の中心の座標とから、光源のxyz座標を算出することができる。次いで、光源算出部1803は、そのような光源のxyz座標と、ステップS2004で算出した指定部位上の点のxyz座標とに基づいて、光源からその指定部位上の点への3次元ベクトルを算出することができる。また、例えば、xyz座標系における光源の座標は予め既知であってもよい。そのような場合にも、光源算出部1803は、そのような光源のxyz座標と、ステップS2004で算出した指定部位上の点のxyz座標とに基づいて、光源からその指定部位上の点への3次元ベクトルを算出することができる。 The light source calculation unit 1803 calculates the direction from the light source to the designated portion based on the direction of the light source calculated by the light source measurement unit 1201. For example, the light source calculation unit 1803 is based on the unit vector of the direction from the center of the light source measurement unit 1201 to the light source, the distance from the center of the light source measurement unit 1201 to the light source, and the coordinates of the center of the light source measurement unit 1201 in the xyz coordinate system. , The xyz coordinates of the light source can be calculated. Next, the light source calculation unit 1803 calculates a three-dimensional vector from the light source to the point on the designated portion based on the xyz coordinates of such a light source and the xyz coordinates of the point on the designated portion calculated in step S2004. can do. Further, for example, the coordinates of the light source in the xyz coordinate system may be known in advance. Even in such a case, the light source calculation unit 1803 moves from the light source to the point on the designated portion based on the xyz coordinates of such a light source and the xyz coordinates of the point on the designated portion calculated in step S2004. A three-dimensional vector can be calculated.

図22は、基準値取得部1804が、指定部位における法線方向、光源に対する方向、及び基準板1301の反射特性に基づいて、基準値を取得する方法を説明するための図である。説明のため、図22(a)に示すように、指定部位における法線方向を3次元ベクトル(xn、yn、zn)、光源から指定部位に対する方向を(xl、yl、zl)、及び撮影装置から指定部位に対する方向ベクトルを(xc、yc、zc)とする。基準値取得部1804は、法線方向のベクトルを(0、0、(xn+yn+zn1/2)とするような回転行列を算出することができる。次いで、基準値取得部1804は、3次元ベクトル(xl、yl、zl)及び(xc、yc、zc)を、同回転行列を用いて回転させ、それぞれの回転後のベクトルの値を(xl’、yl’、zl’)及び(xc’、yc’、zc’)としてもよい。そのような回転の結果の例が、図22(b)に示されている。また、基準値取得部1804は、反射特性保持部1104が保持している基準板1301の反射特性を示す情報から、基準値取得部1804が取得した回転後のベクトルに基づいて、基準値を取得する。例えば、基準値取得部1804は、反射特性保持部1104が保持している情報を保持している基準板、光源及び撮影装置の位置関係の内で、基準値取得部1804が取得した位置関係と最も近い位置関係での基準板1301における基準値を取得することができる。また例えば、基準値取得部1804は、反射特性保持部1104が保持している反射特性を示す情報を複数取得し、及びそれらの平均を算出する事で、基準値を取得してもよい。さらに、例えば、基準値取得部1804は、RGB値で取得した基準値を、XYZ値に変換してもよい。基準値取得部1804は、RGB値からXYZ値への変換を、測色値算出部1801が行った処理と同様に行うことができる。 FIG. 22 is a diagram for explaining a method in which the reference value acquisition unit 1804 acquires a reference value based on the normal direction at the designated portion, the direction with respect to the light source, and the reflection characteristics of the reference plate 1301. For the sake of explanation, as shown in FIG. 22A, the normal direction at the designated portion is a three-dimensional vector (xn, yn, zn), the direction from the light source to the designated portion (xl, yl, zl), and the photographing apparatus Let the direction vector with respect to the designated portion be (xc, yc, zc). The reference value acquisition unit 1804 can calculate a rotation matrix such that the vector in the normal direction is (0, 0, (xn 2 + yn 2 + zn 2 ) 1/2). Next, the reference value acquisition unit 1804 rotates the three-dimensional vectors (xl, yl, zl) and (xc, yc, zc) using the same rotation matrix, and sets the value of each rotated vector to (xl'. , Yl', zl') and (xc', yc', zc'). An example of the result of such rotation is shown in FIG. 22 (b). Further, the reference value acquisition unit 1804 acquires a reference value based on the rotated vector acquired by the reference value acquisition unit 1804 from the information indicating the reflection characteristic of the reference plate 1301 held by the reflection characteristic holding unit 1104. To do. For example, the reference value acquisition unit 1804 has a positional relationship acquired by the reference value acquisition unit 1804 among the positional relationships of the reference plate, the light source, and the photographing device that hold the information held by the reflection characteristic holding unit 1104. The reference value on the reference plate 1301 in the closest positional relationship can be obtained. Further, for example, the reference value acquisition unit 1804 may acquire the reference value by acquiring a plurality of information indicating the reflection characteristics held by the reflection characteristic holding unit 1104 and calculating the average of them. Further, for example, the reference value acquisition unit 1804 may convert the reference value acquired in RGB values into an XYZ value. The reference value acquisition unit 1804 can perform the conversion from the RGB value to the XYZ value in the same manner as the process performed by the colorimetric value calculation unit 1801.

分析値算出部1805は、測色値算出部1801が算出した測色値、及び基準値取得部1804が取得した基準値から、分析値を算出する。分析値算出部1805は、測色値及び基準値として、XYZ値を用いてもよい。また、分析値算出部1805は、分析値を、L値として算出してもよい。 The analysis value calculation unit 1805 calculates the analysis value from the color measurement value calculated by the color measurement value calculation unit 1801 and the reference value acquired by the reference value acquisition unit 1804. The analysis value calculation unit 1805 may use the XYZ value as the color measurement value and the reference value. Further, the analysis value calculation unit 1805 may calculate the analysis value as an L * a * b * value.

以下、分析値をL値で算出するため、測色値および基準値をL値に変換する方法について説明する。ここでは、説明のため、測色値をXYZ値(Xc、Yc、Zc)、基準値をXYZ値(Xb、Yb、Zb)、基準白色をXYZ値(Xw、Yw、Zw)とする。分析値算出部1805は、例えば、以下の式(6)、式(7)及び式(8)に、(X、Y、Z)=(Xc、Yc、Zc)、及び(X、Y、Z)=(Xb、Yb、Zb)をそれぞれ代入し、(XRate、YRate、ZRate)を計算することができる。(XRate、YRate、ZRate)は、以下の式(9)及び式(10)に従って分析値のL値を算出することのできる値であってもよい。(XRate、YRate、ZRate)は、(Xc、Yc、Zc)に基づくものが(XcRate、YcRate、ZcRate)、(Xb、Yb、Zb)に基づくものが(XbRate、YbRate、ZbRate)とする。

Figure 2021033576
Figure 2021033576
Figure 2021033576
Figure 2021033576
Figure 2021033576
Hereinafter, in order to calculate the analysis value by the L * a * b * value, a method of converting the colorimetric value and the reference value into the L * a * b * value will be described. Here, for the sake of explanation, the colorimetric value is an XYZ value (Xc, Yc, Zc), the reference value is an XYZ value (Xb, Yb, Zb), and the reference white is an XYZ value (Xw, Yw, Zw). The analysis value calculation unit 1805 uses, for example, the following equations (6), (7) and (8) to include (X, Y, Z) = (Xc, Yc, Zc) and (X, Y, Z). ) = (Xb, Yb, Zb) can be substituted to calculate (XRate, YRate, ZRate). (XRate, YRate, ZRate) may be a value capable of calculating the L * a * b * value of the analytical value according to the following equations (9) and (10). As for (XRate, Yrate, Zrate), those based on (Xc, Yc, Zc) are defined as (XcRate, YcRate, ZcRate), and those based on (Xb, Yb, Zb) are defined as (XbRate, YbRate, ZbRate).
Figure 2021033576
Figure 2021033576
Figure 2021033576
Figure 2021033576
Figure 2021033576

分析値算出部1805は、式(9)及び式(10)で算出した(XRate、YRate、ZRate)に基づき、分析値をL値として算出してもよい。分析値としては、分析値算出部1805は、例えば、以下の式(11)により、分析値を算出することができる。分析値算出部1805は、式(11)に示されるΔE、ΔL、Δa、Δb及びΔCの何れか1つ以上を、分析値として算出することができる。

Figure 2021033576
The analysis value calculation unit 1805 may calculate the analysis value as an L * a * b * value based on the (XRate, YRate, ZRate) calculated by the formulas (9) and (10). As the analysis value, the analysis value calculation unit 1805 can calculate the analysis value by, for example, the following formula (11). The analysis value calculation unit 1805 can calculate any one or more of ΔE, ΔL, Δa, Δb and ΔC represented by the equation (11) as the analysis value.
Figure 2021033576

上述の一連の過程において、指定部位の座標として、矩形領域の頂点の座標を用いたが、用いる座標は特に頂点には限定されない。本実施形態に係る分析装置107は、例えば、矩形領域上の画素における色情報を分析してもよい。そのために、分析装置107は、矩形領域上の画素の、画像上におけるuv座標を取得することができる。次いで、分析装置107は、その画素のuv座標と、その矩形領域の各頂点のuv座標とに基づいて、その矩形領域のxyz座標からその画素のxyz座標を算出することができる。また例えば、分析装置107は、fx、fy、cx、及びcyは既知であることから、つまり撮影装置106の内部パラメータが既知であることから、上述のuv座標からそのxyz座標を算出してもよい。矩形領域上における法線ベクトルは、上述の通り、その矩形の頂点における法線ベクトルを用いてもよい。 In the above-mentioned series of processes, the coordinates of the vertices of the rectangular region are used as the coordinates of the designated portion, but the coordinates used are not particularly limited to the vertices. The analyzer 107 according to the present embodiment may analyze color information in pixels on a rectangular region, for example. Therefore, the analyzer 107 can acquire the uv coordinates of the pixels on the rectangular region on the image. Next, the analyzer 107 can calculate the xyz coordinate of the pixel from the xyz coordinate of the rectangular region based on the uv coordinate of the pixel and the uv coordinate of each vertex of the rectangular region. Further, for example, since the analyzer 107 knows fx, fy, cx, and cy, that is, the internal parameters of the photographing apparatus 106 are known, even if the xyz coordinates are calculated from the above-mentioned uv coordinates. Good. As the normal vector on the rectangular region, the normal vector at the apex of the rectangle may be used as described above.

図19は、ステップS1404において分析部1105が行う分析処理の一例を示すためのフローチャートである。ステップS1901において測色値算出部1801は、撮影画像から、指定部位の色情報を、測色値として算出する。ステップS1902において法線算出部1802は、ステップS1402において画像中の基準点202と対応付けられたメタデータ1601〜1603に基づいて、基準点202により表される矩形領域それぞれにおける法線ベクトルを算出する。ステップS1903において光源算出部1803は、撮影画像から、光源から指定部位に対する方向を算出する。ステップS1904にいて基準値取得部1804は、矩形領域の法線ベクトル、光源から指定部位に対する方向、撮影装置から指定部位に対する方向の位置から、指定部位が示すであろう基準となる色情報を、基準値として取得する。この例では、基準値取得部1804はカメラを原点とする座標上で計算を行っているが、特にそのようには限定されない。ステップS1905において分析値算出部は、ステップS1901で算出した測色値、ステップS1904で取得した基準値から、指定部位の色の分析値を算出する。 FIG. 19 is a flowchart for showing an example of the analysis process performed by the analysis unit 1105 in step S1404. In step S1901, the colorimetric value calculation unit 1801 calculates the color information of the designated portion as the colorimetric value from the captured image. In step S1902, the normal calculation unit 1802 calculates the normal vector in each of the rectangular regions represented by the reference point 202 based on the metadata 1601 to 1603 associated with the reference point 202 in the image in step S1402. .. In step S1903, the light source calculation unit 1803 calculates the direction from the light source to the designated portion from the captured image. In step S1904, the reference value acquisition unit 1804 obtains reference color information that the designated portion will indicate from the normal vector of the rectangular region, the direction from the light source to the designated portion, and the position in the direction from the photographing device to the designated portion. Obtained as a reference value. In this example, the reference value acquisition unit 1804 performs the calculation on the coordinates with the camera as the origin, but the calculation is not particularly limited to that. In step S1905, the analysis value calculation unit calculates the color analysis value of the designated portion from the colorimetric value calculated in step S1901 and the reference value acquired in step S1904.

このような構成によれば、撮影画像から指定部位の測色値を取得し、及び、対象物の表面の指定部位における向きを算出することができる。次いで、そのような指定部位における向きと、並びに光源及び撮影装置の指定部位に対する位置から、指定部位の基準値を取得することができる。さらに、そのような測色値及び基準値から、指定部位の分析値を算出する分析装置を得ることができる。 According to such a configuration, the colorimetric value of the designated portion can be obtained from the captured image, and the orientation of the surface of the object at the designated portion can be calculated. Next, the reference value of the designated portion can be obtained from the orientation at such a designated portion and the position of the light source and the imaging device with respect to the designated portion. Further, from such a colorimetric value and a reference value, an analyzer that calculates an analysis value of a designated portion can be obtained.

[実施形態2]
[スケール生成及び印刷装置]
図23は、実施形態2に係る情報処理装置2301を有する分析システムの構成の一例を示している。実施形態2に係る分析システムは、情報処理装置2301と、印刷装置2302と、分析装置107と、を有する。情報処理装置2301は、対象物の形状データ上に指定された測定部位に基づいて、スケールの画像データを生成する。印刷装置2302は、生成されたスケールの画像データに基づいて、スケールを印刷する。分析装置107は、印刷されたスケールを用いて、実施形態1と同様の分析処理を行う。図23において、実施形態1と同様の構成には同じ参照符号が付されており、重複する説明は省略される。実施形態2に係る分析システムは、情報処理装置2301がスケールを生成し及び印刷装置との接続を有することを除き、実施形態1に係る分析システムと同様である。本実施形態におけるスケールは図23に図示されていないが、有する構成は実施形態1におけるスケール104と同様である。
[Embodiment 2]
[Scale generator and printing device]
FIG. 23 shows an example of the configuration of the analysis system having the information processing apparatus 2301 according to the second embodiment. The analysis system according to the second embodiment includes an information processing device 2301, a printing device 2302, and an analysis device 107. The information processing device 2301 generates scale image data based on the measurement site designated on the shape data of the object. The printing device 2302 prints the scale based on the image data of the generated scale. The analyzer 107 performs the same analysis process as in the first embodiment using the printed scale. In FIG. 23, the same reference numerals are given to the same configurations as those in the first embodiment, and duplicate description is omitted. The analysis system according to the second embodiment is the same as the analysis system according to the first embodiment, except that the information processing apparatus 2301 generates a scale and has a connection with the printing apparatus. Although the scale in the present embodiment is not shown in FIG. 23, the configuration having the scale is the same as that of the scale 104 in the first embodiment.

図24は、実施形態2に係る情報処理装置2301の機能構成の一例を示すブロック図である。本実施形態に係る情報処理装置2301は、スケール生成部2401及びスケール出力部2402を有し、スケール保持部401及びスケール取得部402を有していない。その他の構成は、図4に示す実施形態1と同様の構成である。本実施形態に係る情報処理装置2301について、実施形態1と重複する説明は省略する。情報処理装置2301は、印刷装置2302と接続されていてもよい。 FIG. 24 is a block diagram showing an example of the functional configuration of the information processing apparatus 2301 according to the second embodiment. The information processing apparatus 2301 according to the present embodiment has a scale generation unit 2401 and a scale output unit 2402, and does not have a scale holding unit 401 and a scale acquisition unit 402. Other configurations are the same as those of the first embodiment shown in FIG. The information processing apparatus 2301 according to the present embodiment will not be described in duplicate with the first embodiment. The information processing device 2301 may be connected to the printing device 2302.

スケール生成部2401は、実施形態1と同様に平面性評価部406が算出するスケールに関する条件を満たすスケールの画像を生成する。つまり、スケール生成部2401は、スケールの画像として、Δxmax以下のΔxを示す基準点202を持つスケールの画像を生成することができる。この場合において、Δxの値はΔxmax以下であれば特に限定はされない。なお、分析装置107による処理を行う場合に、用いるスケールのΔxの値を極力大きく取る事で、矩形領域の法線ベクトルを算出する際の推定誤差を極力小さくすることができ、及び矩形領域の数を少なくすることによって計算コストを抑えることができる。そのような観点から、スケール生成部2401は、スケールの画像として、Δxの値が、Δxが取り得る最大の値であるΔxmaxであるスケールの画像を生成する。スケール生成部1501は、生成したスケールの画像を、スケール出力部2402へと出力する。 The scale generation unit 2401 generates an image of a scale that satisfies the conditions regarding the scale calculated by the flatness evaluation unit 406 as in the first embodiment. That is, the scale generation unit 2401 can generate a scale image having a reference point 202 indicating Δx of Δx max or less as the scale image. In this case, the value of Δx is not particularly limited as long as it is Δx max or less. When processing by the analyzer 107, by taking the value of Δx of the scale to be used as large as possible, the estimation error when calculating the normal vector of the rectangular region can be minimized, and the rectangular region can be processed. The calculation cost can be suppressed by reducing the number. From such a viewpoint, the scale generation unit 2401 generates a scale image in which the value of Δx is Δx max , which is the maximum value that Δx can take. The scale generation unit 1501 outputs an image of the generated scale to the scale output unit 2402.

スケール出力部2402は、生成されたスケールの画像を、表示装置102に出力する。図25は、生成されたスケールの画像を表示する表示装置102の一例を説明するための図である。表示装置102に表示されるUIは、生成ウィンドウ2501を有し、並びに生成ウィンドウ2501は、形状入力欄611、設定ボタン612、及びスケール表示欄2502、及び印刷ボタン2503を有する。スケール生成部2401は、図6と同様の形状入力欄611及び設定ボタン612に対するユーザの操作に従って、形状データ上に指定された測定部位に適切なスケールの画像データを生成する。スケール表示欄2502は、生成されたスケールの画像データを表示することができる。スケール表示欄2502に表示されるものは、スケールの画像データに限られない。スケール表示欄2502は、例えば、縦基準点数605、縦間隔606、横基準点数607、及び横間隔608のような、基準点202に関わる情報を表示してもよい。スケール出力部2402は、ユーザが印刷ボタン2503を押すことにより、スケールの画像を、印刷装置2302へと出力する。印刷装置2302は、入力されたスケール104の画像を、基材に印刷する。基材及び記録材料は特に限定されないが、実施形態1と同様に、複数回の貼付及び剥脱が可能な基材であり、並びに撮影時の光源や周囲の映り込みを低減できる記録材料であってもよい。また、スケール生成部2401は、実施形態1と同様に、スケール保持部及びスケール取得部(不図示)から取得されたスケール候補群を示す情報からスケールの画像データを取得することもできる。 The scale output unit 2402 outputs the generated scale image to the display device 102. FIG. 25 is a diagram for explaining an example of a display device 102 that displays an image of the generated scale. The UI displayed on the display device 102 has a generation window 2501, and the generation window 2501 has a shape input field 611, a setting button 612, a scale display field 2502, and a print button 2503. The scale generation unit 2401 generates image data of an appropriate scale at the measurement site designated on the shape data according to the user's operation on the shape input field 611 and the setting button 612 as in FIG. The scale display field 2502 can display the image data of the generated scale. What is displayed in the scale display field 2502 is not limited to scale image data. The scale display field 2502 may display information related to the reference point 202, such as, for example, the number of vertical reference points 605, the vertical spacing 606, the number of horizontal reference points 607, and the horizontal spacing 608. The scale output unit 2402 outputs a scale image to the printing device 2302 when the user presses the print button 2503. The printing device 2302 prints the input image of the scale 104 on the base material. The base material and the recording material are not particularly limited, but as in the first embodiment, the base material can be attached and detached a plurality of times, and the light source and the surrounding reflection at the time of photographing can be reduced. May be good. Further, the scale generation unit 2401 can also acquire scale image data from the information indicating the scale candidate group acquired from the scale holding unit and the scale acquisition unit (not shown), as in the first embodiment.

図26は、情報処理装置2301による処理を行うための処理手順の一例を示すフローチャートである。図26において情報処理装置2301は、実施形態1のステップS702〜S704と同様の処理手順を有する。 FIG. 26 is a flowchart showing an example of a processing procedure for performing processing by the information processing apparatus 2301. In FIG. 26, the information processing apparatus 2301 has the same processing procedure as steps S702 to S704 of the first embodiment.

ステップS2601において、スケール生成部2401は、ユーザの入力に基づいて、対象物103の形状データからスケールの画像データを生成する。ステップS2602において、スケール出力部2402は、表示装置102にスケールの画像データを表示させる。次いでスケール出力部2402は、印刷装置2302にスケールの画像データを出力する。印刷装置2302がスケールを印刷した後、分析装置107が実施形態1と同様の分析処理を行う。 In step S2601, the scale generation unit 2401 generates scale image data from the shape data of the object 103 based on the input of the user. In step S2602, the scale output unit 2402 causes the display device 102 to display the image data of the scale. Next, the scale output unit 2402 outputs scale image data to the printing device 2302. After the printing device 2302 prints the scale, the analyzer 107 performs the same analysis process as in the first embodiment.

この構成によれば、対象物の形状データに基づいて、スケールを示す情報を生成する情報処理装置を得ることができる。特に、本実施形態においては、対象物の指定部位に貼付された場合にその指定部位の向きの十分な精度での推定を補助することのできるような基準点の配列を有するスケールを示す情報を生成することができる。さらに、情報処理装置が生成したスケールを示す情報を、印刷装置が基材上に印刷することができる。 According to this configuration, it is possible to obtain an information processing device that generates information indicating the scale based on the shape data of the object. In particular, in the present embodiment, information indicating a scale having an array of reference points that can assist in estimating the orientation of the designated part with sufficient accuracy when attached to the designated part of the object is provided. Can be generated. Further, the printing device can print the information indicating the scale generated by the information processing device on the base material.

[実施形態3]
実施形態3に係る情報処理装置は、対象物の形状データ上に2つの測定部位を指定し、及びその2つの測定部位について、対応する指定部位の向きの推定に適切なスケールを生成することができる。実施形態3に係る情報処理装置2301を有する分析システムの構成は、図23に示される実施形態2における構成と同一であってもよい。
[Embodiment 3]
The information processing apparatus according to the third embodiment can specify two measurement sites on the shape data of the object and generate a scale suitable for estimating the orientation of the corresponding designated sites for the two measurement sites. it can. The configuration of the analysis system including the information processing apparatus 2301 according to the third embodiment may be the same as the configuration in the second embodiment shown in FIG.

実施形態3において、情報処理装置2301は、指定された2つの測定部位に基づいて、スケールの画像データを1つ以上生成する。次いで、印刷装置2302が、スケールの画像データに基づいてスケールをそれぞれ印刷する。分析装置107は、印刷されたスケールそれぞれについて、実施形態1と同様の分析処理を行う。 In the third embodiment, the information processing apparatus 2301 generates one or more scale image data based on the two designated measurement sites. Next, the printing device 2302 prints the scales based on the image data of the scales. The analyzer 107 performs the same analysis processing as in the first embodiment for each of the printed scales.

図27は、実施形態3に係る情報処理装置2301の機能構成の一例を示すブロック図である。本実施形態に係る情報処理装置2301は、部位指定部2701、位置評価部2702及びスケール生成部2703を有し、部位指定部405及びスケール生成部2401を有していない。その他の構成は、図24に示す実施形態2と同様の構成である。本実施形態に係る情報処理装置2301について、実施形態1及び2と重複する説明は省略する。 FIG. 27 is a block diagram showing an example of the functional configuration of the information processing apparatus 2301 according to the third embodiment. The information processing apparatus 2301 according to the present embodiment has a site designation unit 2701, a position evaluation unit 2702, and a scale generation unit 2703, and does not have a site designation unit 405 and a scale generation unit 2401. Other configurations are the same as those of the second embodiment shown in FIG. 24. The information processing apparatus 2301 according to the present embodiment will not be described in duplicate with the first and second embodiments.

部位指定部2701は、形状取得部404が取得した形状データ上において、分析装置107が測定を行う部位である測定部位を2つ指定する。部位指定部2701が測定部位を指定する場合、表示装置102に表示されるUI上で指定が行われてもよい。測定部位を指定するためのUIの一例が、図28に示されている。 The site designation unit 2701 designates two measurement sites, which are the sites to be measured by the analyzer 107, on the shape data acquired by the shape acquisition unit 404. When the part designation unit 2701 designates the measurement part, the designation may be made on the UI displayed on the display device 102. An example of a UI for designating a measurement site is shown in FIG.

図28のUI上において、表示されている対象物の形状データ上に測定部位が2つ指定される。このUIは指定ウィンドウ2801を有している。指定ウィンドウ2801は、対象物の形状データを表示し、並びに、ユーザがその形状データ上に測定部位を2つ指定し及び測定部位を決定する。そのために、指定ウィンドウ2801は、形状表示欄615、位置表示欄2804、及び決定ボタン620を有している。 On the UI of FIG. 28, two measurement sites are designated on the shape data of the displayed object. This UI has a designated window 2801. The designation window 2801 displays the shape data of the object, and the user specifies two measurement sites on the shape data and determines the measurement site. Therefore, the designated window 2801 has a shape display field 615, a position display field 2804, and a decision button 620.

形状表示欄615は、図6の例と同様に形状データ616及びポインタ617を表示する。またユーザは、ポインタ617を介する操作によって、形状データ616上に測定部位を2つ指定することができる。この場合においては、ユーザは、測定部位として、測定部位2802及び2803を、それぞれに対して実施形態1と同様の操作によって指定することができる。測定部位2802及び2803は、指定された点がわかるように表示されていればどのように表示されていてもよく、例えば網掛け表示で表示されていてもよく、又は点線で覆われていてもよい。なお、測定部位2802及び2803は、それぞれの区別がつくように、各々別の表示形態をしていてもよい。この時、位置表示欄2804は、指定された測定部位2802及び2803の3次元座標2805及び2806を、それぞれ取得及び表示することができる。以下において、測定部位2802及び2803を、それぞれP1及びP2と表記する。次いで、部位指定部2701は、ユーザが決定ボタン620を押すことにより、P1及びP2を現在指定されている部位として決定し、及びその3次元座標を保存することができる。この構成によれば、対象物の形状データ616上に、2つの測定部位を指定することができる。 The shape display field 615 displays the shape data 616 and the pointer 617 as in the example of FIG. Further, the user can specify two measurement sites on the shape data 616 by operating the pointer 617. In this case, the user can designate the measurement sites 2802 and 2803 as the measurement sites by the same operation as in the first embodiment. The measurement sites 2802 and 2803 may be displayed in any manner as long as the designated points can be clearly identified, for example, they may be displayed in a shaded display or may be covered with a dotted line. Good. The measurement sites 2802 and 2803 may have different display forms so that they can be distinguished from each other. At this time, the position display field 2804 can acquire and display the three-dimensional coordinates 2805 and 2806 of the designated measurement sites 2802 and 2803, respectively. In the following, the measurement sites 2802 and 2803 will be referred to as P1 and P2, respectively. Next, the site designation unit 2701 can determine P1 and P2 as the currently designated site and save the three-dimensional coordinates thereof by the user pressing the decision button 620. According to this configuration, two measurement sites can be specified on the shape data 616 of the object.

位置評価部2702は、部位指定部2701が指定した2つの測定部位P1及びP2について、その3次元座標の位置関係を評価する。つまり、位置評価部2702は、P1及びP2について、分析装置107が分析を行う際に、1つのスケールで分析ができるかどうかの判定を行う。 The position evaluation unit 2702 evaluates the positional relationship of the three-dimensional coordinates of the two measurement sites P1 and P2 designated by the site designation unit 2701. That is, the position evaluation unit 2702 determines whether or not P1 and P2 can be analyzed on one scale when the analyzer 107 analyzes them.

図29は、P1及びP2について、個別にスケールを用意する必要がある例を示している。図29(a)は、形状データ616上のP1とP2との距離が、スケールの切り取り領域の横方向の長さの値よりも大きい場合の図である。領域2901は形状データ616の表面の一部を示し、点2902はP1を示し、点2903はP2を示している。この場合、横方向が指す方向とは、実施形態1における基準点202の配列での横方向に従う。また、この図におけるスケール2904は、実施形態1におけるスケール104と同様の構成を有していてもよい。上述のようにP1とP2との距離が切り取り領域の横方向の長さを超えているような場合において、分析装置107は、1つのスケールによってP1及びP2に対応する指定部位の向きを推定するのは不可能である。また、図29(b)は、形状データ616の表面が、エッジ又は段差などで分断されている状態の一例を示す図である。この例では、形状データ616の表面は、領域2905と領域2906とに分断され、点2907はP1を示し、点2908はP2を示している。このような場合においても、分析装置107は、1つのスケールによってP1及びP2に対応する指定部位の向きを推定するのは不可能である。つまり、P1とP2との距離が切り取り領域の横方向の長さ以下であり、及び2つの測定部位間にエッジが存在しない場合については、位置評価部2702は、P1及びP2について、1つのスケールによって分析装置107が分析を行うことができると判定する。 FIG. 29 shows an example in which scales need to be prepared individually for P1 and P2. FIG. 29A is a diagram when the distance between P1 and P2 on the shape data 616 is larger than the value of the lateral length of the cut area of the scale. Region 2901 shows a part of the surface of the shape data 616, point 2902 shows P1 and point 2903 shows P2. In this case, the direction pointed to by the lateral direction follows the lateral direction in the arrangement of the reference points 202 in the first embodiment. Further, the scale 2904 in this figure may have the same configuration as the scale 104 in the first embodiment. When the distance between P1 and P2 exceeds the lateral length of the cut region as described above, the analyzer 107 estimates the orientation of the designated portion corresponding to P1 and P2 by one scale. Is impossible. Further, FIG. 29B is a diagram showing an example of a state in which the surface of the shape data 616 is divided by an edge, a step, or the like. In this example, the surface of the shape data 616 is divided into a region 2905 and a region 2906, where point 2907 indicates P1 and point 2908 indicates P2. Even in such a case, it is impossible for the analyzer 107 to estimate the orientation of the designated sites corresponding to P1 and P2 by one scale. That is, if the distance between P1 and P2 is less than or equal to the lateral length of the cut region and there is no edge between the two measurement sites, the position evaluation unit 2702 will perform one scale for P1 and P2. Determines that the analyzer 107 can perform the analysis.

位置評価部2702は、P1とP2との距離が、切り取り領域の横方向の長さ以下であるかを判定し、及び、P1とP2との間のエッジ量が、所定の閾値以下であるかどうかを判定する。これらの判定が行われる順番は特に限定はされない。スケール生成部2703は、その判定結果に基づいて、P1及びP2に対応するスケールの画像を1つ又は2つ生成する。スケール生成部2703は、実施形態2のスケール生成部2401と同様の方法で、スケールの画像データを生成することができる。図30は、位置評価部2702による判定、及びその判定に続くスケール生成部2703による処理を行うための手順の一例を示すフローチャートである。 The position evaluation unit 2702 determines whether the distance between P1 and P2 is equal to or less than the lateral length of the cut region, and whether the edge amount between P1 and P2 is equal to or less than a predetermined threshold value. Judge whether or not. The order in which these determinations are made is not particularly limited. The scale generation unit 2703 generates one or two images of scales corresponding to P1 and P2 based on the determination result. The scale generation unit 2703 can generate scale image data in the same manner as the scale generation unit 2401 of the second embodiment. FIG. 30 is a flowchart showing an example of a procedure for performing a determination by the position evaluation unit 2702 and a process by the scale generation unit 2703 following the determination.

ステップS3001において位置評価部2702は、P1とP2との距離を算出する。この距離は、例えば、P1とP2との直線距離であってもよく、又はP1及びP2を通る形状データに沿った距離であってもよい。この例においては、位置評価部2702は、P1とP2との距離として、P1とP2との直線距離を算出する。またこの例において、説明のため、P1の3次元座標2805を(X1、Y1、Z1)、P2の3次元座標2806を(X2、Y2、Z2)とする。位置評価部2702は、下記の式(12)に従って、P1とP2との距離Lを算出する。

Figure 2021033576
In step S3001, the position evaluation unit 2702 calculates the distance between P1 and P2. This distance may be, for example, a linear distance between P1 and P2, or may be a distance along the shape data passing through P1 and P2. In this example, the position evaluation unit 2702 calculates the linear distance between P1 and P2 as the distance between P1 and P2. Further, in this example, for the sake of explanation, the three-dimensional coordinates 2805 of P1 are referred to as (X1, Y1, Z1), and the three-dimensional coordinates 2806 of P2 are referred to as (X2, Y2, Z2). The position evaluation unit 2702 calculates the distance L between P1 and P2 according to the following equation (12).
Figure 2021033576

ステップS3002において位置評価部2702は、P1とP2との距離が切り取り領域の横方向の長さ以下であるかの判定を行う。そのために、位置評価部2702は、式(12)で算出された距離Lと、所定の閾値ThLの比較を、下記の式(13)に従って行う。閾値ThLの値は、切り取り領域の横方向の長さより大きくなければ特に限定はされない。閾値ThLは、例えば、切り取り領域の横方向の長さと同じ値であってもよく、又は、測定に余裕を持たせることを考えて、切り取り領域の横方向の長さより所定量小さい値であってもよい。位置評価部2702は、距離Lが式(13)を満たす場合には、ステップS3003へと進み、そうでない場合は、ステップS3006へと進む。

Figure 2021033576
In step S3002, the position evaluation unit 2702 determines whether the distance between P1 and P2 is equal to or less than the lateral length of the cut region. Therefore, the position evaluation unit 2702 compares the distance L calculated by the formula (12) with the predetermined threshold value ThL according to the following formula (13). The value of the threshold value ThL is not particularly limited as long as it is not larger than the lateral length of the cut area. The threshold value ThL may be, for example, the same value as the lateral length of the cut area, or a value smaller than the lateral length of the cut area by a predetermined amount in consideration of allowing a margin for measurement. May be good. If the distance L satisfies the equation (13), the position evaluation unit 2702 proceeds to step S3003, and if not, proceeds to step S3006.
Figure 2021033576

ステップS3003において位置評価部2702は、P1とP2とのエッジ量を算出する。このエッジ量は、例えば、形状データのポリゴン上の、P1とP2との間にある頂点について算出されてもよく、又は、P1の存在する面とP2の存在する面の間の辺について算出されてもよい。この例においては、位置評価部2702は、エッジ量として、形状データのポリゴン上の、P1とP2との間にある頂点について算出されるエッジ量を求める。なお、位置評価部2702は、P1とP2との間にある頂点の内、測定部位にスケールをする場合にスケールが重なり得る頂点すべてについて、エッジ量を算出してもよい。位置評価部2702は、ある点Q(X、Y、Z)におけるエッジ量G(Q)を、下記の式(14)に従って算出することができる。式(14)において、∂Q/∂xは、点QにおけるX方向の偏微分を表し、Y、Z方向についても同様に表す。

Figure 2021033576
In step S3003, the position evaluation unit 2702 calculates the edge amount between P1 and P2. This edge amount may be calculated, for example, for the vertices between P1 and P2 on the polygon of the shape data, or for the side between the surface where P1 exists and the surface where P2 exists. You may. In this example, the position evaluation unit 2702 obtains the edge amount calculated for the apex between P1 and P2 on the polygon of the shape data as the edge amount. The position evaluation unit 2702 may calculate the edge amount for all the vertices between P1 and P2 where the scales can overlap when the measurement site is scaled. The position evaluation unit 2702 can calculate the edge amount G (Q) at a certain point Q (X, Y, Z) according to the following formula (14). In equation (14), ∂Q / ∂x represents the partial differential in the X direction at the point Q, and the same applies to the Y and Z directions.
Figure 2021033576

ステップS3004において位置評価部2702は、P1とP2との間のエッジ量が、所定の閾値以下であるかどうかの判定を行う。そのために、位置評価部2702は、式(14)で算出されたエッジ量Gが、所定の閾値ThE以下であるかどうかを判定する。閾値ThEは、点Qにおけるエッジ量が十分に小さいことを判別するための閾値であり、所望の値として予め定めていてもよい。位置評価部2702は、エッジ量を算出したすべての頂点において、そのエッジ量GがThE以下であると判定された場合には、ステップS3005へと進み、そうでない場合は、ステップS3006へと進む。 In step S3004, the position evaluation unit 2702 determines whether or not the edge amount between P1 and P2 is equal to or less than a predetermined threshold value. Therefore, the position evaluation unit 2702 determines whether or not the edge amount G calculated by the equation (14) is equal to or less than a predetermined threshold value The. The threshold value The is a threshold value for determining that the edge amount at the point Q is sufficiently small, and may be predetermined as a desired value. If it is determined that the edge amount G is equal to or less than ThE at all the vertices for which the edge amount has been calculated, the position evaluation unit 2702 proceeds to step S3005, and if not, proceeds to step S3006.

1つのスケールによってP1及びP2に対応する指定部位の向きを推定することが可能であると判定された場合であるステップS3005において、スケール生成部2703は、P1及びP2について共通で用いられるスケールの画像データを生成する。なお、P1における最小の曲率半径とP2における最小の曲率半径とが異なる場合には、式(1)に従うΔxmaxの値も、P1とP2とにおいて異なってくる。そのような場合においては、スケール生成部2703は、最小の曲率半径がより小さい測定部位におけるΔxmaxを用いることにより、P1及びP2において適切なスケールの画像を生成することができる。また、スケール生成部2703は、P1及びP2において適切なスケールの画像を、実施形態1におけるステップS701〜S706と同様に取得してもよい。 In step S3005, which is a case where it is determined that the orientation of the designated portion corresponding to P1 and P2 can be estimated by one scale, the scale generator 2703 is an image of the scale commonly used for P1 and P2. Generate data. When the minimum radius of curvature in P1 and the minimum radius of curvature in P2 are different , the value of Δx max according to the equation (1) also differs between P1 and P2. In such a case, the scale generator 2703 can generate an image of an appropriate scale at P1 and P2 by using Δx max at the measurement site where the minimum radius of curvature is smaller. Further, the scale generation unit 2703 may acquire an image of an appropriate scale in P1 and P2 in the same manner as in steps S701 to S706 in the first embodiment.

スケールを個別に生成する必要があると判定された場合であるステップS3006において、スケール生成部2703は、P1及びP2について、それぞれ別々にスケールの画像データを生成する。上述の一連の処理において、対象物の形状データ上に2つの測定部位が指定される場合についての説明を行ったが、指定される測定部位は2つには限られない。例えば、3つ以上の測定部位が指定される場合において、情報処理装置2301は、それらの測定部位のすべての組み合わせについて、ステップS3001〜S3006の処理を行うことで、適切なスケールの画像を生成してもよい。 In step S3006, which is a case where it is determined that the scales need to be generated individually, the scale generation unit 2703 generates image data of the scales for P1 and P2 separately. In the above-mentioned series of processes, the case where two measurement sites are designated on the shape data of the object has been described, but the designated measurement sites are not limited to two. For example, when three or more measurement sites are designated, the information processing apparatus 2301 generates an image of an appropriate scale by performing the processes of steps S3001 to S3006 for all combinations of those measurement sites. You may.

実施形態3に係る分析装置107は、生成されたスケールの画像が印刷された基材を取得する。この取得の方法は特に限定されるものではなく、印刷装置2302を用いて印刷されてもよく、又は実施形態1と同様に予めスケールの画像が印刷してある基材を取得してもよい。 The analyzer 107 according to the third embodiment acquires a substrate on which an image of the generated scale is printed. The acquisition method is not particularly limited, and printing may be performed using the printing apparatus 2302, or a substrate on which a scale image is printed in advance may be acquired as in the first embodiment.

このような処理手順によれば、実施形態3に係る情報処理装置は、対象物の形状データ上に測定部位を2つ指定する。次いで、情報処理装置は、その2つの測定部位を1つのスケールで同時に測定することができるかを判定することにより、適切なスケールを1つ生成するか、又は2つ生成するかを切り替えることができる。そのような1つ又は2つのスケールに対し、分析装置107は、実施形態1に係る方法と同様に分析を行うことができる。 According to such a processing procedure, the information processing apparatus according to the third embodiment designates two measurement sites on the shape data of the object. The information processing apparatus can then switch between generating one or two appropriate scales by determining whether the two measurement sites can be measured simultaneously on one scale. it can. The analyzer 107 can perform analysis on such one or two scales in the same manner as in the method according to the first embodiment.

[実施形態4]
上述の実施形態においては、例えば図4等に示される各処理部は、専用のハードウェアによって実現される。情報処理装置101及び表示装置102が有する一部又は全部の処理部が、コンピュータにより実現されてもよい。本実施形態では、上述の各実施形態に係る処理の少なくとも一部がコンピュータにより実行される。
[Embodiment 4]
In the above-described embodiment, for example, each processing unit shown in FIG. 4 and the like is realized by dedicated hardware. A part or all of the processing units of the information processing device 101 and the display device 102 may be realized by a computer. In this embodiment, at least a part of the processing according to each of the above-described embodiments is executed by a computer.

図31はコンピュータの基本構成を示す図である。図31においてプロセッサ3101は、例えばCPUであり、コンピュータ全体の動作をコントロールする。メモリ3102は、例えばRAMであり、プログラム及びデータ等を一時的に記憶する。コンピュータが読み取り可能な記憶媒体3103は、例えばハードディスク又はCD−ROM等であり、プログラム及びデータ等を長期的に記憶する。本実施形態においては、記憶媒体3103が格納している、各部の機能を実現するプログラムが、メモリ3102へと読み出される。そして、プロセッサ3101が、メモリ3102上のプログラムに従って動作することにより、各部の機能が実現される。 FIG. 31 is a diagram showing a basic configuration of a computer. In FIG. 31, the processor 3101 is, for example, a CPU and controls the operation of the entire computer. The memory 3102 is, for example, a RAM, and temporarily stores programs, data, and the like. The computer-readable storage medium 3103 is, for example, a hard disk or a CD-ROM, and stores programs, data, and the like for a long period of time. In the present embodiment, the program that realizes the functions of each part stored in the storage medium 3103 is read into the memory 3102. Then, the processor 3101 operates according to the program on the memory 3102, so that the functions of each part are realized.

図31において、入力インタフェース3104は外部の装置から情報を取得するためのインタフェースである。また、出力インタフェース3105は外部の装置へと情報を出力するためのインタフェースである。バス3106は、上述の各部を接続し、データのやりとりを可能とする。 In FIG. 31, the input interface 3104 is an interface for acquiring information from an external device. Further, the output interface 3105 is an interface for outputting information to an external device. The bus 3106 connects the above-mentioned parts and enables data exchange.

(その他の実施例)
上述した実施形態においては、ユーザが指定した指定部位の曲率半径に基づいて指定部位に適したスケールを提示したが、指定部位が平面であるか又は、曲面であるかに基づいて指定部位に適したスケールを提示してもよい。この場合、例えば、表示された3次元形状データ上の各領域に予め平面の領域であるか又は、曲面の領域であるかを示す識別情報を付与しておく。平面性評価部406は、ユーザが指定した指定部位の識別情報に基づいて、曲面用に基準点の間隔が狭いスケールと、曲面用のスケールより基準点の間隔が広い平面用のスケールと、から適したスケールを選択する。これにより、対象物における指定部位の曲率半径を用いずに、指定部位に適したスケールを提示することができる。なお、識別情報は、平面と曲面との2値に限られず、3値以上で平面性を識別してもよい。
また、上述した実施形態におけるスケールは対象物に直接貼り付けられたが、対象物の表面の向きが推定できるように配置されていれば、貼り付けられていなくてもよい。例えば、プロジェクタによって対象物上に投影されたスケールの画像を上述した実施形態におけるスケールとして用いても良い。 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
In the above-described embodiment, the scale suitable for the designated part is presented based on the radius of curvature of the designated part specified by the user, but the designated part is suitable for the designated part based on whether the designated part is a flat surface or a curved surface. The scale may be presented. In this case, for example, identification information indicating whether the area is a flat area or a curved surface is added to each area on the displayed three-dimensional shape data in advance. The flatness evaluation unit 406 is based on a scale having a narrow reference point interval for a curved surface and a scale for a flat surface having a wider reference point interval than a curved surface scale based on the identification information of a designated part specified by the user. Select a suitable scale. This makes it possible to present a scale suitable for the designated portion without using the radius of curvature of the designated portion in the object. The identification information is not limited to two values of a flat surface and a curved surface, and the flatness may be identified by three or more values.
Further, although the scale in the above-described embodiment is directly attached to the object, it may not be attached as long as it is arranged so that the orientation of the surface of the object can be estimated. For example, an image of the scale projected on the object by the projector may be used as the scale in the above-described embodiment. The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101:情報処理装置、404:形状取得部、406:平面性評価部、408:出力部 101: Information processing device, 404: Shape acquisition unit, 406: Flatness evaluation unit, 408: Output unit

Claims (19)

対象物の形状データを取得する第1の取得手段と、
表示された前記形状データにおいて指定された指定部位における表面形状を推定する第1の評価手段と、
前記指定部位における表面の向きを推定するために前記対象物の前記指定部位に配置されるスケールであって、前記推定された表面形状に対応する間隔で配置された複数の基準点を有するスケールを示す情報を出力する出力手段と、
を備えることを特徴とする情報処理装置。
The first acquisition means for acquiring the shape data of the object,
A first evaluation means for estimating the surface shape at a designated site designated in the displayed shape data, and
A scale arranged at the designated part of the object in order to estimate the orientation of the surface at the designated part, and has a plurality of reference points arranged at intervals corresponding to the estimated surface shape. Output means to output the indicated information and
An information processing device characterized by being equipped with.
前記スケールは、前記対象物の前記指定部位における表面の歪曲度に対応する間隔で配置された複数の基準点を有していることを特徴とする、請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the scale has a plurality of reference points arranged at intervals corresponding to the degree of distortion of the surface at the designated portion of the object. 前記スケールの候補を示す情報を取得する第2の取得手段をさらに備え、前記出力手段は、前記スケールの候補から選択された前記スケールを示す情報を出力することを特徴とする、請求項1又は2に記載の情報処理装置。 The first or second method is characterized in that a second acquisition means for acquiring information indicating the scale candidate is further provided, and the output means outputs information indicating the scale selected from the scale candidates. The information processing apparatus according to 2. 前記第2の取得手段は、前記スケールの候補を示す情報を示すユーザ入力を取得することを特徴とする、請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the second acquisition means acquires a user input indicating information indicating a candidate for the scale. 前記出力手段は、前記推定された表面形状に対応する間隔で配置された複数の基準点を有する前記スケールの候補が存在しない場合、警告を出力することを特徴とする、請求項3又は4に記載の情報処理装置。 The output means will output a warning when there is no candidate for the scale having a plurality of reference points arranged at intervals corresponding to the estimated surface shape, according to claim 3 or 4. The information processing device described. 前記出力手段は、前記スケールを示す情報を生成することを特徴とする、請求項1乃至5の何れか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, wherein the output means generates information indicating the scale. 前記スケールを示す情報に基づいて前記スケールを印刷する印刷手段をさらに備えることを特徴とする、請求項1乃至6の何れか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 6, further comprising a printing means for printing the scale based on the information indicating the scale. 前記第1の評価手段は、前記指定部位における、複数の方向についての表面の曲率を評価し、
前記出力手段は、
複数の方向についての前記表面の曲率の内の最も大きい曲率が第1の閾値以上である場合に、前記スケールを示す情報を出力し、
複数の方向についての前記表面の曲率の内の最も大きい曲率が前記第1の閾値より小さい場合に、警告を出力することを特徴とする、請求項1乃至7の何れか一項に記載の情報処理装置。
The first evaluation means evaluates the curvature of the surface in a plurality of directions at the designated site, and evaluates the curvature of the surface.
The output means
When the largest curvature among the curvatures of the surface in a plurality of directions is equal to or larger than the first threshold value, information indicating the scale is output.
The information according to any one of claims 1 to 7, wherein a warning is output when the largest curvature among the curvatures of the surface in a plurality of directions is smaller than the first threshold value. Processing equipment.
前記第1の評価手段は、前記指定部位における前記表面の曲率に応じた第2の閾値を設定し、
前記出力手段は、前記基準点の間の間隔が前記第2の閾値以下であるスケールを示す情報を出力することを特徴とする、請求項1乃至8の何れか一項に記載の情報処理装置。
The first evaluation means sets a second threshold value according to the curvature of the surface at the designated site.
The information processing apparatus according to any one of claims 1 to 8, wherein the output means outputs information indicating a scale in which the interval between the reference points is equal to or less than the second threshold value. ..
前記出力手段は、前記基準点の間の間隔が前記第2の閾値以下であるスケールを示す情報を出力できない場合、警告を出力することを特徴とする、請求項9に記載の情報処理装置。 The information processing apparatus according to claim 9, wherein the information processing means outputs a warning when the information indicating the scale in which the interval between the reference points is equal to or less than the second threshold value cannot be output. 前記第1の評価手段は、前記指定部位における、複数の方向についての表面の曲率を評価し、複数の方向についての前記表面の曲率の内最も小さい曲率に応じて前記第2の閾値を設定することを特徴とする、請求項9又は10に記載の情報処理装置。 The first evaluation means evaluates the curvature of the surface in a plurality of directions at the designated portion, and sets the second threshold value according to the smallest curvature among the curvatures of the surface in the plurality of directions. The information processing apparatus according to claim 9 or 10. 前記スケールは、前記複数の基準点と、前記複数の基準点によって挟まれた開口部又は切り取り領域と、を有するシートであることを特徴とする、請求項1乃至2の何れか一項に記載の情報処理装置。 The scale according to any one of claims 1 and 2, wherein the scale is a sheet having the plurality of reference points and an opening or a cut area sandwiched between the plurality of reference points. Information processing equipment. 前記スケールを示す情報は、前記スケールの画像、前記スケールの識別情報、前記スケールが有する基準点の行の数、前記基準点の行に含まれる基準点の数、前記基準点の行の間の距離、又は前記基準点の行に含まれる基準点の間の距離、の内の1つ以上を含むことを特徴とする、請求項1乃至12の何れか一項に記載の情報処理装置。 The information indicating the scale is between the image of the scale, the identification information of the scale, the number of rows of the reference point that the scale has, the number of reference points included in the row of the reference point, and the rows of the reference point. The information processing apparatus according to any one of claims 1 to 12, wherein the information processing apparatus includes one or more of the distances or the distances between the reference points included in the line of the reference points. 表示装置に表示された前記対象物の画像上での、前記対象物の指定部位を示すユーザ入力を取得する第3の取得手段をさらに備えることを特徴とする、請求項1乃至13の何れか一項に記載の情報処理装置。 Any of claims 1 to 13, further comprising a third acquisition means for acquiring a user input indicating a designated portion of the object on an image of the object displayed on the display device. The information processing device according to paragraph 1. 2つ以上の前記指定部位の位置関係を評価する第2の評価手段をさらに備え、
前記出力手段は、前記位置関係に応じて、前記2つ以上の前記指定部位のそれぞれに取り付けられる2つ以上のスケールを示す情報を出力するか、前記2つ以上の前記指定部位に跨って取り付けられる1つのスケールを示す情報を出力するか、を切り替えることを特徴とする、請求項1乃至14の何れか一項に記載の情報処理装置。
Further provided with a second evaluation means for evaluating the positional relationship of two or more of the designated parts,
The output means outputs information indicating two or more scales attached to each of the two or more designated parts, or is attached across the two or more designated parts, depending on the positional relationship. The information processing apparatus according to any one of claims 1 to 14, characterized in that information indicating one scale is output or switched.
対象物の3次元形状データを表示する第1の表示手段と、
前記表示された3次元形状データ上においてユーザにより指定された指定部位の表面形状に応じて、前記指定部位における表面の向きを推定するために前記対象物の前記指定部位に配置されるスケールの表示を切り替える第2の表示手段と、を備え、
前記スケールは、前記表面形状に対応する間隔で配置された複数の基準点を有することを特徴とする情報処理装置。
The first display means for displaying the three-dimensional shape data of the object,
Display of a scale arranged at the designated part of the object in order to estimate the orientation of the surface at the designated part according to the surface shape of the designated part designated by the user on the displayed three-dimensional shape data. With a second display means to switch between
The scale is an information processing apparatus having a plurality of reference points arranged at intervals corresponding to the surface shape.
請求項1乃至15の何れか1項に記載の情報処理装置と、
撮影装置による、前記スケールが前記指定部位に取り付けられた前記対象物の撮影画像に基づいて、前記対象物の前記指定部位の第1の色と、前記指定部位における前記対象物の表面の向きと、を示す情報を取得する手段と、
前記指定部位における前記対象物の表面の向き、並びに前記指定部位に対する光源及び前記撮影装置の位置に応じた、前記対象物の基準となる色である第2の色を示す情報を取得する手段と、
前記第2の色に基づいて前記第1の色を分析する手段と、
を備える分析装置と、
を備えることを特徴とする分析システム。
The information processing apparatus according to any one of claims 1 to 15.
Based on the photographed image of the object whose scale is attached to the designated portion by the photographing apparatus, the first color of the designated portion of the object and the orientation of the surface of the object at the designated portion. As a means of obtaining information indicating,
A means for acquiring information indicating a second color, which is a reference color of the object, according to the orientation of the surface of the object at the designated portion and the positions of the light source and the photographing apparatus with respect to the designated portion. ,
A means for analyzing the first color based on the second color, and
An analyzer equipped with
An analysis system characterized by being equipped with.
情報処理装置が行う情報処理方法であって、
対象物の形状データを取得する工程と、
表示された前記形状データにおいて指定された指定部位における表面形状を推定する工程と、
前記指定部位における表面の向きを推定するために前記対象物の前記指定部位に配置されるスケールであって、前記推定された表面形状に対応する間隔で配置された複数の基準点を有するスケールを示す情報を出力する工程と、
を備えることを特徴とする情報処理方法。
It is an information processing method performed by an information processing device.
The process of acquiring the shape data of the object and
The process of estimating the surface shape at the designated part specified in the displayed shape data, and
A scale arranged at the designated part of the object in order to estimate the orientation of the surface at the designated part, and has a plurality of reference points arranged at intervals corresponding to the estimated surface shape. The process of outputting the information to be shown and
An information processing method characterized by being provided with.
コンピュータを、請求項1乃至16の何れか一項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 16.
JP2019152168A 2019-08-22 2019-08-22 Information processing equipment, information processing method, analysis system, and program Pending JP2021033576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019152168A JP2021033576A (en) 2019-08-22 2019-08-22 Information processing equipment, information processing method, analysis system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019152168A JP2021033576A (en) 2019-08-22 2019-08-22 Information processing equipment, information processing method, analysis system, and program

Publications (1)

Publication Number Publication Date
JP2021033576A true JP2021033576A (en) 2021-03-01

Family

ID=74678222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019152168A Pending JP2021033576A (en) 2019-08-22 2019-08-22 Information processing equipment, information processing method, analysis system, and program

Country Status (1)

Country Link
JP (1) JP2021033576A (en)

Similar Documents

Publication Publication Date Title
US9088673B2 (en) Image registration
US7313266B2 (en) Pose estimation method and apparatus
CN109426835B (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JPWO2020179065A1 (en) Image processing equipment, image processing methods and programs
US20140204120A1 (en) Image processing device and image processing method
US9390310B2 (en) Striped pattern image examination support device, striped pattern image examination support method and program
WO2014045508A1 (en) Inspection device, inspection method, and inspection program
US11544875B2 (en) Image processing apparatus, image processing method, and storage medium
JP2019185730A (en) Image processing device, image processing method, and program
US20090285457A1 (en) Detection of Organ Area Corresponding to Facial Organ Image in Image
JP6399840B2 (en) Image processing apparatus, image processing method, and program
JP4001162B2 (en) Image processing method, image processing program and storage medium therefor, and image processing apparatus
US9756220B2 (en) Image data generating apparatus, printer, image data generating method, and non-transitory computer readable medium for extracting one or more pixels corresponding to a metallic-color region
JP6127465B2 (en) Information processing apparatus, information processing system, and program
JP2016206909A (en) Information processor, and information processing method
WO2024192102A1 (en) Systems and methods for splat filling a three-dimensional image using semi-measured data
JP2021033576A (en) Information processing equipment, information processing method, analysis system, and program
CN114202665A (en) A kind of image similarity determination method and apparatus, equipment, storage medium
US20120257803A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable storage medium
US11557056B2 (en) Image-capturing control apparatus, image-capturing control method, and storage medium for evaluating appearance of object
JP7271202B2 (en) INFORMATION GENERATING DEVICE, CONTROL METHOD AND PROGRAM THEREOF
US11380032B2 (en) Image information processing apparatus, method and non-transitory computer readable medium storing program
KR20230098782A (en) System and method for reconstructing 3D object using neural network
WO2019188315A1 (en) Image processing device, image processing method, and program
JP4792117B2 (en) Document image processing apparatus, document image processing method, and document image processing program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113