[go: up one dir, main page]

JP2018205030A - Distance measuring device, distance measurement method, and distance measuring program - Google Patents

Distance measuring device, distance measurement method, and distance measuring program Download PDF

Info

Publication number
JP2018205030A
JP2018205030A JP2017108180A JP2017108180A JP2018205030A JP 2018205030 A JP2018205030 A JP 2018205030A JP 2017108180 A JP2017108180 A JP 2017108180A JP 2017108180 A JP2017108180 A JP 2017108180A JP 2018205030 A JP2018205030 A JP 2018205030A
Authority
JP
Japan
Prior art keywords
pixel
luminance
weight
predetermined position
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017108180A
Other languages
Japanese (ja)
Other versions
JP6855938B2 (en
Inventor
由樹雄 平井
Yukio Hirai
由樹雄 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017108180A priority Critical patent/JP6855938B2/en
Publication of JP2018205030A publication Critical patent/JP2018205030A/en
Application granted granted Critical
Publication of JP6855938B2 publication Critical patent/JP6855938B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 高精度に距離測定を行うことができる距離測定装置、距離測定方法および距離測定プログラムを提供する。【解決手段】 距離測定装置は、参照パターンが照射された対象物からの反射光から取得された対象物画像と、参照画像とからそれぞれ抽出したブロック同士をマッチングするマッチング部と、前記マッチングに際して、前記対象物画像から抽出したブロックにおいて、所定位置の画素の輝度に応じて、前記輝度と当該画素以外の画素の輝度との輝度差に応じた各画素の重みを可変とし、前記所定位置の画素と当該画素以外の画素との空間位置差に応じた各画素の重みを可変とする可変部と、前記マッチング部のマッチング結果に基づいて、前記対象物画像と前記参照画像との画素ずれ量を検出する検出部と、前記画素ずれ量から、前記参照パターンの発光位置または前記対象物画像の撮影位置と前記対象物との距離を算出する距離算出部と、を備える。【選択図】 図5PROBLEM TO BE SOLVED: To provide a distance measuring device, a distance measuring method and a distance measuring program capable of measuring a distance with high accuracy. A distance measuring device includes: a matching unit that matches blocks extracted from a target image acquired from reflected light from a target irradiated with a reference pattern and a reference image; In the block extracted from the object image, the weight of each pixel according to the luminance difference between the luminance and the luminance of a pixel other than the pixel is variable according to the luminance of the pixel at the predetermined position, and the pixel at the predetermined position And a variable unit that varies the weight of each pixel according to a spatial position difference between the pixel and a pixel other than the pixel, and a pixel shift amount between the object image and the reference image based on a matching result of the matching unit A detection unit for detecting, a distance calculation unit for calculating a distance between the light emission position of the reference pattern or the shooting position of the object image and the object from the pixel shift amount; Is provided. [Selection] Figure 5

Description

本件は、距離測定装置、距離測定方法および距離測定プログラムに関する。   This case relates to a distance measuring device, a distance measuring method, and a distance measuring program.

カメラで取得した画像を基に、対象物までの距離を測定する技術が望まれている。そこで、例えば、複数のカメラを用いてステレオマッチングする技術が開示されている(例えば、特許文献1,2参照)。   A technique for measuring the distance to an object based on an image acquired by a camera is desired. Thus, for example, a technique for stereo matching using a plurality of cameras is disclosed (for example, see Patent Documents 1 and 2).

特開2003−269917号公報JP 2003-269917 A 特開2003−150940号公報JP 2003-150940 A

しかしながら、上記技術では、複数のカメラが取得した対象物の複数の画像同士を比較することから、対象物の形状、反射率などの影響が小さくなる。一方、対象物からの反射光から得られる画像と、予め定めておいた参照画像との比較を行うマッチングにおいては、対象物からの反射光において、対象物の形状、反射率などの影響が大きくなってしまう。それにより、正確な距離測定を行うことが困難となる。   However, in the above technique, since a plurality of images of the object acquired by a plurality of cameras are compared, influences such as the shape of the object and the reflectance are reduced. On the other hand, in the matching that compares the image obtained from the reflected light from the object with a predetermined reference image, the reflected light from the object is greatly affected by the shape of the object and the reflectance. turn into. This makes it difficult to perform accurate distance measurement.

1つの側面では、本発明は、距離測定を行うことができる距離測定装置、距離測定方法および距離測定プログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide a distance measuring device, a distance measuring method, and a distance measuring program capable of performing distance measurement.

1つの態様では、距離測定装置は、参照パターンが照射された対象物からの反射光から取得された対象物画像と、参照画像とからそれぞれ抽出したブロック同士をマッチングするマッチング部と、前記マッチングに際して、前記対象物画像から抽出したブロックにおいて、所定位置の画素の輝度に応じて、前記輝度と当該画素以外の画素の輝度との輝度差に応じた各画素の重みを可変とし、前記所定位置の画素と当該画素以外の画素との空間位置差に応じた各画素の重みを可変とする可変部と、前記マッチング部のマッチング結果に基づいて、前記対象物画像と前記参照画像との画素ずれ量を検出する検出部と、前記画素ずれ量から、前記参照パターンの発光位置または前記対象物画像の撮影位置と前記対象物との距離を算出する距離算出部と、を備える。   In one aspect, the distance measuring device includes a matching unit that matches blocks extracted from the object image acquired from the reflected light from the object irradiated with the reference pattern and the reference image, and the matching process. In the block extracted from the object image, the weight of each pixel according to the luminance difference between the luminance and the luminance of the pixels other than the pixel is variable according to the luminance of the pixel at the predetermined position, and A variable unit that varies the weight of each pixel according to a spatial position difference between a pixel and a pixel other than the pixel, and a pixel shift amount between the object image and the reference image based on a matching result of the matching unit And a distance calculation unit that calculates a distance between the light emission position of the reference pattern or the shooting position of the object image and the object from the pixel shift amount. , Comprising a.

距離測定を行うことができる。   Distance measurement can be performed.

(a)および(b)は距離測定技術の概略を表す図である。(A) And (b) is a figure showing the outline of a distance measurement technique. 距離測定技術の概略を表す図である。It is a figure showing the outline of a distance measurement technique. (a)および(b)は距離測定技術の概略を表す図である。(A) And (b) is a figure showing the outline of a distance measurement technique. 距離測定装置のハードウェア構成を例示するブロック図である。It is a block diagram which illustrates the hardware constitutions of a distance measuring device. 距離測定装置の機能ブロック図である。It is a functional block diagram of a distance measuring device. 距離測定の対象物およびマッチング対象のブロックについて例示する図である。It is a figure which illustrates about the object of distance measurement, and the block of matching object. (a)〜(d)は輝度差に応じた重みについて例示する図である。(A)-(d) is a figure illustrated about the weight according to a luminance difference. (a)および(b)は空間位置差に応じた重みについて例示する図である。(A) And (b) is a figure which illustrates about the weight according to the spatial position difference. (a)〜(e)はガウシアンの重み幅について例示する図である。(A)-(e) is a figure illustrated about the weight width of Gaussian. (a)および(b)は空間位置差に応じた重みについて例示する図である。(A) And (b) is a figure which illustrates about the weight according to the spatial position difference. フローチャートを例示する図である。It is a figure which illustrates a flowchart. (a)〜(c)はブロックマッチングの際に画素に重みを設定した場合の画素ずれ量の検出結果を例示する図である。(A)-(c) is a figure which illustrates the detection result of the pixel shift | offset | difference amount at the time of setting a weight to a pixel in the case of block matching. 実施例2に係る距離測定装置の機能ブロック図である。6 is a functional block diagram of a distance measuring device according to Embodiment 2. FIG. 3値化処理を例示する図である。It is a figure which illustrates ternary processing. 3値化処理を例示する図である。It is a figure which illustrates ternary processing. 縦長ブロックおよび横長ブロックについて例示する図である。It is a figure illustrated about a vertically long block and a horizontally long block. 3値化処理を例示する図である。It is a figure which illustrates ternary processing. 3値化処理を例示する図である。It is a figure which illustrates ternary processing.

実施例の説明に先立って、三角測量を用いた距離測定について説明する。   Prior to the description of the examples, distance measurement using triangulation will be described.

図1(a)および図1(b)で例示するように、例えば、距離測定技術において、測定装置に備わる発光装置201が赤外線(IR)の参照パターンを対象物に照射し、測定装置に備わるIRカメラ202が対象物から反射した光を受光することで、対象物画像を取得する。   As illustrated in FIG. 1A and FIG. 1B, for example, in a distance measurement technique, a light emitting device 201 provided in a measurement device irradiates an object with an infrared (IR) reference pattern and is provided in the measurement device. The IR camera 202 receives the light reflected from the object, thereby acquiring the object image.

測定装置と対象物との距離が変化すると、三角測量の原理により、対象物画像と参照画像との間で画素ずれ量が変化する。参照画像とは、IRカメラ202のセンサ面に平行で発光装置201からの距離が規定値に定められた平面に対して参照パターンが照射された場合にIRカメラ202が予め得ておいた画像のことである。対象物画像と参照画像との間で同じ大きさのブロック同士のマッチングを行って画素ずれ量を検出することで、測定装置と対象物との距離を測定することができる。画素ずれ量は、ブロックマッチングにより、対象物画像と参照画像とで同じパターンを探索することで検出することができる。   When the distance between the measuring device and the object changes, the pixel shift amount changes between the object image and the reference image according to the principle of triangulation. The reference image is an image obtained in advance by the IR camera 202 when a reference pattern is irradiated onto a plane parallel to the sensor surface of the IR camera 202 and having a distance from the light emitting device 201 set to a specified value. That is. The distance between the measuring device and the object can be measured by matching the blocks of the same size between the object image and the reference image and detecting the pixel shift amount. The pixel shift amount can be detected by searching for the same pattern in the object image and the reference image by block matching.

通常のステレオマッチングでは、視差がある2個のカメラの画像同士を比較しているため、概略形状が同じものを探索していることになる。これに対して、参照パターンの反射光を受光する方式では、参照画像は平面を表しているが、対象物が平面であるとは限らない。例えば、対象物の大きさや幅は一定ではない。また、反射率も、距離や材質により変わる。そのため、反射光の輝度が低くなる領域もある。ブロックマッチングを行うためにはブロックがある程度の大きさを有していることが好ましいが、ブロック内に輝度が低く幅が狭い領域が含まれその周辺の輝度が高い領域が含まれていると、マッチング精度が劣化する。   In normal stereo matching, images from two cameras with parallax are compared with each other. On the other hand, in the method of receiving the reflected light of the reference pattern, the reference image represents a plane, but the object is not necessarily a plane. For example, the size and width of the object are not constant. Also, the reflectivity varies depending on the distance and material. For this reason, there is a region where the brightness of the reflected light is lowered. In order to perform block matching, it is preferable that the block has a certain size, but if the block includes an area with low brightness and a narrow width, and an area with high brightness around it, Matching accuracy deteriorates.

例えば、椅子の背もたれに対して、取手の部分は、幅が狭くかつ黒っぽい色を有して反射輝度が低くなることがある。したがって、椅子の距離を測定する場合、幅が狭い取手の部分でSN比が劣化することになり、マッチング精度が劣化することがある。次に、マッチング精度の劣化について詳細に説明する。   For example, with respect to the back of the chair, the handle portion may have a narrow and blackish color with low reflected brightness. Therefore, when measuring the distance of the chair, the SN ratio is deteriorated at the handle portion having a narrow width, and the matching accuracy may be deteriorated. Next, degradation of matching accuracy will be described in detail.

図2は、参照画像と対象物画像との画素ずれについて説明するための図である。本来は位置を特定するために、唯一無二のランダムパターンを用いるが、説明の簡略化のために、格子点状の円形パターンを示している(その後の図3等も同様)。図2の例では、参照パターンは、格子点状に円形パターン(ドットパターン)を含んでいる。図2で例示するように、平行面203が当該平行を維持したまま測定装置に向かって移動したとする。この場合、平行面203からの反射によって得られる受光パターン204の配置が平行にずれるため、各円形パターンの画素ずれ量は略同じである。したがって、マッチング精度の劣化が抑制される。   FIG. 2 is a diagram for explaining a pixel shift between the reference image and the object image. Originally, a unique random pattern is used to specify the position, but for the sake of simplicity of description, a lattice-point circular pattern is shown (the same applies to FIG. 3 and the like thereafter). In the example of FIG. 2, the reference pattern includes a circular pattern (dot pattern) in a lattice point shape. As illustrated in FIG. 2, it is assumed that the parallel surface 203 moves toward the measuring device while maintaining the parallelism. In this case, since the arrangement of the light receiving patterns 204 obtained by reflection from the parallel plane 203 is shifted in parallel, the pixel shift amounts of the circular patterns are substantially the same. Therefore, deterioration of matching accuracy is suppressed.

これに対して、図3(a)で例示するように、平行面203よりもIRカメラ202側に幅が狭い部品205が配置されているとする。部品205は、IRカメラ202と平行面203との間に配置されていると、IRカメラ202が取得する画像において、平行面203と部品205とが重なるようになる。IRカメラ202が取得する画像の一部であるブロック206より部品205の幅が狭いと、ブロック206内において平行面203と部品205とが重なる。IRカメラ202と平行面203との距離と、IRカメラ202と部品205との距離とが異なることから、図3(b)で例示するように、ブロック206において、平行面203からの反射によって得られる受光パターンと部品205からの反射によって得られる受光パターンとの間で、画素ずれ量が異なるようになる。すなわち、各円形パターンの画素ずれ量が異なるようになる。この場合、参照画像に対する画素ずれ量の特定が困難になるため、マッチング精度が劣化する。特に、マッチングにおいては高い輝度の情報が優先されるため、部品205からの反射光の輝度が低いと、マッチング精度の劣化が顕著となる。   On the other hand, as illustrated in FIG. 3A, it is assumed that a part 205 having a narrower width is arranged on the IR camera 202 side than the parallel plane 203. When the component 205 is disposed between the IR camera 202 and the parallel plane 203, the parallel plane 203 and the component 205 overlap in an image acquired by the IR camera 202. If the width of the component 205 is narrower than the block 206 that is a part of the image acquired by the IR camera 202, the parallel surface 203 and the component 205 overlap in the block 206. Since the distance between the IR camera 202 and the parallel plane 203 is different from the distance between the IR camera 202 and the component 205, the distance from the parallel plane 203 is obtained in the block 206 as illustrated in FIG. 3B. The amount of pixel shift differs between the received light pattern and the received light pattern obtained by reflection from the component 205. That is, the pixel shift amount of each circular pattern is different. In this case, it becomes difficult to specify the amount of pixel shift with respect to the reference image, so that the matching accuracy deteriorates. In particular, since high-luminance information is given priority in matching, when the luminance of reflected light from the component 205 is low, the matching accuracy is significantly deteriorated.

そこで、以下の実施例では、画素ずれ量の検出精度を向上させることで高精度に距離測定を行うことができる距離測定装置、距離測定方法および距離測定プログラムについて説明する。   Therefore, in the following embodiments, a distance measurement device, a distance measurement method, and a distance measurement program that can perform distance measurement with high accuracy by improving the detection accuracy of the pixel shift amount will be described.

図4は、距離測定装置100のハードウェア構成を例示するブロック図である。図4で例示するように、距離測定装置100は、CPU101、RAM102、記憶装置103、表示装置104、発光装置105、撮影装置106などを備える。これらの各機器は、バスなどによって接続されている。   FIG. 4 is a block diagram illustrating a hardware configuration of the distance measuring apparatus 100. As illustrated in FIG. 4, the distance measuring device 100 includes a CPU 101, a RAM 102, a storage device 103, a display device 104, a light emitting device 105, a photographing device 106, and the like. Each of these devices is connected by a bus or the like.

CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。表示装置104は、液晶ディスプレイ、エレクトロルミネッセンスパネル等であり、距離測定の結果などを表示する。発光装置105は、距離測定の対象物に対して参照パターンを照射する装置であり、例えば、赤外線照射装置である。参照パターンは、一例としてランダムなドットパターンなどである。撮影装置106は、対象物からの反射光を受光することで画像を生成する装置であり、例えば、IRカメラである。   A CPU (Central Processing Unit) 101 is a central processing unit. The CPU 101 includes one or more cores. A RAM (Random Access Memory) 102 is a volatile memory that temporarily stores programs executed by the CPU 101, data processed by the CPU 101, and the like. The storage device 103 is a nonvolatile storage device. As the storage device 103, for example, a ROM (Read Only Memory), a solid state drive (SSD) such as a flash memory, a hard disk driven by a hard disk drive, or the like can be used. The display device 104 is a liquid crystal display, an electroluminescence panel, or the like, and displays a distance measurement result or the like. The light-emitting device 105 is a device that irradiates a reference pattern to an object for distance measurement, and is, for example, an infrared irradiation device. An example of the reference pattern is a random dot pattern. The imaging device 106 is a device that generates an image by receiving reflected light from an object, and is, for example, an IR camera.

図5は、距離測定装置100の機能ブロック図である。図5で例示するように、CPU101が距離測定プログラムを実行することによって、距離測定装置100内に、ブロック抽出部10、評価関数算出部20、最小値算出部30、画素検出部40、距離算出部50などが実現される。これらの各機能は、専用の回路などのハードウェアで実現されてもよい。   FIG. 5 is a functional block diagram of the distance measuring device 100. As illustrated in FIG. 5, when the CPU 101 executes the distance measurement program, the block extraction unit 10, the evaluation function calculation unit 20, the minimum value calculation unit 30, the pixel detection unit 40, and the distance calculation are included in the distance measurement device 100. The unit 50 and the like are realized. Each of these functions may be realized by hardware such as a dedicated circuit.

図6は、距離測定の対象物60およびマッチング対象のブロック70について例示する図である。ブロック70は、撮影装置106が取得する画像の一部である。図6で例示するように、対象物60は、例えば、発光装置105の光軸に垂直で撮影装置106のセンサ面に対して平行な平行面61と、平行面61よりも撮影装置106側に配置された部品62とを備えている。部品62は、撮影装置106と平行面61との間に配置されている。図6の例では、撮影装置106のセンサ面をなす互いに直交する軸をX軸およびY軸とする。X軸は、発光装置105と撮影装置106とを結ぶ線の方向である。Z軸は、X軸およびY軸と直交する軸である。図6の例では、Z軸は、撮影装置106と対象物60との距離方向を表している。また、部品62は、X軸方向に長手方向を有し、Y軸方向の幅が狭くなっている。それにより、部品62のY軸方向の幅は、ブロック70のY軸方向の幅よりも狭くなっている。この場合、ブロック70において、平行面61と部品62とが重なるようになる。   FIG. 6 is a diagram illustrating the object 60 for distance measurement and the block 70 to be matched. A block 70 is a part of an image acquired by the imaging device 106. As illustrated in FIG. 6, the object 60 includes, for example, a parallel surface 61 that is perpendicular to the optical axis of the light emitting device 105 and parallel to the sensor surface of the imaging device 106, and closer to the imaging device 106 than the parallel surface 61. And an arranged part 62. The component 62 is disposed between the imaging device 106 and the parallel surface 61. In the example of FIG. 6, the axes orthogonal to each other forming the sensor surface of the imaging device 106 are defined as an X axis and a Y axis. The X axis is the direction of a line connecting the light emitting device 105 and the photographing device 106. The Z axis is an axis orthogonal to the X axis and the Y axis. In the example of FIG. 6, the Z axis represents the distance direction between the imaging device 106 and the object 60. The component 62 has a longitudinal direction in the X-axis direction and a narrow width in the Y-axis direction. Thereby, the width of the component 62 in the Y-axis direction is narrower than the width of the block 70 in the Y-axis direction. In this case, the parallel surface 61 and the component 62 overlap in the block 70.

続いて、距離測定装置100の動作について説明する。ブロック抽出部10は、撮影装置106から対象物画像を取得する。次に、ブロック抽出部10は、対象物画像において、対象画素位置を含むブロック70を抽出する。次に、ブロック抽出部10は、データベースなどに格納されている参照画像を取得する。本実施例においては、参照画像とは、撮影装置106のセンサ面に平行で発光装置105からの距離が規定値に定められた平面に対して参照パターンが照射された場合に撮影装置106が予め得ておいた画像のことである。次に、ブロック抽出部10は、参照画像において、ブロック70に対応する範囲を参照ブロックとして抽出する。   Subsequently, the operation of the distance measuring apparatus 100 will be described. The block extraction unit 10 acquires an object image from the imaging device 106. Next, the block extraction unit 10 extracts a block 70 including the target pixel position in the target object image. Next, the block extraction unit 10 acquires a reference image stored in a database or the like. In the present embodiment, the reference image refers to the image capturing apparatus 106 in advance when the reference pattern is irradiated onto a plane that is parallel to the sensor surface of the image capturing apparatus 106 and whose distance from the light emitting apparatus 105 is set to a specified value. It is the image that I got. Next, the block extraction unit 10 extracts a range corresponding to the block 70 as a reference block in the reference image.

次に、評価関数算出部20は、ブロック70と参照ブロックとに対して、評価関数を算出する。評価関数として、例えば、マッチングの両対象の輝度値分布の類似度を表す概念を用いることができる。本実施例においては、一例として、差分二乗和、差分絶対和、相関係数正規化等の、輝度値分布の類似度が高いと小さい値となる評価関数を用いる。   Next, the evaluation function calculation unit 20 calculates an evaluation function for the block 70 and the reference block. As the evaluation function, for example, a concept representing the similarity between the luminance value distributions of both objects of matching can be used. In this embodiment, as an example, an evaluation function that has a small value when the similarity of the luminance value distribution is high, such as a sum of squared differences, an absolute sum of differences, or a correlation coefficient normalization, is used.

次に、最小値算出部30は、ブロック抽出部10および評価関数算出部20の動作の繰り返しにおいて、評価関数算出部20が算出した評価関数の最小値を算出する。画素検出部40は、最小値算出部30が算出した最小値から得られる画素ずれ量を検出する。   Next, the minimum value calculation unit 30 calculates the minimum value of the evaluation function calculated by the evaluation function calculation unit 20 in the repetition of the operations of the block extraction unit 10 and the evaluation function calculation unit 20. The pixel detection unit 40 detects a pixel shift amount obtained from the minimum value calculated by the minimum value calculation unit 30.

以上の動作が対象画素位置を含む探索範囲(参照画像においてブロックを含む所定範囲)の全てにおいて繰り返される。画素検出部40は、最小値算出部30によって最後に算出された最小値から画素ずれ量を検出する。次に、距離算出部50は、画素検出部40によって検出された画素ずれ量を距離に換算する。例えば、三角測量を用いることができる。   The above operation is repeated in the entire search range including the target pixel position (a predetermined range including a block in the reference image). The pixel detection unit 40 detects a pixel shift amount from the minimum value calculated last by the minimum value calculation unit 30. Next, the distance calculation unit 50 converts the pixel shift amount detected by the pixel detection unit 40 into a distance. For example, triangulation can be used.

以上の動作が、全ての画素を対象として繰り返される。全ての画素に対して距離を求めることで、対象物60の各部と撮影装置106との距離を求めることができるとともに、対象物60の形状を求めることができる。   The above operation is repeated for all pixels. By obtaining distances for all the pixels, it is possible to obtain distances between the respective parts of the object 60 and the imaging device 106 and to obtain the shape of the object 60.

続いて、評価関数算出部20の動作の詳細について説明する。図7(a)は、ブロック抽出部10が抽出したブロック70を例示する図である。図7(a)の例では、Y軸方向の中心領域Cに部品62が位置し、Y軸方向の上部領域Uと下部領域Lとに平行面61が位置している。図7(a)で例示するように、平行面61と部品62の位置が異なっていることから、平行面61と部品62とが重なるブロック70において、平行面61と部品62との間で、ドットのX軸方向の画素ずれ量が異なっている。なお、パターンマッチングには、マッチング対象のブロック70がある程度の大きさの領域を有していることが好ましい。しかしながら、ブロックサイズが大きいと、図7(a)のブロック70のように平行面61と部品62とで画素ずれ量が異なることから、画素ずれ量にバラツキが生じて特定することができず、マッチング精度が劣化する。特に、部品62からの反射光の輝度値が平行面61からの反射光の輝度値よりも低い場合には、当該マッチング精度の劣化が顕著となる。   Next, details of the operation of the evaluation function calculation unit 20 will be described. FIG. 7A is a diagram illustrating a block 70 extracted by the block extraction unit 10. In the example of FIG. 7A, the component 62 is located in the center area C in the Y-axis direction, and the parallel plane 61 is located in the upper area U and the lower area L in the Y-axis direction. As illustrated in FIG. 7A, since the positions of the parallel surface 61 and the component 62 are different, in the block 70 where the parallel surface 61 and the component 62 overlap, between the parallel surface 61 and the component 62, The amount of pixel shift in the X-axis direction of dots is different. For pattern matching, it is preferable that the matching target block 70 has an area of a certain size. However, if the block size is large, the amount of pixel shift differs between the parallel surface 61 and the component 62 as in the block 70 of FIG. 7A, and therefore the pixel shift amount varies and cannot be specified. Matching accuracy deteriorates. In particular, when the luminance value of the reflected light from the component 62 is lower than the luminance value of the reflected light from the parallel surface 61, the matching accuracy is significantly deteriorated.

そこで、評価関数算出部20は、評価関数の算出に際して、輝度差に応じて各画素の重みを変更する。例えば、評価関数算出部20は、評価関数の算出に際して、輝度差が大きい画素の情報の重みを小さくする。まず、図7(b)で例示するように、部品62が黒っぽい色を有していることで、中心領域Cの輝度が閾値未満に低くなっているものとする。図7(b)の網掛け部分は、輝度が低いことを表している。網掛けが無い部分は、輝度が高いことを表している。図7(c)、図7(d)、図8および図10でも同様である。この場合において、ブロック70の中心画素位置Pの輝度をJ(P)とし、中心領域Cの画素位置qaの輝度値をJ(qa)とし、上部領域Uの画素位置qbの輝度値をJ(qb)とする。中心画素位置Pおよび画素位置qaが位置する中心領域Cの輝度は低くなるため、輝度差{J(qa)−J(P)}は小さくなる。一方、上部領域Uの輝度は高くなることから、輝度差{J(qb)−J(P)}は大きくなる。この輝度差が大きい画素の重みを、当該輝度差に応じて小さくする。例えば、輝度差が大きいほど、重みをより小さくする。   Therefore, the evaluation function calculation unit 20 changes the weight of each pixel according to the luminance difference when calculating the evaluation function. For example, when the evaluation function is calculated, the evaluation function calculation unit 20 reduces the information weight of the pixel having a large luminance difference. First, as illustrated in FIG. 7B, it is assumed that the luminance of the central region C is lower than the threshold value because the component 62 has a blackish color. A shaded portion in FIG. 7B indicates that the luminance is low. A portion without shading indicates that the luminance is high. The same applies to FIG. 7C, FIG. 7D, FIG. 8 and FIG. In this case, the luminance at the central pixel position P of the block 70 is J (P), the luminance value at the pixel position qa in the central area C is J (qa), and the luminance value at the pixel position qb in the upper area U is J (P). qb). Since the luminance of the central area C where the central pixel position P and the pixel position qa are located is low, the luminance difference {J (qa) −J (P)} is small. On the other hand, the luminance difference {J (qb) −J (P)} increases because the luminance of the upper region U increases. The weight of a pixel having a large luminance difference is reduced according to the luminance difference. For example, the greater the luminance difference, the smaller the weight.

図7(c)の例では、上部領域Uおよび下部領域Lに部品62が位置し、中心領域Cに平行面61が位置している。それにより、中心領域Cの輝度が高く、上部領域Uおよび下部領域Lの輝度が低くなっている。この場合、本来であれば輝度が高い中心領域Cの情報のみを用いたいため、輝度差が大きい場合に重みを小さくしたい。しかしながら、輝度が大きい中心領域Cでは輝度のバラツキが大きくなるため、輝度差{J(qa)−J(P)}がマイナスになる場合には、重みを緩めることが好ましい。例えば、中心領域Cの輝度が閾値以上である場合、図7(b)の場合と比較して、輝度差に応じて重みを小さくする度合を小さくする。   In the example of FIG. 7C, the component 62 is located in the upper region U and the lower region L, and the parallel surface 61 is located in the center region C. Thereby, the brightness of the central area C is high, and the brightness of the upper area U and the lower area L is low. In this case, since it is originally desired to use only the information of the center region C having high luminance, it is desired to reduce the weight when the luminance difference is large. However, since the variation in luminance increases in the central region C where the luminance is high, it is preferable to loosen the weight when the luminance difference {J (qa) −J (P)} is negative. For example, when the brightness of the central region C is equal to or higher than the threshold value, the degree of weight reduction is reduced according to the brightness difference compared to the case of FIG.

次に、もともと輝度値が高い領域では、輝度値のバラツキが大きくなっている。例えば、平行面61の領域では、輝度値のバラツキが大きくなるものの、いずれの位置においても輝度値が高くなる。この場合には、輝度差が大きくなる画素の重みを小さくしない。図7(d)は、ブロック70に部品62が重なっていない場合を例示する図である。図7(d)の例では、ブロック70のいずれの領域においても輝度値のバラツキが大きいため、輝度差{J(qa)−J(P)}および輝度差{J(qb)−J(P)}の両方とも大きくなる場合がある。しかしながら、中心画素位置Pの輝度J(P)、画素位置qaの輝度値J(qa)および画素位置qbの輝度値J(qb)のいずれも高い値になる。そこで、この場合には、輝度差が大きい画素について重みを小さくしない。例えば、中心画素位置P、画素位置qaおよび画素位置qbのいずれにおいても輝度が閾値以上であれば、画素位置qaおよび画素位置qbのいずれの重みを小さくしない。   Next, in the region where the luminance value is originally high, the variation in the luminance value is large. For example, in the region of the parallel plane 61, although the variation in luminance value increases, the luminance value increases at any position. In this case, the weight of the pixel that increases the luminance difference is not reduced. FIG. 7D is a diagram illustrating a case where the part 62 does not overlap the block 70. In the example of FIG. 7D, since the variation of the luminance value is large in any area of the block 70, the luminance difference {J (qa) −J (P)} and the luminance difference {J (qb) −J (P) )} May be large. However, the luminance J (P) at the center pixel position P, the luminance value J (qa) at the pixel position qa, and the luminance value J (qb) at the pixel position qb all have high values. Therefore, in this case, the weight is not reduced for a pixel having a large luminance difference. For example, if the luminance is equal to or higher than the threshold value in any of the central pixel position P, the pixel position qa, and the pixel position qb, any weight of the pixel position qa and the pixel position qb is not reduced.

また、評価関数算出部20は、評価関数の算出に際して、空間位置差(距離)に応じて重みを変更する。中心画素位置Pと画素位置qaとの距離を||P−qa||とする。中心画素位置Pと画素位置qbとの距離を||P−qa||とする。例えば、評価関数算出部20は、中心画素位置Pに近い画素位置qaよりも、中心画素位置Pから遠い画素位置qbの重みを小さくするように設定されている。すなわち、評価関数算出部20は、中心画素位置Pとの空間位置差が大きい画素ほど、重みを小さくするように設定されている。   In addition, the evaluation function calculation unit 20 changes the weight according to the spatial position difference (distance) when calculating the evaluation function. Let || P-qa || be the distance between the center pixel position P and the pixel position qa. Let || P-qa || be the distance between the center pixel position P and the pixel position qb. For example, the evaluation function calculation unit 20 is set to make the weight of the pixel position qb far from the center pixel position P smaller than the pixel position qa near the center pixel position P. In other words, the evaluation function calculation unit 20 is set so as to decrease the weight of a pixel having a larger spatial position difference from the central pixel position P.

この場合において、中心画素位置Pの輝度値J(P)が低い場合はSN比が低いため、中心画素位置Pよりもより距離(空間位置差)が大きい画素の情報を用いることが好ましい。そこで、評価関数算出部20は、空間位置差が大きい画素の重みを大きくしてもよい。例えば、図8(a)で例示するように、ブロック70の全体の輝度が低い場合には、ブロック70の中心画素位置Pやブロック70の全体が明るい場合と比較して、中心画素位置Pから遠い画素位置qbの重みも大きくする。例えば、中心画素位置P、画素位置qaおよび画素位置qbのいずれにおいても輝度が閾値未満であれば、画素位置qaおよび画素位置qbのいずれの重みを大きくする。なお、図8(b)で例示するように、中心領域の周りが明るい場合は、輝度差により重みを小さくできるので、輝度差による重みと併用することが好ましい。   In this case, since the SN ratio is low when the luminance value J (P) at the central pixel position P is low, it is preferable to use information on a pixel having a larger distance (spatial position difference) than the central pixel position P. Therefore, the evaluation function calculation unit 20 may increase the weight of a pixel having a large spatial position difference. For example, as illustrated in FIG. 8A, when the overall luminance of the block 70 is low, the central pixel position P from the central pixel position P compared to the central pixel position P of the block 70 or the entire block 70 is bright. The weight of the far pixel position qb is also increased. For example, if the luminance is less than the threshold at any of the central pixel position P, the pixel position qa, and the pixel position qb, the weight of any of the pixel position qa and the pixel position qb is increased. Note that, as exemplified in FIG. 8B, when the area around the center region is bright, the weight can be reduced by the luminance difference, and therefore it is preferable to use it together with the weight by the luminance difference.

次に、ガウシアン分布を用いた重みの算出例について説明する。例えば、評価関数算出部20は、細い対象物(部品62)が低SN比の領域で周辺が明るい場合には、輝度の低い領域の情報を適応的に使うために、輝度値を基準に重みを可変とするジョイントバイラテラルを採用してもよい。評価関数算出部20は、空間位置差ガウシアンを用いて、対象となる中心画素位置Pよりも遠い画素位置の重みを、距離に応じたガウシアン分布で低下させる。なお、ガウシアンの幅は、輝度に応じて可変とする。次に、評価関数算出部20は、輝度差ガウシアンを用いて、重みを輝度差に応じたガウシアン分布とする。ガウシアン幅は、輝度に応じて可変とし、輝度が低いほど重みを小さくする。輝度差の符号でも可変とする。   Next, an example of calculating weights using a Gaussian distribution will be described. For example, when the thin object (component 62) is a low SN ratio region and the surrounding area is bright, the evaluation function calculation unit 20 weights on the basis of the luminance value in order to adaptively use the information of the low luminance region. A joint bilateral that can be made variable may be adopted. The evaluation function calculation unit 20 uses the spatial position difference Gaussian to reduce the weight of the pixel position farther from the target center pixel position P with a Gaussian distribution corresponding to the distance. Note that the Gaussian width is variable in accordance with the luminance. Next, the evaluation function calculation unit 20 uses the luminance difference Gaussian and sets the weight to a Gaussian distribution according to the luminance difference. The Gaussian width is variable according to the luminance, and the weight is reduced as the luminance is lower. The sign of the luminance difference is also variable.

例えば、重みは、下記式(1)に従って算出することができる。空間位置差ガウシアンについては、下記式(2)のように表すことができる。輝度差ガウシアンについては、下記式(3)のように表すことができる。なお、下記式(1)のWは、正規化項であり、下記式(4)のように表すことができる。「I」は、対象輝度であり、差分絶対値の平均値である。「J」は輝度の重みとなる基準画像の輝度であり、例えば対象画像に対して5×5画素のローパスフィルタを適用したものである。「P」は中心画素位置である。「q」は要素(s)の各画素位置である。なお、下記式(4)による正規化を行うため、通常のガウシアンの正規化計数(0.5πσ)は、下記式(2)および下記式(3)において省略してある。

Figure 2018205030
Figure 2018205030
Figure 2018205030
Figure 2018205030
For example, the weight can be calculated according to the following formula (1). The spatial position difference Gaussian can be expressed as in the following formula (2). The luminance difference Gaussian can be expressed as the following formula (3). Incidentally, W P of the formula (1) is a normalization term can be expressed as the following equation (4). “I” is the target luminance and is the average value of the absolute differences. “J” is the luminance of the reference image that becomes the luminance weight, and is obtained by applying a low-pass filter of 5 × 5 pixels to the target image, for example. “P” is the center pixel position. “Q” is each pixel position of the element (s). In order to perform normalization according to the following equation (4), the normal Gaussian normalized count (0.5πσ) is omitted in the following equations (2) and (3).
Figure 2018205030
Figure 2018205030
Figure 2018205030
Figure 2018205030

続いて、輝度差ガウシアンおよび空間位置差ガウシアンの幅の例について説明する。図9(a)は、輝度差分が正の場合(中心よりも周辺の輝度が高い場合)の輝度差ガウシアンの重み幅を例示する図である。中心画素位置Pにおける輝度値がMAX輝度値255に対して第1閾値(例えば10)未満である場合は、非常に暗くバラツキも小さい。そこで、輝度差に応じた重み幅を小さくする。中心画素位置Pにおける輝度値がMAX輝度値255に対して第1閾値よりも大きい第2閾値(例えば40)以上である場合は、比較的明るくバラツキも大きい。そこで、輝度差に応じた重み幅を大きくする。第1閾値と第2閾値との間は、段階的に重み幅を変更してもよい。図9(b)は、輝度差分が負の場合(中心よりも周辺の輝度が低い場合)の輝度差ガウシアンの重み幅を例示する図である。輝度差分が正の場合と負の場合とで、正の場合の方が影響を受けやすくなるため、正の場合の重み幅を小さくすることが好ましい。   Subsequently, an example of the widths of the luminance difference Gaussian and the spatial position difference Gaussian will be described. FIG. 9A is a diagram exemplifying the weight width of the luminance difference Gaussian when the luminance difference is positive (in the case where the peripheral luminance is higher than the center). When the luminance value at the center pixel position P is less than the first threshold value (for example, 10) with respect to the MAX luminance value 255, it is very dark and has little variation. Therefore, the weight width corresponding to the luminance difference is reduced. When the luminance value at the center pixel position P is greater than or equal to the second threshold value (for example, 40) larger than the first threshold value with respect to the MAX luminance value 255, the brightness is relatively bright and large. Therefore, the weight width corresponding to the luminance difference is increased. The weight width may be changed stepwise between the first threshold value and the second threshold value. FIG. 9B is a diagram illustrating the weight width of the luminance difference Gaussian when the luminance difference is negative (when the luminance around the center is lower). Since the case where the luminance difference is positive and the case where the luminance difference is positive are more easily affected, it is preferable to reduce the weight width in the case where the luminance difference is positive.

図9(c)は、空間位置差ガウシアンの重み幅を例示する図である。図9(c)で例示するように、中心画素位置Pにおける輝度値がMAX輝度値255に対して第1閾値(例えば20)未満である場合は暗いため、図10(a)で例示するように、ブロックの重みを広く例えば9にする。中心画素位置Pにおける輝度値がMAX輝度値255に対して第1閾値よりも大きい第2閾値(例えば40)以上である場合は、比較的明るいため、図10(b)で例示するように、中心画素位置Pに近い範囲で例えば3にする。第1閾値と第2閾値との間は、段階的に重み幅を変更してもよい。しきい値の段数は増やしてもよい。   FIG. 9C illustrates the weight width of the spatial position difference Gaussian. As illustrated in FIG. 9C, when the luminance value at the center pixel position P is less than the first threshold value (for example, 20) with respect to the MAX luminance value 255, it is dark, so that it is illustrated in FIG. In addition, the block weight is set to 9 for example. When the luminance value at the central pixel position P is equal to or larger than the second threshold value (for example, 40) larger than the first threshold value with respect to the MAX luminance value 255, it is relatively bright, and as illustrated in FIG. For example, 3 is set in a range close to the central pixel position P. The weight width may be changed stepwise between the first threshold value and the second threshold value. The number of threshold levels may be increased.

図9(d)は、重み幅が広い場合と重み幅が狭い場合とを例示する図である。図9(d)において、横軸は周辺輝度と中心輝度との差分を表し、縦軸は重みを表す。図9(d)において、実線が重み幅の広い場合を表し、破線が重み幅の狭い場合を表す。なお、縦軸の重みは、「1」を最大値とする。図9(e)は、輝度差が正の場合と負の場合とで重みを変更する場合を例示する図である。図9(e)においても、横軸は周辺輝度と中心輝度との差分を表し、縦軸は重みを表す。なお、縦軸の重みは、「1」を最大値とする。   FIG. 9D is a diagram illustrating a case where the weight width is wide and a case where the weight width is narrow. In FIG. 9D, the horizontal axis represents the difference between the peripheral luminance and the central luminance, and the vertical axis represents the weight. In FIG. 9D, a solid line represents a case where the weight width is wide, and a broken line represents a case where the weight width is narrow. The weight of the vertical axis is “1” as the maximum value. FIG. 9E is a diagram illustrating a case where the weight is changed between a case where the luminance difference is positive and a case where the luminance difference is negative. Also in FIG. 9E, the horizontal axis represents the difference between the peripheral luminance and the central luminance, and the vertical axis represents the weight. The weight of the vertical axis is “1” as the maximum value.

図11は、図5の各機能の動作を表すフローチャートを例示する図である。まず、ブロック抽出部10は、撮影装置106から対象物画像を取得する。なお、対象物画像は、ローパスフィルタでノイズを除去したものとしてもよい。次に、ブロック抽出部10は、対象物画像の対象画素位置を含むブロックの範囲を抽出する(ステップS1)。   FIG. 11 is a diagram illustrating a flowchart representing the operation of each function of FIG. First, the block extraction unit 10 acquires an object image from the imaging device 106. Note that the object image may be obtained by removing noise with a low-pass filter. Next, the block extraction unit 10 extracts a block range including the target pixel position of the target image (step S1).

次に、ブロック抽出部10は、データベースなどに格納されている参照画像を取得する。次に、ブロック抽出部10は、参照画像においてステップS1で着目した対象画素位置でステップS1と同じブロックの範囲を抽出する(ステップS2)。   Next, the block extraction unit 10 acquires a reference image stored in a database or the like. Next, the block extraction unit 10 extracts the same block range as that in step S1 at the target pixel position focused in step S1 in the reference image (step S2).

次に、評価関数算出部20は、ステップS1で抽出したブロックと、ステップS2で抽出したブロックとに対して、評価関数を算出する(ステップS3)。ステップS3においては、上述したように、重みを設定したうえで評価関数を算出する。ステップS2〜ステップS3は、ステップS1で着目した対象画素位置を含む探索範囲(参照画像においてブロックを含む所定範囲)の全てにおいて繰り返される。   Next, the evaluation function calculation unit 20 calculates an evaluation function for the block extracted in step S1 and the block extracted in step S2 (step S3). In step S3, as described above, an evaluation function is calculated after setting weights. Steps S2 to S3 are repeated in the entire search range (a predetermined range including a block in the reference image) including the target pixel position focused on in Step S1.

次に、最小値算出部30は、ステップS2〜ステップS3の繰り返しにおいて、評価関数算出部20が算出した評価関数の最小値を算出する。画素検出部40は、最小値算出部30が算出した最小値から得られる画素ずれ量を算出する(ステップS4)。   Next, the minimum value calculation unit 30 calculates the minimum value of the evaluation function calculated by the evaluation function calculation unit 20 in the repetition of steps S2 to S3. The pixel detection unit 40 calculates a pixel shift amount obtained from the minimum value calculated by the minimum value calculation unit 30 (step S4).

次に、距離算出部50は、ステップS4で検出された画素ずれ量を距離に換算する(ステップS5)。ステップS1〜ステップS5は、全ての画素を対象として繰り返される。全ての画素に対して距離を求めることで、対象物60の各部と撮影装置106との距離を求めることができるとともに、対象物60の形状を求めることができる。   Next, the distance calculation unit 50 converts the pixel shift amount detected in step S4 into a distance (step S5). Steps S1 to S5 are repeated for all pixels. By obtaining distances for all the pixels, it is possible to obtain distances between the respective parts of the object 60 and the imaging device 106 and to obtain the shape of the object 60.

図12(a)〜図12(c)は、ブロックマッチングの際に画素に重みを設定した場合の画素ずれ量の検出結果を例示する図である。図12(a)は、図9(d)で例示したように、重み幅を広くした場合の検出結果である。すなわち、輝度差に対する重みの変動を緩やかにしてある。この場合、図12(a)において点線の〇で囲ったように、部品62が検出されている。このように、ブロックマッチングの際に画素に重みを設定することで、幅の狭い部品62を検出することができる。ただし、画素ずれ量のバラツキを表すドットも現れているため、誤検出も増える傾向にある。図12(a)において、左側で点線で〇で囲ったように、ドットは左側に現れている。   FIG. 12A to FIG. 12C are diagrams illustrating examples of detection results of pixel shift amounts when weights are set for pixels during block matching. FIG. 12A shows the detection result when the weight width is widened as illustrated in FIG. 9D. That is, the variation of the weight with respect to the luminance difference is moderated. In this case, the component 62 is detected as surrounded by a dotted circle in FIG. In this way, by setting the weight to the pixel at the time of block matching, the narrow part 62 can be detected. However, since dots representing variations in the amount of pixel shift also appear, false detection tends to increase. In FIG. 12A, dots appear on the left side as surrounded by a dotted line on the left side.

次に、図12(b)は、図9(d)で例示した重み幅を狭くした場合の検出結果である。すなわち、輝度差に対する重みの変動を急峻にしてある。この場合、図12(b)において点線の〇で囲ったように、部品62が検出されている。また、画素ずれ量のバラツキを表すドットが現れていない。ただし、部品62が細く検出されているため、部品62の検出精度が図12(a)より低下している。   Next, FIG. 12B shows a detection result when the weight width exemplified in FIG. 9D is narrowed. That is, the variation in weight with respect to the luminance difference is steep. In this case, the part 62 is detected as surrounded by a dotted circle in FIG. Further, no dot representing the variation in the amount of pixel shift appears. However, since the component 62 is detected thinly, the detection accuracy of the component 62 is lower than that in FIG.

次に、図12(c)は、図9(e)で例示したように、輝度差が正の場合と負の場合とで重みを変更した場合の検出結果である。すなわち、輝度差がマイナスになる場合には、重みを緩めてある。この場合、画素ずれ量のバラツキを表すドットが現れていない。まだ、点線の〇で囲ったように、部品26も太く検出されている。したがって、輝度差が正の場合と負の場合とで重みを変更することで、画素ずれ量の検出精度が向上したことがわかる。   Next, FIG. 12C shows detection results when the weight is changed between the case where the luminance difference is positive and the case where the luminance difference is negative, as illustrated in FIG. That is, when the luminance difference is negative, the weight is relaxed. In this case, no dot representing the variation of the pixel shift amount appears. The part 26 is still detected thickly as enclosed by the dotted circle. Therefore, it can be seen that the detection accuracy of the pixel shift amount is improved by changing the weight between the case where the luminance difference is positive and the case where the luminance difference is negative.

本実施例によれば、ブロックマッチングにおいて、中心画素位置Pの輝度に応じて、中心画素位置Pの輝度と周辺画素の輝度との輝度差に応じた重みを可変としてある。この場合、輝度差に起因するマッチング精度の劣化を抑制することができる。例えば、ブロック幅よりも狭くかつ輝度が低くなる領域を検出できるようになる。さらに、中心画素位置Pの輝度に応じて、中心画素位置Pと周辺画素との空間位置差に応じた重みを可変としてある。これにより、例えば、ブロックの全体の輝度が低い場合などにおいても空間位置差が大きい画素の重みを大きくすることで、SN比を大きくすることができる。このように、マッチング精度をより向上させることができる。以上のことから、高精度に距離測定を行うことができる。   According to the present embodiment, in the block matching, the weight according to the luminance difference between the luminance at the central pixel position P and the luminance at the peripheral pixels is made variable according to the luminance at the central pixel position P. In this case, it is possible to suppress the deterioration of matching accuracy due to the luminance difference. For example, it becomes possible to detect an area that is narrower than the block width and has a low luminance. Furthermore, the weight according to the spatial position difference between the center pixel position P and the peripheral pixels is made variable according to the luminance of the center pixel position P. Thus, for example, even when the overall luminance of the block is low, the SN ratio can be increased by increasing the weight of the pixel having a large spatial position difference. In this way, the matching accuracy can be further improved. From the above, distance measurement can be performed with high accuracy.

なお、上記例において、対象物画像から抽出したブロック70の中心画素位置Pを基準位置としたが、それに限られない。例えば、中心画素位置以外の画素位置を、輝度差および空間位置差を算出するための基準位置としてもよい。ただし、基本的に、ブロック70の中心画素を中心にして、ブロックマッチングの範囲を設定することになるため、重みの設定も中心画素を基準とすることが好ましい。中心画素位置から数画素ずれたところを基準位置としてもよいが、もともとの基準の中心位置と微妙に輝度差がずれることが多いので、基本的には中心画素位置を基準位置とすることが望ましい。   In the above example, the center pixel position P of the block 70 extracted from the object image is set as the reference position. However, the present invention is not limited to this. For example, a pixel position other than the central pixel position may be used as a reference position for calculating a luminance difference and a spatial position difference. However, basically, since the block matching range is set with the center pixel of the block 70 as the center, it is preferable that the weight is set with reference to the center pixel. The reference position may be a position shifted by several pixels from the center pixel position. However, since the brightness difference is often slightly different from the original reference center position, it is basically desirable to use the center pixel position as the reference position. .

上述した評価関数として挙げた差分二乗和、差分絶対値和等は、輝度の大きさに応じたずれが大きくなる。相関係数正規化については、処理量が多くなる。そこで、輝度の大きさに応じたずれを抑制するために、隣接画素の輝度差分を算出し、当該差分がプラスの閾値よりも大きい場合に1、マイナスの閾値よりも小さい場合に−1、それ以外を0とすることで、3値化してもよい。これにより、輝度の絶対値の影響を抑制することができる。隣接差分は、X軸方向の差分、Y軸方向の差分、あるいは両者の平均などとすることができる。なお、差分を算出する前に、ローパスフィルタなどでノイズを低減してもよい。   The difference square sum, the difference absolute value sum, and the like given as the evaluation functions described above have large deviations depending on the luminance level. The amount of processing increases for correlation coefficient normalization. Therefore, in order to suppress the deviation according to the magnitude of the brightness, the brightness difference between adjacent pixels is calculated, and 1 when the difference is larger than the positive threshold, -1 when the difference is smaller than the negative threshold, Other values may be set to 0, and ternarization may be performed. Thereby, the influence of the absolute value of luminance can be suppressed. The adjacent difference can be a difference in the X-axis direction, a difference in the Y-axis direction, or an average of both. Note that noise may be reduced with a low-pass filter or the like before the difference is calculated.

図13は、実施例2に係る距離測定装置100aの機能ブロック図である。図5と異なる点は、微分処理部80がさらに備わっている点である。この機能は、CPU101が距離測定プログラムを実行することによって実現される。または、これらの各機能は、専用の回路などのハードウェアで実現されてもよい。   FIG. 13 is a functional block diagram of the distance measuring apparatus 100a according to the second embodiment. A difference from FIG. 5 is that a differentiation processing unit 80 is further provided. This function is realized by the CPU 101 executing a distance measurement program. Alternatively, each of these functions may be realized by hardware such as a dedicated circuit.

例えば、隣接差分のフィルタとして、下記式(5)のようなX軸方向の隣接差分を算出するための行列を適用することができる。

Figure 2018205030
また、隣接差分のフィルタとして、下記式(6)のようなY軸方向の隣接差分を算出するための行列を適用することができる。
Figure 2018205030
また、隣接差分のフィルタとして、下記式(7)または下記式(8)のような斜め方向の隣接差分を算出するための行列を適用することができる。
Figure 2018205030
Figure 2018205030
For example, as an adjacent difference filter, a matrix for calculating an adjacent difference in the X-axis direction such as the following formula (5) can be applied.
Figure 2018205030
Further, as a filter for adjacent difference, a matrix for calculating the adjacent difference in the Y-axis direction as in the following formula (6) can be applied.
Figure 2018205030
Further, as an adjacent difference filter, a matrix for calculating an adjacent difference in an oblique direction such as the following formula (7) or the following formula (8) can be applied.
Figure 2018205030
Figure 2018205030

例えば、図14で例示するように、上記式(7)および上記式(8)の両方の微分画像を用いて、対象物画像を畳み込む。それにより、対象物画像を3値化することができる。例えば、図15で例示するように、微分処理部80は、ローパスフィルタでノイズが除去された対象物画像を上記式(7)で3値化することで得られた微分画像1を、対象物画像として評価関数算出部20に入力する。さらに、微分処理部80は、ローパスフィルタでノイズが除去された対象物画像を上記式(8)で3値化することで得られた微分画像2を、対象物画像として評価関数算出部20に入力する。   For example, as illustrated in FIG. 14, the object image is convoluted using the differential images of both the above formula (7) and the above formula (8). Thereby, the object image can be ternarized. For example, as illustrated in FIG. 15, the differential processing unit 80 converts the differential image 1 obtained by ternarizing the target image from which noise has been removed by the low-pass filter using the above equation (7), to the target The image is input to the evaluation function calculation unit 20 as an image. Furthermore, the differential processing unit 80 uses the differential image 2 obtained by ternarizing the object image from which noise has been removed by the low-pass filter by the above equation (8) as an object image to the evaluation function calculating unit 20. input.

また、微分処理部80は、ローパスフィルタでノイズが除去された参照画像を上記式(7)で3値化した3値化参照画像を1画素ごとシフトし、評価関数算出部20に入力する。さらに、微分処理部80は、ローパスフィルタでノイズが除去された参照画像を上記式(8)で3値化した3値化参照画像を1画素ごとシフトし、評価関数算出部20に入力する。評価関数算出部20は、画素ずれの差分絶対値和を評価関数として算出し、シフト前の最小評価関数よりも最小となる画素位置において、画素ずれシフトと最小評価関数とを順次入れ替えることで、全シフト後(探索範囲内)に全画素位置で評価関数が最小となる画素ずれを算出する。ここでの評価関数の例として、斜め方向の微分3値化に対し、3値化参照画像をシフトし、差分絶対値をとり、斜め方向の2種類の平均をとる。この平均に対して、画素ごとの重みに従って畳み込み処理を行う。その後の処理は、実施例1と同様である。   Further, the differentiation processing unit 80 shifts the ternary reference image obtained by ternizing the reference image from which noise has been removed by the low-pass filter by the above equation (7), for each pixel, and inputs it to the evaluation function calculation unit 20. Furthermore, the differentiation processing unit 80 shifts the ternary reference image obtained by ternizing the reference image from which noise has been removed by the low-pass filter by the above formula (8) for each pixel, and inputs it to the evaluation function calculation unit 20. The evaluation function calculation unit 20 calculates the sum of absolute differences of pixel shifts as an evaluation function, and sequentially replaces the pixel shift and the minimum evaluation function at the pixel position that is minimum than the minimum evaluation function before the shift, After all shifts (within the search range), a pixel shift that minimizes the evaluation function at all pixel positions is calculated. As an example of the evaluation function here, with respect to the differential ternarization in the oblique direction, the ternary reference image is shifted, the difference absolute value is taken, and the two kinds of averages in the oblique direction are taken. A convolution process is performed on the average according to the weight for each pixel. The subsequent processing is the same as in the first embodiment.

本実施例によれば、対象物画像および参照画像を3値化することで、輝度の大きさに起因する評価関数のずれを抑制することができる。また、3値化により、値の種類が低減されることから、処理量が低減される。   According to the present embodiment, by shifting the object image and the reference image into three values, it is possible to suppress a deviation in the evaluation function due to the luminance. Further, the ternarization reduces the types of values, thereby reducing the amount of processing.

上記各例においては、対象物画像から抽出した1つのブロックと、参照画像から抽出した1つのブロックとをマッチングしているが、それに限られない。例えば、図16で例示するように、横長ブロック71および縦長ブロック72を互いに重複させて両方でマッチング処理を行い、良好な結果が得られる方のブロックを用いたマッチング結果を採用してもよい。この場合、図16で例示するように、いずれか一方の方向において対象物60が存在せずに反射光が戻ってこない領域が含まれていても、画素ずれ量を検出することができる。さらに、対象物画像から抽出された横長ブロックおよび縦長ブロックと、参照画像から抽出された横長ブロックおよび縦長ブロックとのマッチングに、実施例1で説明したように各画素に重みを設定することで、マッチング精度が向上する。   In each of the above examples, one block extracted from the object image is matched with one block extracted from the reference image, but the present invention is not limited to this. For example, as illustrated in FIG. 16, the horizontal block 71 and the vertical block 72 may be overlapped with each other to perform matching processing, and a matching result using a block with a better result may be employed. In this case, as illustrated in FIG. 16, the pixel shift amount can be detected even if there is an area where the object 60 does not exist and the reflected light does not return in any one direction. Furthermore, by setting a weight to each pixel as described in the first embodiment for matching between the horizontal block and the vertical block extracted from the object image and the horizontal block and the vertical block extracted from the reference image, Matching accuracy is improved.

例えば、図17および図18で例示するように、3値化処理を行ってもよい。図17および図18で例示するように、図14および図15と異なる点は、評価関数の内容である。例えば、評価関数の例として、斜め方向の微分3値化に対し、3値化参照画像をシフトし、差分絶対値をとり、斜め方向の2種類の平均をとる。この平均に対して、画素ごとの重みに従って横長ブロックおよび縦長ブロックの畳み込み(総和)をそれぞれとり、最小の方を評価関数としてもよい。その後の処理は、実施例1と同様である。   For example, as illustrated in FIGS. 17 and 18, a ternary process may be performed. As illustrated in FIGS. 17 and 18, the difference from FIGS. 14 and 15 is the contents of the evaluation function. For example, as an example of the evaluation function, the ternary reference image is shifted with respect to the differential ternarization in the oblique direction, the difference absolute value is taken, and the two kinds of averages in the oblique direction are taken. For this average, convolution (summation) of the horizontally long block and vertically long block may be taken according to the weight for each pixel, and the smallest one may be used as the evaluation function. The subsequent processing is the same as in the first embodiment.

本実施例によれば、対象物画像および参照画像を3値化することで、輝度の大きさに起因する評価関数のずれを抑制することができる。また、3値化により、値の種類が低減されることから、処理量が低減される。なお、本実施例においては、横方向(X軸方向)に長いブロックと、縦方向(Y軸方向)に長いブロックとを用いたがそれに限られない。撮影装置106のセンサ面に平行な平面において長さ方向が異なる2つのブロックを用いることで、画素ずれ量の検出精度を向上させることができる。   According to the present embodiment, by shifting the object image and the reference image into three values, it is possible to suppress a deviation in the evaluation function due to the luminance. Further, the ternarization reduces the types of values, thereby reducing the amount of processing. In this embodiment, a block that is long in the horizontal direction (X-axis direction) and a block that is long in the vertical direction (Y-axis direction) are used, but the present invention is not limited to this. By using two blocks having different length directions on a plane parallel to the sensor surface of the imaging device 106, it is possible to improve the detection accuracy of the pixel shift amount.

上記各例において、ブロック抽出部10、評価関数算出部20および最小値算出部30が、参照パターンが照射された対象物からの反射光から取得された対象物画像と、参照画像とからそれぞれ抽出したブロック同士をマッチングするマッチング部の一例として機能する。評価関数算出部20が、前記マッチングに際して、前記対象物画像から抽出したブロックにおいて、所定位置の画素の輝度に応じて、前記輝度と当該画素以外の画素の輝度との輝度差に応じた各画素の重みを可変とし、前記所定位置の画素と当該画素以外の画素との空間位置差に応じた各画素の重みを可変とする可変部の一例として機能する。画素検出部40が、前記マッチング部のマッチング結果に基づいて、前記対象物画像と前記参照画像との画素ずれ量を検出する検出部の一例として機能する。距離算出部50が、前記画素ずれ量から、前記参照パターンの発光位置または前記対象物画像の撮影位置と前記対象物との距離を算出する距離算出部の一例として機能する。   In each of the above examples, the block extraction unit 10, the evaluation function calculation unit 20, and the minimum value calculation unit 30 respectively extract the object image acquired from the reflected light from the object irradiated with the reference pattern and the reference image. It functions as an example of a matching unit that matches blocks that have been processed. In the block extracted from the object image by the evaluation function calculation unit 20 in the matching, each pixel according to the luminance difference between the luminance and the luminance of the pixels other than the pixel according to the luminance of the pixel at a predetermined position It functions as an example of a variable unit that makes the weight of each pixel variable according to the spatial position difference between the pixel at the predetermined position and the pixel other than the pixel. The pixel detection unit 40 functions as an example of a detection unit that detects a pixel shift amount between the object image and the reference image based on the matching result of the matching unit. The distance calculation unit 50 functions as an example of a distance calculation unit that calculates the distance between the light emission position of the reference pattern or the shooting position of the target object image and the target object from the pixel shift amount.

以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. It can be changed.

10 ブロック抽出部
20 評価関数算出部
30 最小値算出部
40 画素検出部
50 距離算出部
60 対象物
80 微分処理部
100 距離測定装置
DESCRIPTION OF SYMBOLS 10 Block extraction part 20 Evaluation function calculation part 30 Minimum value calculation part 40 Pixel detection part 50 Distance calculation part 60 Target object 80 Differentiation processing part 100 Distance measuring device

Claims (11)

参照パターンが照射された対象物からの反射光から取得された対象物画像と、参照画像とからそれぞれ抽出したブロック同士をマッチングするマッチング部と、
前記マッチングに際して、前記対象物画像から抽出したブロックにおいて、所定位置の画素の輝度に応じて、前記輝度と当該画素以外の画素の輝度との輝度差に応じた各画素の重みを可変とし、前記所定位置の画素と当該画素以外の画素との空間位置差に応じた各画素の重みを可変とする可変部と、
前記マッチング部のマッチング結果に基づいて、前記対象物画像と前記参照画像との画素ずれ量を検出する検出部と、
前記画素ずれ量から、前記参照パターンの発光位置または前記対象物画像の撮影位置と前記対象物との距離を算出する距離算出部と、を備えることを特徴とする距離測定装置。
An object image acquired from reflected light from the object irradiated with the reference pattern, and a matching unit that matches blocks extracted from the reference image, and
In the matching, in the block extracted from the object image, according to the luminance of the pixel at a predetermined position, the weight of each pixel according to the luminance difference between the luminance and the luminance of the pixels other than the pixel is variable, A variable unit that varies the weight of each pixel according to a spatial position difference between a pixel at a predetermined position and a pixel other than the pixel;
A detection unit that detects a pixel shift amount between the object image and the reference image based on a matching result of the matching unit;
A distance measurement device comprising: a distance calculation unit that calculates a distance between the light emission position of the reference pattern or the shooting position of the target object image and the target object from the pixel shift amount.
前記可変部は、前記所定位置の画素の輝度が閾値未満である場合において、前記所定位置の画素の輝度より当該画素以外の画素の輝度が大きい場合、前記輝度差に応じて当該画素以外の画素の重みを小さくすることを特徴とする請求項1記載の距離測定装置。   When the luminance of the pixel at the predetermined position is less than a threshold and the luminance of the pixel other than the pixel is higher than the luminance of the pixel at the predetermined position, the variable unit is a pixel other than the pixel according to the luminance difference. The distance measuring device according to claim 1, wherein the weight of the distance is reduced. 前記可変部は、前記所定位置の画素の輝度が閾値以上である場合、前記所定位置の画素以外の画素の前記重みを小さくする度合を小さくするか、前記重みを小さくしないことを特徴とする請求項2記載の距離測定装置。   The variable unit, when the luminance of the pixel at the predetermined position is equal to or higher than a threshold value, reduces the degree of decreasing the weight of the pixels other than the pixel at the predetermined position, or does not decrease the weight. Item 3. The distance measuring device according to Item 2. 前記可変部は、前記所定位置の画素よりも輝度が小さい画素については、前記所定位置の画素との輝度差に応じて重みを小さくすることを特徴とする請求項1〜3のいずれか一項に記載の距離測定装置。   4. The variable unit according to claim 1, wherein the variable unit reduces a weight of a pixel having a luminance lower than that of the pixel at the predetermined position in accordance with a luminance difference from the pixel at the predetermined position. The distance measuring device described in 1. 前記可変部は、前記所定位置の画素の輝度と当該画素以外の画素の輝度との輝度差に応じて当該画素以外の画素の重みを小さくする場合において、前記所定位置の画素よりも当該画素以外の画素の輝度が大きい場合よりも、前記所定位置の画素よりも当該画素以外の画素の輝度が小さい場合に、重みを小さくする度合を小さくすることを特徴とする請求項1記載の距離測定装置。   In the case where the weight of the pixels other than the pixel is reduced according to the luminance difference between the luminance of the pixel at the predetermined position and the luminance of the pixel other than the pixel, the variable unit is configured to remove the pixel other than the pixel at the predetermined position. 2. The distance measuring device according to claim 1, wherein when the luminance of a pixel other than the pixel is smaller than that of the pixel at a predetermined position, the degree of weight reduction is made smaller than when the luminance of the pixel is larger. . 前記可変部は、前記所定位置の画素以外の画素について、前記所定位置の画素との空間位置差が大きい画素ほど、重みを小さくすることを特徴とする請求項1〜5のいずれか一項に記載の距離測定装置。   6. The variable unit according to claim 1, wherein the variable unit reduces the weight of a pixel other than the pixel at the predetermined position, as the pixel has a larger spatial positional difference from the pixel at the predetermined position. The described distance measuring device. 前記可変部は、前記所定位置の画素の輝度が閾値未満であれば、前記空間位置差に応じた各画素の重みをより大きくすることを特徴とする請求項6記載の距離測定装置。   The distance measuring device according to claim 6, wherein the variable unit increases the weight of each pixel according to the spatial position difference if the luminance of the pixel at the predetermined position is less than a threshold value. 前記所定位置の画素は、前記ブロックの中心画素であることを特徴とする請求項1〜7のいずれか一項に記載の距離測定装置。   The distance measuring device according to claim 1, wherein the pixel at the predetermined position is a central pixel of the block. 前記参照パターンを発光する発光装置と、
前記対象物からの反射光から前記対象物画像を取得する撮影装置と、を備えることを特徴とする請求項1〜8のいずれか一項に記載の距離測定装置。
A light emitting device for emitting the reference pattern;
The distance measuring device according to claim 1, further comprising: an imaging device that acquires the object image from reflected light from the object.
参照パターンが照射された対象物からの反射光から取得された対象物画像と、参照画像とからそれぞれ抽出したブロック同士をマッチング部がマッチングし、
前記マッチングに際して、前記対象物画像から抽出したブロックにおいて、所定位置の画素の輝度に応じて、前記輝度と当該画素以外の画素の輝度との輝度差に応じた各画素の重みを可変とし、前記所定位置の画素と当該画素以外の画素との空間位置差に応じた各画素の重みを可変部が可変とし、
前記マッチング部のマッチング結果に基づいて、前記対象物画像と前記参照画像との画素ずれ量を検出部が検出し、
前記画素ずれ量から、前記参照パターンの発光位置または前記対象物画像の撮影位置と前記対象物との距離を距離算出部が算出する、ことを特徴とする距離測定方法。
The matching unit matches the blocks extracted from the object image acquired from the reflected light from the object irradiated with the reference pattern and the reference image,
In the matching, in the block extracted from the object image, according to the luminance of the pixel at a predetermined position, the weight of each pixel according to the luminance difference between the luminance and the luminance of the pixels other than the pixel is variable, The variable unit makes variable the weight of each pixel according to the spatial position difference between a pixel at a predetermined position and a pixel other than the pixel,
Based on the matching result of the matching unit, the detection unit detects a pixel shift amount between the object image and the reference image,
A distance measurement method, wherein a distance calculation unit calculates a distance between a light emission position of the reference pattern or a shooting position of the object image and the object from the pixel shift amount.
コンピュータに、
参照パターンが照射された対象物からの反射光から取得された対象物画像と、参照画像とからそれぞれブロックを抽出してマッチングする処理と、
前記マッチングに際して、前記対象物画像から抽出したブロックにおいて、所定位置の画素の輝度に応じて、前記輝度と当該画素以外の画素の輝度との輝度差に応じた各画素の重みを可変とし、前記所定位置の画素と当該画素以外の画素との空間位置差に応じた各画素の重みを可変とする処理と、
前記マッチングの結果に基づいて、前記対象物画像と前記参照画像との画素ずれ量を検出する処理と、
前記画素ずれ量から、前記参照パターンの発光位置または前記対象物画像の撮影位置と前記対象物との距離を算出する処理と、を実行させることを特徴とする距離測定プログラム。
On the computer,
Processing for extracting and matching blocks from the object image acquired from the reflected light from the object irradiated with the reference pattern and the reference image, and
In the matching, in the block extracted from the object image, according to the luminance of the pixel at a predetermined position, the weight of each pixel according to the luminance difference between the luminance and the luminance of the pixels other than the pixel is variable, A process for varying the weight of each pixel according to the spatial position difference between a pixel at a predetermined position and a pixel other than the pixel;
A process for detecting a pixel shift amount between the object image and the reference image based on the result of the matching;
A distance measurement program for executing a process of calculating a distance between the light emission position of the reference pattern or the photographing position of the object image and the object from the pixel shift amount.
JP2017108180A 2017-05-31 2017-05-31 Distance measuring device, distance measuring method and distance measuring program Active JP6855938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017108180A JP6855938B2 (en) 2017-05-31 2017-05-31 Distance measuring device, distance measuring method and distance measuring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017108180A JP6855938B2 (en) 2017-05-31 2017-05-31 Distance measuring device, distance measuring method and distance measuring program

Publications (2)

Publication Number Publication Date
JP2018205030A true JP2018205030A (en) 2018-12-27
JP6855938B2 JP6855938B2 (en) 2021-04-07

Family

ID=64955648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108180A Active JP6855938B2 (en) 2017-05-31 2017-05-31 Distance measuring device, distance measuring method and distance measuring program

Country Status (1)

Country Link
JP (1) JP6855938B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111198384A (en) * 2018-10-31 2020-05-26 发那科株式会社 Object monitoring system with distance measuring device
CN111964574A (en) * 2020-06-23 2020-11-20 安徽理工大学 3D laser target ball center fitting method based on weight selection iterative wolf pack algorithm

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111198384A (en) * 2018-10-31 2020-05-26 发那科株式会社 Object monitoring system with distance measuring device
CN111198384B (en) * 2018-10-31 2024-04-05 发那科株式会社 Object monitoring system with distance measuring device
CN111964574A (en) * 2020-06-23 2020-11-20 安徽理工大学 3D laser target ball center fitting method based on weight selection iterative wolf pack algorithm

Also Published As

Publication number Publication date
JP6855938B2 (en) 2021-04-07

Similar Documents

Publication Publication Date Title
JP7304082B2 (en) Methods for Distinguishing 3D Real Objects from 2D Spoofs of Real Objects
US9361680B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US20110069892A1 (en) Method of comparing similarity of 3d visual objects
US10755417B2 (en) Detection system
US20180225866A1 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
CN105933589A (en) Image processing method and terminal
Navarrete et al. Color smoothing for RGB-D data using entropy information
US10354413B2 (en) Detection system and picture filtering method thereof
US10210616B2 (en) Kernal approximation on fractional differential operator for edge detection
US10540750B2 (en) Electronic device with an upscaling processor and associated method
JP6598850B2 (en) Image processing apparatus, image processing method, and image processing program
CN113822942A (en) Method for measuring object size by monocular camera based on two-dimensional code
KR101725041B1 (en) Method and apparatus for detecting forged image
US10803625B2 (en) Detection system and picturing filtering method thereof
CN110490848B (en) Infrared target detection method, device and computer storage medium
JP6855938B2 (en) Distance measuring device, distance measuring method and distance measuring program
CN113723432B (en) Intelligent identification and positioning tracking method and system based on deep learning
KR101129220B1 (en) Apparatus and method for noise reduction of range images
JP2004133919A (en) Pseudo three-dimensional image generation apparatus and generation method, and program and recording medium therefor
JP6852406B2 (en) Distance measuring device, distance measuring method and distance measuring program
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
JP6603709B2 (en) Image processing apparatus, image processing method, and image processing program
WO2017032096A1 (en) Method for predicting stereoscopic depth and apparatus thereof
JP6114559B2 (en) Automatic unevenness detector for flat panel display
US20160162753A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210301

R150 Certificate of patent or registration of utility model

Ref document number: 6855938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150