[go: up one dir, main page]

JP6803745B2 - Inspection equipment - Google Patents

Inspection equipment Download PDF

Info

Publication number
JP6803745B2
JP6803745B2 JP2016254665A JP2016254665A JP6803745B2 JP 6803745 B2 JP6803745 B2 JP 6803745B2 JP 2016254665 A JP2016254665 A JP 2016254665A JP 2016254665 A JP2016254665 A JP 2016254665A JP 6803745 B2 JP6803745 B2 JP 6803745B2
Authority
JP
Japan
Prior art keywords
inspection device
coordinates
image
imager
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016254665A
Other languages
Japanese (ja)
Other versions
JP2018105802A (en
Inventor
小西 孝明
孝明 小西
亮介 小林
亮介 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi GE Nuclear Energy Ltd
Original Assignee
Hitachi GE Nuclear Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi GE Nuclear Energy Ltd filed Critical Hitachi GE Nuclear Energy Ltd
Priority to JP2016254665A priority Critical patent/JP6803745B2/en
Publication of JP2018105802A publication Critical patent/JP2018105802A/en
Application granted granted Critical
Publication of JP6803745B2 publication Critical patent/JP6803745B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Monitoring And Testing Of Nuclear Reactors (AREA)

Description

本発明は、原子力発電所の炉内点検作業にかかる検査装置に関する。 The present invention relates to an inspection device for in-core inspection work of a nuclear power plant.

原子力発電所の原子炉は、炉内機器の健全性を保つために、定期的な点検が実施されている。特にシュラウド内壁等の検査では、シュラウド内に検査装置を配置する必要があり、遠隔操作ロボットが活用されている。点検中の炉内は水で満たされており、検査装置を搭載する遠隔操作ロボットは水中遊泳するタイプが適用される。検査の高精度化、あるいは、検査員の作業負担軽減のため、遠隔操作ロボットの位置推定は必須である。水中ロボットの位置検知には、光学撮像機、慣性センサ等が用いられる。従来の代表的手法には、複数の光学撮像機を用いたステレオ測定法がある。ステレオ測定法では、複数の光学撮像機で撮影した画像に共通する特徴点を抽出し、三角測量法によってロボットの自己位置、さらには周辺環境中の特徴点の位置を算出する。 The reactors of nuclear power plants are regularly inspected to maintain the soundness of the equipment inside the reactors. In particular, in the inspection of the inner wall of the shroud, it is necessary to arrange an inspection device in the shroud, and a remote-controlled robot is utilized. The inside of the furnace under inspection is filled with water, and the remote-controlled robot equipped with the inspection device is a type that swims underwater. Position estimation of the remote-controlled robot is indispensable for improving the accuracy of inspection or reducing the workload of inspectors. An optical imager, an inertial sensor, or the like is used to detect the position of the underwater robot. A typical conventional method is a stereo measurement method using a plurality of optical imagers. In the stereo measurement method, feature points common to images taken by a plurality of optical imagers are extracted, and the self-position of the robot and the position of the feature points in the surrounding environment are calculated by the triangulation method.

ステレオ測定法は、画像に共通する特徴点からロボット自己位置および周辺環境中の特徴点位置を算出するため、ステレオ測定可能な視野が、複数撮像機の視野の重なり領域に制限される。そこで、例えば、特開2011−123051の提案がある。この特許には、複数撮像機においてステレオ測定を実施する際に、第2の撮像機では撮像していない特徴点について、第1の撮像機面上の対応点、撮像機の焦点位置を含む平面と、第2の撮像機平面、第2の撮像機画像上の特徴点群を用いて三次元座標を算出する方法について述べられている。 In the stereo measurement method, since the robot self-position and the feature point position in the surrounding environment are calculated from the feature points common to the images, the field of view capable of stereo measurement is limited to the overlapping region of the fields of view of the plurality of imagers. Therefore, for example, there is a proposal of Japanese Patent Application Laid-Open No. 2011-123051. In this patent, when performing stereo measurement with a plurality of imagers, a plane including a corresponding point on the surface of the first imager and a focal position of the imager for a feature point not imaged by the second imager. A method of calculating three-dimensional coordinates using a second imager plane and a group of feature points on the second imager image is described.

特開2011−123051号公報Japanese Unexamined Patent Publication No. 2011-123051

ロボット自己位置算出の高精度化には、より広域の特徴点座標を算出し、ロボットの逐次移動に伴う自己位置算出の繰り返し回数を抑制できることが望ましい。上述の特許文献1に記載の方法にあっては、片方の撮像機では視野外となる特徴点の三次元座標を算出する方法については記載されているが、繰り返し構造の特徴を利用した、より広域化した三次元座標算出方法については記載されていない。 In order to improve the accuracy of the robot self-position calculation, it is desirable to be able to calculate the feature point coordinates over a wider area and suppress the number of repetitions of the self-position calculation due to the sequential movement of the robot. In the method described in Patent Document 1 described above, a method of calculating the three-dimensional coordinates of a feature point that is out of the field of view with one of the imagers is described, but the feature of the repeating structure is used. There is no description about the wide-area three-dimensional coordinate calculation method.

そこで、本発明は、このような事情に鑑みなされたものであって、その目的は、繰り返し構造の特徴を利用して、複数撮像機でステレオ測定可能な範囲を広域化し、ロボット自己位置算出を高精度化する方法を提供することにある。 Therefore, the present invention has been made in view of such circumstances, and an object of the present invention is to utilize the characteristics of the repeating structure to widen the range in which stereo measurement can be performed by a plurality of imagers, and to calculate the robot self-position. The purpose is to provide a method for improving accuracy.

上記課題を解決するために、本発明は、撮像画像から線分および繰り返し特徴点の延長線を抽出し、複数の線分および延長線の交点座標を算出し、複数の交点座標から検査装置の自己位置および周辺特徴点の座標を算出する、ことを特徴とする。 In order to solve the above problems, the present invention extracts line segments and extension lines of repetitive feature points from the captured image, calculates the intersection coordinates of the plurality of line segments and extension lines, and uses the coordinates of the plurality of intersection points of the inspection device. It is characterized in that the coordinates of its own position and peripheral feature points are calculated.

本発明によれば、周辺特徴点の座標算出範囲が拡大し、自己位置算出繰り返し回数を抑制することで、自己位置を高精度に算出することが可能となる。 According to the present invention, the coordinate calculation range of the peripheral feature points is expanded, and the self-position calculation can be calculated with high accuracy by suppressing the number of repetitions of the self-position calculation.

実施例1の検査装置および適用対象となる原子炉の全体構成を概略的に示す図である。It is a figure which shows schematic the whole structure of the inspection apparatus of Example 1 and the reactor to which it applies. 実施例1の制御装置の構成を概略的に示す図である。It is a figure which shows schematic structure of the control apparatus of Example 1. FIG. 実施例1の検査装置における各機能の詳細を示すフロー図である。It is a flow chart which shows the detail of each function in the inspection apparatus of Example 1. FIG. 複数の撮像機を用いて位置を算出する方法について説明するための装置を概略的に示す図である。It is a figure which shows typically the apparatus for demonstrating the method of calculating a position using a plurality of imagers. 複数の撮像機を用いて位置を算出する方法について説明するための撮像画像を概略的に示す図である。It is a figure which shows typically the captured image for demonstrating the method of calculating a position using a plurality of imagers. 撮像機が移動する前の位置算出について説明するための装置および参照構造物について概略的に示す図である。It is a figure which shows schematic about the apparatus and the reference structure for demonstrating the position calculation before moving an imager. 撮像機が移動する前の位置算出について説明するための撮像画像を概略的に示す図である。It is a figure which shows schematic the image | captured image for demonstrating the position calculation before moving an imager. 撮像機が移動した後の位置算出について説明するための装置および参照構造物について概略的に示す図である。It is a figure which shows schematicly about the apparatus and the reference structure for demonstrating the position calculation after moving an imager. 撮像機が移動した後の位置算出について説明するための撮像画像を概略的に示す図である。It is a figure which shows schematic the image | image for explaining the position calculation after moving the imager. 従来手法により撮像画像から抽出可能な特徴点を示す図である。It is a figure which shows the feature point which can be extracted from the captured image by a conventional method. 提案手法により撮像画像から仮想延長線を用いて抽出可能な特徴点を示す図である。It is a figure which shows the feature point which can be extracted from the captured image using the virtual extension line by the proposed method. 提案手法により撮像画像から繰り返し特徴形状延長線を用いて抽出可能な特徴点を示す図である。It is a figure which shows the feature point which can be extracted from the captured image by the proposed method using the repeat feature shape extension line. 撮像機が移動する前の位置算出について提案手法を説明するための装置および参照構造物について概略的に示す図である。It is a figure which shows schematicly about the apparatus and the reference structure for explaining the proposed method about the position calculation before moving an imager. 撮像機が移動する前の位置算出について提案手法を説明するための撮像画像を概略的に示す図である。It is a figure which shows typically the captured image for demonstrating the proposed method about the position calculation before moving an imager. 撮像機が移動した後の位置算出について提案手法を説明するための装置および参照構造物について概略的に示す図である。It is a figure which shows schematic about the apparatus and the reference structure for demonstrating the proposed method about the position calculation after moving an imager. 撮像機が移動した後の位置算出について提案手法を説明するための撮像画像を概略的に示す図である。It is a figure which shows typically the image | photographed image for explaining the proposed method about the position calculation after moving an imager. 多角形撮像画像から仮想特徴点を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a virtual feature point from a polygonal image. 円形撮像画像から仮想特徴点を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a virtual feature point from a circular photograph image. 楕円形撮像画像から仮想特徴点を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating a virtual feature point from an elliptical image.

以下、実施例を、図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.

図1から図16を用いて、装置を用いた確認方法の概要について説明する。 The outline of the confirmation method using the apparatus will be described with reference to FIGS. 1 to 16.

図1は、本実施例1における検査装置および適用対象となる原子炉の全体構成を概略的に示す図である。原子炉1には、シュラウド2、上部格子板3、炉心支持板4、シュラウドサポート5等の構造物があり、PLR配管6等の配管が接続されている。また、原子炉1の上部には、作業スペースであるオペレーションフロア7があり、炉心直上には燃料交換台車8が設置されている。原子炉1内の目視検査を実施する場合、水中検査装置9を投入し、燃料交換台車8上の検査員14が表示装置12で水中検査装置9の位置を確認しながら、コントローラ13によって操作する。水中検査装置9は制御装置11によって制御されており、ケーブル10を介して接続されている。表示装置12およびコントローラ13は制御装置11に接続されている。 FIG. 1 is a diagram schematically showing the overall configuration of the inspection apparatus and the reactor to be applied in the first embodiment. The reactor 1 has structures such as a shroud 2, an upper lattice plate 3, a core support plate 4, and a shroud support 5, and pipes such as PLR pipe 6 are connected to the reactor 1. Further, an operation floor 7, which is a work space, is located above the reactor 1, and a refueling carriage 8 is installed directly above the core. When carrying out a visual inspection of the inside of the reactor 1, the underwater inspection device 9 is turned on, and the inspector 14 on the refueling carriage 8 operates the controller 13 while confirming the position of the underwater inspection device 9 on the display device 12. .. The underwater inspection device 9 is controlled by the control device 11 and is connected via the cable 10. The display device 12 and the controller 13 are connected to the control device 11.

図2は、本実施例における制御装置11の構成を概略的に示す図である。水中検査装置9に搭載された撮像機15で取得した画像は、画像取得部16によって制御装置11に取り込まれる。取得画像は線分抽出処理部17に送られ、特定の判定により画像内の線分領域が抽出される。さらに、特徴点算出処理部18において、線分の交点が特徴点として抽出される。位置算出処理部19において、画像から抽出した複数の特徴点および第1記憶部21に格納されている周辺構造物の位置情報を用いて撮像機15の位置を算出する。算出された位置情報は、表示装置12において表示、または、第2記憶部24に格納される。また、マッピング処理部20において、位置算出処理部19で算出した撮像機位置および画像内の特徴点を用いて、第1記憶部21に格納されている周辺構造物の位置情報を追加更新する。一方で、センサ22において取得される検査データは、検査データ取得部23に送られ、位置算出処理部19において算出された位置情報とともに、表示装置12に表示、または、第2記憶部24に格納される。 FIG. 2 is a diagram schematically showing the configuration of the control device 11 in this embodiment. The image acquired by the imager 15 mounted on the underwater inspection device 9 is taken into the control device 11 by the image acquisition unit 16. The acquired image is sent to the line segment extraction processing unit 17, and the line segment region in the image is extracted by a specific determination. Further, the feature point calculation processing unit 18 extracts the intersection of the line segments as the feature point. The position calculation processing unit 19 calculates the position of the imager 15 by using the plurality of feature points extracted from the image and the position information of the peripheral structures stored in the first storage unit 21. The calculated position information is displayed on the display device 12 or stored in the second storage unit 24. Further, the mapping processing unit 20 additionally updates the position information of the peripheral structure stored in the first storage unit 21 by using the imager position calculated by the position calculation processing unit 19 and the feature points in the image. On the other hand, the inspection data acquired by the sensor 22 is sent to the inspection data acquisition unit 23, and is displayed on the display device 12 or stored in the second storage unit 24 together with the position information calculated by the position calculation processing unit 19. Will be done.

図3は、本実施例の検査装置における各機能の詳細を示すフロー図である。点検工程開始ステップS101において点検が開始されると、ロボット移動ステップS102において、位置参照構造物の配置箇所に向けてロボットの移動が開始される。基準位置静止ステップS103において、位置算出の基準となる位置参照構造物の周辺にロボットが静止されると、画像取得ステップS104において、ロボットに搭載された撮像機15での画像取得が実施される。取得された画像は、複数特徴点選択ステップS105において特徴点が抽出される。ロボット位置算出ステップS106において、複数特徴点選択ステップS105で抽出された複数の特徴点の撮像機座標と、特徴点の世界座標から、撮像機15の世界座標での位置が算出される。周辺特徴点抽出ステップS107において、撮像機15の世界座標と、取得画像から新たに抽出した特徴点から、周辺特徴点の世界座標が算出される。ロボット位置判定ステップS108においては、ロボット位置が点検を実施する場所となっているか否かが判定され、点検する場所となっている場合には点検用データ取得ステップS109に進み、センサ22によって各種点検用データが取得され、点検する場所でない場合には、ロボット移動ステップS111に進み、ロボットの移動が継続される。点検用データ取得ステップS109で点検用データの取得が完了すると、点検工程判定ステップS110に進み、全ての点検工程が完了したか否かが判定される。点検が完了した場合には、ロボット回収ステップS113に進み、ロボットが燃料交換台車8上に回収される。点検が完了していない場合には、ロボット移動ステップS111に進み、ロボットの移動が継続される。ロボット移動ステップS111で、ロボットの移動が再度開始され、任意位置静止ステップS112においてロボットが静止される。ロボット静止後、工程は画像取得ステップS104に進み、以降、ロボット位置算出ステップ、周辺特徴点位置算出ステップ、点検用データ取得ステップが、全点検工程が完了するまで繰り返される。点検が完了し、ロボット回収ステップS113においてロボットが回収されると、工程は点検完了ステップS114に進み、点検が完了する。 FIG. 3 is a flow chart showing details of each function in the inspection device of this embodiment. When the inspection is started in the inspection process start step S101, the robot starts moving toward the arrangement location of the position reference structure in the robot movement step S102. When the robot is stationary around the position reference structure that is the reference for position calculation in the reference position rest step S103, the image acquisition by the imager 15 mounted on the robot is performed in the image acquisition step S104. The acquired image has feature points extracted in the plurality of feature point selection steps S105. In the robot position calculation step S106, the position of the imager 15 in the world coordinates is calculated from the imager coordinates of the plurality of feature points extracted in the plurality of feature point selection steps S105 and the world coordinates of the feature points. In the peripheral feature point extraction step S107, the world coordinates of the peripheral feature points are calculated from the world coordinates of the imager 15 and the feature points newly extracted from the acquired image. In the robot position determination step S108, it is determined whether or not the robot position is the place to perform the inspection, and if it is the place to be inspected, the process proceeds to the inspection data acquisition step S109, and various inspections are performed by the sensor 22. If the data is acquired and it is not the place to be inspected, the process proceeds to the robot movement step S111, and the movement of the robot is continued. When the acquisition of the inspection data is completed in the inspection data acquisition step S109, the process proceeds to the inspection process determination step S110, and it is determined whether or not all the inspection processes have been completed. When the inspection is completed, the process proceeds to the robot recovery step S113, and the robot is recovered on the refueling carriage 8. If the inspection is not completed, the process proceeds to the robot movement step S111, and the movement of the robot is continued. In the robot movement step S111, the movement of the robot is restarted, and in the arbitrary position rest step S112, the robot is stopped. After the robot is stationary, the process proceeds to the image acquisition step S104, and thereafter, the robot position calculation step, the peripheral feature point position calculation step, and the inspection data acquisition step are repeated until all the inspection steps are completed. When the inspection is completed and the robot is recovered in the robot recovery step S113, the process proceeds to the inspection completion step S114 to complete the inspection.

以下、各ステップにおける詳細について個別に説明する。 Hereinafter, the details of each step will be described individually.

まず、図4から図5を用いて、撮像機15による画像取得、および、特徴点の撮像機座標算出の詳細について説明する。図4は、複数の撮像機を用いて位置を算出する方法について説明するための装置を概略的に示す図であり、撮像機における特徴点の結像関係を示したものである。空間特徴点27aは、左右2台の撮像機15において、レンズ25を介して光学素子26上に画像上特徴点27Aとして結像される。撮像機15における座標軸は、撮像機配列方向をx軸、撮像機配列に直交する方向をy軸、撮像機による撮像方向をz軸とする。図5は、複数の撮像機を用いて位置を算出する方法について説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rに、それぞれ画像上特徴点27Aが撮像されている。撮像機座標の原点を、左撮像機のレンズ中心位置とした場合、空間特徴点27aの撮像機座標における座標(X,Y,Z)は、次の式(1)から式(3)で表される。 First, the details of image acquisition by the imager 15 and calculation of the imager coordinates of the feature points will be described with reference to FIGS. 4 to 5. FIG. 4 is a diagram schematically showing an apparatus for explaining a method of calculating a position using a plurality of imagers, and shows an imaging relationship of feature points in the imager. The spatial feature points 27a are imaged as feature points 27A on the image on the optical element 26 via the lens 25 in the two left and right imagers 15. The coordinate axes of the imager 15 are such that the imager arrangement direction is the x-axis, the direction orthogonal to the imager arrangement is the y-axis, and the image pickup direction by the imager is the z-axis. FIG. 5 is a diagram schematically showing captured images for explaining a method of calculating a position using a plurality of imagers, and shows images captured by two left and right imagers 15. Feature points 27A are imaged on the left imager image 28L and the right imager image 28R, respectively. When the origin of the imager coordinates is the lens center position of the left imager, the coordinates (X, Y, Z) in the imager coordinates of the spatial feature point 27a are expressed by the following equations (1) to (3). Will be done.

Figure 0006803745
Figure 0006803745

Figure 0006803745
Figure 0006803745

Figure 0006803745
Figure 0006803745

ここで、Bは左右の撮像機間の距離、dx1は左撮像機撮像画像28Lの垂直中心位置から画像上特徴点27Aまでの距離、dx2は右撮像機撮像画像28Rの垂直中心位置から画像上特徴点27Aまでの距離、dyは左撮像機撮像画像28Lおよび右撮像機撮像画像28Rの水平中心位置から画像上特徴点27Aまでの距離、Lはレンズ25の焦点距離を表している。複数特徴点選択ステップS105では、3点以上の空間特徴点27aが選択され、それぞれ撮像機座標における座標が算出される。なお、空間特徴点27aは、後述する格子形状の交点のように、一意に空間上の位置が定められており、左右2台の撮像機で同一の点として画像中に捉えられるものを指す。特徴点は格子形状の交点に限らず、構造物形状の角部のような直線が交差する点や、構造物に描かれた点、円形の中心点など、一意に空間上の位置が定められる点であれば良い。 Here, B is the distance between the left and right imagers, dx1 is the distance from the vertical center position of the left imager image 28L to the feature point 27A on the image, and dx2 is the distance from the vertical center position of the right imager image 28R on the image. The distance to the feature point 27A, dy is the distance from the horizontal center position of the left imager image 28L and the right imager image 28R to the feature point 27A on the image, and L is the focal length of the lens 25. In the plurality of feature point selection step S105, three or more spatial feature points 27a are selected, and the coordinates in the imager coordinates are calculated for each. It should be noted that the spatial feature point 27a refers to a point that is uniquely defined in space and is captured in the image as the same point by the two left and right imagers, such as the intersection of the grid shapes described later. The feature points are not limited to the intersections of the grid shape, but the points in space such as the points where straight lines such as the corners of the structure intersect, the points drawn on the structure, and the center point of the circle are uniquely determined. Any point is fine.

次に、ロボット位置算出ステップS106における処理の詳細について説明する。撮像機15の世界座標の位置は、世界座標が予め既知の空間特徴点27aを3点以上用いて算出される。空間特徴点27aの3点の世界座標を、それぞれ(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)とする。また、空間特徴点27aの3点を撮像機15で撮影した際の撮像機座標を、それぞれ(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)とする。このときの世界座標と撮像機座標の変換は、以下の行列式(4)から(6)で表される。 Next, the details of the processing in the robot position calculation step S106 will be described. The position of the world coordinates of the imager 15 is calculated by using three or more spatial feature points 27a whose world coordinates are known in advance. Let the world coordinates of the three spatial feature points 27a be (x1, y1, z1), (x2, y2, z2), and (x3, y3, z3), respectively. Further, the imager coordinates when the three spatial feature points 27a are photographed by the imager 15 are set to (X1, Y1, Z1), (X2, Y2, Z2), and (X3, Y3, Z3), respectively. The conversion between the world coordinates and the imager coordinates at this time is represented by the following determinants (4) to (6).

Figure 0006803745
Figure 0006803745

Figure 0006803745
Figure 0006803745

Figure 0006803745
Figure 0006803745

ここで、Rは回転行列、Tは平行移動行列である。φはロール回転(z軸周り回転)、θはピッチ回転(y軸周り回転)、ψはヨー回転(x軸周り回転)、txはx軸方向移動、tyはy軸方向移動、tzはz軸方向移動を表している。撮像機15の世界座標での位置は、平行移動行列を用いて(tx,ty,tz)で表される。なお、3点以上であるn点の特徴点から撮像機位置を求める場合には、以下の式で表される行列Aにおいて、各行列成分の二乗和が最小となるようにする。 Here, R is a rotation matrix and T is a translation matrix. φ is roll rotation (rotation around z axis), θ is pitch rotation (rotation around y axis), ψ is yaw rotation (rotation around x axis), tx is movement in x axis direction, ty is movement in y axis direction, tz is z Represents axial movement. The position of the imager 15 in world coordinates is represented by (tx, ty, tz) using a translation matrix. When the imager position is obtained from n feature points, which are three or more points, the sum of squares of each matrix component is minimized in the matrix A represented by the following equation.

Figure 0006803745
Figure 0006803745

以上の方法により、撮像機15の世界座標での位置が求まる。次に、周辺特徴点抽出ステップS107における処理の詳細について説明する。撮像機15の位置を求めた後、撮像画像上で新たに周辺の特徴点を選択する。この特徴点は、世界座標が予め既知である必要はない。左右撮像画像上で選択された特徴点は、式(1)から式(3)を用いて、撮像機座標(X4,Y4,Z4)が求められる。その後、撮像機座標、および、式(7)で示した行列式を用いて、特徴点の世界座標(x4,y4,z4)は以下の式(8)で求められる。 By the above method, the position of the imager 15 in the world coordinates can be obtained. Next, the details of the processing in the peripheral feature point extraction step S107 will be described. After determining the position of the imager 15, a new peripheral feature point is selected on the captured image. This feature point does not need to have world coordinates known in advance. For the feature points selected on the left and right captured images, the imager coordinates (X4, Y4, Z4) can be obtained using the equations (1) to (3). Then, using the imager coordinates and the determinant represented by the equation (7), the world coordinates (x4, y4, z4) of the feature points are obtained by the following equation (8).

Figure 0006803745
Figure 0006803745

以上の方法により、周辺特徴点の世界座標での位置が求まる。世界座標が求められた特徴点は、第1記憶部21に格納され、ロボット移動ステップS111、および、任意位置静止ステップS112を経て、撮像機が移動した後の状態で画像を取得し、複数特徴点選択ステップS105において、空間特徴点27aを選択する際に、世界座標が予め既知の空間特徴点27aとして利用する。 By the above method, the position of the peripheral feature points in the world coordinates can be obtained. The feature points for which the world coordinates have been obtained are stored in the first storage unit 21, and an image is acquired in a state after the imager has moved through the robot moving step S111 and the arbitrary position resting step S112, and a plurality of features are obtained. In the point selection step S105, when the spatial feature point 27a is selected, it is used as the spatial feature point 27a whose world coordinates are known in advance.

次に、図6から図9を用いて、本発明の提案である仮想特徴点を用いない場合において、ロボット移動ステップS111、および、任意位置静止ステップS112を経て、画像取得ステップS104から周辺特徴点抽出ステップS107を繰り返す場合の詳細を説明する。図6は、撮像機が移動する前の位置算出について説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動する前の装置配置外観を示している。空間特徴点27a、27b、27cは、世界座標が既知の空間特徴点であり、左右それぞれの撮像機15の撮像領域29の重なり領域に位置している。図7は、撮像機が移動する前の位置算出について説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像されている画像上特徴点27A、27B、27Cを用いて、式(1)から式(6)によって撮像機15の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいてそれぞれ画像上特徴点27D、27Eを選択し、式(1)から式(3)、式(7)によって、それまで未知であった空間特徴点27d、27eの世界座標を求める。その後、撮像機15は、図6のy軸方向に移動する。 Next, using FIGS. 6 to 9, when the virtual feature points proposed in the present invention are not used, the peripheral feature points are taken from the image acquisition step S104 through the robot moving step S111 and the arbitrary position resting step S112. Details of the case where the extraction step S107 is repeated will be described. FIG. 6 is a diagram schematically showing an apparatus and a reference structure for explaining the position calculation before the imager moves, and shows the appearance of the apparatus arrangement before the imager 15 moves. Spatial feature points 27a, 27b, and 27c are spatial feature points whose world coordinates are known, and are located in overlapping regions of the imaging regions 29 of the left and right imagers 15. FIG. 7 is a diagram schematically showing a captured image for explaining the position calculation before the imager moves, and shows the captured images of the two left and right imagers 15. Using the feature points 27A, 27B, and 27C on the images captured in the left imager image 28L and the right imager image 28R, the positions on the spatial coordinates of the imager 15 according to equations (1) to (6). Ask for. After that, the feature points 27D and 27E on the image were selected in the left imager image 28L and the right imager image 28R, respectively, and were unknown until then by the formulas (1) to (3) and (7). The world coordinates of the spatial feature points 27d and 27e are obtained. After that, the imager 15 moves in the y-axis direction of FIG.

図8は、撮像機が移動した後の位置算出について説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動した後の装置配置外観を示している。撮像機15の撮像領域29の重なり領域に、世界座標が既知の空間特徴点27c、および、移動前に世界座標を求めた空間特徴点27d、27eが含まれるように、撮像機15の移動距離は調整される。図9は、撮像機が移動した後の位置算出について説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。撮像機15の移動前と同様に、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像されている画像上特徴点27C、27D、27Eを用いて、式(1)から式(6)によって撮像機15の移動後の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいてそれぞれ画像上特徴点27F、27G、27Hを選択し、式(1)から式(3)、式(7)によって空間特徴点27f、27g、27hの世界座標を求める。以降、この手順を繰り返すことで、撮像機位置、および、周辺構造物の特徴点座標を交互に算出し、点検終了までのロボット位置を逐次算出する。 FIG. 8 is a diagram schematically showing an apparatus and a reference structure for explaining the position calculation after the imager has moved, and shows the appearance of the apparatus arrangement after the imager 15 has moved. The moving distance of the imager 15 so that the overlapping area of the imaging area 29 of the imager 15 includes the spatial feature points 27c whose world coordinates are known and the spatial feature points 27d and 27e whose world coordinates are obtained before the movement. Is adjusted. FIG. 9 is a diagram schematically showing a captured image for explaining the position calculation after the imager has moved, and shows the captured images of the two left and right imagers 15. The equations (1) to (6) are used by using the feature points 27C, 27D, and 27E on the images captured in the left imager image 28L and the right imager image 28R as before the imager 15 is moved. The position on the spatial coordinates after the movement of the imager 15 is obtained by. After that, the feature points 27F, 27G, and 27H on the images are selected in the left imager image 28L and the right imager image 28R, respectively, and the spatial feature points 27f, according to the equations (1) to (3) and (7), Find the world coordinates of 27g and 27h. After that, by repeating this procedure, the position of the imager and the coordinates of the feature points of the surrounding structures are alternately calculated, and the robot position until the end of the inspection is sequentially calculated.

図10から図12を用いて、本発明の提案である仮想特徴点の求め方について、その詳細を説明する。図10は、従来手法により撮像画像から抽出可能な特徴点を示す図であるであり、本発明の提案である仮想特徴点を用いない場合の抽出可能な特徴点を示すものである。規則的な格子形状をもつ参照構造物の撮像画像において、図10において黒丸で示した撮像画像28内の格子の交点を特徴点として抽出可能である。なお、交点の抽出方法として、画像処理による抽出が可能である。例えば、取得した画像において、二値化処理によって、画像中で輝度の異なる格子の複数の直線部分を抽出し、細線化処理によって抽出直線領域の中心部分を抽出し、抽出した直線中心領域に近似直線を当てはめ、近似直線の交点を算出することによって、格子交点を特徴点として抽出できる。なお、格子交点の抽出方法はこの方法に限らず、同様の効果が得られる別の画像処理手段を用いて処理を実施しても良い。また、格子交点の抽出方法は、画像処理による自動抽出に限らず、例えば人の目視と手動での画像位置選択によって交点を抽出しても良い。さらに、特徴点の抽出処理を実施する前に、視認性向上処理、または、画像補正処理を必要に応じて適用しても良い。視認性向上処理としては、例えば、コントラスト補正処理などによる輝度分布の補正、フォーカス補正処理などによる焦点ぼけの補正などがある。画像補正処理としては、レンズひずみ補正処理などによる画像ひずみの補正がある。ここでは、各処理の詳細については割愛する。 The details of the method of obtaining the virtual feature point proposed in the present invention will be described with reference to FIGS. 10 to 12. FIG. 10 is a diagram showing feature points that can be extracted from a captured image by a conventional method, and shows the feature points that can be extracted when the virtual feature points proposed by the present invention are not used. In the captured image of the reference structure having a regular grid shape, the intersection of the grids in the captured image 28 indicated by the black circle in FIG. 10 can be extracted as a feature point. As a method of extracting intersections, extraction by image processing is possible. For example, in the acquired image, the binarization process extracts a plurality of straight line portions of lattices having different brightness in the image, and the thinning process extracts the central portion of the extracted straight line region and approximates the extracted linear central region. By fitting a straight line and calculating the intersection of approximate straight lines, the lattice intersection can be extracted as a feature point. The method of extracting the lattice intersections is not limited to this method, and the processing may be performed by using another image processing means that can obtain the same effect. Further, the method of extracting the lattice intersections is not limited to automatic extraction by image processing, and for example, intersections may be extracted by visual inspection by a person and manual image position selection. Further, the visibility improving process or the image correction process may be applied as necessary before performing the feature point extraction process. Visibility improving processing includes, for example, correction of luminance distribution by contrast correction processing and correction of defocus by focus correction processing and the like. The image correction process includes correction of image distortion by lens distortion correction processing or the like. Here, the details of each process are omitted.

図11は、提案手法により撮像画像から仮想延長線を用いて抽出可能な特徴点を示す図であり、格子直線の仮想延長線を用いた場合に抽出可能な特徴点、および、仮想特徴点を示すものである。参照構造物の格子形状が直線で構成されている場合には、画像上に撮像されている直線の延長線上にも格子の交点が存在する。撮像画像28上の直線成分を延長し、図11において長破線で示している仮想延長線31を仮定することで、その交点である仮想特徴点30を抽出できる。 FIG. 11 is a diagram showing feature points that can be extracted from the captured image using the virtual extension line by the proposed method, and shows the feature points that can be extracted when the virtual extension line of the grid line is used and the virtual feature points. It shows. When the grid shape of the reference structure is composed of straight lines, the intersections of the grids also exist on the extension lines of the straight lines imaged on the image. By extending the linear component on the captured image 28 and assuming the virtual extension line 31 shown by the long broken line in FIG. 11, the virtual feature point 30 which is the intersection thereof can be extracted.

図12は、提案手法により撮像画像から繰り返し特徴形状延長線を用いて抽出可能な特徴点を示す図であり、格子直線の仮想延長線、および、繰り返し特徴形状の延長線を用いた場合に抽出可能な特徴点、および、仮想特徴点を示したものである。参照構造物の格子形状が等間隔に構成されている場合には、特徴点として抽出可能な複数の格子交点について、その複数の格子交点を通る直線の延長線上にも格子の交点が存在する。撮像画像28上の格子交点を通る直線を延長し、図12において短破線で示している繰り返し特徴形状延長線32を仮定することで、仮想延長線31同士の交点および仮想延長線31と繰り返し特徴形状延長線32の交点を含む仮想特徴点30を抽出できる。以上の方法により、撮像画像の範囲外にある仮想特徴点を抽出し、位置算出に用いる特徴点として利用することが可能である。 FIG. 12 is a diagram showing feature points that can be extracted from the captured image using the repeat feature shape extension line by the proposed method, and is extracted when the virtual extension line of the lattice straight line and the extension line of the repeat feature shape are used. It shows possible feature points and virtual feature points. When the grid shape of the reference structure is configured at equal intervals, there are grid intersections on the extension of the straight line passing through the plurality of grid intersections for the plurality of grid intersections that can be extracted as feature points. By extending the straight line passing through the grid intersection on the captured image 28 and assuming the repeating feature shape extension line 32 shown by the short broken line in FIG. 12, the intersection between the virtual extension lines 31 and the virtual extension line 31 and the repeating feature The virtual feature point 30 including the intersection of the shape extension lines 32 can be extracted. By the above method, it is possible to extract virtual feature points outside the range of the captured image and use them as feature points used for position calculation.

次に、図13から図16を用いて、本発明の提案である仮想特徴点を用いた場合において、ロボット移動ステップS111、および、任意位置静止ステップS112を経て、画像取得ステップS104から周辺特徴点抽出ステップS107を繰り返す場合の詳細を説明する。図13は、撮像機が移動する前の位置算出について提案手法を説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動する前の装置配置外観を示している。空間特徴点27a、27b、27cは、世界座標が既知の空間特徴点であり、左右それぞれの撮像機15の撮像領域29の重なり領域に位置している。 Next, when the virtual feature points proposed in the present invention are used with reference to FIGS. 13 to 16, the peripheral feature points are taken from the image acquisition step S104 through the robot moving step S111 and the arbitrary position resting step S112. Details of the case where the extraction step S107 is repeated will be described. FIG. 13 is a diagram schematically showing a device and a reference structure for explaining the proposed method for position calculation before the imager moves, and shows the appearance of the device arrangement before the imager 15 moves. .. Spatial feature points 27a, 27b, and 27c are spatial feature points whose world coordinates are known, and are located in overlapping regions of the imaging regions 29 of the left and right imagers 15.

図14は、撮像機が移動する前の位置算出について提案手法を説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像されている画像上特徴点27A、27B、27Cを用いて、式(1)から式(6)によって撮像機15の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて、仮想特徴点の抽出手法を用い、それぞれ画像上特徴点27D、27E、27Fを選択し、式(1)から式(3)、式(7)によって、それまで未知であった空間特徴点27d、27e、27fの世界座標を求める。その後、撮像機15は、図13のy軸方向に移動する。 FIG. 14 is a diagram schematically showing an image captured for explaining the proposed method for position calculation before the imager moves, and shows images captured by the two left and right imagers 15. Using the feature points 27A, 27B, and 27C on the images captured in the left imager image 28L and the right imager image 28R, the positions on the spatial coordinates of the imager 15 according to equations (1) to (6). Ask for. After that, in the left imager image 28L and the right imager image 28R, the feature points 27D, 27E, and 27F are selected on the image by using the virtual feature point extraction method, and the formulas (1) to (3), respectively, are selected. The world coordinates of the previously unknown spatial feature points 27d, 27e, and 27f are obtained by the equation (7). After that, the imager 15 moves in the y-axis direction of FIG.

図15は、撮像機が移動した後の位置算出について提案手法を説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動した後の装置配置外観を示している。撮像機15の撮像画像から座標が求められる範囲に、移動前に世界座標を求めた空間特徴点27d、27e、27fが含まれるように、撮像機15の移動距離は調整される。 FIG. 15 is a diagram schematically showing a device and a reference structure for explaining the proposed method for position calculation after the imager has moved, and shows the appearance of the device arrangement after the imager 15 has moved. .. The moving distance of the imager 15 is adjusted so that the range in which the coordinates are obtained from the image captured by the imager 15 includes the spatial feature points 27d, 27e, and 27f whose world coordinates are obtained before the movement.

図16は、撮像機が移動した後の位置算出について提案手法を説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像画像から座標が求められる画像上特徴点27D、27E、27Fを用いて、式(1)から式(6)によって撮像機15の移動後の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいてそれぞれ画像上特徴点27G、27H、27Iを選択し、式(1)から式(3)、式(7)によって空間特徴点27g、27h、27iの世界座標を求める。以降、この手順を繰り返すことで、撮像機位置、および、周辺構造物の特徴点座標を交互に算出し、点検終了までのロボット位置を逐次算出する。
図13から図16に示した、仮想特徴点を用いた位置算出においては、図6から図9において示した、仮想特徴点を用いない場合に比べ、撮像機位置を算出するステップ間の撮像機移動距離が大きくなり、点検終了までのロボット位置の算出回数が減少する。一方で、撮像機位置、および、周辺構造物の特徴点座標の算出においては、撮像機の画素サイズに起因する誤差が発生する。この誤差は、ロボットの位置算出計算を実施するごとに発生し、ロボットの移動と計算を繰り返すことによって、計算回数に比例して蓄積する。そのため、計算回数が減少することによって、誤差の蓄積回数も減少し、結果として高精度な位置検出が達成される。
FIG. 16 is a diagram schematically showing an image captured for explaining the proposed method for position calculation after the imager has moved, and shows images captured by the two left and right imagers 15. After moving the imager 15 according to equations (1) to (6) using the feature points 27D, 27E, and 27F on the image whose coordinates are obtained from the captured image in the left imager image 28L and the right imager image 28R. Find the position on the spatial coordinates of. After that, the feature points 27G, 27H, and 27I on the image are selected in the left imager image 28L and the right imager image 28R, respectively, and the spatial feature points 27g according to the equations (1) to (3) and (7). Find the world coordinates of 27h and 27i. After that, by repeating this procedure, the position of the imager and the coordinates of the feature points of the surrounding structures are alternately calculated, and the robot position until the end of the inspection is sequentially calculated.
In the position calculation using the virtual feature points shown in FIGS. 13 to 16, the imager between the steps for calculating the imager position is compared with the case where the virtual feature points shown in FIGS. 6 to 9 are not used. The movement distance becomes large, and the number of times the robot position is calculated until the inspection is completed decreases. On the other hand, in the calculation of the imager position and the feature point coordinates of the peripheral structure, an error occurs due to the pixel size of the imager. This error occurs every time the robot position calculation calculation is performed, and accumulates in proportion to the number of calculations by repeating the movement and calculation of the robot. Therefore, as the number of calculations decreases, the number of times of error accumulation also decreases, and as a result, highly accurate position detection is achieved.

以上の方法によって、点検工程におけるロボット自己位置算出を高精度に実施することが可能となる。 By the above method, the robot self-position calculation in the inspection process can be performed with high accuracy.

なお、本実施例では、世界座標が既知の特徴点と、周辺特徴点抽出ステップS107において世界座標を算出する特徴点について、同一の格子形状の上に位置している例を図示して説明したが、周辺特徴点抽出ステップS107において世界座標を算出する特徴点は、世界座標が既知の特徴点と同一の格子形状上にある必要はなく、また、格子形状の格子間隔、格子向きや格子角度が同一となっていなくても良い。さらに、繰り返し特徴形状延長線32を当てはめる繰り返し構造は、周期的な特徴形状をもつものであれば格子形状に限らず、例えば、周期的に配列した円形形状の中心点や、円周の接線など、これに類するものを用いても良い。 In this embodiment, a feature point whose world coordinates are known and a feature point whose world coordinates are calculated in the peripheral feature point extraction step S107 are illustrated and described as being located on the same grid shape. However, the feature points for which the world coordinates are calculated in the peripheral feature point extraction step S107 do not have to be on the same grid shape as the known feature points, and the grid spacing, grid orientation, and grid angle of the grid shape. Do not have to be the same. Further, the repeating structure to which the repeating feature shape extension line 32 is applied is not limited to a lattice shape as long as it has a periodic feature shape, for example, a central point of a circular shape arranged periodically, a tangent line of the circumference, and the like. , A similar one may be used.

以下、図17から図19を用いて、実施例2を説明する。 Hereinafter, the second embodiment will be described with reference to FIGS. 17 to 19.

本実施例による点検プロセスは、実施例1の図3に示したプロセスと同様である。本実施例では、実施例1に示した特徴点抽出方法と異なる方法で、撮像画像の視野外にある仮想特徴点を抽出する。 The inspection process according to this embodiment is the same as the process shown in FIG. 3 of Example 1. In this embodiment, virtual feature points outside the field of view of the captured image are extracted by a method different from the feature point extraction method shown in Example 1.

図17は、多角形撮像画像から仮想特徴点を算出する方法を説明するための図であり、具体的には正八角形特徴模様における視野外特徴点の抽出方法について説明するものである。撮像画像28において、正八角形の頂点である画像上特徴点27A、27B、27Cが撮像されている場合に、正八角形形状である幾何形状当てはめ仮想線33の当てはめによって、視野外の画像上特徴点27D、27E、27F、27G、27Hの座標を算出することが可能である。なお、ここでは、正多角形の例として正八角形を示したが、特徴模様はこれに限らず、他の正多角形特徴模様を用いた特徴点算出にも適用可能である。 FIG. 17 is a diagram for explaining a method of calculating virtual feature points from a polygonal captured image, and specifically describes a method of extracting out-of-field feature points in a regular octagonal feature pattern. In the captured image 28, when the feature points 27A, 27B, and 27C on the image, which are the vertices of the regular octagon, are imaged, the feature points on the image outside the field of view are formed by fitting the geometric shape fitting virtual line 33 having the regular octagon shape. It is possible to calculate the coordinates of 27D, 27E, 27F, 27G, 27H. Although a regular octagon is shown here as an example of a regular polygon, the feature pattern is not limited to this, and can be applied to feature point calculation using other regular polygon feature patterns.

図18は、円形撮像画像から仮想特徴点を算出する方法を説明するための図であり、具体的には円形特徴模様における円周上の視野外特徴点の抽出方法について説明するものである。画像上特徴点27A、27B、27Cが、円周上に位置している場合、円形状である幾何形状当てはめ仮想線33の当てはめによって、円の中心座標である画像上特徴点27Oを軸とした点対称位置となる、視野外の画像上特徴点27E、27F、27Gの座標を算出することが可能である。さらに、画像上特徴点27A、27B、27Cが、繰り返し構造を持ち、等間隔に位置している場合には、視野外の画像上特徴点27D、27Hの座標も算出することが可能である。 FIG. 18 is a diagram for explaining a method of calculating virtual feature points from a circular captured image, and specifically describes a method of extracting out-of-field feature points on the circumference of a circular feature pattern. When the feature points 27A, 27B, and 27C on the image are located on the circumference, the feature point 27O on the image, which is the center coordinate of the circle, is used as the axis by fitting the geometric shape fitting virtual line 33 which is a circle shape. It is possible to calculate the coordinates of the feature points 27E, 27F, and 27G on the image outside the field of view, which are point-symmetrical positions. Further, when the feature points 27A, 27B and 27C on the image have a repeating structure and are located at equal intervals, the coordinates of the feature points 27D and 27H on the image outside the field of view can be calculated.

図19は、楕円形撮像画像から仮想特徴点を算出する方法を説明するための図であり、具体的には楕円形特徴模様における楕円周上の視野外特徴点の抽出方法について説明するものである。画像上特徴点27A、27B、27Cが、楕円の周上に位置している場合、楕円形状である幾何形状当てはめ仮想線33の当てはめによって、楕円の中心座標である画像上特徴点27Oを軸とした点対称位置となる、視野外の画像上特徴点27E、27F、27Gの座標を算出することが可能である。さらに、画像上特徴点27Bが、楕円長軸、または、楕円短軸に対し対称位置となる、視野外の画像上特徴点27D、27Hの座標も算出することが可能である。 FIG. 19 is a diagram for explaining a method of calculating virtual feature points from an elliptical captured image, and specifically describes a method of extracting out-of-field feature points on the elliptical circumference in an elliptical feature pattern. is there. When the feature points 27A, 27B, and 27C on the image are located on the circumference of the ellipse, the feature point 27O on the image, which is the center coordinate of the ellipse, is used as the axis by fitting the geometric shape fitting virtual line 33 which is an ellipse. It is possible to calculate the coordinates of the feature points 27E, 27F, and 27G on the image outside the field of view, which are the point-symmetrical positions. Further, it is possible to calculate the coordinates of the feature points 27D and 27H on the image outside the field of view, where the feature points 27B on the image are symmetrical with respect to the elliptical major axis or the elliptical minor axis.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-mentioned examples, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.

1:原子炉
2:シュラウド
3:上部格子板
4:炉心支持板
5:シュラウドサポート
6:PLR配管
7:オペレーションフロア
8:燃料交換台車
9:水中検査装置
10:ケーブル
11:制御装置
12:表示装置
13:コントローラ
14:検査員
15:撮像機
16:画像取得部
17:線分抽出処理部
18:特徴点算出処理部
19:位置算出処理部
20:マッピング処理部
21:第1記憶部
22:センサ
23:検査データ取得部
24:第2記憶部
25:レンズ
26:光学素子
27a、27b、27c、27d、27e、27f、27g、27h、27i:空間特徴点
27A、27B、27C、27D、27E、27F、27G、27H、27I、27O:画像上特徴点
28:撮像画像
28L:左撮像機撮像画像
28R:右撮像機撮像画像
29:撮像領域
30:仮想特徴点
31:仮想延長線
32:繰り返し特徴形状延長線
33:幾何形状当てはめ仮想線
S101:点検工程開始ステップ
S102:ロボット移動ステップ
S103:基準位置静止ステップ
S104:画像取得ステップ
S105:複数特徴点選択ステップ
S106:ロボット位置算出ステップ
S107:周辺特徴点抽出ステップ
S108:ロボット位置判定ステップ
S109:点検用データ取得ステップ
S110:点検工程判定ステップ
S111:ロボット移動ステップ
S112:任意位置静止ステップ
S113:ロボット回収ステップ
S114:点検完了ステップ
1: Reactor 2: Shroud 3: Upper lattice plate 4: Core support plate 5: Shroud support 6: PLR piping 7: Operation floor 8: Refueling trolley 9: Underwater inspection device 10: Cable 11: Control device 12: Display device 13: Controller 14: Inspector 15: Imager 16: Image acquisition unit 17: Line segment extraction processing unit 18: Feature point calculation processing unit 19: Position calculation processing unit 20: Mapping processing unit 21: First storage unit 22: Sensor 23: Inspection data acquisition unit 24: Second storage unit 25: Lens 26: Optical elements 27a, 27b, 27c, 27d, 27e, 27f, 27g, 27h, 27i: Spatial feature points 27A, 27B, 27C, 27D, 27E, 27F, 27G, 27H, 27I, 27O: Feature points on the image 28: Captured image 28L: Left imager captured image 28R: Right imager captured image 29: Imaging area 30: Virtual feature point 31: Virtual extension line 32: Repeated feature Shape extension line 33: Geometric shape fitting virtual line S101: Inspection process start step S102: Robot movement step S103: Reference position stationary step S104: Image acquisition step S105: Multiple feature point selection step S106: Robot position calculation step S107: Peripheral feature point Extraction step S108: Robot position determination step S109: Inspection data acquisition step S110: Inspection process determination step S111: Robot movement step S112: Arbitrary position stationary step S113: Robot recovery step S114: Inspection completion step

Claims (6)

構造物内を遠隔走行する検査装置であって、
周辺環境を撮像する撮像部と、
前記撮像部で取得した画像から複数の線分または繰り返し特徴形状の延長線を抽出する
画像処理部と、
前記画像処理部で得られた複数の線分データまたは延長線データから複数の交点の撮影機座標を求める特徴点算出部と、
前記特徴点算出部で算出した複数の交点の撮影機座標から前記検査装置の世界座標を算出する位置算出部と、
前記特徴点算出部で求めた交点の撮影機座標および前記位置算出部で求めた検査装置の世界座標から検査装置の周辺特徴点の世界座標を求めるマッピング処理部と、
前記周辺特徴点および検査装置の位置算出結果を表示する表示装置と、を備えることを
特徴とする検査装置。
An inspection device that travels remotely in a structure
An imaging unit that captures the surrounding environment and
An image processing unit that extracts a plurality of line segments or extension lines of repeated feature shapes from the image acquired by the imaging unit, and an image processing unit.
A feature point calculation unit for obtaining the camera coordinates of a plurality of intersections from a plurality of line segment data or extension line data obtained by the image processing unit, and
A position calculation unit that calculates the world coordinates of the inspection device from the camera coordinates of a plurality of intersections calculated by the feature point calculation unit, and
A mapping processing unit that obtains the world coordinates of peripheral feature points of the inspection device from the camera coordinates of the intersections obtained by the feature point calculation unit and the world coordinates of the inspection device obtained by the position calculation unit.
An inspection device including a display device for displaying the peripheral feature points and a position calculation result of the inspection device.
請求項1に記載の検査装置において、
前記画像処理部において、撮像部で取得した画像から繰り返し格子形状を構成する線分
または繰り返し格子交点の延長線を抽出することを特徴とする検査装置。
In the inspection device according to claim 1,
An inspection apparatus characterized in that the image processing unit extracts a line segment forming a repeating grid shape or an extension line of a repeating grid intersection from an image acquired by the imaging unit.
請求項1に記載の検査装置において、
前記画像処理部において、撮像部で取得した画像から正多角形幾何形状を構成する頂点
を抽出し、前記特徴点算出部において、画像処理部で得られた頂点座標および正多角形幾
何形状当てはめにより正多角形頂点座標を求めることを特徴とする検査装置。
In the inspection device according to claim 1,
In the image processing unit, the vertices constituting the regular polygon geometry are extracted from the image acquired by the imaging unit, and in the feature point calculation unit, the vertex coordinates obtained by the image processing unit and the regular polygon geometry fitting are used. An inspection device characterized by obtaining the coordinates of regular polygon vertices.
請求項1に記載の検査装置において、
前記画像処理部において、撮像部で取得した画像から楕円幾何形状の周上に位置する頂
点を抽出し、特徴点算出部において、画像処理部で得られた頂点座標および楕円幾何形状
当てはめにより楕円周上頂点座標を求めることを特徴とする検査装置。
In the inspection device according to claim 1,
The image processing unit extracts vertices located on the circumference of the elliptical geometry from the image acquired by the imaging unit, and the feature point calculation unit extracts the vertex coordinates obtained by the image processing unit and the elliptical circumference by fitting the elliptical geometry. An inspection device characterized by obtaining the coordinates of the upper vertex.
請求項4に記載の検査装置において、
前記楕円幾何形状が円であることを特徴とする検査装置。
In the inspection device according to claim 4,
An inspection device characterized in that the elliptic geometry is a circle.
構造物内を遠隔走行する検査装置における検査方法であって、
周辺環境を撮像する撮像部を備えたロボットを移動するステップと、
前記撮像部で取得した画像から複数の線分または繰り返し特徴形状の延長線を抽出する
ステップと、
前記複数の線分データまたは延長線データから複数の交点の撮影機座標を求めるステップと、
前記求めた複数の交点の撮影機座標から前記検査装置の世界座標を求めるステップと、
前記求めた交点の撮影機座標および前記求めた検査装置の世界座標から検査装置の周辺特徴点の世界座標を求めるステップと、
前記周辺特徴点および検査装置の位置算出結果を表示する表示ステップと、を備えるこ
とを特徴とする検査方法。
It is an inspection method in an inspection device that travels remotely in a structure.
Steps to move a robot equipped with an imaging unit that captures the surrounding environment,
A step of extracting a plurality of line segments or extension lines of a repeating feature shape from the image acquired by the imaging unit, and
The step of obtaining the camera coordinates of a plurality of intersections from the plurality of line segment data or extension line data, and
The step of obtaining the world coordinates of the inspection device from the camera coordinates of the plurality of intersections obtained,
A step of obtaining the world coordinates of peripheral feature points of the inspection device from the photographer coordinates of the obtained intersection and the world coordinates of the obtained inspection device.
An inspection method comprising: a display step for displaying the peripheral feature points and the position calculation result of the inspection device.
JP2016254665A 2016-12-28 2016-12-28 Inspection equipment Active JP6803745B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016254665A JP6803745B2 (en) 2016-12-28 2016-12-28 Inspection equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016254665A JP6803745B2 (en) 2016-12-28 2016-12-28 Inspection equipment

Publications (2)

Publication Number Publication Date
JP2018105802A JP2018105802A (en) 2018-07-05
JP6803745B2 true JP6803745B2 (en) 2020-12-23

Family

ID=62785462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016254665A Active JP6803745B2 (en) 2016-12-28 2016-12-28 Inspection equipment

Country Status (1)

Country Link
JP (1) JP6803745B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672175B2 (en) * 2000-05-26 2011-04-20 本田技研工業株式会社 Position detection apparatus, position detection method, and position detection program
JP4604774B2 (en) * 2005-03-14 2011-01-05 オムロン株式会社 Calibration method for 3D measurement
JP4984650B2 (en) * 2006-05-30 2012-07-25 トヨタ自動車株式会社 Mobile device and self-position estimation method of mobile device
JP2010112836A (en) * 2008-11-06 2010-05-20 Yaskawa Electric Corp Self-position identification device and mobile robot provided with same
JP5713624B2 (en) * 2009-11-12 2015-05-07 キヤノン株式会社 3D measurement method
JP5514131B2 (en) * 2011-01-31 2014-06-04 日立Geニュークリア・エナジー株式会社 Image processing method, image processing apparatus, and underwater inspection apparatus equipped with the same
JP6011562B2 (en) * 2014-02-27 2016-10-19 Jfeスチール株式会社 Self-propelled inspection device and inspection system
JP2016050876A (en) * 2014-09-01 2016-04-11 株式会社国際電気通信基礎技術研究所 Hammering inspection recording device
CN104914865B (en) * 2015-05-29 2017-10-24 国网山东省电力公司电力科学研究院 Intelligent Mobile Robot Position Fixing Navigation System and method

Also Published As

Publication number Publication date
JP2018105802A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP6363863B2 (en) Information processing apparatus and information processing method
CN105352975B (en) A kind of bridge cable appearance detecting method
JP5586765B2 (en) Camera calibration result verification apparatus and method
JP5388921B2 (en) Three-dimensional distance measuring apparatus and method
JP2014013146A5 (en)
CN114283203B (en) Calibration method and system of multi-camera system
CN104424630A (en) Three-dimension reconstruction method and device, and mobile terminal
KR101752554B1 (en) System and method for nuclear fuel assembly deformation measurement
JP2014013147A5 (en)
JP6634842B2 (en) Information processing apparatus, information processing method and program
KR20180036075A (en) Method for Generating 3D Structure Model Mapped with Damage Information, and Media Being Recorded with Program Executing the Method
US10516822B2 (en) Method and device for merging images of calibration devices
JP2015031601A (en) Three-dimensional measurement instrument, method, and program
KR101677822B1 (en) Scanning-electron-microscope image processing device and scanning method
JP6803745B2 (en) Inspection equipment
US20180300873A1 (en) Component inspection method
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
CN116124010B (en) Visual displacement measurement system and method
Liu et al. Measuring method for micro-diameter based on structured-light vision technology
JP5904168B2 (en) Feature point extraction method and feature point extraction device for captured image
CN116858139A (en) Metal structure flatness measuring method based on binocular vision
JP6076103B2 (en) Image processing method
CN110634136B (en) Pipeline wall damage detection method, device and system
CN110672033B (en) A Pipeline Error Measurement Method Using 3D Rendering
JP6579142B2 (en) Coil yard storage management method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201201

R150 Certificate of patent or registration of utility model

Ref document number: 6803745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150