JP6803745B2 - Inspection equipment - Google Patents
Inspection equipment Download PDFInfo
- Publication number
- JP6803745B2 JP6803745B2 JP2016254665A JP2016254665A JP6803745B2 JP 6803745 B2 JP6803745 B2 JP 6803745B2 JP 2016254665 A JP2016254665 A JP 2016254665A JP 2016254665 A JP2016254665 A JP 2016254665A JP 6803745 B2 JP6803745 B2 JP 6803745B2
- Authority
- JP
- Japan
- Prior art keywords
- inspection device
- coordinates
- image
- imager
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007689 inspection Methods 0.000 title claims description 67
- 238000000034 method Methods 0.000 claims description 66
- 238000004364 calculation method Methods 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 29
- 230000002093 peripheral effect Effects 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 18
- 238000000605 extraction Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 238000003702 image correction Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02E—REDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
- Y02E30/00—Energy generation of nuclear origin
- Y02E30/30—Nuclear fission reactors
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Monitoring And Testing Of Nuclear Reactors (AREA)
Description
本発明は、原子力発電所の炉内点検作業にかかる検査装置に関する。 The present invention relates to an inspection device for in-core inspection work of a nuclear power plant.
原子力発電所の原子炉は、炉内機器の健全性を保つために、定期的な点検が実施されている。特にシュラウド内壁等の検査では、シュラウド内に検査装置を配置する必要があり、遠隔操作ロボットが活用されている。点検中の炉内は水で満たされており、検査装置を搭載する遠隔操作ロボットは水中遊泳するタイプが適用される。検査の高精度化、あるいは、検査員の作業負担軽減のため、遠隔操作ロボットの位置推定は必須である。水中ロボットの位置検知には、光学撮像機、慣性センサ等が用いられる。従来の代表的手法には、複数の光学撮像機を用いたステレオ測定法がある。ステレオ測定法では、複数の光学撮像機で撮影した画像に共通する特徴点を抽出し、三角測量法によってロボットの自己位置、さらには周辺環境中の特徴点の位置を算出する。 The reactors of nuclear power plants are regularly inspected to maintain the soundness of the equipment inside the reactors. In particular, in the inspection of the inner wall of the shroud, it is necessary to arrange an inspection device in the shroud, and a remote-controlled robot is utilized. The inside of the furnace under inspection is filled with water, and the remote-controlled robot equipped with the inspection device is a type that swims underwater. Position estimation of the remote-controlled robot is indispensable for improving the accuracy of inspection or reducing the workload of inspectors. An optical imager, an inertial sensor, or the like is used to detect the position of the underwater robot. A typical conventional method is a stereo measurement method using a plurality of optical imagers. In the stereo measurement method, feature points common to images taken by a plurality of optical imagers are extracted, and the self-position of the robot and the position of the feature points in the surrounding environment are calculated by the triangulation method.
ステレオ測定法は、画像に共通する特徴点からロボット自己位置および周辺環境中の特徴点位置を算出するため、ステレオ測定可能な視野が、複数撮像機の視野の重なり領域に制限される。そこで、例えば、特開2011−123051の提案がある。この特許には、複数撮像機においてステレオ測定を実施する際に、第2の撮像機では撮像していない特徴点について、第1の撮像機面上の対応点、撮像機の焦点位置を含む平面と、第2の撮像機平面、第2の撮像機画像上の特徴点群を用いて三次元座標を算出する方法について述べられている。 In the stereo measurement method, since the robot self-position and the feature point position in the surrounding environment are calculated from the feature points common to the images, the field of view capable of stereo measurement is limited to the overlapping region of the fields of view of the plurality of imagers. Therefore, for example, there is a proposal of Japanese Patent Application Laid-Open No. 2011-123051. In this patent, when performing stereo measurement with a plurality of imagers, a plane including a corresponding point on the surface of the first imager and a focal position of the imager for a feature point not imaged by the second imager. A method of calculating three-dimensional coordinates using a second imager plane and a group of feature points on the second imager image is described.
ロボット自己位置算出の高精度化には、より広域の特徴点座標を算出し、ロボットの逐次移動に伴う自己位置算出の繰り返し回数を抑制できることが望ましい。上述の特許文献1に記載の方法にあっては、片方の撮像機では視野外となる特徴点の三次元座標を算出する方法については記載されているが、繰り返し構造の特徴を利用した、より広域化した三次元座標算出方法については記載されていない。 In order to improve the accuracy of the robot self-position calculation, it is desirable to be able to calculate the feature point coordinates over a wider area and suppress the number of repetitions of the self-position calculation due to the sequential movement of the robot. In the method described in Patent Document 1 described above, a method of calculating the three-dimensional coordinates of a feature point that is out of the field of view with one of the imagers is described, but the feature of the repeating structure is used. There is no description about the wide-area three-dimensional coordinate calculation method.
そこで、本発明は、このような事情に鑑みなされたものであって、その目的は、繰り返し構造の特徴を利用して、複数撮像機でステレオ測定可能な範囲を広域化し、ロボット自己位置算出を高精度化する方法を提供することにある。 Therefore, the present invention has been made in view of such circumstances, and an object of the present invention is to utilize the characteristics of the repeating structure to widen the range in which stereo measurement can be performed by a plurality of imagers, and to calculate the robot self-position. The purpose is to provide a method for improving accuracy.
上記課題を解決するために、本発明は、撮像画像から線分および繰り返し特徴点の延長線を抽出し、複数の線分および延長線の交点座標を算出し、複数の交点座標から検査装置の自己位置および周辺特徴点の座標を算出する、ことを特徴とする。 In order to solve the above problems, the present invention extracts line segments and extension lines of repetitive feature points from the captured image, calculates the intersection coordinates of the plurality of line segments and extension lines, and uses the coordinates of the plurality of intersection points of the inspection device. It is characterized in that the coordinates of its own position and peripheral feature points are calculated.
本発明によれば、周辺特徴点の座標算出範囲が拡大し、自己位置算出繰り返し回数を抑制することで、自己位置を高精度に算出することが可能となる。 According to the present invention, the coordinate calculation range of the peripheral feature points is expanded, and the self-position calculation can be calculated with high accuracy by suppressing the number of repetitions of the self-position calculation.
以下、実施例を、図面を用いて説明する。 Hereinafter, examples will be described with reference to the drawings.
図1から図16を用いて、装置を用いた確認方法の概要について説明する。 The outline of the confirmation method using the apparatus will be described with reference to FIGS. 1 to 16.
図1は、本実施例1における検査装置および適用対象となる原子炉の全体構成を概略的に示す図である。原子炉1には、シュラウド2、上部格子板3、炉心支持板4、シュラウドサポート5等の構造物があり、PLR配管6等の配管が接続されている。また、原子炉1の上部には、作業スペースであるオペレーションフロア7があり、炉心直上には燃料交換台車8が設置されている。原子炉1内の目視検査を実施する場合、水中検査装置9を投入し、燃料交換台車8上の検査員14が表示装置12で水中検査装置9の位置を確認しながら、コントローラ13によって操作する。水中検査装置9は制御装置11によって制御されており、ケーブル10を介して接続されている。表示装置12およびコントローラ13は制御装置11に接続されている。
FIG. 1 is a diagram schematically showing the overall configuration of the inspection apparatus and the reactor to be applied in the first embodiment. The reactor 1 has structures such as a
図2は、本実施例における制御装置11の構成を概略的に示す図である。水中検査装置9に搭載された撮像機15で取得した画像は、画像取得部16によって制御装置11に取り込まれる。取得画像は線分抽出処理部17に送られ、特定の判定により画像内の線分領域が抽出される。さらに、特徴点算出処理部18において、線分の交点が特徴点として抽出される。位置算出処理部19において、画像から抽出した複数の特徴点および第1記憶部21に格納されている周辺構造物の位置情報を用いて撮像機15の位置を算出する。算出された位置情報は、表示装置12において表示、または、第2記憶部24に格納される。また、マッピング処理部20において、位置算出処理部19で算出した撮像機位置および画像内の特徴点を用いて、第1記憶部21に格納されている周辺構造物の位置情報を追加更新する。一方で、センサ22において取得される検査データは、検査データ取得部23に送られ、位置算出処理部19において算出された位置情報とともに、表示装置12に表示、または、第2記憶部24に格納される。
FIG. 2 is a diagram schematically showing the configuration of the
図3は、本実施例の検査装置における各機能の詳細を示すフロー図である。点検工程開始ステップS101において点検が開始されると、ロボット移動ステップS102において、位置参照構造物の配置箇所に向けてロボットの移動が開始される。基準位置静止ステップS103において、位置算出の基準となる位置参照構造物の周辺にロボットが静止されると、画像取得ステップS104において、ロボットに搭載された撮像機15での画像取得が実施される。取得された画像は、複数特徴点選択ステップS105において特徴点が抽出される。ロボット位置算出ステップS106において、複数特徴点選択ステップS105で抽出された複数の特徴点の撮像機座標と、特徴点の世界座標から、撮像機15の世界座標での位置が算出される。周辺特徴点抽出ステップS107において、撮像機15の世界座標と、取得画像から新たに抽出した特徴点から、周辺特徴点の世界座標が算出される。ロボット位置判定ステップS108においては、ロボット位置が点検を実施する場所となっているか否かが判定され、点検する場所となっている場合には点検用データ取得ステップS109に進み、センサ22によって各種点検用データが取得され、点検する場所でない場合には、ロボット移動ステップS111に進み、ロボットの移動が継続される。点検用データ取得ステップS109で点検用データの取得が完了すると、点検工程判定ステップS110に進み、全ての点検工程が完了したか否かが判定される。点検が完了した場合には、ロボット回収ステップS113に進み、ロボットが燃料交換台車8上に回収される。点検が完了していない場合には、ロボット移動ステップS111に進み、ロボットの移動が継続される。ロボット移動ステップS111で、ロボットの移動が再度開始され、任意位置静止ステップS112においてロボットが静止される。ロボット静止後、工程は画像取得ステップS104に進み、以降、ロボット位置算出ステップ、周辺特徴点位置算出ステップ、点検用データ取得ステップが、全点検工程が完了するまで繰り返される。点検が完了し、ロボット回収ステップS113においてロボットが回収されると、工程は点検完了ステップS114に進み、点検が完了する。
FIG. 3 is a flow chart showing details of each function in the inspection device of this embodiment. When the inspection is started in the inspection process start step S101, the robot starts moving toward the arrangement location of the position reference structure in the robot movement step S102. When the robot is stationary around the position reference structure that is the reference for position calculation in the reference position rest step S103, the image acquisition by the
以下、各ステップにおける詳細について個別に説明する。 Hereinafter, the details of each step will be described individually.
まず、図4から図5を用いて、撮像機15による画像取得、および、特徴点の撮像機座標算出の詳細について説明する。図4は、複数の撮像機を用いて位置を算出する方法について説明するための装置を概略的に示す図であり、撮像機における特徴点の結像関係を示したものである。空間特徴点27aは、左右2台の撮像機15において、レンズ25を介して光学素子26上に画像上特徴点27Aとして結像される。撮像機15における座標軸は、撮像機配列方向をx軸、撮像機配列に直交する方向をy軸、撮像機による撮像方向をz軸とする。図5は、複数の撮像機を用いて位置を算出する方法について説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rに、それぞれ画像上特徴点27Aが撮像されている。撮像機座標の原点を、左撮像機のレンズ中心位置とした場合、空間特徴点27aの撮像機座標における座標(X,Y,Z)は、次の式(1)から式(3)で表される。
First, the details of image acquisition by the
ここで、Bは左右の撮像機間の距離、dx1は左撮像機撮像画像28Lの垂直中心位置から画像上特徴点27Aまでの距離、dx2は右撮像機撮像画像28Rの垂直中心位置から画像上特徴点27Aまでの距離、dyは左撮像機撮像画像28Lおよび右撮像機撮像画像28Rの水平中心位置から画像上特徴点27Aまでの距離、Lはレンズ25の焦点距離を表している。複数特徴点選択ステップS105では、3点以上の空間特徴点27aが選択され、それぞれ撮像機座標における座標が算出される。なお、空間特徴点27aは、後述する格子形状の交点のように、一意に空間上の位置が定められており、左右2台の撮像機で同一の点として画像中に捉えられるものを指す。特徴点は格子形状の交点に限らず、構造物形状の角部のような直線が交差する点や、構造物に描かれた点、円形の中心点など、一意に空間上の位置が定められる点であれば良い。
Here, B is the distance between the left and right imagers, dx1 is the distance from the vertical center position of the
次に、ロボット位置算出ステップS106における処理の詳細について説明する。撮像機15の世界座標の位置は、世界座標が予め既知の空間特徴点27aを3点以上用いて算出される。空間特徴点27aの3点の世界座標を、それぞれ(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)とする。また、空間特徴点27aの3点を撮像機15で撮影した際の撮像機座標を、それぞれ(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)とする。このときの世界座標と撮像機座標の変換は、以下の行列式(4)から(6)で表される。
Next, the details of the processing in the robot position calculation step S106 will be described. The position of the world coordinates of the
ここで、Rは回転行列、Tは平行移動行列である。φはロール回転(z軸周り回転)、θはピッチ回転(y軸周り回転)、ψはヨー回転(x軸周り回転)、txはx軸方向移動、tyはy軸方向移動、tzはz軸方向移動を表している。撮像機15の世界座標での位置は、平行移動行列を用いて(tx,ty,tz)で表される。なお、3点以上であるn点の特徴点から撮像機位置を求める場合には、以下の式で表される行列Aにおいて、各行列成分の二乗和が最小となるようにする。
Here, R is a rotation matrix and T is a translation matrix. φ is roll rotation (rotation around z axis), θ is pitch rotation (rotation around y axis), ψ is yaw rotation (rotation around x axis), tx is movement in x axis direction, ty is movement in y axis direction, tz is z Represents axial movement. The position of the
以上の方法により、撮像機15の世界座標での位置が求まる。次に、周辺特徴点抽出ステップS107における処理の詳細について説明する。撮像機15の位置を求めた後、撮像画像上で新たに周辺の特徴点を選択する。この特徴点は、世界座標が予め既知である必要はない。左右撮像画像上で選択された特徴点は、式(1)から式(3)を用いて、撮像機座標(X4,Y4,Z4)が求められる。その後、撮像機座標、および、式(7)で示した行列式を用いて、特徴点の世界座標(x4,y4,z4)は以下の式(8)で求められる。
By the above method, the position of the
以上の方法により、周辺特徴点の世界座標での位置が求まる。世界座標が求められた特徴点は、第1記憶部21に格納され、ロボット移動ステップS111、および、任意位置静止ステップS112を経て、撮像機が移動した後の状態で画像を取得し、複数特徴点選択ステップS105において、空間特徴点27aを選択する際に、世界座標が予め既知の空間特徴点27aとして利用する。
By the above method, the position of the peripheral feature points in the world coordinates can be obtained. The feature points for which the world coordinates have been obtained are stored in the
次に、図6から図9を用いて、本発明の提案である仮想特徴点を用いない場合において、ロボット移動ステップS111、および、任意位置静止ステップS112を経て、画像取得ステップS104から周辺特徴点抽出ステップS107を繰り返す場合の詳細を説明する。図6は、撮像機が移動する前の位置算出について説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動する前の装置配置外観を示している。空間特徴点27a、27b、27cは、世界座標が既知の空間特徴点であり、左右それぞれの撮像機15の撮像領域29の重なり領域に位置している。図7は、撮像機が移動する前の位置算出について説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像されている画像上特徴点27A、27B、27Cを用いて、式(1)から式(6)によって撮像機15の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいてそれぞれ画像上特徴点27D、27Eを選択し、式(1)から式(3)、式(7)によって、それまで未知であった空間特徴点27d、27eの世界座標を求める。その後、撮像機15は、図6のy軸方向に移動する。
Next, using FIGS. 6 to 9, when the virtual feature points proposed in the present invention are not used, the peripheral feature points are taken from the image acquisition step S104 through the robot moving step S111 and the arbitrary position resting step S112. Details of the case where the extraction step S107 is repeated will be described. FIG. 6 is a diagram schematically showing an apparatus and a reference structure for explaining the position calculation before the imager moves, and shows the appearance of the apparatus arrangement before the
図8は、撮像機が移動した後の位置算出について説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動した後の装置配置外観を示している。撮像機15の撮像領域29の重なり領域に、世界座標が既知の空間特徴点27c、および、移動前に世界座標を求めた空間特徴点27d、27eが含まれるように、撮像機15の移動距離は調整される。図9は、撮像機が移動した後の位置算出について説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。撮像機15の移動前と同様に、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像されている画像上特徴点27C、27D、27Eを用いて、式(1)から式(6)によって撮像機15の移動後の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいてそれぞれ画像上特徴点27F、27G、27Hを選択し、式(1)から式(3)、式(7)によって空間特徴点27f、27g、27hの世界座標を求める。以降、この手順を繰り返すことで、撮像機位置、および、周辺構造物の特徴点座標を交互に算出し、点検終了までのロボット位置を逐次算出する。
FIG. 8 is a diagram schematically showing an apparatus and a reference structure for explaining the position calculation after the imager has moved, and shows the appearance of the apparatus arrangement after the
図10から図12を用いて、本発明の提案である仮想特徴点の求め方について、その詳細を説明する。図10は、従来手法により撮像画像から抽出可能な特徴点を示す図であるであり、本発明の提案である仮想特徴点を用いない場合の抽出可能な特徴点を示すものである。規則的な格子形状をもつ参照構造物の撮像画像において、図10において黒丸で示した撮像画像28内の格子の交点を特徴点として抽出可能である。なお、交点の抽出方法として、画像処理による抽出が可能である。例えば、取得した画像において、二値化処理によって、画像中で輝度の異なる格子の複数の直線部分を抽出し、細線化処理によって抽出直線領域の中心部分を抽出し、抽出した直線中心領域に近似直線を当てはめ、近似直線の交点を算出することによって、格子交点を特徴点として抽出できる。なお、格子交点の抽出方法はこの方法に限らず、同様の効果が得られる別の画像処理手段を用いて処理を実施しても良い。また、格子交点の抽出方法は、画像処理による自動抽出に限らず、例えば人の目視と手動での画像位置選択によって交点を抽出しても良い。さらに、特徴点の抽出処理を実施する前に、視認性向上処理、または、画像補正処理を必要に応じて適用しても良い。視認性向上処理としては、例えば、コントラスト補正処理などによる輝度分布の補正、フォーカス補正処理などによる焦点ぼけの補正などがある。画像補正処理としては、レンズひずみ補正処理などによる画像ひずみの補正がある。ここでは、各処理の詳細については割愛する。
The details of the method of obtaining the virtual feature point proposed in the present invention will be described with reference to FIGS. 10 to 12. FIG. 10 is a diagram showing feature points that can be extracted from a captured image by a conventional method, and shows the feature points that can be extracted when the virtual feature points proposed by the present invention are not used. In the captured image of the reference structure having a regular grid shape, the intersection of the grids in the captured
図11は、提案手法により撮像画像から仮想延長線を用いて抽出可能な特徴点を示す図であり、格子直線の仮想延長線を用いた場合に抽出可能な特徴点、および、仮想特徴点を示すものである。参照構造物の格子形状が直線で構成されている場合には、画像上に撮像されている直線の延長線上にも格子の交点が存在する。撮像画像28上の直線成分を延長し、図11において長破線で示している仮想延長線31を仮定することで、その交点である仮想特徴点30を抽出できる。
FIG. 11 is a diagram showing feature points that can be extracted from the captured image using the virtual extension line by the proposed method, and shows the feature points that can be extracted when the virtual extension line of the grid line is used and the virtual feature points. It shows. When the grid shape of the reference structure is composed of straight lines, the intersections of the grids also exist on the extension lines of the straight lines imaged on the image. By extending the linear component on the captured
図12は、提案手法により撮像画像から繰り返し特徴形状延長線を用いて抽出可能な特徴点を示す図であり、格子直線の仮想延長線、および、繰り返し特徴形状の延長線を用いた場合に抽出可能な特徴点、および、仮想特徴点を示したものである。参照構造物の格子形状が等間隔に構成されている場合には、特徴点として抽出可能な複数の格子交点について、その複数の格子交点を通る直線の延長線上にも格子の交点が存在する。撮像画像28上の格子交点を通る直線を延長し、図12において短破線で示している繰り返し特徴形状延長線32を仮定することで、仮想延長線31同士の交点および仮想延長線31と繰り返し特徴形状延長線32の交点を含む仮想特徴点30を抽出できる。以上の方法により、撮像画像の範囲外にある仮想特徴点を抽出し、位置算出に用いる特徴点として利用することが可能である。
FIG. 12 is a diagram showing feature points that can be extracted from the captured image using the repeat feature shape extension line by the proposed method, and is extracted when the virtual extension line of the lattice straight line and the extension line of the repeat feature shape are used. It shows possible feature points and virtual feature points. When the grid shape of the reference structure is configured at equal intervals, there are grid intersections on the extension of the straight line passing through the plurality of grid intersections for the plurality of grid intersections that can be extracted as feature points. By extending the straight line passing through the grid intersection on the captured
次に、図13から図16を用いて、本発明の提案である仮想特徴点を用いた場合において、ロボット移動ステップS111、および、任意位置静止ステップS112を経て、画像取得ステップS104から周辺特徴点抽出ステップS107を繰り返す場合の詳細を説明する。図13は、撮像機が移動する前の位置算出について提案手法を説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動する前の装置配置外観を示している。空間特徴点27a、27b、27cは、世界座標が既知の空間特徴点であり、左右それぞれの撮像機15の撮像領域29の重なり領域に位置している。
Next, when the virtual feature points proposed in the present invention are used with reference to FIGS. 13 to 16, the peripheral feature points are taken from the image acquisition step S104 through the robot moving step S111 and the arbitrary position resting step S112. Details of the case where the extraction step S107 is repeated will be described. FIG. 13 is a diagram schematically showing a device and a reference structure for explaining the proposed method for position calculation before the imager moves, and shows the appearance of the device arrangement before the
図14は、撮像機が移動する前の位置算出について提案手法を説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像されている画像上特徴点27A、27B、27Cを用いて、式(1)から式(6)によって撮像機15の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて、仮想特徴点の抽出手法を用い、それぞれ画像上特徴点27D、27E、27Fを選択し、式(1)から式(3)、式(7)によって、それまで未知であった空間特徴点27d、27e、27fの世界座標を求める。その後、撮像機15は、図13のy軸方向に移動する。
FIG. 14 is a diagram schematically showing an image captured for explaining the proposed method for position calculation before the imager moves, and shows images captured by the two left and
図15は、撮像機が移動した後の位置算出について提案手法を説明するための装置および参照構造物について概略的に示す図であり、撮像機15が移動した後の装置配置外観を示している。撮像機15の撮像画像から座標が求められる範囲に、移動前に世界座標を求めた空間特徴点27d、27e、27fが含まれるように、撮像機15の移動距離は調整される。
FIG. 15 is a diagram schematically showing a device and a reference structure for explaining the proposed method for position calculation after the imager has moved, and shows the appearance of the device arrangement after the
図16は、撮像機が移動した後の位置算出について提案手法を説明するための撮像画像を概略的に示す図であり、左右2台の撮像機15における撮像画像を示したものである。左撮像機撮像画像28L、右撮像機撮像画像28Rにおいて撮像画像から座標が求められる画像上特徴点27D、27E、27Fを用いて、式(1)から式(6)によって撮像機15の移動後の空間座標上の位置を求める。その後、左撮像機撮像画像28L、右撮像機撮像画像28Rにおいてそれぞれ画像上特徴点27G、27H、27Iを選択し、式(1)から式(3)、式(7)によって空間特徴点27g、27h、27iの世界座標を求める。以降、この手順を繰り返すことで、撮像機位置、および、周辺構造物の特徴点座標を交互に算出し、点検終了までのロボット位置を逐次算出する。
図13から図16に示した、仮想特徴点を用いた位置算出においては、図6から図9において示した、仮想特徴点を用いない場合に比べ、撮像機位置を算出するステップ間の撮像機移動距離が大きくなり、点検終了までのロボット位置の算出回数が減少する。一方で、撮像機位置、および、周辺構造物の特徴点座標の算出においては、撮像機の画素サイズに起因する誤差が発生する。この誤差は、ロボットの位置算出計算を実施するごとに発生し、ロボットの移動と計算を繰り返すことによって、計算回数に比例して蓄積する。そのため、計算回数が減少することによって、誤差の蓄積回数も減少し、結果として高精度な位置検出が達成される。
FIG. 16 is a diagram schematically showing an image captured for explaining the proposed method for position calculation after the imager has moved, and shows images captured by the two left and
In the position calculation using the virtual feature points shown in FIGS. 13 to 16, the imager between the steps for calculating the imager position is compared with the case where the virtual feature points shown in FIGS. 6 to 9 are not used. The movement distance becomes large, and the number of times the robot position is calculated until the inspection is completed decreases. On the other hand, in the calculation of the imager position and the feature point coordinates of the peripheral structure, an error occurs due to the pixel size of the imager. This error occurs every time the robot position calculation calculation is performed, and accumulates in proportion to the number of calculations by repeating the movement and calculation of the robot. Therefore, as the number of calculations decreases, the number of times of error accumulation also decreases, and as a result, highly accurate position detection is achieved.
以上の方法によって、点検工程におけるロボット自己位置算出を高精度に実施することが可能となる。 By the above method, the robot self-position calculation in the inspection process can be performed with high accuracy.
なお、本実施例では、世界座標が既知の特徴点と、周辺特徴点抽出ステップS107において世界座標を算出する特徴点について、同一の格子形状の上に位置している例を図示して説明したが、周辺特徴点抽出ステップS107において世界座標を算出する特徴点は、世界座標が既知の特徴点と同一の格子形状上にある必要はなく、また、格子形状の格子間隔、格子向きや格子角度が同一となっていなくても良い。さらに、繰り返し特徴形状延長線32を当てはめる繰り返し構造は、周期的な特徴形状をもつものであれば格子形状に限らず、例えば、周期的に配列した円形形状の中心点や、円周の接線など、これに類するものを用いても良い。
In this embodiment, a feature point whose world coordinates are known and a feature point whose world coordinates are calculated in the peripheral feature point extraction step S107 are illustrated and described as being located on the same grid shape. However, the feature points for which the world coordinates are calculated in the peripheral feature point extraction step S107 do not have to be on the same grid shape as the known feature points, and the grid spacing, grid orientation, and grid angle of the grid shape. Do not have to be the same. Further, the repeating structure to which the repeating feature
以下、図17から図19を用いて、実施例2を説明する。 Hereinafter, the second embodiment will be described with reference to FIGS. 17 to 19.
本実施例による点検プロセスは、実施例1の図3に示したプロセスと同様である。本実施例では、実施例1に示した特徴点抽出方法と異なる方法で、撮像画像の視野外にある仮想特徴点を抽出する。 The inspection process according to this embodiment is the same as the process shown in FIG. 3 of Example 1. In this embodiment, virtual feature points outside the field of view of the captured image are extracted by a method different from the feature point extraction method shown in Example 1.
図17は、多角形撮像画像から仮想特徴点を算出する方法を説明するための図であり、具体的には正八角形特徴模様における視野外特徴点の抽出方法について説明するものである。撮像画像28において、正八角形の頂点である画像上特徴点27A、27B、27Cが撮像されている場合に、正八角形形状である幾何形状当てはめ仮想線33の当てはめによって、視野外の画像上特徴点27D、27E、27F、27G、27Hの座標を算出することが可能である。なお、ここでは、正多角形の例として正八角形を示したが、特徴模様はこれに限らず、他の正多角形特徴模様を用いた特徴点算出にも適用可能である。
FIG. 17 is a diagram for explaining a method of calculating virtual feature points from a polygonal captured image, and specifically describes a method of extracting out-of-field feature points in a regular octagonal feature pattern. In the captured
図18は、円形撮像画像から仮想特徴点を算出する方法を説明するための図であり、具体的には円形特徴模様における円周上の視野外特徴点の抽出方法について説明するものである。画像上特徴点27A、27B、27Cが、円周上に位置している場合、円形状である幾何形状当てはめ仮想線33の当てはめによって、円の中心座標である画像上特徴点27Oを軸とした点対称位置となる、視野外の画像上特徴点27E、27F、27Gの座標を算出することが可能である。さらに、画像上特徴点27A、27B、27Cが、繰り返し構造を持ち、等間隔に位置している場合には、視野外の画像上特徴点27D、27Hの座標も算出することが可能である。
FIG. 18 is a diagram for explaining a method of calculating virtual feature points from a circular captured image, and specifically describes a method of extracting out-of-field feature points on the circumference of a circular feature pattern. When the feature points 27A, 27B, and 27C on the image are located on the circumference, the feature point 27O on the image, which is the center coordinate of the circle, is used as the axis by fitting the geometric shape fitting
図19は、楕円形撮像画像から仮想特徴点を算出する方法を説明するための図であり、具体的には楕円形特徴模様における楕円周上の視野外特徴点の抽出方法について説明するものである。画像上特徴点27A、27B、27Cが、楕円の周上に位置している場合、楕円形状である幾何形状当てはめ仮想線33の当てはめによって、楕円の中心座標である画像上特徴点27Oを軸とした点対称位置となる、視野外の画像上特徴点27E、27F、27Gの座標を算出することが可能である。さらに、画像上特徴点27Bが、楕円長軸、または、楕円短軸に対し対称位置となる、視野外の画像上特徴点27D、27Hの座標も算出することが可能である。
FIG. 19 is a diagram for explaining a method of calculating virtual feature points from an elliptical captured image, and specifically describes a method of extracting out-of-field feature points on the elliptical circumference in an elliptical feature pattern. is there. When the feature points 27A, 27B, and 27C on the image are located on the circumference of the ellipse, the feature point 27O on the image, which is the center coordinate of the ellipse, is used as the axis by fitting the geometric shape fitting
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 The present invention is not limited to the above-mentioned examples, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Further, it is possible to add / delete / replace a part of the configuration of each embodiment with another configuration.
1:原子炉
2:シュラウド
3:上部格子板
4:炉心支持板
5:シュラウドサポート
6:PLR配管
7:オペレーションフロア
8:燃料交換台車
9:水中検査装置
10:ケーブル
11:制御装置
12:表示装置
13:コントローラ
14:検査員
15:撮像機
16:画像取得部
17:線分抽出処理部
18:特徴点算出処理部
19:位置算出処理部
20:マッピング処理部
21:第1記憶部
22:センサ
23:検査データ取得部
24:第2記憶部
25:レンズ
26:光学素子
27a、27b、27c、27d、27e、27f、27g、27h、27i:空間特徴点
27A、27B、27C、27D、27E、27F、27G、27H、27I、27O:画像上特徴点
28:撮像画像
28L:左撮像機撮像画像
28R:右撮像機撮像画像
29:撮像領域
30:仮想特徴点
31:仮想延長線
32:繰り返し特徴形状延長線
33:幾何形状当てはめ仮想線
S101:点検工程開始ステップ
S102:ロボット移動ステップ
S103:基準位置静止ステップ
S104:画像取得ステップ
S105:複数特徴点選択ステップ
S106:ロボット位置算出ステップ
S107:周辺特徴点抽出ステップ
S108:ロボット位置判定ステップ
S109:点検用データ取得ステップ
S110:点検工程判定ステップ
S111:ロボット移動ステップ
S112:任意位置静止ステップ
S113:ロボット回収ステップ
S114:点検完了ステップ
1: Reactor 2: Shroud 3: Upper lattice plate 4: Core support plate 5: Shroud support 6: PLR piping 7: Operation floor 8: Refueling trolley 9: Underwater inspection device 10: Cable 11: Control device 12: Display device 13: Controller 14: Inspector 15: Imager 16: Image acquisition unit 17: Line segment extraction processing unit 18: Feature point calculation processing unit 19: Position calculation processing unit 20: Mapping processing unit 21: First storage unit 22: Sensor 23: Inspection data acquisition unit 24: Second storage unit 25: Lens 26: Optical elements 27a, 27b, 27c, 27d, 27e, 27f, 27g, 27h, 27i: Spatial feature points 27A, 27B, 27C, 27D, 27E, 27F, 27G, 27H, 27I, 27O: Feature points on the image 28: Captured image 28L: Left imager captured image 28R: Right imager captured image 29: Imaging area 30: Virtual feature point 31: Virtual extension line 32: Repeated feature Shape extension line 33: Geometric shape fitting virtual line S101: Inspection process start step S102: Robot movement step S103: Reference position stationary step S104: Image acquisition step S105: Multiple feature point selection step S106: Robot position calculation step S107: Peripheral feature point Extraction step S108: Robot position determination step S109: Inspection data acquisition step S110: Inspection process determination step S111: Robot movement step S112: Arbitrary position stationary step S113: Robot recovery step S114: Inspection completion step
Claims (6)
周辺環境を撮像する撮像部と、
前記撮像部で取得した画像から複数の線分または繰り返し特徴形状の延長線を抽出する
画像処理部と、
前記画像処理部で得られた複数の線分データまたは延長線データから複数の交点の撮影機座標を求める特徴点算出部と、
前記特徴点算出部で算出した複数の交点の撮影機座標から前記検査装置の世界座標を算出する位置算出部と、
前記特徴点算出部で求めた交点の撮影機座標および前記位置算出部で求めた検査装置の世界座標から検査装置の周辺特徴点の世界座標を求めるマッピング処理部と、
前記周辺特徴点および検査装置の位置算出結果を表示する表示装置と、を備えることを
特徴とする検査装置。 An inspection device that travels remotely in a structure
An imaging unit that captures the surrounding environment and
An image processing unit that extracts a plurality of line segments or extension lines of repeated feature shapes from the image acquired by the imaging unit, and an image processing unit.
A feature point calculation unit for obtaining the camera coordinates of a plurality of intersections from a plurality of line segment data or extension line data obtained by the image processing unit, and
A position calculation unit that calculates the world coordinates of the inspection device from the camera coordinates of a plurality of intersections calculated by the feature point calculation unit, and
A mapping processing unit that obtains the world coordinates of peripheral feature points of the inspection device from the camera coordinates of the intersections obtained by the feature point calculation unit and the world coordinates of the inspection device obtained by the position calculation unit.
An inspection device including a display device for displaying the peripheral feature points and a position calculation result of the inspection device.
前記画像処理部において、撮像部で取得した画像から繰り返し格子形状を構成する線分
または繰り返し格子交点の延長線を抽出することを特徴とする検査装置。 In the inspection device according to claim 1,
An inspection apparatus characterized in that the image processing unit extracts a line segment forming a repeating grid shape or an extension line of a repeating grid intersection from an image acquired by the imaging unit.
前記画像処理部において、撮像部で取得した画像から正多角形幾何形状を構成する頂点
を抽出し、前記特徴点算出部において、画像処理部で得られた頂点座標および正多角形幾
何形状当てはめにより正多角形頂点座標を求めることを特徴とする検査装置。 In the inspection device according to claim 1,
In the image processing unit, the vertices constituting the regular polygon geometry are extracted from the image acquired by the imaging unit, and in the feature point calculation unit, the vertex coordinates obtained by the image processing unit and the regular polygon geometry fitting are used. An inspection device characterized by obtaining the coordinates of regular polygon vertices.
前記画像処理部において、撮像部で取得した画像から楕円幾何形状の周上に位置する頂
点を抽出し、特徴点算出部において、画像処理部で得られた頂点座標および楕円幾何形状
当てはめにより楕円周上頂点座標を求めることを特徴とする検査装置。 In the inspection device according to claim 1,
The image processing unit extracts vertices located on the circumference of the elliptical geometry from the image acquired by the imaging unit, and the feature point calculation unit extracts the vertex coordinates obtained by the image processing unit and the elliptical circumference by fitting the elliptical geometry. An inspection device characterized by obtaining the coordinates of the upper vertex.
前記楕円幾何形状が円であることを特徴とする検査装置。 In the inspection device according to claim 4,
An inspection device characterized in that the elliptic geometry is a circle.
周辺環境を撮像する撮像部を備えたロボットを移動するステップと、
前記撮像部で取得した画像から複数の線分または繰り返し特徴形状の延長線を抽出する
ステップと、
前記複数の線分データまたは延長線データから複数の交点の撮影機座標を求めるステップと、
前記求めた複数の交点の撮影機座標から前記検査装置の世界座標を求めるステップと、
前記求めた交点の撮影機座標および前記求めた検査装置の世界座標から検査装置の周辺特徴点の世界座標を求めるステップと、
前記周辺特徴点および検査装置の位置算出結果を表示する表示ステップと、を備えるこ
とを特徴とする検査方法。 It is an inspection method in an inspection device that travels remotely in a structure.
Steps to move a robot equipped with an imaging unit that captures the surrounding environment,
A step of extracting a plurality of line segments or extension lines of a repeating feature shape from the image acquired by the imaging unit, and
The step of obtaining the camera coordinates of a plurality of intersections from the plurality of line segment data or extension line data, and
The step of obtaining the world coordinates of the inspection device from the camera coordinates of the plurality of intersections obtained,
A step of obtaining the world coordinates of peripheral feature points of the inspection device from the photographer coordinates of the obtained intersection and the world coordinates of the obtained inspection device.
An inspection method comprising: a display step for displaying the peripheral feature points and the position calculation result of the inspection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016254665A JP6803745B2 (en) | 2016-12-28 | 2016-12-28 | Inspection equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016254665A JP6803745B2 (en) | 2016-12-28 | 2016-12-28 | Inspection equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018105802A JP2018105802A (en) | 2018-07-05 |
JP6803745B2 true JP6803745B2 (en) | 2020-12-23 |
Family
ID=62785462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016254665A Active JP6803745B2 (en) | 2016-12-28 | 2016-12-28 | Inspection equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6803745B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4672175B2 (en) * | 2000-05-26 | 2011-04-20 | 本田技研工業株式会社 | Position detection apparatus, position detection method, and position detection program |
JP4604774B2 (en) * | 2005-03-14 | 2011-01-05 | オムロン株式会社 | Calibration method for 3D measurement |
JP4984650B2 (en) * | 2006-05-30 | 2012-07-25 | トヨタ自動車株式会社 | Mobile device and self-position estimation method of mobile device |
JP2010112836A (en) * | 2008-11-06 | 2010-05-20 | Yaskawa Electric Corp | Self-position identification device and mobile robot provided with same |
JP5713624B2 (en) * | 2009-11-12 | 2015-05-07 | キヤノン株式会社 | 3D measurement method |
JP5514131B2 (en) * | 2011-01-31 | 2014-06-04 | 日立Geニュークリア・エナジー株式会社 | Image processing method, image processing apparatus, and underwater inspection apparatus equipped with the same |
JP6011562B2 (en) * | 2014-02-27 | 2016-10-19 | Jfeスチール株式会社 | Self-propelled inspection device and inspection system |
JP2016050876A (en) * | 2014-09-01 | 2016-04-11 | 株式会社国際電気通信基礎技術研究所 | Hammering inspection recording device |
CN104914865B (en) * | 2015-05-29 | 2017-10-24 | 国网山东省电力公司电力科学研究院 | Intelligent Mobile Robot Position Fixing Navigation System and method |
-
2016
- 2016-12-28 JP JP2016254665A patent/JP6803745B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018105802A (en) | 2018-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6363863B2 (en) | Information processing apparatus and information processing method | |
CN105352975B (en) | A kind of bridge cable appearance detecting method | |
JP5586765B2 (en) | Camera calibration result verification apparatus and method | |
JP5388921B2 (en) | Three-dimensional distance measuring apparatus and method | |
JP2014013146A5 (en) | ||
CN114283203B (en) | Calibration method and system of multi-camera system | |
CN104424630A (en) | Three-dimension reconstruction method and device, and mobile terminal | |
KR101752554B1 (en) | System and method for nuclear fuel assembly deformation measurement | |
JP2014013147A5 (en) | ||
JP6634842B2 (en) | Information processing apparatus, information processing method and program | |
KR20180036075A (en) | Method for Generating 3D Structure Model Mapped with Damage Information, and Media Being Recorded with Program Executing the Method | |
US10516822B2 (en) | Method and device for merging images of calibration devices | |
JP2015031601A (en) | Three-dimensional measurement instrument, method, and program | |
KR101677822B1 (en) | Scanning-electron-microscope image processing device and scanning method | |
JP6803745B2 (en) | Inspection equipment | |
US20180300873A1 (en) | Component inspection method | |
JP4132068B2 (en) | Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus | |
CN116124010B (en) | Visual displacement measurement system and method | |
Liu et al. | Measuring method for micro-diameter based on structured-light vision technology | |
JP5904168B2 (en) | Feature point extraction method and feature point extraction device for captured image | |
CN116858139A (en) | Metal structure flatness measuring method based on binocular vision | |
JP6076103B2 (en) | Image processing method | |
CN110634136B (en) | Pipeline wall damage detection method, device and system | |
CN110672033B (en) | A Pipeline Error Measurement Method Using 3D Rendering | |
JP6579142B2 (en) | Coil yard storage management method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190821 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6803745 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |