JP6155472B1 - Land / land determination device, land / land determination method, and underwater inspection device - Google Patents
Land / land determination device, land / land determination method, and underwater inspection device Download PDFInfo
- Publication number
- JP6155472B1 JP6155472B1 JP2017505874A JP2017505874A JP6155472B1 JP 6155472 B1 JP6155472 B1 JP 6155472B1 JP 2017505874 A JP2017505874 A JP 2017505874A JP 2017505874 A JP2017505874 A JP 2017505874A JP 6155472 B1 JP6155472 B1 JP 6155472B1
- Authority
- JP
- Japan
- Prior art keywords
- land
- image
- underwater
- camera
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Studio Devices (AREA)
Abstract
水陸判定装置は、判定対象が水中にあるか陸上にあるかを判定する。この装置は、特定の画像パターンが表示された検出部材と、カメラと、画像取得部と、判定部とを有する。カメラは、判定対象に取り付けられ、水中にある場合に第1の画角で、空気中にある場合に第1の画角よりも広い第2の画角で、検出部材を撮影して画像データを生成する。画像取得部は、カメラから画像データを取得する。判定部は、取得した画像データが示す画像に含まれ、カメラの画角に応じて変化する検出部材の部分の画像に基づき、判定対象が陸上にあるか水中にあるかを判定する。The land-and-land determination device determines whether the determination target is underwater or on land. This apparatus includes a detection member on which a specific image pattern is displayed, a camera, an image acquisition unit, and a determination unit. The camera is attached to the determination target, and the detection member is imaged at a first angle of view when in water and at a second angle of view wider than the first angle of view when in air. Is generated. The image acquisition unit acquires image data from the camera. The determination unit determines whether the determination target is on land or in water based on the image of the part of the detection member that is included in the image indicated by the acquired image data and changes according to the angle of view of the camera.
Description
本開示は、物体が水中にあるか陸上にあるかを判定する装置及び方法に関する。また、本開示は水中の構造物を検査する水中検査装置に関する。 The present disclosure relates to an apparatus and method for determining whether an object is underwater or on land. The present disclosure also relates to an underwater inspection apparatus that inspects an underwater structure.
特許文献1は、水中構造物(ダム壁、橋桁等)の検査を行う水中検査装置を開示する。この水中検査装置は、プロペラやモータ等から構成される推進部(スラスタ)を有しており、この推進部により水中を移動する。また、水中検査装置は、レーザ光を照射するレーザ光源を有しており、レーザ光が照射された検査対象の画像に基づき検査対象の実スケールを判断する。 Patent Document 1 discloses an underwater inspection apparatus that inspects underwater structures (dam walls, bridge girders, etc.). This underwater inspection apparatus has a propulsion unit (thruster) composed of a propeller, a motor, and the like, and moves underwater by the propulsion unit. The underwater inspection apparatus has a laser light source that irradiates laser light, and determines the actual scale of the inspection object based on the image of the inspection object irradiated with the laser light.
特許文献2は、光の波長の吸収特性の違いに基づいて水中か陸上かを判断する方法を開示する。また、特許文献3は、圧力センサの値に基づいて水中か陸上かを判断する方法を開示している。 Patent Document 2 discloses a method for determining whether it is underwater or on land based on the difference in absorption characteristics of light wavelengths. Patent Document 3 discloses a method for determining whether it is underwater or land based on the value of a pressure sensor.
本開示の第1の態様に係る水陸判定装置は、判定対象が水中にあるか陸上にあるかを判定する。この装置は、特定の画像パターンが表示された検出部材と、カメラと、画像取得部と、判定部とを有する。カメラは、判定対象に取り付けられ、水中にある場合に第1の画角で、空気中にある場合に前記第1の画角よりも広い第2の画角で、検出部材を撮影して画像データを生成する。画像取得部は、カメラから画像データを取得する。判定部は、取得した画像データが示す画像に含まれ、カメラの画角に応じて変化する検出部材の部分の画像に基づき、判定対象が陸上にあるか水中にあるかを判定する。 The water and land determination apparatus according to the first aspect of the present disclosure determines whether the determination target is in water or on land. This apparatus includes a detection member on which a specific image pattern is displayed, a camera, an image acquisition unit, and a determination unit. The camera is attached to the determination target and images the detection member at a first angle of view when in water and at a second angle of view wider than the first angle of view when in air. Generate data. The image acquisition unit acquires image data from the camera. The determination unit determines whether the determination target is on land or in water based on the image of the part of the detection member that is included in the image indicated by the acquired image data and changes according to the angle of view of the camera.
本開示の第2の態様に係る水中検査装置は、水中にある検査対象物の画像を撮影する。この装置は、水中ロボットと、水中ロボットが陸上にあるか水中にあるかを判定する、第1の態様に係る水陸判定装置とを有する。水中ロボットは、水中を移動するための推力を発生させる推進部を有する。水陸判定装置のうち、少なくとも検出部材とカメラとは、水中ロボットに搭載されている。 The underwater inspection apparatus according to the second aspect of the present disclosure captures an image of an inspection object in water. This device includes an underwater robot and a land and land determination device according to a first aspect that determines whether the underwater robot is on land or in water. The underwater robot has a propulsion unit that generates thrust for moving underwater. Among the land and land determination devices, at least the detection member and the camera are mounted on the underwater robot.
本開示の第3の態様においては、判定対象が水中にあるか陸上にあるかを判定する方法が提供される。その判定方法では、特定の画像パターンが表示された検出部材を、カメラにより撮影して画像データを生成し、画像データが示す画像に含まれ、カメラが水中にある場合と空気中にある場合の画角の差に応じて変化する検出部材の部分の画像に基づき、判定対象が陸上にあるか水中にあるかを判定する。 In a third aspect of the present disclosure, a method for determining whether a determination target is in water or on land is provided. In the determination method, a detection member on which a specific image pattern is displayed is captured by a camera to generate image data, which is included in an image indicated by the image data, and when the camera is in the water and in the air Based on the image of the part of the detection member that changes according to the difference in the angle of view, it is determined whether the determination target is on land or in water.
本開示の水陸判定装置では、検出部材とカメラのような簡易な構成で物体が水中に位置するのか陸上に位置するのかを検出することが可能になる。また、本開示の水中検査装置も、上記水陸判定装置を含むため、水中ロボットが水中に位置するのか陸上に位置するのかを検出することができる。 In the water and land determination apparatus according to the present disclosure, it is possible to detect whether an object is located in water or on land with a simple configuration such as a detection member and a camera. Moreover, since the underwater inspection apparatus of this indication also contains the said land and water determination apparatus, it can detect whether an underwater robot is located in the water or the land.
本開示の実施の形態の説明に先立ち、従来の水中検査装置における問題点を簡単に説明する。水中検査装置におけるプロペラやレーザ光源は、水中における水中検査装置の機能、動作に必要なものであり、陸上においては動作させる必要はない。しかしながら、操縦者による誤操作があると、陸上でもプロペラやレーザ光源が作動してしまう。そのため安全性に課題がある。 Prior to the description of the embodiments of the present disclosure, problems in the conventional underwater inspection apparatus will be briefly described. The propeller and laser light source in the underwater inspection apparatus are necessary for the function and operation of the underwater inspection apparatus in water, and do not need to be operated on land. However, if there is an erroneous operation by the driver, the propeller and the laser light source will operate even on land. Therefore, there is a problem in safety.
本開示は、物体が水中にあるか陸上にあるかを判定することができる判定装置及び判定方法を提供する。さらに本開示は、陸上にあるときに誤操作等による意図しない動作を防止できる水中検査装置を提供する。 The present disclosure provides a determination device and a determination method that can determine whether an object is in water or on land. Furthermore, the present disclosure provides an underwater inspection apparatus that can prevent an unintended operation due to an erroneous operation or the like when on land.
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 Incidentally, the accompanying drawings and the description below, one skilled in the art is not more being provided for the full understanding of the present disclosure and are not intended to limit the subject matter described in the claims.
(実施の形態1)
[1−1.構成]
図1は、本開示の水陸判定装置を搭載した水中検査装置の構成の例を示すブロック図である。水中検査装置10は、ダムや橋梁等の構造物の水没した部分(例えば、ダム壁面、橋桁等)を検査するため、水中にある構造物の表面の画像を撮影する。水中検査装置10は、水中を移動しながら水中にある構造物の画像を撮影する水中ロボット100と、水中ロボット100の動作を地上でコントロールする地上ユニット200とを有する。水中ロボット100と地上ユニット200とは通信ケーブル(例えば、電気信号を通すための電線)300で接続されている。操縦者は、水中ロボット100から送られてくる操縦用の画像を見ながら、コントローラ220を操作して水中ロボット100を操縦する。以下、水中ロボット100と地上ユニット200のそれぞれの具体的な構成を説明する。
(Embodiment 1)
[1-1. Constitution]
FIG. 1 is a block diagram illustrating an example of a configuration of an underwater inspection device equipped with the land and land determination device of the present disclosure. The underwater inspection apparatus 10 captures an image of the surface of a structure in water in order to inspect a submerged portion (for example, a dam wall surface, a bridge girder, etc.) of a structure such as a dam or a bridge. The underwater inspection apparatus 10 includes an underwater robot 100 that captures an image of a structure underwater while moving underwater, and a ground unit 200 that controls the operation of the underwater robot 100 on the ground. The underwater robot 100 and the ground unit 200 are connected by a communication cable (for example, an electric wire for passing an electric signal) 300. The operator operates the controller 220 to control the underwater robot 100 while viewing the operation image sent from the underwater robot 100. Hereinafter, specific configurations of the underwater robot 100 and the ground unit 200 will be described.
[1−1−1.地上ユニット]
地上ユニット200は、水中検査装置10の各部に指示を出すパーソナルコンピュータ(以下、PC)250と、操縦者が操作を行うコントローラ220と、PC250と水中ロボット100との通信を行うための通信ユニット230とを含む。
[1-1-1. Ground unit]
The ground unit 200 includes a personal computer (hereinafter referred to as a PC) 250 that gives instructions to each part of the underwater inspection apparatus 10, a controller 220 that is operated by the operator, and a communication unit 230 that performs communication between the PC 250 and the underwater robot 100. Including.
水中ロボット100と地上ユニット200とは、通信ケーブル300で接続されている。通信ケーブル300は例えば電気信号を伝送するための電線である。通信ユニット230は、PC250からのデータを、電気信号を伝送するための電線での通信に適した所定の通信プロトコル(例えば、PLC(Power Line Communication))に変換するユニットであり、水中ロボット100とPC250間の通信を実現する。 The underwater robot 100 and the ground unit 200 are connected by a communication cable 300. The communication cable 300 is an electric wire for transmitting an electrical signal, for example. The communication unit 230 is a unit that converts data from the PC 250 into a predetermined communication protocol (for example, PLC (Power Line Communication)) suitable for communication with electric wires for transmitting electrical signals. Communication between the PCs 250 is realized.
PC250は、表示部211と、画像取得部の一例である通信インタフェース部(通信I/F部)212と、判定部、制御部の一例であるCPU210と、メモリ218とを含む。 The PC 250 includes a display unit 211, a communication interface unit (communication I / F unit) 212 that is an example of an image acquisition unit, a CPU 210 that is an example of a determination unit and a control unit, and a memory 218.
表示部211は液晶ディスプレイや有機ELディスプレイで構成されている。表示部211は、水中ロボット100から送信されてくる操縦用画像(動画)を表示する。通信I/F部212は、所定の規格(例えば、LAN規格)に従って、通信ユニット230と通信する。 The display unit 211 includes a liquid crystal display or an organic EL display. The display unit 211 displays an operation image (moving image) transmitted from the underwater robot 100. The communication I / F unit 212 communicates with the communication unit 230 according to a predetermined standard (for example, LAN standard).
CPU210はプログラムを実行することで種々の機能を実現する。例えば、CPU210は、プログラムを実行することで、輝度差計算部214及び水陸判定部216の機能を実現する。CPU210は、通信I/F部212を介して水中で撮影された操縦用画像(動画)を水中ロボット100から取得する。 The CPU 210 implements various functions by executing programs. For example, the CPU 210 implements the functions of the luminance difference calculation unit 214 and the land / land determination unit 216 by executing a program. The CPU 210 acquires an operation image (moving image) taken underwater from the underwater robot 100 via the communication I / F unit 212.
メモリ218はフラッシュメモリ等の不揮発性のメモリであって、CPU210の処理に必要な情報を記憶している。 The memory 218 is a non-volatile memory such as a flash memory, and stores information necessary for the processing of the CPU 210.
コントローラ220は、操縦者が水中ロボット100を操縦するための指示を伝える。コントローラ220は、操作ホイル、操作スティック、スイッチ等を含む。操縦者は、表示部211に表示された操縦用画像を見ながらコントローラ220を操作することにより水中ロボット100を操縦する。 The controller 220 transmits an instruction for the operator to operate the underwater robot 100. The controller 220 includes an operation foil, an operation stick, a switch, and the like. The pilot operates the underwater robot 100 by operating the controller 220 while viewing the control image displayed on the display unit 211.
[1−1−2.水中ロボット]
図2は、水中ロボット100の外観図である。水中ロボット100は地上ユニット200からの命令にしたがい移動や画像の撮影動作を実施し、また、地上ユニット200に対して通信ケーブル300を介して操縦用の画像を送信する。図1および図2を参照しながら水中ロボット100の構成を説明する。
[1-1-2. Underwater robot]
FIG. 2 is an external view of the underwater robot 100. The underwater robot 100 performs a movement and an image capturing operation according to a command from the ground unit 200, and transmits a steering image to the ground unit 200 via the communication cable 300. The configuration of the underwater robot 100 will be described with reference to FIGS. 1 and 2.
水中ロボット100は、本体ユニット110と、照明装置120と、スラスタ130と、ソナー140と、検査用カメラ150と、バッテリ160と、検出プレート170と、レーザ180と、圧力センサ190とを有する。また、水中ロボット100はフレーム105を有し、フレーム105に対して各構成部品が図2に示すように取り付けられている。 The underwater robot 100 includes a main unit 110, a lighting device 120, a thruster 130, a sonar 140, an inspection camera 150, a battery 160, a detection plate 170, a laser 180, and a pressure sensor 190. The underwater robot 100 has a frame 105, and each component is attached to the frame 105 as shown in FIG.
本体ユニット110は、地上ユニット200と通信を行うための通信ユニット112と、水中ロボット100の動作を制御する制御ユニット114と、操縦者のための画像を撮影する操縦用カメラ116とを含む。本体ユニット110は防水性を有した防水容器118内に収容されている。制御ユニット114はCPUを含み、所定のプログラムを実行することで機能を実行する。操縦用カメラ116は、地上の操縦者が、水中ロボット100の位置や水中の状態を確認するための画像(動画または静止画)を撮影する。操縦用カメラ116で撮影された画像は通信ユニット112を介して地上ユニット200に送信される。通信ユニット112は所定の通信規格(例えば、PLC)にしたがい地上ユニット200と通信する。 The main unit 110 includes a communication unit 112 for communicating with the ground unit 200, a control unit 114 for controlling the operation of the underwater robot 100, and a control camera 116 for capturing an image for the operator. The main unit 110 is accommodated in a waterproof container 118 having a waterproof property. The control unit 114 includes a CPU and executes a function by executing a predetermined program. The steering camera 116 shoots an image (moving image or still image) for the pilot on the ground to check the position of the underwater robot 100 and the underwater state. An image taken by the steering camera 116 is transmitted to the ground unit 200 via the communication unit 112. The communication unit 112 communicates with the ground unit 200 according to a predetermined communication standard (for example, PLC).
照明装置120は、画像を撮影するため被写体に光を照射する装置であり、光源(例えばLED素子)と光学系とを含む。スラスタ130は水中ロボット100の推進力を与える推進部の一例であり、例えばスクリューとモータを含む。水中ロボット100を三次元的に移動させることを可能にするため、複数のスラスタ130が3軸方向に取り付けられている。ソナー140は、音波を用いて水中ロボット100から水中にある物体までの距離を測定する。水中にある物体とは、例えば、ダムの壁面である。バッテリ160は充電可能な電池であり、水中ロボット100を駆動するための電力を供給する。圧力センサ190は水中ロボット100の周囲の圧力を検出する。レーザ180は、検査対象物のサイズを測定するためのレーザ光を照射する。 The illumination device 120 is a device that irradiates a subject with light in order to take an image, and includes a light source (for example, an LED element) and an optical system. The thruster 130 is an example of a propulsion unit that provides the propulsive force of the underwater robot 100, and includes, for example, a screw and a motor. In order to enable the underwater robot 100 to move in three dimensions, a plurality of thrusters 130 are attached in three axial directions. The sonar 140 measures the distance from the underwater robot 100 to an object underwater using sound waves. The underwater object is, for example, a wall surface of a dam. The battery 160 is a rechargeable battery and supplies electric power for driving the underwater robot 100. The pressure sensor 190 detects the pressure around the underwater robot 100. The laser 180 irradiates a laser beam for measuring the size of the inspection object.
検査用カメラ150は水中にある構造物の画像を撮影し、撮影により生成された画像データを内部の記録媒体に記録する。検査用カメラ150は第2のカメラの一例であり、記録媒体は、例えば、メモリカードである。画像データは静止画データでも動画データでもよい。検査用カメラ150は、検査用の画像を撮影するため、操縦用カメラ116よりも高精細の画像(例えば、4K画像)を撮影できる。 The inspection camera 150 captures an image of a structure underwater, and records image data generated by the capture on an internal recording medium. The inspection camera 150 is an example of a second camera, and the recording medium is, for example, a memory card. The image data may be still image data or moving image data. Since the inspection camera 150 captures an inspection image, the inspection camera 150 can capture a higher-definition image (for example, a 4K image) than the steering camera 116.
なお、水中ロボット100は図2に示すように上下、左右、前後方向を有している。操縦用カメラ116及び検査用カメラ150により画像が撮影される被写体の方向を前方向とし、検査用カメラ150から操縦用カメラ116に向く方向を上方向とする。水中ロボット100は検査対象物に対して正対した状態、すなわち、操縦用カメラ116、検査用カメラ150の光軸が検査対象物と略直交する状態で上下左右方向に、検査対象物に衝突しないように平行移動しながら、検査対象物表面の画像を撮影する。 The underwater robot 100 has a vertical direction, a horizontal direction, and a front-rear direction as shown in FIG. The direction of the subject whose image is captured by the steering camera 116 and the inspection camera 150 is defined as the forward direction, and the direction from the inspection camera 150 toward the steering camera 116 is defined as the upward direction. The underwater robot 100 does not collide with the inspection object in the up, down, left, and right directions when facing the inspection object, that is, with the optical axes of the steering camera 116 and the inspection camera 150 being substantially orthogonal to the inspection object. As described above, an image of the surface of the inspection object is taken while moving in parallel.
[1−1−3.検出プレート]
図3Aは、検出プレート170の画像パターンを示した図である。図3Aに示すように、検出部材の一例である検出プレート170は、白色領域と黒色領域とを含む上側領域170aと、黒色領域と白色領域とを含む下側領域170bとを有する。上側領域170aと下側領域170bとでは、白色領域と黒色領域が逆に配置されている。
[1-1-3. Detection plate]
FIG. 3A is a diagram showing an image pattern of the detection plate 170. As illustrated in FIG. 3A, the detection plate 170, which is an example of a detection member, includes an upper region 170a that includes a white region and a black region, and a lower region 170b that includes a black region and a white region. In the upper region 170a and the lower region 170b, the white region and the black region are arranged in reverse.
図3Bは、検出プレート170の取り付け状態を説明した図である。検出プレート170は支持部材185により支持されて防水容器118の上部に固定されている。特に、検出プレート170は、照明装置120と操縦用カメラ116との間に、画像パターンが形成された平面が、下向きに、かつ、操縦用カメラ116に向くように配置される。すなわち、検出プレート170の画像パターンが形成された平面は、水中ロボット100が、その上下方向と鉛直方向とが一致する姿勢をとっている場合に、鉛直方向と、鉛直方向に垂直な水平方向との間の方向に広がっている。このように検出プレート170を配置することで、上部から入射する太陽光は照明装置120及び検出プレート170により遮られ、操縦用カメラ116に到達しない。このため、水深が浅いときに、検出プレート170に対して太陽光が入射することを排除できる。また、照明装置120からの照明光は検出プレート170により遮られ、操縦用カメラ116に到達しないため、水深が深い時の、検出プレート170に対する照明光の影響を排除するようにできる。検出プレート170に対する光源は、周辺からの散乱光、または、照明装置120から検査対象物、防水容器118および検出プレート170を含む経路を通過した反射光である。図3Bのように構成することで、操縦用カメラ116による撮像画像において検出プレート170の白色領域が飽和せず安定した白黒コントラスト差が検出できる。 FIG. 3B is a diagram illustrating a state where the detection plate 170 is attached. The detection plate 170 is supported by a support member 185 and fixed to the upper part of the waterproof container 118. In particular, the detection plate 170 is disposed between the illumination device 120 and the steering camera 116 such that a plane on which an image pattern is formed faces downward and faces the steering camera 116. That is, the plane on which the image pattern of the detection plate 170 is formed corresponds to the vertical direction and the horizontal direction perpendicular to the vertical direction when the underwater robot 100 is in a posture in which the vertical direction and the vertical direction match. Spread in the direction between. By arranging the detection plate 170 in this way, sunlight incident from above is blocked by the lighting device 120 and the detection plate 170 and does not reach the steering camera 116. For this reason, when the water depth is shallow, it can be excluded that sunlight enters the detection plate 170. In addition, since the illumination light from the illumination device 120 is blocked by the detection plate 170 and does not reach the control camera 116, the influence of the illumination light on the detection plate 170 when the water depth is deep can be eliminated. The light source for the detection plate 170 is scattered light from the surroundings or reflected light that has passed through the path including the inspection object, the waterproof container 118 and the detection plate 170 from the illumination device 120. With the configuration as shown in FIG. 3B, a stable black-and-white contrast difference can be detected without saturation of the white area of the detection plate 170 in the image captured by the steering camera 116.
図4Aは、操縦用カメラ116から検出プレート170を見たときの操縦用カメラ116の画角(撮影範囲)を説明するための図である。水と空気の屈折率の違いから、操縦用カメラ116が水中にある場合の画角(撮影範囲)は、操縦用カメラ116が陸上(空気中)にある場合の画角(撮影範囲)よりも狭くなる。すなわち、図4Aに示すように、操縦用カメラ116が水中にある場合の画角(撮影範囲)R1は、操縦用カメラ116が陸上(空気中)にある場合の画角(撮影範囲)R2よりも狭くなる。そこで、このような水中と陸上での画角の違いを利用して水陸判定を行うことができる。 FIG. 4A is a diagram for explaining the angle of view (shooting range) of the steering camera 116 when the detection plate 170 is viewed from the steering camera 116. Due to the difference in refractive index between water and air, the angle of view (shooting range) when the control camera 116 is in water is more than the angle of view (shooting range) when the control camera 116 is on land (in the air). Narrow. That is, as shown in FIG. 4A, the angle of view (shooting range) R1 when the control camera 116 is underwater is larger than the view angle (shooting range) R2 when the control camera 116 is on land (in the air). Becomes narrower. Therefore, the land / land determination can be performed using the difference in the angle of view between the underwater and the land.
本実施の形態においては、水中ロボット100(すなわち操縦用カメラ116)が水中にあるときは、操縦用カメラ116による撮像画像における所定位置に検出プレート170の下側領域170bが位置する。操縦用カメラ116が陸上(空気中)にあるときは、撮像画像の所定位置に検出プレート170の上側領域170aが位置する。このような状態になるように、検出プレート170と操縦用カメラ116の相対的な位置関係が設定されている。 In the present embodiment, when the underwater robot 100 (that is, the steering camera 116) is underwater, the lower region 170b of the detection plate 170 is located at a predetermined position in the image captured by the steering camera 116. When the steering camera 116 is on land (in the air), the upper region 170a of the detection plate 170 is located at a predetermined position in the captured image. The relative positional relationship between the detection plate 170 and the steering camera 116 is set so as to be in such a state.
すなわち、操縦用カメラ116が水中にあるときは、図4Bに示すように、撮像画像IMにおける所定位置(上部の中央)に検出プレート170の下側領域170bが位置する。また、操縦用カメラ116が陸上にあるときは、図4Cに示すように、撮像画像IMの所定位置(上部の中央)に検出プレート170の上側領域170aが位置する。これにより、水中ロボット100が水中にある場合と陸上にある場合とで変化する画角に応じて、撮像画像IM中の所定位置に含まれる検出プレート170の画像パターンが異なる。このような検出プレート170の画像パターンの差異(例えば、輝度差)を検出することにより、水中ロボット100が水中にあるか陸上にあるかを検出することができる。 That is, when the steering camera 116 is underwater, as shown in FIG. 4B, the lower region 170b of the detection plate 170 is located at a predetermined position (upper center) in the captured image IM. When the steering camera 116 is on land, as shown in FIG. 4C, the upper region 170a of the detection plate 170 is located at a predetermined position (upper center) of the captured image IM. Thereby, the image pattern of the detection plate 170 included in the predetermined position in the captured image IM differs depending on the angle of view that changes between when the underwater robot 100 is underwater and when it is on land. By detecting such a difference (for example, luminance difference) in the image pattern of the detection plate 170, it is possible to detect whether the underwater robot 100 is underwater or on land.
図5A〜図5Cを参照しながら、水中ロボット100が水中にある場合の操縦用カメラ116による撮像画像を説明する。水中ロボット100が水中にある場合、操縦用カメラ116の画角は、図5Aに示すように狭い画角R1となる。このとき、操縦用カメラ116により、図5Bに示すような画像IMが撮影される。すなわち、画像IMの上側中央の領域R10において、検出プレート170の下側領域170bの一部または全部の画像が含まれ、上側領域170aの画像が含まれない。なお、操縦者に対して提示(表示)される画像は、操縦用カメラ116により撮影された画像(図5B参照)から検出プレート170の部分の画像が除去された画像であってもよい。これは、操縦においては検出プレート170の情報は必要ないからである。 An image captured by the steering camera 116 when the underwater robot 100 is underwater will be described with reference to FIGS. 5A to 5C. When the underwater robot 100 is underwater, the angle of view of the control camera 116 is a narrow angle of view R1 as shown in FIG. 5A. At this time, an image IM as shown in FIG. 5B is taken by the steering camera 116. That is, a part or all of the lower region 170b of the detection plate 170 is included in the upper center region R10 of the image IM, and the image of the upper region 170a is not included. The image presented (displayed) to the pilot may be an image obtained by removing the image of the detection plate 170 from the image captured by the steering camera 116 (see FIG. 5B). This is because information on the detection plate 170 is not necessary for maneuvering.
図5Cは、図5Bにおける領域R10の部分を拡大して示した図である。本実施の形態では、PC250は、撮像画像IM中の上部中央の領域R10における左領域R11、右領域R12それぞれに映り込んだ検出プレート170の画像情報(輝度差)に基づき、検出プレート170の画像パターンの差異を検出する。 FIG. 5C is an enlarged view of a region R10 in FIG. 5B. In the present embodiment, the PC 250 detects the image of the detection plate 170 based on the image information (luminance difference) of the detection plate 170 reflected in each of the left region R11 and the right region R12 in the upper center region R10 in the captured image IM. Detect pattern differences.
次に図6A〜図6Cを参照しながら、水中ロボット100が陸上にある場合の操縦用カメラ116による撮像画像を説明する。水中検査装置10が陸上にある場合、操縦用カメラ116の画角は、図6Aに示すように広い画角R2となる。このとき、操縦用カメラ116により、図6Bに示すような画像IMが撮影される。すなわち、画像IMの上部中央の領域R10において、検出プレート170の下側領域170bに加えて上側領域170aの部分の画像が含まれる。図6Cは、図6Bにおける領域R10の部分を拡大して示した図である。撮像画像IM中の上部中央の領域R10における左領域R11、右領域R12それぞれに映り込んだ検出プレート170の画像情報(輝度差)に基づき、検出プレート170の画像パターンの差異を検出する。 Next, an image captured by the control camera 116 when the underwater robot 100 is on land will be described with reference to FIGS. 6A to 6C. When the underwater inspection apparatus 10 is on land, the angle of view of the steering camera 116 is a wide angle of view R2 as shown in FIG. 6A. At this time, an image IM as shown in FIG. 6B is taken by the steering camera 116. That is, in the upper center region R10 of the image IM, an image of a portion of the upper region 170a in addition to the lower region 170b of the detection plate 170 is included. FIG. 6C is an enlarged view of a region R10 in FIG. 6B. Based on the image information (luminance difference) of the detection plate 170 reflected in each of the left region R11 and the right region R12 in the upper center region R10 in the captured image IM, a difference in the image pattern of the detection plate 170 is detected.
具体的には、水中ロボット100が水中にある場合、図5Cに示すように、撮像画像において、左領域R11は黒色領域となり、右領域R12は白色領域となる。一方、水中ロボット100が陸上(空気中)にある場合、図6Cに示すように、撮像画像において、左領域R11は白色領域となり、右領域R12は黒色領域となる。そこで、水中検査装置10は、右領域R12の輝度から左領域R11の輝度を減算して求めた輝度差を判定することにより、水中ロボット100が水中にあるか陸上にあるかを判定することができる。水中ロボット100が水中にある場合、図7に示すように、輝度差(右領域R12の輝度−左領域R11の輝度)は、水の濁りの程度に応じて大きく変動するが、正の値となる。一方、水中ロボット100が陸上にある場合、輝度差は負の値となる。このとき、輝度差は、外乱の影響はあまり受けずにバラツキも小さくなる。 Specifically, when the underwater robot 100 is underwater, as shown in FIG. 5C, in the captured image, the left region R11 is a black region and the right region R12 is a white region. On the other hand, when the underwater robot 100 is on land (in the air), as shown in FIG. 6C, in the captured image, the left region R11 is a white region and the right region R12 is a black region. Therefore, the underwater inspection apparatus 10 can determine whether the underwater robot 100 is underwater or on land by determining the luminance difference obtained by subtracting the luminance of the left region R11 from the luminance of the right region R12. it can. When the underwater robot 100 is underwater, as shown in FIG. 7, the luminance difference (the luminance of the right region R12−the luminance of the left region R11) varies greatly depending on the degree of turbidity of water. Become. On the other hand, when the underwater robot 100 is on land, the luminance difference is a negative value. At this time, the luminance difference is not greatly affected by the disturbance and the variation is small.
なお、撮像画像の全領域の一部の領域R11、R12の情報を用いていることで、検出プレート170や操縦用カメラ116の取り付け位置においてバラツキがあった場合でも、精度よく黒領域及び白領域の情報を抽出することが可能となる。 It should be noted that by using the information of the partial areas R11 and R12 of the entire area of the captured image, even when there is a variation in the mounting position of the detection plate 170 or the steering camera 116, the black area and the white area are accurately obtained. It becomes possible to extract the information.
[1−2.動作]
以上のように構成された水中検査装置10について、その動作を以下説明する。
[1-2. Operation]
The operation of the underwater inspection apparatus 10 configured as described above will be described below.
[1−2−1.水陸判定動作]
水中検査装置10における水中ロボット100が水中にあるか陸上にあるかを判定する水陸判定動作について説明する。
[1-2-1. Land and land judgment operation]
A description will be given of the land / land determination operation for determining whether the underwater robot 100 in the underwater inspection apparatus 10 is underwater or on land.
図8は、水中検査装置10の地上ユニット200における水陸判定処理を示すフローチャートである。図8を参照しながら水陸判定処理を説明する。 FIG. 8 is a flowchart showing the land and land determination process in the ground unit 200 of the underwater inspection apparatus 10. The land and land determination process will be described with reference to FIG.
地上ユニット200におけるPC250のCPU210は、通信ユニット230及び通信I/F部212を介して水中ロボット100の操縦用カメラ116で撮影された画像を取得する(S21)。CPU210の輝度差計算部214は、撮像画像から左領域R11及び右領域R12それぞれの輝度を求める(S22)。具体的には、図5C、図6Cに示すように、撮像画像中の左領域R11および右領域R12のそれぞれにおいて輝度の平均値を求めることで、領域R11、R12のそれぞれの輝度を求める。 CPU210 of PC250 in the ground unit 200 acquires the image image | photographed with the steering camera 116 of the underwater robot 100 via the communication unit 230 and the communication I / F part 212 (S21). The luminance difference calculation unit 214 of the CPU 210 calculates the luminance of each of the left region R11 and the right region R12 from the captured image (S22). Specifically, as shown in FIGS. 5C and 6C, the average brightness value is obtained for each of the left region R11 and the right region R12 in the captured image, thereby obtaining the brightness values of the regions R11 and R12.
さらに、輝度差計算部214は、左領域R11と右領域R12それぞれの輝度から正規化輝度差を求める(S23)。ここで、正規化輝度差とは、次式のように、撮像画像の左領域R11の輝度と右領域R12の輝度との差を、白色領域の輝度を用いて正規化して算出する。この場合の白色領域とは、左領域R11、右領域R12のうち、輝度の高いほうの領域である。 Further, the luminance difference calculation unit 214 obtains a normalized luminance difference from the luminances of the left region R11 and the right region R12 (S23). Here, the normalized luminance difference is calculated by normalizing the difference between the luminance of the left region R11 and the luminance of the right region R12 of the captured image using the luminance of the white region as in the following equation. In this case, the white area is an area having a higher luminance of the left area R11 and the right area R12.
正規化輝度差=(右領域の輝度−左領域の輝度+A)/白色領域の輝度×B+C (1)
ここで、A、B、Cは補正係数である。正規化することで、周辺光量(照明の有無、天候、水深等)による絶対値の変動を低減できる。なお、正規化輝度差の代わりに、右領域R12の輝度から左領域R11の輝度を減算した値(正規化していない輝度差)を用いても良い。
Normalized luminance difference = (right region luminance−left region luminance + A) / white region luminance × B + C (1)
Here, A, B, and C are correction coefficients. By normalizing, it is possible to reduce the fluctuation of the absolute value due to the ambient light quantity (whether lighting is present, weather, water depth, etc.). Instead of the normalized luminance difference, a value obtained by subtracting the luminance of the left region R11 from the luminance of the right region R12 (unnormalized luminance difference) may be used.
そして、CPU210の水陸判定部216は、算出した正規化輝度差から水中ロボット100が水中にあるか陸上(空気中)にあるかを判定する(S24)。具体的には、正規化輝度差を所定の閾値(例えば、0)と比較する。正規化輝度差が閾値より大きい場合、水中ロボット100は水中にあると判断し、正規化輝度差が閾値以下の場合、水中ロボット100は陸上にあると判断する。 Then, the land / land determination unit 216 of the CPU 210 determines whether the underwater robot 100 is underwater or on land (in the air) from the calculated normalized luminance difference (S24). Specifically, the normalized luminance difference is compared with a predetermined threshold (for example, 0). When the normalized luminance difference is larger than the threshold value, it is determined that the underwater robot 100 is underwater. When the normalized luminance difference is equal to or less than the threshold value, it is determined that the underwater robot 100 is on land.
以上のように、水中ロボット100が水中にある場合と陸上にある場合とで画角が異なる撮像画像に基づいて、水陸判定を行うことができる。 As described above, the land / land determination can be performed based on the captured images having different angles of view depending on whether the underwater robot 100 is in water or on land.
上記の水陸判定処理では、検出プレート170の画像情報のみに基づき水陸判定を行ったが、この場合、条件によっては精度よい画像情報が取得できず、誤った水陸判定がなされる可能性がある。例えば、水中の深い所で水の濁りが非常に大きい場合や、水中の深いところで照明装置120がオフしてしまった場合、鮮明な画像情報を得ることができない。そのため、水中であるにもかかわらず誤って陸上であると判断される場合がある。そこで、このような状況下においても精度よく水陸判定できる水陸判定処理(以下「第2の水陸判定処理」という)について以下に説明する。 In the above land-and-land determination process, the land-and-land determination is performed based only on the image information of the detection plate 170. However, in this case, accurate image information cannot be obtained depending on conditions, and an erroneous land-and-land determination may be made. For example, when the turbidity of water is very large at a deep location in the water, or when the lighting device 120 is turned off at a deep location in the water, clear image information cannot be obtained. For this reason, it may be erroneously determined to be land although it is underwater. Therefore, a description will be given below of a land / land determination process (hereinafter referred to as “second land / land determination process”) that can accurately determine the land / land even under such circumstances.
図9に示す第2の水陸判定処理では、検出プレート170の画像情報と、水深情報とに基づいて水陸判定を行う。水深情報は圧力センサ190の検出値から求める。図9に示すように、画像情報から算出した輝度差または正規化輝度差が閾値A以下であり、かつ、水深が閾値B(例えば、1m)以下である場合に、水中ロボット100が陸上であると判定し、それ以外の場合に、水中ロボット100が水中であると判定してもよい。 In the second land / land determination process shown in FIG. 9, the land / land determination is performed based on the image information of the detection plate 170 and the water depth information. The water depth information is obtained from the detection value of the pressure sensor 190. As shown in FIG. 9, when the luminance difference or the normalized luminance difference calculated from the image information is equal to or smaller than a threshold A and the water depth is equal to or smaller than a threshold B (for example, 1 m), the underwater robot 100 is on land. Otherwise, it may be determined that the underwater robot 100 is underwater.
図9に示す第2の水陸判定処理によれば、画像情報から得られた輝度差または正規化輝度差に基づき、水中ロボット100が“陸上”にあると判定され得る場合であっても、水深が深い(閾値Bよりも大きい)場合は、水中ロボット100は“水中”にあると判定される。よって、水中の深い所で水の濁りが非常に大きい場合や、水中の深いところで照明装置120がオフしてしまった場合であっても、圧力センサ190による値が深い水深(閾値Bより大きい値)を示す場合は、正しく、水中ロボット100は“水中”にあると判定される。 According to the second water and land determination process shown in FIG. 9, even if it is determined that the underwater robot 100 is “land” based on the luminance difference or the normalized luminance difference obtained from the image information, Is deep (greater than the threshold value B), it is determined that the underwater robot 100 is “underwater”. Therefore, even when the turbidity of water is very large at a deep location in the water or when the lighting device 120 is turned off at a deep location in the water, the value by the pressure sensor 190 is a deep water depth (a value greater than the threshold value B). ), It is correctly determined that the underwater robot 100 is “underwater”.
図10は、第2の水陸判定処理を示すフローチャートである。図10を参照しながら、第2の水陸判定処理を説明する。 FIG. 10 is a flowchart showing the second land and land determination process. The second land / land determination process will be described with reference to FIG.
地上ユニット200におけるPC250のCPU210は、通信ユニット230及び通信I/F部212を介して水中ロボット100の操縦用カメラ116で撮影された画像を取得する(S31)。CPU210の輝度差計算部214は、撮像画像から左領域R11及び右領域R12それぞれの輝度を求める(S32)。 The CPU 210 of the PC 250 in the ground unit 200 acquires an image photographed by the steering camera 116 of the underwater robot 100 via the communication unit 230 and the communication I / F unit 212 (S31). The luminance difference calculation unit 214 of the CPU 210 calculates the luminance of each of the left region R11 and the right region R12 from the captured image (S32).
続いて、輝度差計算部214は、左領域R11と右領域R12それぞれの輝度から正規化輝度差を求める(S33)。ステップS31〜ステップS33の動作は、ステップS21からステップS23と同じである。 Subsequently, the luminance difference calculation unit 214 obtains a normalized luminance difference from the luminances of the left region R11 and the right region R12 (S33). The operation from step S31 to step S33 is the same as that from step S21 to step S23.
そして、CPU210は、通信ユニット230及び通信I/F部212を介して水中ロボット100の圧力センサ190で検出された検出値を取得する(S34)。 And CPU210 acquires the detected value detected with the pressure sensor 190 of the underwater robot 100 via the communication unit 230 and the communication I / F part 212 (S34).
CPU210の水陸判定部216は、水中ロボット100が水中にあるか陸上にあるかを判定する(S35)。具体的には、CPU210は、圧力センサ190の検出値から水深を算出し、図9に示す関係に基づき、正規化輝度差と水深とから水中ロボット100が水中にあるか、陸上にあるかを判断する。 The water and land determination unit 216 of the CPU 210 determines whether the underwater robot 100 is underwater or on land (S35). Specifically, the CPU 210 calculates the water depth from the detection value of the pressure sensor 190 and, based on the relationship shown in FIG. 9, determines whether the underwater robot 100 is underwater or on land based on the normalized luminance difference and the water depth. to decide.
以上のように、検出プレート170の画像情報と、水深情報とに基づいて水陸判定を行ってもよい。なお、水深に関する閾値Bは、圧力センサ190のバラツキ(オフセット)を考慮し、適宜設定してもよい。バラツキ要因としては、検査する場所の標高や気圧変動が考えられる。 As described above, the land and water determination may be performed based on the image information of the detection plate 170 and the water depth information. The threshold value B regarding the water depth may be set as appropriate in consideration of variations (offset) of the pressure sensor 190. As the variation factor, the altitude of the place to be inspected and the atmospheric pressure fluctuation can be considered.
[1−2−2.ロック動作/ロック解除動作]
次に、水中検査装置10における水中ロボット100に対するロック動作/ロック解除動作について説明する。ロック動作とは、水中ロボット100をロック状態にする動作をいう。ロック状態とは、水中ロボット100がロック解除以外の操作指示(例えば、前進指示、カメラ撮影指示)を受けつけない状態をいう。また、ロック解除動作とは、ロック状態から、全ての操作指示を受け付け可能な状態にする動作をいう。操縦者は例えばコントローラ220上で所定の操作を行うことで、ロック動作のための操作またはロック解除動作のための操作を行うことができる。
[1-2-2. Lock / unlock operation]
Next, the lock operation / unlock operation for the underwater robot 100 in the underwater inspection apparatus 10 will be described. The lock operation refers to an operation for bringing the underwater robot 100 into a locked state. The locked state refers to a state in which the underwater robot 100 does not accept an operation instruction other than unlocking (for example, a forward instruction or a camera photographing instruction). Further, the unlocking operation refers to an operation for making all operation instructions acceptable from the locked state. For example, the operator can perform an operation for a locking operation or an operation for an unlocking operation by performing a predetermined operation on the controller 220.
図11のフローチャートを参照して、水中検査装置10のロック動作/ロック解除動作を説明する。本フローチャートの処理開始時点において水中ロボット100はロック状態にあるとする。 With reference to the flowchart of FIG. 11, the lock operation / unlock operation of the underwater inspection apparatus 10 will be described. It is assumed that the underwater robot 100 is in a locked state at the start of processing in this flowchart.
CPU210は、操縦者の操作に基づくロック解除指示の受信を待つ(S41)。ロック解除の操作を受け付けると(S41のY)、CPU210は、水中ロボット100が水中にあるか陸上にあるかの判定を行う水陸判定処理を実施する(S42)。水陸判定処理は前述したとおりである(図8、図10参照)。 The CPU 210 waits for reception of a lock release instruction based on the operator's operation (S41). When the unlocking operation is accepted (Y in S41), the CPU 210 performs a land / land determination process for determining whether the underwater robot 100 is underwater or on land (S42). The land and land determination processing is as described above (see FIGS. 8 and 10).
水陸判定の結果、陸上であると判定された場合(S43)、ロック解除を行わずにステップS41に戻る。一方、水中であると判定された場合(S43)、CPU210は、水中ロボット100に対するロックを解除する(S44)。水中ロボット100が水中にある場合、操縦者の操作にしたがい検査対象物の画像撮影や移動を行う必要があるため、水中ロボット100のロックが解除される。 As a result of the water and land determination, when it is determined that the vehicle is on land (S43), the process returns to step S41 without unlocking. On the other hand, when it is determined that it is underwater (S43), the CPU 210 releases the lock on the underwater robot 100 (S44). When the underwater robot 100 is underwater, the underwater robot 100 is unlocked because it is necessary to take an image of the inspection object and move it according to the operation of the operator.
その後、CPU210は操縦者の操作に基づくロック指示の受信を待つ(S45)。ロック指示を受けた場合(S45でY)、CPU210は、水中ロボット100に対するロック動作を実施し(S48)、ステップS41に戻る。これにより、水中ロボット100は、ロック解除以外の操作指示を受け付けなくなり、水中ロボット100の誤動作を防止できる。 Thereafter, the CPU 210 waits for reception of a lock instruction based on the operator's operation (S45). When the lock instruction is received (Y in S45), the CPU 210 performs a locking operation on the underwater robot 100 (S48), and returns to step S41. As a result, the underwater robot 100 does not accept any operation instruction other than unlocking, and the underwater robot 100 can be prevented from malfunctioning.
一方、ロック指示を受けなかった場合(S45でN)、CPU210は水陸判定処理(図8、図10参照)を実行する(S46)。 On the other hand, when the lock instruction has not been received (N in S45), the CPU 210 executes a land / land determination process (see FIGS. 8 and 10) (S46).
水陸判定の結果、水中であると判定された場合(S47)、ステップS45に戻る。この場合、引き続き、水中ロボット100の操作が可能になる。 As a result of the land and land determination, when it is determined that the vehicle is underwater (S47), the process returns to step S45. In this case, the operation of the underwater robot 100 can be continued.
一方、陸上であると判定された場合(S47)、CPU210は、水中ロボット100に対するロック動作を実施する(S48)。その後、ステップS41に戻る。このように、水中ロボット100が陸上にあることが検出されると、水中ロボット100は自動でロックされる。これにより、水中ロボット100は、ロック解除以外の操作指示を受け付けなくなり、水中ロボット100の誤動作を防止でき、安全性が向上する。 On the other hand, when it is determined that the vehicle is on land (S47), the CPU 210 performs a locking operation on the underwater robot 100 (S48). Thereafter, the process returns to step S41. As described above, when it is detected that the underwater robot 100 is on land, the underwater robot 100 is automatically locked. As a result, the underwater robot 100 does not accept any operation instruction other than unlocking, the malfunction of the underwater robot 100 can be prevented, and safety is improved.
以上のように、水中検査装置10は、水中ロボット100が水中にあるか陸上にあるかを判定し、その判定結果に基づき自動でロック動作/ロック解除動作を行う。特に、水中ロボット100が陸上にあるときに、自動でロック動作を行うことで、水中ロボット100が陸上で誤動作することを防止でき、安全性を向上することができる。 As described above, the underwater inspection apparatus 10 determines whether the underwater robot 100 is underwater or on land, and automatically performs a lock operation / unlock operation based on the determination result. In particular, when the underwater robot 100 is on land, it is possible to prevent the underwater robot 100 from malfunctioning on land by automatically performing a locking operation, thereby improving safety.
[1−3.効果等]
以上のように、水中検査装置10における水陸判定装置は、特定の画像パターンが表示された検出プレート170と、操縦用カメラ116と、操縦用カメラ116と、画像取得部の一例としての通信I/F部212と、判定部の一例としてのCPU210とを有する。検出プレート170と、操縦用カメラ116とは判定対象の一例である水中ロボット100に取り付けられている。操縦用カメラ116は、水中にある場合に第1の画角R1で、空気中にある場合に第1の画角よりも広い第2の画角R2で、検出プレート170を撮影して画像データを生成する。通信I/F部212は、操縦用カメラ116から画像データを取得する。CPU210は、取得した画像データが示す画像に含まれ、操縦用カメラ116の画角に応じて変化する検出プレート170の部分(上側領域170a、下側領域170b)の画像に基づき、水中ロボット100が陸上にあるか水中にあるかを判定する。このように、水陸判定装置のうち、少なくとも検出プレート170と操縦用カメラ116とは、水中ロボット100に搭載されている。
[1-3. Effect]
As described above, the land / land determination apparatus in the underwater inspection apparatus 10 includes the detection plate 170 on which a specific image pattern is displayed, the steering camera 116, the steering camera 116, and the communication I / O as an example of the image acquisition unit. It has F section 212 and CPU210 as an example of a determination part. The detection plate 170 and the steering camera 116 are attached to the underwater robot 100 that is an example of a determination target. The steering camera 116 captures the detection plate 170 at a first angle of view R1 when in water and at a second angle of view R2 wider than the first angle of view when in air, and outputs image data. Is generated. The communication I / F unit 212 acquires image data from the steering camera 116. The CPU 210 includes the underwater robot 100 based on the image of the part of the detection plate 170 (upper region 170a, lower region 170b) that is included in the image indicated by the acquired image data and changes according to the angle of view of the steering camera 116. Determine if you are on land or underwater. As described above, at least the detection plate 170 and the steering camera 116 are mounted on the underwater robot 100 in the land and water determination apparatus.
水中検査装置10における水陸判定装置は、検出プレート170の画像に基づいて水中ロボット100が水中に位置するのか陸上に位置するのかを検出することができる。すなわち、検出プレート170と操縦用カメラ116を設けるだけの簡易な構成で水陸判定が可能となる。また、水中検査装置10が陸上にあると判断したときは、水中検査装置10の機能がロックされるため、誤操作による意図しない動作を防止でき、安全性を向上できる。 The water and land determination device in the underwater inspection device 10 can detect whether the underwater robot 100 is located underwater or on land based on the image of the detection plate 170. That is, the land and land determination can be performed with a simple configuration in which only the detection plate 170 and the steering camera 116 are provided. Further, when it is determined that the underwater inspection apparatus 10 is on land, the function of the underwater inspection apparatus 10 is locked, so that an unintended operation due to an erroneous operation can be prevented, and safety can be improved.
なお、図2に示す水中ロボット100では、スラスタ130のうちのいくつかは水陸判定装置を構成する操縦用カメラ116よりも上方に設けられている。しかしながら、全てのスラスタ130およびレーザ180が、操縦用カメラ116よりも鉛直方向において同じ位置または下に位置することが好ましい。すなわち、水中ロボット100において、操縦用カメラ116が搭載された位置に対して全てのスラスタ130およびレーザ180が片側に配置されていればよい。この場合、水中ロボット100の姿勢によって、スラスタ130およびレーザ180が操縦用カメラ116よりも鉛直方向において同じ位置または下に位置することになる。これにより、水中ロボット100が水中にあることを水陸判定部216が判定した際には、全てのスラスタ130およびレーザ180が水中にある状態になる。この構成によって、上述のロック機能による安全性がより高まる。 In the underwater robot 100 shown in FIG. 2, some of the thrusters 130 are provided above the steering camera 116 that constitutes the land and land determination device. However, it is preferred that all thrusters 130 and lasers 180 be located at the same position or below in the vertical direction relative to the steering camera 116. That is, in the underwater robot 100, all the thrusters 130 and the lasers 180 need only be arranged on one side with respect to the position where the control camera 116 is mounted. In this case, depending on the posture of the underwater robot 100, the thruster 130 and the laser 180 are positioned at the same position or below in the vertical direction from the steering camera 116. Thus, when the land / land determination unit 216 determines that the underwater robot 100 is underwater, all the thrusters 130 and the lasers 180 are in the water. With this configuration, the safety due to the above-described lock function is further increased.
また、本実施の態様において、水中ロボット100(物体の一例)が水中にあるか陸上にあるかを判定する方法も開示されている。その判定方法は、特定の画像パターンが表示された検出プレート170を、操縦用カメラ116により撮影して画像データを生成する。そして、画像データが示す画像に含まれ、操縦用カメラ116が水中にある場合と空気中にある場合の画角R1、R2の差に応じて変化する検出プレートの部分(上側領域170a、下側領域170b)の画像に基づき、水中ロボット100が陸上にあるか水中にあるかを判定する。 In this embodiment, a method for determining whether the underwater robot 100 (an example of an object) is in water or on land is also disclosed. In the determination method, the detection plate 170 on which a specific image pattern is displayed is photographed by the steering camera 116 to generate image data. The portion of the detection plate (upper region 170a, lower side) that is included in the image indicated by the image data and changes according to the difference between the view angles R1 and R2 when the steering camera 116 is in the water and in the air Based on the image of the area 170b), it is determined whether the underwater robot 100 is on land or underwater.
(実施の形態2)
本実施の形態では、実施の形態1で説明した水陸判定機能に加えてさらに水の濁度を判定する機能を有する水中検査装置の構成について説明する。本実施の形態の水中検査装置は実施の形態1で示した構成(図1、図2参照)と同様のハードウェア構成を有する。
(Embodiment 2)
In the present embodiment, a configuration of an underwater inspection apparatus having a function of determining the turbidity of water in addition to the land and land determination function described in the first embodiment will be described. The underwater inspection apparatus of the present embodiment has the same hardware configuration as the configuration shown in the first embodiment (see FIGS. 1 and 2).
図12は、本実施の形態の水中検査装置における地上ユニット200Aのブロック図である。本実施の形態では、地上ユニット200AのCPU210はさらに濁度計算部215及び距離計算部217の機能を実現する。また、メモリ218は、輝度差−濁度対応情報(情報)218aと、濁度−距離対応情報(情報)218bを記憶している。情報218aは、濁度と正規化輝度差との関係を示し、情報218bは、検出された濁度と被写体距離(検査対象までの距離)との関係を示す。 FIG. 12 is a block diagram of ground unit 200A in the underwater inspection apparatus of the present embodiment. In the present embodiment, the CPU 210 of the ground unit 200A further realizes the functions of the turbidity calculator 215 and the distance calculator 217. The memory 218 stores luminance difference / turbidity correspondence information (information) 218a and turbidity / distance correspondence information (information) 218b. The information 218a indicates the relationship between turbidity and the normalized luminance difference, and the information 218b indicates the relationship between the detected turbidity and the subject distance (distance to the inspection object).
図13Aは、濁度と正規化輝度差との関係を示す情報218aを示す。水の濁度が低いほど、検出プレート170の黒色領域の輝度と白色領域の輝度の差(コントラスト)は大きくなり、水中の濁度が高いほど、その輝度差は小さくなる。 FIG. 13A shows information 218a indicating the relationship between turbidity and normalized luminance difference. The lower the turbidity of water, the larger the difference (contrast) between the luminance of the black region and the luminance of the white region of the detection plate 170. The higher the turbidity in water, the smaller the luminance difference.
図13Bは、検出された濁度と、被写体距離(検査対象までの距離(制御目標値))との関係を示した情報218bを示す。水の濁度が低い場合は、検査対象と水中ロボット100との距離が遠くても鮮明な検査用画像を撮影することができる。一方、水の濁度が高い場合は、検査対象と水中ロボット100との距離が遠いと鮮明な検査用画像を撮影することができない。このため、濁度が高いほど、検査対象に対して水中ロボット100をより近づける必要がある。そこで、図13Bに示すように、濁度が高くなるほど、スラスタ130を動作させて、被写体距離(検査対象までの距離(制御目標値))を短くするように設定されている。 FIG. 13B shows information 218b indicating the relationship between the detected turbidity and the subject distance (distance to the inspection target (control target value)). When the turbidity of water is low, a clear inspection image can be taken even if the distance between the inspection target and the underwater robot 100 is long. On the other hand, when the turbidity of water is high, a clear inspection image cannot be taken if the distance between the inspection target and the underwater robot 100 is long. For this reason, it is necessary to bring the underwater robot 100 closer to the inspection target as the turbidity is higher. Therefore, as shown in FIG. 13B, the higher the turbidity, the shorter the subject distance (distance to the inspection object (control target value)) is set by operating the thruster 130.
図14は、本実施の形態における水中検査装置における、水の濁度に基づき被写体距離(検査対象までの距離)を制御する処理を示すフローチャートである。 FIG. 14 is a flowchart showing processing for controlling the subject distance (distance to the inspection object) based on the turbidity of water in the underwater inspection apparatus according to the present embodiment.
CPU210の濁度計算部215は、水陸判定処理において算出した正規化輝度差に基づき、図13Aに示す情報218aを参照し、求めた正規化輝度差から濁度を算出する(S51)。次に、距離計算部217は、図13Bに示す情報218bを参照し、求めた濁度から、検査対象物(被写体)までの、設定すべき距離を算出する(S52)。 The turbidity calculation unit 215 of the CPU 210 calculates turbidity from the obtained normalized luminance difference with reference to the information 218a shown in FIG. 13A based on the normalized luminance difference calculated in the land and land determination process (S51). Next, the distance calculation unit 217 refers to the information 218b shown in FIG. 13B and calculates a distance to be set from the obtained turbidity to the inspection object (subject) (S52).
地上ユニット200AにおけるPC250のCPU210は、水中ロボット100から検査対象物までの距離が、算出した距離となるように水中ロボット100の位置を制御する(S53)。このとき、ソナー140が、音波を用いて水中ロボット100から検査対象物までの距離を測定する。水中ロボット100は、PC250からの指示にしたがいスラスタ130を制御して水中ロボット100と検査対象物との距離を指定された距離に維持する。 The CPU 210 of the PC 250 in the ground unit 200A controls the position of the underwater robot 100 so that the distance from the underwater robot 100 to the inspection object becomes the calculated distance (S53). At this time, the sonar 140 measures the distance from the underwater robot 100 to the inspection object using sound waves. The underwater robot 100 controls the thruster 130 in accordance with an instruction from the PC 250 to maintain the distance between the underwater robot 100 and the inspection target at a specified distance.
以上のような制御により、水中ロボット100から検査対象物までの距離を水の濁度に応じた距離に制御することができる。すなわち、濁度がより高くなるほど、水中ロボット100と検査対象物(被写体)の距離がより短くなるようにその距離を制御する。これにより、濁度が高いときでも、画質低下を抑制した画像を撮影することができる。 With the control as described above, the distance from the underwater robot 100 to the inspection object can be controlled to a distance according to the turbidity of water. That is, as the turbidity increases, the distance is controlled so that the distance between the underwater robot 100 and the inspection object (subject) becomes shorter. Thereby, even when the turbidity is high, it is possible to capture an image in which deterioration in image quality is suppressed.
以上のように本実施の形態の水中検査装置によれば、水陸判定のための検出プレート170の画像情報を濁度判定にも利用することができ、実施の形態1の構成に加えて新たに物理的な構成要素を追加することなく、濁度判定機能を追加することができる。 As described above, according to the underwater inspection apparatus of the present embodiment, the image information of the detection plate 170 for land and land determination can also be used for turbidity determination, which is newly added to the configuration of the first embodiment. The turbidity determination function can be added without adding physical components.
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1〜2で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
(Other embodiments)
As described above, Embodiments 1 and 2 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to an embodiment in which changes, replacements, additions, omissions, and the like are appropriately performed. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1-2 and it can also be set as a new embodiment. Therefore, other embodiments will be exemplified below.
実施の形態1、2では、特定の画像パターンが表示された検出部材として、検出プレート170が水中ロボット100に搭載されているが、検出部材の形状はプレート状に限定されない。柱状などでもよく、特定の画像パターンが表面に設けられていればよい。 In the first and second embodiments, the detection plate 170 is mounted on the underwater robot 100 as a detection member on which a specific image pattern is displayed, but the shape of the detection member is not limited to a plate shape. A columnar shape or the like may be used as long as a specific image pattern is provided on the surface.
実施の形態1、2では、水中ロボット100の操縦用カメラ116で撮影された画像の情報(輝度差や解像度)に基づき濁度を判定したが、検査用カメラ150で撮影された画像の情報から濁度を判定してもよい。 In the first and second embodiments, the turbidity is determined based on the information (luminance difference and resolution) of the image captured by the steering camera 116 of the underwater robot 100, but from the information of the image captured by the inspection camera 150. Turbidity may be determined.
実施の形態1、2では、操縦用の画像を撮影する操縦用カメラ116と検査用の画像を撮影する検査用カメラ150とを別々に設けたが、操縦用の画像と検査用の画像とを同じカメラで撮影するようにしてもよい。 In the first and second embodiments, the steering camera 116 that shoots the steering image and the inspection camera 150 that shoots the inspection image are provided separately. However, the steering image and the inspection image are provided. You may make it image | photograph with the same camera.
検出プレート170の構成は、図3A等に示すような白色領域と黒色領域がチェッカーボード状に配置されたものに限定されない。水中での画角R1と空気中での画角R2のそれぞれにおいて操縦用カメラ116により異なる画像が撮影されるように、検出プレート170の画像パターンが設定されればよい。例えば、図15A、15Bに示すように白色領域と黒色領域とが上下に配置されていてもよい。このとき、図15C、図15Dに示すように、操縦用カメラ116が水中にあるときの画角R1と陸上(空気中)にあるときの画角R2のそれぞれにおいて、撮像画像の所定領域R13において異なる色の領域が含まれるように、検出プレート170と操縦用カメラ116の相対的な位置を設定すればよい。これにより撮像画像の所定領域R13の色に基づき水陸判定ができる。または、水中において画角R1で撮影された画像に含まれる検出プレート170の部分に四角形状のオブジェクトが撮影され、空気中において画角R2で撮影された画像に含まれる検出プレート170の部分に丸形状のオブジェクトが撮影されるように検出プレート170の画像パターンを設定してもよい。 The configuration of the detection plate 170 is not limited to that in which a white region and a black region are arranged in a checkerboard shape as shown in FIG. 3A and the like. The image pattern of the detection plate 170 may be set so that different images are taken by the steering camera 116 at each of the angle of view R1 in water and the angle of view R2 in air. For example, as shown in FIGS. 15A and 15B, a white region and a black region may be arranged vertically. At this time, as shown in FIG. 15C and FIG. 15D, in each of the angle of view R1 when the control camera 116 is underwater and the angle of view R2 when it is on land (in the air), in a predetermined region R13 of the captured image. What is necessary is just to set the relative position of the detection plate 170 and the steering camera 116 so that the area | region of a different color may be included. Thereby, the land and water determination can be performed based on the color of the predetermined region R13 of the captured image. Alternatively, a rectangular object is photographed on the portion of the detection plate 170 included in the image photographed at the angle of view R1 in water, and a circle is formed on the portion of the detection plate 170 included in the image photographed at the angle of view R2 in the air. The image pattern of the detection plate 170 may be set so that a shape object is photographed.
また実施の形態1、2では、検出プレート170に設けられた画像パターンは白色領域と黒色領域とで構成されている。しかしながら画像パターンを構成する2つの領域の色は白黒に限定されない。画像パターンは明るさが異なる2つの領域で構成されていればよい。すなわち、画像パターンは暗領域と、この暗領域よりも明るい色で構成された明領域とで構成されていればよい。 In the first and second embodiments, the image pattern provided on the detection plate 170 is composed of a white region and a black region. However, the colors of the two areas constituting the image pattern are not limited to black and white. The image pattern only needs to be composed of two areas with different brightness. That is, the image pattern only needs to be composed of a dark region and a bright region composed of a brighter color than the dark region.
実施の形態1、2では、輝度を検出するときの撮像画像上の所定領域R11、R12は、撮像画像IMの上側の中央位置に配置したが、所定領域R11、R12の位置はそれに限定されない。所定領域R11、R12の位置は、撮像画像IMの下側でもよいし、横側でもよい。また、中央でなく端でもよい。すなわち、操縦用カメラ116が水中にある場合と陸上にある場合とで画角の変化が影響する位置であればよい。 In the first and second embodiments, the predetermined areas R11 and R12 on the captured image when detecting the luminance are arranged at the center position on the upper side of the captured image IM, but the positions of the predetermined areas R11 and R12 are not limited thereto. The positions of the predetermined regions R11 and R12 may be on the lower side or the lateral side of the captured image IM. Moreover, the end may be sufficient instead of the center. That is, the position may be any position where the change in the angle of view affects when the steering camera 116 is underwater or when it is on land.
また、実施の形態1、2では、撮像画像上の所定領域にある画像(検出プレート170の画像)に関する、画角に応じて変化する輝度差の変化に基づき水陸判定を行った。水陸判定は、画角に応じて変化する、撮像画像内の検出プレート170の部分の画像パターンの変化に基づき判定してもよい。例えば、水中で撮影された場合、図4Bに示すように、撮像画像IMは検出プレート170の下側領域170b部分のみの画像を含み、陸上(空気中)で撮影された場合、図4Cに示すように、撮像画像IMは検出プレート170の下側領域170bの部分に加えて上側領域170aの部分の画像を含む。このような画角に応じて変化する、撮像画像IM中に含まれる検出プレート170の画像の差異を検出することで水陸判定を行ってもよい。 In the first and second embodiments, the land and water determination is performed on the basis of a change in luminance difference that changes in accordance with the angle of view regarding an image (an image on the detection plate 170) in a predetermined region on the captured image. The land and land determination may be performed based on a change in the image pattern of the portion of the detection plate 170 in the captured image that changes according to the angle of view. For example, when taken in water, as shown in FIG. 4B, the captured image IM includes only the lower region 170b portion of the detection plate 170, and when taken on land (in the air), shown in FIG. 4C. As described above, the captured image IM includes an image of the upper region 170a in addition to the lower region 170b of the detection plate 170. The land and water determination may be performed by detecting a difference in the image of the detection plate 170 included in the captured image IM that changes in accordance with the angle of view.
実施の形態1、2では、領域R11と領域R12の輝度差の値に基づき水陸判定を行ったが、図16に示すように領域R11の輝度と領域R12の輝度の比を用いてもよい。この場合、輝度比と所定の閾値(例えば、1)との比較結果に基づき水陸判定を行うことができる。 In the first and second embodiments, the land and land determination is performed based on the value of the luminance difference between the region R11 and the region R12. However, as shown in FIG. 16, the ratio between the luminance of the region R11 and the luminance of the region R12 may be used. In this case, the land and water determination can be performed based on a comparison result between the luminance ratio and a predetermined threshold (for example, 1).
実施の形態2で示した濁度検出の構成は、水の濁度の検出に限定されるものではなく、水以外の他の流体の濁度の検出にも適用することができる。 The configuration of turbidity detection shown in the second embodiment is not limited to the detection of turbidity of water, but can also be applied to the detection of turbidity of other fluids other than water.
またCPU210は、濁度計算部215が検出した濁度に基づき推進部であるスラスタ130を制御して、検査対象物と水中ロボット100との間の距離を制御する制御部として機能する。しかしながら、水中ロボット100に搭載された制御ユニット114がこの機能を有していてもよい。 Further, the CPU 210 functions as a control unit that controls the distance between the inspection object and the underwater robot 100 by controlling the thruster 130 that is a propulsion unit based on the turbidity detected by the turbidity calculation unit 215. However, the control unit 114 mounted on the underwater robot 100 may have this function.
実施の形態1、2では、CPU210は、水陸判定部216による判定結果が、水中ロボット100が陸上にあることを示す場合に、水中ロボット100に対する所定の操作を受け付けないようにする制御部として機能する。しかしながら、水中ロボット100に搭載された制御ユニット114がこの機能を有していてもよい。 In the first and second embodiments, the CPU 210 functions as a control unit that prevents a predetermined operation from being performed on the underwater robot 100 when the determination result by the water and land determination unit 216 indicates that the underwater robot 100 is on land. To do. However, the control unit 114 mounted on the underwater robot 100 may have this function.
このいずれの場合も、機能を発揮するための情報は、地上ユニット200または地上ユニット200Aから水中ロボット100へ通信ユニット230、112を介して送信される。このように、CPU210の機能を制御ユニット114が実行してもよく、逆に、制御ユニット114の機能をCPU210が実行してもよい。 In either case, information for performing the function is transmitted from the ground unit 200 or the ground unit 200A to the underwater robot 100 via the communication units 230 and 112. As described above, the function of the CPU 210 may be executed by the control unit 114, and conversely, the function of the control unit 114 may be executed by the CPU 210.
実施の形態1、2においてCPU210が実行するプログラムは、DVD−ROM、CD−ROM等の記録媒体によって提供されてもよいし、通信回線を介してネットワーク上のサーバからダウンロードされてもよい。また、上述したCPU210の機能は、ハードウェアとソフトウェア(アプリケーションプログラム)の協働により実現したが、所定の機能を実現するように専用に設計されたハードウェア回路のみで実現してもよい。よって、CPU210に代えて、MPU、DSP、FPGA、ASIC等で上述の機能を実現してもよい。上述したCPU210の機能は、1つのデバイスで実現してもよいし、複数のデバイスで実現してもよい。 The program executed by the CPU 210 in the first and second embodiments may be provided by a recording medium such as a DVD-ROM or a CD-ROM, or may be downloaded from a server on the network via a communication line. The functions of the CPU 210 described above are realized by cooperation of hardware and software (application program). However, the functions may be realized only by a hardware circuit designed exclusively for realizing a predetermined function. Therefore, instead of the CPU 210, the above-described functions may be realized by an MPU, DSP, FPGA, ASIC, or the like. The function of the CPU 210 described above may be realized by one device or a plurality of devices.
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。 As described above, the embodiments have been described as examples of the technology in the present disclosure. For this purpose, the accompanying drawings and detailed description are provided.
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Accordingly, among the components described in the accompanying drawings and the detailed description, not only the components essential for solving the problem, but also the components not essential for solving the problem in order to illustrate the above technique. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Further, the above-mentioned embodiment, since it is intended to illustrate the technique of the present disclosure, various modifications within the scope or range of equivalents of the claims, substitutions, additions, can be performed and omissions.
本開示は、水中で使用されるまたは動作する物体や装置に適用でき、例えば、水中にある物体(ダム壁、橋梁の橋桁等)を検査する検査装置に有用である。 The present disclosure can be applied to an object or device that is used or operates in water, and is useful, for example, for an inspection device that inspects an object (dam wall, bridge girder, etc.) in water.
10 水中検査装置
100 水中ロボット
110 本体ユニット
112 通信ユニット
114 制御ユニット
116 操縦用カメラ
120 照明装置
130 スラスタ
140 ソナー
150 検査用カメラ
160 バッテリ
170 検出プレート
180 レーザ
190 圧力センサ
200,200A 地上ユニット
210 CPU
211 表示部
214 輝度差計算部
215 濁度計算部
216 水陸判定部
217 距離計算部
212 通信インタフェース部(通信I/F部)
218 メモリ
218a 輝度差−濁度対応情報(情報)
218b 濁度−距離対応情報(情報)
220 コントローラ
230 通信ユニット
250 パーソナルコンピュータ(PC)
300 通信ケーブル
DESCRIPTION OF SYMBOLS 10 Underwater inspection apparatus 100 Underwater robot 110 Main body unit 112 Communication unit 114 Control unit 116 Steering camera 120 Illumination device 130 Thruster 140 Sonar 150 Inspection camera 160 Battery 170 Detection plate 180 Laser 190 Pressure sensor 200, 200A Ground unit 210 CPU
211 Display Unit 214 Brightness Difference Calculation Unit 215 Turbidity Calculation Unit 216 Aqualand Determination Unit 217 Distance Calculation Unit 212 Communication Interface Unit (Communication I / F Unit)
218 Memory 218a Luminance difference-turbidity correspondence information (information)
218b Turbidity-distance correspondence information (information)
220 Controller 230 Communication unit 250 Personal computer (PC)
300 Communication cable
Claims (10)
前記判定対象に取り付けられ、特定の画像パターンが表示された検出部材と、
前記判定対象に取り付けられ、水中にある場合に第1の画角で、空気中にある場合に前記第1の画角よりも広い第2の画角で、前記検出部材を撮影して画像データを生成するカメラと、
前記カメラから前記画像データを取得する画像取得部と、
前記取得した画像データが示す画像に含まれ、前記カメラの画角に応じて変化する前記検出部材の部分の画像に基づき、前記判定対象が陸上にあるか水中にあるかを判定する判定部と、を備えた、
水陸判定装置。 An apparatus for determining whether the determination target is underwater or on land,
A detection member attached to the determination target and displaying a specific image pattern;
The detection member is photographed at a first angle of view when attached to the determination target and is in water, and at a second angle of view wider than the first angle of view when in air. A camera that generates
An image acquisition unit for acquiring the image data from the camera;
A determination unit that determines whether the determination target is on land or in water based on an image of a portion of the detection member that is included in an image indicated by the acquired image data and changes according to an angle of view of the camera; With
Land and land judgment device.
前記第1の画角で撮影された画像において、前記検出部材の前記第1の部分が含まれ、前記第2の部分が含まれないように、前記検出部材と前記カメラとの相対的な位置関係が設定されている、
請求項1に記載の水陸判定装置。 In the image taken at the second angle of view, the first portion and the second portion of the detection member are included,
The relative position between the detection member and the camera so that the first portion of the detection member is included and the second portion is not included in the image photographed at the first angle of view. Relationship is set,
The land and water determination apparatus according to claim 1.
前記検出部材は、前記特定の画像パターンが表示された面が前記カメラに向いた状態で、前記照明装置と前記カメラの間に配置されている、
請求項1に記載の水陸判定装置。 A lighting device;
The detection member is disposed between the lighting device and the camera in a state where the surface on which the specific image pattern is displayed faces the camera.
The land and water determination apparatus according to claim 1.
請求項1に記載の水陸判定装置。 The determination unit determines whether the determination target is on land or in water based on an image included in a predetermined region in the image indicated by the image data.
The land and water determination apparatus according to claim 1.
前記判定部は、前記明領域の輝度と前記暗領域の輝度の差に基づき、前記判定対象が陸上にあるか水中にあるかを判定する、
請求項1に記載の水陸判定装置。 The specific image pattern is a pattern having a dark region and a bright region composed of a brighter color than the dark region,
The determination unit determines whether the determination target is on land or in water based on the difference between the brightness of the bright area and the brightness of the dark area.
The land and water determination apparatus according to claim 1.
請求項5に記載の水陸判定装置。 The specific image pattern is a pattern in which the dark area and the bright area are alternately arranged in the vertical and horizontal directions.
The land and water determination apparatus according to claim 5.
水中を移動するための推力を発生させる推進部と、
特定の画像パターンが表示された検出部材と、
水中にある場合に第1の画角で、空気中にある場合に前記第1の画角よりも広い第2の画角で、前記検出部材を撮影して画像データを生成するカメラと、を含む水中ロボットと、
前記カメラから前記画像データを取得する画像取得部と、
前記取得した画像データが示す画像に含まれ、前記カメラの画角に応じて変化する前記検出部材の部分の画像に基づき、前記水中ロボットが陸上にあるか水中にあるかを判定する判定部と、を備えた、
水中検査装置。 An underwater inspection apparatus for taking an image of an inspection object in water,
A propulsion unit that generates thrust to move underwater;
A detection member on which a specific image pattern is displayed;
A camera that shoots the detection member and generates image data at a first angle of view when in water and at a second angle of view wider than the first angle of view when in air; Including underwater robots,
An image acquisition unit for acquiring the image data from the camera;
A determination unit that determines whether the underwater robot is on land or underwater based on an image of a part of the detection member that is included in an image indicated by the acquired image data and changes according to an angle of view of the camera; With
Underwater inspection device.
前記濁度計算部が検出した濁度に基づいて前記推進部を制御し、前記検査対象物と前記水中ロボットとの間の距離を制御する制御部と、をさらに備えた、
請求項7に記載の水中検査装置。 A turbidity calculator for detecting the turbidity of water based on the image of the detection member;
A control unit that controls the propulsion unit based on the turbidity detected by the turbidity calculation unit and controls a distance between the inspection object and the underwater robot;
The underwater inspection apparatus according to claim 7.
請求項7に記載の水中検査装置。 When the determination result by the determination unit indicates that the underwater robot is on land, the controller further includes a control unit configured to not accept a predetermined operation on the underwater robot.
The underwater inspection apparatus according to claim 7.
前記画像データが示す画像に含まれ、前記カメラが水中にある場合と空気中にある場合の画角の差に応じて変化する検出プレートの部分の画像に基づき、前記物体が陸上にあるか水中にあるかを判定する、
水陸判定方法。 A detection member on which a specific image pattern is displayed is captured by a camera to generate image data,
Based on the image of the portion of the detection plate that is included in the image indicated by the image data and changes according to the angle of view when the camera is in water and in the air, the object is on land or underwater To determine whether
Land and land determination method.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016107733 | 2016-05-30 | ||
| JP2016107733 | 2016-05-30 | ||
| PCT/JP2016/004188 WO2017208288A1 (en) | 2016-05-30 | 2016-09-14 | Underwater/overland determination device, underwater/overland determination method, and underwater inspection device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6155472B1 true JP6155472B1 (en) | 2017-07-05 |
| JPWO2017208288A1 JPWO2017208288A1 (en) | 2018-06-14 |
Family
ID=59272859
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017505874A Expired - Fee Related JP6155472B1 (en) | 2016-05-30 | 2016-09-14 | Land / land determination device, land / land determination method, and underwater inspection device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6155472B1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113125462A (en) * | 2021-04-21 | 2021-07-16 | 山东大学 | Intelligent detection device and method for underwater dredging of hydraulic structure |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07128720A (en) * | 1993-11-05 | 1995-05-19 | Canon Inc | Camera |
| JP2000147642A (en) * | 1998-11-12 | 2000-05-26 | Moritex Corp | Underwater imaging device |
| JP2013179509A (en) * | 2012-02-29 | 2013-09-09 | Sony Corp | Imaging apparatus, imaging method, and imaging program |
| JP2015061311A (en) * | 2013-09-20 | 2015-03-30 | オリンパスイメージング株式会社 | Imaging apparatus and control method therefor |
| JP2015214335A (en) * | 2015-08-25 | 2015-12-03 | 五洋建設株式会社 | Underwater inspection device and underwater camera device for this device |
-
2016
- 2016-09-14 JP JP2017505874A patent/JP6155472B1/en not_active Expired - Fee Related
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07128720A (en) * | 1993-11-05 | 1995-05-19 | Canon Inc | Camera |
| JP2000147642A (en) * | 1998-11-12 | 2000-05-26 | Moritex Corp | Underwater imaging device |
| JP2013179509A (en) * | 2012-02-29 | 2013-09-09 | Sony Corp | Imaging apparatus, imaging method, and imaging program |
| JP2015061311A (en) * | 2013-09-20 | 2015-03-30 | オリンパスイメージング株式会社 | Imaging apparatus and control method therefor |
| JP2015214335A (en) * | 2015-08-25 | 2015-12-03 | 五洋建設株式会社 | Underwater inspection device and underwater camera device for this device |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113125462A (en) * | 2021-04-21 | 2021-07-16 | 山东大学 | Intelligent detection device and method for underwater dredging of hydraulic structure |
| CN113125462B (en) * | 2021-04-21 | 2022-10-04 | 山东大学 | An intelligent detection device and method for underwater dredging of hydraulic structures |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2017208288A1 (en) | 2018-06-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3531066B1 (en) | Three-dimensional scanning method including a plurality of lasers with different wavelengths, and scanner | |
| US12530885B2 (en) | Water non-water segmentation systems and methods | |
| KR101381218B1 (en) | Apparartus and method for generating an around view of a remotely operated vehicle | |
| US10429508B2 (en) | Distance measuring device, moving system, and distance measurement method | |
| JP4791595B2 (en) | Image photographing apparatus, image photographing method, and image photographing program | |
| TWI624170B (en) | Image scanning system and method thereof | |
| US12069234B2 (en) | Distance measurement device, moving device, distance measurement method, control method for moving device, and storage medium | |
| WO2017175261A1 (en) | Turbidity detection apparatus, turbidity detection method, and submerged inspection apparatus | |
| JP2008511080A (en) | Method and apparatus for forming a fused image | |
| KR20110059206A (en) | Eyepiece guidance system using tug boat | |
| KR102530847B1 (en) | Method and device for monitoring harbor and ship | |
| WO2017208288A1 (en) | Underwater/overland determination device, underwater/overland determination method, and underwater inspection device | |
| CN104034261A (en) | Surface normal measurement device and method | |
| WO2022013237A1 (en) | System and method for geolocation of an object in water | |
| JP6002092B2 (en) | Underwater vehicle control system and underwater vehicle control method | |
| KR100986505B1 (en) | Non-contact Position Measuring System Using CD Camera | |
| JP7436656B2 (en) | Shooting system, shooting method, shooting program, and information acquisition method | |
| JP6155472B1 (en) | Land / land determination device, land / land determination method, and underwater inspection device | |
| JP2018074479A (en) | Imaging apparatus and mobile object system | |
| JP2019142714A (en) | Image processing device for fork lift | |
| CN113837385B (en) | Data processing method, device, equipment, medium and product | |
| KR102465189B1 (en) | Around view apparatus for ship | |
| CN114200463B (en) | Underwater laser scanning equipment | |
| JP2017083430A (en) | Ranging device, moving system and ranging method | |
| KR102465190B1 (en) | Around view apparatus for night navigation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170202 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170202 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170202 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170417 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170425 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170508 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6155472 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| LAPS | Cancellation because of no payment of annual fees |