[go: up one dir, main page]

JP5458270B2 - Underwater structure inspection system and image processing apparatus - Google Patents

Underwater structure inspection system and image processing apparatus Download PDF

Info

Publication number
JP5458270B2
JP5458270B2 JP2010157345A JP2010157345A JP5458270B2 JP 5458270 B2 JP5458270 B2 JP 5458270B2 JP 2010157345 A JP2010157345 A JP 2010157345A JP 2010157345 A JP2010157345 A JP 2010157345A JP 5458270 B2 JP5458270 B2 JP 5458270B2
Authority
JP
Japan
Prior art keywords
image
information
acoustic
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010157345A
Other languages
Japanese (ja)
Other versions
JP2012018147A (en
Inventor
雄二 柳沢
英樹 国島
匡 五十嵐
禎 長瀬
健也 松田
成生 虫明
宏 三宅
明夫 大西
昭 浅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
National Research and Development Agency Public Works Research Institute
Airport Facilities Co Ltd
Original Assignee
Public Works Research Institute
University of Tokyo NUC
Kokusai Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Public Works Research Institute, University of Tokyo NUC, Kokusai Kogyo Co Ltd filed Critical Public Works Research Institute
Priority to JP2010157345A priority Critical patent/JP5458270B2/en
Publication of JP2012018147A publication Critical patent/JP2012018147A/en
Application granted granted Critical
Publication of JP5458270B2 publication Critical patent/JP5458270B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、港湾施設等における水中構造物の点検を行うシステム及びそれに含まれる画像処理装置に関する。   The present invention relates to a system for inspecting an underwater structure in a harbor facility or the like and an image processing apparatus included in the system.

港湾施設や、漁港施設は、常に厳しい自然条件に曝されているため、一般の建造物に比して劣化の速度が速い。また、構造の一部は水中にあり、外観から劣化を確認することが困難となっている。   Since port facilities and fishing port facilities are always exposed to harsh natural conditions, the deterioration rate is faster than ordinary buildings. In addition, a part of the structure is in water, and it is difficult to confirm deterioration from the appearance.

かかる水中構造物の点検には、潜水士が実際に水中に潜って、構造物の劣化等を目視にて調査する方法が採られている。   In the inspection of such an underwater structure, a method in which a diver actually dives in the water and visually checks for deterioration of the structure or the like is employed.

特開2009−210512号公報JP 2009-210512 A

しかしながら、上記従来の水中構造物の点検方法では、水の透明度によっては作業効率が著しく低下する。また、このような人間の潜水を伴う調査には多大なコストがかかる。   However, in the conventional method for inspecting an underwater structure, work efficiency is significantly reduced depending on the transparency of water. In addition, such a survey involving human diving is very expensive.

本発明は上記実情に鑑みて為されたもので、水中構造物の点検の作業効率を向上し、コストを抑制できる水中構造物点検システム及び画像処理装置を提供することを、その目的の一つとする。なお、ソナーを利用して水中構造物の映像を撮像し、この映像を用いて劣化を調査する方法がある。このための映像生成装置として、特許文献1に開示するようなものがある。   The present invention has been made in view of the above circumstances, and it is one of its purposes to provide an underwater structure inspection system and an image processing apparatus that can improve work efficiency of inspection of underwater structures and can suppress costs. To do. There is a method of taking an image of an underwater structure using sonar and investigating deterioration using this image. As a video generation apparatus for this purpose, there is one disclosed in Patent Document 1.

上記従来例の問題点を解決するための本発明は、 水中の構造物を撮像した映像を生成する水中構造物点検システムであって、情報処理部と、前記構造物に沿って移動する船舶に搭載される情報記録部とを含み、前記情報記録部は、前記構造物に対して音響ビームを順次照射する複数の音響発生器を少なくとも一組備え、前記音響ビームの構造物からの反射波により構造物の映像を造影する撮像手段と、前記撮像手段の音響発生器が位置する水深での撮影対象物との距離を測定する距離測定手段と、前記構造物を撮影する水深にて、前記撮像手段を支持する艤装架台と、を備え、前記情報処理部は、前記撮像手段により造影された映像において前記船舶が移動することで生じる歪みを補正する補正手段であって、当該海域で予め測定して得た音速の情報と、前記映像に生じている歪みの大きさとに基づいて船舶の移動速度を推定し、当該推定した移動速度を用いて前記映像の歪みを補正する補正手段と、前記補正された映像を複数合成して合成映像を生成する手段と、前記補正された映像又は前記合成映像を出力する手段と、を備えたものである。   The present invention for solving the problems of the above-described conventional example is an underwater structure inspection system that generates an image of an underwater structure, and includes an information processing unit and a ship that moves along the structure. An information recording unit to be mounted, and the information recording unit includes at least one set of a plurality of acoustic generators for sequentially irradiating the structure with an acoustic beam, and the reflected acoustic wave from the acoustic beam structure An imaging unit for imaging an image of a structure, a distance measuring unit for measuring a distance between an imaging object at a water depth where an acoustic generator of the imaging unit is located, and the imaging at a water depth for imaging the structure The information processing unit is a correction unit that corrects distortion caused by movement of the ship in the image contrasted by the imaging unit, and measures in advance in the sea area. Got Correction means for estimating the moving speed of the ship based on speed information and the magnitude of distortion occurring in the video, and correcting the distortion of the video using the estimated moving speed; and the corrected video Means for synthesizing a plurality of images and generating a synthesized video, and means for outputting the corrected video or the synthesized video.

本発明によると、水中構造物の映像が得られるので、点検の作業効率を向上できる。   According to the present invention, since an image of an underwater structure can be obtained, the work efficiency of inspection can be improved.

本発明の実施の形態に係る水中構造物点検システムの構成例を表す概要図である。It is a schematic diagram showing the example of composition of the underwater structure inspection system concerning an embodiment of the invention. 本発明の実施の形態に係る水中構造物点検システムの艤装架台の例を表す概要図である。It is a schematic diagram showing the example of the saddle mount of the underwater structure inspection system which concerns on embodiment of this invention. 本発明の実施の形態に係る水中構造物点検システムの艤装架台における伸縮ポールの例を表す説明図である。It is explanatory drawing showing the example of the expansion-contraction pole in the saddle mount of the underwater structure inspection system which concerns on embodiment of this invention. 本発明の実施の形態に係る水中構造物点検システムの情報記録部の構成例を表すブロック図である。It is a block diagram showing the structural example of the information recording part of the underwater structure inspection system which concerns on embodiment of this invention. 本発明の実施の形態に係る水中構造物点検システムが保持する情報の例を表す説明図である。It is explanatory drawing showing the example of the information which the underwater structure inspection system which concerns on embodiment of this invention hold | maintains. 本発明の実施の形態に係る水中構造物点検システムの撮像装置の構成例を表す概要図である。It is a schematic diagram showing the example of composition of the imaging device of the underwater structure inspection system concerning an embodiment of the invention. 本発明の実施の形態に係る水中構造物点検システムの撮像装置の撮像範囲の例を表す概要図である。It is a schematic diagram showing the example of the imaging range of the imaging device of the underwater structure inspection system which concerns on embodiment of this invention. 本発明の実施の形態に係る水中構造物点検システムにより撮像される範囲の例を表す説明図である。It is explanatory drawing showing the example of the range imaged with the underwater structure inspection system which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。It is a functional block diagram showing the example of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る水中構造物点検システムで撮像される原映像の例を表す説明図である。It is explanatory drawing showing the example of the original image imaged with the underwater structure inspection system which concerns on embodiment of this invention. 本発明の実施の形態に係る水中構造物点検システムにおいて画定される範囲の例を表す説明図である。It is explanatory drawing showing the example of the range defined in the underwater structure inspection system which concerns on embodiment of this invention. 本発明の実施の形態に係る水中構造物点検システムが撮像する領域の例を表す説明図である。It is explanatory drawing showing the example of the area | region which the underwater structure inspection system which concerns on embodiment of this invention images. 本発明の実施の形態に係る情報処理装置による補正動作を表す説明図である。It is explanatory drawing showing correction | amendment operation | movement by the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置が生成する合成像の例を表す説明図である。It is explanatory drawing showing the example of the synthesized image which the information processing apparatus which concerns on embodiment of this invention produces | generates. 本発明の実施の形態に係る情報処理装置による補正動作の例を表す説明図である。It is explanatory drawing showing the example of the correction | amendment operation | movement by the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置が出力する画像の例を表す説明図である。It is explanatory drawing showing the example of the image which the information processing apparatus which concerns on embodiment of this invention outputs.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る水中構造物点検システムは、図1に例示するように、船舶に艤装される艤装架台1及び情報記録部2と、船舶に艤装されても、されなくてもよい情報処理装置3とを備える。   Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the underwater structure inspection system according to the embodiment of the present invention may or may not be equipped with the equipment mounting table 1 and the information recording unit 2 that are equipped with the ship. And an information processing device 3.

艤装架台1は、図2に例示するように、支持部10と、伸縮ポール11と、圧縮空気導入部12と、伸縮制御部13とを含んで構成される。   As illustrated in FIG. 2, the saddle mount 1 includes a support portion 10, an expansion / contraction pole 11, a compressed air introduction portion 12, and an expansion / contraction control portion 13.

支持部10は、船体を幅方向に横断し、船体側面の両縁に固定されて装着される。そしてこの支持部10は、船体側面から外側へ張り出した位置で伸縮ポール11を支持する。支持部10は、伸縮ポール11の軸方向が、鉛直になるようにしつつ、その軸方向を回転軸として伸縮ポール11が回転可能となるように支持している。また、支持部10は船体の幅方向の長さに応じて伸縮可能となっており、種々の船舶に取り付け可能としている。   The support 10 crosses the hull in the width direction and is fixed and attached to both edges on the side of the hull. And this support part 10 supports the expansion-contraction pole 11 in the position protruded outside from the hull side surface. The support unit 10 supports the telescopic pole 11 so that the telescopic pole 11 can rotate while the axial direction of the telescopic pole 11 is vertical, with the axial direction as a rotation axis. Moreover, the support part 10 can be expanded and contracted according to the length of the width direction of the hull, and can be attached to various ships.

伸縮ポール11は、図3に例示するように、径を異ならせた複数の筒状体110a,110b,…を入れ子にし、軸方向に伸縮可能としたものである。ここで筒状体110nの内面を、次に径が小さい筒状体110mの先端に連結されたスリーブ113mの外面が摺り動き、筒状体110の間で空気などが流通しないように、互いに摺り合って動く、スリーブ113mの外径と筒状体110n内径とが定められる。また各筒状体110の先端部には、シーリングのために筒状体110の外周を取り巻くリングRが設けられてもよい。   As shown in FIG. 3, the telescopic pole 11 is formed by nesting a plurality of cylindrical bodies 110 a, 110 b,. Here, the inner surface of the cylindrical body 110n slides on the outer surface of the sleeve 113m connected to the tip of the cylindrical body 110m having the next smallest diameter so that air or the like does not flow between the cylindrical bodies 110. The outer diameter of the sleeve 113m and the inner diameter of the cylindrical body 110n that move together are determined. Further, a ring R that surrounds the outer periphery of the cylindrical body 110 may be provided at the tip of each cylindrical body 110 for sealing.

さらに、各筒状体110の内面には、軸方向に伸びる凸部111が設けられ、他の筒状体110と連結されたスリーブ113の外面には、この凸部に嵌まり合う凹部112が少なくとも1カ所形成される。この凸部111と凹部112とは、各筒状体110の相対的な回転を抑制する手段として働く。この凸部111の高さは、筒状体110の肉厚(凹部、凸部以外での外径と内径との差)よりも薄くつくられてもよい。なお図3では、スリーブ113mは、比較的小さい径の円筒形の本体両端に、これより径の大きい円筒形をなし、上記の凹部112を形成した頭部をそれぞれ設けた、ダンベル状の形状を有する。各頭部の外径は、一方は筒状体110mの内径に略一致し、他方は筒状体110nの内径に略一致する。また本体は中空であり、頭部はこの本体の中空部に連通する孔が設けられる。また図3に示したスリーブ113では、凹部112は、十字方向に4カ所設けられている。筒状体110nと筒状体110mとの端部には、スリーブ113頭部外径より小さく、スリーブ113本体外径より大きい孔を有したリング部材117が取り付けられる。このリング部材117を介してスリーブ113を各筒状体110に挿入し、リング部材117を筒状体110の外部に固定することで、複数の筒状体110がスリーブ113を介して連結され、伸縮ポール11が形成される。図3ではリング部材117は、連結する二つの筒状体110のうち大きい筒状体(図3では筒状体110a)の外周と、リング部材117の外周とにそれぞれ設けたフランジをボルト等で締結することで固定されているが、本実施の形態は、これに限られるものではない。   Further, a convex portion 111 extending in the axial direction is provided on the inner surface of each cylindrical body 110, and a concave portion 112 fitted to the convex portion is provided on the outer surface of the sleeve 113 connected to the other cylindrical body 110. At least one place is formed. The convex portion 111 and the concave portion 112 serve as means for suppressing the relative rotation of each cylindrical body 110. The height of the convex portion 111 may be made thinner than the thickness of the cylindrical body 110 (difference between the outer diameter and the inner diameter other than the concave portion and the convex portion). In FIG. 3, the sleeve 113m has a dumbbell-like shape in which both ends of a cylindrical body having a relatively small diameter are formed in a cylindrical shape having a larger diameter than that of the cylindrical body, and the heads having the recesses 112 are provided. Have. As for the outer diameter of each head, one substantially matches the inner diameter of the cylindrical body 110m, and the other substantially matches the inner diameter of the cylindrical body 110n. The main body is hollow, and the head is provided with a hole communicating with the hollow portion of the main body. Further, in the sleeve 113 shown in FIG. 3, four recesses 112 are provided in the cross direction. A ring member 117 having a hole smaller than the outer diameter of the sleeve 113 head and larger than the outer diameter of the sleeve 113 main body is attached to the ends of the cylindrical body 110n and the cylindrical body 110m. By inserting the sleeve 113 into each cylindrical body 110 via the ring member 117 and fixing the ring member 117 to the outside of the cylindrical body 110, the plurality of cylindrical bodies 110 are connected via the sleeve 113, A telescopic pole 11 is formed. In FIG. 3, the ring member 117 has flanges respectively provided on the outer periphery of the large cylindrical body (cylindrical body 110a in FIG. 3) and the outer periphery of the ring member 117 by two bolts or the like. Although fixed by fastening, the present embodiment is not limited to this.

また、この伸縮ポール11を構成する筒状体110のうち、最小の径の筒状体110xは、その下方端(以下、先端側と呼ぶ)がキャップによって閉じられている。さらにこの先端側にはドラム114が固定され、このドラム114にワイヤ115が固定されている。ワイヤ115の他端はウインチ116に巻き取られている。   Of the cylindrical body 110 constituting the telescopic pole 11, the cylindrical body 110x having the smallest diameter has its lower end (hereinafter referred to as the front end side) closed by a cap. Further, a drum 114 is fixed to the tip end side, and a wire 115 is fixed to the drum 114. The other end of the wire 115 is wound around the winch 116.

圧縮空気導入部12は、伸縮制御部13から入力される指示に従い、伸縮ポール11の一端側(先端側に対する側)から伸縮ポール11内部の空間に圧縮空気を導入する。なお、本実施の形態では、さらに伸縮ポール11内部の空間から圧縮空気を抜き取る手段を備える。この手段としては、例えば伸縮ポール11内部の空間に連通するバルブとすることができ、圧縮空気を導入する際はこのバルブを閉じておき、圧縮空気を抜き取るときにバルブを開くようにする。   The compressed air introduction unit 12 introduces compressed air into the space inside the telescopic pole 11 from one end side (the side with respect to the distal end side) of the telescopic pole 11 in accordance with an instruction input from the expansion control unit 13. In the present embodiment, there is further provided means for extracting compressed air from the space inside the telescopic pole 11. As this means, for example, a valve communicating with the space inside the telescopic pole 11 can be used. When the compressed air is introduced, the valve is closed, and when the compressed air is extracted, the valve is opened.

伸縮制御部13は、作業者から伸縮ポール11を伸張させるべき指示を受けて圧縮空気導入部12を作動させ、伸縮ポール11内の空間に圧縮空気を導入するとともに、伸縮ポール11を軸方向に伸張させる。また、この伸縮制御部13は、作業者から伸縮ポール11を収縮させるべき指示を受けると、圧縮空気導入部12の動作を停止させ、バルブを開くなどして伸縮ポール11内の空間から空気を抜き取る。そして作業者は伸縮ポール11を収縮させるために、ウインチ116によりワイヤ115を巻き取って伸縮ポール11を収縮させる。なお、ウインチ116が電動など、動力により巻き取るものである場合は、伸縮制御部13が作業者から伸縮ポール11を収縮させるべき指示を受けている間、このウインチ116を動作させてワイヤ115を巻き取り、伸縮ポール11を収縮させてもよい。   The expansion / contraction control unit 13 operates the compressed air introduction unit 12 in response to an instruction to extend the expansion / contraction pole 11 from an operator, introduces compressed air into the space in the expansion / contraction pole 11, and moves the expansion / contraction pole 11 in the axial direction. Stretch. Further, upon receiving an instruction to contract the telescopic pole 11 from the operator, the expansion / contraction control unit 13 stops the operation of the compressed air introduction unit 12 and opens the valve to release air from the space in the telescopic pole 11. Pull out. Then, the operator retracts the telescopic pole 11 by winding the wire 115 with the winch 116 in order to contract the telescopic pole 11. In the case where the winch 116 is wound by power, such as electric, the winch 116 is operated to operate the wire 115 while the expansion / contraction control unit 13 receives an instruction to contract the expansion / contraction pole 11 from the operator. Winding and the telescopic pole 11 may be contracted.

さらに伸縮制御部13は、伸縮ポール11を伸張ないし収縮させずに、伸縮ポール11の長さを維持する間も、圧縮空気導入部12を作動させ、伸縮ポール11内の空間に圧縮空気を導入している。このとき圧縮空気の導入量を、伸縮ポール11を伸張させる際の導入量より少なくし、浮力による伸縮ポール11の先端部の浮き上がり力と伸縮ポール11内の圧縮空気による伸縮ポール11先端部を押し下げる力とが釣り合うように制御している。   Further, the expansion / contraction control unit 13 operates the compressed air introduction unit 12 to introduce compressed air into the space in the expansion / contraction pole 11 while maintaining the length of the expansion / contraction pole 11 without extending or contracting the expansion / contraction pole 11. doing. At this time, the amount of compressed air introduced is less than the amount introduced when the telescopic pole 11 is extended, and the lifting force of the distal end of the telescopic pole 11 due to buoyancy and the distal end of the telescopic pole 11 due to the compressed air in the telescopic pole 11 are pushed down. It is controlled to balance the power.

また情報記録部2は、図4に例示するように、GPS装置21、モーションセンサ22、方位センサ23、撮像装置24、音響測深機25、インタフェースボックス31、変換器32、分配器33、第1記録装置34及び第2記録装置35を含んで構成される。   In addition, as illustrated in FIG. 4, the information recording unit 2 includes a GPS device 21, a motion sensor 22, an orientation sensor 23, an imaging device 24, an acoustic sounding device 25, an interface box 31, a converter 32, a distributor 33, a first A recording device 34 and a second recording device 35 are included.

本実施の形態では、伸縮ポール11の最も先端側にある筒状体110xに撮像装置24が取り付けられる。これにより、伸縮ポール11内に導入した圧縮空気が隣接する筒状体110の間から漏洩しても、その漏洩によって生じた気泡が撮像装置24の撮像に影響しないようにしている。またGPS装置21は、伸縮ポール11の上端側(水面から出ている位置)に取り付けられている。   In the present embodiment, the imaging device 24 is attached to the cylindrical body 110x on the most distal end side of the telescopic pole 11. Thereby, even if the compressed air introduced into the telescopic pole 11 leaks from between the adjacent cylindrical bodies 110, bubbles generated by the leakage do not affect the imaging of the imaging device 24. The GPS device 21 is attached to the upper end side of the telescopic pole 11 (a position protruding from the water surface).

GPS装置21は、GPSアンテナ21aと、GPS測位装置21bとを含む。本実施の形態では、少なくともGPSアンテナ21aが伸縮ポール11の上端側に取り付けられる。GPSアンテナ21aは、GPS(Global Positioning System)衛星からの信号を受信し、GPS測位装置21bに出力する。GPS測位装置21bは、この信号に基づいて、自己の位置を表す情報(測位情報)と、時刻情報とを生成して出力する。このようなGPS装置21の動作は、広く知られているので、ここでの詳細な説明は省略する。   The GPS device 21 includes a GPS antenna 21a and a GPS positioning device 21b. In the present embodiment, at least the GPS antenna 21 a is attached to the upper end side of the telescopic pole 11. The GPS antenna 21a receives a signal from a GPS (Global Positioning System) satellite and outputs it to the GPS positioning device 21b. Based on this signal, the GPS positioning device 21b generates and outputs information (positioning information) indicating its own position and time information. Since the operation of such a GPS device 21 is widely known, detailed description thereof is omitted here.

モーションセンサ22は、例えば3軸の加速度センサを備えた動揺計であり、伸縮ポール11の先端部側に取り付けられて、この位置での伸縮ポール11の動揺(予め定めたX,Y,Z軸周りの動揺)を測定し、当該測定の結果を動揺情報として出力する。すなわち、伸縮ポール11は、波の影響や船体の移動に伴う水流の影響により動揺するが、このモーションセンサ22は、伸縮ポール11の動揺を測定するものである。   The motion sensor 22 is a shake meter provided with, for example, a three-axis acceleration sensor, and is attached to the distal end portion side of the telescopic pole 11, and the motion of the telescopic pole 11 at this position (predetermined X, Y, Z axes) Around) and output the measurement result as shaking information. That is, the telescopic pole 11 is shaken by the influence of waves and the influence of water flow accompanying the movement of the hull. The motion sensor 22 measures the fluctuation of the telescopic pole 11.

方位センサ23は、撮像装置24の撮像方向(後述する)の方位を表す情報を出力する。この方位センサ23は、例えばワンチップ電子コンパスなど、地磁気を測定して方位を表す情報を出力するものとすればよい。撮像装置24は、水中で音波を放射し、当該音波の反射波を画像化し、当該画像化により得た映像の情報(フレーム)を出力する。この撮像装置24については、後に詳しく説明する。   The azimuth sensor 23 outputs information indicating the azimuth in the imaging direction (described later) of the imaging device 24. This azimuth sensor 23 should just output the information showing a azimuth | direction by measuring geomagnetism, such as a one-chip electronic compass, for example. The imaging device 24 emits sound waves in water, images reflected waves of the sound waves, and outputs video information (frames) obtained by the imaging. The imaging device 24 will be described in detail later.

音響測深機25は、伸縮ポール11の撮像装置24に隣接させた位置に設置される。これにより音響測深機25は、撮像装置24の水深における撮影対象物との距離を測定することとなる。音響測深機25は、超音波発生器と受信器とを備え、発生器により超音波パルスを放射し、その超音波パルスを直接受信器で受けて、その伝達時間を測ることで音響測深機25のある水深での撮影対象物との距離を測定する。そして当該測定の結果をデジタル情報に変換した距離の情報を第1記録装置34に出力する。   The acoustic sounding instrument 25 is installed at a position adjacent to the imaging device 24 of the telescopic pole 11. As a result, the acoustic sounding instrument 25 measures the distance of the imaging device 24 from the object to be photographed at the water depth. The acoustic sounding instrument 25 includes an ultrasonic generator and a receiver. The acoustic sounding instrument 25 radiates an ultrasonic pulse by the generator, receives the ultrasonic pulse directly by the receiver, and measures its transmission time. Measure the distance to the object to be photographed at a certain water depth. Then, distance information obtained by converting the measurement result into digital information is output to the first recording device 34.

インタフェースボックス31は、モーションセンサ22が出力する動揺情報の入力を受け入れて、当該受け入れた動揺情報を第1記録装置34に出力する。変換器32は、方位センサ23が出力する信号を予め定めた形式の方位情報に変換して第1記録装置34に出力する。分配器33は、GPS装置21が出力する測位情報及び時刻情報を第1記録装置34と、第2記録装置35とに分配して出力する   The interface box 31 receives the input of the shaking information output from the motion sensor 22 and outputs the received shaking information to the first recording device 34. The converter 32 converts the signal output from the azimuth sensor 23 into azimuth information in a predetermined format and outputs the azimuth information to the first recording device 34. The distributor 33 distributes and outputs the positioning information and time information output from the GPS device 21 to the first recording device 34 and the second recording device 35.

第1記録装置34は、インタフェースボックス31を介してモーションセンサ22が出力する動揺情報を受け入れ、また、分配器33を介してGPS装置21が出力する測位情報と時刻情報とを受け入れ、さらに変換器32を介して、方位センサ23が出力する信号に基づいて生成された方位情報を受け入れる。そして第1記録装置34は、これら受け入れた動揺情報、測位情報、時刻情報、並びに方位情報を関連づけて半導体メモリ素子や、ハードディスクなどの記憶デバイスに記録する。さらにこの第1記録装置34は、音響測深機25が出力する撮影対象物との距離の情報を記録する。   The first recording device 34 receives the shake information output from the motion sensor 22 via the interface box 31, receives the positioning information and time information output from the GPS device 21 via the distributor 33, and further converts the converter. The azimuth | direction information produced | generated based on the signal which the azimuth | direction sensor 23 outputs via 32 is received. Then, the first recording device 34 records the received shaking information, positioning information, time information, and azimuth information in association with a semiconductor memory element or a storage device such as a hard disk. Further, the first recording device 34 records information on the distance from the object to be imaged output from the acoustic sounding instrument 25.

第2記録装置35は、分配器33が出力する測位情報と、時刻情報と、撮像装置24が出力する映像情報とを受け入れる。そしてこの第2記録装置35は、これら測位情報と、時刻情報と映像情報とを関連づけて、半導体メモリ素子や、ハードディスクなどの記憶デバイスに記録する。また、この第2記録装置35には、対象物の撮像を行う場所(海域)において予め測定された水中での音速の情報を格納しておく。   The second recording device 35 receives the positioning information output from the distributor 33, the time information, and the video information output from the imaging device 24. The second recording device 35 records the positioning information, time information, and video information in association with each other in a semiconductor memory device or a storage device such as a hard disk. In addition, the second recording device 35 stores information on the speed of sound in water measured in advance in a place (sea area) where an object is imaged.

本実施の形態では、GPSによる時刻情報、動揺情報、測位情報、方位情報、撮像対象との距離の情報、並びに映像情報が、時間経過に従って逐次的に出力される。そして本実施の形態の第1記録装置34は、これらの各情報の入力を受けると、当該入力された時点での時刻の情報(第1記録装置34に内蔵されている時計(不図示)によって計時されている時刻の情報、以下、第1記録装置による時刻情報と呼ぶ)に関連づけて、図5(a)に示すように、これらの情報を記録する。なお、GPSからは時刻情報とともに測位情報が出力されるので、図5(a)では、GPSからの時刻情報と測位情報とは共通する時刻情報に関連づけて記録されることとなる。   In the present embodiment, time information by GPS, shaking information, positioning information, azimuth information, information on the distance to the imaging target, and video information are sequentially output over time. When the first recording device 34 of the present embodiment receives the input of each of these pieces of information, the time information at the time of the input (by a clock (not shown) built in the first recording device 34). As shown in FIG. 5A, these pieces of information are recorded in association with timed time information (hereinafter referred to as time information by the first recording device). Since positioning information is output together with time information from GPS, in FIG. 5A, time information from GPS and positioning information are recorded in association with common time information.

また第2記録装置35には、概念的には、図5(b)に示すように、出力される映像情報に対し、当該映像情報(フレーム)が入力されたときに得られたGPSによる時刻情報と、当該入力された時点での時刻の情報(第2記録装置35に内蔵されている時計(不図示)によって計時されている時刻の情報)を関連づけて保持している。これにより第1記録装置34と第2記録装置35とに記録された各情報は、第1記録装置による時刻情報とGPSによる時刻情報とを介して同期させ(共通の時刻情報に関連づけられている情報同士を取り出すことができ)、同時期に受け入れた各情報を得ることができる状態となる。例えば測位情報と映像情報とは、第1記録装置34と、第2記録装置35とにそれぞれ記録されたGPSによる時刻情報を比較することで同期させることができ、動揺情報や方位情報、撮像対象との距離の情報等は、第1記録装置34に記録されたGPSによる時刻情報と、当該GPSによる時刻情報を記録したときの第1記録装置による時刻の情報との差を演算しておき、動揺情報や方位情報、撮像対象との距離の情報等に関連づけられた第1記録装置による時刻の情報を、当該演算した差を用いてGPSによる時刻情報と等価な値に変換したうえで、第2記録装置35に記録されたGPSによる時刻情報と比較して映像情報に同期させることができる。   Further, conceptually, in the second recording device 35, as shown in FIG. 5B, for the output video information, the GPS time obtained when the video information (frame) is input. The information and the time information at the time of the input (time information measured by a clock (not shown) built in the second recording device 35) are held in association with each other. Thereby, each information recorded on the 1st recording device 34 and the 2nd recording device 35 is synchronized via the time information by a 1st recording device, and the time information by GPS (it is linked | related with common time information). Information can be taken out), and the information received at the same time can be obtained. For example, positioning information and video information can be synchronized by comparing GPS time information recorded in the first recording device 34 and the second recording device 35, respectively. For example, the difference between the time information recorded by the GPS recorded in the first recording device 34 and the time information recorded by the first recording device when the time information recorded by the GPS is recorded. After converting the time information by the first recording device associated with the shaking information, the direction information, the information on the distance to the imaging target, etc. into a value equivalent to the time information by GPS using the calculated difference, 2 Compared with the time information by GPS recorded in the recording device 35, it can be synchronized with the video information.

ここで撮像装置24について詳しく述べる。撮像装置24は、いわゆるソナーであり、図6に示すように、複数の音響発生器41と、音響受波器42と、造影部43とを含んで構成される。ここで音響発生器41は、予め定めた配列方向(θy軸方向)にN個ずつを1組としてK組配列(N,Kはそれぞれ2以上の整数)されている。   Here, the imaging device 24 will be described in detail. The imaging device 24 is a so-called sonar, and includes a plurality of acoustic generators 41, acoustic receivers 42, and a contrast unit 43 as shown in FIG. Here, the acoustic generators 41 are arranged in K groups (N and K are integers of 2 or more, respectively) with N as a set in a predetermined arrangement direction (θy axis direction).

各音響発生器41はその配列方向に対して垂直な方向に広がるよう指向されたパルス音を発する。具体的に図7に示すように、ソナーの音波放射方向に伸びた箱状の領域を、音響発生器41の配列方向にN×K個(音響発生器41の数)だけ分割して得られるN×K個の略板状の領域Rを考えるとする。このとき、各領域Rに対して、各音響発生器41からのパルス音波が音響ビームとしてそれぞれ放射されることとなる。   Each sound generator 41 emits a pulse sound directed to spread in a direction perpendicular to the arrangement direction. Specifically, as shown in FIG. 7, a box-shaped region extending in the direction of sound emission of the sonar is obtained by dividing N × K pieces (the number of sound generators 41) in the arrangement direction of the sound generators 41. Consider N × K substantially plate-like regions R. At this time, for each region R, the pulse sound wave from each acoustic generator 41 is emitted as an acoustic beam.

音響受波器42は、音響発生器41が放射した音響ビームの反射波を受信する。そしてこの音響受波器42は、音響発生器41が音響ビームを放射してからその反射波を受けるまでの時間により、対象物までの距離の情報を得る。さらに音響受波器42は、反射波の強度(または振幅)の情報を得る。そして音響受波器42は、音響発生器41ごとの、放射した音波の反射波により測定される対象物までの距離と反射波の強度の情報とを出力する。   The acoustic receiver 42 receives the reflected wave of the acoustic beam emitted from the acoustic generator 41. The acoustic wave receiver 42 obtains information on the distance to the object based on the time from when the acoustic generator 41 radiates the acoustic beam until the reflected wave is received. Furthermore, the acoustic receiver 42 obtains information on the intensity (or amplitude) of the reflected wave. Then, the acoustic receiver 42 outputs, for each acoustic generator 41, information on the distance to the object measured by the reflected wave of the emitted sound wave and the intensity of the reflected wave.

造影部43は、図8に示すように、音響発生器41の配列方向を一つの軸(θy軸)とし、対象物までの距離をもう一つの軸(r軸)とした2次元の映像を生成する。すなわち、音波を放射した音響発生器41に対応するr軸に沿ったライン上で、反射波の受信時刻に応じた位置の画素を、受信した反射波の強度に応じた輝度の画素値に設定して、映像情報(フレーム)を生成し、この映像情報を出力する。   As shown in FIG. 8, the contrast unit 43 displays a two-dimensional image with the arrangement direction of the sound generators 41 as one axis (θy axis) and the distance to the object as another axis (r axis). Generate. That is, on the line along the r-axis corresponding to the sound generator 41 that radiates the sound wave, the pixel at the position corresponding to the reception time of the reflected wave is set to the pixel value of the luminance corresponding to the intensity of the received reflected wave. Then, video information (frame) is generated and this video information is output.

本実施の形態では、複数の音響発生器41を配列しているが、隣接する音響発生器41が発生する音響ビームとの干渉により映像が乱れることを避けるために、次のような制御を行っている。すなわち本実施の形態では、図7に示したように、複数の音響発生器41の、連続するN個ずつを組とする。また1からNまでの数値の順列をP1,P2,…PN(例えばP1=1,P2=5,P3=2…)とする。そして各組P(i mod N)番目の音響発生器41が一斉に音響ビームを発し、次いで間隔Δtだけ後にiを1だけインクリメントするといった制御を繰り返し行う。この結果、各組でP1番目からPN番目までの音響発生器41がこの順に音波を放射し、またP1番目の音響発生器41が音波を放射し…と繰り返し音波が放射される。この制御を船舶を対象物に沿って移動させつつ行うことで、対象物を走査した映像が得られる。なお、音響発生器41の1つに注目すると、この注目した音響発生器41が、繰り返して音響ビームを放射する周期はT=Δt・Nとなる。また以下の説明では一つの音響発生器41に注目したとき、当該注目した音響発生器41の音波により走査される被写体上のラインをLとする。   In the present embodiment, a plurality of sound generators 41 are arranged. However, in order to prevent the image from being disturbed by interference with the sound beam generated by the adjacent sound generator 41, the following control is performed. ing. In other words, in the present embodiment, as shown in FIG. 7, the N consecutive acoustic generators 41 are grouped. A permutation of numerical values from 1 to N is defined as P1, P2,... PN (for example, P1 = 1, P2 = 5, P3 = 2...). Then, each set P (i mod N) -th acoustic generator 41 emits an acoustic beam all at once, and then repeatedly performs control such that i is incremented by 1 after the interval Δt. As a result, the P1-th to PN-th sound generators 41 in each group emit sound waves in this order, and the P1-th sound generator 41 emits sound waves. By performing this control while moving the ship along the object, an image obtained by scanning the object can be obtained. When attention is paid to one of the sound generators 41, a period in which the noticed sound generator 41 repeatedly emits an acoustic beam is T = Δt · N. In the following description, when attention is paid to one sound generator 41, a line on the subject scanned by the sound wave of the noticed sound generator 41 is L.

具体的に本実施の形態のある例では、N=8,K=12として、G組目(G=1,2,…K)の音響発生器41がそれぞれ一つずつ「1,5,2,6,3,7,4,8」番目の順に間隔Δtずつずれて音響ビームを発する。   Specifically, in an example of the present embodiment, N = 8 and K = 12, and the G generator (G = 1, 2,... K) acoustic generators 41 are respectively “1, 5, 2”. , 6,3,7,4,8 "in order of the interval Δt to emit acoustic beams.

次に、情報処理装置3の動作について、面状の水中構造物、例えば岸壁を被写体とした画像を撮像した場合を例として説明する。   Next, the operation of the information processing apparatus 3 will be described by taking as an example a case where an image of a planar underwater structure such as a quay is taken as an object.

本実施の形態の情報処理装置3は、図9に例示するように、制御部51と記憶部52と出力部53とを含んで構成される。ここで制御部51は、CPU(Central Processing Unit)であり、記憶部52に格納されたプログラムに従って動作するプログラム制御デバイスである。本実施の形態では制御部51は、情報記録部2の第1記録装置34に収納されている方位、動揺、測位、撮影対象物までの距離の情報と第2記録装置35とに格納されている画像情報を処理し、その処理結果である画像の情報(処理画像情報)を出力する。具体的に本実施の形態では、この制御部51は、複数の音響発生器41が音波を逐次的に放射することによって生じる鋸歯状の歪みや、船舶の動揺によって生じる歪みを補正する。この制御部51の詳しい処理の内容は後に述べる。   As illustrated in FIG. 9, the information processing apparatus 3 according to the present embodiment includes a control unit 51, a storage unit 52, and an output unit 53. Here, the control unit 51 is a CPU (Central Processing Unit), and is a program control device that operates according to a program stored in the storage unit 52. In the present embodiment, the control unit 51 is stored in the second recording device 35 and information on the orientation, shaking, positioning, and distance to the object to be photographed that are stored in the first recording device 34 of the information recording unit 2. Image information is processed, and image information (processed image information) as a result of the processing is output. Specifically, in the present embodiment, the control unit 51 corrects sawtooth distortion caused by the sound generators 41 sequentially radiating sound waves and distortion caused by the shaking of the ship. Details of the processing of the control unit 51 will be described later.

記憶部52は、メモリデバイスやハードディスクなどのディスクデバイスを含む。この記憶部52は、制御部51によって実行されるプログラムを保持する。また、この記憶部52は、制御部51のワークメモリとしても動作する。   The storage unit 52 includes a disk device such as a memory device or a hard disk. The storage unit 52 holds a program executed by the control unit 51. The storage unit 52 also operates as a work memory for the control unit 51.

出力部53は、制御部51から入力される指示に従って処理された画像情報を出力する。この出力部53は、例えばディスプレイやプリンタ、あるいは他のコンピュータシステムに対して画像を出力するネットワークインタフェース等の通信デバイスであってもよい。   The output unit 53 outputs image information processed in accordance with an instruction input from the control unit 51. The output unit 53 may be, for example, a communication device such as a display, a printer, or a network interface that outputs an image to another computer system.

ここで制御部51の処理の内容について説明する。この制御部51は、機能的には図10に示すように、読出部61と、領域画定部62と、原映像補正部63と、合成部64と、移動歪補正部65とを含む。   Here, the contents of the processing of the control unit 51 will be described. Functionally, the control unit 51 includes a reading unit 61, a region demarcating unit 62, an original image correcting unit 63, a synthesizing unit 64, and a moving distortion correcting unit 65, as shown in FIG.

読出部61は、情報記録部2の第1記録装置34及び第2記録装置35に記録された各情報を読み出して領域画定部62に出力する。この読出部61が第2記録装置35から読み出す映像情報は、撮像装置24が逐次的に出力する原映像である。ここでは、この原映像をそれぞれフレームと呼んでいる。一つのフレームには、撮像装置24に含まれる複数の音響発生器41のうち、各組の一つずつの音響発生器41が放射する音響ビームの反射波により造影された映像が含まれる。従ってこのフレームには、例えば図11(a)に例示する岸壁の範囲のうち、図11(b)に示すような一部を撮像した映像が含まれる。   The reading unit 61 reads each piece of information recorded in the first recording device 34 and the second recording device 35 of the information recording unit 2 and outputs the information to the area defining unit 62. The video information that the reading unit 61 reads from the second recording device 35 is an original video that the imaging device 24 sequentially outputs. Here, each of the original images is called a frame. One frame includes an image contrasted by the reflected wave of the acoustic beam radiated from each of the acoustic generators 41 of the plurality of acoustic generators 41 included in the imaging device 24. Therefore, this frame includes, for example, an image obtained by capturing a part as shown in FIG. 11B in the quay range illustrated in FIG.

領域画定部62は、第2記録装置35が記録している映像情報(フレーム)の一つ(i番目のフレームFiとする)を読出部61を介して得て、フレームFiにおいて被写体の撮像された範囲を、例えば画素間の輝度差を利用する輪郭検出処理などによって検出する。そしてフレームFi内の、この被写体の撮像された範囲のうちに、合成のための部分領域を画定する。ここで部分領域は、例えば被写体の撮像された範囲における撮像装置24の移動方向の幅中央部(図12(a)の範囲A1)、移動方向手前側端部(図12(b)の範囲A2)、または移動方向奥側端部(図12(c)の範囲A3)等予め定めた範囲のいずれか、利用者が予め指示した範囲とすればよい。   The area demarcating unit 62 obtains one of the video information (frame) recorded by the second recording device 35 (referred to as the i-th frame Fi) via the reading unit 61, and images the subject in the frame Fi. The detected range is detected by, for example, contour detection processing using a luminance difference between pixels. Then, a partial region for composition is defined in the range in which the subject is imaged in the frame Fi. Here, the partial areas are, for example, the width center part in the movement direction of the imaging device 24 in the range where the subject is imaged (range A1 in FIG. 12A), and the front end part in the movement direction (range A2 in FIG. 12B). ) Or a predetermined range such as a rear end in the moving direction (range A3 in FIG. 12C), or a range designated in advance by the user.

領域画定部62は、画定した部分領域を表す情報(座標情報)を、その元となったフレームを特定する情報(例えば番号i)に関連づけて記憶部52に蓄積して記憶する。そして領域画定部62は、iを「1」ずつインクリメントしながら、合成のための部分領域を表す情報を更新・記憶していく。   The area demarcating unit 62 accumulates and stores information (coordinate information) representing the demarcated partial area in the storage unit 52 in association with information (for example, number i) specifying the original frame. Then, the area demarcating unit 62 updates and stores information representing a partial area for composition while incrementing i by “1”.

原映像補正部63は、記憶部52に格納されたフレームを順次処理の対象として取り出して、映像の輝度の分散を演算し、輝度の分散が均一となるよう、輝度補正を行う。そして原映像補正部63は、この補正後のフレームを、元のフレームに上書きして記憶部52に格納する。   The original video correction unit 63 sequentially takes out the frames stored in the storage unit 52 as processing targets, calculates the luminance distribution of the video, and performs luminance correction so that the luminance distribution becomes uniform. Then, the original video correction unit 63 overwrites the original frame with the corrected frame and stores it in the storage unit 52.

また本実施の形態では、図13に例示するように、被写体に対して音響ビームが斜めに当たるよう撮像装置24を配している。そのため撮像装置24から被写体までの最短距離dが一定であるとしても、船舶の進行方向手前側の映像部分と、進行方向奥側の映像部分とでは、異なる距離r1,r2として撮像されてしまう。なお以下の説明では、被写体の水深方向をY軸、被写体の幅方向をX軸とし、被写体の面に垂直な方向の軸をZ軸とする。この場合、図14に示すように、音響発生器41の位置をS(x,y,d)、この音響発生器41が放射した音響ビーム(の中心)が被写体に当たる点をP(x+dx,y−dy,0)とし、さらにSから被写体へおろした垂線の足をS′とし、PとS′との間の距離をRwとすると、SとPとの間の距離R0を用いて、
Rw=√(R02−d2
と書くことができる。
In the present embodiment, as illustrated in FIG. 13, the imaging device 24 is arranged so that the acoustic beam strikes the subject obliquely. Therefore, even if the shortest distance d from the imaging device 24 to the subject is constant, the image portion on the near side in the traveling direction of the ship and the image portion on the far side in the traveling direction are imaged as different distances r1 and r2. In the following description, the water depth direction of the subject is the Y axis, the width direction of the subject is the X axis, and the axis perpendicular to the surface of the subject is the Z axis. In this case, as shown in FIG. 14, the position of the sound generator 41 is S (x, y, d), and the point where the sound beam (center) emitted from the sound generator 41 hits the subject is P (x + dx, y). −dy, 0), and the perpendicular foot from S to the subject is S ′, and the distance between P and S ′ is Rw, the distance R0 between S and P is used,
Rw = √ (R0 2 −d 2 )
Can be written.

また、点Pと点S′とのX軸方向の距離dxは、
dx=√(Rw2−dy2
となる。なおdyは、点Sにある音響発生器41の音響ビームの放射方向を表す角度をθとして、
dy=R0・sinθ
と表すことができる。本実施の形態の原映像補正部63は、処理の対象となったフレームに関連づけて第2記録装置35が保持している測位情報を読み出し、当該読み出した測位情報と同じ測位情報に関連づけて第1記録装置34に記録されている方位情報を読み出す。そして、この方位情報と既知の対象構造物の測位情報とに基づいて、角度θを定める。
The distance dx between the point P and the point S ′ in the X-axis direction is
dx = √ (Rw 2 −dy 2 )
It becomes. Note that dy is an angle representing the radiation direction of the acoustic beam of the acoustic generator 41 at the point S, where θ is
dy = R0 · sinθ
It can be expressed as. The original image correction unit 63 according to the present embodiment reads the positioning information held by the second recording device 35 in association with the processing target frame, and associates with the same positioning information as the read positioning information. The azimuth | direction information currently recorded on 1 recording device 34 is read. Then, the angle θ is determined based on this orientation information and the known positioning information of the target structure.

また、原映像補正部63は、当該読み出した測位情報と同じ測位情報に関連づけて第1記録装置34に記録されている動揺情報を読み出し、この動揺情報から処理の対象となったフレームが撮像された時点での撮像装置24からの音響ビームの放射方向の船舶進行方向(X軸方向)周りの回転角ωxと、鉛直方向(Y軸方向)周りの回転角ωyとを得る。そして、処理対象のフレームの画角を画定する情報を演算する。   In addition, the original image correction unit 63 reads the shake information recorded in the first recording device 34 in association with the same positioning information as the read positioning information, and the frame to be processed is imaged from this shake information. The rotation angle ωx around the ship traveling direction (X-axis direction) in the radiation direction of the acoustic beam from the imaging device 24 and the rotation angle ωy around the vertical direction (Y-axis direction) are obtained. Then, information that defines the angle of view of the processing target frame is calculated.

原映像補正部63は、処理対象のフレームのうち、被写体までの平均距離が進行方向手前側の映像部分と、進行方向奥側の映像部分とのいずれにおいても距離dであるとして、フレームの画角を、正対したときの画角となるよう幾何補正を行う。これにより記憶部52に保持されたフレームは、被写体に正対したときの映像となるよう補正される。ここで幾何補正については広く知られた処理を用いられるので、ここでの詳細な説明を省略する。なお、ここでは岸壁、水底や船体の一部など被写体が、少なくとも局所的には略平面と見なし得て、また撮像装置24を搭載した船舶等が被写体の面に沿って移動しているとして、被写体までの距離dを音響測深機25より得られる距離情報を用いた補正を行っているものである。   The original image correction unit 63 assumes that the average distance to the subject in the processing target frame is the distance d in both the image portion on the near side in the traveling direction and the image portion on the far side in the traveling direction. Geometric correction is performed so that the angle becomes the angle of view when facing the corner. As a result, the frame held in the storage unit 52 is corrected to become an image when facing the subject. Here, since a well-known process is used for the geometric correction, a detailed description thereof is omitted here. Here, it is assumed that the subject such as a quay, a water bottom or a part of a hull can be regarded as a substantially flat surface at least locally, and that a ship or the like equipped with the imaging device 24 is moving along the surface of the subject. The distance d to the subject is corrected using distance information obtained from the acoustic sounding instrument 25.

また、原映像補正部63は、幾何補正したフレームを特定する情報に関連づけて記憶部52に格納されている部分領域を表す情報を、映像に対する幾何補正に合わせて補正しておく。   In addition, the original image correcting unit 63 corrects the information representing the partial area stored in the storage unit 52 in association with the information for specifying the geometrically corrected frame in accordance with the geometric correction for the image.

合成部64は、記憶部52に保持されたフレームを順次注目フレームとして選択しつつ、注目フレームと、注目フレーム以外のフレームとの映像の合成処理を行って合成音響映像を生成する。   The synthesizing unit 64 sequentially selects the frames held in the storage unit 52 as the target frame, and performs a video synthesizing process between the target frame and a frame other than the target frame to generate a synthesized audio video.

本実施の形態の一例によれば、この合成部64は、注目フレームをフレームFiとして、それまでに合成した合成音響映像G(最初のフレームである場合は当該フレームの映像をそのまま合成音響映像Gとする)に含まれる過去に入力されたフレームFi-jと、注目フレームFiに続けて記憶されているフレームFi+k(j,k=1,2…)とを指定された数だけ選択する。そして注目フレームFiに関連づけられた部分領域に含まれる映像部分と同じ映像部分を、選択したフレームから検索する。この検出は、映像部分の相関演算を用いて(例えば画素値の差の絶対値を総和し、それが最小となる範囲を抽出するなどして)実現できる。   According to an example of the present embodiment, the synthesizing unit 64 uses the frame of interest as the frame Fi, and the synthesized audio video G synthesized so far (in the case of the first frame, the synthesized audio video G is used as it is. The frame Fi-j input in the past and the frame Fi + k (j, k = 1, 2,...) Stored subsequent to the frame of interest Fi are selected by the designated number. . Then, the same video part as the video part included in the partial area associated with the target frame Fi is searched from the selected frame. This detection can be realized by using a correlation calculation of the video part (for example, by summing up absolute values of pixel value differences and extracting a range where the absolute value is minimized).

例えば、3つの映像部分を合成する場合は、Fi-1(それまでに合成された合成音響映像Gに含まれる)、注目フレームFi、及び、注目フレームの次に記憶されているフレームFi+1から共通の映像部分を検索して合成し、合成音響映像Gを更新してもよいし、Fi,Fi+1,Fi+2から共通の映像部分を検索して合成し、合成音響映像Gを更新してもよい。生成・更新された合成音響映像Gは、記憶部52に格納しておく。   For example, when three video parts are synthesized, Fi-1 (included in the synthesized audio video G synthesized so far), the frame of interest Fi, and the frame Fi + 1 stored next to the frame of interest. The common video portion may be searched for and synthesized to update the synthesized audio video G, or the common video portion may be searched for and synthesized from Fi, Fi + 1, Fi + 2 It may be updated. The generated / updated synthesized audio video G is stored in the storage unit 52.

このように合成が行われた後の合成音響映像Gは、次に述べるようなものとなる。すなわち、既に説明したように、本実施の形態では、各組の音響発生器41の一つずつが順次音響ビームを放射する制御を行うため、Pn番目の音響発生器41が音響ビームを放射してからPn+1番目の音響発生器41が音響ビームを放射するまでの間(時間Δtの間)に船舶が進行してしまう。このため、船舶の進行方向に音響発生器41が音響ビームを放射している場合、同じ組にある各音響発生器41が放射する音響ビームの反射波により本来直線状に造影されるはずの被写体の合成音響映像Gが斜めに歪んで造影されることとなる。各組で斜めに歪んだ映像が得られるので、組ごとの繰り返しにより鋸歯状の映像が得られる。つまり、合成音響映像Gは、図15に例示するようにX軸方向(船舶移動方向)の端部が鋸歯状に歪んで造影された映像となる。   The synthesized audio video G after being synthesized in this way is as described below. That is, as already described, in the present embodiment, each of the acoustic generators 41 in each set performs control to sequentially emit the acoustic beam, and thus the Pnth acoustic generator 41 emits the acoustic beam. Until the Pn + 1th acoustic generator 41 emits an acoustic beam (during time Δt). For this reason, when the sound generator 41 emits an acoustic beam in the traveling direction of the ship, the subject that is supposed to be contrasted linearly by the reflected wave of the acoustic beam emitted by each acoustic generator 41 in the same set The synthesized audio video G is imaged with an oblique distortion. Since an obliquely distorted image is obtained in each group, a sawtooth image is obtained by repeating each group. That is, the synthesized audio image G is an image in which an end portion in the X-axis direction (the ship moving direction) is distorted in a sawtooth shape as illustrated in FIG.

そこで移動歪補正部65は、この鋸歯状の歪みを補正する処理を行う。具体的に移動歪補正部65は、読出部61を介して第2記録装置35に格納されている音速の情報を、音響ビームの伝播速度νとして読み出す。またこの移動歪補正部65は、合成音響映像Gを記憶部52から読み出す。そしてこの合成音響映像Gに生じている鋸歯状歪みの先端から根元までの最大ピクセル値を調べる。そして当該ピクセル数をλとする。このとき、船舶と被写体との相対速度をvとすると、
λ/((ν−v)・N)=Δt
であり、移動歪補正部65は、これをvについて解いた
v=ν−λ/(Δt・N)
を演算する。移動歪補正部65が演算したこのvが鋸歯状部の出っ張りを打ち消す相対速度となる。
Therefore, the moving distortion correction unit 65 performs processing for correcting the sawtooth distortion. Specifically, the moving distortion correction unit 65 reads the information on the speed of sound stored in the second recording device 35 through the reading unit 61 as the acoustic beam propagation velocity ν. Further, the movement distortion correction unit 65 reads out the synthesized audio video G from the storage unit 52. Then, the maximum pixel value from the tip to the root of the sawtooth distortion occurring in the synthetic audio image G is examined. The number of pixels is λ. At this time, if the relative speed between the ship and the subject is v,
λ / ((ν−v) · N) = Δt
The movement distortion correction unit 65 solves this for v v = ν−λ / (Δt · N).
Is calculated. This v calculated by the movement distortion correction unit 65 is a relative speed for canceling the protrusion of the sawtooth portion.

移動歪補正部65は、ある音響発生器41が音響ビームを放射する間隔をTとして、各組でi番目の音響発生器41が撮像する映像に対応するX軸に沿ったライン上で、合成音響映像Gの画素をv×T×(i/N)だけ船舶(撮像装置24)の移動方向と反対の方向へ移動する(図16)。具体的には、合成音響映像Gに生じた周期的な鋸歯状の歪みのうち、X軸上最も船舶の移動方向にシフトしているX軸に沿った合成音響映像G上の画素群をv×T×(N/N)=v×Tだけ移動させる。以下、当該移動後にさらにX軸上最も船舶の移動方向にシフトしているY軸に沿った合成音響映像G上の画素群をv×T×(i/N)(ここでi=N−1)だけ移動させる、という処理をiを「1」ずつデクリメントしつつi=1となるまで繰り返し行う。これにより、鋸歯状の歪みが補正された合成音響映像Gが得られることとなる。出力部53は、移動歪補正部65による補正後の合成音響映像Gを出力する。   The moving distortion correction unit 65 performs synthesis on a line along the X axis corresponding to an image picked up by the i-th acoustic generator 41 in each set, where T is the interval at which a certain acoustic generator 41 emits an acoustic beam. The pixel of the audio image G is moved in the direction opposite to the moving direction of the ship (imaging device 24) by v × T × (i / N) (FIG. 16). Specifically, among periodic sawtooth distortions generated in the synthesized audio video G, a pixel group on the synthesized audio video G along the X axis that is shifted most in the movement direction of the ship on the X axis is represented by v. Move by * T * (N / N) = v * T. Hereinafter, after the movement, a pixel group on the synthesized audio image G along the Y axis that is further shifted in the moving direction of the ship on the X axis is represented by v × T × (i / N) (where i = N−1). ) Is repeatedly performed until i = 1 while decrementing i by “1”. As a result, a synthesized audio image G in which the sawtooth distortion is corrected is obtained. The output unit 53 outputs the synthesized audio video G that has been corrected by the movement distortion correction unit 65.

この出力部53は、GPS装置21が出力する測位情報を利用して次のような処理を行ってもよい。すなわちこの出力部53は、映像情報の記録開始時点の測位情報と映像情報の記録終了時点の測位情報とを得て合成音響映像GのX軸方向の幅が予め定めた縮尺となるよう、合成音響映像Gを拡大縮小補正してもよい。   The output unit 53 may perform the following processing using the positioning information output from the GPS device 21. In other words, the output unit 53 obtains the positioning information at the time of recording start of the video information and the positioning information at the end of recording of the video information, so that the width of the synthesized audio video G in the X-axis direction becomes a predetermined scale. The audio video G may be corrected for enlargement / reduction.

出力部53は、合成音響映像GのX軸の値と、GPS装置21が出力する測位情報とを関連づけて表示する。さらに出力部53は、別途用意された水上部の映像を、合成音響映像Gに位置合わせして合成して表示してもよい。具体的に出力部53は、ケーソンごとに予め設定されているケーソン番号と各ケーソン番号に対応する映像上の座標情報とを関連づけた地上部映像、及び、ケーソン番号と各ケーソン番号に対応するケーソンの測位情報(各ケーソンの端部での測位情報)とを関連づけたケーソン位置情報との入力を受け入れる。ここでケーソンは、水中構造物の建造に用いられる矩形状の部材であり、ここではその端部が水深方向に伸びるように配されるものとする。   The output unit 53 displays the value of the X axis of the synthetic audio video G and the positioning information output from the GPS device 21 in association with each other. Further, the output unit 53 may synthesize and display a separately prepared video of the water surface in alignment with the synthesized audio video G. Specifically, the output unit 53 includes a ground part image that associates a caisson number preset for each caisson and coordinate information on the image corresponding to each caisson number, and a caisson corresponding to each caisson number and each caisson number. The input of the caisson position information associated with the positioning information (positioning information at the end of each caisson) is accepted. Here, the caisson is a rectangular member used for the construction of an underwater structure, and here, the caisson is arranged so that the end thereof extends in the water depth direction.

出力部53は、合成音響映像GのX軸の値に関連する測位情報を参照し、各ケーソン番号に対応するケーソンの両端部の測位情報に対応する合成音響映像GのX軸の値のペアを得る。そして出力部53は、各ケーソン番号に対応するケーソンの水上部の映像が、上記の方法で得たペアとなったX軸の値の間に合成できるよう、当該水上部の映像を拡大縮小処理し、水面より上の位置に合成する。なお、拡大縮小処理と合成とはケーソン番号に対応するケーソンの映像ごとに行ってもよいし、画像全体で行ってもよい。この処理により、出力部53が出力する映像は、図17(a)に示すようなものとなる。   The output unit 53 refers to the positioning information related to the X-axis value of the synthetic audio video G, and the X-axis value pair of the synthetic audio video G corresponding to the positioning information at both ends of the caisson corresponding to each caisson number Get. Then, the output unit 53 performs an enlargement / reduction process on the video of the upper part of the caisson corresponding to each caisson number so that the video of the upper part of the caisson can be synthesized between the paired X-axis values obtained by the above method. And synthesize at a position above the water surface. The enlargement / reduction processing and composition may be performed for each video of the caisson corresponding to the caisson number, or may be performed for the entire image. By this processing, the video output by the output unit 53 is as shown in FIG.

さらに、この出力部53は、設計図面を合成音響映像Gに合成して(この場合は設計図面上の線を映像に合成し、線のない部分は合成音響映像Gが残存するように合成する)もよい。この場合も出力部53は、ケーソン番号と各ケーソン番号に対応するケーソンの測位情報(各ケーソンの端部の測位情報)とを関連づけたケーソン位置情報を利用し、合成音響映像GのX軸の値に関連する測位情報を参照し、各ケーソン番号に対応するケーソンの両端部の測位情報に対応する合成音響映像GのX軸の値のペアを得る。そして設計図面上のケーソン番号に対応する範囲(各ケーソンに対応する設計図面の一部)の両端が、上記の方法で得たペアとなったX軸の値に一致するよう設計図面を拡大縮小処理して合成する。この場合も拡大縮小処理と合成とはケーソン番号に対応する設計図面の部分ごとに行ってもよいし、設計図面全体で行ってもよい。この処理により、出力部53が出力する映像は、図17(b)に示すようなものとなる。   Further, the output unit 53 synthesizes the design drawing with the synthesized audio video G (in this case, the line on the design drawing is synthesized with the video, and the synthesized audio video G is synthesized so that the portion without the line remains. ) Is also good. Also in this case, the output unit 53 uses the caisson position information in which the caisson number and the caisson positioning information corresponding to each caisson number (positioning information at the end of each caisson) are associated, and the X-axis of the synthesized audio video G With reference to the positioning information related to the value, a pair of X-axis values of the synthesized audio video G corresponding to the positioning information at both ends of the caisson corresponding to each caisson number is obtained. Then, the design drawing is enlarged or reduced so that both ends of the range corresponding to the caisson number on the design drawing (a part of the design drawing corresponding to each caisson) match the paired X-axis values obtained by the above method. Process and synthesize. Also in this case, the enlargement / reduction processing and composition may be performed for each part of the design drawing corresponding to the caisson number, or may be performed for the entire design drawing. With this processing, the video output by the output unit 53 is as shown in FIG.

[動作]
本実施の形態のシステムを用いた水中構造物の撮像方法について次に述べる。作業者は伸縮ポール11の長さを調整して、撮像装置24の位置を水深Y1に設定し、船舶を劣化検査の対象となる水中構造物に沿って移動させつつ映像の撮像を行う。つまり艤装架台1により、水中構造物を撮像する当該深度(水深)Y1にて、撮像装置24が支持される。そしてこの当該深度(水深)Y1にて、撮像装置24が撮像した映像が情報記録部2に記録され、この記録された映像から情報処理装置3が合成音響映像G1を生成する。
[Operation]
An underwater structure imaging method using the system of the present embodiment will be described next. The operator adjusts the length of the telescopic pole 11, sets the position of the imaging device 24 to the water depth Y1, and captures an image while moving the ship along the underwater structure to be subjected to deterioration inspection. In other words, the imaging device 24 is supported by the saddle mount 1 at the depth (water depth) Y1 for imaging the underwater structure. Then, at this depth (water depth) Y1, the video imaged by the imaging device 24 is recorded in the information recording unit 2, and the information processing device 3 generates the synthesized audio video G1 from the recorded video image.

また、作業者は伸縮ポール11の長さを変更して撮像装置24の位置を水深Y2に設定し、船舶を劣化検査の対象となる水中構造物に沿って移動させつつ映像の撮像を行う。これにより当該深度Y2にて撮像した映像が情報記録部2に記録され、この記録された映像から情報処理装置3が合成音響映像G2を生成する。   In addition, the operator changes the length of the telescopic pole 11 to set the position of the imaging device 24 at the water depth Y2, and captures an image while moving the ship along the underwater structure to be subjected to the deterioration inspection. As a result, the video imaged at the depth Y2 is recorded in the information recording unit 2, and the information processing device 3 generates the synthesized audio video G2 from the recorded video image.

以下、同様にして、撮像装置24の水深をY3,Y4…と変更させつつ撮像を行って対応する合成音響映像G3,G4…を得る。   In the same manner, imaging is performed while changing the water depth of the imaging device 24 to Y3, Y4,... To obtain corresponding synthetic audio images G3, G4,.

この例の場合、水深Yiと、Yi+1とで撮像される各映像にはそれぞれ重複部分が存在するように各水深を定める。そして情報処理装置3は、当該重複部分での相関を利用して各合成音響映像G1,G2…を合成する。   In the case of this example, each water depth is determined so that there is an overlapping portion in each image captured at the water depth Yi and Yi + 1. And the information processing apparatus 3 synthesize | combines each synthetic | combination audio video G1, G2, ... using the correlation in the said duplication part.

また、ここでは船舶をX軸の正の方向に沿って移動させつつ撮像を行う例について述べたが、撮像装置24を同じ水深に置いたときの映像を、船舶をX軸方向に沿って正の方向に移動させているときと、X軸負の方向に移動させているときとの双方で撮像し、それぞれの映像を合成した合成音響映像Gをそれぞれ得てもよい。   In addition, although an example in which imaging is performed while moving the ship along the positive direction of the X axis has been described here, an image when the imaging device 24 is placed at the same water depth is displayed as a normal image of the ship along the X axis direction. The synthesized audio video G may be obtained by synthesizing each video and capturing both when moving in the negative direction and when moving in the negative X-axis direction.

これにより作業者は、合成音響映像を参照しつつ、被写体となった水中構造物に生じたひび割れなどを検討できる。   As a result, the worker can examine cracks and the like generated in the underwater structure that is the subject while referring to the synthesized audio image.

1 艤装架台、2 情報記録部、3 情報処理装置、10 支持部、11 伸縮ポール、12 圧縮空気導入部、13 伸縮制御部、21 GPS装置、22 モーションセンサ、23 方位センサ、24 撮像装置、25 音響測深機、31 インタフェースボックス、32 変換器、33 分配器、34 第1記録装置、35 第2記録装置、41 音響発生器、42 音響受波器、43 造影部、51 制御部、52 記憶部、53 出力部、61 読出部、62 領域画定部、63 原映像補正部、64 合成部、65 移動歪補正部、110 筒状体、111 凸部、112 凹部、113 スリーブ、114 ドラム、115 ワイヤ、116 ウインチ、117 リング部材。   DESCRIPTION OF SYMBOLS 1 Saddle mounting base, 2 Information recording part, 3 Information processing apparatus, 10 Support part, 11 Telescopic pole, 12 Compressed air introduction part, 13 Telescopic control part, 21 GPS apparatus, 22 Motion sensor, 23 Direction sensor, 24 Imaging apparatus, 25 Acoustic sounding device, 31 interface box, 32 converter, 33 distributor, 34 first recording device, 35 second recording device, 41 acoustic generator, 42 acoustic receiver, 43 contrast unit, 51 control unit, 52 storage unit , 53 output unit, 61 reading unit, 62 region demarcating unit, 63 original image correcting unit, 64 combining unit, 65 moving distortion correcting unit, 110 cylindrical body, 111 convex unit, 112 concave unit, 113 sleeve, 114 drum, 115 wire 116 winch, 117 ring member.

Claims (3)

水中の構造物を撮像した映像を生成する水中構造物点検システムであって、
情報処理部と、前記構造物に沿って移動する船舶に搭載される情報記録部とを含み、
前記情報記録部は、
前記構造物に対して音響ビームを順次照射する複数の音響発生器を少なくとも一組備え、前記音響ビームの構造物からの反射波により構造物の映像を造影する撮像手段と、
前記撮像手段の音響発生器が位置する水深での撮影対象物との距離を測定する距離測定手段と、
前記構造物を撮影する水深にて、前記撮像手段を支持する艤装架台と、
を備え、
前記情報処理部は、
前記撮像手段により造影された映像において前記船舶が移動することで生じる歪みを補正する補正手段であって、当該海域で予め測定して得た音速の情報と、前記映像に生じている歪みの大きさとに基づいて船舶の移動速度を推定し、当該推定した移動速度を用いて前記映像の歪みを補正する補正手段と、
前記補正された映像を複数合成して合成映像を生成する手段と、
前記補正された映像又は前記合成映像を出力する手段と、
を備えてなることを特徴とする水中構造物点検システム。
An underwater structure inspection system for generating an image of an underwater structure,
Including an information processing unit and an information recording unit mounted on a ship moving along the structure,
The information recording unit
An imaging means comprising at least one set of a plurality of acoustic generators for sequentially irradiating the structure with an acoustic beam, and imaging an image of the structure by a reflected wave from the acoustic beam structure;
Distance measuring means for measuring the distance to the object to be photographed at the water depth where the acoustic generator of the imaging means is located;
A saddle mount that supports the imaging means at a water depth for photographing the structure;
With
The information processing unit
Correction means for correcting distortion caused by movement of the ship in the image contrasted by the imaging means, information on sound speed obtained by measuring in advance in the sea area, and magnitude of distortion occurring in the image Correction means for estimating the moving speed of the ship based on the image and correcting the distortion of the image using the estimated moving speed;
Means for generating a composite image by combining a plurality of the corrected images;
Means for outputting the corrected video or the synthesized video;
An underwater structure inspection system characterized by comprising:
水中の構造物を撮像した映像を生成して記録する情報記録部であって、前記構造物に対して音響ビームを順次照射する複数の音響発生器を少なくとも一組備え、前記音響ビームの構造物からの反射波により構造物の映像を造影する撮像手段と、前記撮像手段の音響発生器が位置する水深での撮影対象物との距離を測定する手段と、を備えた情報記録部に接続され、
前記情報記録部の撮像手段により造影された映像において前記船舶が移動することで生じる歪みを補正する補正手段であって、前記音響発生器が位置した水中において予め測定して得た音速の情報と、前記映像に生じている歪みの大きさとに基づいて船舶の移動速度を推定し、当該推定した移動速度を用いて前記映像の歪みを補正する補正手段と、
前記補正された映像を複数合成して合成映像を生成する手段と、
前記補正された映像又は前記合成映像を出力する出力手段と、
を備えていることを特徴とする画像処理装置。
An information recording unit that generates and records an image of an image of a structure in water, and includes at least one set of a plurality of acoustic generators that sequentially irradiate the structure with an acoustic beam, the acoustic beam structure Connected to an information recording unit comprising imaging means for contrasting an image of a structure by reflected waves from the light source, and means for measuring a distance from a photographing object at a water depth where an acoustic generator of the imaging means is located ,
Correction means for correcting distortion caused by movement of the ship in the image contrasted by the imaging means of the information recording unit, and information on sound speed obtained by measuring in advance in the water where the sound generator is located; , estimates the movement speed of the ship on the basis of the magnitude of the distortion that occurs to the image, and correcting means for correcting distortion of the image using the moving speed and the estimated,
Means for generating a composite image by combining a plurality of the corrected images;
Output means for outputting the corrected video or the synthesized video;
An image processing apparatus comprising:
請求項2に記載の画像処理装置であって、
前記出力手段は、予め用意された水上部の映像または設計図面の画像を、前記補正された映像の縮尺に合わせて拡大縮小処理し、当該拡大縮小処理した水上部の映像または設計図面の画像を、前記補正された映像に合成して出力することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The output means enlarges / reduces a prepared image of the water top or the image of the design drawing according to the scale of the corrected image, and outputs the image of the water top or the design drawing subjected to the enlargement / reduction processing. An image processing apparatus characterized in that the corrected video is synthesized and output.
JP2010157345A 2010-07-09 2010-07-09 Underwater structure inspection system and image processing apparatus Expired - Fee Related JP5458270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010157345A JP5458270B2 (en) 2010-07-09 2010-07-09 Underwater structure inspection system and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010157345A JP5458270B2 (en) 2010-07-09 2010-07-09 Underwater structure inspection system and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2012018147A JP2012018147A (en) 2012-01-26
JP5458270B2 true JP5458270B2 (en) 2014-04-02

Family

ID=45603491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010157345A Expired - Fee Related JP5458270B2 (en) 2010-07-09 2010-07-09 Underwater structure inspection system and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5458270B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102192744B1 (en) * 2019-03-05 2020-12-17 한국해양과학기술원 Submarine topography exploration unmanned surface vessel including multi-beam echo sounder
KR102086369B1 (en) * 2019-11-21 2020-03-09 주식회사 지오스토리 Production System of Sea Drawing Map using a Multi-Beam Echo Sounder
JP7336788B2 (en) * 2020-03-23 2023-09-01 五洋建設株式会社 Underwater image generation method and program
JP2023028713A (en) * 2021-08-20 2023-03-03 ソニーグループ株式会社 Image processing device, image processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3576532B2 (en) * 2002-01-30 2004-10-13 三菱重工業株式会社 Underwater acoustic exploration method and underwater acoustic exploration system
US6789427B2 (en) * 2002-09-16 2004-09-14 General Electric Company Phased array ultrasonic inspection method for industrial applications
JP5266454B2 (en) * 2008-03-06 2013-08-21 国立大学法人 東京大学 Audio video generation apparatus and program
JP5517429B2 (en) * 2008-09-22 2014-06-11 株式会社日立製作所 Sound imaging device

Also Published As

Publication number Publication date
JP2012018147A (en) 2012-01-26

Similar Documents

Publication Publication Date Title
US11415991B2 (en) Image generating device and image generating method
US20160061951A1 (en) Sonar Rendering Systems and Associated Methods
JP5550092B2 (en) Underwater image omnidirectional display processing apparatus and method
US20060152589A1 (en) Imaging and measurement system
JP5458270B2 (en) Underwater structure inspection system and image processing apparatus
JP5989719B2 (en) Shallow water observation system
JP4917270B2 (en) Radar device and similar device
JPS61254879A (en) Sea-bottom prospecting sonic device
KR101866690B1 (en) system for measuring underwater structure and measuring method using the same
KR101554300B1 (en) Underwater image matching method
KR102127359B1 (en) Underwater magnetic field mapping system and method using autonomous surface vehicle
JP3515751B2 (en) Reconstruction method of three-dimensional submarine structure
CN113253285A (en) Method for upgrading fixed-point three-dimensional panoramic imaging sonar system into navigation system
JP2002058370A (en) Investigation method for seagrass beds and apparatus used for the investigation method
JP5017786B2 (en) Radar equipment
US8085618B2 (en) Sonar with deformable, flexible antenna and associated method of signal processing to form a synthetic antenna
JP6016255B2 (en) Acoustic image generation system, acoustic image generation method, and acoustic image generation program
JP2012122736A (en) Underwater detection device and underwater detection system
Tsutsumi et al. Accuracy enhancement of high-resolution acoustic mosaic images using positioning and navigating data
JP5266454B2 (en) Audio video generation apparatus and program
JPH0679065B2 (en) Seabed search device
KR101479634B1 (en) Multi-legged underwater robot for preventing water noise and method the same
CN114820390A (en) Method for generating side-scan sonar orthophoto
JP7336788B2 (en) Underwater image generation method and program
KR101740538B1 (en) Method for Correction Shaking Image of Side-Scan Sonar

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130619

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130702

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131213

R150 Certificate of patent or registration of utility model

Ref document number: 5458270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees