[go: up one dir, main page]

JP2023139821A - Image management system and method - Google Patents

Image management system and method Download PDF

Info

Publication number
JP2023139821A
JP2023139821A JP2022045544A JP2022045544A JP2023139821A JP 2023139821 A JP2023139821 A JP 2023139821A JP 2022045544 A JP2022045544 A JP 2022045544A JP 2022045544 A JP2022045544 A JP 2022045544A JP 2023139821 A JP2023139821 A JP 2023139821A
Authority
JP
Japan
Prior art keywords
image
camera
coordinate position
photographing direction
pan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022045544A
Other languages
Japanese (ja)
Inventor
健司 尾崎
Kenji Ozaki
剛 笹川
Takeshi Sasagawa
直弥 坂本
Naoya Sakamoto
徹郎 相川
Tetsuo Aikawa
紘司 上田
Koji Ueda
憲二 笹川
Kenji Sasagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2022045544A priority Critical patent/JP2023139821A/en
Publication of JP2023139821A publication Critical patent/JP2023139821A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image management technique capable of easily managing each image in a case of imaging the same subject with a plurality of cameras having different field angles.SOLUTION: An image management system 1 comprises a management computer 3 which manages each image captured by a first camera 4 and a second camera 5 that can perform imaging in a wider field angle than the first camera 4. The management computer 3 acquires a first image 13 captured by the first camera 4 and a second image 14 captured by the second camera 5, records the first image 13 in association with a coordinate position being the coordinate position in the second image 14 and matching with the imaging direction of the first camera 4 when the imaging direction of the first camera 4 is included in an imaging range of the second camera 5, and displays the first image 13 recorded in association with the selected coordinate position when an arbitrary coordinate position of the second image 14 is selected.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、画像管理技術に関する。 Embodiments of the present invention relate to image management technology.

発電所などでは、工事進捗管理または異常検知のため、定期的な巡回点検が実施される。巡回点検では、点検箇所を記録するためにカメラで画像の撮影を行う。撮影のために魚眼レンズを有するカメラを使用する場合は、広範囲の画像を取得可能であり、複数の点検箇所がある場合であっても1枚の画像中に収めることが可能となる。さらに、魚眼レンズを有するカメラを複数配置して、全方位を撮影可能なカメラを使用することも可能となっている。一方、点検箇所の詳細な画像が撮影される場合は、カメラが点検箇所に接近した状態で撮影されたり、カメラのズーム機能の利用により撮影されたりしている。撮影された点検箇所は、記録用紙に記録したり、タブレットPCなどにより電子媒体に記録したりすることで管理されている。点検作業者は、撮影された画像を分析し、点検箇所の破損、変形、き裂、変色、内部の液体の漏えいなどの異常の検出を行う。 At power plants and other facilities, regular patrol inspections are conducted to manage construction progress and detect abnormalities. During patrol inspections, images are taken with a camera to record the inspection points. When using a camera with a fisheye lens for photographing, a wide range of images can be acquired, and even if there are multiple inspection points, they can be captured in one image. Furthermore, it is also possible to use a camera that can take pictures in all directions by arranging a plurality of cameras each having a fisheye lens. On the other hand, when a detailed image of an inspection area is taken, the image is taken with the camera close to the inspection area, or by using the zoom function of the camera. The photographed inspection points are managed by recording them on recording paper or electronic media using a tablet PC or the like. Inspection workers analyze the captured images and detect abnormalities such as damage, deformation, cracks, discoloration, and leakage of internal liquid in the inspection area.

特開2005-192057号公報Japanese Patent Application Publication No. 2005-192057

撮影された画像から点検箇所の異常の検出を行う場合には、点検箇所をズームしてより詳細な画像とすることが望ましい。しかし、複数の点検箇所が似た形状をしている場合には、撮影された画像に写る点検箇所が、いずれの点検箇所であるかを特定することが困難なことがある。特に、広角レンズまたは魚眼レンズを有するカメラで撮影された広角画像と、ズーム機能を有するカメラで撮影された詳細な画像とを用いて同一の被写体が撮影さされた場合に、それぞれの画像の管理をより容易に行いたいという要望がある。 When detecting an abnormality at an inspection location from a captured image, it is desirable to zoom in on the inspection location to obtain a more detailed image. However, when a plurality of inspection points have similar shapes, it may be difficult to identify which inspection point appears in a photographed image. In particular, when the same subject is photographed using a wide-angle image taken with a camera with a wide-angle lens or a fisheye lens and a detailed image taken with a camera with a zoom function, it is difficult to manage each image. There is a desire to do this more easily.

本発明の実施形態は、このような事情を考慮してなされたもので、画角が異なる複数のカメラで同一の被写体を撮影する場合において、それぞれの画像の管理を容易に行うことができる画像管理技術を提供することを目的とする。 The embodiments of the present invention have been made in consideration of such circumstances, and provide images that allow easy management of each image when the same subject is photographed using multiple cameras with different angles of view. The purpose is to provide management technology.

本発明の実施形態に係る画像管理システムは、第1カメラと前記第1カメラよりも広い画角で撮影可能な第2カメラとで撮影されたそれぞれの画像を管理する管理コンピュータを備え、前記管理コンピュータは、前記第1カメラで撮影された第1画像と前記第2カメラで撮影された第2画像とを取得し、前記第1カメラの撮影方向が前記第2カメラの撮影範囲に含まれている場合に、前記第2画像中の座標位置であって前記第1カメラの前記撮影方向と一致する前記座標位置に前記第1画像を対応付けて記録し、前記第2画像の任意の前記座標位置が選択された場合に、選択された前記座標位置に対応付けて記録されている前記第1画像を表示する、ように構成されている。 An image management system according to an embodiment of the present invention includes a management computer that manages images taken by a first camera and a second camera capable of taking images at a wider angle of view than the first camera, and The computer acquires a first image taken by the first camera and a second image taken by the second camera, and determines whether the photographing direction of the first camera is included in the photographing range of the second camera. , the first image is recorded in association with the coordinate position in the second image that coincides with the photographing direction of the first camera, and any of the coordinates of the second image is recorded. When a position is selected, the first image recorded in association with the selected coordinate position is displayed.

本発明の実施形態により、画角が異なる複数のカメラで同一の被写体を撮影する場合において、それぞれの画像の管理を容易に行うことができる画像管理技術が提供される。 Embodiments of the present invention provide an image management technique that allows easy management of each image when the same subject is photographed using multiple cameras with different angles of view.

画像管理システムの全体構成を示すブロック図。FIG. 1 is a block diagram showing the overall configuration of an image management system. 管理コンピュータを示すブロック図。FIG. 3 is a block diagram showing a management computer. 巡回点検ロボットを示す側面図。FIG. 2 is a side view showing a patrol inspection robot. 全方位画像中の詳細画像の位置関係を示す説明図。An explanatory diagram showing the positional relationship of detailed images in an omnidirectional image. 全方位画像に対応点を設定する態様を示す説明図。FIG. 3 is an explanatory diagram showing a mode of setting corresponding points in an omnidirectional image. カメラのパンチルト角と全方位画像の座標との関係を示す説明図。FIG. 3 is an explanatory diagram showing the relationship between the pan-tilt angle of a camera and the coordinates of an omnidirectional image. 画像管理システムの画像の表示態様を示す画面図。FIG. 3 is a screen diagram showing how images are displayed in the image management system.

以下、図面を参照しながら、画像管理システムおよび画像管理方法の実施形態について詳細に説明する。 Embodiments of an image management system and an image management method will be described in detail below with reference to the drawings.

図1の符号1は、本実施形態の画像管理システムである。この画像管理システム1は、例えば、所定の点検現場に設けられた機器または構造物などの被写体を撮影し、撮影された画像に基づいて各種の点検を行うために用いられる。画像管理システム1は、主に、点検現場で画像を撮影し、撮影された多数の画像の管理を行う。点検現場としては、発電プラント、化学プラント、工場などがある。これらのプラントには、点検の対象となる多数の機器または構造物が配置されている。 Reference numeral 1 in FIG. 1 is an image management system of this embodiment. This image management system 1 is used, for example, to photograph objects such as equipment or structures installed at a predetermined inspection site, and to perform various inspections based on the photographed images. The image management system 1 mainly takes images at an inspection site and manages a large number of images taken. Inspection sites include power plants, chemical plants, and factories. These plants have a large number of equipment or structures that are subject to inspection.

画像管理システム1は、巡回点検ロボット2と管理コンピュータ3とを備える。巡回点検ロボット2は、第1カメラとしてのパンチルトズームカメラ4と、第2カメラとしての全方位カメラ5と、撮影方向検出部6と、距離測定部7と、位置検出部8と、走行装置9と、これらを統括的に制御する制御コンピュータ10とを備える。なお、制御コンピュータ10は、管理コンピュータ3に接続されている。 The image management system 1 includes a patrol inspection robot 2 and a management computer 3. The patrol inspection robot 2 includes a pan-tilt-zoom camera 4 as a first camera, an omnidirectional camera 5 as a second camera, a photographing direction detection section 6, a distance measurement section 7, a position detection section 8, and a traveling device 9. and a control computer 10 that controls these in an integrated manner. Note that the control computer 10 is connected to the management computer 3.

制御コンピュータ10と管理コンピュータ3は、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるものである。さらに、本実施形態の画像管理方法は、各種プログラムをコンピュータに実行させることで実現される。 The control computer 10 and the management computer 3 have hardware resources such as a CPU, ROM, RAM, and HDD, and when the CPU executes various programs, information processing by software is realized using the hardware resources. It is. Furthermore, the image management method of this embodiment is realized by causing a computer to execute various programs.

巡回点検ロボット2は、点検現場内を予め設定されたルートに従って走行し、点検現場の撮影を行う。この巡回点検ロボット2で撮影された画像は、管理コンピュータ3に送られる。点検作業者(ユーザ)は、管理コンピュータ3に記憶された画像をチェックすることで、点検現場の機器または構造物の点検を行うことができる。 The patrol inspection robot 2 travels within the inspection site according to a preset route and photographs the inspection site. The images taken by this patrol inspection robot 2 are sent to the management computer 3. An inspection worker (user) can inspect the equipment or structure at the inspection site by checking the images stored in the management computer 3.

管理コンピュータ3で管理される画像は、静止画を例示する。なお、画像は、動画を含むものでも良いし、静止画と動画の双方が混在していても良い。 An example of an image managed by the management computer 3 is a still image. Note that the images may include moving images, or may include both still images and moving images.

この巡回点検ロボット2について図3を用いて説明する。なお、図3の紙面左側を巡回点検ロボット2の進行方向である正面側(前方側)として説明する。 This patrol inspection robot 2 will be explained using FIG. 3. Note that the left side of the paper in FIG. 3 will be described as the front side (front side), which is the traveling direction of the patrol inspection robot 2.

巡回点検ロボット2は、車輪11を有する走行装置9により地面を走行可能となっている。巡回点検ロボット2は、例えば、自律制御により走行する。なお、巡回点検ロボット2は、点検作業者の遠隔操作により走行しても良い。 The patrol inspection robot 2 is capable of traveling on the ground using a traveling device 9 having wheels 11. The patrol inspection robot 2 runs under autonomous control, for example. Note that the patrol inspection robot 2 may be driven by remote control by an inspection worker.

巡回点検ロボット2の上部には、第1カメラとしてのパンチルトズームカメラ4が設けられている。このパンチルトズームカメラ4は、水平方向への首振りが可能なパン機能、垂直方向への首振りが可能なチルト機能、ズームイン(望遠)とズームアウト(広角)が可能なズーム機能を有する。このパンチルトズームカメラ4により、点検現場の機器または構造物などの被写体の詳細な画像を撮影することができる。このパンチルトズームカメラ4で撮影された詳細画像13(図7)が、本実施形態の第1画像となっている。 A pan-tilt-zoom camera 4 as a first camera is provided on the top of the patrol inspection robot 2. This pan-tilt-zoom camera 4 has a pan function that allows swinging in the horizontal direction, a tilt function that allows swinging in the vertical direction, and a zoom function that allows zooming in (telephoto) and zooming out (wide angle). This pan-tilt-zoom camera 4 can take detailed images of objects such as equipment or structures at the inspection site. The detailed image 13 (FIG. 7) taken by this pan-tilt-zoom camera 4 is the first image of this embodiment.

撮影方向検出部6(図1)は、パンチルトズームカメラ4の撮影方向を検出する。撮影方向とは、パンチルトズームカメラ4の向きであり、詳細画像13の中心位置に相当する。 The photographing direction detection unit 6 (FIG. 1) detects the photographing direction of the pan-tilt-zoom camera 4. The photographing direction is the direction of the pan-tilt-zoom camera 4 and corresponds to the center position of the detailed image 13.

この撮影方向検出部6は、例えば、パンチルトズームカメラ4の可動部位に設けられた複数のセンサなどで構成される。なお、撮影方向検出部6は、パンチルトズームカメラ4を可動させる複数のモータなどで構成されても良い。例えば、モータの回転数(回転角度)によりパンチルトズームカメラ4の向きが特定される。撮影方向検出部6で検出したパンチルトズームカメラ4の撮影方向は、制御コンピュータ10に入力される。 The photographing direction detecting section 6 is composed of, for example, a plurality of sensors provided at movable parts of the pan-tilt-zoom camera 4. Note that the photographing direction detection section 6 may be configured with a plurality of motors that move the pan-tilt-zoom camera 4. For example, the direction of the pan-tilt-zoom camera 4 is specified based on the rotation speed (rotation angle) of the motor. The photographing direction of the pan-tilt-zoom camera 4 detected by the photographing direction detection section 6 is input to the control computer 10.

制御コンピュータ10から管理コンピュータ3に、パンチルトズームカメラ4の撮影方向を示す撮影方向情報15(図2)が送られる。この撮影方向情報15は、例えば、撮影方向を検出するセンサ(撮影方向検出部6)から出力される検出信号でも良いし、撮影方向を制御する制御コンピュータ10から出力される制御信号でも良い。このようにすれば、パンチルトズームカメラ4の撮影方向が変化しても、その撮影方向を管理コンピュータ3が特定することができる。 Photographing direction information 15 (FIG. 2) indicating the photographing direction of the pan-tilt-zoom camera 4 is sent from the control computer 10 to the management computer 3. This photographing direction information 15 may be, for example, a detection signal output from a sensor (photographing direction detection unit 6) that detects the photographing direction, or a control signal output from the control computer 10 that controls the photographing direction. In this way, even if the shooting direction of the pan-tilt-zoom camera 4 changes, the management computer 3 can specify the shooting direction.

パンチルトズームカメラ4(第1カメラ)の近傍には、第2カメラとしての全方位カメラ5が設けられている。なお、パンチルトズームカメラ4と全方位カメラ5の相対的な位置は、一定の距離をあけて固定されている。また、パンチルトズームカメラ4は、全方位カメラ5よりも若干高い位置に設けられている。このようにすれば、パンチルトズームカメラ4の撮影範囲に、全方位カメラ5が含まれず、かつ邪魔にならずに済む。 An omnidirectional camera 5 as a second camera is provided near the pan-tilt-zoom camera 4 (first camera). Note that the relative positions of the pan-tilt-zoom camera 4 and the omnidirectional camera 5 are fixed at a certain distance. Further, the pan-tilt-zoom camera 4 is provided at a slightly higher position than the omnidirectional camera 5. In this way, the omnidirectional camera 5 is not included in the photographing range of the pan-tilt-zoom camera 4 and does not get in the way.

全方位カメラ5(第2カメラ)は、パンチルトズームカメラ4(第1カメラ)よりも広い画角で撮影可能となっている。例えば、全方位カメラ5の画角は、パンチルトズームカメラ4がズームアウトしたときよりも広い画角となっている。 The omnidirectional camera 5 (second camera) is capable of photographing at a wider angle of view than the pan-tilt-zoom camera 4 (first camera). For example, the angle of view of the omnidirectional camera 5 is wider than that when the pan-tilt-zoom camera 4 is zoomed out.

この全方位カメラ5は、広角レンズまたは魚眼レンズを有して全方位を撮影可能なものである。このようにすれば、全方位カメラ5で広い範囲を撮影することができる。そして、パンチルトズームカメラ4で撮影された被写体が存在する箇所を全方位カメラ5で把握することができる。 This omnidirectional camera 5 has a wide-angle lens or a fisheye lens and is capable of photographing in all directions. In this way, the omnidirectional camera 5 can photograph a wide range. Then, the omnidirectional camera 5 can grasp the location where the subject photographed by the pan-tilt-zoom camera 4 exists.

例えば、全方位カメラ5には、それぞれに魚眼レンズが付いたイメージセンサを有する2つの広角カメラ12が搭載されている。これら広角カメラ12により全方位カメラ5の周囲の広い範囲を写すことができる。 For example, the omnidirectional camera 5 is equipped with two wide-angle cameras 12 each having an image sensor with a fisheye lens. These wide-angle cameras 12 can photograph a wide range around the omnidirectional camera 5.

2つの広角カメラ12は、背中合わせになるように配置され、前後の風景を同時に撮影することができる。つまり、全方位カメラ5を用いて巡回点検ロボット2の上下左右の全方位が写る360度パノラマ画像である全方位画像14(図7)の同時撮影が可能となっている。この全方位カメラ5で撮影された全方位画像14が、本実施形態の第2画像となっている。なお、第2画像は、全方位画像14でなくても良く、単に詳細画像13よりも画角が広い広角画像であれば良い。 The two wide-angle cameras 12 are arranged back to back and can simultaneously photograph the scenery in front and behind. That is, using the omnidirectional camera 5, it is possible to simultaneously capture an omnidirectional image 14 (FIG. 7), which is a 360-degree panoramic image that captures all directions, top, bottom, left, and right of the patrol inspection robot 2. The omnidirectional image 14 taken by this omnidirectional camera 5 is the second image of this embodiment. Note that the second image does not need to be the omnidirectional image 14, but may simply be a wide-angle image with a wider angle of view than the detailed image 13.

本実施形態では、全方位カメラ5(第2カメラ)として、2つの広角カメラ12を例示しているが、1つのカメラを用いても全方位カメラ5を構成しても良い。例えば、凸面鏡などを用いて周囲の風景を1つのカメラに導き、全方位画像14を撮影しても良い。
について説明する。
In this embodiment, two wide-angle cameras 12 are illustrated as the omnidirectional camera 5 (second camera), but the omnidirectional camera 5 may be configured using one camera. For example, the omnidirectional image 14 may be captured by guiding the surrounding scenery to one camera using a convex mirror or the like.
I will explain about it.

全方位カメラ5であれば、点検現場でその向きを変化させなくても、1台の全方位カメラ5で全方位の画像を撮影することができる。また、1つのイメージセンサを有するカメラを2台以上使用し、これらのカメラで撮影された画像を合成することにより、全方位画像14を撮影しても良い。 If the omnidirectional camera 5 is used, it is possible to take images in all directions with one omnidirectional camera 5 without changing its orientation at the inspection site. Alternatively, the omnidirectional image 14 may be captured by using two or more cameras each having one image sensor and combining the images captured by these cameras.

全方位画像14は、例えば、全天球画像となっている。なお、全方位画像14は、全天球画像でなくても良く、少なくとも水平方向の360度の範囲(左右全方位)を写したものであれば良い。 The omnidirectional image 14 is, for example, a spherical image. Note that the omnidirectional image 14 does not have to be an omnidirectional image, but may be one that captures at least a 360 degree range in the horizontal direction (all directions left and right).

全方位カメラ5の近傍には、距離測定部7が設けられている。この距離測定部7は、全方位カメラ5から被写体までの距離を測定する。なお、パンチルトズームカメラ4(第1カメラ)と全方位カメラ5(第2カメラ)の相対的な位置関係が予め決まっている場合には、全方位カメラ5から被写体までの距離に基づいて、パンチルトズームカメラ4から被写体までの距離を推定することができる。つまり、距離測定部7は、パンチルトズームカメラ4と全方位カメラ5の少なくとも一方から被写体までの距離を測定する。 A distance measuring section 7 is provided near the omnidirectional camera 5. This distance measuring section 7 measures the distance from the omnidirectional camera 5 to the subject. Note that if the relative positional relationship between the pan-tilt-zoom camera 4 (first camera) and the omnidirectional camera 5 (second camera) is determined in advance, the pan-tilt zoom camera 4 (first camera) and the omnidirectional camera 5 (second camera) are The distance from the zoom camera 4 to the subject can be estimated. That is, the distance measurement unit 7 measures the distance from at least one of the pan-tilt-zoom camera 4 and the omnidirectional camera 5 to the subject.

距離測定部7は、パンチルトズームカメラ4のパンチルト機構(パンチルト機能)と連動して方向を変更できるレーザ距離計などで構成される。また、距離測定部7は、パンチルト機構を有する所定のカメラのフォーカス情報に基づいて、被写体までの距離を測定するものでも良い。 The distance measuring section 7 is composed of a laser distance meter or the like that can change the direction in conjunction with the pan/tilt mechanism (pan/tilt function) of the pan/tilt/zoom camera 4. Further, the distance measuring section 7 may measure the distance to the subject based on focus information of a predetermined camera having a pan/tilt mechanism.

なお、距離測定部7は、赤外線センサまたはLiDARなどのレーザセンサを用いて、点検現場をレーザスキャンすることで、被写体までの距離を測定しても良い。例えば、距離測定部7は、物体にレーザを投光してその反射光を受光素子により受光することで、物体までの距離を測定することができる。また、距離測定部7は、投光パルスに対する受光パルスの遅れ時間を距離に換算するToF(Time of Flight)方式を用いて、周辺の物体までの距離を測定することができる。 Note that the distance measurement unit 7 may measure the distance to the subject by laser scanning the inspection site using a laser sensor such as an infrared sensor or LiDAR. For example, the distance measurement unit 7 can measure the distance to the object by projecting a laser beam onto the object and receiving the reflected light with a light receiving element. Further, the distance measurement unit 7 can measure the distance to surrounding objects using a ToF (Time of Flight) method that converts the delay time of the light reception pulse with respect to the light emission pulse into distance.

さらに、巡回点検ロボット2の上部には、位置検出部8が設けられている。この位置検出部8は、巡回点検ロボット2の現在位置(撮影位置)を検出する。この位置検出部8は、例えば、衛星測位システム、レーダなどを用いて自己位置を検出する。 Furthermore, a position detection section 8 is provided on the upper part of the patrol inspection robot 2. This position detection unit 8 detects the current position (photographing position) of the patrol inspection robot 2. This position detection unit 8 detects its own position using, for example, a satellite positioning system, radar, or the like.

なお、位置検出部8は、情報の送受信に用いる電波信号などにより自己位置を検出しても良い。例えば、位置検出部8は、無線通信を利用して位置情報16を取得しても良い。また、位置検出部8は、加速度センサなどを利用するPDRにより位置情報16を取得しても良い。 Note that the position detection unit 8 may detect its own position using a radio wave signal or the like used for transmitting and receiving information. For example, the position detection unit 8 may acquire the position information 16 using wireless communication. Further, the position detection unit 8 may acquire the position information 16 by PDR using an acceleration sensor or the like.

また、位置検出部8は、SLAM(Simultaneous Localization and Mapping)、SfM(Structure from Motion)などの公知の技術を用いて自己位置を検出しても良い。さらに、位置検出部8は、地面に配置された所定の位置マーカなどにより自己位置を検出しても良い。 Further, the position detection unit 8 may detect its own position using known techniques such as SLAM (Simultaneous Localization and Mapping) and SfM (Structure from Motion). Furthermore, the position detection unit 8 may detect its own position using a predetermined position marker placed on the ground.

全方位カメラ5(第2カメラ)は、広範囲の画像が撮影可能であるため、機器または構造物などの点検対象(被写体)の位置を把握し易いが、その反面、点検対象の詳細な画像が撮影できないという欠点もある。一方、パンチルトズームカメラ4(第1カメラ)は、点検対象の方向を向いた場合に、ズーム機能などを用いて点検対象のみを撮影することができる。そのため、高精細な画像が得られるが、その反面、得られる画像が拡大されたものであるため、点検現場(例えば、建物内)における点検対象の存在位置が、把握し難くなり、画像を管理する点検作業者(ユーザ)の負担が生じる。特に、全方位画像14(第2画像)と詳細画像13(第1画像)に写る点検対象の位置関係を関連付けて管理し、点検対象の管理をより容易に実現可能とすることが望まれている。本実施形態は、このような課題を解決することができる。 Since the omnidirectional camera 5 (second camera) can capture images over a wide range, it is easy to grasp the location of the inspection target (object) such as equipment or structures. There is also the drawback that you cannot take pictures. On the other hand, when the pan-tilt-zoom camera 4 (first camera) faces the direction of the inspection target, it can photograph only the inspection target using a zoom function or the like. As a result, high-definition images can be obtained, but on the other hand, since the images obtained are enlarged, it becomes difficult to grasp the location of the inspection target at the inspection site (for example, inside a building), making it difficult to manage the images. This creates a burden on the inspection worker (user). In particular, it is desired that the positional relationship of the inspection target shown in the omnidirectional image 14 (second image) and the detailed image 13 (first image) be managed in association with each other, so that the management of the inspection target can be realized more easily. There is. This embodiment can solve such problems.

図4に示すように、管理コンピュータ3は、パンチルトズームカメラ4(第1カメラ)の撮影方向が全方位カメラ5(第2カメラ)の撮影範囲に含まれている場合に、全方位画像14(第2画像)中の座標位置であって、パンチルトズームカメラ4の撮影方向と一致する座標位置に、詳細画像13(第1画像)を対応付けて記録(登録)する。そして、管理コンピュータ3は、全方位画像14の任意の座標位置が選択された場合に、選択された座標位置に対応付けて記録されている詳細画像13を表示する。 As shown in FIG. 4, the management computer 3 controls the omnidirectional image 14 ( The detailed image 13 (first image) is recorded (registered) in association with the coordinate position in the second image) that coincides with the photographing direction of the pan-tilt-zoom camera 4. Then, when an arbitrary coordinate position of the omnidirectional image 14 is selected, the management computer 3 displays the detailed image 13 recorded in association with the selected coordinate position.

例えば、図7に示すように、点検現場に多数のメータ28とバルブ29が存在するものとする。ここで、全方位画像14は、多数のメータ28とバルブ29が写る広い範囲が撮影されたものである。一方、詳細画像13は、メータ28とバルブ29が個々に写る狭い範囲が撮影されたものである。 For example, as shown in FIG. 7, it is assumed that a large number of meters 28 and valves 29 are present at the inspection site. Here, the omnidirectional image 14 is a wide range in which a large number of meters 28 and bulbs 29 are photographed. On the other hand, the detailed image 13 is a narrow range in which the meter 28 and the bulb 29 are individually photographed.

管理コンピュータ3は、全方位画像14をディスプレイに表示するときに、点検対象となるメータ28とバルブ29の近傍に所定のマーク27を表示させる。点検作業者(ユーザ)は、マウスカーソル30を用いて任意のマーク27を選択する。管理コンピュータ3は、選択されたマーク27に対応する詳細画像13をディスプレイに表示する。例えば、全方位画像14では、メータ28の数値が読み取れない場合でも、点検作業者は、そのメータ28に対応するマーク27を選択することで、メータ28が拡大された詳細画像13を表示させることができる。このようにして、メータ28の数値が読み取れるようになる。 When displaying the omnidirectional image 14 on the display, the management computer 3 causes a predetermined mark 27 to be displayed near the meter 28 and valve 29 to be inspected. The inspection worker (user) selects any mark 27 using the mouse cursor 30. The management computer 3 displays the detailed image 13 corresponding to the selected mark 27 on the display. For example, in the omnidirectional image 14, even if the numerical value of the meter 28 cannot be read, the inspection worker can display the detailed image 13 in which the meter 28 is enlarged by selecting the mark 27 corresponding to the meter 28. I can do it. In this way, the numerical value on the meter 28 can be read.

次に、管理コンピュータ3のシステム構成を図2に示すブロック図を参照して説明する。なお、図2中の矢印は、処理の流れを示す一例であり、矢印以外の処理の流れがあっても良い。また、必ずしも、それぞれの処理の前後関係が固定されるものではなく、一部の処理の前後関係が入れ替わっても良い。また、一部の処理が他の処理と並列に実行されても良い。さらに、管理コンピュータ3には、図2に示す構成以外のものが含まれても良いし、図2に示す一部の構成が省略されても良い。 Next, the system configuration of the management computer 3 will be explained with reference to the block diagram shown in FIG. Note that the arrows in FIG. 2 are an example of a flow of processing, and there may be a flow of processing other than the arrows. Further, the context of each process is not necessarily fixed, and the context of some processes may be switched. Further, some processes may be executed in parallel with other processes. Furthermore, the management computer 3 may include components other than the configuration shown in FIG. 2, or some of the configuration shown in FIG. 2 may be omitted.

管理コンピュータ3には、詳細画像13(第1画像)と全方位画像14(第2画像)とともに、撮影方向情報15と位置情報16と距離情報17とが入力される。 The management computer 3 receives a detailed image 13 (first image), an omnidirectional image 14 (second image), as well as shooting direction information 15, position information 16, and distance information 17.

撮影方向情報15は、撮影方向検出部6(図1)が検出したパンチルトズームカメラ4(第1カメラ)の撮影方向を示す情報である。例えば、撮影方向情報15は、パン角度またはチルト角などのパンチルトズームカメラ4の向きを示す角度情報を含む。 The photographing direction information 15 is information indicating the photographing direction of the pan-tilt-zoom camera 4 (first camera) detected by the photographing direction detection unit 6 (FIG. 1). For example, the photographing direction information 15 includes angle information indicating the orientation of the pan-tilt-zoom camera 4, such as a pan angle or a tilt angle.

なお、撮影方向情報15は、必ずしも制御コンピュータ10から管理コンピュータ3に入力されなくても良い。例えば、管理コンピュータ3は、全方位カメラ5で撮影された全方位画像14に写っているパンチルトズームカメラ4のパンチルト機構の動作に基づいて、パン角またはチルト角を推定しても良い。このようにして撮影方向情報15が取得されても良い。 Note that the photographing direction information 15 does not necessarily have to be input from the control computer 10 to the management computer 3. For example, the management computer 3 may estimate the pan angle or tilt angle based on the operation of the pan-tilt mechanism of the pan-tilt-zoom camera 4 that is reflected in the omni-directional image 14 taken by the omni-directional camera 5. The photographing direction information 15 may be acquired in this manner.

位置情報16(図2)は、位置検出部8が検出した巡回点検ロボット2の位置であって、撮影位置を示す情報である。距離情報17(図2)は、距離測定部7が測定した被写体までの距離であって、パンチルトズームカメラ4と全方位カメラ5の少なくとも一方から被写体までの距離を示す情報である。 The position information 16 (FIG. 2) is the position of the patrol inspection robot 2 detected by the position detection unit 8, and is information indicating the photographing position. The distance information 17 (FIG. 2) is the distance to the subject measured by the distance measuring unit 7, and is information indicating the distance from at least one of the pan-tilt-zoom camera 4 and the omnidirectional camera 5 to the subject.

管理コンピュータ3は、第1画像取得部18と第2画像取得部19とひずみ補正部20と撮影位置推定部21と表示制御部22とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。 The management computer 3 includes a first image acquisition section 18 , a second image acquisition section 19 , a distortion correction section 20 , a photographing position estimation section 21 , and a display control section 22 . These are realized by the CPU executing programs stored in the memory or HDD.

さらに、管理コンピュータ3は、画像データベース23を備える。この画像データベース23は、メモリ、HDDまたはクラウドに記憶され、検索または蓄積ができるよう整理された情報の集まりである。 Furthermore, the management computer 3 includes an image database 23. This image database 23 is a collection of information stored in a memory, HDD, or cloud and organized so that it can be searched or stored.

管理コンピュータ3の各構成は、必ずしも1つのコンピュータに設ける必要はない。例えば、1つの管理コンピュータ3が、ネットワークで互いに接続された複数のコンピュータで実現されても良い。例えば、画像データベース23が、別のコンピュータに搭載されていても良い。 Each component of the management computer 3 does not necessarily need to be provided in one computer. For example, one management computer 3 may be realized by a plurality of computers connected to each other via a network. For example, the image database 23 may be installed in another computer.

特に図示はしないが、管理コンピュータ3は、入力部と出力部とを備える。入力部には、ユーザの操作に応じて所定の情報が入力される。この入力部には、マウスまたはキーボードなどの入力装置が含まれる。つまり、これら入力装置の操作に応じて所定の情報が入力部に入力される。 Although not particularly illustrated, the management computer 3 includes an input section and an output section. Predetermined information is input into the input unit according to a user's operation. This input unit includes an input device such as a mouse or a keyboard. That is, predetermined information is input to the input unit in response to operations on these input devices.

出力部は、所定の情報の出力を行う。管理コンピュータ3には、ディスプレイなどの画像の表示を行う装置が含まれる。なお、ディスプレイはコンピュータ本体と別体であっても良いし、一体であっても良い。追加的または代替的に、ネットワークを介して接続される他のコンピュータが備えるディスプレイに表示される画像の制御を管理コンピュータ3が行っても良い。 The output unit outputs predetermined information. The management computer 3 includes a device such as a display that displays images. Note that the display may be separate from the computer main body, or may be integrated with the computer main body. Additionally or alternatively, the management computer 3 may control images displayed on displays of other computers connected via the network.

第1画像取得部18は、制御コンピュータ10(図1)から、パンチルトズームカメラ4(第1カメラ)で撮影された詳細画像13(第1画像)を取得するとともに、詳細画像13が撮影されたときのパンチルトズームカメラ4の撮影方向を示す撮影方向情報15を取得する。このようにすれば、パンチルトズームカメラ4の撮影方向を取得し、これに基づいて、全方位画像14における対応する座標位置を特定することができる。 The first image acquisition unit 18 acquires a detailed image 13 (first image) taken by the pan-tilt-zoom camera 4 (first camera) from the control computer 10 (FIG. 1), and also Photographing direction information 15 indicating the photographing direction of the pan-tilt-zoom camera 4 at the time is acquired. In this way, the photographing direction of the pan-tilt-zoom camera 4 can be acquired, and based on this, the corresponding coordinate position in the omnidirectional image 14 can be specified.

なお、詳細画像13などに写る被写体に基づいて、パンチルトズームカメラ4の撮影方向を推定することができる場合には、管理コンピュータ3が制御コンピュータ10から撮影方向情報15を取得しなくても良い。例えば、管理コンピュータ3が詳細画像13に基づいて、撮影方向情報15を生成しても良い。 Note that if the shooting direction of the pan-tilt-zoom camera 4 can be estimated based on the subject shown in the detailed image 13 or the like, the management computer 3 does not need to acquire the shooting direction information 15 from the control computer 10. For example, the management computer 3 may generate the photographing direction information 15 based on the detailed image 13.

第2画像取得部19は、制御コンピュータ10(図1)から、全方位カメラ5(第2カメラ)で撮影された全方位画像14(第2画像)を取得する。 The second image acquisition unit 19 acquires an omnidirectional image 14 (second image) taken by the omnidirectional camera 5 (second camera) from the control computer 10 (FIG. 1).

ひずみ補正部20は、第2画像取得部19が取得した全方位画像14のひずみを補正する画像処理を行う。このひずみ補正部20は、例えば、魚眼レンズなどでひずんだ像を詳細画像13と同じようなひずみの無い像に補正する処理を行う。 The distortion correction unit 20 performs image processing to correct distortion of the omnidirectional image 14 acquired by the second image acquisition unit 19. The distortion correction unit 20 performs processing to correct an image distorted by, for example, a fisheye lens into an image without distortion similar to the detailed image 13.

撮影位置推定部21は、詳細画像13と全方位画像14と位置情報16と距離情報17とを取得する。 The photographing position estimating unit 21 acquires a detailed image 13, an omnidirectional image 14, position information 16, and distance information 17.

この撮影位置推定部21は、パンチルトズームカメラ4(第1カメラ)で所定の方向が撮影されたときの詳細画像13(第1画像)が、全方位カメラ5(第2カメラ)で撮影された全方位画像14(第2画像)中のいずれの座標位置に対応しているかを推定する処理を行う。つまり、撮影位置推定部21は、パンチルトズームカメラ4の撮影方向(例えば、撮影された画像の中心位置)が全方位カメラ5の撮影範囲に含まれている場合に、全方位画像14中の座標位置であって、パンチルトズームカメラ4の撮影方向と一致する座標位置に、詳細画像13を対応付ける処理を行う。 This photographing position estimating unit 21 determines whether a detailed image 13 (first image) when a predetermined direction is photographed by the pan-tilt-zoom camera 4 (first camera) is photographed by the omnidirectional camera 5 (second camera). A process is performed to estimate which coordinate position in the omnidirectional image 14 (second image) corresponds. That is, when the shooting direction of the pan-tilt-zoom camera 4 (for example, the center position of the shot image) is included in the shooting range of the omnidirectional camera 5, the shooting position estimating unit 21 calculates the coordinates in the omnidirectional image 14. Processing is performed to associate the detailed image 13 with a coordinate position that coincides with the photographing direction of the pan-tilt-zoom camera 4.

例えば、予めパンチルトズームカメラ4を用いて、それぞれの異なるパン角とチルト角で複数回の撮影を行う。そして、これらの撮影により取得された詳細画像13を、全方位カメラ5で撮影された全方位画像14中の座標位置に関連付ける。なお、この関連付ける処理は、管理コンピュータ3が自動的に行っても良いし、ユーザによる手動操作で行っても良い。 For example, using the pan-tilt-zoom camera 4, images are taken a plurality of times at different pan angles and tilt angles. Then, the detailed images 13 acquired by these photographs are associated with the coordinate positions in the omnidirectional image 14 photographed by the omnidirectional camera 5. Note that this association process may be performed automatically by the management computer 3, or may be performed manually by the user.

図5を用いて、ユーザによる手動操作で設定を行う態様について説明する。まず、ユーザは、例えば、全方位画像14の撮影範囲に含まれる一部の範囲24であって、パンチルトズームカメラ4の撮影方向が含まれていると推定される一部の範囲24を選択する。ユーザは、パンチルトズームカメラ4で撮影された詳細画像13の中心位置(撮影方向)を確認しながら、手動操作により全方位画像14に対応点25を設定する。これらの対応点25は、例えば、パンチルトズームカメラ4のパン角とチルト角のそれぞれが1度ずつずれた位置に設定される。さらに、それぞれの対応点25を繋ぎ、かつ対応点25の間の座標を補完するグリッド線26が設定される。これら対応点25とグリッド線26に基づいて、座標が変換可能となる。 A mode in which settings are performed manually by the user will be described using FIG. 5. First, the user selects, for example, a partial range 24 that is included in the photographing range of the omnidirectional image 14 and is estimated to include the photographing direction of the pan-tilt-zoom camera 4. . The user manually sets corresponding points 25 on the omnidirectional image 14 while checking the center position (photographing direction) of the detailed image 13 photographed by the pan-tilt-zoom camera 4. These corresponding points 25 are set, for example, at positions where the pan angle and tilt angle of the pan-tilt-zoom camera 4 are each shifted by one degree. Furthermore, grid lines 26 are set that connect the respective corresponding points 25 and complement the coordinates between the corresponding points 25. Based on these corresponding points 25 and grid lines 26, coordinates can be converted.

予めこのような処理を行うことで、パンチルトズームカメラ4のパン角とチルト角から、全方位画像14の座標位置が変換可能となる。また、全方位画像14の座標位置から、パンチルトズームカメラ4のパン角とチルト角が変換可能となる。これらの変換が可能となる変換テーブルまたは変換式が生成される。 By performing such processing in advance, the coordinate position of the omnidirectional image 14 can be converted from the pan angle and tilt angle of the pan-tilt-zoom camera 4. Furthermore, the pan angle and tilt angle of the pan-tilt-zoom camera 4 can be converted from the coordinate position of the omnidirectional image 14. A conversion table or conversion formula that enables these conversions is generated.

例えば、図6に示すように、パンチルトズームカメラ4のパン角を横軸(p軸)、チルト角を縦軸(t軸)にした第1座標(図6の紙面左側の座標)があり、全方位画像14の横方向を横軸(x軸)、縦方向を縦軸(y軸)にした第2座標(図6の紙面右側の座標)があるとする。 For example, as shown in FIG. 6, there is a first coordinate (coordinates on the left side of the paper in FIG. 6) where the pan angle of the pan-tilt-zoom camera 4 is the horizontal axis (p-axis) and the tilt angle is the vertical axis (t-axis). It is assumed that there are second coordinates (coordinates on the right side of the paper in FIG. 6) in which the horizontal direction of the omnidirectional image 14 is the horizontal axis (x-axis) and the vertical direction is the vertical axis (y-axis).

ここで、第1座標の任意の正方形の角部に相当する4つの既知の対応点dがあるとする。これら既知の対応点dに相当する4つの既知の対応点bが第2座標にも存在する。それぞれの既知の対応点b,dが予め関連付けられる。そして、第1座標において任意の対応点dが決まれば、第2座標において1つの対応点bが特定される。さらに、第2座標において任意の対応点bが決まれば、第1座標において1つの対応点dが特定される。このような座標の変換が可能な変換テーブルまたは変換式が予め生成される。 Here, it is assumed that there are four known corresponding points d corresponding to corners of arbitrary squares at the first coordinates. Four known corresponding points b corresponding to these known corresponding points d also exist in the second coordinates. The respective known corresponding points b and d are associated in advance. Once an arbitrary corresponding point d is determined at the first coordinates, one corresponding point b is specified at the second coordinates. Furthermore, once an arbitrary corresponding point b is determined at the second coordinates, one corresponding point d is specified at the first coordinates. A conversion table or conversion formula that allows such coordinate conversion is generated in advance.

撮影位置推定部21は、変換テーブルと変換式の少なくとも一方に基づいて、パンチルトズームカメラ4の撮影方向を示す撮影方向情報15を全方位画像14の座標位置に変換する処理を行う。このようにすれば、パンチルトズームカメラ4の撮影方向を全方位画像14の座標位置に変換する処理を容易に行える。 The photographing position estimation unit 21 performs a process of converting photographing direction information 15 indicating the photographing direction of the pan-tilt-zoom camera 4 into a coordinate position of the omnidirectional image 14 based on at least one of a conversion table and a conversion formula. In this way, the process of converting the photographing direction of the pan-tilt-zoom camera 4 into the coordinate position of the omnidirectional image 14 can be easily performed.

なお、パンチルトズームカメラ4(第1カメラ)と全方位カメラ5(第2カメラ)のそれぞれから被写体までの距離が、それぞれ異なる場合は、パンチルトズームカメラ4を中心とした空間座標と、全方位カメラ5を中心とした空間座標とが異なる。そのため、変換テーブルまたは変換式は、被写体との距離が異なる条件でも変換可能なように構成される。 Note that if the distances from the pan-tilt-zoom camera 4 (first camera) and the omnidirectional camera 5 (second camera) to the subject are different, the spatial coordinates centered on the pan-tilt-zoom camera 4 and the omnidirectional camera The spatial coordinates centered on 5 are different. Therefore, the conversion table or conversion formula is configured so that the conversion can be performed even under conditions where the distance to the subject is different.

画像データベース23は、撮影位置推定部21において関連付けの処理がなされた詳細画像13(第1画像)と全方位画像14(第2画像)を記録(記憶)する。なお、管理コンピュータ3は、画像データベース23に蓄積された詳細画像13を解析し、その解析結果に基づいて、点検対象の異常を検出する処理を自動的に行っても良い。 The image database 23 records (stores) the detailed image 13 (first image) and the omnidirectional image 14 (second image) that have been associated in the photographing position estimation unit 21. Note that the management computer 3 may analyze the detailed images 13 stored in the image database 23 and automatically perform a process of detecting an abnormality in the inspection target based on the analysis result.

表示制御部22は、ディスプレイに表示された全方位画像14(第2画像)の任意の座標位置が、ユーザにより選択された場合に、選択された座標位置に対応付けて、画像データベース23に記録されている詳細画像13(第1画像)をディスプレイに表示する処理を行う。 When an arbitrary coordinate position of the omnidirectional image 14 (second image) displayed on the display is selected by the user, the display control unit 22 records it in the image database 23 in association with the selected coordinate position. A process is performed to display the detailed image 13 (first image) shown on the display.

例えば、表示制御部22は、撮影位置推定部21により推定された座標の情報に基づいて、全方位カメラ5で撮影された全方位画像14中に、座標を選択可能なマーク27を表示する処理を行う。点検作業者(ユーザ)が、ディスプレイに表示された全方位画像14中のマーク27を選択したときに、表示制御部22は、これに対応する詳細画像13を表示する制御を行う。 For example, the display control unit 22 performs a process of displaying a mark 27 from which the coordinates can be selected in the omnidirectional image 14 captured by the omnidirectional camera 5 based on information on the coordinates estimated by the imaging position estimation unit 21. I do. When the inspection worker (user) selects the mark 27 in the omnidirectional image 14 displayed on the display, the display control unit 22 performs control to display the corresponding detailed image 13.

なお、パンチルトズームカメラ4(第1カメラ)の中心(装置の物理的な中心)と全方位カメラ5(第2カメラ)の中心が同じ位置にある場合には、パンチルトズームカメラ4のパンチルト角と全方位画像14の座標位置とは、単純な演算で変換が可能になる。しかし、巡回点検ロボット2に取り付けるときの物理的な制約上、パンチルトズームカメラ4と全方位カメラ5が、一定の距離をあけて固定される。そのため、本実施形態では、パンチルトズームカメラ4のパンチルト角と全方位画像14の座標位置との関係を予め取得する処理を行うようにしている。 Note that if the center of the pan-tilt-zoom camera 4 (first camera) (the physical center of the device) and the center of the omnidirectional camera 5 (second camera) are at the same position, the pan-tilt angle of the pan-tilt-zoom camera 4 and The coordinate position of the omnidirectional image 14 can be converted by a simple calculation. However, due to physical constraints when attaching to the patrol inspection robot 2, the pan-tilt-zoom camera 4 and the omnidirectional camera 5 are fixed at a certain distance. Therefore, in this embodiment, a process is performed to obtain the relationship between the pan-tilt angle of the pan-tilt-zoom camera 4 and the coordinate position of the omnidirectional image 14 in advance.

また、撮影位置推定部21は、取得した距離情報17に基づいて、全方位画像14中のパンチルトズームカメラ4の撮影方向と一致する座標位置を推定する。このようにすれば、パンチルトズームカメラ4または全方位カメラ5から被写体との距離から、詳細画像13と全方位画像14との対応関係を特定する精度を向上させることができる。 Further, the photographing position estimating unit 21 estimates a coordinate position in the omnidirectional image 14 that corresponds to the photographing direction of the pan-tilt-zoom camera 4 based on the acquired distance information 17. In this way, the accuracy of identifying the correspondence between the detailed image 13 and the omnidirectional image 14 can be improved based on the distance from the pan-tilt-zoom camera 4 or the omnidirectional camera 5 to the subject.

図7に示すように、撮影位置推定部21(図2)は、パンチルトズームカメラ4の撮影方向情報15の入力に基づいて、その撮影位置を推定する。表示制御部22(図2)は、全方位画像14中の対応する座標位置にマーク27を表示する。そして、点検作業者(ユーザ)が、マウスカーソル30でマーク27を選択することにより、表示制御部22が、選択された座標位置に対応する詳細画像13を、画像データベース23から抽出し、ディスプレイに表示させる。このようにすれば、パンチルトズームカメラ4により撮影された詳細画像13と、全方位カメラ5で撮影された全方位画像14とを、紐づけることが可能となり、点検対象が写る画像の管理を容易に行うことができる。 As shown in FIG. 7, the photographing position estimation unit 21 (FIG. 2) estimates the photographing position based on the input of the photographing direction information 15 of the pan-tilt-zoom camera 4. The display control unit 22 (FIG. 2) displays the mark 27 at the corresponding coordinate position in the omnidirectional image 14. When the inspection worker (user) selects the mark 27 with the mouse cursor 30, the display control unit 22 extracts the detailed image 13 corresponding to the selected coordinate position from the image database 23 and displays it on the display. Display. In this way, it becomes possible to link the detailed image 13 taken by the pan-tilt-zoom camera 4 and the omnidirectional image 14 taken by the omnidirectional camera 5, making it easy to manage images showing inspection targets. can be done.

なお、マーク27以外の座標位置がマウスカーソル30で選択されたときに、この座標位置に対応する詳細画像13がディスプレイに表示されても良い。また、全方位画像14には、マーク27が表示されなくても良く、任意の座標位置が選択可能であれば良い。また、マウスカーソル30以外の方法で座標位置が選択されても良い。例えば、ディスプレイがタッチパネルである場合には、ディスプレイをタッチしたときの座標位置が選択される態様でも良い。 Note that when a coordinate position other than the mark 27 is selected with the mouse cursor 30, the detailed image 13 corresponding to this coordinate position may be displayed on the display. Furthermore, the mark 27 does not need to be displayed on the omnidirectional image 14, as long as any coordinate position can be selected. Further, the coordinate position may be selected using a method other than the mouse cursor 30. For example, if the display is a touch panel, the coordinate position when the display is touched may be selected.

本実施形態では、ディスプレイに静止画の全方位画像14が表示されているときに、任意の座標位置が選択されると、静止画の詳細画像13が表示される。なお、この詳細画像13は、動画で表示されても良い。また、ディスプレイに表示される全方位画像14は、動画でも良い。 In this embodiment, when an arbitrary coordinate position is selected while the omnidirectional still image 14 is displayed on the display, the detailed still image 13 is displayed. Note that this detailed image 13 may be displayed as a moving image. Further, the omnidirectional image 14 displayed on the display may be a moving image.

追加的または代替的に、撮影位置推定部21は、詳細画像13を取得したときに、詳細画像13と、ひずみが補正された全方位画像14とを比較する。次に、撮影位置推定部21は、ひずみ補正済みの全方位画像14において、詳細画像13と類似する類似範囲を抽出する。次に、撮影位置推定部21は、抽出された類似範囲をパンチルトズームカメラ4の撮影方向と一致する座標位置を含むものとして特定する。このようにすれば、全方位画像14から詳細画像13に対応する類似範囲を抽出して、詳細画像13と全方位画像14との対応関係を特定する精度を向上させることができる。 Additionally or alternatively, when acquiring the detailed image 13, the photographing position estimating unit 21 compares the detailed image 13 with the omnidirectional image 14 whose distortion has been corrected. Next, the photographing position estimation unit 21 extracts a similar range similar to the detailed image 13 in the distortion-corrected omnidirectional image 14 . Next, the photographing position estimating unit 21 specifies the extracted similar range as including a coordinate position that coincides with the photographing direction of the pan-tilt-zoom camera 4. In this way, it is possible to extract the similar range corresponding to the detailed image 13 from the omnidirectional image 14 and improve the accuracy of identifying the correspondence between the detailed image 13 and the omnidirectional image 14.

なお、撮影位置推定部21は、全方位画像14における詳細画像13と類似する類似範囲を抽出するときに、人工知能の学習に基づく解析技術を用いても良い。例えば、撮影位置推定部21は、機械学習を行う人工知能(AI:Artificial Intelligence)を備えるものでも良い。 Note that the photographing position estimating unit 21 may use an analysis technique based on learning of artificial intelligence when extracting a similar range similar to the detailed image 13 in the omnidirectional image 14. For example, the photographing position estimation unit 21 may be equipped with artificial intelligence (AI) that performs machine learning.

本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。 The system of this embodiment includes a control device with a highly integrated processor such as a dedicated chip, an FPGA (Field Programmable Gate Array), a GPU (Graphics Processing Unit), or a CPU (Central Processing Unit), and a ROM (Read Only memory) or RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) or SSD (Solid State Drive), display devices such as displays, and input devices such as mouse or keyboard. , and a communication interface. This system can be realized with a hardware configuration using a normal computer.

なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一時的な記憶媒体に記憶されて提供するようにしても良い。 Note that the program executed by the system of this embodiment is provided by being pre-installed in a ROM or the like. Alternatively, this program may be installed as a file in installable or executable format on a computer-readable non-transitory storage medium such as a CD-ROM, CD-R, memory card, DVD, or floppy disk (FD). It may be stored and provided.

また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用回線で相互に接続し、組み合わせて構成することもできる。 Further, the program executed by this system may be stored on a computer connected to a network such as the Internet, and may be downloaded and provided via the network. Furthermore, this system can also be configured by combining separate modules that independently perform the functions of the constituent elements by interconnecting them via a network or dedicated line.

なお、本実施形態では、パンチルトズームカメラ4(第1カメラ)自体がパン機能を有しているが、その他の態様であっても良い。例えば、パンチルトズームカメラ4のパン機能が、巡回点検ロボット2の旋回により実現されても良い。つまり、巡回点検ロボット2の機能がパンチルトズームカメラ4の機能として含まれても良い。さらに、撮影方向検出部6は、巡回点検ロボット2が向いている方向(旋回方向)を検出するものでも良い。 In addition, in this embodiment, the pan-tilt-zoom camera 4 (first camera) itself has a pan function, but other aspects may be used. For example, the panning function of the pan-tilt-zoom camera 4 may be realized by the rotation of the patrol inspection robot 2. In other words, the functions of the patrol inspection robot 2 may be included as the functions of the pan-tilt-zoom camera 4. Furthermore, the photographing direction detection section 6 may detect the direction in which the patrol inspection robot 2 is facing (turning direction).

なお、本実施形態では、パンチルトズームカメラ4(第1カメラ)と全方位カメラ5(第2カメラ)が、巡回点検ロボット2に搭載されているが、その他の態様であっても良い。例えば、点検作業者が、パンチルトズームカメラ4と全方位カメラ5を持運びしても良く、点検現場において、三脚などの固定器具を用いて、パンチルトズームカメラ4と全方位カメラ5を固定的に配置して撮影が行われても良い。 In this embodiment, the pan-tilt-zoom camera 4 (first camera) and the omnidirectional camera 5 (second camera) are mounted on the patrol inspection robot 2, but other embodiments may be used. For example, an inspection worker may carry the pan-tilt-zoom camera 4 and the omnidirectional camera 5, or use a fixed device such as a tripod to fix the pan-tilt-zoom camera 4 and the omnidirectional camera 5 at the inspection site. It is also possible to arrange and photograph.

以上説明した実施形態によれば、第1カメラの撮影方向が第2カメラの撮影範囲に含まれている場合に、第2画像中の座標位置であって第1カメラの撮影方向と一致する座標位置に第1画像を対応付けて記録することにより、画角が異なる複数のカメラで同一の被写体を撮影する場合において、それぞれの画像の管理を容易に行うことができる。 According to the embodiment described above, when the photographing direction of the first camera is included in the photographing range of the second camera, the coordinate position in the second image that coincides with the photographing direction of the first camera By recording the first image in association with the position, when the same subject is photographed with a plurality of cameras having different angles of view, each image can be easily managed.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態またはその変形は、発明の範囲と要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, changes, and combinations can be made without departing from the gist of the invention. These embodiments or modifications thereof are within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

1…画像管理システム、2…巡回点検ロボット、3…管理コンピュータ、4…パンチルトズームカメラ、5…全方位カメラ、6…撮影方向検出部、7…距離測定部、8…位置検出部、9…走行装置、10…制御コンピュータ、11…車輪、12…広角カメラ、13…詳細画像、14…全方位画像、15…撮影方向情報、16…位置情報、17…距離情報、18…第1画像取得部、19…第2画像取得部、20…ひずみ補正部、21…撮影位置推定部、22…表示制御部、23…画像データベース、24…一部の範囲、25…対応点、26…グリッド線、27…マーク、28…メータ、29…バルブ、30…マウスカーソル。 DESCRIPTION OF SYMBOLS 1... Image management system, 2... Patrol inspection robot, 3... Management computer, 4... Pan-tilt-zoom camera, 5... Omnidirectional camera, 6... Shooting direction detection section, 7... Distance measurement section, 8... Position detection section, 9... Traveling device, 10... Control computer, 11... Wheels, 12... Wide-angle camera, 13... Detailed image, 14... Omnidirectional image, 15... Shooting direction information, 16... Position information, 17... Distance information, 18... First image acquisition Part, 19... Second image acquisition unit, 20... Distortion correction unit, 21... Shooting position estimation unit, 22... Display control unit, 23... Image database, 24... Partial range, 25... Corresponding points, 26... Grid line , 27...mark, 28...meter, 29...valve, 30...mouse cursor.

Claims (8)

第1カメラと前記第1カメラよりも広い画角で撮影可能な第2カメラとで撮影されたそれぞれの画像を管理する管理コンピュータを備え、
前記管理コンピュータは、
前記第1カメラで撮影された第1画像と前記第2カメラで撮影された第2画像とを取得し、
前記第1カメラの撮影方向が前記第2カメラの撮影範囲に含まれている場合に、前記第2画像中の座標位置であって前記第1カメラの前記撮影方向と一致する前記座標位置に前記第1画像を対応付けて記録し、
前記第2画像の任意の前記座標位置が選択された場合に、選択された前記座標位置に対応付けて記録されている前記第1画像を表示する、
ように構成されている、
画像管理システム。
comprising a management computer that manages images taken by a first camera and a second camera capable of taking images at a wider angle of view than the first camera;
The management computer is
obtaining a first image taken by the first camera and a second image taken by the second camera;
When the photographing direction of the first camera is included in the photographing range of the second camera, the coordinate position in the second image coincides with the photographing direction of the first camera. Record the first image in association with each other,
when any of the coordinate positions of the second image is selected, displaying the first image recorded in association with the selected coordinate position;
It is configured as follows.
Image management system.
前記第2カメラは、全方位を撮影可能なものである、
請求項1に記載の画像管理システム。
The second camera is capable of photographing in all directions.
The image management system according to claim 1.
前記管理コンピュータは、前記第1画像の取得とともに前記第1カメラの前記撮影方向を示す情報を取得するように構成されている、
請求項1または請求項2に記載の画像管理システム。
The management computer is configured to acquire the first image and information indicating the photographing direction of the first camera.
The image management system according to claim 1 or claim 2.
前記第1カメラは、少なくともパンチルト機能を有しており、
前記第1カメラの前記撮影方向を示す情報は、前記撮影方向を制御する制御コンピュータから出力される制御信号と前記撮影方向を検出するセンサから出力される検出信号の少なくとも一方である、
請求項3に記載の画像管理システム。
The first camera has at least a pan/tilt function,
The information indicating the photographing direction of the first camera is at least one of a control signal output from a control computer that controls the photographing direction and a detection signal output from a sensor detecting the photographing direction.
The image management system according to claim 3.
前記管理コンピュータは、変換テーブルと変換式の少なくとも一方に基づいて、前記第1カメラの前記撮影方向を示す情報を前記第2画像の前記座標位置に変換するように構成されている、
請求項3または請求項4に記載の画像管理システム。
The management computer is configured to convert information indicating the photographing direction of the first camera into the coordinate position of the second image based on at least one of a conversion table and a conversion formula.
The image management system according to claim 3 or 4.
前記管理コンピュータは、
前記第2画像のひずみを補正する画像処理を行い、
前記第1画像を取得したときに、前記第1画像と前記ひずみが補正された前記第2画像とを比較し、
前記第2画像における前記第1画像と類似する類似範囲を抽出し、
前記類似範囲を前記第1カメラの前記撮影方向と一致する前記座標位置を含むものとして特定する、
ように構成されている、
請求項1から請求項5のいずれか1項に記載の画像管理システム。
The management computer is
performing image processing to correct distortion of the second image;
when acquiring the first image, comparing the first image and the second image in which the distortion has been corrected;
extracting a similar range similar to the first image in the second image;
identifying the similar range as including the coordinate position that coincides with the photographing direction of the first camera;
It is configured as follows.
The image management system according to any one of claims 1 to 5.
前記管理コンピュータは、
前記第1カメラと前記第2カメラの少なくとも一方から被写体までの距離を測定する距離測定部から、前記距離を示す情報を取得し、
前記距離に基づいて、前記第2画像中の前記第1カメラの前記撮影方向と一致する前記座標位置を推定する、
ように構成されている、
請求項1から請求項6のいずれか1項に記載の画像管理システム。
The management computer is
acquiring information indicating the distance from a distance measurement unit that measures the distance from at least one of the first camera and the second camera to the subject;
estimating the coordinate position corresponding to the photographing direction of the first camera in the second image based on the distance;
It is configured as follows.
The image management system according to any one of claims 1 to 6.
第1カメラと前記第1カメラよりも広い画角で撮影可能な第2カメラとで撮影されたそれぞれの画像を管理する管理コンピュータを用いて行う方法であり、
前記管理コンピュータが、前記第1カメラで撮影された第1画像と前記第2カメラで撮影された第2画像とを取得し、
前記第1カメラの撮影方向が前記第2カメラの撮影範囲に含まれている場合に、前記管理コンピュータが、前記第2画像中の座標位置であって前記第1カメラの前記撮影方向と一致する前記座標位置に前記第1画像を対応付けて記録し、
前記第2画像の任意の前記座標位置が選択された場合に、前記管理コンピュータが、選択された前記座標位置に対応付けて記録されている前記第1画像を表示する、
画像管理方法。
This method is carried out using a management computer that manages each image taken by a first camera and a second camera that can take pictures at a wider angle of view than the first camera,
The management computer acquires a first image taken by the first camera and a second image taken by the second camera,
When the photographing direction of the first camera is included in the photographing range of the second camera, the management computer determines that the coordinate position in the second image coincides with the photographing direction of the first camera. recording the first image in association with the coordinate position;
When any coordinate position of the second image is selected, the management computer displays the first image recorded in association with the selected coordinate position.
Image management method.
JP2022045544A 2022-03-22 2022-03-22 Image management system and method Pending JP2023139821A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022045544A JP2023139821A (en) 2022-03-22 2022-03-22 Image management system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022045544A JP2023139821A (en) 2022-03-22 2022-03-22 Image management system and method

Publications (1)

Publication Number Publication Date
JP2023139821A true JP2023139821A (en) 2023-10-04

Family

ID=88204612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022045544A Pending JP2023139821A (en) 2022-03-22 2022-03-22 Image management system and method

Country Status (1)

Country Link
JP (1) JP2023139821A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006229631A (en) * 2005-02-17 2006-08-31 Konica Minolta Holdings Inc Image processor
JP2006262030A (en) * 2005-03-16 2006-09-28 Fuji Xerox Co Ltd Angle of view adjusting apparatus, camera system, and angle of view adjusting method
JP2014132771A (en) * 2008-09-08 2014-07-17 Sony Corp Image processing apparatus and method, and program
JP2017126868A (en) * 2016-01-13 2017-07-20 株式会社リコー Image display system, information processing device, image display method and image display program
JP2019068261A (en) * 2017-09-29 2019-04-25 株式会社リコー Delivery system and delivery method, delivery apparatus and delivery program, and receiving apparatus and receiving program
JP2020009099A (en) * 2018-07-06 2020-01-16 キヤノン株式会社 Image processing device, image processing method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006229631A (en) * 2005-02-17 2006-08-31 Konica Minolta Holdings Inc Image processor
JP2006262030A (en) * 2005-03-16 2006-09-28 Fuji Xerox Co Ltd Angle of view adjusting apparatus, camera system, and angle of view adjusting method
JP2014132771A (en) * 2008-09-08 2014-07-17 Sony Corp Image processing apparatus and method, and program
JP2017126868A (en) * 2016-01-13 2017-07-20 株式会社リコー Image display system, information processing device, image display method and image display program
JP2019068261A (en) * 2017-09-29 2019-04-25 株式会社リコー Delivery system and delivery method, delivery apparatus and delivery program, and receiving apparatus and receiving program
JP2020009099A (en) * 2018-07-06 2020-01-16 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
WO2021185218A1 (en) Method for acquiring 3d coordinates and dimensions of object during movement
US9965870B2 (en) Camera calibration method using a calibration target
US8699005B2 (en) Indoor surveying apparatus
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
JP5593177B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
JP5620200B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
WO2012020696A1 (en) Device for processing point group position data, system for processing point group position data, method for processing point group position data and program for processing point group position data
US20140132729A1 (en) Method and apparatus for camera-based 3d flaw tracking system
JP4005795B2 (en) Vibration measuring device and storage medium
JP5019478B2 (en) Marker automatic registration method and system
CN109269525B (en) Optical measurement system and method for take-off or landing process of space probe
JP5079547B2 (en) Camera calibration apparatus and camera calibration method
CN114726978A (en) Information processing apparatus, information processing method, and program
CN114838668A (en) A kind of tunnel displacement monitoring method and system
CN112907647B (en) A three-dimensional spatial dimension measurement method based on a fixed monocular camera
WO2021138856A1 (en) Camera control method, device, and computer readable storage medium
JP2010217984A (en) Image detector and image detection method
KR20110121426A (en) Day and night combined moving object observation system
Wagner¹ et al. Monitoring concepts using image assisted total stations
US20230324167A1 (en) Laser scanner for verifying positioning of components of assemblies
EP4181063A1 (en) Markerless registration of image data and laser scan data
JP2023139821A (en) Image management system and method
CN112304250B (en) Three-dimensional matching equipment and method between moving objects
Maddalena et al. Innovations on underwater stereoscopy: the new developments of the TV-trackmeter
Soldan et al. Mapping non-destructive testing data on the 3D geometry of objects with complex shapes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250709