JP2023139821A - Image management system and method - Google Patents
Image management system and method Download PDFInfo
- Publication number
- JP2023139821A JP2023139821A JP2022045544A JP2022045544A JP2023139821A JP 2023139821 A JP2023139821 A JP 2023139821A JP 2022045544 A JP2022045544 A JP 2022045544A JP 2022045544 A JP2022045544 A JP 2022045544A JP 2023139821 A JP2023139821 A JP 2023139821A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- coordinate position
- photographing direction
- pan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、画像管理技術に関する。 Embodiments of the present invention relate to image management technology.
発電所などでは、工事進捗管理または異常検知のため、定期的な巡回点検が実施される。巡回点検では、点検箇所を記録するためにカメラで画像の撮影を行う。撮影のために魚眼レンズを有するカメラを使用する場合は、広範囲の画像を取得可能であり、複数の点検箇所がある場合であっても1枚の画像中に収めることが可能となる。さらに、魚眼レンズを有するカメラを複数配置して、全方位を撮影可能なカメラを使用することも可能となっている。一方、点検箇所の詳細な画像が撮影される場合は、カメラが点検箇所に接近した状態で撮影されたり、カメラのズーム機能の利用により撮影されたりしている。撮影された点検箇所は、記録用紙に記録したり、タブレットPCなどにより電子媒体に記録したりすることで管理されている。点検作業者は、撮影された画像を分析し、点検箇所の破損、変形、き裂、変色、内部の液体の漏えいなどの異常の検出を行う。 At power plants and other facilities, regular patrol inspections are conducted to manage construction progress and detect abnormalities. During patrol inspections, images are taken with a camera to record the inspection points. When using a camera with a fisheye lens for photographing, a wide range of images can be acquired, and even if there are multiple inspection points, they can be captured in one image. Furthermore, it is also possible to use a camera that can take pictures in all directions by arranging a plurality of cameras each having a fisheye lens. On the other hand, when a detailed image of an inspection area is taken, the image is taken with the camera close to the inspection area, or by using the zoom function of the camera. The photographed inspection points are managed by recording them on recording paper or electronic media using a tablet PC or the like. Inspection workers analyze the captured images and detect abnormalities such as damage, deformation, cracks, discoloration, and leakage of internal liquid in the inspection area.
撮影された画像から点検箇所の異常の検出を行う場合には、点検箇所をズームしてより詳細な画像とすることが望ましい。しかし、複数の点検箇所が似た形状をしている場合には、撮影された画像に写る点検箇所が、いずれの点検箇所であるかを特定することが困難なことがある。特に、広角レンズまたは魚眼レンズを有するカメラで撮影された広角画像と、ズーム機能を有するカメラで撮影された詳細な画像とを用いて同一の被写体が撮影さされた場合に、それぞれの画像の管理をより容易に行いたいという要望がある。 When detecting an abnormality at an inspection location from a captured image, it is desirable to zoom in on the inspection location to obtain a more detailed image. However, when a plurality of inspection points have similar shapes, it may be difficult to identify which inspection point appears in a photographed image. In particular, when the same subject is photographed using a wide-angle image taken with a camera with a wide-angle lens or a fisheye lens and a detailed image taken with a camera with a zoom function, it is difficult to manage each image. There is a desire to do this more easily.
本発明の実施形態は、このような事情を考慮してなされたもので、画角が異なる複数のカメラで同一の被写体を撮影する場合において、それぞれの画像の管理を容易に行うことができる画像管理技術を提供することを目的とする。 The embodiments of the present invention have been made in consideration of such circumstances, and provide images that allow easy management of each image when the same subject is photographed using multiple cameras with different angles of view. The purpose is to provide management technology.
本発明の実施形態に係る画像管理システムは、第1カメラと前記第1カメラよりも広い画角で撮影可能な第2カメラとで撮影されたそれぞれの画像を管理する管理コンピュータを備え、前記管理コンピュータは、前記第1カメラで撮影された第1画像と前記第2カメラで撮影された第2画像とを取得し、前記第1カメラの撮影方向が前記第2カメラの撮影範囲に含まれている場合に、前記第2画像中の座標位置であって前記第1カメラの前記撮影方向と一致する前記座標位置に前記第1画像を対応付けて記録し、前記第2画像の任意の前記座標位置が選択された場合に、選択された前記座標位置に対応付けて記録されている前記第1画像を表示する、ように構成されている。 An image management system according to an embodiment of the present invention includes a management computer that manages images taken by a first camera and a second camera capable of taking images at a wider angle of view than the first camera, and The computer acquires a first image taken by the first camera and a second image taken by the second camera, and determines whether the photographing direction of the first camera is included in the photographing range of the second camera. , the first image is recorded in association with the coordinate position in the second image that coincides with the photographing direction of the first camera, and any of the coordinates of the second image is recorded. When a position is selected, the first image recorded in association with the selected coordinate position is displayed.
本発明の実施形態により、画角が異なる複数のカメラで同一の被写体を撮影する場合において、それぞれの画像の管理を容易に行うことができる画像管理技術が提供される。 Embodiments of the present invention provide an image management technique that allows easy management of each image when the same subject is photographed using multiple cameras with different angles of view.
以下、図面を参照しながら、画像管理システムおよび画像管理方法の実施形態について詳細に説明する。 Embodiments of an image management system and an image management method will be described in detail below with reference to the drawings.
図1の符号1は、本実施形態の画像管理システムである。この画像管理システム1は、例えば、所定の点検現場に設けられた機器または構造物などの被写体を撮影し、撮影された画像に基づいて各種の点検を行うために用いられる。画像管理システム1は、主に、点検現場で画像を撮影し、撮影された多数の画像の管理を行う。点検現場としては、発電プラント、化学プラント、工場などがある。これらのプラントには、点検の対象となる多数の機器または構造物が配置されている。
画像管理システム1は、巡回点検ロボット2と管理コンピュータ3とを備える。巡回点検ロボット2は、第1カメラとしてのパンチルトズームカメラ4と、第2カメラとしての全方位カメラ5と、撮影方向検出部6と、距離測定部7と、位置検出部8と、走行装置9と、これらを統括的に制御する制御コンピュータ10とを備える。なお、制御コンピュータ10は、管理コンピュータ3に接続されている。
The
制御コンピュータ10と管理コンピュータ3は、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるものである。さらに、本実施形態の画像管理方法は、各種プログラムをコンピュータに実行させることで実現される。
The
巡回点検ロボット2は、点検現場内を予め設定されたルートに従って走行し、点検現場の撮影を行う。この巡回点検ロボット2で撮影された画像は、管理コンピュータ3に送られる。点検作業者(ユーザ)は、管理コンピュータ3に記憶された画像をチェックすることで、点検現場の機器または構造物の点検を行うことができる。
The
管理コンピュータ3で管理される画像は、静止画を例示する。なお、画像は、動画を含むものでも良いし、静止画と動画の双方が混在していても良い。
An example of an image managed by the
この巡回点検ロボット2について図3を用いて説明する。なお、図3の紙面左側を巡回点検ロボット2の進行方向である正面側(前方側)として説明する。
This
巡回点検ロボット2は、車輪11を有する走行装置9により地面を走行可能となっている。巡回点検ロボット2は、例えば、自律制御により走行する。なお、巡回点検ロボット2は、点検作業者の遠隔操作により走行しても良い。
The
巡回点検ロボット2の上部には、第1カメラとしてのパンチルトズームカメラ4が設けられている。このパンチルトズームカメラ4は、水平方向への首振りが可能なパン機能、垂直方向への首振りが可能なチルト機能、ズームイン(望遠)とズームアウト(広角)が可能なズーム機能を有する。このパンチルトズームカメラ4により、点検現場の機器または構造物などの被写体の詳細な画像を撮影することができる。このパンチルトズームカメラ4で撮影された詳細画像13(図7)が、本実施形態の第1画像となっている。
A pan-tilt-
撮影方向検出部6(図1)は、パンチルトズームカメラ4の撮影方向を検出する。撮影方向とは、パンチルトズームカメラ4の向きであり、詳細画像13の中心位置に相当する。
The photographing direction detection unit 6 (FIG. 1) detects the photographing direction of the pan-tilt-
この撮影方向検出部6は、例えば、パンチルトズームカメラ4の可動部位に設けられた複数のセンサなどで構成される。なお、撮影方向検出部6は、パンチルトズームカメラ4を可動させる複数のモータなどで構成されても良い。例えば、モータの回転数(回転角度)によりパンチルトズームカメラ4の向きが特定される。撮影方向検出部6で検出したパンチルトズームカメラ4の撮影方向は、制御コンピュータ10に入力される。
The photographing
制御コンピュータ10から管理コンピュータ3に、パンチルトズームカメラ4の撮影方向を示す撮影方向情報15(図2)が送られる。この撮影方向情報15は、例えば、撮影方向を検出するセンサ(撮影方向検出部6)から出力される検出信号でも良いし、撮影方向を制御する制御コンピュータ10から出力される制御信号でも良い。このようにすれば、パンチルトズームカメラ4の撮影方向が変化しても、その撮影方向を管理コンピュータ3が特定することができる。
Photographing direction information 15 (FIG. 2) indicating the photographing direction of the pan-tilt-
パンチルトズームカメラ4(第1カメラ)の近傍には、第2カメラとしての全方位カメラ5が設けられている。なお、パンチルトズームカメラ4と全方位カメラ5の相対的な位置は、一定の距離をあけて固定されている。また、パンチルトズームカメラ4は、全方位カメラ5よりも若干高い位置に設けられている。このようにすれば、パンチルトズームカメラ4の撮影範囲に、全方位カメラ5が含まれず、かつ邪魔にならずに済む。
An
全方位カメラ5(第2カメラ)は、パンチルトズームカメラ4(第1カメラ)よりも広い画角で撮影可能となっている。例えば、全方位カメラ5の画角は、パンチルトズームカメラ4がズームアウトしたときよりも広い画角となっている。
The omnidirectional camera 5 (second camera) is capable of photographing at a wider angle of view than the pan-tilt-zoom camera 4 (first camera). For example, the angle of view of the
この全方位カメラ5は、広角レンズまたは魚眼レンズを有して全方位を撮影可能なものである。このようにすれば、全方位カメラ5で広い範囲を撮影することができる。そして、パンチルトズームカメラ4で撮影された被写体が存在する箇所を全方位カメラ5で把握することができる。
This
例えば、全方位カメラ5には、それぞれに魚眼レンズが付いたイメージセンサを有する2つの広角カメラ12が搭載されている。これら広角カメラ12により全方位カメラ5の周囲の広い範囲を写すことができる。
For example, the
2つの広角カメラ12は、背中合わせになるように配置され、前後の風景を同時に撮影することができる。つまり、全方位カメラ5を用いて巡回点検ロボット2の上下左右の全方位が写る360度パノラマ画像である全方位画像14(図7)の同時撮影が可能となっている。この全方位カメラ5で撮影された全方位画像14が、本実施形態の第2画像となっている。なお、第2画像は、全方位画像14でなくても良く、単に詳細画像13よりも画角が広い広角画像であれば良い。
The two wide-
本実施形態では、全方位カメラ5(第2カメラ)として、2つの広角カメラ12を例示しているが、1つのカメラを用いても全方位カメラ5を構成しても良い。例えば、凸面鏡などを用いて周囲の風景を1つのカメラに導き、全方位画像14を撮影しても良い。
について説明する。
In this embodiment, two wide-
I will explain about it.
全方位カメラ5であれば、点検現場でその向きを変化させなくても、1台の全方位カメラ5で全方位の画像を撮影することができる。また、1つのイメージセンサを有するカメラを2台以上使用し、これらのカメラで撮影された画像を合成することにより、全方位画像14を撮影しても良い。
If the
全方位画像14は、例えば、全天球画像となっている。なお、全方位画像14は、全天球画像でなくても良く、少なくとも水平方向の360度の範囲(左右全方位)を写したものであれば良い。
The
全方位カメラ5の近傍には、距離測定部7が設けられている。この距離測定部7は、全方位カメラ5から被写体までの距離を測定する。なお、パンチルトズームカメラ4(第1カメラ)と全方位カメラ5(第2カメラ)の相対的な位置関係が予め決まっている場合には、全方位カメラ5から被写体までの距離に基づいて、パンチルトズームカメラ4から被写体までの距離を推定することができる。つまり、距離測定部7は、パンチルトズームカメラ4と全方位カメラ5の少なくとも一方から被写体までの距離を測定する。
A
距離測定部7は、パンチルトズームカメラ4のパンチルト機構(パンチルト機能)と連動して方向を変更できるレーザ距離計などで構成される。また、距離測定部7は、パンチルト機構を有する所定のカメラのフォーカス情報に基づいて、被写体までの距離を測定するものでも良い。
The
なお、距離測定部7は、赤外線センサまたはLiDARなどのレーザセンサを用いて、点検現場をレーザスキャンすることで、被写体までの距離を測定しても良い。例えば、距離測定部7は、物体にレーザを投光してその反射光を受光素子により受光することで、物体までの距離を測定することができる。また、距離測定部7は、投光パルスに対する受光パルスの遅れ時間を距離に換算するToF(Time of Flight)方式を用いて、周辺の物体までの距離を測定することができる。
Note that the
さらに、巡回点検ロボット2の上部には、位置検出部8が設けられている。この位置検出部8は、巡回点検ロボット2の現在位置(撮影位置)を検出する。この位置検出部8は、例えば、衛星測位システム、レーダなどを用いて自己位置を検出する。
Furthermore, a
なお、位置検出部8は、情報の送受信に用いる電波信号などにより自己位置を検出しても良い。例えば、位置検出部8は、無線通信を利用して位置情報16を取得しても良い。また、位置検出部8は、加速度センサなどを利用するPDRにより位置情報16を取得しても良い。
Note that the
また、位置検出部8は、SLAM(Simultaneous Localization and Mapping)、SfM(Structure from Motion)などの公知の技術を用いて自己位置を検出しても良い。さらに、位置検出部8は、地面に配置された所定の位置マーカなどにより自己位置を検出しても良い。
Further, the
全方位カメラ5(第2カメラ)は、広範囲の画像が撮影可能であるため、機器または構造物などの点検対象(被写体)の位置を把握し易いが、その反面、点検対象の詳細な画像が撮影できないという欠点もある。一方、パンチルトズームカメラ4(第1カメラ)は、点検対象の方向を向いた場合に、ズーム機能などを用いて点検対象のみを撮影することができる。そのため、高精細な画像が得られるが、その反面、得られる画像が拡大されたものであるため、点検現場(例えば、建物内)における点検対象の存在位置が、把握し難くなり、画像を管理する点検作業者(ユーザ)の負担が生じる。特に、全方位画像14(第2画像)と詳細画像13(第1画像)に写る点検対象の位置関係を関連付けて管理し、点検対象の管理をより容易に実現可能とすることが望まれている。本実施形態は、このような課題を解決することができる。 Since the omnidirectional camera 5 (second camera) can capture images over a wide range, it is easy to grasp the location of the inspection target (object) such as equipment or structures. There is also the drawback that you cannot take pictures. On the other hand, when the pan-tilt-zoom camera 4 (first camera) faces the direction of the inspection target, it can photograph only the inspection target using a zoom function or the like. As a result, high-definition images can be obtained, but on the other hand, since the images obtained are enlarged, it becomes difficult to grasp the location of the inspection target at the inspection site (for example, inside a building), making it difficult to manage the images. This creates a burden on the inspection worker (user). In particular, it is desired that the positional relationship of the inspection target shown in the omnidirectional image 14 (second image) and the detailed image 13 (first image) be managed in association with each other, so that the management of the inspection target can be realized more easily. There is. This embodiment can solve such problems.
図4に示すように、管理コンピュータ3は、パンチルトズームカメラ4(第1カメラ)の撮影方向が全方位カメラ5(第2カメラ)の撮影範囲に含まれている場合に、全方位画像14(第2画像)中の座標位置であって、パンチルトズームカメラ4の撮影方向と一致する座標位置に、詳細画像13(第1画像)を対応付けて記録(登録)する。そして、管理コンピュータ3は、全方位画像14の任意の座標位置が選択された場合に、選択された座標位置に対応付けて記録されている詳細画像13を表示する。
As shown in FIG. 4, the
例えば、図7に示すように、点検現場に多数のメータ28とバルブ29が存在するものとする。ここで、全方位画像14は、多数のメータ28とバルブ29が写る広い範囲が撮影されたものである。一方、詳細画像13は、メータ28とバルブ29が個々に写る狭い範囲が撮影されたものである。
For example, as shown in FIG. 7, it is assumed that a large number of
管理コンピュータ3は、全方位画像14をディスプレイに表示するときに、点検対象となるメータ28とバルブ29の近傍に所定のマーク27を表示させる。点検作業者(ユーザ)は、マウスカーソル30を用いて任意のマーク27を選択する。管理コンピュータ3は、選択されたマーク27に対応する詳細画像13をディスプレイに表示する。例えば、全方位画像14では、メータ28の数値が読み取れない場合でも、点検作業者は、そのメータ28に対応するマーク27を選択することで、メータ28が拡大された詳細画像13を表示させることができる。このようにして、メータ28の数値が読み取れるようになる。
When displaying the
次に、管理コンピュータ3のシステム構成を図2に示すブロック図を参照して説明する。なお、図2中の矢印は、処理の流れを示す一例であり、矢印以外の処理の流れがあっても良い。また、必ずしも、それぞれの処理の前後関係が固定されるものではなく、一部の処理の前後関係が入れ替わっても良い。また、一部の処理が他の処理と並列に実行されても良い。さらに、管理コンピュータ3には、図2に示す構成以外のものが含まれても良いし、図2に示す一部の構成が省略されても良い。
Next, the system configuration of the
管理コンピュータ3には、詳細画像13(第1画像)と全方位画像14(第2画像)とともに、撮影方向情報15と位置情報16と距離情報17とが入力される。
The
撮影方向情報15は、撮影方向検出部6(図1)が検出したパンチルトズームカメラ4(第1カメラ)の撮影方向を示す情報である。例えば、撮影方向情報15は、パン角度またはチルト角などのパンチルトズームカメラ4の向きを示す角度情報を含む。
The photographing
なお、撮影方向情報15は、必ずしも制御コンピュータ10から管理コンピュータ3に入力されなくても良い。例えば、管理コンピュータ3は、全方位カメラ5で撮影された全方位画像14に写っているパンチルトズームカメラ4のパンチルト機構の動作に基づいて、パン角またはチルト角を推定しても良い。このようにして撮影方向情報15が取得されても良い。
Note that the photographing
位置情報16(図2)は、位置検出部8が検出した巡回点検ロボット2の位置であって、撮影位置を示す情報である。距離情報17(図2)は、距離測定部7が測定した被写体までの距離であって、パンチルトズームカメラ4と全方位カメラ5の少なくとも一方から被写体までの距離を示す情報である。
The position information 16 (FIG. 2) is the position of the
管理コンピュータ3は、第1画像取得部18と第2画像取得部19とひずみ補正部20と撮影位置推定部21と表示制御部22とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。
The
さらに、管理コンピュータ3は、画像データベース23を備える。この画像データベース23は、メモリ、HDDまたはクラウドに記憶され、検索または蓄積ができるよう整理された情報の集まりである。
Furthermore, the
管理コンピュータ3の各構成は、必ずしも1つのコンピュータに設ける必要はない。例えば、1つの管理コンピュータ3が、ネットワークで互いに接続された複数のコンピュータで実現されても良い。例えば、画像データベース23が、別のコンピュータに搭載されていても良い。
Each component of the
特に図示はしないが、管理コンピュータ3は、入力部と出力部とを備える。入力部には、ユーザの操作に応じて所定の情報が入力される。この入力部には、マウスまたはキーボードなどの入力装置が含まれる。つまり、これら入力装置の操作に応じて所定の情報が入力部に入力される。
Although not particularly illustrated, the
出力部は、所定の情報の出力を行う。管理コンピュータ3には、ディスプレイなどの画像の表示を行う装置が含まれる。なお、ディスプレイはコンピュータ本体と別体であっても良いし、一体であっても良い。追加的または代替的に、ネットワークを介して接続される他のコンピュータが備えるディスプレイに表示される画像の制御を管理コンピュータ3が行っても良い。
The output unit outputs predetermined information. The
第1画像取得部18は、制御コンピュータ10(図1)から、パンチルトズームカメラ4(第1カメラ)で撮影された詳細画像13(第1画像)を取得するとともに、詳細画像13が撮影されたときのパンチルトズームカメラ4の撮影方向を示す撮影方向情報15を取得する。このようにすれば、パンチルトズームカメラ4の撮影方向を取得し、これに基づいて、全方位画像14における対応する座標位置を特定することができる。
The first
なお、詳細画像13などに写る被写体に基づいて、パンチルトズームカメラ4の撮影方向を推定することができる場合には、管理コンピュータ3が制御コンピュータ10から撮影方向情報15を取得しなくても良い。例えば、管理コンピュータ3が詳細画像13に基づいて、撮影方向情報15を生成しても良い。
Note that if the shooting direction of the pan-tilt-
第2画像取得部19は、制御コンピュータ10(図1)から、全方位カメラ5(第2カメラ)で撮影された全方位画像14(第2画像)を取得する。
The second
ひずみ補正部20は、第2画像取得部19が取得した全方位画像14のひずみを補正する画像処理を行う。このひずみ補正部20は、例えば、魚眼レンズなどでひずんだ像を詳細画像13と同じようなひずみの無い像に補正する処理を行う。
The
撮影位置推定部21は、詳細画像13と全方位画像14と位置情報16と距離情報17とを取得する。
The photographing
この撮影位置推定部21は、パンチルトズームカメラ4(第1カメラ)で所定の方向が撮影されたときの詳細画像13(第1画像)が、全方位カメラ5(第2カメラ)で撮影された全方位画像14(第2画像)中のいずれの座標位置に対応しているかを推定する処理を行う。つまり、撮影位置推定部21は、パンチルトズームカメラ4の撮影方向(例えば、撮影された画像の中心位置)が全方位カメラ5の撮影範囲に含まれている場合に、全方位画像14中の座標位置であって、パンチルトズームカメラ4の撮影方向と一致する座標位置に、詳細画像13を対応付ける処理を行う。
This photographing
例えば、予めパンチルトズームカメラ4を用いて、それぞれの異なるパン角とチルト角で複数回の撮影を行う。そして、これらの撮影により取得された詳細画像13を、全方位カメラ5で撮影された全方位画像14中の座標位置に関連付ける。なお、この関連付ける処理は、管理コンピュータ3が自動的に行っても良いし、ユーザによる手動操作で行っても良い。
For example, using the pan-tilt-
図5を用いて、ユーザによる手動操作で設定を行う態様について説明する。まず、ユーザは、例えば、全方位画像14の撮影範囲に含まれる一部の範囲24であって、パンチルトズームカメラ4の撮影方向が含まれていると推定される一部の範囲24を選択する。ユーザは、パンチルトズームカメラ4で撮影された詳細画像13の中心位置(撮影方向)を確認しながら、手動操作により全方位画像14に対応点25を設定する。これらの対応点25は、例えば、パンチルトズームカメラ4のパン角とチルト角のそれぞれが1度ずつずれた位置に設定される。さらに、それぞれの対応点25を繋ぎ、かつ対応点25の間の座標を補完するグリッド線26が設定される。これら対応点25とグリッド線26に基づいて、座標が変換可能となる。
A mode in which settings are performed manually by the user will be described using FIG. 5. First, the user selects, for example, a
予めこのような処理を行うことで、パンチルトズームカメラ4のパン角とチルト角から、全方位画像14の座標位置が変換可能となる。また、全方位画像14の座標位置から、パンチルトズームカメラ4のパン角とチルト角が変換可能となる。これらの変換が可能となる変換テーブルまたは変換式が生成される。
By performing such processing in advance, the coordinate position of the
例えば、図6に示すように、パンチルトズームカメラ4のパン角を横軸(p軸)、チルト角を縦軸(t軸)にした第1座標(図6の紙面左側の座標)があり、全方位画像14の横方向を横軸(x軸)、縦方向を縦軸(y軸)にした第2座標(図6の紙面右側の座標)があるとする。
For example, as shown in FIG. 6, there is a first coordinate (coordinates on the left side of the paper in FIG. 6) where the pan angle of the pan-tilt-
ここで、第1座標の任意の正方形の角部に相当する4つの既知の対応点dがあるとする。これら既知の対応点dに相当する4つの既知の対応点bが第2座標にも存在する。それぞれの既知の対応点b,dが予め関連付けられる。そして、第1座標において任意の対応点dが決まれば、第2座標において1つの対応点bが特定される。さらに、第2座標において任意の対応点bが決まれば、第1座標において1つの対応点dが特定される。このような座標の変換が可能な変換テーブルまたは変換式が予め生成される。 Here, it is assumed that there are four known corresponding points d corresponding to corners of arbitrary squares at the first coordinates. Four known corresponding points b corresponding to these known corresponding points d also exist in the second coordinates. The respective known corresponding points b and d are associated in advance. Once an arbitrary corresponding point d is determined at the first coordinates, one corresponding point b is specified at the second coordinates. Furthermore, once an arbitrary corresponding point b is determined at the second coordinates, one corresponding point d is specified at the first coordinates. A conversion table or conversion formula that allows such coordinate conversion is generated in advance.
撮影位置推定部21は、変換テーブルと変換式の少なくとも一方に基づいて、パンチルトズームカメラ4の撮影方向を示す撮影方向情報15を全方位画像14の座標位置に変換する処理を行う。このようにすれば、パンチルトズームカメラ4の撮影方向を全方位画像14の座標位置に変換する処理を容易に行える。
The photographing
なお、パンチルトズームカメラ4(第1カメラ)と全方位カメラ5(第2カメラ)のそれぞれから被写体までの距離が、それぞれ異なる場合は、パンチルトズームカメラ4を中心とした空間座標と、全方位カメラ5を中心とした空間座標とが異なる。そのため、変換テーブルまたは変換式は、被写体との距離が異なる条件でも変換可能なように構成される。
Note that if the distances from the pan-tilt-zoom camera 4 (first camera) and the omnidirectional camera 5 (second camera) to the subject are different, the spatial coordinates centered on the pan-tilt-
画像データベース23は、撮影位置推定部21において関連付けの処理がなされた詳細画像13(第1画像)と全方位画像14(第2画像)を記録(記憶)する。なお、管理コンピュータ3は、画像データベース23に蓄積された詳細画像13を解析し、その解析結果に基づいて、点検対象の異常を検出する処理を自動的に行っても良い。
The
表示制御部22は、ディスプレイに表示された全方位画像14(第2画像)の任意の座標位置が、ユーザにより選択された場合に、選択された座標位置に対応付けて、画像データベース23に記録されている詳細画像13(第1画像)をディスプレイに表示する処理を行う。
When an arbitrary coordinate position of the omnidirectional image 14 (second image) displayed on the display is selected by the user, the
例えば、表示制御部22は、撮影位置推定部21により推定された座標の情報に基づいて、全方位カメラ5で撮影された全方位画像14中に、座標を選択可能なマーク27を表示する処理を行う。点検作業者(ユーザ)が、ディスプレイに表示された全方位画像14中のマーク27を選択したときに、表示制御部22は、これに対応する詳細画像13を表示する制御を行う。
For example, the
なお、パンチルトズームカメラ4(第1カメラ)の中心(装置の物理的な中心)と全方位カメラ5(第2カメラ)の中心が同じ位置にある場合には、パンチルトズームカメラ4のパンチルト角と全方位画像14の座標位置とは、単純な演算で変換が可能になる。しかし、巡回点検ロボット2に取り付けるときの物理的な制約上、パンチルトズームカメラ4と全方位カメラ5が、一定の距離をあけて固定される。そのため、本実施形態では、パンチルトズームカメラ4のパンチルト角と全方位画像14の座標位置との関係を予め取得する処理を行うようにしている。
Note that if the center of the pan-tilt-zoom camera 4 (first camera) (the physical center of the device) and the center of the omnidirectional camera 5 (second camera) are at the same position, the pan-tilt angle of the pan-tilt-
また、撮影位置推定部21は、取得した距離情報17に基づいて、全方位画像14中のパンチルトズームカメラ4の撮影方向と一致する座標位置を推定する。このようにすれば、パンチルトズームカメラ4または全方位カメラ5から被写体との距離から、詳細画像13と全方位画像14との対応関係を特定する精度を向上させることができる。
Further, the photographing
図7に示すように、撮影位置推定部21(図2)は、パンチルトズームカメラ4の撮影方向情報15の入力に基づいて、その撮影位置を推定する。表示制御部22(図2)は、全方位画像14中の対応する座標位置にマーク27を表示する。そして、点検作業者(ユーザ)が、マウスカーソル30でマーク27を選択することにより、表示制御部22が、選択された座標位置に対応する詳細画像13を、画像データベース23から抽出し、ディスプレイに表示させる。このようにすれば、パンチルトズームカメラ4により撮影された詳細画像13と、全方位カメラ5で撮影された全方位画像14とを、紐づけることが可能となり、点検対象が写る画像の管理を容易に行うことができる。
As shown in FIG. 7, the photographing position estimation unit 21 (FIG. 2) estimates the photographing position based on the input of the photographing
なお、マーク27以外の座標位置がマウスカーソル30で選択されたときに、この座標位置に対応する詳細画像13がディスプレイに表示されても良い。また、全方位画像14には、マーク27が表示されなくても良く、任意の座標位置が選択可能であれば良い。また、マウスカーソル30以外の方法で座標位置が選択されても良い。例えば、ディスプレイがタッチパネルである場合には、ディスプレイをタッチしたときの座標位置が選択される態様でも良い。
Note that when a coordinate position other than the
本実施形態では、ディスプレイに静止画の全方位画像14が表示されているときに、任意の座標位置が選択されると、静止画の詳細画像13が表示される。なお、この詳細画像13は、動画で表示されても良い。また、ディスプレイに表示される全方位画像14は、動画でも良い。
In this embodiment, when an arbitrary coordinate position is selected while the omnidirectional
追加的または代替的に、撮影位置推定部21は、詳細画像13を取得したときに、詳細画像13と、ひずみが補正された全方位画像14とを比較する。次に、撮影位置推定部21は、ひずみ補正済みの全方位画像14において、詳細画像13と類似する類似範囲を抽出する。次に、撮影位置推定部21は、抽出された類似範囲をパンチルトズームカメラ4の撮影方向と一致する座標位置を含むものとして特定する。このようにすれば、全方位画像14から詳細画像13に対応する類似範囲を抽出して、詳細画像13と全方位画像14との対応関係を特定する精度を向上させることができる。
Additionally or alternatively, when acquiring the
なお、撮影位置推定部21は、全方位画像14における詳細画像13と類似する類似範囲を抽出するときに、人工知能の学習に基づく解析技術を用いても良い。例えば、撮影位置推定部21は、機械学習を行う人工知能(AI:Artificial Intelligence)を備えるものでも良い。
Note that the photographing
本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。 The system of this embodiment includes a control device with a highly integrated processor such as a dedicated chip, an FPGA (Field Programmable Gate Array), a GPU (Graphics Processing Unit), or a CPU (Central Processing Unit), and a ROM (Read Only memory) or RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) or SSD (Solid State Drive), display devices such as displays, and input devices such as mouse or keyboard. , and a communication interface. This system can be realized with a hardware configuration using a normal computer.
なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一時的な記憶媒体に記憶されて提供するようにしても良い。 Note that the program executed by the system of this embodiment is provided by being pre-installed in a ROM or the like. Alternatively, this program may be installed as a file in installable or executable format on a computer-readable non-transitory storage medium such as a CD-ROM, CD-R, memory card, DVD, or floppy disk (FD). It may be stored and provided.
また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用回線で相互に接続し、組み合わせて構成することもできる。 Further, the program executed by this system may be stored on a computer connected to a network such as the Internet, and may be downloaded and provided via the network. Furthermore, this system can also be configured by combining separate modules that independently perform the functions of the constituent elements by interconnecting them via a network or dedicated line.
なお、本実施形態では、パンチルトズームカメラ4(第1カメラ)自体がパン機能を有しているが、その他の態様であっても良い。例えば、パンチルトズームカメラ4のパン機能が、巡回点検ロボット2の旋回により実現されても良い。つまり、巡回点検ロボット2の機能がパンチルトズームカメラ4の機能として含まれても良い。さらに、撮影方向検出部6は、巡回点検ロボット2が向いている方向(旋回方向)を検出するものでも良い。
In addition, in this embodiment, the pan-tilt-zoom camera 4 (first camera) itself has a pan function, but other aspects may be used. For example, the panning function of the pan-tilt-
なお、本実施形態では、パンチルトズームカメラ4(第1カメラ)と全方位カメラ5(第2カメラ)が、巡回点検ロボット2に搭載されているが、その他の態様であっても良い。例えば、点検作業者が、パンチルトズームカメラ4と全方位カメラ5を持運びしても良く、点検現場において、三脚などの固定器具を用いて、パンチルトズームカメラ4と全方位カメラ5を固定的に配置して撮影が行われても良い。
In this embodiment, the pan-tilt-zoom camera 4 (first camera) and the omnidirectional camera 5 (second camera) are mounted on the
以上説明した実施形態によれば、第1カメラの撮影方向が第2カメラの撮影範囲に含まれている場合に、第2画像中の座標位置であって第1カメラの撮影方向と一致する座標位置に第1画像を対応付けて記録することにより、画角が異なる複数のカメラで同一の被写体を撮影する場合において、それぞれの画像の管理を容易に行うことができる。 According to the embodiment described above, when the photographing direction of the first camera is included in the photographing range of the second camera, the coordinate position in the second image that coincides with the photographing direction of the first camera By recording the first image in association with the position, when the same subject is photographed with a plurality of cameras having different angles of view, each image can be easily managed.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態またはその変形は、発明の範囲と要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, changes, and combinations can be made without departing from the gist of the invention. These embodiments or modifications thereof are within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.
1…画像管理システム、2…巡回点検ロボット、3…管理コンピュータ、4…パンチルトズームカメラ、5…全方位カメラ、6…撮影方向検出部、7…距離測定部、8…位置検出部、9…走行装置、10…制御コンピュータ、11…車輪、12…広角カメラ、13…詳細画像、14…全方位画像、15…撮影方向情報、16…位置情報、17…距離情報、18…第1画像取得部、19…第2画像取得部、20…ひずみ補正部、21…撮影位置推定部、22…表示制御部、23…画像データベース、24…一部の範囲、25…対応点、26…グリッド線、27…マーク、28…メータ、29…バルブ、30…マウスカーソル。
DESCRIPTION OF
Claims (8)
前記管理コンピュータは、
前記第1カメラで撮影された第1画像と前記第2カメラで撮影された第2画像とを取得し、
前記第1カメラの撮影方向が前記第2カメラの撮影範囲に含まれている場合に、前記第2画像中の座標位置であって前記第1カメラの前記撮影方向と一致する前記座標位置に前記第1画像を対応付けて記録し、
前記第2画像の任意の前記座標位置が選択された場合に、選択された前記座標位置に対応付けて記録されている前記第1画像を表示する、
ように構成されている、
画像管理システム。 comprising a management computer that manages images taken by a first camera and a second camera capable of taking images at a wider angle of view than the first camera;
The management computer is
obtaining a first image taken by the first camera and a second image taken by the second camera;
When the photographing direction of the first camera is included in the photographing range of the second camera, the coordinate position in the second image coincides with the photographing direction of the first camera. Record the first image in association with each other,
when any of the coordinate positions of the second image is selected, displaying the first image recorded in association with the selected coordinate position;
It is configured as follows.
Image management system.
請求項1に記載の画像管理システム。 The second camera is capable of photographing in all directions.
The image management system according to claim 1.
請求項1または請求項2に記載の画像管理システム。 The management computer is configured to acquire the first image and information indicating the photographing direction of the first camera.
The image management system according to claim 1 or claim 2.
前記第1カメラの前記撮影方向を示す情報は、前記撮影方向を制御する制御コンピュータから出力される制御信号と前記撮影方向を検出するセンサから出力される検出信号の少なくとも一方である、
請求項3に記載の画像管理システム。 The first camera has at least a pan/tilt function,
The information indicating the photographing direction of the first camera is at least one of a control signal output from a control computer that controls the photographing direction and a detection signal output from a sensor detecting the photographing direction.
The image management system according to claim 3.
請求項3または請求項4に記載の画像管理システム。 The management computer is configured to convert information indicating the photographing direction of the first camera into the coordinate position of the second image based on at least one of a conversion table and a conversion formula.
The image management system according to claim 3 or 4.
前記第2画像のひずみを補正する画像処理を行い、
前記第1画像を取得したときに、前記第1画像と前記ひずみが補正された前記第2画像とを比較し、
前記第2画像における前記第1画像と類似する類似範囲を抽出し、
前記類似範囲を前記第1カメラの前記撮影方向と一致する前記座標位置を含むものとして特定する、
ように構成されている、
請求項1から請求項5のいずれか1項に記載の画像管理システム。 The management computer is
performing image processing to correct distortion of the second image;
when acquiring the first image, comparing the first image and the second image in which the distortion has been corrected;
extracting a similar range similar to the first image in the second image;
identifying the similar range as including the coordinate position that coincides with the photographing direction of the first camera;
It is configured as follows.
The image management system according to any one of claims 1 to 5.
前記第1カメラと前記第2カメラの少なくとも一方から被写体までの距離を測定する距離測定部から、前記距離を示す情報を取得し、
前記距離に基づいて、前記第2画像中の前記第1カメラの前記撮影方向と一致する前記座標位置を推定する、
ように構成されている、
請求項1から請求項6のいずれか1項に記載の画像管理システム。 The management computer is
acquiring information indicating the distance from a distance measurement unit that measures the distance from at least one of the first camera and the second camera to the subject;
estimating the coordinate position corresponding to the photographing direction of the first camera in the second image based on the distance;
It is configured as follows.
The image management system according to any one of claims 1 to 6.
前記管理コンピュータが、前記第1カメラで撮影された第1画像と前記第2カメラで撮影された第2画像とを取得し、
前記第1カメラの撮影方向が前記第2カメラの撮影範囲に含まれている場合に、前記管理コンピュータが、前記第2画像中の座標位置であって前記第1カメラの前記撮影方向と一致する前記座標位置に前記第1画像を対応付けて記録し、
前記第2画像の任意の前記座標位置が選択された場合に、前記管理コンピュータが、選択された前記座標位置に対応付けて記録されている前記第1画像を表示する、
画像管理方法。 This method is carried out using a management computer that manages each image taken by a first camera and a second camera that can take pictures at a wider angle of view than the first camera,
The management computer acquires a first image taken by the first camera and a second image taken by the second camera,
When the photographing direction of the first camera is included in the photographing range of the second camera, the management computer determines that the coordinate position in the second image coincides with the photographing direction of the first camera. recording the first image in association with the coordinate position;
When any coordinate position of the second image is selected, the management computer displays the first image recorded in association with the selected coordinate position.
Image management method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022045544A JP2023139821A (en) | 2022-03-22 | 2022-03-22 | Image management system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022045544A JP2023139821A (en) | 2022-03-22 | 2022-03-22 | Image management system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023139821A true JP2023139821A (en) | 2023-10-04 |
Family
ID=88204612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022045544A Pending JP2023139821A (en) | 2022-03-22 | 2022-03-22 | Image management system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023139821A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006229631A (en) * | 2005-02-17 | 2006-08-31 | Konica Minolta Holdings Inc | Image processor |
JP2006262030A (en) * | 2005-03-16 | 2006-09-28 | Fuji Xerox Co Ltd | Angle of view adjusting apparatus, camera system, and angle of view adjusting method |
JP2014132771A (en) * | 2008-09-08 | 2014-07-17 | Sony Corp | Image processing apparatus and method, and program |
JP2017126868A (en) * | 2016-01-13 | 2017-07-20 | 株式会社リコー | Image display system, information processing device, image display method and image display program |
JP2019068261A (en) * | 2017-09-29 | 2019-04-25 | 株式会社リコー | Delivery system and delivery method, delivery apparatus and delivery program, and receiving apparatus and receiving program |
JP2020009099A (en) * | 2018-07-06 | 2020-01-16 | キヤノン株式会社 | Image processing device, image processing method, and program |
-
2022
- 2022-03-22 JP JP2022045544A patent/JP2023139821A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006229631A (en) * | 2005-02-17 | 2006-08-31 | Konica Minolta Holdings Inc | Image processor |
JP2006262030A (en) * | 2005-03-16 | 2006-09-28 | Fuji Xerox Co Ltd | Angle of view adjusting apparatus, camera system, and angle of view adjusting method |
JP2014132771A (en) * | 2008-09-08 | 2014-07-17 | Sony Corp | Image processing apparatus and method, and program |
JP2017126868A (en) * | 2016-01-13 | 2017-07-20 | 株式会社リコー | Image display system, information processing device, image display method and image display program |
JP2019068261A (en) * | 2017-09-29 | 2019-04-25 | 株式会社リコー | Delivery system and delivery method, delivery apparatus and delivery program, and receiving apparatus and receiving program |
JP2020009099A (en) * | 2018-07-06 | 2020-01-16 | キヤノン株式会社 | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021185218A1 (en) | Method for acquiring 3d coordinates and dimensions of object during movement | |
US9965870B2 (en) | Camera calibration method using a calibration target | |
US8699005B2 (en) | Indoor surveying apparatus | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
JP5593177B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP5620200B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
WO2012020696A1 (en) | Device for processing point group position data, system for processing point group position data, method for processing point group position data and program for processing point group position data | |
US20140132729A1 (en) | Method and apparatus for camera-based 3d flaw tracking system | |
JP4005795B2 (en) | Vibration measuring device and storage medium | |
JP5019478B2 (en) | Marker automatic registration method and system | |
CN109269525B (en) | Optical measurement system and method for take-off or landing process of space probe | |
JP5079547B2 (en) | Camera calibration apparatus and camera calibration method | |
CN114726978A (en) | Information processing apparatus, information processing method, and program | |
CN114838668A (en) | A kind of tunnel displacement monitoring method and system | |
CN112907647B (en) | A three-dimensional spatial dimension measurement method based on a fixed monocular camera | |
WO2021138856A1 (en) | Camera control method, device, and computer readable storage medium | |
JP2010217984A (en) | Image detector and image detection method | |
KR20110121426A (en) | Day and night combined moving object observation system | |
Wagner¹ et al. | Monitoring concepts using image assisted total stations | |
US20230324167A1 (en) | Laser scanner for verifying positioning of components of assemblies | |
EP4181063A1 (en) | Markerless registration of image data and laser scan data | |
JP2023139821A (en) | Image management system and method | |
CN112304250B (en) | Three-dimensional matching equipment and method between moving objects | |
Maddalena et al. | Innovations on underwater stereoscopy: the new developments of the TV-trackmeter | |
Soldan et al. | Mapping non-destructive testing data on the 3D geometry of objects with complex shapes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250513 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250709 |