JP7696129B1 - Information processing system, information processing method, and program - Google Patents
Information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP7696129B1 JP7696129B1 JP2024193622A JP2024193622A JP7696129B1 JP 7696129 B1 JP7696129 B1 JP 7696129B1 JP 2024193622 A JP2024193622 A JP 2024193622A JP 2024193622 A JP2024193622 A JP 2024193622A JP 7696129 B1 JP7696129 B1 JP 7696129B1
- Authority
- JP
- Japan
- Prior art keywords
- information
- model
- image
- bridge
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】画像データの管理を支援するための情報処理システム、情報処理方法、及び、プログラムを提供すること。【解決手段】部分モデル情報及び構造物モデル情報を記憶する3次元データ記憶部と、構造物モデル情報に基づき、構造物の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、画像及び当該画像に関連付けられた撮影条件情報を取得する画像情報取得部と、仮想空間に配置した構造物の3次元形状モデルに含まれる部分形状モデルのうちから、撮影条件情報に基づいて、画像に写し出された撮影対象モデルを特定する撮影対象特定部と、撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、画像に紐づける画像情報書込み部と、を備える情報処理システム。【選択図】図8[Problem] To provide an information processing system, information processing method, and program for supporting management of image data. [Solution] An information processing system comprising: a three-dimensional data storage unit that stores partial model information and structure model information, a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of a structure is arranged based on the structure model information, an image information acquisition unit that acquires an image and shooting condition information associated with the image, a shooting target identification unit that identifies a shooting target model shown in the image based on the shooting condition information from among the partial shape models included in the three-dimensional shape model of the structure arranged in the virtual space, and an image information writing unit that links attribute information associated with the partial shape model identified as the shooting target model to the image. [Selected Figure] Figure 8
Description
本開示は、移動体の経路設計に関連する情報処理システム、情報処理方法、及び、プログラムに関する。 This disclosure relates to an information processing system, an information processing method, and a program related to route planning for a moving object.
特許文献1に示すように、撮影装置により所定の構造物を撮影して点検するシステムが知られている。
As shown in
従来の点検システムにおいては、作業者が、撮影対象の点検部位を端末上又は書面上で設計図面等を参照することで特定し、特定した点検部位、及び、点検結果などの点検実行時に取得した情報を、野帳等に記録して管理することが一般的であった。この場合、点検後に、野帳等に記載した情報を参照して、点検で撮影した画像と点検部位とを作業者による手動操作で関連付けする作業が必要となる。 In conventional inspection systems, workers would typically identify the inspection areas to be photographed on a terminal or on paper by referring to design drawings, etc., and then record and manage the identified inspection areas and information obtained during the inspection, such as the inspection results, in a field notebook or similar. In this case, after the inspection, workers would need to manually associate the images taken during the inspection with the inspection areas by referring to the information written in the field notebook or similar.
当該作業においては、点検部位に対して、別の箇所を撮影した画像を対応付けてしまうなどのような作業ミスが生じやすい。特に、構造物において、類似する構造パターンが連続して存在する場合には、野帳等への記録時、及び/又は、画像の関連付け作業の際に、点検部位を間違える作業ミスがより発生しやすくなる。そのため、点検等で撮影した画像データを管理するためのより正確性の高いシステムが求められている。 In this work, it is easy to make mistakes, such as matching an image of an inspection area with an image of a different location. In particular, when a structure has a series of similar structural patterns, mistakes such as mistaking the inspection area when recording in a field notebook or the like and/or when associating images are more likely to occur. For this reason, there is a demand for a more accurate system for managing image data taken during inspections, etc.
本開示の例示的な実施形態の目的は、画像データの管理を支援するための情報処理システム、情報処理方法、及び、プログラムを提供することである。 The objective of the exemplary embodiment of the present disclosure is to provide an information processing system, an information processing method, and a program for assisting in the management of image data.
本開示の一様態に関わる情報処理システムは、
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶する3次元データ記憶部と、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得する画像情報取得部と、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定する撮影対象特定部と、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づける画像情報書込み部と、を備える。
An information processing system according to one embodiment of the present disclosure includes:
a three-dimensional data storage unit that stores a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
an image information acquisition unit that acquires an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
a photographing target specifying unit that specifies a photographing target model shown in the image from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space based on the photographing condition information;
The image information writing unit links attribute information associated with the partial shape model identified as the photographing target model to the image.
情報処理システムが上記の特徴を有することで、画像データに対して当該画像の撮影対象を特定する情報を自動で記録することができ、誤記録の防止と、画像データの管理の最適化を図ることができる。 By having an information processing system with the above features, it is possible to automatically record information that identifies the subject of the image in the image data, preventing erroneous recording and optimizing the management of image data.
本開示の情報処理方法、情報処理システム及びプログラムは、例えば、以下のような構成を備える。
[項目1]
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶する3次元データ記憶部と、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得する画像情報取得部と、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定する撮影対象特定部と、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づける画像情報書込み部と、を備える情報処理システム。
[項目2]
前記画像情報取得部は、前記撮影条件情報として、前記画像を撮影した際の前記カメラの実空間における実撮影位置、及び、前記カメラの光学中心軸が向く実空間における方向である実撮影方向、を示す情報を取得し、
前記撮影対象特定部は、前記実撮影位置及び前記実撮影方向を示す情報に基づいて、前記仮想空間において、前記実撮影位置に対応する仮想撮影位置から、前記実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、当該仮想的な直線と交差する部分形状モデルを前記撮影対象モデルとして特定する、項目1に記載の情報処理システム。
[項目3]
それぞれの前記部分形状モデルが示す前記構造物の一部は、前記構造物に含まれる部材に対応しており、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記構造物において前記部材が配置されている区画を示す区画情報、を含む、項目1又は2に記載の情報処理システム。
[項目4]
前記画像情報書込み部は、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込む、項目3に記載の情報処理システム。
[項目5]
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶することと、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータが実行する情報処理方法。
[項目6]
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶することと、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータに実行させるためのプログラム。
The information processing method, information processing system, and program disclosed herein have, for example, the following configuration.
[Item 1]
a three-dimensional data storage unit that stores a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
an image information acquisition unit that acquires an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
a photographing target specifying unit that specifies a photographing target model shown in the image from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space based on the photographing condition information;
An information processing system comprising: an image information writing unit that links attribute information associated with a partial shape model identified as the model to be photographed to the image.
[Item 2]
the image information acquisition unit acquires, as the photographing condition information, information indicating an actual photographing position in real space of the camera when the image was photographed, and an actual photographing direction, which is a direction in real space to which an optical center axis of the camera faces;
The information processing system described in
[Item 3]
a part of the structure represented by each of the partial shape models corresponds to a member included in the structure,
3. The information processing system of
[Item 4]
4. The information processing system according to
[Item 5]
storing a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space;
and linking attribute information associated with the partial shape model identified as the photographing target model to the image.
[Item 6]
storing a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space;
and linking attribute information associated with the partial shape model identified as the model to be photographed to the image.
<実施の形態の詳細>
本開示の一実施形態に係わる情報処理システムを、図面を参照しつつ説明する。添付の各図面において、同一または類似の要素には同一または類似の参照符号及び名称が付され、実施形態の説明において同一または類似の要素に関する重複する説明は省略することがある。なお、各図面に示す内容は、あくまでも、本実施形態を説明するための例示であり、本実施形態を説明し易いように概略的に示す例示にすぎない。各図面の内容は、技術的に問題が生じない範囲内で改変したり、変更したりしてもよい。
<Details of the embodiment>
An information processing system according to an embodiment of the present disclosure will be described with reference to the drawings. In each of the attached drawings, identical or similar elements are given identical or similar reference symbols and names, and duplicate descriptions of identical or similar elements may be omitted in the description of the embodiment. Note that the contents shown in each drawing are merely examples for explaining the present embodiment, and are merely schematic examples for easy explanation of the present embodiment. The contents of each drawing may be modified or changed within the scope of no technical problem.
<システム概要>
本実施形態に係わる情報処理システムは、構造物の点検時に撮影した画像を、当該画像に写し出された対象物に関する情報と関連付けて、自動記録する処理を実行するシステムである。構造物とは、複数の材料及び/又は部材を組み合わせて構成されたもの(例えば、橋梁、トンネル、ダム、堤防、ビル、工場、その他建築物など)であり、点検対象とする構造物の種類は特に限定されない。情報処理システムの運用において対象とする点検は、構造物の施工中における点検であってもよいし、施工完了時の点検であってもよいし、施工後の定期点検などであってもよく、点検の種類は特に限定されない。また、点検時における構造物の撮影方法も、特に限定されず、例えば、ドローン(Drone)、無人航空機(UAV:Unmanned Aerial Vehicle)、無人地上車両(UGV:Unmanned Ground Vehicle)などの無人移動体に搭載したカメラで構造物を撮影してもよい。その他、作業者などの人が撮影装置(例えば、スマートフォン、タブレット端末、デジタルカメラなどの各種カメラなど)を操作して構造物を撮影してもよいし、有人移動体に搭載したカメラで構造物を撮影してもよい。
<System Overview>
The information processing system according to the present embodiment is a system that executes a process of automatically recording an image taken during inspection of a structure in association with information on an object depicted in the image. A structure is a structure that is constructed by combining a plurality of materials and/or members (for example, a bridge, a tunnel, a dam, a levee, a building, a factory, or other buildings), and the type of structure to be inspected is not particularly limited. Inspections that are the subject of the operation of the information processing system may be inspections during construction of the structure, inspections at the completion of construction, or periodic inspections after construction, and the type of inspection is not particularly limited. In addition, the method of photographing the structure during inspection is also not particularly limited, and for example, the structure may be photographed with a camera mounted on an unmanned moving body such as a drone, an unmanned aerial vehicle (UAV), or an unmanned ground vehicle (UGV). Alternatively, a worker or other person may operate an imaging device (e.g., a smartphone, a tablet terminal, a digital camera, or other type of camera) to photograph the structure, or the structure may be photographed using a camera mounted on a manned vehicle.
本実施形態では、簡潔な説明とするために、移動体4を用いて橋梁を点検する場合を例示して、情報処理システムが実行する情報処理について詳述する。図6に示すように、移動体4を、橋梁(施工中、及び/又は、施工完了後の橋梁)の周囲に飛行させて、橋梁の所定部位を移動体4に搭載したカメラ42で撮影する。移動体4は、プロポを用いたユーザ(作業者等)の操縦により飛行させてもよいし、予めウェイポイントなどが設定された飛行経路に基づいて自律航行させてもよい。移動体4の機種及び仕様は特に限定されない。例えば、移動体4は、非GNSS(Global Navigation Satellite System)環境においても移動開始位置を基点とする機体位置を認識可能な仕様の機体であることが好ましく、撮影時の機体位置、機体の向き、ジンバルの向きなどの各種撮影条件を撮影画像の附属情報(例;Exif情報(Exif;Exchangeable image file format))として記録可能な仕様の機体であることが好ましい。
In this embodiment, for the sake of simplicity, the information processing executed by the information processing system will be described in detail by taking as an example a case where a bridge is inspected using a
図6に示すような橋梁の点検においては、従来、点検した部位又は部材を作業者が現場で手入力した野帳等を用いて、撮影画像の管理がなされてきた。例えば、作業者が、端末上又は書面上で設計図面等を参照しながら、撮影した点検部位又は部材を野帳等に記載しておく。そして、後日、撮影画像がどの点検部位又は部材に対応するかを、野帳等に記載した情報に基づいて、人為的に判定し、撮影画像と野帳等に記載した情報とを手動操作で関連付ける作業を行っていた。このような従来の記録作業方法では、点検箇所に対して別の箇所を撮影した別画像を対応付けて誤記録してしまうなどのような作業ミスが生じやすい。特に、橋梁は、所定の間隔で同じ構造が連続する特徴を有しているため、現場で点検箇所を間違って記録する、間違った画像と情報とを関連付けるなどの作業ミスが発生しやすかった。 In the case of bridge inspections such as those shown in Figure 6, conventionally, photographed images have been managed using field notebooks or the like in which workers manually input the inspected parts or components on site. For example, workers record the photographed inspection parts or components in a field notebook or the like while referring to design drawings or the like on a terminal or on paper. Then, at a later date, workers manually determine which inspection part or component the photographed image corresponds to based on the information written in the field notebook or the like, and manually associate the photographed image with the information written in the field notebook or the like. With such conventional recording methods, work errors are likely to occur, such as incorrectly recording an inspection point by associating it with another image taken of a different part. In particular, bridges have the characteristic of having the same structure in succession at a certain interval, so work errors such as incorrectly recording the inspection point on site and associating the wrong image with information are likely to occur.
本実施形態の情報処理システムでは、複数の部分形状モデルを組み合わせて構築された橋梁(構造物)の3次元形状モデルを配置した仮想空間を生成したうえで、当該仮想空間において、撮影画像に紐づく撮影条件情報(例えば、撮影位置、撮影方向、焦点距離、画角など)に基づき、当該撮影画像に写し出された対象物に対応する部分形状モデルを撮影対象モデルとして特定する。そして、情報処理システムでは、特定した撮影対象モデルに関連付けられている属性情報を、撮影画像に紐づける処理を実行する。本実施形態の情報処理システムでは、上記のような情報処理により、画像データに対して当該画像の撮影対象を特定する情報を自動で記録することができ、誤記録の防止、画像データの管理の最適化、及び、点検の効率化などを図ることができる。 In the information processing system of this embodiment, a virtual space is generated in which a three-dimensional shape model of a bridge (structure) constructed by combining multiple partial shape models is placed, and in the virtual space, a partial shape model corresponding to an object depicted in a captured image is identified as a captured object model based on shooting condition information (e.g., shooting position, shooting direction, focal length, angle of view, etc.) linked to the captured image. The information processing system then executes a process of linking attribute information associated with the identified captured object model to the captured image. In the information processing system of this embodiment, the above-mentioned information processing can automatically record information identifying the captured object of the image to image data, preventing erroneous recording, optimizing image data management, and improving inspection efficiency.
<システム構成>
図1に示されるように、本実施形態の情報処理システムは、管理サーバ1と、一以上のユーザ端末2と、一以上の移動体4とを有していてもよい。管理サーバ1と、ユーザ端末2と、移動体4とは、ネットワークNWを介して互いに通信可能に接続されている。なお、図示された構成は一例であり、これに限らない。例えば、移動体4がネットワークNWに接続されていなくてもよい。その場合、移動体4の操作がユーザの操作する送信機(いわゆるプロポ)により行われたり、移動体4のカメラにより取得した画像データが移動体4に接続される補助記憶装置(例えばSDカードなどのメモリカード及び/又はUSBメモリなど)に記憶され、ユーザにより事後的に補助記憶装置からユーザ端末2及び/又は管理サーバ1に読み出されて記憶されたりする構成であってもよく、操作目的または画像データの記憶目的のいずれか一方の目的のためだけに移動体4がネットワークNWに接続されていてもよい。
<System Configuration>
As shown in FIG. 1, the information processing system of this embodiment may have a
<管理サーバ1>
図2は、管理サーバ1のハードウェア構成を示す図である。なお、図示された構成は一例であり、管理サーバ1は、これ以外の構成を有していてもよい。
<
Fig. 2 is a diagram showing a hardware configuration of the
管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。管理サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。
The
プロセッサ10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。
The processor 10 is a computing device that controls the operation of the
メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリ、HDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。
Memory 11 includes a main memory configured with a volatile storage device such as DRAM (Dynamic Random Access Memory) and an auxiliary memory configured with a non-volatile storage device such as a flash memory or HDD (Hard Disc Drive). Memory 11 is used as a work area for processor 10, and also stores BIOS (Basic Input/Output System) that is executed when
ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。例えば、後述の記憶部120がストレージ12の記憶領域の一部に設けられていてもよい。 Storage 12 stores various programs such as application programs. A database that stores data used for each process may be constructed in storage 12. For example, storage unit 120, which will be described later, may be provided in a part of the storage area of storage 12.
送受信部13は、管理サーバ1が通信ネットワークを介してユーザ端末2及び移動体4等と通信を行うための通信インターフェースである。送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェース及び/又はUSB(Universal Serial Bus)端子等をさらに備えていてもよい。
The transmission/reception unit 13 is a communication interface that allows the
入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input/output unit 14 includes information input devices such as a keyboard and mouse, and output devices such as a display.
バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 Bus 15 is commonly connected to each of the above elements and transmits, for example, address signals, data signals, and various control signals.
<ユーザ端末2>
図3に示されるユーザ端末2もまた、プロセッサ20、メモリ21、ストレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。ユーザ端末2は、例えば、送信機などのプロポであってもよいし、ワークステーション及びパーソナルコンピュータのような汎用コンピュータとしてもよいし、スマートフォン、タブレット端末などのモバイル端末であってもよい。ユーザ端末2の各要素の機能は、上述した管理サーバ1と同様に構成することが可能であり、ユーザ端末2の各要素の詳細な説明は省略する。
<
The
<移動体4>
図4は、移動体4のハードウェア構成を示すブロック図である。フライトコントローラ41は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有していてもよい。
<
4 is a block diagram showing a hardware configuration of the moving
また、フライトコントローラ41は、メモリ411を有していてもよく、当該メモリにアクセス可能である。メモリ411は、1つ以上のステップを行うためにフライトコントローラが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。また、フライトコントローラ41は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)等のセンサ類412を含んでいてもよい。 The flight controller 41 may also have or have access to memory 411. The memory 411 stores logic, code, and/or program instructions that the flight controller can execute to perform one or more steps. The flight controller 41 may also include sensors 412, such as inertial sensors (accelerometers, gyro sensors), GPS sensors, and proximity sensors (e.g., lidar).
メモリ411は、例えば、SDカード及びランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ/センサ類42から取得したデータは、メモリ411に直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録されてもよいが、これに限らず、カメラ/センサ42または内蔵メモリからネットワークNWを介して、少なくとも管理サーバ1やユーザ端末2のいずれかに1つに記録されてもよい。カメラ42は移動体4にジンバル43を介して設置される。
The memory 411 may include, for example, a separable medium such as an SD card and random access memory (RAM) or an external storage device. Data acquired from the cameras/sensors 42 may be directly transmitted to and stored in the memory 411. For example, still image/video data captured by a camera or the like may be recorded in an internal memory or an external memory, but is not limited to this, and may be recorded in at least one of the
フライトコントローラ41は、移動体4の状態を制御するように構成された図示しない制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θx、θy及びθz)を有する飛行体の空間的配置、速度、および/または加速度を調整するために、ESC44(Electric Speed Controller)を経由して飛行体の推進機構(モータ45等)を制御する。バッテリー48から給電されるモータ45によりプロペラ46が回転することで飛行体の揚力を生じさせる。フライトコントローラ41の制御モジュールは、カメラ42の駆動、撮影条件(例えば、シャープネス、ピント(焦点距離)、エクスポージャー値、シャッタースピード、ISO感度、レンズ絞りなど)を制御する機能を有していてもよい。また、制御モジュールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。
The flight controller 41 includes a control module (not shown) configured to control the state of the moving
フライトコントローラ41は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)49、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部47と通信可能である。送受信機49は、有線通信または無線通信などの任意の適当な通信手段を使用してもよい。
The flight controller 41 can communicate with a
例えば、送受信部47は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用してもよい。
For example, the
送受信部47は、カメラ/センサ類42で取得したデータ、フライトコントローラ41が生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。
The transmitter/
カメラ/センサ類42は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含んでいてもよい。 The cameras/sensors 42 may include inertial sensors (accelerometers, gyro sensors), GPS sensors, proximity sensors (e.g., lidar), or vision/image sensors (e.g., cameras).
<管理サーバ1の機能>
図5は、管理サーバ1に実装される機能を例示したブロック図である。本実施形態においては、管理サーバ1は、仮想空間生成部101、画像情報取得部102、撮影対象特定部103、画像情報書込み部104、及び、表示制御部105、を備えていてもよい。また、管理サーバ1の記憶部120は、3次元データ記憶部121、撮影画像データ記憶部122、及び、移動情報記憶部123などの各種データベースを含んでいてもよい。
<Functions of
5 is a block diagram illustrating functions implemented in the
まず、記憶部120の各種データベースについて詳述する。3次元データ記憶部121は、構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶する。部分モデル情報及び構造物モデル情報などの3次元モデルデータのデータ形式は、必ずしも限定されず、例えば、3次元モデルデータは、BIM(Building Information Modeling)データ、CIM(Construction Information Modeling)データ、CADデータ、もしくは、City―GML等のGMLデータなどで構築されていてもよく、これらのデータ形式のうちから選択される2種以上のデータ形式で構築されていてもよい。3次元モデルデータは、上記のようなデータ形式のなかでも、特に、3次元形状を示す情報だけでなく属性情報も含むBIMデータ、及び/又は、CIMデータで構築されていることが好ましい。つまり、部分モデル情報、及び、構造物モデル情報は、いずれも、それぞれの対象物体の3次元形状を示す3次元形状モデル(3次元ジオメトリ)と、当該対象物体の属性情報と、を含んでいてもよい。
First, various databases of the storage unit 120 will be described in detail. The three-dimensional
部分モデル情報が示す「構造物の一部」とは、構造物に含まれる「部材」、又は、複数の部材から構成されるまとまりある「部位」であってもよい。換言すると、各部分モデル情報が示す構造物の一部は、構造物の3次元モデルを細分化した際に単離される小単位モデルに対応する部分であり、当該部分は、点検項目に応じて構造物を細分化することで設定されていてもよい。 The "part of the structure" indicated by the partial model information may be a "component" included in the structure, or a cohesive "part" composed of multiple components. In other words, the part of the structure indicated by each piece of partial model information is a part that corresponds to a small unit model that is isolated when the three-dimensional model of the structure is subdivided, and the part may be set by subdividing the structure according to the inspection item.
本実施形態で例示する橋梁の場合、3次元データ記憶部121は、橋梁に含まれる部材ごとに、各部材に対応する部分モデル情報を記憶していてもよい。橋梁の部材としては、例えば、床版、主桁、横桁、縦桁、上弦材、下弦材、斜材、垂直材、支承、橋脚、ガセット、地覆、防護柵などが挙げられる。橋梁には、形状が一致する同一種類の部材が複数含まれるが、このような同一種類の部材であっても、それぞれ異なる位置に配置される。そのため、橋梁に含まれる同一種類の部材に対しては、それぞれの配置ごとに対応する部分モデル情報が生成され、3次元データ記憶部121に格納される。
In the case of a bridge as exemplified in this embodiment, the three-dimensional
上記のような各部分モデル情報は、対象の部材の3次元形状を示す部分形状モデルと、当該部材の属性情報とを含み、部分モデル情報の属性情報には、例えば、部材の名称、及び、橋梁において部材が配置された区画を特定する区画情報が含まれる。区画は、構造物を部材よりも粗いまとまりで区分けした領域(例えば、構造物の階層、部屋、棟など)であり、橋梁における区画は、例えば、支間、径間、主桁の連結間隔などのように周期的な所定の間隔で区切られた領域であってもよい。なお、同一の区画内に同一種類の部材が複数含まれるような場合には、部分モデル情報の属性情報は、各部材を一意に特定するための番号などの識別情報を含んでいてもよい。また、部分モデル情報は、上記の情報の他にも、部材の配置を示す情報(例えば、実空間及び/又は仮想空間における部材の位置を示す3次元座標)、部材の材質、色、寸法、品番、性能などの部材の仕様に関わる情報、隣接する他の部材との関連性を示す情報(例えば、対象部材が、どの部材と、どの位置で、どのように連結されるかを示す情報など)、部材の価格、調達先などの調達履歴に関する情報などを含んでいてもよい。 Each piece of partial model information as described above includes a partial shape model showing the three-dimensional shape of the target component and attribute information of the component, and the attribute information of the partial model information includes, for example, the name of the component and partition information that identifies the partition in which the component is located on the bridge. A partition is an area that divides a structure into areas that are coarser than the components (e.g., a floor, room, or building of a structure), and a partition on a bridge may be an area separated by a periodic, predetermined interval, such as a span, a span, or the connection interval of a main girder. Note that when multiple components of the same type are included in the same partition, the attribute information of the partial model information may include identification information such as a number for uniquely identifying each component. In addition to the above information, the partial model information may also include information indicating the arrangement of components (e.g., three-dimensional coordinates indicating the position of the component in real space and/or virtual space), information related to the component specifications such as the material, color, dimensions, product number, and performance of the component, information indicating the relationship with other adjacent components (e.g., information indicating which component the target component is connected to, at what position, and how), information related to the procurement history such as the price of the component, and the source of procurement.
構造物モデル情報は、部分形状モデルを組み合わせて構築される橋梁の3次元形状モデルと、当該3次元形状モデルに紐づく属性情報とを含んでいてもよい。構造物モデル情報の属性情報には、例えば、部材を組み合わせた状態での橋梁の寸法、特性(例えば、設計仕様など)、橋梁の位置情報(例えば、橋梁の外表面上に設定される複数の代表点の3次元座標など)、などが含まれていてもよい。また構造物モデル情報には、その他にも、橋梁に設置する附属物(道路標識、照明など)に関する情報、隣接する部材同士の関連性に関する情報(例えば、どの主桁と、どの横桁とがどの位置で連結されるかなど)、橋梁の周辺環境に関する情報(例えば、橋梁と繋がる道路に関連する情報、周辺設備との位置関係を示す情報など)、3次元形状モデルを配置する仮想空間に関する情報(例えば、ユーザ操作により指定された基準座標、3次元座標系で規定される空間領域の設定、仮想空間の縮尺など)、施工履歴に関する情報などが含まれていてもよい。 The structure model information may include a three-dimensional shape model of the bridge constructed by combining partial shape models, and attribute information associated with the three-dimensional shape model. The attribute information of the structure model information may include, for example, the dimensions and characteristics (e.g., design specifications, etc.) of the bridge when the components are combined, and the position information of the bridge (e.g., three-dimensional coordinates of multiple representative points set on the outer surface of the bridge). The structure model information may also include information on accessories (road signs, lighting, etc.) installed on the bridge, information on the relationship between adjacent components (e.g., which main girder and which cross girder are connected at which position, etc.), information on the surrounding environment of the bridge (e.g., information related to the roads connecting the bridge, information indicating the positional relationship with surrounding facilities, etc.), information on the virtual space in which the three-dimensional shape model is placed (e.g., reference coordinates specified by user operation, settings of spatial areas defined in a three-dimensional coordinate system, scale of the virtual space, etc.), and information on the construction history.
なお、上記で示した部分モデル情報及び構造物モデル情報は、あくまでも例示であり、各モデル情報には、設計から施工、維持管理に至るまでのサイクル全体で蓄積された情報が対応付けられていてもよい。後述の仮想空間生成部101は、3次元データ記憶部121に記憶されている部分モデル情報、構造物モデル情報などを読み出し、これらの情報に基づいて仮想空間を生成する。
Note that the partial model information and structure model information shown above are merely examples, and each piece of model information may be associated with information accumulated throughout the entire cycle from design to construction and maintenance. The virtual space generation unit 101, which will be described later, reads out the partial model information, structure model information, etc. stored in the three-dimensional
撮影画像データ記憶部122は、移動体4のカメラ/センサ類42によって構造物を撮影することで取得され、移動体4から管理サーバ1に送信された撮影画像データを記憶する。カメラ/センサ類42の撮影により取得される撮影画像データは、構造物の少なくとも一部を写し出した撮影画像と、当該撮影画像に関連付けられた撮影条件情報と、を含む。
The photographed image data storage unit 122 stores photographed image data that is acquired by photographing a structure with the camera/sensors 42 of the
撮影条件情報には、例えば、画像を撮影した時点におけるカメラ42の実空間における実撮影位置、画像を撮影した時点におけるカメラ42の光学中心軸が向く実空間における方向である実撮影方向などが含まれる。実撮影位置は、実空間の3次元座標系で表現される位置である。GNSSセンサなどを利用して実撮影位置を取得する場合、実撮影位置は、緯度、経度、絶対高度の3次元座標で表されてもよく、慣性センサ(加速度センサ、ジャイロセンサ)等を利用して非GNSS環境で実撮影位置を取得する場合、実撮影位置は、移動体4の移動開始位置(撮影作業開始位置)を基準位置(原点)とする相対的な3次元座標で表されてもよい。実撮影方向は、例えば、撮影時の機体の向き、ジンバルの向きなどに基づいて特定されてもよい。また、撮影条件情報には、上記の他に、撮影時のカメラ42の焦点距離、画角、ズーム比、露光量、ISO感度、撮影日時などを示す情報が含まれていてもよい。これら撮影条件情報は、撮影画像に付随されたメタデータであってもよく、Exif情報として保存されていてもよい。 The shooting condition information includes, for example, the actual shooting position of the camera 42 in the real space at the time when the image was captured, and the actual shooting direction, which is the direction in the real space to which the optical center axis of the camera 42 faces at the time when the image was captured. The actual shooting position is a position expressed in a three-dimensional coordinate system in the real space. When the actual shooting position is acquired using a GNSS sensor or the like, the actual shooting position may be expressed in three-dimensional coordinates of latitude, longitude, and absolute altitude, and when the actual shooting position is acquired in a non-GNSS environment using an inertial sensor (acceleration sensor, gyro sensor), the actual shooting position may be expressed in relative three-dimensional coordinates with the movement start position of the moving body 4 (shooting operation start position) as the reference position (origin). The actual shooting direction may be specified, for example, based on the orientation of the aircraft at the time of shooting, the orientation of the gimbal, etc. In addition to the above, the shooting condition information may also include information indicating the focal length, angle of view, zoom ratio, exposure amount, ISO sensitivity, shooting date and time, etc. of the camera 42 at the time of shooting. This shooting condition information may be metadata attached to the captured image, or may be saved as Exif information.
撮影画像データ記憶部122に格納される各撮影画像データには、後述の撮影対象特定部103により特定されて画像情報書込み部104により紐づけられた、撮影対象位置(キャプチャーポイント)に存在する撮影対象物を示す情報が付随情報として関連付けられていてもよい。撮影対象物を示す情報には、例えば、主の被写体である対象部材を一意に特定する識別情報が含まれてもよく、対象部材の名称、対象部材が配置されている区画を示す区画情報などが含まれていてもよい。また、撮影画像データに関連付けられる付随情報には、主の被写体である撮影対象物を示す情報の他に、撮影範囲に写り込んでいるその他の部材を示す情報が含まれていてもよい。 Each captured image data stored in the captured image data storage unit 122 may be associated with information indicating the subject of the image capture at the capture point, which is identified by the subject of the image capture unit 103 described below and linked by the image information writing unit 104. The information indicating the subject of the image capture may include, for example, identification information that uniquely identifies the subject member that is the main subject, and may include the name of the subject member and section information indicating the section in which the subject member is located. Furthermore, the associated information associated with the captured image data may include, in addition to information indicating the subject of the image capture as the main subject, information indicating other members captured in the capture range.
移動情報記憶部123は、例えば、構造物における各種撮影対象物(例えば、橋梁に含まれる各部材)の撮影等を目的とする移動において用いられる移動情報を記憶している。移動情報は、移動を実行させるための指示情報であって、例えば、移動経路情報(ウェイポイント情報を含む)、移動速度、飛行高度、撮像条件(撮影方向、撮像画角、撮像焦点距離、撮像画像のオーバーラップ率など)、などを含んでいてもよい。また、移動情報記憶部123は、移動の実行によって実績として取得される移動時取得情報を記憶していてもよい。移動時取得情報としては、実際の移動経路、移動速度、飛行高度、撮影画像及び当該撮影画像に関連付けられた撮影条件情報などが含まれていてもよい。
The movement
指示情報としての移動情報は、例えば、移動情報に含まれる各種情報のパラメータを管理サーバ1又はユーザ端末2上で設定することにより生成されてもよい。なお、移動経路としては、例えば、移動体格納装置の位置を移動開始位置及び移動終了位置として、各ウェイポイントを通過する移動経路を生成するようにしてもよいし、逆に移動体格納装置を有さずに、ユーザにより移動体4を持ち運びされた位置を移動開始位置(いわゆるホームポイント)としたり、移動終了位置(ホームポイントに戻ってもよい)においてユーザが移動体4を回収したりする構成などでもよいし、管理サーバ1により管理された移動体格納装置の情報(例えば、位置情報や格納状態情報、格納機情報など)を基に、移動開始位置または移動終了位置として選択された移動体格納装置の位置も含めた移動経路として生成される構成でもよい。
The movement information as the instruction information may be generated, for example, by setting the parameters of various information included in the movement information on the
次に、プロセッサ10の各機能部について詳述する。 Next, each functional part of the processor 10 will be described in detail.
仮想空間生成部101は、構造物モデル情報に基づき、構造物の3次元形状モデルを配置した仮想空間を生成する。図7の(b)が、生成される仮想空間を模擬的に例示する図であり、当該仮想空間に橋梁の3次元形状モデルである橋梁モデル60が配置されている。なお、図7(b)に示す橋梁モデル60は、主桁の連結間隔に応じて定められた区画(J21-J26)を有しており、各区画に複数の部分形状モデル(例えば、図7(a)の部材61-66に対応する部分形状モデルなど)が含まれている。仮想空間の生成に際しては、各部分モデル情報も参酌され、部分形状モデルの組み合わせにより構造物の3次元形状モデルが構築されてもよい。仮想空間に配置される構造物の3次元形状モデルでは、各部分モデル情報に対応する部分(例えば、橋梁の各部材)が、色分けされるなどして、識別可能な様態で表示されてもよい。
The virtual space generating unit 101 generates a virtual space in which a three-dimensional shape model of a structure is arranged based on the structure model information. FIG. 7B is a diagram showing an example of the generated virtual space, in which a
仮想空間生成部101は、仮想空間を生成する際に、実空間の3次元座標系と仮想空間の3次元座標系とを対応付けることにより、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築する処理を実行してもよい。一例として、仮想空間生成部101は、実空間の3次元座標系における基準位置(例えば、移動体4の移動開始位置)と、その位置に対応する仮想空間の3次元座標系における基準位置55(図7(b)の符号55)とを位置合わせして対応付けることにより、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築する。これにより、仮想空間生成部101は、実空間内で飛行する移動体4の実空間の3次元座標系における位置を、仮想空間内の仮想移動体57(実空間の移動体4に対応する仮想物体)の3次元座標系における位置に変換して表現することが可能である。なお、仮想空間における3次元形状モデルの縮尺が実空間における対応する構造物の縮尺と異なる場合は、位置合わせに伴って3次元形状モデルの縮尺を調整してもよい。
When generating the virtual space, the virtual space generation unit 101 may execute a process of constructing a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space by associating the three-dimensional coordinate system of the real space with the three-dimensional coordinate system of the virtual space. As an example, the virtual space generation unit 101 aligns and associates a reference position in the three-dimensional coordinate system of the real space (e.g., the start position of the movement of the moving body 4) with a reference position 55 (
上記のように、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築することにより、例えばユーザ端末2上に表示される仮想空間の3次元座標系をベースにウェイポイントを設定した場合においても、実空間の移動体4の3次元座標系に基づく移動経路生成などの位置指定が可能となる。3次元モデルデータが寸法情報を備える場合には、仮想空間の3次元座標系を基準として、例えば10m真っすぐ進んで右に曲がる、といったような現実の縮尺を用いた移動経路生成が可能となる。
As described above, by constructing a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space, it becomes possible to specify a position, such as generating a movement path based on the three-dimensional coordinate system of the moving
仮想空間生成部101は、生成した仮想空間を示す表示画面を生成し、ユーザ端末2に送信する処理を実行してもよい。ユーザ端末2の表示画面では、ユーザの操作に応じて、仮想空間に配置された3次元形状モデル(橋梁モデル60)の拡大、縮小、回転などが可能であってもよく、仮想空間生成部101は、ユーザ操作に応じた仮想空間の画像をレンダリングして、ユーザ端末2へ出力する。また、仮想空間生成部101は、仮想空間を表示させたユーザ端末2の表示画面を介して、構造物の3次元形状モデル(橋梁モデル60)の一部をクリックするなどのユーザによる選択操作を受け付け、選択された部分(部材)に対応する部分形状モデルを強調表示(例、協調的な色合いで表示する、選択された部分形状モデルのみを拡大表示するなど)させたり、当該部分形状モデルに紐づく属性情報を表示させたりする処理を実行してもよい。
The virtual space generation unit 101 may generate a display screen showing the generated virtual space and execute a process of transmitting the display screen to the
画像情報取得部102は、カメラ42で実空間を撮影することで取得された撮影画像と、当該撮影画像に関連付けられた撮影条件情報と、を取得する。画像情報取得部102によって取得された撮影画像及び撮影条件情報は、後述の撮影対象特定部103による撮影対象モデルの特定処理において、入力情報として用いられる。画像情報取得部102は、撮影条件情報として、例えば、実撮影位置、及び、実撮影方向を取得し、その他、カメラ42で撮影画像を撮影した際の焦点距離及び画角を占める情報などを取得してもよい。 The image information acquisition unit 102 acquires a captured image acquired by capturing an image of a real space with the camera 42, and capturing condition information associated with the captured image. The captured image and capturing condition information acquired by the image information acquisition unit 102 are used as input information in the process of identifying a capture target model by the capture target identification unit 103 described below. The image information acquisition unit 102 acquires, for example, the actual capture position and the actual capture direction as the capture condition information, and may also acquire other information such as the focal length and angle of view when the capture image was captured by the camera 42.
なお、画像情報取得部102が、撮影画像及び撮影条件情報を取得するタイミングは、特に限定されない。例えば、画像情報取得部102は、移動体4が撮影を実行したタイミングで、移動体4からリアルタイムで撮影画像及び撮影条件情報を受信してもよい。また、移動体4による撮影作業の実行中、又は、撮影作業完了後の任意のタイミングで、ユーザによる指示に基づいて、撮影画像及び撮影条件情報を取り込む処理を実行してもよい。
The timing at which the image information acquisition unit 102 acquires the captured image and the shooting condition information is not particularly limited. For example, the image information acquisition unit 102 may receive the captured image and the shooting condition information in real time from the moving
撮影対象特定部103は、仮想空間に配置した構造物の3次元形状モデルに含まれる部分形状モデルのうちから、撮影条件情報に基づいて、撮影画像に写し出された撮影対象モデルを特定する処理を実行する。図7は、撮影対象特定部103が実行する撮影対象モデルの特定処理を説明するための図であり、(a)に示す撮影画像50に写し出された撮影対象の部材62を、(b)に示すような仮想空間上で特定する様子を示している。撮影対象特定部103は、例えば、撮影画像50を撮影した際のカメラ42の画角の中心位置に基づき、仮想空間内の撮影対象位置に存在する撮影対象モデルを特定してもよい。
The imaging subject identification unit 103 executes a process of identifying the imaging subject model displayed in the captured image from among the partial shape models included in the three-dimensional shape model of the structure placed in the virtual space, based on the imaging condition information. Figure 7 is a diagram for explaining the imaging subject model identification process executed by the imaging subject identification unit 103, and shows how the
具体的に、撮影対象特定部103は、画像情報取得部102によって取得された撮影条件情報のうち、実撮影位置及び実撮影方向を示す情報に基づいて、カメラ42の実撮影方向に対応する仮想空間における仮想撮影方向を求める。仮想撮影方向は、カメラ42の実撮影位置に対応する仮想空間における仮想撮影位置から、カメラ42の実撮影方向に対応する仮想撮影方向に延びる仮想的な直線で表現され得る。なお、仮想撮影位置は、実空間の3次元座標系と仮想空間の3次元座標系との相関関係に基づいて特定でき、仮想撮影方向は、カメラ42の画角の中心位置に対応する。撮影対象特定部103は、仮想空間において、実撮影位置に対応する仮想撮影位置(図7(b)における仮想移動体57の位置)から、実撮影方向に対応する仮想撮影方向に延びる仮想的な直線(図7(b)において一点鎖線で示す矢印)を求め、当該仮想的な直線と交差する部分形状モデルを撮影対象モデルとして特定する。図7(b)では、撮影画像50の撮影範囲に含まれる部材(例えば部材61-66)のうち、区画J24内に配置されている部材62(図7(a)においてグレーで示す部材「名称:照明設置用拡幅部(Lighting Widening Section)」)の3次元形状モデルが、一点鎖線の矢印と交差しており、撮影対象モデルとして特定されている。
Specifically, the shooting target identification unit 103 obtains a virtual shooting direction in the virtual space corresponding to the real shooting direction of the camera 42 based on information indicating the real shooting position and the real shooting direction among the shooting condition information acquired by the image information acquisition unit 102. The virtual shooting direction can be expressed as a virtual straight line extending from the virtual shooting position in the virtual space corresponding to the real shooting position of the camera 42 to the virtual shooting direction corresponding to the real shooting direction of the camera 42. The virtual shooting position can be specified based on the correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space, and the virtual shooting direction corresponds to the center position of the angle of view of the camera 42. The shooting target identification unit 103 obtains a virtual straight line (arrow indicated by a dashed line in FIG. 7B) extending from the virtual shooting position (position of the virtual moving
なお、撮影画像50の撮影範囲に含まれる部材であっても、仮想撮影方向に延びる仮想的な直線と交差しない部材(例えば、部材61,63-66など)については、後述の画像情報書込み部104が実行する処理において、対象外の部材として取り扱ってもよい。もしくは、仮想的な直線と交差する部分形状モデル(部材62)を主対象モデルとし、撮影範囲内に含まれるが仮想的な直線とは交差しない部分形状モデル(部材61,63-66など)を副対象モデルとして特定してもよい。
Note that even if a component is included in the shooting range of the captured
後者の場合には、撮影対象特定部103は、例えば、撮影条件情報であるカメラ42の画角情報及び焦点距離情報と、仮想撮影位置から撮影対象位置までの仮想距離を示す仮想距離情報とに基づき、実空間における実撮影範囲に対応する仮想撮影範囲を算出することで、上記のような副対象モデルを特定してもよい。具体的には、画角情報、焦点距離情報、及び仮想距離情報に基づいて、仮想空間における視錐台の「near plane」および「far plane」を特定し、「near plane」から「far plane」までの範囲を、仮想撮影範囲として算出する。そして、当該仮想撮影範囲に含まれる部分形状モデル(ただし、カメラ42の死角に入って画像に写し出されない部材を除く)を特定する。撮影対象特定部103は、仮想撮影範囲に含まれる部分形状モデルのうちから、仮想的な直線と交差する部分形状モデル(主対象モデル)を特定するとともに、仮想的な直線と交差しなかった他の部分形状モデルを副対象モデルとして特定する。 In the latter case, the shooting target identification unit 103 may identify the secondary target model by calculating a virtual shooting range corresponding to the real shooting range in the real space based on, for example, the angle of view information and focal length information of the camera 42, which are shooting condition information, and virtual distance information indicating the virtual distance from the virtual shooting position to the shooting target position. Specifically, based on the angle of view information, focal length information, and virtual distance information, the "near plane" and "far plane" of the view frustum in the virtual space are identified, and the range from the "near plane" to the "far plane" is calculated as the virtual shooting range. Then, the shooting target identification unit 103 identifies the partial shape model included in the virtual shooting range (excluding the member that is in the blind spot of the camera 42 and is not shown in the image). The shooting target identification unit 103 identifies the partial shape model (main target model) that intersects with the virtual straight line from the partial shape models included in the virtual shooting range, and identifies the other partial shape models that do not intersect with the virtual straight line as secondary target models.
画像情報書込み部104は、撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、撮影画像に紐づける処理を実行する。撮影画像に紐づける属性情報としては、撮影対象モデルを一意に特定するための識別情報であってもよく、例えば、画像情報書込み部104は、撮影対象モデルに関連付けられている属性情報のうちの、部材の名称、及び/又は、区画情報(構造物(橋梁)において部材が配置されている区画を示す情報)を、撮影画像に紐づけてもよい。 The image information writing unit 104 executes a process of linking attribute information associated with the partial shape model identified as the photographed object model to the photographed image. The attribute information linked to the photographed image may be identification information for uniquely identifying the photographed object model. For example, the image information writing unit 104 may link the name of the component and/or the section information (information indicating the section in which the component is located in the structure (bridge)) from the attribute information associated with the photographed object model to the photographed image.
また、画像情報書込み部104が実行する、属性情報を撮影画像に「紐づける処理」とは、例えば、部材の名称、及び/又は、区画情報などの属性情報を、撮影画像の附属情報に書き込んで、当該附属情報を含む撮影画像データを撮影画像データ記憶部122に記憶させる(格納する)処理であってもよい。附属情報のファイル形式(データ形式)は特に限定されず、画像情報書込み部104は、撮影対象モデルの属性情報を、撮影画像のExif情報(付随情報の一例)に書き込む処理を実行してもよい。図7に示す例の場合には、画像情報書込み部104は、撮影対象モデルとして特定された部材62の名称「Lighting Widening Section」と、当該部材62が配置されている区画の番号「J24」とを、撮影対象物(キャプチャーポイント)を示す情報として撮影画像の附属情報に書き込む処理を実行する。
The process of "linking" attribute information to a captured image performed by the image information writing unit 104 may be, for example, a process of writing attribute information such as the name of a component and/or section information into the auxiliary information of the captured image and storing (storing) the captured image data including the auxiliary information in the captured image data storage unit 122. The file format (data format) of the auxiliary information is not particularly limited, and the image information writing unit 104 may execute a process of writing attribute information of the captured subject model into the Exif information (an example of auxiliary information) of the captured image. In the case of the example shown in FIG. 7, the image information writing unit 104 executes a process of writing the name of the
撮影対象特定部103により撮影範囲内に含まれる副対象モデルが特定された場合、画像情報書込み部104は、副対象モデルの属性情報を撮影画像の附属情報に書き込む処理を実行してもよい。この際、副対象モデルの属性情報は、主対象物(撮影対象物)以外のその他の写り込み部材を示す情報として、附属情報に書き込まれてもよい。 When the shooting subject identification unit 103 identifies a secondary object model included within the shooting range, the image information writing unit 104 may execute a process of writing attribute information of the secondary object model to the auxiliary information of the captured image. At this time, the attribute information of the secondary object model may be written to the auxiliary information as information indicating other reflected parts other than the main object (photographed object).
表示制御部105は、ユーザの要求に基づいて、撮影画像データ記憶部122に格納されている所定の撮影画像を読み出し、ユーザ端末2の表示画面に出力する処理を実行する。例えば、表示制御部105は、ユーザ端末2を介してユーザによる画像の出力要求を受け付け、当該要求に応じた撮影画像を出力してもよい。表示制御部105は、画像の出力要求の受け付けに際して、撮影日時、対象部材、対象区画などの出力条件の指定を受け付けて、各撮影画像データの付随情報を参照して指定された出力条件に対応する撮影画像を特定してもよい。複数の撮影画像がユーザに指定された出力条件を満たす場合には、表示制御部105は、出力条件を満たす当該複数の撮影画像の一覧(画像リスト)を出力してもよい。表示制御部105がユーザに指定された撮影画像(単一の画像又は画像リスト)をユーザ端末2に表示させる際には、撮影画像と、画像情報書込み部104によって付随情報に書き込まれた撮影対象物を特定する情報(例えば、撮影対象物である部材の名称、当該部材が配置されている区画を示す区画情報など)とを並べて表示させてもよい。
The display control unit 105 executes a process of reading out a specific captured image stored in the captured image data storage unit 122 based on a user's request and outputting it to the display screen of the
表示制御部105は、上記のような撮影画像の検索処理に加えて、もしくは、代えて、撮影画像の一覧からユーザに指定された出力条件に見合う撮影画像を絞り込むフィルタリング処理、ユーザに指定されたソート条件に基づいて撮影画像の並びを替えてリストを出力するソート処理などを実行してもよい。この場合においても、表示制御部105は、フィルタリング条件(絞り込み条件)又はソート条件として、ユーザが所望する撮影日時、対象部材、対象区画など条件項目の指定を受け付ける。 In addition to or instead of the above-described search process for captured images, the display control unit 105 may perform a filtering process for narrowing down the list of captured images to those that meet the output conditions specified by the user, and a sorting process for rearranging the captured images based on the sorting conditions specified by the user and outputting the list. Even in this case, the display control unit 105 accepts the specification of condition items such as the capture date and time, target material, and target section desired by the user as filtering conditions (narrowing conditions) or sorting conditions.
撮影画像を出力するための条件(検索条件、フィルタリング条件、ソート条件)は、テキスト形式で入力されてもよいし、プルダウンリストなどの所定の選択式フォームを介して入力されてもよい。また、表示制御部105は、構造物の3次元形状モデルをユーザ端末2に表示するUI(ユーザインターフェース)を介して、ユーザによる対象部材の指定を受け付けてもよい。具体的に、表示制御部105は、構造物の3次元形状モデルが表示されたUI上で、3次元形状モデルに含まれるいずれか一の部材又は区画の指定(例えば、所望の部分形状モデル又は区画をクリックして選択するなど)を受け付けてもよい。そして、表示制御部105は、撮影画像データ記憶部122に格納されている各撮影画像データの附属情報を参照して、指定された部材又は区画が付随情報に書き込まれている撮影画像を特定する。この場合、表示制御部105は、3次元形状モデルを表示する画面から撮影画像を表示する画面に切り替えて、特定した撮影画像(単一の画像又は画像リスト)を出力してもよいし、ユーザ端末2の表示画面上に、3次元形状モデルと、特定した撮影画像と、を並べて表示させてもよい。
The conditions (search conditions, filtering conditions, sorting conditions) for outputting the captured images may be input in text format or through a predetermined selection form such as a pull-down list. The display control unit 105 may also accept the user's designation of the target member through a UI (user interface) that displays the three-dimensional shape model of the structure on the
なお、上記のような表示制御部105の機能は、ユーザ端末2のプロセッサ20により実行されてもよい。また、プロセッサ10は、図5で例示されていないその他の機能部を有していてもよい。例えば、プロセッサ10は、移動情報記憶部123に記憶された各種移動情報に基づき、構造物内外の各種撮影対象物の実画像の撮影等を目的とする移動体4の移動を制御する機能部を有していてもよい。
The functions of the display control unit 105 as described above may be executed by the processor 20 of the
<情報処理方法の一例>
続いて、図8を参照して、本実施形態に係わる情報処理システムによる情報処理方法(撮影画像データの管理に関わる情報処理方法)について説明する。図8は、本実施形態に係わる情報処理方法を例示するフローチャートである。
<Example of information processing method>
Next, an information processing method (information processing method relating to management of captured image data) by the information processing system according to the present embodiment will be described with reference to Fig. 8. Fig. 8 is a flowchart illustrating the information processing method according to the present embodiment.
まず、情報処理システムにおける仮想空間生成部101は、3次元データ記憶部121に記憶されている構造物モデル情報(及び部分モデル情報)を読み出す(図8のステップSQ101)。そして、仮想空間生成部101は、読み出した構造物モデル情報に基づき、部分形状モデルを組み合わせて構築される構造物の3次元形状モデルが配置された仮想空間を生成する(ステップSQ102)。このステップSQ102において仮想空間を生成する際に、仮想空間生成部101は、実空間の3次元座標系と仮想空間の3次元座標系とを対応付けることにより、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築する処理を実行してもよい。 First, the virtual space generation unit 101 in the information processing system reads out the structure model information (and partial model information) stored in the three-dimensional data storage unit 121 (step SQ101 in FIG. 8). Then, based on the read out structure model information, the virtual space generation unit 101 generates a virtual space in which a three-dimensional shape model of a structure constructed by combining partial shape models is placed (step SQ102). When generating the virtual space in this step SQ102, the virtual space generation unit 101 may execute a process of constructing a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space by associating the three-dimensional coordinate system of the real space with the three-dimensional coordinate system of the virtual space.
次に、画像情報取得部102は、移動体4のカメラ42によって撮影され移動体4から管理サーバ1に送信された撮影画像、及び、当該撮影画像に関連付けられた撮影条件情報を取得する(ステップSQ103)。この際、画像情報取得部102は、撮影条件情報として、例えば、撮影画像を撮影した際のカメラ42の実空間における実撮影位置、及び、カメラ42の光学中心軸が向く実空間における方向である実撮影方向を示す情報を取得してもよく、その他に、撮影画像を撮影した際のカメラ42の焦点距離を示す情報、画角を示す情報などを取得してもよい。
Next, the image information acquisition unit 102 acquires the captured image captured by the camera 42 of the moving
次に、撮影対象特定部103は、仮想空間に配置した構造物の3次元形状モデルに含まれる部分形状モデルのうちから、撮影条件情報に基づいて、撮影画像に写し出された撮影対象モデルを特定する(ステップSQ104)。例えば、撮影対象特定部103は、実撮影位置及び実撮影方向を示す情報に基づいて、仮想空間において、実撮影位置に対応する仮想撮影位置から、実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、当該仮想的な直線と交差する部分形状モデルを撮影対象モデルとして特定する(例えば図7の(b))。 Next, the shooting target identification unit 103 identifies the shooting target model shown in the captured image from among the partial shape models included in the 3D shape model of the structure placed in the virtual space based on the shooting condition information (step SQ104). For example, based on information indicating the actual shooting position and actual shooting direction, the shooting target identification unit 103 determines a virtual straight line extending in the virtual space from the virtual shooting position corresponding to the actual shooting position to the virtual shooting direction corresponding to the actual shooting direction, and identifies the partial shape model that intersects with the virtual straight line as the shooting target model (for example, (b) of FIG. 7).
その後、画像情報書込み部104は、撮影対象特定部103により撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、撮影画像に紐づける(ステップSQ105)。部分形状モデルに関連付けられている属性情報は、例えば、部材の名称を示す情報、構造物において部材が配置されている区画を示す区画情報などを含んでいてもよい。ステップSQ105において、画像情報書込み部104は、撮影対象モデルに属性情報として紐づけられている、部材の名称、及び、区画情報を、撮影画像の附属情報(例えば、Exif情報)に書き込む処理を実行してもよい。 Then, the image information writing unit 104 links attribute information associated with the partial shape model identified as the photographed object model by the photographed object identification unit 103 to the photographed image (step SQ105). The attribute information associated with the partial shape model may include, for example, information indicating the name of the component, and partition information indicating the partition in which the component is located in the structure. In step SQ105, the image information writing unit 104 may execute a process of writing the name of the component and the partition information linked to the photographed object model as attribute information to the auxiliary information (e.g., Exif information) of the photographed image.
上記のように、本実施形態に係わる情報処理システムでは、構造物の3次元形状モデル上において、当該3次元形状モデルに含まれる部分形状モデルに対応する部材の名称などの属性情報が一元管理されており、仮想空間で特定された撮影対象モデルの属性情報が撮影画像に自動で紐づけられる。つまり、情報処理システムでは、構造物の点検などで撮影画像データを活用する際に、撮影画像に対応付ける情報の誤記録を防止できる。また、上述のとおり撮影画像データに対して画像中の撮影対象を特定する情報を自動で記録することができ、撮影画像データの管理の最適化を図ることができる。これらの効果に基づいて、点検作業の効率化、点検結果の正確性(確実性)の担保などの効果も期待できる。 As described above, in the information processing system according to this embodiment, attribute information such as the names of components corresponding to partial shape models included in the three-dimensional shape model of the structure is centrally managed on the three-dimensional shape model of the structure, and attribute information of the photographed object model identified in the virtual space is automatically linked to the photographed image. In other words, the information processing system can prevent erroneous recording of information associated with the photographed image when using photographed image data for the inspection of a structure, etc. Also, as described above, information identifying the photographed object in the image can be automatically recorded for the photographed image data, and management of the photographed image data can be optimized. Based on these effects, effects such as more efficient inspection work and guaranteed accuracy (certainty) of the inspection results can be expected.
上述した実施形態は、本開示の理解を容易にするための例示に過ぎず、本開示を限定して解釈するためのものではない。本開示は、その趣旨を逸脱することなく、変更、改良することができると共に、本開示にはその均等物が含まれることは言うまでもない。 The above-described embodiments are merely examples to facilitate understanding of the present disclosure, and are not intended to limit the interpretation of the present disclosure. This disclosure can be modified and improved without departing from its spirit, and it goes without saying that this disclosure includes equivalents.
例えば、上記実施形態では、主として、ドローンのような無人移動体を利用して橋梁を点検する事例を挙げて、撮影画像データの管理に関わる情報処理システムについて説明したが、情報処理システムの適用事例は橋梁の点検に限定されない。点検の対象は、トンネル、ダムなどのその他の構造物であってもよいし、点検実行時の撮影は、人が保持するスマートフォン、タブレット端末、その他カメラなどのポータブル端末を利用して実行されてもよいし、有人移動体を利用して実行されてもよい。 For example, in the above embodiment, an information processing system relating to management of captured image data has been described mainly with an example of inspecting a bridge using an unmanned mobile object such as a drone, but application examples of the information processing system are not limited to bridge inspections. The subject of inspection may be other structures such as tunnels and dams, and photographing during inspection may be performed using a portable device such as a smartphone, tablet terminal, or other camera held by a person, or may be performed using a manned mobile object.
また、構造物の撮影に利用する移動体4は、上述したようなカメラ/センサ類42の他に、構造物内部及び/又は外部の所定の事象の有無を点検するために利用される装置、機器等をさらに備えていてもよい。より具体的には、撮像装置(可視光カメラ、赤外線カメラ、金属探知機、超音波測定器等)や、打鍵装置等、探知装置(金属探知機)、集音装置、臭気測定器、ガス検知器、空気汚染測定器、検出装置(宇宙線、放射線、電磁波等を検出するための装置)等の点検対象構造物の状態を知るために必要な装置は全て採用され得る。撮影対象特定部103により特定された撮影対象モデルの属性情報(部材の名称等)は、撮影画像への紐づけと同様に、上記のようなその他の点検装置によって取得された点検データに対して紐づけられてもよい。
In addition, the moving
また、情報処理システムにおける撮影目的は、点検に限定されず、警備、インフラ等の監視、測量、災害対応等であってもよく、これらを目的とする撮影で取得された撮影画像データを対象として、本開示の情報処理システムが適用されてもよい。 In addition, the purpose of photography in the information processing system is not limited to inspection, but may also be security, monitoring of infrastructure, surveying, disaster response, etc., and the information processing system of the present disclosure may be applied to image data acquired by photography for these purposes.
上記実施形態で説明した仮想空間生成部101、画像情報取得部102、撮影対象特定部103、画像情報書込み部104、及び、表示制御部105などの一部又は全部の機能部は、管理サーバ1のプロセッサ10ではなく、ユーザ端末2のプロセッサ20又は移動体4のフライトコントローラー41などにより実行されてもよい。
Some or all of the functional units, such as the virtual space generation unit 101, image information acquisition unit 102, shooting target identification unit 103, image information writing unit 104, and display control unit 105 described in the above embodiment, may be executed by the processor 20 of the
1 管理サーバ
2 ユーザ端末
4 移動体
1
Claims (5)
前記橋梁モデル情報に基づき、前記橋梁の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得する画像情報取得部と、
前記仮想空間に配置した前記橋梁の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定する撮影対象特定部と、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づける画像情報書込み部と、を備え、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記橋梁において周期的な所定の間隔で区切られた区画のうち前記部材が配置されている区画を示す区画情報、を含み、
前記画像情報書込み部は、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込む、情報処理システム。 a three-dimensional data storage unit that stores a plurality of pieces of partial model information for indicating a three-dimensional structure of each member included in a bridge , and bridge model information for indicating a three-dimensional structure of the bridge constructed by integrating the plurality of pieces of partial model information;
a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of the bridge is arranged based on the bridge model information;
an image information acquisition unit that acquires an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
a photographing target specifying unit that specifies a photographing target model shown in the image based on the photographing condition information from among partial shape models included in the three-dimensional shape model of the bridge arranged in the virtual space;
an image information writing unit that links attribute information associated with the partial shape model identified as the photographing target model to the image ,
the attribute information associated with each of the partial shape models includes a name of the component, and section information indicating a section in which the component is located among sections divided at predetermined periodic intervals on the bridge;
An information processing system , wherein the image information writing unit writes the name of the component associated with the partial shape model identified as the model to be photographed, and the partition information, into auxiliary information of the image .
前記撮影対象特定部は、前記実撮影位置及び前記実撮影方向を示す情報に基づいて、前記仮想空間において、前記実撮影位置に対応する仮想撮影位置から、前記実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、当該仮想的な直線と交差する部分形状モデルを前記撮影対象モデルとして特定する、請求項1に記載の情報処理システム。 the image information acquisition unit acquires, as the photographing condition information, information indicating an actual photographing position in real space of the camera when the image was photographed, and an actual photographing direction, which is a direction in real space to which an optical center axis of the camera faces;
2. The information processing system of claim 1, wherein the shooting subject identification unit determines, based on information indicating the actual shooting position and the actual shooting direction, a virtual straight line extending in the virtual space from a virtual shooting position corresponding to the actual shooting position to a virtual shooting direction corresponding to the actual shooting direction, and identifies a partial shape model that intersects with the virtual straight line as the shooting subject model.
前記撮影条件情報に基づいて、前記仮想空間において、実撮影位置に対応する仮想撮影位置から、実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、determining, in the virtual space, a virtual straight line extending from a virtual shooting position corresponding to an actual shooting position to a virtual shooting direction corresponding to an actual shooting direction based on the shooting condition information;
当該仮想的な直線と交差する部分形状モデルを前記撮影対象モデルとして特定するとともに、撮影範囲内に含まれるが仮想的な直線とは交差しない部分形状モデルを副対象モデルとして特定する、請求項1又は2に記載の情報処理システム。The information processing system according to claim 1 or 2, wherein a partial shape model that intersects with the virtual straight line is identified as the photographed object model, and a partial shape model that is included in the photographed range but does not intersect with the virtual straight line is identified as a secondary object model.
前記橋梁モデル情報に基づき、前記橋梁の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記橋梁の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
画像情報書込み部により、前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータが実行し、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記橋梁において周期的な所定の間隔で区切られた区画のうち前記部材が配置されている区画を示す区画情報、を含み、
前記画像情報書込み部は、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込む、情報処理方法。 Storing a plurality of pieces of partial model information for indicating a three-dimensional structure of each member included in the bridge , and bridge model information for indicating a three-dimensional structure of the bridge constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the bridge is arranged based on the bridge model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in the three-dimensional shape model of the bridge arranged in the virtual space;
an image information writing unit links attribute information associated with the partial shape model identified as the photographing target model to the image;
the attribute information associated with each of the partial shape models includes a name of the component, and section information indicating a section in which the component is located among sections divided at predetermined periodic intervals on the bridge;
An information processing method , wherein the image information writing unit writes the name of the component associated with the partial shape model identified as the model to be photographed, and the partition information, into auxiliary information of the image .
前記橋梁モデル情報に基づき、前記橋梁の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記橋梁の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
画像情報書込み部により、前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータに実行させるためのプログラムであり、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記橋梁において周期的な所定の間隔で区切られた区画のうち前記部材が配置されている区画を示す区画情報、を含み、
前記画像情報書込み部により、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込むこと、を前記コンピュータに実行させるためのプログラム。
storing a plurality of pieces of partial model information for indicating a three-dimensional structure of each member included in the bridge , and bridge model information for indicating a three-dimensional structure of the bridge constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the bridge is arranged based on the bridge model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in the three-dimensional shape model of the bridge arranged in the virtual space;
and linking , by an image information writing unit, attribute information associated with the partial shape model identified as the photographing target model to the image ;
the attribute information associated with each of the partial shape models includes a name of the component, and section information indicating a section in which the component is located among sections divided at predetermined periodic intervals on the bridge;
A program for causing the computer to execute the following: the image information writing unit writes the name of the component associated with the partial shape model identified as the model to be photographed, and the partition information, into the auxiliary information of the image .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024193622A JP7696129B1 (en) | 2024-11-05 | 2024-11-05 | Information processing system, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2024193622A JP7696129B1 (en) | 2024-11-05 | 2024-11-05 | Information processing system, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP7696129B1 true JP7696129B1 (en) | 2025-06-20 |
Family
ID=96059582
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024193622A Active JP7696129B1 (en) | 2024-11-05 | 2024-11-05 | Information processing system, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7696129B1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005339127A (en) * | 2004-05-26 | 2005-12-08 | Olympus Corp | Apparatus and method for displaying image information |
| JP2012133471A (en) * | 2010-12-20 | 2012-07-12 | Kokusai Kogyo Co Ltd | Image composer, image composition program and image composition system |
| JP7441579B1 (en) * | 2023-06-07 | 2024-03-01 | 株式会社センシンロボティクス | Information processing system and information processing method |
-
2024
- 2024-11-05 JP JP2024193622A patent/JP7696129B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005339127A (en) * | 2004-05-26 | 2005-12-08 | Olympus Corp | Apparatus and method for displaying image information |
| JP2012133471A (en) * | 2010-12-20 | 2012-07-12 | Kokusai Kogyo Co Ltd | Image composer, image composition program and image composition system |
| JP7441579B1 (en) * | 2023-06-07 | 2024-03-01 | 株式会社センシンロボティクス | Information processing system and information processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7452743B2 (en) | Flight information control method, control device and computer program | |
| US10467758B1 (en) | Imagery-based construction progress tracking | |
| CN106061836B (en) | Control device, imaging device, control method, imaging method, and computer program | |
| JP7004374B1 (en) | Movement route generation method and program of moving object, management server, management system | |
| WO2013059160A1 (en) | Acquisition of information for a construction site | |
| JP2019211257A (en) | Inspection system | |
| JP6878194B2 (en) | Mobile platforms, information output methods, programs, and recording media | |
| JP7392742B2 (en) | Control method and control device | |
| JP2022023592A (en) | Survey system, survey method and program for survey | |
| JP2023100642A (en) | inspection system | |
| JP7467206B2 (en) | Video management support system and video management support method | |
| JP2026012840A (en) | Method and program for generating a moving path for a moving object, management server, and management system | |
| JP7441579B1 (en) | Information processing system and information processing method | |
| WO2020225979A1 (en) | Information processing device, information processing method, program, and information processing system | |
| JP7696129B1 (en) | Information processing system, information processing method, and program | |
| JP6681102B2 (en) | Inspection system | |
| JP6681101B2 (en) | Inspection system | |
| JP6730763B1 (en) | Flight body flight path creation method and management server | |
| Zou et al. | Automated UAV route planning for bridge inspection using BIM-GIS data | |
| CN116203976A (en) | Indoor inspection method and device for transformer substation, unmanned aerial vehicle and storage medium | |
| JP2023072355A (en) | Flying body photographing place determination device, flying body photographing place determination method, and flying body photographing place determination program | |
| JP7667395B2 (en) | Structure survey support system, structure survey support method and program | |
| JP7698364B2 (en) | Information processing system, mobile body, information processing method, and program | |
| JP7573826B1 (en) | Information processing system, information processing method, and program | |
| JP2021067670A (en) | Method of creating flight route for flying object and management server |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241105 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20241105 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250123 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250321 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250522 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250530 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7696129 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |