[go: up one dir, main page]

JP7696129B1 - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP7696129B1
JP7696129B1 JP2024193622A JP2024193622A JP7696129B1 JP 7696129 B1 JP7696129 B1 JP 7696129B1 JP 2024193622 A JP2024193622 A JP 2024193622A JP 2024193622 A JP2024193622 A JP 2024193622A JP 7696129 B1 JP7696129 B1 JP 7696129B1
Authority
JP
Japan
Prior art keywords
information
model
image
bridge
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024193622A
Other languages
Japanese (ja)
Inventor
孝太郎 齋藤
和敬 姉崎
剛 伊藤
真奈美 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawada Industries Inc
Sensyn Robotics Inc
Original Assignee
Kawada Industries Inc
Sensyn Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawada Industries Inc, Sensyn Robotics Inc filed Critical Kawada Industries Inc
Priority to JP2024193622A priority Critical patent/JP7696129B1/en
Application granted granted Critical
Publication of JP7696129B1 publication Critical patent/JP7696129B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】画像データの管理を支援するための情報処理システム、情報処理方法、及び、プログラムを提供すること。【解決手段】部分モデル情報及び構造物モデル情報を記憶する3次元データ記憶部と、構造物モデル情報に基づき、構造物の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、画像及び当該画像に関連付けられた撮影条件情報を取得する画像情報取得部と、仮想空間に配置した構造物の3次元形状モデルに含まれる部分形状モデルのうちから、撮影条件情報に基づいて、画像に写し出された撮影対象モデルを特定する撮影対象特定部と、撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、画像に紐づける画像情報書込み部と、を備える情報処理システム。【選択図】図8[Problem] To provide an information processing system, information processing method, and program for supporting management of image data. [Solution] An information processing system comprising: a three-dimensional data storage unit that stores partial model information and structure model information, a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of a structure is arranged based on the structure model information, an image information acquisition unit that acquires an image and shooting condition information associated with the image, a shooting target identification unit that identifies a shooting target model shown in the image based on the shooting condition information from among the partial shape models included in the three-dimensional shape model of the structure arranged in the virtual space, and an image information writing unit that links attribute information associated with the partial shape model identified as the shooting target model to the image. [Selected Figure] Figure 8

Description

本開示は、移動体の経路設計に関連する情報処理システム、情報処理方法、及び、プログラムに関する。 This disclosure relates to an information processing system, an information processing method, and a program related to route planning for a moving object.

特許文献1に示すように、撮影装置により所定の構造物を撮影して点検するシステムが知られている。 As shown in Patent Document 1, a system is known that uses a camera to photograph and inspect a given structure.

特開2019-179422号公報JP 2019-179422 A

従来の点検システムにおいては、作業者が、撮影対象の点検部位を端末上又は書面上で設計図面等を参照することで特定し、特定した点検部位、及び、点検結果などの点検実行時に取得した情報を、野帳等に記録して管理することが一般的であった。この場合、点検後に、野帳等に記載した情報を参照して、点検で撮影した画像と点検部位とを作業者による手動操作で関連付けする作業が必要となる。 In conventional inspection systems, workers would typically identify the inspection areas to be photographed on a terminal or on paper by referring to design drawings, etc., and then record and manage the identified inspection areas and information obtained during the inspection, such as the inspection results, in a field notebook or similar. In this case, after the inspection, workers would need to manually associate the images taken during the inspection with the inspection areas by referring to the information written in the field notebook or similar.

当該作業においては、点検部位に対して、別の箇所を撮影した画像を対応付けてしまうなどのような作業ミスが生じやすい。特に、構造物において、類似する構造パターンが連続して存在する場合には、野帳等への記録時、及び/又は、画像の関連付け作業の際に、点検部位を間違える作業ミスがより発生しやすくなる。そのため、点検等で撮影した画像データを管理するためのより正確性の高いシステムが求められている。 In this work, it is easy to make mistakes, such as matching an image of an inspection area with an image of a different location. In particular, when a structure has a series of similar structural patterns, mistakes such as mistaking the inspection area when recording in a field notebook or the like and/or when associating images are more likely to occur. For this reason, there is a demand for a more accurate system for managing image data taken during inspections, etc.

本開示の例示的な実施形態の目的は、画像データの管理を支援するための情報処理システム、情報処理方法、及び、プログラムを提供することである。 The objective of the exemplary embodiment of the present disclosure is to provide an information processing system, an information processing method, and a program for assisting in the management of image data.

本開示の一様態に関わる情報処理システムは、
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶する3次元データ記憶部と、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得する画像情報取得部と、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定する撮影対象特定部と、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づける画像情報書込み部と、を備える。
An information processing system according to one embodiment of the present disclosure includes:
a three-dimensional data storage unit that stores a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
an image information acquisition unit that acquires an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
a photographing target specifying unit that specifies a photographing target model shown in the image from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space based on the photographing condition information;
The image information writing unit links attribute information associated with the partial shape model identified as the photographing target model to the image.

情報処理システムが上記の特徴を有することで、画像データに対して当該画像の撮影対象を特定する情報を自動で記録することができ、誤記録の防止と、画像データの管理の最適化を図ることができる。 By having an information processing system with the above features, it is possible to automatically record information that identifies the subject of the image in the image data, preventing erroneous recording and optimizing the management of image data.

図1は、本開示における一実施形態に係わる情報処理システムの構成を例示する図である。FIG. 1 is a diagram illustrating an example of a configuration of an information processing system according to an embodiment of the present disclosure. 図2は、図1に示す管理サーバのハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the management server shown in FIG. 図3は、図1に示すユーザ端末のハードウェア構成を示すブロック図である。FIG. 3 is a block diagram showing a hardware configuration of the user terminal shown in FIG. 図4は、図1に示す飛行体のハードウェア構成を示すブロック図である。FIG. 4 is a block diagram showing the hardware configuration of the flying object shown in FIG. 図5は、管理サーバの機能を例示するブロック図である。FIG. 5 is a block diagram illustrating the functions of the management server. 図6は、図1に示す情報処理システムの運用例を示す概念図である。FIG. 6 is a conceptual diagram showing an example of operation of the information processing system shown in FIG. 図7は、撮影対象モデルの特定に関わる処理を説明するための図である。FIG. 7 is a diagram for explaining the process related to the identification of the subject model. 図8は、図1に示す情報処理システムで実行される情報処理の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of information processing executed in the information processing system shown in FIG.

本開示の情報処理方法、情報処理システム及びプログラムは、例えば、以下のような構成を備える。
[項目1]
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶する3次元データ記憶部と、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得する画像情報取得部と、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定する撮影対象特定部と、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づける画像情報書込み部と、を備える情報処理システム。
[項目2]
前記画像情報取得部は、前記撮影条件情報として、前記画像を撮影した際の前記カメラの実空間における実撮影位置、及び、前記カメラの光学中心軸が向く実空間における方向である実撮影方向、を示す情報を取得し、
前記撮影対象特定部は、前記実撮影位置及び前記実撮影方向を示す情報に基づいて、前記仮想空間において、前記実撮影位置に対応する仮想撮影位置から、前記実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、当該仮想的な直線と交差する部分形状モデルを前記撮影対象モデルとして特定する、項目1に記載の情報処理システム。
[項目3]
それぞれの前記部分形状モデルが示す前記構造物の一部は、前記構造物に含まれる部材に対応しており、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記構造物において前記部材が配置されている区画を示す区画情報、を含む、項目1又は2に記載の情報処理システム。
[項目4]
前記画像情報書込み部は、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込む、項目3に記載の情報処理システム。
[項目5]
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶することと、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータが実行する情報処理方法。
[項目6]
構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶することと、
前記構造物モデル情報に基づき、前記構造物の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記構造物の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータに実行させるためのプログラム。
The information processing method, information processing system, and program disclosed herein have, for example, the following configuration.
[Item 1]
a three-dimensional data storage unit that stores a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
an image information acquisition unit that acquires an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
a photographing target specifying unit that specifies a photographing target model shown in the image from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space based on the photographing condition information;
An information processing system comprising: an image information writing unit that links attribute information associated with a partial shape model identified as the model to be photographed to the image.
[Item 2]
the image information acquisition unit acquires, as the photographing condition information, information indicating an actual photographing position in real space of the camera when the image was photographed, and an actual photographing direction, which is a direction in real space to which an optical center axis of the camera faces;
The information processing system described in item 1, wherein the shooting subject identification unit calculates a virtual straight line in the virtual space extending from a virtual shooting position corresponding to the actual shooting position to a virtual shooting direction corresponding to the actual shooting direction based on information indicating the actual shooting position and the actual shooting direction, and identifies a partial shape model that intersects with the virtual straight line as the shooting subject model.
[Item 3]
a part of the structure represented by each of the partial shape models corresponds to a member included in the structure,
3. The information processing system of claim 1, wherein the attribute information associated with each of the partial shape models includes a name of the component and partition information indicating the partition in which the component is located in the structure.
[Item 4]
4. The information processing system according to item 3, wherein the image information writing unit writes the name of the component associated with the partial shape model identified as the model to be photographed and the partition information into auxiliary information of the image.
[Item 5]
storing a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space;
and linking attribute information associated with the partial shape model identified as the photographing target model to the image.
[Item 6]
storing a plurality of pieces of partial model information for indicating a three-dimensional structure of a portion of a structure, and structure model information for indicating a three-dimensional structure of the structure constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the structure is arranged based on the structure model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in a three-dimensional shape model of the structure arranged in the virtual space;
and linking attribute information associated with the partial shape model identified as the model to be photographed to the image.

<実施の形態の詳細>
本開示の一実施形態に係わる情報処理システムを、図面を参照しつつ説明する。添付の各図面において、同一または類似の要素には同一または類似の参照符号及び名称が付され、実施形態の説明において同一または類似の要素に関する重複する説明は省略することがある。なお、各図面に示す内容は、あくまでも、本実施形態を説明するための例示であり、本実施形態を説明し易いように概略的に示す例示にすぎない。各図面の内容は、技術的に問題が生じない範囲内で改変したり、変更したりしてもよい。
<Details of the embodiment>
An information processing system according to an embodiment of the present disclosure will be described with reference to the drawings. In each of the attached drawings, identical or similar elements are given identical or similar reference symbols and names, and duplicate descriptions of identical or similar elements may be omitted in the description of the embodiment. Note that the contents shown in each drawing are merely examples for explaining the present embodiment, and are merely schematic examples for easy explanation of the present embodiment. The contents of each drawing may be modified or changed within the scope of no technical problem.

<システム概要>
本実施形態に係わる情報処理システムは、構造物の点検時に撮影した画像を、当該画像に写し出された対象物に関する情報と関連付けて、自動記録する処理を実行するシステムである。構造物とは、複数の材料及び/又は部材を組み合わせて構成されたもの(例えば、橋梁、トンネル、ダム、堤防、ビル、工場、その他建築物など)であり、点検対象とする構造物の種類は特に限定されない。情報処理システムの運用において対象とする点検は、構造物の施工中における点検であってもよいし、施工完了時の点検であってもよいし、施工後の定期点検などであってもよく、点検の種類は特に限定されない。また、点検時における構造物の撮影方法も、特に限定されず、例えば、ドローン(Drone)、無人航空機(UAV:Unmanned Aerial Vehicle)、無人地上車両(UGV:Unmanned Ground Vehicle)などの無人移動体に搭載したカメラで構造物を撮影してもよい。その他、作業者などの人が撮影装置(例えば、スマートフォン、タブレット端末、デジタルカメラなどの各種カメラなど)を操作して構造物を撮影してもよいし、有人移動体に搭載したカメラで構造物を撮影してもよい。
<System Overview>
The information processing system according to the present embodiment is a system that executes a process of automatically recording an image taken during inspection of a structure in association with information on an object depicted in the image. A structure is a structure that is constructed by combining a plurality of materials and/or members (for example, a bridge, a tunnel, a dam, a levee, a building, a factory, or other buildings), and the type of structure to be inspected is not particularly limited. Inspections that are the subject of the operation of the information processing system may be inspections during construction of the structure, inspections at the completion of construction, or periodic inspections after construction, and the type of inspection is not particularly limited. In addition, the method of photographing the structure during inspection is also not particularly limited, and for example, the structure may be photographed with a camera mounted on an unmanned moving body such as a drone, an unmanned aerial vehicle (UAV), or an unmanned ground vehicle (UGV). Alternatively, a worker or other person may operate an imaging device (e.g., a smartphone, a tablet terminal, a digital camera, or other type of camera) to photograph the structure, or the structure may be photographed using a camera mounted on a manned vehicle.

本実施形態では、簡潔な説明とするために、移動体4を用いて橋梁を点検する場合を例示して、情報処理システムが実行する情報処理について詳述する。図6に示すように、移動体4を、橋梁(施工中、及び/又は、施工完了後の橋梁)の周囲に飛行させて、橋梁の所定部位を移動体4に搭載したカメラ42で撮影する。移動体4は、プロポを用いたユーザ(作業者等)の操縦により飛行させてもよいし、予めウェイポイントなどが設定された飛行経路に基づいて自律航行させてもよい。移動体4の機種及び仕様は特に限定されない。例えば、移動体4は、非GNSS(Global Navigation Satellite System)環境においても移動開始位置を基点とする機体位置を認識可能な仕様の機体であることが好ましく、撮影時の機体位置、機体の向き、ジンバルの向きなどの各種撮影条件を撮影画像の附属情報(例;Exif情報(Exif;Exchangeable image file format))として記録可能な仕様の機体であることが好ましい。 In this embodiment, for the sake of simplicity, the information processing executed by the information processing system will be described in detail by taking as an example a case where a bridge is inspected using a mobile body 4. As shown in FIG. 6, the mobile body 4 is flown around a bridge (a bridge under construction and/or after construction has been completed) and a predetermined portion of the bridge is photographed by a camera 42 mounted on the mobile body 4. The mobile body 4 may be flown by a user (such as a worker) using a remote control, or may be autonomously navigated based on a flight route with waypoints and the like set in advance. There are no particular limitations on the model and specifications of the mobile body 4. For example, the moving object 4 is preferably an aircraft with specifications that allow it to recognize its position relative to the starting position of its movement even in a non-GNSS (Global Navigation Satellite System) environment, and is preferably an aircraft with specifications that allow it to record various shooting conditions, such as the aircraft position at the time of shooting, the aircraft orientation, and the gimbal orientation, as auxiliary information of the captured image (e.g., Exif information (Exif; Exchangeable image file format)).

図6に示すような橋梁の点検においては、従来、点検した部位又は部材を作業者が現場で手入力した野帳等を用いて、撮影画像の管理がなされてきた。例えば、作業者が、端末上又は書面上で設計図面等を参照しながら、撮影した点検部位又は部材を野帳等に記載しておく。そして、後日、撮影画像がどの点検部位又は部材に対応するかを、野帳等に記載した情報に基づいて、人為的に判定し、撮影画像と野帳等に記載した情報とを手動操作で関連付ける作業を行っていた。このような従来の記録作業方法では、点検箇所に対して別の箇所を撮影した別画像を対応付けて誤記録してしまうなどのような作業ミスが生じやすい。特に、橋梁は、所定の間隔で同じ構造が連続する特徴を有しているため、現場で点検箇所を間違って記録する、間違った画像と情報とを関連付けるなどの作業ミスが発生しやすかった。 In the case of bridge inspections such as those shown in Figure 6, conventionally, photographed images have been managed using field notebooks or the like in which workers manually input the inspected parts or components on site. For example, workers record the photographed inspection parts or components in a field notebook or the like while referring to design drawings or the like on a terminal or on paper. Then, at a later date, workers manually determine which inspection part or component the photographed image corresponds to based on the information written in the field notebook or the like, and manually associate the photographed image with the information written in the field notebook or the like. With such conventional recording methods, work errors are likely to occur, such as incorrectly recording an inspection point by associating it with another image taken of a different part. In particular, bridges have the characteristic of having the same structure in succession at a certain interval, so work errors such as incorrectly recording the inspection point on site and associating the wrong image with information are likely to occur.

本実施形態の情報処理システムでは、複数の部分形状モデルを組み合わせて構築された橋梁(構造物)の3次元形状モデルを配置した仮想空間を生成したうえで、当該仮想空間において、撮影画像に紐づく撮影条件情報(例えば、撮影位置、撮影方向、焦点距離、画角など)に基づき、当該撮影画像に写し出された対象物に対応する部分形状モデルを撮影対象モデルとして特定する。そして、情報処理システムでは、特定した撮影対象モデルに関連付けられている属性情報を、撮影画像に紐づける処理を実行する。本実施形態の情報処理システムでは、上記のような情報処理により、画像データに対して当該画像の撮影対象を特定する情報を自動で記録することができ、誤記録の防止、画像データの管理の最適化、及び、点検の効率化などを図ることができる。 In the information processing system of this embodiment, a virtual space is generated in which a three-dimensional shape model of a bridge (structure) constructed by combining multiple partial shape models is placed, and in the virtual space, a partial shape model corresponding to an object depicted in a captured image is identified as a captured object model based on shooting condition information (e.g., shooting position, shooting direction, focal length, angle of view, etc.) linked to the captured image. The information processing system then executes a process of linking attribute information associated with the identified captured object model to the captured image. In the information processing system of this embodiment, the above-mentioned information processing can automatically record information identifying the captured object of the image to image data, preventing erroneous recording, optimizing image data management, and improving inspection efficiency.

<システム構成>
図1に示されるように、本実施形態の情報処理システムは、管理サーバ1と、一以上のユーザ端末2と、一以上の移動体4とを有していてもよい。管理サーバ1と、ユーザ端末2と、移動体4とは、ネットワークNWを介して互いに通信可能に接続されている。なお、図示された構成は一例であり、これに限らない。例えば、移動体4がネットワークNWに接続されていなくてもよい。その場合、移動体4の操作がユーザの操作する送信機(いわゆるプロポ)により行われたり、移動体4のカメラにより取得した画像データが移動体4に接続される補助記憶装置(例えばSDカードなどのメモリカード及び/又はUSBメモリなど)に記憶され、ユーザにより事後的に補助記憶装置からユーザ端末2及び/又は管理サーバ1に読み出されて記憶されたりする構成であってもよく、操作目的または画像データの記憶目的のいずれか一方の目的のためだけに移動体4がネットワークNWに接続されていてもよい。
<System Configuration>
As shown in FIG. 1, the information processing system of this embodiment may have a management server 1, one or more user terminals 2, and one or more mobile objects 4. The management server 1, the user terminal 2, and the mobile object 4 are connected to each other via a network NW so that they can communicate with each other. The illustrated configuration is an example, and is not limited to this. For example, the mobile object 4 may not be connected to the network NW. In that case, the operation of the mobile object 4 may be performed by a transmitter (so-called radio) operated by a user, or image data acquired by a camera of the mobile object 4 may be stored in an auxiliary storage device (e.g., a memory card such as an SD card and/or a USB memory) connected to the mobile object 4, and the image data may be read out from the auxiliary storage device to the user terminal 2 and/or the management server 1 and stored by the user after the fact. The mobile object 4 may be connected to the network NW only for the purpose of operation or for the purpose of storing image data.

<管理サーバ1>
図2は、管理サーバ1のハードウェア構成を示す図である。なお、図示された構成は一例であり、管理サーバ1は、これ以外の構成を有していてもよい。
<Management Server 1>
Fig. 2 is a diagram showing a hardware configuration of the management server 1. Note that the illustrated configuration is an example, and the management server 1 may have a different configuration.

管理サーバ1は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。管理サーバ1は、少なくとも、プロセッサ10、メモリ11、ストレージ12、送受信部13、入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。 The management server 1 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing. The management server 1 includes at least a processor 10, a memory 11, a storage 12, a transmission/reception unit 13, an input/output unit 14, etc., which are electrically connected to each other via a bus 15.

プロセッサ10は、管理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。 The processor 10 is a computing device that controls the operation of the entire management server 1, controls the transmission and reception of data between each element, and performs information processing necessary for application execution and authentication processing. For example, the processor 10 is a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit), and executes programs stored in the storage 12 and deployed in the memory 11 to perform various information processing operations.

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリ、HDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、管理サーバ1の起動時に実行されるBIOS(Basic Input / Output System)、及び各種設定情報等を格納する。 Memory 11 includes a main memory configured with a volatile storage device such as DRAM (Dynamic Random Access Memory) and an auxiliary memory configured with a non-volatile storage device such as a flash memory or HDD (Hard Disc Drive). Memory 11 is used as a work area for processor 10, and also stores BIOS (Basic Input/Output System) that is executed when management server 1 is started, various setting information, etc.

ストレージ12は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ12に構築されていてもよい。例えば、後述の記憶部120がストレージ12の記憶領域の一部に設けられていてもよい。 Storage 12 stores various programs such as application programs. A database that stores data used for each process may be constructed in storage 12. For example, storage unit 120, which will be described later, may be provided in a part of the storage area of storage 12.

送受信部13は、管理サーバ1が通信ネットワークを介してユーザ端末2及び移動体4等と通信を行うための通信インターフェースである。送受信部13は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インターフェース及び/又はUSB(Universal Serial Bus)端子等をさらに備えていてもよい。 The transmission/reception unit 13 is a communication interface that allows the management server 1 to communicate with the user terminal 2 and the mobile object 4, etc., via the communication network. The transmission/reception unit 13 may further include a short-range communication interface for Bluetooth (registered trademark) and BLE (Bluetooth Low Energy) and/or a USB (Universal Serial Bus) terminal, etc.

入出力部14は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。 The input/output unit 14 includes information input devices such as a keyboard and mouse, and output devices such as a display.

バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 Bus 15 is commonly connected to each of the above elements and transmits, for example, address signals, data signals, and various control signals.

<ユーザ端末2>
図3に示されるユーザ端末2もまた、プロセッサ20、メモリ21、ストレージ22、送受信部23、入出力部24等を備え、これらはバス25を通じて相互に電気的に接続される。ユーザ端末2は、例えば、送信機などのプロポであってもよいし、ワークステーション及びパーソナルコンピュータのような汎用コンピュータとしてもよいし、スマートフォン、タブレット端末などのモバイル端末であってもよい。ユーザ端末2の各要素の機能は、上述した管理サーバ1と同様に構成することが可能であり、ユーザ端末2の各要素の詳細な説明は省略する。
<User Terminal 2>
The user terminal 2 shown in Fig. 3 also includes a processor 20, a memory 21, a storage 22, a transmission/reception unit 23, an input/output unit 24, etc., which are electrically connected to each other via a bus 25. The user terminal 2 may be, for example, a remote control device such as a transmitter, a general-purpose computer such as a workstation or a personal computer, or a mobile terminal such as a smartphone or a tablet terminal. The functions of each element of the user terminal 2 can be configured in the same way as the above-mentioned management server 1, and detailed description of each element of the user terminal 2 will be omitted.

<移動体4>
図4は、移動体4のハードウェア構成を示すブロック図である。フライトコントローラ41は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有していてもよい。
<Mobile object 4>
4 is a block diagram showing a hardware configuration of the moving body 4. The flight controller 41 may have one or more processors, such as a programmable processor (e.g., a central processing unit (CPU)).

また、フライトコントローラ41は、メモリ411を有していてもよく、当該メモリにアクセス可能である。メモリ411は、1つ以上のステップを行うためにフライトコントローラが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。また、フライトコントローラ41は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)等のセンサ類412を含んでいてもよい。 The flight controller 41 may also have or have access to memory 411. The memory 411 stores logic, code, and/or program instructions that the flight controller can execute to perform one or more steps. The flight controller 41 may also include sensors 412, such as inertial sensors (accelerometers, gyro sensors), GPS sensors, and proximity sensors (e.g., lidar).

メモリ411は、例えば、SDカード及びランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ/センサ類42から取得したデータは、メモリ411に直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録されてもよいが、これに限らず、カメラ/センサ42または内蔵メモリからネットワークNWを介して、少なくとも管理サーバ1やユーザ端末2のいずれかに1つに記録されてもよい。カメラ42は移動体4にジンバル43を介して設置される。 The memory 411 may include, for example, a separable medium such as an SD card and random access memory (RAM) or an external storage device. Data acquired from the cameras/sensors 42 may be directly transmitted to and stored in the memory 411. For example, still image/video data captured by a camera or the like may be recorded in an internal memory or an external memory, but is not limited to this, and may be recorded in at least one of the management server 1 or the user terminal 2 from the camera/sensor 42 or the internal memory via the network NW. The camera 42 is installed on the moving body 4 via a gimbal 43.

フライトコントローラ41は、移動体4の状態を制御するように構成された図示しない制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する飛行体の空間的配置、速度、および/または加速度を調整するために、ESC44(Electric Speed Controller)を経由して飛行体の推進機構(モータ45等)を制御する。バッテリー48から給電されるモータ45によりプロペラ46が回転することで飛行体の揚力を生じさせる。フライトコントローラ41の制御モジュールは、カメラ42の駆動、撮影条件(例えば、シャープネス、ピント(焦点距離)、エクスポージャー値、シャッタースピード、ISO感度、レンズ絞りなど)を制御する機能を有していてもよい。また、制御モジュールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。 The flight controller 41 includes a control module (not shown) configured to control the state of the moving body 4. For example, the control module controls the propulsion mechanism (motor 45, etc.) of the flying body via an ESC 44 (electric speed controller) in order to adjust the spatial arrangement, speed, and/or acceleration of the flying body having six degrees of freedom (translational motion x, y, and z, and rotational motion θ x , θ y , and θ z ). The propeller 46 rotates by the motor 45 powered by a battery 48 to generate lift of the flying body. The control module of the flight controller 41 may have a function of controlling the driving of the camera 42 and the shooting conditions (for example, sharpness, focus (focal length), exposure value, shutter speed, ISO sensitivity, lens aperture, etc.). In addition, the control module can control one or more of the states of the mounted parts and sensors.

フライトコントローラ41は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)49、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部47と通信可能である。送受信機49は、有線通信または無線通信などの任意の適当な通信手段を使用してもよい。 The flight controller 41 can communicate with a transceiver 47 configured to transmit and/or receive data from one or more external devices (e.g., a transceiver 49, a terminal, a display device, or other remote control). The transceiver 49 may use any suitable communication means, such as wired or wireless communication.

例えば、送受信部47は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用してもよい。 For example, the transceiver 47 may utilize one or more of a local area network (LAN), a wide area network (WAN), infrared, radio, WiFi, a point-to-point (P2P) network, a telecommunications network, cloud communications, and the like.

送受信部47は、カメラ/センサ類42で取得したデータ、フライトコントローラ41が生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。 The transmitter/receiver 47 can transmit and/or receive one or more of the following: data acquired by the cameras/sensors 42, processing results generated by the flight controller 41, specific control data, user commands from a terminal or a remote controller, etc.

カメラ/センサ類42は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含んでいてもよい。 The cameras/sensors 42 may include inertial sensors (accelerometers, gyro sensors), GPS sensors, proximity sensors (e.g., lidar), or vision/image sensors (e.g., cameras).

<管理サーバ1の機能>
図5は、管理サーバ1に実装される機能を例示したブロック図である。本実施形態においては、管理サーバ1は、仮想空間生成部101、画像情報取得部102、撮影対象特定部103、画像情報書込み部104、及び、表示制御部105、を備えていてもよい。また、管理サーバ1の記憶部120は、3次元データ記憶部121、撮影画像データ記憶部122、及び、移動情報記憶部123などの各種データベースを含んでいてもよい。
<Functions of Management Server 1>
5 is a block diagram illustrating functions implemented in the management server 1. In this embodiment, the management server 1 may include a virtual space generation unit 101, an image information acquisition unit 102, a shooting target identification unit 103, an image information writing unit 104, and a display control unit 105. In addition, the storage unit 120 of the management server 1 may include various databases such as a three-dimensional data storage unit 121, a shooting image data storage unit 122, and a movement information storage unit 123.

まず、記憶部120の各種データベースについて詳述する。3次元データ記憶部121は、構造物の一部の3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される構造物の3次元構造を示すための構造物モデル情報と、を記憶する。部分モデル情報及び構造物モデル情報などの3次元モデルデータのデータ形式は、必ずしも限定されず、例えば、3次元モデルデータは、BIM(Building Information Modeling)データ、CIM(Construction Information Modeling)データ、CADデータ、もしくは、City―GML等のGMLデータなどで構築されていてもよく、これらのデータ形式のうちから選択される2種以上のデータ形式で構築されていてもよい。3次元モデルデータは、上記のようなデータ形式のなかでも、特に、3次元形状を示す情報だけでなく属性情報も含むBIMデータ、及び/又は、CIMデータで構築されていることが好ましい。つまり、部分モデル情報、及び、構造物モデル情報は、いずれも、それぞれの対象物体の3次元形状を示す3次元形状モデル(3次元ジオメトリ)と、当該対象物体の属性情報と、を含んでいてもよい。 First, various databases of the storage unit 120 will be described in detail. The three-dimensional data storage unit 121 stores a plurality of partial model information for indicating the three-dimensional structure of a part of a structure, and structure model information for indicating the three-dimensional structure of a structure constructed by integrating the plurality of partial model information. The data format of the three-dimensional model data such as the partial model information and the structure model information is not necessarily limited. For example, the three-dimensional model data may be constructed using BIM (Building Information Modeling) data, CIM (Construction Information Modeling) data, CAD data, or GML data such as City-GML, or may be constructed using two or more data formats selected from these data formats. Among the above data formats, it is preferable that the three-dimensional model data is constructed using BIM data and/or CIM data, which includes not only information indicating the three-dimensional shape but also attribute information. In other words, both the partial model information and the structure model information may include a three-dimensional shape model (three-dimensional geometry) that indicates the three-dimensional shape of each target object, and attribute information of the target object.

部分モデル情報が示す「構造物の一部」とは、構造物に含まれる「部材」、又は、複数の部材から構成されるまとまりある「部位」であってもよい。換言すると、各部分モデル情報が示す構造物の一部は、構造物の3次元モデルを細分化した際に単離される小単位モデルに対応する部分であり、当該部分は、点検項目に応じて構造物を細分化することで設定されていてもよい。 The "part of the structure" indicated by the partial model information may be a "component" included in the structure, or a cohesive "part" composed of multiple components. In other words, the part of the structure indicated by each piece of partial model information is a part that corresponds to a small unit model that is isolated when the three-dimensional model of the structure is subdivided, and the part may be set by subdividing the structure according to the inspection item.

本実施形態で例示する橋梁の場合、3次元データ記憶部121は、橋梁に含まれる部材ごとに、各部材に対応する部分モデル情報を記憶していてもよい。橋梁の部材としては、例えば、床版、主桁、横桁、縦桁、上弦材、下弦材、斜材、垂直材、支承、橋脚、ガセット、地覆、防護柵などが挙げられる。橋梁には、形状が一致する同一種類の部材が複数含まれるが、このような同一種類の部材であっても、それぞれ異なる位置に配置される。そのため、橋梁に含まれる同一種類の部材に対しては、それぞれの配置ごとに対応する部分モデル情報が生成され、3次元データ記憶部121に格納される。 In the case of a bridge as exemplified in this embodiment, the three-dimensional data storage unit 121 may store partial model information corresponding to each component included in the bridge. Examples of bridge components include decks, main girders, cross beams, vertical beams, upper chords, lower chords, diagonal members, vertical members, supports, piers, gussets, ground guards, and guardrails. A bridge includes multiple components of the same type that have the same shape, but even such components of the same type are placed in different positions. Therefore, for the same type of components included in the bridge, partial model information corresponding to each placement is generated and stored in the three-dimensional data storage unit 121.

上記のような各部分モデル情報は、対象の部材の3次元形状を示す部分形状モデルと、当該部材の属性情報とを含み、部分モデル情報の属性情報には、例えば、部材の名称、及び、橋梁において部材が配置された区画を特定する区画情報が含まれる。区画は、構造物を部材よりも粗いまとまりで区分けした領域(例えば、構造物の階層、部屋、棟など)であり、橋梁における区画は、例えば、支間、径間、主桁の連結間隔などのように周期的な所定の間隔で区切られた領域であってもよい。なお、同一の区画内に同一種類の部材が複数含まれるような場合には、部分モデル情報の属性情報は、各部材を一意に特定するための番号などの識別情報を含んでいてもよい。また、部分モデル情報は、上記の情報の他にも、部材の配置を示す情報(例えば、実空間及び/又は仮想空間における部材の位置を示す3次元座標)、部材の材質、色、寸法、品番、性能などの部材の仕様に関わる情報、隣接する他の部材との関連性を示す情報(例えば、対象部材が、どの部材と、どの位置で、どのように連結されるかを示す情報など)、部材の価格、調達先などの調達履歴に関する情報などを含んでいてもよい。 Each piece of partial model information as described above includes a partial shape model showing the three-dimensional shape of the target component and attribute information of the component, and the attribute information of the partial model information includes, for example, the name of the component and partition information that identifies the partition in which the component is located on the bridge. A partition is an area that divides a structure into areas that are coarser than the components (e.g., a floor, room, or building of a structure), and a partition on a bridge may be an area separated by a periodic, predetermined interval, such as a span, a span, or the connection interval of a main girder. Note that when multiple components of the same type are included in the same partition, the attribute information of the partial model information may include identification information such as a number for uniquely identifying each component. In addition to the above information, the partial model information may also include information indicating the arrangement of components (e.g., three-dimensional coordinates indicating the position of the component in real space and/or virtual space), information related to the component specifications such as the material, color, dimensions, product number, and performance of the component, information indicating the relationship with other adjacent components (e.g., information indicating which component the target component is connected to, at what position, and how), information related to the procurement history such as the price of the component, and the source of procurement.

構造物モデル情報は、部分形状モデルを組み合わせて構築される橋梁の3次元形状モデルと、当該3次元形状モデルに紐づく属性情報とを含んでいてもよい。構造物モデル情報の属性情報には、例えば、部材を組み合わせた状態での橋梁の寸法、特性(例えば、設計仕様など)、橋梁の位置情報(例えば、橋梁の外表面上に設定される複数の代表点の3次元座標など)、などが含まれていてもよい。また構造物モデル情報には、その他にも、橋梁に設置する附属物(道路標識、照明など)に関する情報、隣接する部材同士の関連性に関する情報(例えば、どの主桁と、どの横桁とがどの位置で連結されるかなど)、橋梁の周辺環境に関する情報(例えば、橋梁と繋がる道路に関連する情報、周辺設備との位置関係を示す情報など)、3次元形状モデルを配置する仮想空間に関する情報(例えば、ユーザ操作により指定された基準座標、3次元座標系で規定される空間領域の設定、仮想空間の縮尺など)、施工履歴に関する情報などが含まれていてもよい。 The structure model information may include a three-dimensional shape model of the bridge constructed by combining partial shape models, and attribute information associated with the three-dimensional shape model. The attribute information of the structure model information may include, for example, the dimensions and characteristics (e.g., design specifications, etc.) of the bridge when the components are combined, and the position information of the bridge (e.g., three-dimensional coordinates of multiple representative points set on the outer surface of the bridge). The structure model information may also include information on accessories (road signs, lighting, etc.) installed on the bridge, information on the relationship between adjacent components (e.g., which main girder and which cross girder are connected at which position, etc.), information on the surrounding environment of the bridge (e.g., information related to the roads connecting the bridge, information indicating the positional relationship with surrounding facilities, etc.), information on the virtual space in which the three-dimensional shape model is placed (e.g., reference coordinates specified by user operation, settings of spatial areas defined in a three-dimensional coordinate system, scale of the virtual space, etc.), and information on the construction history.

なお、上記で示した部分モデル情報及び構造物モデル情報は、あくまでも例示であり、各モデル情報には、設計から施工、維持管理に至るまでのサイクル全体で蓄積された情報が対応付けられていてもよい。後述の仮想空間生成部101は、3次元データ記憶部121に記憶されている部分モデル情報、構造物モデル情報などを読み出し、これらの情報に基づいて仮想空間を生成する。 Note that the partial model information and structure model information shown above are merely examples, and each piece of model information may be associated with information accumulated throughout the entire cycle from design to construction and maintenance. The virtual space generation unit 101, which will be described later, reads out the partial model information, structure model information, etc. stored in the three-dimensional data storage unit 121, and generates a virtual space based on this information.

撮影画像データ記憶部122は、移動体4のカメラ/センサ類42によって構造物を撮影することで取得され、移動体4から管理サーバ1に送信された撮影画像データを記憶する。カメラ/センサ類42の撮影により取得される撮影画像データは、構造物の少なくとも一部を写し出した撮影画像と、当該撮影画像に関連付けられた撮影条件情報と、を含む。 The photographed image data storage unit 122 stores photographed image data that is acquired by photographing a structure with the camera/sensors 42 of the mobile body 4 and transmitted from the mobile body 4 to the management server 1. The photographed image data acquired by photographing with the camera/sensors 42 includes a photographed image that shows at least a portion of the structure and photographing condition information associated with the photographed image.

撮影条件情報には、例えば、画像を撮影した時点におけるカメラ42の実空間における実撮影位置、画像を撮影した時点におけるカメラ42の光学中心軸が向く実空間における方向である実撮影方向などが含まれる。実撮影位置は、実空間の3次元座標系で表現される位置である。GNSSセンサなどを利用して実撮影位置を取得する場合、実撮影位置は、緯度、経度、絶対高度の3次元座標で表されてもよく、慣性センサ(加速度センサ、ジャイロセンサ)等を利用して非GNSS環境で実撮影位置を取得する場合、実撮影位置は、移動体4の移動開始位置(撮影作業開始位置)を基準位置(原点)とする相対的な3次元座標で表されてもよい。実撮影方向は、例えば、撮影時の機体の向き、ジンバルの向きなどに基づいて特定されてもよい。また、撮影条件情報には、上記の他に、撮影時のカメラ42の焦点距離、画角、ズーム比、露光量、ISO感度、撮影日時などを示す情報が含まれていてもよい。これら撮影条件情報は、撮影画像に付随されたメタデータであってもよく、Exif情報として保存されていてもよい。 The shooting condition information includes, for example, the actual shooting position of the camera 42 in the real space at the time when the image was captured, and the actual shooting direction, which is the direction in the real space to which the optical center axis of the camera 42 faces at the time when the image was captured. The actual shooting position is a position expressed in a three-dimensional coordinate system in the real space. When the actual shooting position is acquired using a GNSS sensor or the like, the actual shooting position may be expressed in three-dimensional coordinates of latitude, longitude, and absolute altitude, and when the actual shooting position is acquired in a non-GNSS environment using an inertial sensor (acceleration sensor, gyro sensor), the actual shooting position may be expressed in relative three-dimensional coordinates with the movement start position of the moving body 4 (shooting operation start position) as the reference position (origin). The actual shooting direction may be specified, for example, based on the orientation of the aircraft at the time of shooting, the orientation of the gimbal, etc. In addition to the above, the shooting condition information may also include information indicating the focal length, angle of view, zoom ratio, exposure amount, ISO sensitivity, shooting date and time, etc. of the camera 42 at the time of shooting. This shooting condition information may be metadata attached to the captured image, or may be saved as Exif information.

撮影画像データ記憶部122に格納される各撮影画像データには、後述の撮影対象特定部103により特定されて画像情報書込み部104により紐づけられた、撮影対象位置(キャプチャーポイント)に存在する撮影対象物を示す情報が付随情報として関連付けられていてもよい。撮影対象物を示す情報には、例えば、主の被写体である対象部材を一意に特定する識別情報が含まれてもよく、対象部材の名称、対象部材が配置されている区画を示す区画情報などが含まれていてもよい。また、撮影画像データに関連付けられる付随情報には、主の被写体である撮影対象物を示す情報の他に、撮影範囲に写り込んでいるその他の部材を示す情報が含まれていてもよい。 Each captured image data stored in the captured image data storage unit 122 may be associated with information indicating the subject of the image capture at the capture point, which is identified by the subject of the image capture unit 103 described below and linked by the image information writing unit 104. The information indicating the subject of the image capture may include, for example, identification information that uniquely identifies the subject member that is the main subject, and may include the name of the subject member and section information indicating the section in which the subject member is located. Furthermore, the associated information associated with the captured image data may include, in addition to information indicating the subject of the image capture as the main subject, information indicating other members captured in the capture range.

移動情報記憶部123は、例えば、構造物における各種撮影対象物(例えば、橋梁に含まれる各部材)の撮影等を目的とする移動において用いられる移動情報を記憶している。移動情報は、移動を実行させるための指示情報であって、例えば、移動経路情報(ウェイポイント情報を含む)、移動速度、飛行高度、撮像条件(撮影方向、撮像画角、撮像焦点距離、撮像画像のオーバーラップ率など)、などを含んでいてもよい。また、移動情報記憶部123は、移動の実行によって実績として取得される移動時取得情報を記憶していてもよい。移動時取得情報としては、実際の移動経路、移動速度、飛行高度、撮影画像及び当該撮影画像に関連付けられた撮影条件情報などが含まれていてもよい。 The movement information storage unit 123 stores, for example, movement information used in movement for the purpose of photographing various objects to be photographed in a structure (for example, each component included in a bridge). The movement information is instruction information for executing movement, and may include, for example, movement route information (including waypoint information), movement speed, flight altitude, imaging conditions (imaging direction, imaging angle of view, imaging focal length, overlap rate of captured images, etc.). The movement information storage unit 123 may also store information acquired during movement that is acquired as an actual result by executing movement. The information acquired during movement may include the actual movement route, movement speed, flight altitude, captured images, and imaging condition information associated with the captured images.

指示情報としての移動情報は、例えば、移動情報に含まれる各種情報のパラメータを管理サーバ1又はユーザ端末2上で設定することにより生成されてもよい。なお、移動経路としては、例えば、移動体格納装置の位置を移動開始位置及び移動終了位置として、各ウェイポイントを通過する移動経路を生成するようにしてもよいし、逆に移動体格納装置を有さずに、ユーザにより移動体4を持ち運びされた位置を移動開始位置(いわゆるホームポイント)としたり、移動終了位置(ホームポイントに戻ってもよい)においてユーザが移動体4を回収したりする構成などでもよいし、管理サーバ1により管理された移動体格納装置の情報(例えば、位置情報や格納状態情報、格納機情報など)を基に、移動開始位置または移動終了位置として選択された移動体格納装置の位置も含めた移動経路として生成される構成でもよい。 The movement information as the instruction information may be generated, for example, by setting the parameters of various information included in the movement information on the management server 1 or the user terminal 2. In addition, as the movement route, for example, the position of the mobile body storage device may be set as the movement start position and the movement end position, and a movement route passing through each waypoint may be generated. Conversely, without a mobile body storage device, the position where the user carries the mobile body 4 may be set as the movement start position (so-called home point), and the user may collect the mobile body 4 at the movement end position (which may be back to the home point). Alternatively, a movement route may be generated that includes the position of the mobile body storage device selected as the movement start position or movement end position based on information of the mobile body storage device managed by the management server 1 (for example, position information, storage state information, storage machine information, etc.).

次に、プロセッサ10の各機能部について詳述する。 Next, each functional part of the processor 10 will be described in detail.

仮想空間生成部101は、構造物モデル情報に基づき、構造物の3次元形状モデルを配置した仮想空間を生成する。図7の(b)が、生成される仮想空間を模擬的に例示する図であり、当該仮想空間に橋梁の3次元形状モデルである橋梁モデル60が配置されている。なお、図7(b)に示す橋梁モデル60は、主桁の連結間隔に応じて定められた区画(J21-J26)を有しており、各区画に複数の部分形状モデル(例えば、図7(a)の部材61-66に対応する部分形状モデルなど)が含まれている。仮想空間の生成に際しては、各部分モデル情報も参酌され、部分形状モデルの組み合わせにより構造物の3次元形状モデルが構築されてもよい。仮想空間に配置される構造物の3次元形状モデルでは、各部分モデル情報に対応する部分(例えば、橋梁の各部材)が、色分けされるなどして、識別可能な様態で表示されてもよい。 The virtual space generating unit 101 generates a virtual space in which a three-dimensional shape model of a structure is arranged based on the structure model information. FIG. 7B is a diagram showing an example of the generated virtual space, in which a bridge model 60, which is a three-dimensional shape model of a bridge, is arranged. The bridge model 60 shown in FIG. 7B has sections (J21-J26) determined according to the connection interval of the main girders, and each section includes multiple partial shape models (e.g., partial shape models corresponding to members 61-66 in FIG. 7A). When generating the virtual space, each partial model information may also be taken into consideration, and a three-dimensional shape model of the structure may be constructed by combining the partial shape models. In the three-dimensional shape model of the structure arranged in the virtual space, the parts corresponding to each partial model information (e.g., each member of the bridge) may be displayed in an identifiable manner, for example by color coding.

仮想空間生成部101は、仮想空間を生成する際に、実空間の3次元座標系と仮想空間の3次元座標系とを対応付けることにより、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築する処理を実行してもよい。一例として、仮想空間生成部101は、実空間の3次元座標系における基準位置(例えば、移動体4の移動開始位置)と、その位置に対応する仮想空間の3次元座標系における基準位置55(図7(b)の符号55)とを位置合わせして対応付けることにより、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築する。これにより、仮想空間生成部101は、実空間内で飛行する移動体4の実空間の3次元座標系における位置を、仮想空間内の仮想移動体57(実空間の移動体4に対応する仮想物体)の3次元座標系における位置に変換して表現することが可能である。なお、仮想空間における3次元形状モデルの縮尺が実空間における対応する構造物の縮尺と異なる場合は、位置合わせに伴って3次元形状モデルの縮尺を調整してもよい。 When generating the virtual space, the virtual space generation unit 101 may execute a process of constructing a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space by associating the three-dimensional coordinate system of the real space with the three-dimensional coordinate system of the virtual space. As an example, the virtual space generation unit 101 aligns and associates a reference position in the three-dimensional coordinate system of the real space (e.g., the start position of the movement of the moving body 4) with a reference position 55 (reference number 55 in FIG. 7B) in the three-dimensional coordinate system of the virtual space corresponding to the reference position, thereby constructing a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space. As a result, the virtual space generation unit 101 can convert and express the position in the three-dimensional coordinate system of the real space of the moving body 4 flying in the real space into the position in the three-dimensional coordinate system of the virtual moving body 57 (a virtual object corresponding to the moving body 4 in the real space) in the virtual space. If the scale of the three-dimensional shape model in the virtual space differs from the scale of the corresponding structure in the real space, the scale of the three-dimensional shape model may be adjusted during alignment.

上記のように、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築することにより、例えばユーザ端末2上に表示される仮想空間の3次元座標系をベースにウェイポイントを設定した場合においても、実空間の移動体4の3次元座標系に基づく移動経路生成などの位置指定が可能となる。3次元モデルデータが寸法情報を備える場合には、仮想空間の3次元座標系を基準として、例えば10m真っすぐ進んで右に曲がる、といったような現実の縮尺を用いた移動経路生成が可能となる。 As described above, by constructing a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space, it becomes possible to specify a position, such as generating a movement path based on the three-dimensional coordinate system of the moving body 4 in the real space, even if a waypoint is set based on the three-dimensional coordinate system of the virtual space displayed on the user terminal 2. When the three-dimensional model data includes dimensional information, it becomes possible to generate a movement path using a real scale, such as moving straight for 10 m and then turning right, based on the three-dimensional coordinate system of the virtual space.

仮想空間生成部101は、生成した仮想空間を示す表示画面を生成し、ユーザ端末2に送信する処理を実行してもよい。ユーザ端末2の表示画面では、ユーザの操作に応じて、仮想空間に配置された3次元形状モデル(橋梁モデル60)の拡大、縮小、回転などが可能であってもよく、仮想空間生成部101は、ユーザ操作に応じた仮想空間の画像をレンダリングして、ユーザ端末2へ出力する。また、仮想空間生成部101は、仮想空間を表示させたユーザ端末2の表示画面を介して、構造物の3次元形状モデル(橋梁モデル60)の一部をクリックするなどのユーザによる選択操作を受け付け、選択された部分(部材)に対応する部分形状モデルを強調表示(例、協調的な色合いで表示する、選択された部分形状モデルのみを拡大表示するなど)させたり、当該部分形状モデルに紐づく属性情報を表示させたりする処理を実行してもよい。 The virtual space generation unit 101 may generate a display screen showing the generated virtual space and execute a process of transmitting the display screen to the user terminal 2. On the display screen of the user terminal 2, the three-dimensional shape model (bridge model 60) arranged in the virtual space may be enlarged, reduced, rotated, etc., in response to a user operation, and the virtual space generation unit 101 renders an image of the virtual space in response to the user operation and outputs it to the user terminal 2. In addition, the virtual space generation unit 101 may receive a selection operation by the user, such as clicking on a part of the three-dimensional shape model (bridge model 60) of the structure, via the display screen of the user terminal 2 displaying the virtual space, and execute a process of highlighting a partial shape model corresponding to the selected part (component) (e.g., displaying in a coordinated color, enlarging only the selected partial shape model, etc.) or displaying attribute information associated with the partial shape model.

画像情報取得部102は、カメラ42で実空間を撮影することで取得された撮影画像と、当該撮影画像に関連付けられた撮影条件情報と、を取得する。画像情報取得部102によって取得された撮影画像及び撮影条件情報は、後述の撮影対象特定部103による撮影対象モデルの特定処理において、入力情報として用いられる。画像情報取得部102は、撮影条件情報として、例えば、実撮影位置、及び、実撮影方向を取得し、その他、カメラ42で撮影画像を撮影した際の焦点距離及び画角を占める情報などを取得してもよい。 The image information acquisition unit 102 acquires a captured image acquired by capturing an image of a real space with the camera 42, and capturing condition information associated with the captured image. The captured image and capturing condition information acquired by the image information acquisition unit 102 are used as input information in the process of identifying a capture target model by the capture target identification unit 103 described below. The image information acquisition unit 102 acquires, for example, the actual capture position and the actual capture direction as the capture condition information, and may also acquire other information such as the focal length and angle of view when the capture image was captured by the camera 42.

なお、画像情報取得部102が、撮影画像及び撮影条件情報を取得するタイミングは、特に限定されない。例えば、画像情報取得部102は、移動体4が撮影を実行したタイミングで、移動体4からリアルタイムで撮影画像及び撮影条件情報を受信してもよい。また、移動体4による撮影作業の実行中、又は、撮影作業完了後の任意のタイミングで、ユーザによる指示に基づいて、撮影画像及び撮影条件情報を取り込む処理を実行してもよい。 The timing at which the image information acquisition unit 102 acquires the captured image and the shooting condition information is not particularly limited. For example, the image information acquisition unit 102 may receive the captured image and the shooting condition information in real time from the moving body 4 when the moving body 4 performs shooting. Also, the image information acquisition unit 102 may execute a process of importing the captured image and the shooting condition information based on an instruction from a user during the shooting operation by the moving body 4 or at any timing after the shooting operation is completed.

撮影対象特定部103は、仮想空間に配置した構造物の3次元形状モデルに含まれる部分形状モデルのうちから、撮影条件情報に基づいて、撮影画像に写し出された撮影対象モデルを特定する処理を実行する。図7は、撮影対象特定部103が実行する撮影対象モデルの特定処理を説明するための図であり、(a)に示す撮影画像50に写し出された撮影対象の部材62を、(b)に示すような仮想空間上で特定する様子を示している。撮影対象特定部103は、例えば、撮影画像50を撮影した際のカメラ42の画角の中心位置に基づき、仮想空間内の撮影対象位置に存在する撮影対象モデルを特定してもよい。 The imaging subject identification unit 103 executes a process of identifying the imaging subject model displayed in the captured image from among the partial shape models included in the three-dimensional shape model of the structure placed in the virtual space, based on the imaging condition information. Figure 7 is a diagram for explaining the imaging subject model identification process executed by the imaging subject identification unit 103, and shows how the imaging subject member 62 displayed in the captured image 50 shown in (a) is identified in the virtual space as shown in (b). The imaging subject identification unit 103 may identify the imaging subject model present at the imaging subject position in the virtual space, for example, based on the center position of the angle of view of the camera 42 when the captured image 50 was captured.

具体的に、撮影対象特定部103は、画像情報取得部102によって取得された撮影条件情報のうち、実撮影位置及び実撮影方向を示す情報に基づいて、カメラ42の実撮影方向に対応する仮想空間における仮想撮影方向を求める。仮想撮影方向は、カメラ42の実撮影位置に対応する仮想空間における仮想撮影位置から、カメラ42の実撮影方向に対応する仮想撮影方向に延びる仮想的な直線で表現され得る。なお、仮想撮影位置は、実空間の3次元座標系と仮想空間の3次元座標系との相関関係に基づいて特定でき、仮想撮影方向は、カメラ42の画角の中心位置に対応する。撮影対象特定部103は、仮想空間において、実撮影位置に対応する仮想撮影位置(図7(b)における仮想移動体57の位置)から、実撮影方向に対応する仮想撮影方向に延びる仮想的な直線(図7(b)において一点鎖線で示す矢印)を求め、当該仮想的な直線と交差する部分形状モデルを撮影対象モデルとして特定する。図7(b)では、撮影画像50の撮影範囲に含まれる部材(例えば部材61-66)のうち、区画J24内に配置されている部材62(図7(a)においてグレーで示す部材「名称:照明設置用拡幅部(Lighting Widening Section)」)の3次元形状モデルが、一点鎖線の矢印と交差しており、撮影対象モデルとして特定されている。 Specifically, the shooting target identification unit 103 obtains a virtual shooting direction in the virtual space corresponding to the real shooting direction of the camera 42 based on information indicating the real shooting position and the real shooting direction among the shooting condition information acquired by the image information acquisition unit 102. The virtual shooting direction can be expressed as a virtual straight line extending from the virtual shooting position in the virtual space corresponding to the real shooting position of the camera 42 to the virtual shooting direction corresponding to the real shooting direction of the camera 42. The virtual shooting position can be specified based on the correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space, and the virtual shooting direction corresponds to the center position of the angle of view of the camera 42. The shooting target identification unit 103 obtains a virtual straight line (arrow indicated by a dashed line in FIG. 7B) extending from the virtual shooting position (position of the virtual moving body 57 in FIG. 7B) corresponding to the real shooting position in the virtual space in the virtual shooting direction corresponding to the real shooting direction, and identifies the partial shape model intersecting with the virtual straight line as the shooting target model. In FIG. 7(b), among the components (e.g., components 61-66) included in the shooting range of the captured image 50, the three-dimensional shape model of component 62 (the component shown in gray in FIG. 7(a) "Name: Lighting Widening Section") located in section J24 intersects with the dashed dotted arrow and is identified as the model to be shot.

なお、撮影画像50の撮影範囲に含まれる部材であっても、仮想撮影方向に延びる仮想的な直線と交差しない部材(例えば、部材61,63-66など)については、後述の画像情報書込み部104が実行する処理において、対象外の部材として取り扱ってもよい。もしくは、仮想的な直線と交差する部分形状モデル(部材62)を主対象モデルとし、撮影範囲内に含まれるが仮想的な直線とは交差しない部分形状モデル(部材61,63-66など)を副対象モデルとして特定してもよい。 Note that even if a component is included in the shooting range of the captured image 50, the component (e.g., components 61, 63-66, etc.) that does not intersect with a virtual line extending in the virtual shooting direction may be treated as a non-target component in the process executed by the image information writing unit 104 described below. Alternatively, the partial shape model (component 62) that intersects with the virtual line may be set as the main target model, and the partial shape model (components 61, 63-66, etc.) that is included in the shooting range but does not intersect with the virtual line may be specified as a secondary target model.

後者の場合には、撮影対象特定部103は、例えば、撮影条件情報であるカメラ42の画角情報及び焦点距離情報と、仮想撮影位置から撮影対象位置までの仮想距離を示す仮想距離情報とに基づき、実空間における実撮影範囲に対応する仮想撮影範囲を算出することで、上記のような副対象モデルを特定してもよい。具体的には、画角情報、焦点距離情報、及び仮想距離情報に基づいて、仮想空間における視錐台の「near plane」および「far plane」を特定し、「near plane」から「far plane」までの範囲を、仮想撮影範囲として算出する。そして、当該仮想撮影範囲に含まれる部分形状モデル(ただし、カメラ42の死角に入って画像に写し出されない部材を除く)を特定する。撮影対象特定部103は、仮想撮影範囲に含まれる部分形状モデルのうちから、仮想的な直線と交差する部分形状モデル(主対象モデル)を特定するとともに、仮想的な直線と交差しなかった他の部分形状モデルを副対象モデルとして特定する。 In the latter case, the shooting target identification unit 103 may identify the secondary target model by calculating a virtual shooting range corresponding to the real shooting range in the real space based on, for example, the angle of view information and focal length information of the camera 42, which are shooting condition information, and virtual distance information indicating the virtual distance from the virtual shooting position to the shooting target position. Specifically, based on the angle of view information, focal length information, and virtual distance information, the "near plane" and "far plane" of the view frustum in the virtual space are identified, and the range from the "near plane" to the "far plane" is calculated as the virtual shooting range. Then, the shooting target identification unit 103 identifies the partial shape model included in the virtual shooting range (excluding the member that is in the blind spot of the camera 42 and is not shown in the image). The shooting target identification unit 103 identifies the partial shape model (main target model) that intersects with the virtual straight line from the partial shape models included in the virtual shooting range, and identifies the other partial shape models that do not intersect with the virtual straight line as secondary target models.

画像情報書込み部104は、撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、撮影画像に紐づける処理を実行する。撮影画像に紐づける属性情報としては、撮影対象モデルを一意に特定するための識別情報であってもよく、例えば、画像情報書込み部104は、撮影対象モデルに関連付けられている属性情報のうちの、部材の名称、及び/又は、区画情報(構造物(橋梁)において部材が配置されている区画を示す情報)を、撮影画像に紐づけてもよい。 The image information writing unit 104 executes a process of linking attribute information associated with the partial shape model identified as the photographed object model to the photographed image. The attribute information linked to the photographed image may be identification information for uniquely identifying the photographed object model. For example, the image information writing unit 104 may link the name of the component and/or the section information (information indicating the section in which the component is located in the structure (bridge)) from the attribute information associated with the photographed object model to the photographed image.

また、画像情報書込み部104が実行する、属性情報を撮影画像に「紐づける処理」とは、例えば、部材の名称、及び/又は、区画情報などの属性情報を、撮影画像の附属情報に書き込んで、当該附属情報を含む撮影画像データを撮影画像データ記憶部122に記憶させる(格納する)処理であってもよい。附属情報のファイル形式(データ形式)は特に限定されず、画像情報書込み部104は、撮影対象モデルの属性情報を、撮影画像のExif情報(付随情報の一例)に書き込む処理を実行してもよい。図7に示す例の場合には、画像情報書込み部104は、撮影対象モデルとして特定された部材62の名称「Lighting Widening Section」と、当該部材62が配置されている区画の番号「J24」とを、撮影対象物(キャプチャーポイント)を示す情報として撮影画像の附属情報に書き込む処理を実行する。 The process of "linking" attribute information to a captured image performed by the image information writing unit 104 may be, for example, a process of writing attribute information such as the name of a component and/or section information into the auxiliary information of the captured image and storing (storing) the captured image data including the auxiliary information in the captured image data storage unit 122. The file format (data format) of the auxiliary information is not particularly limited, and the image information writing unit 104 may execute a process of writing attribute information of the captured subject model into the Exif information (an example of auxiliary information) of the captured image. In the case of the example shown in FIG. 7, the image information writing unit 104 executes a process of writing the name of the component 62 identified as the captured subject model, "Lighting Widening Section," and the section number "J24" in which the component 62 is located, into the auxiliary information of the captured image as information indicating the captured subject (capture point).

撮影対象特定部103により撮影範囲内に含まれる副対象モデルが特定された場合、画像情報書込み部104は、副対象モデルの属性情報を撮影画像の附属情報に書き込む処理を実行してもよい。この際、副対象モデルの属性情報は、主対象物(撮影対象物)以外のその他の写り込み部材を示す情報として、附属情報に書き込まれてもよい。 When the shooting subject identification unit 103 identifies a secondary object model included within the shooting range, the image information writing unit 104 may execute a process of writing attribute information of the secondary object model to the auxiliary information of the captured image. At this time, the attribute information of the secondary object model may be written to the auxiliary information as information indicating other reflected parts other than the main object (photographed object).

表示制御部105は、ユーザの要求に基づいて、撮影画像データ記憶部122に格納されている所定の撮影画像を読み出し、ユーザ端末2の表示画面に出力する処理を実行する。例えば、表示制御部105は、ユーザ端末2を介してユーザによる画像の出力要求を受け付け、当該要求に応じた撮影画像を出力してもよい。表示制御部105は、画像の出力要求の受け付けに際して、撮影日時、対象部材、対象区画などの出力条件の指定を受け付けて、各撮影画像データの付随情報を参照して指定された出力条件に対応する撮影画像を特定してもよい。複数の撮影画像がユーザに指定された出力条件を満たす場合には、表示制御部105は、出力条件を満たす当該複数の撮影画像の一覧(画像リスト)を出力してもよい。表示制御部105がユーザに指定された撮影画像(単一の画像又は画像リスト)をユーザ端末2に表示させる際には、撮影画像と、画像情報書込み部104によって付随情報に書き込まれた撮影対象物を特定する情報(例えば、撮影対象物である部材の名称、当該部材が配置されている区画を示す区画情報など)とを並べて表示させてもよい。 The display control unit 105 executes a process of reading out a specific captured image stored in the captured image data storage unit 122 based on a user's request and outputting it to the display screen of the user terminal 2. For example, the display control unit 105 may receive an image output request from the user via the user terminal 2 and output the captured image in response to the request. When receiving an image output request, the display control unit 105 may receive a designation of output conditions such as the shooting date and time, the target component, and the target section, and identify the captured image corresponding to the designated output condition by referring to the accompanying information of each captured image data. When multiple captured images satisfy the output condition designated by the user, the display control unit 105 may output a list (image list) of the multiple captured images that satisfy the output condition. When the display control unit 105 displays the captured image (single image or image list) designated by the user on the user terminal 2, the captured image and information identifying the captured object written in the accompanying information by the image information writing unit 104 (for example, the name of the component that is the captured object, section information indicating the section in which the component is located, etc.) may be displayed side by side.

表示制御部105は、上記のような撮影画像の検索処理に加えて、もしくは、代えて、撮影画像の一覧からユーザに指定された出力条件に見合う撮影画像を絞り込むフィルタリング処理、ユーザに指定されたソート条件に基づいて撮影画像の並びを替えてリストを出力するソート処理などを実行してもよい。この場合においても、表示制御部105は、フィルタリング条件(絞り込み条件)又はソート条件として、ユーザが所望する撮影日時、対象部材、対象区画など条件項目の指定を受け付ける。 In addition to or instead of the above-described search process for captured images, the display control unit 105 may perform a filtering process for narrowing down the list of captured images to those that meet the output conditions specified by the user, and a sorting process for rearranging the captured images based on the sorting conditions specified by the user and outputting the list. Even in this case, the display control unit 105 accepts the specification of condition items such as the capture date and time, target material, and target section desired by the user as filtering conditions (narrowing conditions) or sorting conditions.

撮影画像を出力するための条件(検索条件、フィルタリング条件、ソート条件)は、テキスト形式で入力されてもよいし、プルダウンリストなどの所定の選択式フォームを介して入力されてもよい。また、表示制御部105は、構造物の3次元形状モデルをユーザ端末2に表示するUI(ユーザインターフェース)を介して、ユーザによる対象部材の指定を受け付けてもよい。具体的に、表示制御部105は、構造物の3次元形状モデルが表示されたUI上で、3次元形状モデルに含まれるいずれか一の部材又は区画の指定(例えば、所望の部分形状モデル又は区画をクリックして選択するなど)を受け付けてもよい。そして、表示制御部105は、撮影画像データ記憶部122に格納されている各撮影画像データの附属情報を参照して、指定された部材又は区画が付随情報に書き込まれている撮影画像を特定する。この場合、表示制御部105は、3次元形状モデルを表示する画面から撮影画像を表示する画面に切り替えて、特定した撮影画像(単一の画像又は画像リスト)を出力してもよいし、ユーザ端末2の表示画面上に、3次元形状モデルと、特定した撮影画像と、を並べて表示させてもよい。 The conditions (search conditions, filtering conditions, sorting conditions) for outputting the captured images may be input in text format or through a predetermined selection form such as a pull-down list. The display control unit 105 may also accept the user's designation of the target member through a UI (user interface) that displays the three-dimensional shape model of the structure on the user terminal 2. Specifically, the display control unit 105 may accept the designation of any one member or section included in the three-dimensional shape model (for example, by clicking and selecting a desired partial shape model or section) on the UI on which the three-dimensional shape model of the structure is displayed. Then, the display control unit 105 refers to the auxiliary information of each captured image data stored in the captured image data storage unit 122, and identifies the captured image in which the designated member or section is written in the auxiliary information. In this case, the display control unit 105 may switch from a screen displaying the three-dimensional shape model to a screen displaying the captured images, and output the identified captured image (a single image or an image list), or may display the three-dimensional shape model and the identified captured image side by side on the display screen of the user terminal 2.

なお、上記のような表示制御部105の機能は、ユーザ端末2のプロセッサ20により実行されてもよい。また、プロセッサ10は、図5で例示されていないその他の機能部を有していてもよい。例えば、プロセッサ10は、移動情報記憶部123に記憶された各種移動情報に基づき、構造物内外の各種撮影対象物の実画像の撮影等を目的とする移動体4の移動を制御する機能部を有していてもよい。 The functions of the display control unit 105 as described above may be executed by the processor 20 of the user terminal 2. The processor 10 may also have other functional units not illustrated in FIG. 5. For example, the processor 10 may have a functional unit that controls the movement of the moving body 4 for the purpose of capturing real images of various objects inside and outside a structure, based on various movement information stored in the movement information storage unit 123.

<情報処理方法の一例>
続いて、図8を参照して、本実施形態に係わる情報処理システムによる情報処理方法(撮影画像データの管理に関わる情報処理方法)について説明する。図8は、本実施形態に係わる情報処理方法を例示するフローチャートである。
<Example of information processing method>
Next, an information processing method (information processing method relating to management of captured image data) by the information processing system according to the present embodiment will be described with reference to Fig. 8. Fig. 8 is a flowchart illustrating the information processing method according to the present embodiment.

まず、情報処理システムにおける仮想空間生成部101は、3次元データ記憶部121に記憶されている構造物モデル情報(及び部分モデル情報)を読み出す(図8のステップSQ101)。そして、仮想空間生成部101は、読み出した構造物モデル情報に基づき、部分形状モデルを組み合わせて構築される構造物の3次元形状モデルが配置された仮想空間を生成する(ステップSQ102)。このステップSQ102において仮想空間を生成する際に、仮想空間生成部101は、実空間の3次元座標系と仮想空間の3次元座標系とを対応付けることにより、実空間の3次元座標系と仮想空間の3次元座標系との相関関係を構築する処理を実行してもよい。 First, the virtual space generation unit 101 in the information processing system reads out the structure model information (and partial model information) stored in the three-dimensional data storage unit 121 (step SQ101 in FIG. 8). Then, based on the read out structure model information, the virtual space generation unit 101 generates a virtual space in which a three-dimensional shape model of a structure constructed by combining partial shape models is placed (step SQ102). When generating the virtual space in this step SQ102, the virtual space generation unit 101 may execute a process of constructing a correlation between the three-dimensional coordinate system of the real space and the three-dimensional coordinate system of the virtual space by associating the three-dimensional coordinate system of the real space with the three-dimensional coordinate system of the virtual space.

次に、画像情報取得部102は、移動体4のカメラ42によって撮影され移動体4から管理サーバ1に送信された撮影画像、及び、当該撮影画像に関連付けられた撮影条件情報を取得する(ステップSQ103)。この際、画像情報取得部102は、撮影条件情報として、例えば、撮影画像を撮影した際のカメラ42の実空間における実撮影位置、及び、カメラ42の光学中心軸が向く実空間における方向である実撮影方向を示す情報を取得してもよく、その他に、撮影画像を撮影した際のカメラ42の焦点距離を示す情報、画角を示す情報などを取得してもよい。 Next, the image information acquisition unit 102 acquires the captured image captured by the camera 42 of the moving object 4 and transmitted from the moving object 4 to the management server 1, and the capturing condition information associated with the captured image (step SQ103). At this time, the image information acquisition unit 102 may acquire, as the capturing condition information, information indicating, for example, the actual capturing position in real space of the camera 42 when the captured image was captured, and the actual capturing direction, which is the direction in real space to which the optical center axis of the camera 42 faces, and may also acquire information indicating the focal length and the angle of view of the camera 42 when the captured image was captured.

次に、撮影対象特定部103は、仮想空間に配置した構造物の3次元形状モデルに含まれる部分形状モデルのうちから、撮影条件情報に基づいて、撮影画像に写し出された撮影対象モデルを特定する(ステップSQ104)。例えば、撮影対象特定部103は、実撮影位置及び実撮影方向を示す情報に基づいて、仮想空間において、実撮影位置に対応する仮想撮影位置から、実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、当該仮想的な直線と交差する部分形状モデルを撮影対象モデルとして特定する(例えば図7の(b))。 Next, the shooting target identification unit 103 identifies the shooting target model shown in the captured image from among the partial shape models included in the 3D shape model of the structure placed in the virtual space based on the shooting condition information (step SQ104). For example, based on information indicating the actual shooting position and actual shooting direction, the shooting target identification unit 103 determines a virtual straight line extending in the virtual space from the virtual shooting position corresponding to the actual shooting position to the virtual shooting direction corresponding to the actual shooting direction, and identifies the partial shape model that intersects with the virtual straight line as the shooting target model (for example, (b) of FIG. 7).

その後、画像情報書込み部104は、撮影対象特定部103により撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、撮影画像に紐づける(ステップSQ105)。部分形状モデルに関連付けられている属性情報は、例えば、部材の名称を示す情報、構造物において部材が配置されている区画を示す区画情報などを含んでいてもよい。ステップSQ105において、画像情報書込み部104は、撮影対象モデルに属性情報として紐づけられている、部材の名称、及び、区画情報を、撮影画像の附属情報(例えば、Exif情報)に書き込む処理を実行してもよい。 Then, the image information writing unit 104 links attribute information associated with the partial shape model identified as the photographed object model by the photographed object identification unit 103 to the photographed image (step SQ105). The attribute information associated with the partial shape model may include, for example, information indicating the name of the component, and partition information indicating the partition in which the component is located in the structure. In step SQ105, the image information writing unit 104 may execute a process of writing the name of the component and the partition information linked to the photographed object model as attribute information to the auxiliary information (e.g., Exif information) of the photographed image.

上記のように、本実施形態に係わる情報処理システムでは、構造物の3次元形状モデル上において、当該3次元形状モデルに含まれる部分形状モデルに対応する部材の名称などの属性情報が一元管理されており、仮想空間で特定された撮影対象モデルの属性情報が撮影画像に自動で紐づけられる。つまり、情報処理システムでは、構造物の点検などで撮影画像データを活用する際に、撮影画像に対応付ける情報の誤記録を防止できる。また、上述のとおり撮影画像データに対して画像中の撮影対象を特定する情報を自動で記録することができ、撮影画像データの管理の最適化を図ることができる。これらの効果に基づいて、点検作業の効率化、点検結果の正確性(確実性)の担保などの効果も期待できる。 As described above, in the information processing system according to this embodiment, attribute information such as the names of components corresponding to partial shape models included in the three-dimensional shape model of the structure is centrally managed on the three-dimensional shape model of the structure, and attribute information of the photographed object model identified in the virtual space is automatically linked to the photographed image. In other words, the information processing system can prevent erroneous recording of information associated with the photographed image when using photographed image data for the inspection of a structure, etc. Also, as described above, information identifying the photographed object in the image can be automatically recorded for the photographed image data, and management of the photographed image data can be optimized. Based on these effects, effects such as more efficient inspection work and guaranteed accuracy (certainty) of the inspection results can be expected.

上述した実施形態は、本開示の理解を容易にするための例示に過ぎず、本開示を限定して解釈するためのものではない。本開示は、その趣旨を逸脱することなく、変更、改良することができると共に、本開示にはその均等物が含まれることは言うまでもない。 The above-described embodiments are merely examples to facilitate understanding of the present disclosure, and are not intended to limit the interpretation of the present disclosure. This disclosure can be modified and improved without departing from its spirit, and it goes without saying that this disclosure includes equivalents.

例えば、上記実施形態では、主として、ドローンのような無人移動体を利用して橋梁を点検する事例を挙げて、撮影画像データの管理に関わる情報処理システムについて説明したが、情報処理システムの適用事例は橋梁の点検に限定されない。点検の対象は、トンネル、ダムなどのその他の構造物であってもよいし、点検実行時の撮影は、人が保持するスマートフォン、タブレット端末、その他カメラなどのポータブル端末を利用して実行されてもよいし、有人移動体を利用して実行されてもよい。 For example, in the above embodiment, an information processing system relating to management of captured image data has been described mainly with an example of inspecting a bridge using an unmanned mobile object such as a drone, but application examples of the information processing system are not limited to bridge inspections. The subject of inspection may be other structures such as tunnels and dams, and photographing during inspection may be performed using a portable device such as a smartphone, tablet terminal, or other camera held by a person, or may be performed using a manned mobile object.

また、構造物の撮影に利用する移動体4は、上述したようなカメラ/センサ類42の他に、構造物内部及び/又は外部の所定の事象の有無を点検するために利用される装置、機器等をさらに備えていてもよい。より具体的には、撮像装置(可視光カメラ、赤外線カメラ、金属探知機、超音波測定器等)や、打鍵装置等、探知装置(金属探知機)、集音装置、臭気測定器、ガス検知器、空気汚染測定器、検出装置(宇宙線、放射線、電磁波等を検出するための装置)等の点検対象構造物の状態を知るために必要な装置は全て採用され得る。撮影対象特定部103により特定された撮影対象モデルの属性情報(部材の名称等)は、撮影画像への紐づけと同様に、上記のようなその他の点検装置によって取得された点検データに対して紐づけられてもよい。 In addition, the moving object 4 used to photograph the structure may further include, in addition to the above-mentioned cameras/sensors 42, devices, equipment, etc. used to inspect the presence or absence of a specific event inside and/or outside the structure. More specifically, all devices necessary to know the state of the inspected structure, such as imaging devices (visible light cameras, infrared cameras, metal detectors, ultrasonic measuring devices, etc.), keying devices, etc., detection devices (metal detectors), sound collection devices, odor measuring devices, gas detectors, air pollution measuring devices, detection devices (devices for detecting cosmic rays, radiation, electromagnetic waves, etc.), etc., may be adopted. The attribute information (such as the name of the component) of the photographed object model identified by the photographed object identification unit 103 may be linked to the inspection data acquired by other inspection devices as described above, in the same way as linking to the photographed image.

また、情報処理システムにおける撮影目的は、点検に限定されず、警備、インフラ等の監視、測量、災害対応等であってもよく、これらを目的とする撮影で取得された撮影画像データを対象として、本開示の情報処理システムが適用されてもよい。 In addition, the purpose of photography in the information processing system is not limited to inspection, but may also be security, monitoring of infrastructure, surveying, disaster response, etc., and the information processing system of the present disclosure may be applied to image data acquired by photography for these purposes.

上記実施形態で説明した仮想空間生成部101、画像情報取得部102、撮影対象特定部103、画像情報書込み部104、及び、表示制御部105などの一部又は全部の機能部は、管理サーバ1のプロセッサ10ではなく、ユーザ端末2のプロセッサ20又は移動体4のフライトコントローラー41などにより実行されてもよい。 Some or all of the functional units, such as the virtual space generation unit 101, image information acquisition unit 102, shooting target identification unit 103, image information writing unit 104, and display control unit 105 described in the above embodiment, may be executed by the processor 20 of the user terminal 2 or the flight controller 41 of the moving object 4, instead of the processor 10 of the management server 1.

1 管理サーバ
2 ユーザ端末
4 移動体

1 Management server 2 User terminal 4 Mobile object

Claims (5)

橋梁に含まれる部材ごとの3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される橋梁の3次元構造を示すための橋梁モデル情報と、を記憶する3次元データ記憶部と、
前記橋梁モデル情報に基づき、前記橋梁の3次元形状モデルを配置した仮想空間を生成する仮想空間生成部と、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得する画像情報取得部と、
前記仮想空間に配置した前記橋梁の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定する撮影対象特定部と、
前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づける画像情報書込み部と、を備え、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記橋梁において周期的な所定の間隔で区切られた区画のうち前記部材が配置されている区画を示す区画情報、を含み、
前記画像情報書込み部は、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込む、情報処理システム。
a three-dimensional data storage unit that stores a plurality of pieces of partial model information for indicating a three-dimensional structure of each member included in a bridge , and bridge model information for indicating a three-dimensional structure of the bridge constructed by integrating the plurality of pieces of partial model information;
a virtual space generation unit that generates a virtual space in which a three-dimensional shape model of the bridge is arranged based on the bridge model information;
an image information acquisition unit that acquires an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
a photographing target specifying unit that specifies a photographing target model shown in the image based on the photographing condition information from among partial shape models included in the three-dimensional shape model of the bridge arranged in the virtual space;
an image information writing unit that links attribute information associated with the partial shape model identified as the photographing target model to the image ,
the attribute information associated with each of the partial shape models includes a name of the component, and section information indicating a section in which the component is located among sections divided at predetermined periodic intervals on the bridge;
An information processing system , wherein the image information writing unit writes the name of the component associated with the partial shape model identified as the model to be photographed, and the partition information, into auxiliary information of the image .
前記画像情報取得部は、前記撮影条件情報として、前記画像を撮影した際の前記カメラの実空間における実撮影位置、及び、前記カメラの光学中心軸が向く実空間における方向である実撮影方向、を示す情報を取得し、
前記撮影対象特定部は、前記実撮影位置及び前記実撮影方向を示す情報に基づいて、前記仮想空間において、前記実撮影位置に対応する仮想撮影位置から、前記実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、当該仮想的な直線と交差する部分形状モデルを前記撮影対象モデルとして特定する、請求項1に記載の情報処理システム。
the image information acquisition unit acquires, as the photographing condition information, information indicating an actual photographing position in real space of the camera when the image was photographed, and an actual photographing direction, which is a direction in real space to which an optical center axis of the camera faces;
2. The information processing system of claim 1, wherein the shooting subject identification unit determines, based on information indicating the actual shooting position and the actual shooting direction, a virtual straight line extending in the virtual space from a virtual shooting position corresponding to the actual shooting position to a virtual shooting direction corresponding to the actual shooting direction, and identifies a partial shape model that intersects with the virtual straight line as the shooting subject model.
前記撮影対象特定部は、The imaging target identification unit is
前記撮影条件情報に基づいて、前記仮想空間において、実撮影位置に対応する仮想撮影位置から、実撮影方向に対応する仮想撮影方向に延びる仮想的な直線を求め、determining, in the virtual space, a virtual straight line extending from a virtual shooting position corresponding to an actual shooting position to a virtual shooting direction corresponding to an actual shooting direction based on the shooting condition information;
当該仮想的な直線と交差する部分形状モデルを前記撮影対象モデルとして特定するとともに、撮影範囲内に含まれるが仮想的な直線とは交差しない部分形状モデルを副対象モデルとして特定する、請求項1又は2に記載の情報処理システム。The information processing system according to claim 1 or 2, wherein a partial shape model that intersects with the virtual straight line is identified as the photographed object model, and a partial shape model that is included in the photographed range but does not intersect with the virtual straight line is identified as a secondary object model.
橋梁に含まれる部材ごとの3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される橋梁の3次元構造を示すための橋梁モデル情報と、を記憶することと、
前記橋梁モデル情報に基づき、前記橋梁の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記橋梁の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
画像情報書込み部により、前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータが実行し、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記橋梁において周期的な所定の間隔で区切られた区画のうち前記部材が配置されている区画を示す区画情報、を含み、
前記画像情報書込み部は、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込む、情報処理方法。
Storing a plurality of pieces of partial model information for indicating a three-dimensional structure of each member included in the bridge , and bridge model information for indicating a three-dimensional structure of the bridge constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the bridge is arranged based on the bridge model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in the three-dimensional shape model of the bridge arranged in the virtual space;
an image information writing unit links attribute information associated with the partial shape model identified as the photographing target model to the image;
the attribute information associated with each of the partial shape models includes a name of the component, and section information indicating a section in which the component is located among sections divided at predetermined periodic intervals on the bridge;
An information processing method , wherein the image information writing unit writes the name of the component associated with the partial shape model identified as the model to be photographed, and the partition information, into auxiliary information of the image .
橋梁に含まれる部材ごとの3次元構造を示すための複数の部分モデル情報と、当該複数の部分モデル情報を統合して構築される橋梁の3次元構造を示すための橋梁モデル情報と、を記憶することと、
前記橋梁モデル情報に基づき、前記橋梁の3次元形状モデルを配置した仮想空間を生成することと、
カメラで実空間を撮影することで取得された画像と、当該画像に関連付けられた撮影条件情報と、を取得することと、
前記仮想空間に配置した前記橋梁の3次元形状モデルに含まれる部分形状モデルのうちから、前記撮影条件情報に基づいて、前記画像に写し出された撮影対象モデルを特定することと、
画像情報書込み部により、前記撮影対象モデルとして特定された部分形状モデルに関連付けられている属性情報を、前記画像に紐づけることと、をコンピュータに実行させるためのプログラムであり、
それぞれの前記部分形状モデルに関連付けられている前記属性情報は、前記部材の名称、及び、前記橋梁において周期的な所定の間隔で区切られた区画のうち前記部材が配置されている区画を示す区画情報、を含み、
前記画像情報書込み部により、前記撮影対象モデルとして特定された前記部分形状モデルに紐づけられている前記部材の名称、及び、前記区画情報を、前記画像の附属情報に書き込むこと、を前記コンピュータに実行させるためのプログラム
storing a plurality of pieces of partial model information for indicating a three-dimensional structure of each member included in the bridge , and bridge model information for indicating a three-dimensional structure of the bridge constructed by integrating the plurality of pieces of partial model information;
generating a virtual space in which a three-dimensional shape model of the bridge is arranged based on the bridge model information;
Acquiring an image acquired by photographing a real space with a camera and photographing condition information associated with the image;
Identifying a photographing target model shown in the image based on the photographing condition information from among partial shape models included in the three-dimensional shape model of the bridge arranged in the virtual space;
and linking , by an image information writing unit, attribute information associated with the partial shape model identified as the photographing target model to the image ;
the attribute information associated with each of the partial shape models includes a name of the component, and section information indicating a section in which the component is located among sections divided at predetermined periodic intervals on the bridge;
A program for causing the computer to execute the following: the image information writing unit writes the name of the component associated with the partial shape model identified as the model to be photographed, and the partition information, into the auxiliary information of the image .
JP2024193622A 2024-11-05 2024-11-05 Information processing system, information processing method, and program Active JP7696129B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024193622A JP7696129B1 (en) 2024-11-05 2024-11-05 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024193622A JP7696129B1 (en) 2024-11-05 2024-11-05 Information processing system, information processing method, and program

Publications (1)

Publication Number Publication Date
JP7696129B1 true JP7696129B1 (en) 2025-06-20

Family

ID=96059582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024193622A Active JP7696129B1 (en) 2024-11-05 2024-11-05 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7696129B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339127A (en) * 2004-05-26 2005-12-08 Olympus Corp Apparatus and method for displaying image information
JP2012133471A (en) * 2010-12-20 2012-07-12 Kokusai Kogyo Co Ltd Image composer, image composition program and image composition system
JP7441579B1 (en) * 2023-06-07 2024-03-01 株式会社センシンロボティクス Information processing system and information processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339127A (en) * 2004-05-26 2005-12-08 Olympus Corp Apparatus and method for displaying image information
JP2012133471A (en) * 2010-12-20 2012-07-12 Kokusai Kogyo Co Ltd Image composer, image composition program and image composition system
JP7441579B1 (en) * 2023-06-07 2024-03-01 株式会社センシンロボティクス Information processing system and information processing method

Similar Documents

Publication Publication Date Title
JP7452743B2 (en) Flight information control method, control device and computer program
US10467758B1 (en) Imagery-based construction progress tracking
CN106061836B (en) Control device, imaging device, control method, imaging method, and computer program
JP7004374B1 (en) Movement route generation method and program of moving object, management server, management system
WO2013059160A1 (en) Acquisition of information for a construction site
JP2019211257A (en) Inspection system
JP6878194B2 (en) Mobile platforms, information output methods, programs, and recording media
JP7392742B2 (en) Control method and control device
JP2022023592A (en) Survey system, survey method and program for survey
JP2023100642A (en) inspection system
JP7467206B2 (en) Video management support system and video management support method
JP2026012840A (en) Method and program for generating a moving path for a moving object, management server, and management system
JP7441579B1 (en) Information processing system and information processing method
WO2020225979A1 (en) Information processing device, information processing method, program, and information processing system
JP7696129B1 (en) Information processing system, information processing method, and program
JP6681102B2 (en) Inspection system
JP6681101B2 (en) Inspection system
JP6730763B1 (en) Flight body flight path creation method and management server
Zou et al. Automated UAV route planning for bridge inspection using BIM-GIS data
CN116203976A (en) Indoor inspection method and device for transformer substation, unmanned aerial vehicle and storage medium
JP2023072355A (en) Flying body photographing place determination device, flying body photographing place determination method, and flying body photographing place determination program
JP7667395B2 (en) Structure survey support system, structure survey support method and program
JP7698364B2 (en) Information processing system, mobile body, information processing method, and program
JP7573826B1 (en) Information processing system, information processing method, and program
JP2021067670A (en) Method of creating flight route for flying object and management server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241105

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20241105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250530

R150 Certificate of patent or registration of utility model

Ref document number: 7696129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150