[go: up one dir, main page]

JP7170023B2 - DAMAGE DATA EDITING DEVICE, DAMAGE DATA EDITING METHOD, PROGRAM, AND SYSTEM - Google Patents

DAMAGE DATA EDITING DEVICE, DAMAGE DATA EDITING METHOD, PROGRAM, AND SYSTEM Download PDF

Info

Publication number
JP7170023B2
JP7170023B2 JP2020201168A JP2020201168A JP7170023B2 JP 7170023 B2 JP7170023 B2 JP 7170023B2 JP 2020201168 A JP2020201168 A JP 2020201168A JP 2020201168 A JP2020201168 A JP 2020201168A JP 7170023 B2 JP7170023 B2 JP 7170023B2
Authority
JP
Japan
Prior art keywords
damage
data
image
damage data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020201168A
Other languages
Japanese (ja)
Other versions
JP2021047197A5 (en
JP2021047197A (en
Inventor
浩明 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2021047197A publication Critical patent/JP2021047197A/en
Publication of JP2021047197A5 publication Critical patent/JP2021047197A5/en
Application granted granted Critical
Publication of JP7170023B2 publication Critical patent/JP7170023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Bridges Or Land Bridges (AREA)

Description

本発明は、損傷データ編集装置、損傷データ編集方法、およびプログラムに関し、特に点検対象である建造物の撮影画像から生成される損傷データを編集する技術に関する。 TECHNICAL FIELD The present invention relates to a damage data editing device, a damage data editing method, and a program, and more particularly to a technique for editing damage data generated from a photographed image of a building to be inspected.

橋梁、トンネル等の建造物は、継時的に損傷の発生する可能性が高くなる。したがって、定期的に損傷の発生および損傷の進行状況の点検を行うことが求められている。 Structures such as bridges and tunnels are more likely to be damaged over time. Therefore, it is required to periodically inspect the occurrence of damage and the progress of damage.

建造物を点検する調査員は、点検の結果を示す帳票として所定形式の点検調書を作成する必要がある。その点検調書の一つとして建造物の損傷状態を図示する損傷図がある。実際に点検した調査員とは異なる専門家であっても、所定形式で作成された損傷図を見ることにより、建造物の損傷の発生および進行状況を把握し、その建造物の維持管理計画を策定することが可能になる。 An investigator who inspects a building needs to prepare an inspection record in a predetermined format as a form showing the results of the inspection. As one of the inspection records, there is a damage diagram showing the state of damage to the building. Even an expert who is different from the investigator who actually inspected the building can grasp the occurrence and progress of the damage to the building by looking at the damage diagram created in the prescribed format, and formulate a maintenance management plan for the building. It becomes possible to formulate

また近年において建造物の点検は、撮影画像を利用して行われる場合がある。すなわち、調査員は、点検対象である建造物の撮影画像を取得し、その撮影画像から損傷(例えばひび割れ)を検出することにより、建造物の損傷の点検を行う。 Further, in recent years, there are cases where inspections of buildings are performed using photographed images. That is, an investigator acquires a photographed image of a building to be inspected, and inspects the building for damage by detecting damage (for example, cracks) from the photographed image.

特許文献1には、建造物の撮影画像を利用して検査図面(損傷図に相当)の作成を行う技術が記載されている。具体的には、点検対象の建造物の撮影画像における損傷の特徴から線や面や文字の損傷オブジェクトを作成し、スキャナで読み込んだ製図面データ上に配置する技術が記載されている。 Patent Literature 1 describes a technique for creating an inspection drawing (corresponding to a damage drawing) using a photographed image of a building. Specifically, it describes a technique for creating damage objects such as lines, planes, and characters from the characteristics of damage in a photographed image of a building to be inspected, and arranging them on drawing data read by a scanner.

特開2004-318790号公報Japanese Patent Application Laid-Open No. 2004-318790

ここで、撮影画像から画像処理により損傷を検出する場合には、撮影画像に射影変換等の加工を加える前に損傷の検出処理を行うと、より精度の高い損傷の検出を行うことができる。すなわち、撮影画像に射影変換等の加工が加えられると、加工の影響により撮影画像のデータに影響が及ぼされて、精度の良い損傷の検出が行えない場合が発生する。 Here, when detecting damage from a photographed image by image processing, damage can be detected with higher accuracy by performing damage detection processing before applying processing such as projective transformation to the photographed image. That is, when a photographed image is processed such as projective transformation, the data of the photographed image is affected by the influence of the processing, and damage cannot be accurately detected in some cases.

しかしながら、特許文献1に記載された技術では、射影変換前の撮影画像に基づいて損傷オブジェクトが生成されることに関しては言及されていない。 However, the technique described in Patent Literature 1 does not mention generating a damaged object based on a photographed image before projective transformation.

また、撮影画像から画像処理により損傷を検出する場合には、必ずしも精度良く損傷が検出されるとは限らず、画像処理により損傷を検出したのちにユーザが確認し、必要に応じて損傷の検出結果を編集(修正および加工)することが必要になる場合がある。 In addition, when detecting damage from a photographed image by image processing, damage is not always detected with high accuracy. It may be necessary to edit (modify and refine) the results.

しかしながら、特許文献1に記載された技術では、損傷の検出結果であるオブジェクトデータの生成の際に、撮影画像の損傷とオブジェクトデータとを合わせるような編集機能に関して言及されていない。すなわち、特許文献1に記載された技術では、生成されたオブジェクトデータが精度良く撮影画像の損傷を表現しているかユーザが確認し編集する機能に関しては言及されていない。 However, the technique described in Patent Literature 1 does not refer to an editing function such as combining the damage in the captured image with the object data when generating the object data that is the detection result of the damage. That is, the technique described in Patent Document 1 does not mention a function for the user to check whether the generated object data accurately expresses the damage of the captured image and to edit the data.

本発明はこのような事情に鑑みてなされたもので、その目的は、撮影画像に写された損傷が精度良く表現された損傷データを得ることができる損傷データ編集装置、損傷データ編集方法、およびプログラムを提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and aims to provide a damage data editing apparatus, a damage data editing method, and a damage data editing method capable of obtaining damage data in which damage captured in a photographed image is expressed with high accuracy. to provide the program.

上記目的を達成するための本発明の一の態様である損傷データ編集装置は、点検対象の建造物が撮影された撮影画像を取得する画像取得部と、撮影画像を画像解析することにより、損傷データを生成する損傷データ生成部と、表示部と、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる表示制御部と、表示部に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する編集部と、点検対象の建造物の図面データを取得する図面データ取得部と、表示部に表示された撮影画像と図面データ取得部で取得された図面データとの射影関係の入力を受け付ける射影関係受付部と、射影関係受付部で受け付けられた射影関係に基づいて、損傷データ生成部で生成した損傷データまたは編集部で編集された損傷データを射影変換する射影変換部と、射影変換部で射影変換された損傷データを出力する出力部と、を備える。 A damage data editing device, which is one aspect of the present invention for achieving the above object, includes an image acquisition unit that acquires a photographed image of a building to be inspected, and an image analysis of the photographed image to obtain damage data. A damage data generation unit that generates data, a display unit, a display control unit that displays a photographed image on the display unit and overlays the damage data on the photographed image, and an instruction to edit the damage data displayed on the display unit. , and edit the damage data based on the editing command, the drawing data acquisition unit acquires the drawing data of the building to be inspected, and the captured image and the drawing data acquisition unit displayed on the display unit A projection relation reception unit that receives an input of a projection relation with the acquired drawing data, and damage data generated by the damage data generation unit or damage edited by the editing unit based on the projection relation received by the projection relation reception unit. A projective transformation unit for projectively transforming data, and an output unit for outputting damage data projectively transformed by the projective transformation unit.

本態様によれば、損傷データ生成部で撮影画像を画像解析されることにより損傷データが生成され、そして生成された損傷データは、撮影画像と図面データとの射影関係に基づいて射影変換される。すなわち、本態様の損傷データは、射影変換前の撮影画像における損傷の検出に基づいて生成され、その後射影変換される。これにより本態様は、損傷の検出を行う撮影画像において射影変換による画質劣化の影響を受けることがなく、撮影画像に写された損傷を精度良く再現した損傷データを生成することができる。 According to this aspect, the damage data is generated by image analysis of the photographed image in the damage data generation unit, and the generated damage data is projectively transformed based on the projective relationship between the photographed image and the drawing data. . That is, the damage data of this aspect is generated based on the detection of damage in the captured image before projective transformation, and is then projectively transformed. As a result, in this aspect, the captured image for damage detection is not affected by image quality deterioration due to projective transformation, and damage data that accurately reproduces the damage shown in the captured image can be generated.

また本態様によれば、表示制御部により、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示されるので、ユーザは、そのオーバレイ表示を確認して、生成された損傷データを編集することができる。すなわちユーザは、生成された損傷データが、撮影画像に写っている損傷を精度良く表現しているか否かを確認することができる。例えばユーザは、撮影画像に写っている損傷と損傷データとの間に差異がある場合には、撮影画像に写っている損傷を参照して損傷データを編集することができる。これにより、本態様は、撮影画像に写された損傷を精度良く表現した損傷データを生成することができる。 Further, according to this aspect, the display control unit causes the display unit to display the photographed image, and also displays the damage data overlaid on the photographed image. can be edited. That is, the user can confirm whether or not the generated damage data accurately represents the damage shown in the captured image. For example, if there is a difference between the damage shown in the captured image and the damage data, the user can edit the damage data with reference to the damage shown in the captured image. As a result, this aspect can generate damage data that accurately represents the damage captured in the captured image.

好ましくは、表示制御部は、表示部に図面データを表示させ、射影関係受付部は、表示部に表示された撮影画像と図面データ取得部で取得された図面データとの射影関係を示す、撮影画像の4点および図面データの4点を受け付ける。 Preferably, the display control unit causes the display unit to display the drawing data, and the projection relation reception unit displays the projection relation between the captured image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit. 4 points of image and 4 points of drawing data are accepted.

本態様によれば、射影関係受付部により、表示部に表示された撮影画像と図面データ取得部で取得された図面データとの射影関係を示す、撮影画像の4点および図面データの4点が受け付けられる。これにより本態様は、適切に射影関係が受け付けられて、正確な損傷データの射影変換が行われる。 According to this aspect, the projective relation receiving unit obtains four points of the photographed image and four points of the drawing data, which indicate the projective relationship between the photographed image displayed on the display unit and the drawing data obtained by the drawing data obtaining unit. Acceptable. As a result, in this aspect, the projective relationship is appropriately accepted, and the accurate projective transformation of the damage data is performed.

好ましくは、射影変換部は、撮影画像の4点を図面データの4点に合わせる射影変換行列を算出し、算出した射影変換行列により損傷データ生成部で生成した損傷データまたは編集部で編集された損傷データを射影変換する。 Preferably, the projective transformation unit calculates a projective transformation matrix that aligns the four points of the captured image with the four points of the drawing data, and uses the calculated projective transformation matrix to generate damage data generated by the damage data generating unit or edited by the editing unit. Projectively transform the damage data.

本態様によれば、射影変換部により、撮影画像の4点を図面データの4点に合わせる射影変換行列が算出され、算出した射影変換行列により損傷データ生成部で生成した損傷データまたは編集部で編集された損傷データが射影変換される。これにより、本態様は、正確に損傷データの射影変換を行うことができる。 According to this aspect, the projective transformation unit calculates the projective transformation matrix that aligns the four points of the captured image with the four points of the drawing data, and the damage data generated by the damage data generating unit or the editing unit is calculated based on the calculated projective transformation matrix. The edited damage data is projectively transformed. Thereby, this aspect can perform the projective transformation of damage data correctly.

好ましくは、損傷データ編集装置は、表示部に表示された撮影画像と図面データ取得部で取得された図面データとのミラーリング関係の入力を受け付けるミラーリング関係受付部と、ミラーリング関係受付部で受け付けられたミラーリング関係に基づいて、損傷データをミラーリングするミラーリング部と、を備え、出力部は、ミラーリングおよび射影変換された損傷データを出力する。 Preferably, the damaged data editing device includes: a mirroring relationship reception unit that receives an input of a mirroring relationship between the photographed image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit; a mirroring unit for mirroring the damage data based on the mirroring relationship, the output unit outputting the mirrored and projectively transformed damage data.

本態様によれば、ミラーリング関係受付部により、表示部に表示された撮影画像と図面データ取得部で取得された図面データとのミラーリング関係の入力が受け付けられ、ミラーリング部により、ミラーリング関係受付部で受け付けられたミラーリング関係に基づいて、損傷データがミラーリングされる。これにより本態様は、ミラーリングされた損傷データを得ることができ、建造物の撮影側とは反対側から見た損傷状態を図示する損傷データを得ることができる。 According to this aspect, the mirroring relationship reception unit receives the input of the mirroring relationship between the photographed image displayed on the display unit and the drawing data acquired by the drawing data acquisition unit, and the mirroring relationship reception unit receives Damaged data is mirrored based on the accepted mirroring relationship. This allows the present embodiment to obtain damage data that is mirrored and provides damage data that illustrates the damage state as seen from the opposite side of the building to the photographed side.

好ましくは、損傷データ編集装置は、建造物の一区画を分割撮影することにより得られる複数の撮影画像を合成する撮影画像合成部を備え、損傷データ生成部は、複数の撮影画像の各々について、損傷データを生成する。 Preferably, the damage data editing device includes a photographed image synthesizing unit that synthesizes a plurality of photographed images obtained by separately photographing a section of the building, and the damage data generating unit includes, for each of the plurality of photographed images, Generate damage data.

本態様によれば、撮影画像合成部により、建造物の一区画を分割撮影することにより得られる複数の撮影画像が合成されるので、合成された撮影画像を取得することができ、合成された撮影画像の表示を行うことができる。また、本態様によれば、損傷データ生成部により複数の撮影画像の各々について、損傷データが生成される。すなわち、本態様では、合成される前の各撮影画像において損傷データが生成されるので、損傷データ生成部は、撮影画像の合成の影響を受けずに、精度良く損傷データの生成を行うことができる。 According to this aspect, the photographed image synthesizing unit synthesizes a plurality of photographed images obtained by separately photographing one section of the building. A photographed image can be displayed. Further, according to this aspect, the damage data is generated for each of the plurality of photographed images by the damage data generator. That is, in this aspect, since the damage data is generated for each photographed image before being combined, the damage data generation unit can generate the damage data with high accuracy without being affected by the composition of the photographed images. can.

好ましくは、撮影画像合成部は、図面データに表される一区画に対応して撮影された複数の撮影画像を、一区画毎に合成を行う。 Preferably, the photographed image synthesizing unit synthesizes a plurality of photographed images photographed corresponding to one section represented by the drawing data for each section.

本態様によれば、撮影画像合成部により、図面データに表される一区画に対応して撮影された複数の撮影画像を、一区画毎に合成が行われる。これにより本態様は、一区画毎の合成画像を得ることができ、一区画毎の合成画像を表示することができる。 According to this aspect, the photographed image synthesizing unit synthesizes a plurality of photographed images photographed corresponding to one section represented by the drawing data for each section. Accordingly, in this aspect, a composite image for each section can be obtained, and the composite image for each section can be displayed.

好ましくは、損傷データ編集装置は、撮影画像合成部で合成された複数の撮影画像の合成情報に基づいて、損傷データを合成する損傷データ合成部を備える。 Preferably, the damage data editing device includes a damage data synthesizing unit that synthesizes the damage data based on synthesis information of the plurality of photographed images synthesized by the photographed image synthesizing unit.

本態様によれば、損傷データ合成部により、撮影画像合成部で合成された複数の撮影画像の合成情報に基づいて、損傷データを合成する。これにより本態様は、合成された損傷データを得ることができる。 According to this aspect, the damage data synthesizing unit synthesizes the damage data based on the synthesis information of the plurality of photographed images synthesized by the photographed image synthesizing unit. Accordingly, this embodiment can obtain synthesized damage data.

好ましくは、損傷データ合成部は、一区画毎に合成を行う。 Preferably, the damage data synthesizing unit performs synthesizing for each section.

本態様によれば、損傷データ合成部により、一区画毎に合成が行われる。これにより、本態様は一区画毎に合成された損傷データを得ることができる。 According to this aspect, the damage data synthesizing section performs synthesizing for each section. As a result, this embodiment can obtain damage data synthesized for each section.

好ましくは、損傷データ編集装置は、射影変換部で射影変換された損傷データと損傷データに対応する図面データとが重畳された損傷図面データを作成する損傷図面データ作成部を備え、出力部は、損傷図面データを出力する。 Preferably, the damage data editing device includes a damage drawing data creation unit that creates damage drawing data in which the damage data projectively transformed by the projective conversion unit and drawing data corresponding to the damage data are superimposed, and the output unit includes: Output damaged drawing data.

本態様によれば、損傷図面データ作成部により、射影変換部で射影変換された損傷データと損傷データに対応する図面データとが重畳された損傷図面データが作成され、出力部により、損傷図面データが出力される。これにより本態様は、精度良く撮影画像の損傷を表現した損傷データを有する損傷図面データを得ることができる。 According to this aspect, the damage drawing data creation unit creates the damage drawing data in which the damage data projectively transformed by the projective transformation unit and the drawing data corresponding to the damage data are superimposed, and the output unit outputs the damage drawing data is output. As a result, according to this aspect, it is possible to obtain damage drawing data having damage data representing the damage of the photographed image with high accuracy.

好ましくは、建造物は、橋梁またはトンネルである。 Preferably the structure is a bridge or a tunnel.

本発明の他の態様である損傷データ編集方法は、点検対象の建造物が撮影された撮影画像を取得する画像取得ステップと、撮影画像を画像解析することにより、損傷データを生成する損傷データ生成ステップと、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる表示制御ステップと、表示部に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する編集ステップと、点検対象の建造物の図面データを取得する図面データ取得ステップと、表示部に表示された撮影画像と図面データ取得ステップで取得された図面データとの射影関係の入力を受け付ける射影関係受付ステップと、射影関係受付ステップで受け付けられた射影関係に基づいて、損傷データ生成ステップで生成した損傷データまたは編集ステップで編集された損傷データを射影変換する射影変換ステップと、射影変換ステップで射影変換された損傷データを出力する出力ステップと、を含む。 A damage data editing method according to another aspect of the present invention includes an image acquisition step of acquiring a photographed image of a structure to be inspected, and a damage data generation of generating damage data by image analysis of the photographed image. a display control step of displaying the photographed image on the display unit and displaying damage data overlaid on the photographed image; receiving an instruction to edit the damage data displayed on the display unit; An editing step of editing data, a drawing data acquisition step of acquiring drawing data of a building to be inspected, and inputting a projection relationship between the photographed image displayed on the display unit and the drawing data acquired in the drawing data acquisition step. a projective relationship receiving step for receiving; a projective transformation step for projectively transforming the damage data generated in the damage data generating step or the damage data edited in the editing step based on the projective relationship received in the projective relationship receiving step; and an output step of outputting the damage data that has been projectively transformed in the transform step.

本発明の他の態様である損傷データ編集工程をコンピュータに実行させるプログラムは、点検対象の建造物が撮影された撮影画像を取得する画像取得ステップと、撮影画像を画像解析することにより、損傷データを生成する損傷データ生成ステップと、表示部に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる表示制御ステップと、表示部に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する編集ステップと、点検対象の建造物の図面データを取得する図面データ取得ステップと、表示部に表示された撮影画像と図面データ取得ステップで取得された図面データとの射影関係の入力を受け付ける射影関係受付ステップと、射影関係受付ステップで受け付けられた射影関係に基づいて、損傷データ生成ステップで生成した損傷データまたは編集ステップで編集された損傷データを射影変換する射影変換ステップと、射影変換ステップで射影変換された損傷データを出力する出力ステップと、を含む。 A program for causing a computer to execute a damage data editing step, which is another aspect of the present invention, includes an image acquisition step of acquiring a photographed image of a building to be inspected, and an image analysis of the photographed image to generate damage data. a display control step of displaying the photographed image on the display unit and overlaying the damage data on the photographed image; receiving an instruction to edit the damage data displayed on the display unit, and editing an editing step of editing damage data based on the command of , a drawing data acquisition step of acquiring drawing data of a building to be inspected, and a photographed image displayed on the display unit and the drawing data acquired in the drawing data acquisition step projective transformation of the damage data generated in the damage data generating step or the damage data edited in the editing step based on the projective relation receiving step of receiving the input of the projective relation with and the projective relation received in the projective relation receiving step a projective transformation step; and an output step of outputting the damage data projectively transformed in the projective transformation step.

本発明によれば、損傷データが、射影変換前の撮影画像における損傷の検出に基づいて生成され、その後射影変換されるので、損傷の検出を行う撮影画像において射影変換による画質劣化の影響を受けることがなく、撮影画像に写された損傷を精度良く再現した損傷データを生成することができる。また本発明によれば、ユーザに、生成された損傷データが、撮影画像に写っている損傷を精度良く表現しているか否かを確認し編集する機能を提供することができ、撮影画像に写された損傷を精度良く表現した損傷データを生成することができる。 According to the present invention, the damage data is generated based on the detection of damage in the photographed image before projective transformation, and is then projectively transformed. Therefore, it is possible to generate damage data accurately reproducing the damage shown in the photographed image. Further, according to the present invention, it is possible to provide the user with a function of confirming whether or not the generated damage data accurately represents the damage shown in the photographed image, and editing the data. It is possible to generate damage data that accurately expresses the damage that has been done.

図1は建造物の一例である橋梁の構造を示す斜視図である。FIG. 1 is a perspective view showing the structure of a bridge, which is an example of a building. 図2は損傷データ編集装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of the damaged data editing device. 図3は記憶部に記憶される損傷図形の例を示す図である。FIG. 3 is a diagram showing an example of damage graphics stored in the storage unit. 図4は損傷データ編集装置の動作フローを示すフローチャートである。FIG. 4 is a flow chart showing the operation flow of the damaged data editing device. 図5は射影関係受付部で受け付けられる射影関係の具体例を説明する図である。FIG. 5 is a diagram for explaining a specific example of the projective relationship received by the projective relationship receiving unit. 図6は損傷データ編集装置の構成例を示すブロック図である。FIG. 6 is a block diagram showing a configuration example of the damaged data editing device. 図7はミラーリングに関して説明する図である。FIG. 7 is a diagram for explaining mirroring. 図8はミラーリングに関して説明する図である。FIG. 8 is a diagram for explaining mirroring. 図9は損傷図面データの例を示す図である。FIG. 9 is a diagram showing an example of damaged drawing data. 図10は反転損傷図面データの例を示す図である。FIG. 10 is a diagram showing an example of inverted damage drawing data. 図11は損傷データ編集装置の動作フローを示すフローチャートである。FIG. 11 is a flow chart showing the operation flow of the damaged data editing device. 図12はCAD図面の一例を示す図である。FIG. 12 is a diagram showing an example of a CAD drawing. 図13は射影関係およびミラーリング関係の入力の具体例を説明する図である。FIG. 13 is a diagram for explaining a specific example of inputting the projection relationship and the mirroring relationship. 図14はミラーリングに関して説明する図である。FIG. 14 is a diagram for explaining mirroring. 図15はミラーリングして得られた損傷データを示す図である。FIG. 15 is a diagram showing damage data obtained by mirroring. 図16は損傷図面データの作成に関して説明する図である。FIG. 16 is a diagram for explaining the creation of damage drawing data. 図17は床版の格間に関する編集画面の表示例を示す図である。FIG. 17 is a diagram showing a display example of an edit screen relating to floor slab coffers. 図18は床版におけるひび割れの進行モデルの一例を模式的に示す図である。FIG. 18 is a diagram schematically showing an example of a crack progress model in a floor slab. 図19は格間が撮影された撮影画像を示す図である。FIG. 19 is a diagram showing a photographed image in which a coffer is photographed. 図20は撮影装置を備えるロボット装置を概念的に示す図である。FIG. 20 is a diagram conceptually showing a robot device equipped with an imaging device. 図21はミラーリングのバリエーションの説明のための説明図である。FIG. 21 is an explanatory diagram for explaining variations of mirroring.

以下、添付図面にしたがって本発明にかかる損傷データ編集装置、損傷データ編集方法およびプログラムの好ましい実施の形態について説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of a damage data editing device, a damage data editing method, and a program according to the present invention will be described below with reference to the accompanying drawings.

図1は、本発明が適用される建造物の一例である橋梁の構造を示す斜視図であって、橋梁1を下側から見た場合の斜視図である。本図の橋梁1は、主桁2と、横桁3と、対傾構4と、横構5とを有する。主桁2の上部には、コンクリート製の部材である床版6が設けられている。主桁2は、橋脚7(または橋台)の間に渡され、床版6上の荷重を支える部材である。横桁3は、荷重を複数の主桁2で支えるため、主桁2を連結する部材である。対傾構4および横構5は、特に横荷重に抵抗するため、主桁2を連結する部材である。橋脚7は、橋梁1の主桁2、横桁3、対傾構4、横構5、および床版6の上部構造を支える柱であり、橋梁1の脚に相当する部材である。 FIG. 1 is a perspective view showing the structure of a bridge, which is an example of a building to which the present invention is applied, and is a perspective view when the bridge 1 is viewed from below. A bridge 1 in this figure has a main girder 2 , a cross girder 3 , a tilting structure 4 and a horizontal structure 5 . Above the main girder 2, a floor slab 6, which is a member made of concrete, is provided. The main girder 2 is a member that spans between the bridge piers 7 (or abutments) and supports the load on the floor slab 6 . The horizontal girder 3 is a member that connects the main girder 2 so that the load is supported by the main girder 2 . The counter leaning structure 4 and the lateral structure 5 are members that connect the main girder 2 in order to particularly resist lateral loads. The bridge piers 7 are columns that support the superstructure of the main girder 2 , transverse girder 3 , opposite tilting structure 4 , horizontal structure 5 and floor slab 6 of the bridge 1 , and are members corresponding to the legs of the bridge 1 .

なお、図1に示した橋梁1は本発明の説明に用いるために紹介した建造物の一例であり、本発明における建造物は、このような橋梁1に限定されない。撮影画像により損傷の検出が行えて、点検が行える対象であれば、本発明の建造物に該当する。例えば本発明における建造物は、トンネルでもよい。 It should be noted that the bridge 1 shown in FIG. 1 is an example of a building introduced for use in explaining the present invention, and the building in the present invention is not limited to such a bridge 1. Any object that can detect damage from a photographed image and that can be inspected corresponds to the building of the present invention. For example, a building according to the invention may be a tunnel.

<第1の実施形態>
図2は、第1の実施形態における損傷データ編集装置20の構成例を示すブロック図である。損傷データ編集装置20は、撮影装置10で撮影された点検対象の建造物の撮影画像を取得する。
<First embodiment>
FIG. 2 is a block diagram showing a configuration example of the damage data editing device 20 according to the first embodiment. The damage data editing device 20 acquires the photographed image of the building to be inspected photographed by the photographing device 10 .

撮影装置10は、点検対象の建造物を撮影する撮影デバイスによって構成される。撮影デバイスの例として、デジタルカメラ、スマートフォンに内蔵されたカメラ、タブレット端末に内蔵されたカメラが挙げられる。撮影装置10で取得された撮影画像は、損傷データ編集装置20に入力される。 The photographing device 10 is configured by a photographing device for photographing a building to be inspected. Examples of photographing devices include digital cameras, cameras built into smartphones, and cameras built into tablet terminals. A photographed image acquired by the photographing device 10 is input to the damage data editing device 20 .

本形態の損傷データ編集装置20は、例えばコンピュータに設けられる。損傷データ編集装置20は、主に、画像取得部22、図面データ取得部24、表示部26、操作部28、CPU30、および記憶部50を備える。 The damage data editing device 20 of this embodiment is provided in, for example, a computer. The damage data editing device 20 mainly includes an image acquisition section 22 , a drawing data acquisition section 24 , a display section 26 , an operation section 28 , a CPU 30 and a storage section 50 .

画像取得部22は、点検対象の建造物が撮影された撮影画像を取得する。また画像取得部22は、建造物の一区画を分割撮影することにより得られる複数の撮影画像を取得してもよい。ここで建造物の一区画とは例えば、点検を行う際に便宜上区切りを付ける建造物の一区画であり、床版6における格間(図1および図19を参照)が挙げられる。 The image acquisition unit 22 acquires a photographed image of a building to be inspected. Further, the image acquisition unit 22 may acquire a plurality of photographed images obtained by dividing and photographing one section of the building. Here, one section of the building is, for example, one section of the building which is delimited for convenience of inspection, and includes a coffer in the floor slab 6 (see FIGS. 1 and 19).

図面データ取得部24は、点検対象の建造物の図面データを取得する。例えば図面データ取得部24は、点検対象の建造物を示すCAD(computer aided design)図面を取得する。また、図面データ取得部24は、スキャナ等で読み込ませた図面データを取得してもよい。 The drawing data acquisition unit 24 acquires drawing data of a building to be inspected. For example, the drawing data acquisition unit 24 acquires a CAD (computer aided design) drawing showing a building to be inspected. The drawing data acquisition unit 24 may also acquire drawing data read by a scanner or the like.

画像取得部22および図面データ取得部24は、デジタル信号の入力を行う入力デバイスによって構成することができる。このような入力デバイスとして、例えば、無線通信または有線通信を行う通信デバイスを用いてもよい。メモリカード等の記憶媒体とのインタフェースデバイスを入力デバイスとして用いてもよい。 The image acquisition unit 22 and the drawing data acquisition unit 24 can be configured by an input device for inputting digital signals. As such an input device, for example, a communication device that performs wireless communication or wired communication may be used. An interface device with a storage medium such as a memory card may be used as an input device.

表示部26は、液晶表示デバイス等の表示デバイスによって構成される。例えば表示部26は、コンピュータのモニタにより構成される。 The display unit 26 is configured by a display device such as a liquid crystal display device. For example, the display unit 26 is configured by a monitor of a computer.

操作部28は、ユーザの操作を受け付ける。キーボードおよびマウスによって構成することができる。これら以外の操作デバイス、例えば表示部26に設けられるタッチパネルによって操作部28を構成してもよい。 The operation unit 28 receives user operations. Can be configured with keyboard and mouse. The operation unit 28 may be configured by an operation device other than these, for example, a touch panel provided on the display unit 26 .

CPU30は、プログラムを実行するCPU(central processing unit)30であり、単数または複数のCPUにより構成される。 The CPU 30 is a CPU (central processing unit) 30 that executes programs, and is composed of a single CPU or a plurality of CPUs.

記憶部50は、プログラムおよびそのプログラムの実行に必要な情報を記憶する。記憶部50は、メモリデバイスによって構成される。 The storage unit 50 stores programs and information necessary for executing the programs. The storage unit 50 is configured by a memory device.

CPU30は、損傷データ生成部32、射影関係受付部34、射影変換部36、表示制御部38、編集部40、および出力部44を備える。 The CPU 30 includes a damage data generation unit 32 , a projection relationship reception unit 34 , a projective transformation unit 36 , a display control unit 38 , an editing unit 40 and an output unit 44 .

損傷データ生成部32は、撮影画像を画像解析することにより、損傷データを生成する。すなわち、損傷データ生成部32は、画像取得部22で取得された撮影画像に対して画像解析を実行することにより損傷を検出し、その損傷を表現する損傷データを生成する。ここで、撮影画像に写る損傷としては、ひび割れ、剥離、鉄筋露出、遊離石灰、および漏水が挙げられる。また損傷データとは、撮影画像に写っている損傷を表示部26において表現するデータである。例えば損傷データとしては、撮影画像に写っている損傷をトレースした画像データであったり、予め損傷の種別毎に記憶部50に記憶された損傷図形(図3参照)であったりする。なお、損傷データ生成部32が行う撮影画像における損傷画像を検出するための画像解析、および損傷データを生成する技術は公知の技術が用いられる。 The damage data generator 32 generates damage data by image analysis of the captured image. That is, the damage data generation unit 32 detects damage by performing image analysis on the photographed image acquired by the image acquisition unit 22, and generates damage data expressing the damage. Here, the damage that appears in the photographed image includes cracks, peeling, exposure of reinforcing bars, free lime, and water leakage. The damage data is data representing the damage shown in the photographed image on the display unit 26 . For example, the damage data may be image data obtained by tracing the damage appearing in the photographed image, or damage graphics (see FIG. 3) stored in advance in the storage unit 50 for each type of damage. Known techniques are used for the image analysis for detecting the damage image in the photographed image performed by the damage data generator 32 and the technique for generating the damage data.

図3は、記憶部50に記憶される損傷図形の例を示す図である。図3に示すように、記憶部50には損傷の種類に応じた損傷図形を記憶部50に記憶させておき、損傷データ生成部32には検出した損傷に応じて記憶されている損傷図形を損傷データとして使用してもよい。図3には、ひび割れ、剥離、鉄筋露出、遊離石灰、漏水の損傷図形が例示されている。 FIG. 3 is a diagram showing an example of damage graphics stored in the storage unit 50. As shown in FIG. As shown in FIG. 3, a damage figure corresponding to the type of damage is stored in the storage part 50, and the stored damage figure is stored in the damage data generation part 32 according to the detected damage. May be used as damage data. FIG. 3 illustrates damage diagrams of cracks, spalling, exposed rebar, free lime, and water leakage.

射影関係受付部34は、表示部26に表示された撮影画像と図面データ取得部24で取得された図面データとの射影関係の入力を受け付ける。射影関係受付部34で受け付けられる射影関係は、様々な形態で受け付けられる。例えば射影関係受付部34は、撮影画像と図面データとでそれぞれ対応する4点の指定を受け付けることにより、射影関係を受け付けてもよい。また例えば射影関係受付部34は、撮影画像における矩形であるべき箇所を公知の画像認識技術により検出し、検出された矩形であるべき箇所に対応する図面データの箇所を指定することにより、射影関係を受け付けてもよい。 The projection relationship reception unit 34 receives an input of the projection relationship between the captured image displayed on the display unit 26 and the drawing data acquired by the drawing data acquisition unit 24 . Projection relations received by the projection relation receiving unit 34 are received in various forms. For example, the projection relation receiving unit 34 may receive the projection relation by receiving designation of corresponding four points in the photographed image and the drawing data. Further, for example, the projection relation receiving unit 34 detects a portion of the captured image that should be a rectangle by a known image recognition technique, and designates a portion of the drawing data that corresponds to the detected portion that should be a rectangle, thereby obtaining a projection relation. may be accepted.

射影変換部36は、射影関係受付部34で受け付けられた射影関係に基づいて、損傷データ生成部32で検出した損傷データまたは編集部40で編集された損傷データを射影変換する。射影変換部36は、公知の技術によって損傷データまたは編集部40で編集された損傷データを射影変換する。例えば射影変換部36は、撮影画像の4点を図面データの4点に合わせる射影変換行列を算出し、算出した射影変換行列により損傷データ生成部32で生成した損傷データまたは編集部40で編集された損傷データを射影変換する。 The projective transformation unit 36 projectively transforms the damage data detected by the damage data generation unit 32 or the damage data edited by the editing unit 40 based on the projective relation received by the projective relation receiving unit 34 . The projective transformation unit 36 projectively transforms the damage data or the damage data edited by the editing unit 40 using a known technique. For example, the projective transformation unit 36 calculates a projective transformation matrix that aligns the four points of the captured image with the four points of the drawing data, and uses the calculated projective transformation matrix to generate damage data generated by the damage data generating unit 32 or edited by the editing unit 40. Projectively transform the damage data.

表示制御部38は、表示部26に撮影画像を表示させるとともに、損傷データを撮影画像にオーバレイ表示させる。すなわち表示制御部38は、撮影画像を表示部26に表示させ、且つ撮影画像における損傷に対応するように損傷データを重畳表示させる。なお、表示制御部38は、撮影画像、損傷データ、図面データ、および損傷図面データを表示部26に適宜表示させる機能を有する。 The display control unit 38 causes the display unit 26 to display the photographed image, and also causes the damage data to be overlaid on the photographed image. That is, the display control unit 38 causes the display unit 26 to display the photographed image, and superimposes the damage data so as to correspond to the damage in the photographed image. The display control unit 38 has a function of causing the display unit 26 to appropriately display the photographed image, the damage data, the drawing data, and the damage drawing data.

編集部40は、表示部26に表示された損傷データの編集の指令を受け付けて、編集の指令に基づいて損傷データを編集する。例えばユーザは、表示部26に表示された撮影画像と損傷データ生成部32で自動的に生成された損傷データを見比べて、正確に損傷データが撮影画像の損傷を表現できていない場合には、損傷データを編集(加工)する。この場合、ユーザはコンピュータに取り付けられたマウス(操作部28)を使用して、損傷データの編集に関する指令を入力する。そして、編集部40は、その編集の指令に基づいて損傷データを編集する。編集部40は、追加、削除、および修正といった各種の編集操作も受け付ける。 The editing unit 40 receives an instruction to edit the damage data displayed on the display unit 26, and edits the damage data based on the editing instruction. For example, the user compares the captured image displayed on the display unit 26 with the damage data automatically generated by the damage data generation unit 32, and if the damage data does not accurately represent the damage in the captured image, Edit (process) damage data. In this case, the user uses a mouse (manipulation unit 28) attached to the computer to enter commands for editing the damage data. Then, the editing unit 40 edits the damage data based on the editing command. The editing unit 40 also accepts various editing operations such as addition, deletion, and correction.

出力部44は、射影変換部36で射影変換された損傷データを出力する。出力部44の出力形態は特に限定されるものではなく、損傷データまたは損傷図面データ(図9および図10)を有効に利用できるものであればよい。例えば出力部44は、DXF(Drawing Exchange Format)のファイル形式で出力してもよいし、他の画像データのフォーマットで出力してもよい。 The output unit 44 outputs the damage data projectively transformed by the projective transformation unit 36 . The output form of the output unit 44 is not particularly limited as long as the damage data or damage drawing data (FIGS. 9 and 10) can be effectively used. For example, the output unit 44 may output in a DXF (Drawing Exchange Format) file format, or in another image data format.

次に、損傷データ編集装置20の動作フローに関して説明する。図4は、第1の実施形態の損傷データ編集装置20の動作フローを示すフローチャートである。 Next, the operational flow of the damaged data editing device 20 will be described. FIG. 4 is a flow chart showing the operation flow of the damaged data editing device 20 of the first embodiment.

先ず、画像取得部22は、撮影装置10により撮影された撮影画像を取得する(ステップS10:画像取得ステップ)。そして、損傷データ生成部32は、取得された撮影画像について画像解析を行って、撮影画像に写っている損傷を検出し、その検出結果に基づいて損傷データを生成する(ステップS11:損傷データ生成ステップ)。その後、表示制御部38により、撮影画像と検出された損傷データとを表示部26にオーバレイ表示する(ステップS12:表示制御ステップ)。 First, the image acquisition unit 22 acquires a photographed image photographed by the photographing device 10 (step S10: image acquisition step). Then, the damage data generation unit 32 performs image analysis on the acquired photographed image, detects damage appearing in the photographed image, and generates damage data based on the detection result (Step S11: Damage data generation step). Thereafter, the display control unit 38 overlays the captured image and the detected damage data on the display unit 26 (step S12: display control step).

ユーザは、表示部26に表示された撮影画像と損傷データとを確認しながら、表示部26に表示された損傷データの編集の指令をパソコンに接続されているマウスにより入力し、編集部40は入力された指令に基づいて損傷データを編集する(ステップS13:編集ステップ)。 While confirming the photographed image and the damage data displayed on the display unit 26, the user inputs a command to edit the damage data displayed on the display unit 26 using a mouse connected to the personal computer, and the editing unit 40 The damage data is edited based on the input command (step S13: editing step).

次に、図面データ取得部24により図面データが取得される(ステップS14:図面データ取得ステップ)。なお、図面データの取得は、予め行われていてもよい。例えば、図面データ取得部24は、点検作業前に点検対象の建造物の図面データを取得し、取得された図面データは記憶部50に記憶されていてもよい。 Next, the drawing data is obtained by the drawing data obtaining unit 24 (step S14: drawing data obtaining step). Note that the acquisition of the drawing data may be performed in advance. For example, the drawing data acquisition unit 24 may acquire drawing data of a building to be inspected before inspection work, and the acquired drawing data may be stored in the storage unit 50 .

その後、射影関係受付部34により、射影関係の入力が受け付けられる(ステップS15:射影関係受付ステップ)。 After that, the projection relation receiving unit 34 receives the input of the projection relation (step S15: projection relation receiving step).

図5は、射影関係受付部34で受け付けられる射影関係の具体例を説明する図である。 FIG. 5 is a diagram for explaining a specific example of the projection relationship accepted by the projection relationship acceptance unit 34. As shown in FIG.

表示制御部38により、表示部26に点検対象である橋脚7の撮影画像100が表示され、また建造物のCAD図面70(図面データ)が表示されている。具体的には、コンピュータのモニタに撮影画像100およびCAD図面70が表示されている。 A photographed image 100 of the bridge pier 7 to be inspected is displayed on the display unit 26 by the display control unit 38, and a CAD drawing 70 (drawing data) of the building is displayed. Specifically, a captured image 100 and a CAD drawing 70 are displayed on the monitor of the computer.

損傷データ生成部32で生成された損傷データDD1およびDD2が、撮影画像における損傷に対応するようにオーバレイ表示されている。 The damage data DD1 and DD2 generated by the damage data generator 32 are overlaid and displayed so as to correspond to the damage in the captured image.

ユーザは、表示部26に表示された撮影画像100と橋脚7のCAD図面70において、コンピュータのポインティングデバイスにより、矩形の4点に対応する点を入力する。すなわち、撮影画像100のA1、B1、C1、およびD1の4点を指定して入力し、CAD図面70において対応するA2、B2、C2、およびD2の4点を指定して入力する。そして、射影関係受付部34は、ユーザから入力された各4点(撮影画像100のA1、B1、C1、およびD1と、A2、B2、C2、およびD2)を射影関係として受け付ける。 The user uses the pointing device of the computer to input points corresponding to the four points of the rectangle in the captured image 100 and the CAD drawing 70 of the bridge pier 7 displayed on the display unit 26 . That is, four points A1, B1, C1, and D1 of the captured image 100 are specified and input, and corresponding four points A2, B2, C2, and D2 are specified and input in the CAD drawing 70. FIG. Then, the projective relation receiving unit 34 receives each of the four points (A1, B1, C1, and D1 and A2, B2, C2, and D2 of the captured image 100) input by the user as a projective relation.

図4に戻って、射影変換部36により、射影関係受付部34で受け付けられた射影関係に基づいて、撮影画像100の損傷データDD1およびDD2が射影変換される(ステップS16:射影変換ステップ)。具体的には射影変換部36は、撮影画像100のA1、B1、C1、およびD1の4点を、図面データのA2、B2、C2、およびD2の4点に合わせる射影変換行列を算出し、算出した射影変換行列により損傷データ生成部32で検出した損傷データまたは編集部40で編集された損傷データを射影変換する。 Returning to FIG. 4, the projective transformation unit 36 projectively transforms the damage data DD1 and DD2 of the captured image 100 based on the projective relationship received by the projective relationship receiving unit 34 (step S16: projective transformation step). Specifically, the projective transformation unit 36 calculates a projective transformation matrix that matches the four points A1, B1, C1, and D1 of the captured image 100 with the four points A2, B2, C2, and D2 of the drawing data, The damage data detected by the damage data generating unit 32 or the damage data edited by the editing unit 40 is projectively transformed using the calculated projective transformation matrix.

その後、出力部44により射影変換された損傷データが出力される(ステップS17:出力ステップ)。 Thereafter, the damage data subjected to the projective transformation is output by the output unit 44 (step S17: output step).

上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 In the above embodiment, the hardware structure of the processing unit that executes various processes is various processors as shown below. Various processors include a CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, and a programmable processor, such as a FPGA (Field Programmable Gate Array), whose circuit configuration can be changed after manufacturing. A logic device (Programmable Logic Device: PLD), an ASIC (Application Specific Integrated Circuit), and a dedicated electric circuit that is a processor having a circuit configuration specially designed to execute specific processing are included.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (eg, multiple FPGAs, or combinations of CPUs and FPGAs). may Also, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units in a single processor, first, as represented by a computer such as a client or server, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a form of using a processor that realizes the function of the entire system including a plurality of processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.

上記の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上記の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each of the configurations and functions described above can be appropriately realized by arbitrary hardware, software, or a combination of both. For example, a program that causes a computer to execute the above processing steps (procedures), a computer-readable recording medium (non-temporary recording medium) recording such a program, or a computer that can install such a program However, it is possible to apply the present invention.

<第2の実施形態>
次に、本発明の第2の実施形態に関して説明する。
<Second embodiment>
Next, a second embodiment of the invention will be described.

図6は、第2の実施形態における損傷データ編集装置20の構成例を示すブロック図である。なお、図2において既に説明を行った箇所は同じ符号を付して説明は省略する。損傷データ編集装置20は、主に、画像取得部22、図面データ取得部24、表示部26、操作部28、CPU30、および記憶部50を備える。 FIG. 6 is a block diagram showing a configuration example of the damaged data editing device 20 according to the second embodiment. In addition, the same code|symbol is attached|subjected to the location which already demonstrated in FIG. 2, and description is abbreviate|omitted. The damage data editing device 20 mainly includes an image acquisition section 22 , a drawing data acquisition section 24 , a display section 26 , an operation section 28 , a CPU 30 and a storage section 50 .

CPU30は、損傷データ生成部32、撮影画像合成部46、損傷データ合成部48、ミラーリング関係受付部52、射影関係受付部34、射影変換部36、ミラーリング部54、表示制御部38、編集部40、損傷図面データ作成部42、および出力部44を備える。 The CPU 30 includes a damage data generator 32 , a captured image synthesizing unit 46 , a damage data synthesizing unit 48 , a mirroring relationship reception unit 52 , a projection relationship reception unit 34 , a projective transformation unit 36 , a mirroring unit 54 , a display control unit 38 , and an editing unit 40 . , a damage drawing data creation unit 42 and an output unit 44 .

撮影画像合成部46は、建造物の一区画を分割撮影することにより得られる複数の撮影画像を合成する。すなわち、撮影画像合成部46は、画像取得部22により複数の撮影画像が入力された場合に、入力された複数の撮影画像を合成する。撮影画像合成部46の画像合成は公知の技術を使用することにより行われ、例えば各撮影画像の特徴点を検出することにより撮影画像の合成を行う。また、撮影画像合成部46は、図面データに表される一区画に対応して撮影された複数の撮影画像を、一区画毎に合成を行ってもよい。例えば撮影画像合成部46は、一区画として格間が採用された複数の撮影画像が入力された場合には、格間毎に、撮影画像を合成してもよい。 The photographed image synthesizing unit 46 synthesizes a plurality of photographed images obtained by separately photographing one section of the building. That is, when a plurality of photographed images are input from the image acquisition unit 22, the photographed image synthesizing unit 46 synthesizes the plurality of input photographed images. The image synthesis of the photographed image synthesizing unit 46 is performed by using a known technique. For example, the photographed images are synthesized by detecting feature points of each photographed image. In addition, the photographed image synthesizing unit 46 may synthesize a plurality of photographed images photographed corresponding to one section represented by the drawing data for each section. For example, when a plurality of captured images in which a coffer is adopted as one section is input, the captured image synthesizing unit 46 may synthesize the captured images for each coffer.

損傷データ生成部32は、画像取得部22において複数の撮影画像が取得された場合においても、複数の撮影画像の各々について、損傷を検出し損傷データを生成する。すなわち、損傷データ生成部32は、画像取得部22により複数の画像が取得された場合であっても、合成される前の取得された各撮影画像に対して画像処理を行い、損傷データを生成する。これにより、画像合成の影響により、損傷の検出精度の低下を抑制することができる。 Even when a plurality of photographed images are acquired by the image acquisition unit 22, the damage data generation unit 32 detects damage and generates damage data for each of the plurality of photographed images. That is, even when a plurality of images are acquired by the image acquisition unit 22, the damage data generation unit 32 performs image processing on each of the captured images acquired before being combined to generate damage data. do. As a result, it is possible to suppress deterioration in damage detection accuracy due to the influence of image synthesis.

損傷データ合成部48は、撮影画像合成部46で合成された複数の撮影画像の合成情報に基づいて、損傷データを合成する。すなわち、損傷データ合成部48は、撮影画像合成部46において合成される場合の合成情報(例えば合成する際の各撮影画像の重なり、特徴点の座標等)に基づいて、各撮影画像において生成された損傷データを合成する。また損傷データ合成部48は、一区画毎に複数の撮影画像の合成を行ってもよい。例えば損傷データ合成部48は、一区画として格間が採用されている場合には、格間毎に損傷データを合成する。 The damage data synthesizing unit 48 synthesizes damage data based on the synthesis information of the plurality of photographed images synthesized by the photographed image synthesizing unit 46 . That is, the damage data synthesizing unit 48 generates in each shot image based on synthesis information (for example, overlapping of each shot image when synthesizing, coordinates of feature points, etc.) in the case of synthesis in the shot image synthesizing unit 46. Synthesize damage data. Also, the damage data synthesizing unit 48 may synthesize a plurality of photographed images for each section. For example, the damage data synthesizing unit 48 synthesizes damage data for each partition when a partition is adopted as one partition.

ミラーリング関係受付部52は、表示部26に表示された撮影画像と図面データ取得部24で取得された図面データとのミラーリング関係の入力を受け付ける。ミラーリング関係の入力は、例えばユーザにより、表示部26に表示された撮影画像と図面データとの対応する各4点がポインティングデバイスにより指定されることにより行われる。 The mirroring relationship reception unit 52 receives an input of the mirroring relationship between the photographed image displayed on the display unit 26 and the drawing data acquired by the drawing data acquisition unit 24 . The input of the mirroring relationship is performed, for example, by the user specifying four points corresponding to the photographed image and the drawing data displayed on the display unit 26 with a pointing device.

ミラーリング部54は、ミラーリング関係受付部52で受け付けられたミラーリング関係に基づいて、損傷データをミラーリングする。なお、ミラーリングは、鏡映反転ともいう。ミラーリングの中心となる軸(以下「ミラーリング軸」という)の方向は、画像の上下方向には限定されない。つまりミラーリングは、いわゆる左右反転には限定されない。ミラーリングは、左右反転以外の反転(例えば上下反転)を含む。本発明におけるミラーリングは、ミラーリング軸を中心として損傷データを反転させる画像処理であるといえる。ミラーリング軸の方向は、ミラーリング部54により、入力された撮影画像を画像解析して、決定することができる。また、本発明のミラーリングは、ミラーリング軸の方向を固定にした態様と、ミラーリング軸の方向を可変にした態様とがある。本明細書において、後者の方向可変の態様は後に詳説する。 The mirroring unit 54 mirrors the damaged data based on the mirroring relationship accepted by the mirroring relationship accepting unit 52 . Note that mirroring is also called mirror inversion. The direction of the axis that is the center of mirroring (hereinafter referred to as "mirroring axis") is not limited to the vertical direction of the image. That is, mirroring is not limited to so-called left-right inversion. Mirroring includes reversal other than horizontal reversal (for example, vertical reversal). Mirroring in the present invention can be said to be image processing that inverts damage data about a mirroring axis. The direction of the mirroring axis can be determined by image analysis of the input photographed image by the mirroring section 54 . Further, the mirroring of the present invention includes a mode in which the direction of the mirroring axis is fixed and a mode in which the direction of the mirroring axis is variable. The latter directional aspect will be described in detail later in this specification.

このようなミラーリングについて、図7および図8を用いて説明する。図7に示すように、仮に床版6の上面に描かれた「F」の文字を床版6の下側から透視したとすると、実際には「F」を上下反転した形状に見える。これは「F」が非線対称の形状を有するからである。同様に、一般的な損傷(例えばひび割れ)は、非線対称の形状を有するため、橋梁1の下側から床版6を撮影して得られた画像中の損傷の形状と、橋梁1の上側から床版6を透視して見た場合の損傷の形状とは、互いにミラーリングの関係になることが分かる。そこで、図8に示すように、橋梁1の下側から撮影して得られた撮影画像IMG1を、ミラーリングにより、橋梁1の上側から見た画像に相当する鏡映画像IMG2に変換する。そうすると、損傷の形状は、橋梁1の下側から見た場合の形状(図8では「F」を上下反転した形状)から、橋梁1の上側から見た形状(図8では「F」の形状)に変換される。画像中の損傷の位置も、ミラーリングにより、撮影側から見た場合の位置から、撮影側とは反対側から見た場合の位置に変換できることが分かる。 Such mirroring will be described with reference to FIGS. 7 and 8. FIG. As shown in FIG. 7, if the character "F" drawn on the upper surface of the floor slab 6 is seen through from below the floor slab 6, the letter "F" actually appears to be upside down. This is because "F" has an asymmetric shape. Similarly, general damage (for example, cracks) has an asymmetrical shape. It can be seen that the shape of the damage when the floor slab 6 is seen through from the top and the shape of the damage are in a mirroring relationship with each other. Therefore, as shown in FIG. 8, a photographed image IMG1 obtained by photographing from the lower side of the bridge 1 is converted into a mirrored image IMG2 corresponding to an image viewed from the upper side of the bridge 1 by mirroring. Then, the shape of the damage changes from the shape when viewed from the bottom of the bridge 1 (the shape of "F" in FIG. 8 is inverted upside down) to the shape when viewed from the top of the bridge 1 (the shape of "F" in FIG. ). It can be seen that the position of the damage in the image can also be converted by mirroring from the position viewed from the imaging side to the position viewed from the side opposite to the imaging side.

図8に示した例では、橋梁1を基準とした全体座標系の座標軸Gxの方向と撮影画像IMG1の左右方向(x方向)とがマッチングしているため、ミラーリングとして撮影画像IMG1を上下反転したが、例えば全体座標系の座標軸Gxの方向と撮影画像IMG1の上下方向(y方向)とがマッチングしている場合には、ミラーリングとして撮影画像IMG1を左右反転させる。 In the example shown in FIG. 8, since the direction of the coordinate axis Gx of the global coordinate system with the bridge 1 as a reference matches the horizontal direction (x direction) of the captured image IMG1, the captured image IMG1 is vertically inverted as mirroring. However, for example, when the direction of the coordinate axis Gx of the global coordinate system and the vertical direction (y direction) of the captured image IMG1 match, the captured image IMG1 is horizontally reversed as mirroring.

損傷図面データ作成部42は、射影変換部36で射影変換された損傷データと損傷データに対応する図面データとが重畳された損傷図面データ(損傷図)を作成する。また、損傷図面データ作成部42は、操作部28により入力された各種の情報を、損傷図面データに追加することができる。 The damage drawing data creation unit 42 creates damage drawing data (damage drawing) in which the damage data projectively transformed by the projective transformation unit 36 and the drawing data corresponding to the damage data are superimposed. In addition, the damage drawing data creation unit 42 can add various types of information input from the operation unit 28 to the damage drawing data.

損傷図面データ作成部42は、入力された点検結果情報を損傷図面データに追加する。例えば、損傷の種類、および損傷程度の評価区分(「ランク情報」ともいう)を、操作部28を介して入力されると、損傷図面データ作成部42は、損傷図面データに追加する。なお、点検結果情報の「入力」は、予め決められた候補から選択する形式の入力である「選択入力」でもよい。 The damage drawing data creating unit 42 adds the input inspection result information to the damage drawing data. For example, when the type of damage and the evaluation classification of the degree of damage (also referred to as "rank information") are input via the operation unit 28, the damage drawing data creating unit 42 adds them to the damage drawing data. The "input" of the inspection result information may be a "selective input" that is an input in which a selection is made from predetermined candidates.

また、損傷図面データ作成部42は、損傷データまたは撮影画像に基づいて損傷の特徴量を計測する特徴量計測機能を有する。損傷図面データ作成部42は、計測した特徴量を示す情報を損傷図面データに追加する。例えば、橋梁1の床版6の損傷データ中におけるひび割れ画像の幅、長さ、および間隔を局所座標系の寸法として検出し、その局所座標系の寸法を全体座標系の寸法に換算する。表示制御部38は、計測された損傷の特徴量と鏡映画像とを、表示部26に表示させる。 Further, the damage drawing data creation unit 42 has a feature amount measuring function for measuring the feature amount of damage based on the damage data or the photographed image. The damage drawing data creation unit 42 adds information indicating the measured feature amount to the damage drawing data. For example, the width, length, and spacing of crack images in the damage data of the floor slab 6 of the bridge 1 are detected as the dimensions of the local coordinate system, and the dimensions of the local coordinate system are converted to the dimensions of the global coordinate system. The display control unit 38 causes the display unit 26 to display the measured feature amount of the damage and the mirror image.

出力部44は、ミラーリングおよび射影変換された損傷データを出力する。また、損傷図面データ作成部42で損傷図面データが作成された場合には、出力部44は損傷図面データを出力する。 The output unit 44 outputs the mirrored and projectively transformed damage data. Further, when the damage drawing data is created by the damage drawing data creation unit 42, the output unit 44 outputs the damage drawing data.

以下に、損傷図面データ作成部42で損傷図面データが作成された場合の出力部44で出力される損傷図面データに関して説明する。なお損傷図面データとは損傷図を表すデータのことである。 The damage drawing data output by the output unit 44 when the damage drawing data is generated by the damage drawing data generation unit 42 will be described below. The damage drawing data is data representing the damage drawing.

図9は、損傷図面データの例を示す図である。この損傷図面データは、点検対象である橋梁1の床版6に生じた各損傷について、格間ごとに、ひび割れ、漏水、遊離石灰といった損傷を示す損傷データと、部材名(本例では「床版」)と、要素番号(Ds0101~Ds0104、Ds0201~Ds0204)と、損傷の種類(「ひび割れ」、「漏水」、「遊離石灰」等)と、損傷程度の評価区分(「ランク情報」ともいう)と、損傷の特徴量(例えばひび割れの幅、間隔)とが記載されたものである。本図では、損傷程度として評価区分を、アルファベットの「a」~「e」により、五段階で表している。 FIG. 9 is a diagram showing an example of damage drawing data. This damage drawing data includes damage data indicating damage such as cracks, water leakage, and free lime for each coffer, and the member name (in this example, "floor version"), element numbers (Ds0101 to Ds0104, Ds0201 to Ds0204), types of damage ("cracks", "leakage", "free lime", etc.), and evaluation categories for the degree of damage (also called "rank information" ) and characteristic quantities of the damage (for example, width and interval of cracks). In this figure, the degree of damage is classified into five grades from "a" to "e".

さらに、図10は、図9に示した損傷図面データを反転した反転損傷図面データの例を示す図である。図10に示した反転損傷図面データは、ミラーリング部54によりミラーリングされた損傷データにより構成される。また、図面データもミラーリング部54によりミラーリングされている。本発明では、撮影された側からの損傷図面データ(図9)と、撮影された側の反対側から見た反転損傷図面データ(図10)を構成する損傷データへの編集(加工)が可能である。 Furthermore, FIG. 10 is a diagram showing an example of inverted damage drawing data obtained by inverting the damage drawing data shown in FIG. The inverted damage drawing data shown in FIG. 10 is composed of damage data mirrored by the mirroring unit 54 . Drawing data is also mirrored by the mirroring unit 54 . In the present invention, it is possible to edit (process) the damage data that constitutes the damage drawing data from the photographed side (Fig. 9) and the inverted damage drawing data (Fig. 10) viewed from the opposite side of the photographed side. is.

図10に示した反転損傷図面データは、CAD図面、損傷データといった非テキスト成分をミラーリング部54によりミラーリングされている。また、部材名、要素番号、損傷の種類、ランク情報、損傷の特徴量といったテキスト成分をミラーリングせずに図中の位置を損傷図面データ作成部42で変更している。 In the inverted damage drawing data shown in FIG. 10, non-text components such as CAD drawings and damage data are mirrored by the mirroring unit 54 . In addition, the position in the drawing is changed by the damage drawing data creation unit 42 without mirroring the text components such as the member name, element number, damage type, rank information, and damage feature amount.

図11は、第2の実施形態の損傷データ編集装置20の動作フローを示すフローチャートである。 FIG. 11 is a flow chart showing the operation flow of the damaged data editing device 20 of the second embodiment.

先ず、画像取得部22は、撮影装置10により撮影された複数の撮影画像を取得する(ステップS20)。その後、損傷データ生成部32は、各撮影画像に対して画像処理を行うことにより、撮影画像に写っている損傷を検出し、その検出に基づいて損傷データを生成する(ステップS21)。 First, the image acquisition unit 22 acquires a plurality of captured images captured by the imaging device 10 (step S20). After that, the damage data generation unit 32 detects damage appearing in the captured image by performing image processing on each captured image, and generates damage data based on the detection (step S21).

次に、撮影画像合成部46により取得された複数の各撮影画像が合成される(ステップS22)。そして、撮影画像合成部46により撮影画像が合成された結果に基づいて、損傷データ合成部48により、損傷データが合成される(ステップS23)。 Next, a plurality of photographed images acquired by the photographed image synthesizing unit 46 are synthesized (step S22). Damage data is synthesized by the damage data synthesizing unit 48 based on the result of synthesizing the photographed images by the photographed image synthesizing unit 46 (step S23).

その後、表示制御部38により、撮影画像と検出された損傷データとを表示部26にオーバレイ表示する(ステップS24)。 Thereafter, the display control unit 38 overlays the captured image and the detected damage data on the display unit 26 (step S24).

ユーザは、表示部26に表示された撮影画像と損傷データとを確認しながら、表示部26に表示された損傷データの編集の指令を例えばパソコンに接続されているマウスにより入力し、編集部40は入力された編集指令に基づいて損傷データを編集する(ステップS25)。 While confirming the photographed image and the damage data displayed on the display unit 26, the user inputs an instruction to edit the damage data displayed on the display unit 26 using, for example, a mouse connected to a personal computer. edits the damage data based on the input edit command (step S25).

次に、図面データ取得部24により図面データが取得される(ステップS26)。例えば、図面データ取得部24により、図面データとして橋梁1を示すCAD図面が入力される。図12は、CAD図面の一例を示す図である。図中の「DsXXXX」(Ds0101~Ds0105およびDs0201~DS0205)は、橋梁1の床版6の要素である格間を識別する要素番号である。ここで「Ds」は、「床版」を表わす記号であり、「XXXX」は、床版6のうちの主桁2と横桁3とで囲まれた範囲である格間の格子状配列位置を示す番号である。言い換えると、本例の床版6は、格子状配列の複数の格間によって構成されており、格間毎に要素番号が付与されている。本例のCAD図面80は、格間の矩形枠情報を含んでいる。図中の要素番号DsXXXXは、表示部26での表示を省略してもよい。 Next, the drawing data is obtained by the drawing data obtaining unit 24 (step S26). For example, the drawing data acquisition unit 24 inputs a CAD drawing showing the bridge 1 as drawing data. FIG. 12 is a diagram showing an example of a CAD drawing. “DsXXXX” (Ds0101 to Ds0105 and Ds0201 to DS0205) in the figure is an element number identifying a coffer which is an element of the floor slab 6 of the bridge 1 . Here, "Ds" is a symbol representing "floor slab", and "XXXX" is the grid arrangement position of the coffers, which is the range surrounded by the main girders 2 and cross girders 3 of the floor slab 6. is a number indicating In other words, the floor slab 6 of this example is composed of a plurality of coffers arranged in a grid pattern, and an element number is assigned to each coffer. The CAD drawing 80 of this example contains the rectangular frame information of the coffers. Element numbers DsXXXX in the drawing may be omitted from the display on the display unit 26 .

図11に戻って、射影関係受付部34により、射影関係の入力が受け付けられて、ミラーリング関係受付部52により、ミラーリング関係の入力が受け付けられる(ステップS27)。 Returning to FIG. 11, the input of the projection relation is received by the projection relation receiving unit 34, and the input of the mirroring relation is received by the mirroring relation receiving unit 52 (step S27).

図13は、射影関係受付部34およびミラーリング関係受付部52で受け付けられる射影関係およびミラーリング関係の入力の具体例を説明する図である。なお、図13に示す場合では、射影関係とミラーリング関係とが同時に入力される例である。 FIG. 13 is a diagram for explaining a specific example of input of the projection relationship and the mirroring relationship accepted by the projection relationship acceptance unit 34 and the mirroring relationship acceptance unit 52. As shown in FIG. Note that the case shown in FIG. 13 is an example in which the projection relationship and the mirroring relationship are input at the same time.

表示制御部38により、表示部26に点検対象である橋脚7の撮影画像102が表示され、また建造物のCAD図面80が表示されている。撮影画像102は、床版6の格間が撮影されており、床版6には損傷(ひび割れ)が発生している。また損傷データ生成部32が撮影画像102を画像解析して、ひび割れを検出し生成した損傷データDD3が重畳的に表示されている。すなわち、損傷データDD3は、撮影画像102の損傷にオーバレイ表示されている。 A photographed image 102 of the bridge pier 7 to be inspected is displayed on the display section 26 by the display control section 38, and a CAD drawing 80 of the building is displayed. In the photographed image 102, a coffer of the floor slab 6 is photographed, and the floor slab 6 is damaged (cracked). Also, the damage data DD3 generated by the damage data generator 32 by image analysis of the photographed image 102 to detect cracks is displayed in a superimposed manner. That is, the damage data DD3 is displayed overlaid on the damage in the photographed image 102 .

例えばユーザは、表示部26に表示された撮影画像100と橋脚7のCAD図面において、コンピュータのポインティングデバイスにより、矩形の4点に対応する点を入力する。すなわち、撮影画像100のA1、B1、C1、およびD1の4点を指定して入力し、CAD図面において対応するA2、B2、C2、およびD2の4点を指定して入力する。この入力は、射影関係の入力と同時にミラーリング関係の入力である。 For example, the user uses the pointing device of the computer to input points corresponding to the four points of the rectangle in the captured image 100 and the CAD drawing of the bridge pier 7 displayed on the display unit 26 . That is, four points A1, B1, C1, and D1 of the photographed image 100 are specified and input, and corresponding four points A2, B2, C2, and D2 are specified and input on the CAD drawing. This input is an input of a projection relation and an input of a mirroring relation at the same time.

次に射影変換部36により、射影関係受付部34で受け付けられた射影関係に基づいて、撮影画像100の損傷データDD3が射影変換およびミラーリングされる(ステップS28)。例えば、損傷データDD3が射影変換されると損傷データDD4のようになる。 Next, the damage data DD3 of the captured image 100 is projectively transformed and mirrored by the projective transformation unit 36 based on the projective relationship received by the projective relationship receiving unit 34 (step S28). For example, if damage data DD3 is projectively transformed, it becomes damage data DD4.

図14は、ミラーリング部54により行われる、各損傷データのミラーリングに関して説明する図である。図14は、ミラーリングされる前の格間の損傷データDD5を示す。この損傷データDD5は、橋梁1の下側から見た損傷状態を示す画像であって、床版6のうちの一つの格間の損傷状態を示す画像である。図15は、図14の損傷データDD5をミラーリングして得られた損傷データDD6を示す図である。本例では、橋梁1を基準とした全体座標系の座標軸Gxと損傷データDD5の左右方向(x方向)とがマッチングしているので、損傷データDD5をミラーリングとして上下反転することにより、損傷データDD6が取得される。つまり、本例でのミラーリング軸MAxの方向は、損傷データDD5の左右方向(x方向)である。 FIG. 14 is a diagram for explaining the mirroring of each damaged data performed by the mirroring unit 54. As shown in FIG. FIG. 14 shows the coffer damage data DD5 before being mirrored. This damage data DD5 is an image showing the damage state of the bridge 1 viewed from below, and is an image showing the damage state of one coffer of the floor slab 6. FIG. FIG. 15 shows damage data DD6 obtained by mirroring the damage data DD5 of FIG. In this example, since the coordinate axis Gx of the global coordinate system with the bridge 1 as a reference and the horizontal direction (x direction) of the damage data DD5 are matched, by vertically inverting the damage data DD5 as mirroring, the damage data DD6 is obtained. That is, the direction of the mirroring axis MAx in this example is the horizontal direction (x direction) of the damage data DD5.

図11に戻って、その後、出力部44により射影変換された損傷データで構成される損傷図面データを出力する(ステップS29)。 Returning to FIG. 11, after that, the output unit 44 outputs the damage drawing data composed of the projectively transformed damage data (step S29).

ここで、損傷図面データ作成部42で行われる損傷図面データの作成に関して具体例を説明する。 Here, a specific example of creation of damage drawing data performed by the damage drawing data creation unit 42 will be described.

図16は、損傷図面データ作成部42で行われる損傷図面データの作成に関して説明する図である。損傷図面データ作成部42により生成された損傷データDD6をCAD図面80に重ね合わせて表示させた損傷図面データが表示部26に表示される。図16は、図12に示したCAD図面80に、図15に示した損傷データDD6を重ね合わせて表示した例を示す。なおCAD図面80と損傷データDD6との位置合わせは、公知の技術により行われる。例えば、CAD図面80が有する座標データと損傷データDD6が有する座標データに基づいて、CAD図面80と損傷データDD6との位置合わせが行われる。 FIG. 16 is a diagram for explaining the creation of damage drawing data performed by the damage drawing data creating unit 42. As shown in FIG. The display unit 26 displays the damage drawing data in which the damage data DD6 generated by the damage drawing data creation unit 42 is superimposed on the CAD drawing 80 and displayed. FIG. 16 shows an example in which the damage data DD6 shown in FIG. 15 is superimposed on the CAD drawing 80 shown in FIG. Note that alignment between the CAD drawing 80 and the damage data DD6 is performed by a known technique. For example, the CAD drawing 80 and the damage data DD6 are aligned based on the coordinate data of the CAD drawing 80 and the coordinate data of the damage data DD6.

次に、損傷図面データ作成部42により、損傷データDD6に基づいて、損傷の特徴量を計測する。例えば、ひび割れの幅および間隔が、特徴量として計測される。 Next, the damage drawing data creation unit 42 measures the feature amount of the damage based on the damage data DD6. For example, the width and spacing of cracks are measured as feature quantities.

次に、損傷図面データ作成部42により、損傷図面データの各要素に関する編集が行われる。図17は、床版6の要素番号Ds0202が付与された格間に関する編集画面の表示例を示す図である。本例では、表示部26に、CAD図面80および損傷データDD6を表示させると同時に、損傷リスト82を表示させている。本例では、要素番号Ds0202の格間に、損傷データDD6に基づいてひび割れが検出されているので、その「種別」(損傷の種類)である「ひび割れ」が損傷図面データ作成部42により損傷リスト82に自動的に記入される。また、要素番号Ds0202の格間の「ひび割れ」の特徴量として、損傷図面データ作成部42により「ひび割れ」の幅および間隔が計測されているので、損傷図面データ作成部42により損傷リスト82の「寸法」の欄に自動的に記入される。損傷図面データ作成部42により自動的に記入されなかった項目は、操作部28によりユーザが入力することができる。例えば、損傷データDD6において漏水および遊離石灰を視認できる場合、その種別である「漏水+遊離石灰」をユーザが操作部28を介して入力することができる。 Next, the damaged drawing data creating unit 42 edits each element of the damaged drawing data. FIG. 17 is a diagram showing a display example of an edit screen relating to a coffer to which the element number Ds0202 of the floor slab 6 is assigned. In this example, the display unit 26 is caused to display the CAD drawing 80 and the damage data DD6 as well as the damage list 82 . In this example, since a crack is detected based on the damage data DD6 in the crate of the element number Ds0202, the "type" (type of damage) of "crack" is added to the damage list by the damage drawing data creation unit 42. 82 is automatically filled in. In addition, since the width and interval of the "crack" are measured by the damage drawing data creation unit 42 as the characteristic amount of the "crack" in the crate of the element number Ds0202, the damage drawing data creation unit 42 " "Dimensions" column will be filled in automatically. Items that have not been automatically entered by the damage drawing data creation unit 42 can be entered by the user through the operation unit 28 . For example, when water leakage and free lime can be visually recognized in the damage data DD6, the user can input the type of "water leakage + free lime" via the operation unit 28 .

また、自動的に未検出のひび割れが損傷データDD6中に視認できる場合、そのひび割れの種別および寸法を操作部28を介してユーザが入力することができる。なお、図17では図示しなかったが、ひび割れの寸法を計測するためのスケール画像を表示部26に表示させることができ、そのスケール画像を用いて未検出のひび割れの寸法を計測することが可能である。未検出のひび割れを損傷図面データに反映させるため、損傷データDD6中の損傷画像に対して、操作部28によりトレース操作を行うことができる。例えば、操作部28がタッチパネルにより構成されている場合、損傷データDD6中のひび割れ画像を指あるいはペンでトレースすると、そのトレースの軌跡が損傷データとして損傷図面データに追加される。ここで、CAD図面80における損傷データDD6中のひび割れ画像の形状および位置は、橋梁1を上側(撮影側とは反対側である)から見た場合の実際のひび割れの形状および位置に相当するので、容易且つ正確に入力することができる。 Further, when an automatically undetected crack can be visually recognized in the damage data DD6, the user can input the type and dimensions of the crack via the operation unit . Although not shown in FIG. 17, a scale image for measuring the crack dimension can be displayed on the display unit 26, and the scale image can be used to measure the dimension of an undetected crack. is. In order to reflect undetected cracks in the damage drawing data, the operation unit 28 can perform a tracing operation on the damage image in the damage data DD6. For example, if the operation unit 28 is composed of a touch panel, if the crack image in the damage data DD6 is traced with a finger or a pen, the locus of the trace is added to the damage drawing data as damage data. Here, the shape and position of the crack image in the damage data DD6 in the CAD drawing 80 correspond to the actual shape and position of the crack when the bridge 1 is viewed from above (the side opposite to the photographing side). can be entered easily and accurately.

損傷リスト82の「区分」は、損傷程度の評価区分(「ランク情報」ともいう)を入力するための欄である。図18は、床版6におけるひび割れの進行モデルの一例を模式的に示す図である。この進行モデルでは、評価区分RANKが「a」~「e」の五段階で表される。各評価区分RANKとひび割れ状態STATEとの対応関係は次の通りである。 "Category" of the damage list 82 is a column for inputting an evaluation category (also referred to as "rank information") of the degree of damage. FIG. 18 is a diagram schematically showing an example of a crack progress model in the floor slab 6. As shown in FIG. In this progression model, the evaluation category RANK is expressed in five stages from "a" to "e". Correspondence between each evaluation category RANK and crack state STATE is as follows.

a:損傷なし。 a: No damage.

b:横方向(車輌の通行方向に直交する短手方向)に沿って複数のひび割れが並列に発生した状態である。乾燥収縮による複数のひび割れが並列の梁状になる段階である。 b: A state in which a plurality of cracks are generated in parallel along the lateral direction (transverse direction perpendicular to the vehicle traffic direction). This is the stage where multiple cracks due to drying shrinkage form parallel beams.

c:縦方向(車輌の通行方向に平行な長手方向)のひび割れおよび横方向のひび割れが互いに交差した状態である。活荷重により複数のひび割れが格子状になり、その格子状の領域のひび割れ密度が増加する段階である。後半時期には、ひび割れが床版6の上下方向(床版下面に直交する垂直方向)で貫通する。 c: Cracks in the longitudinal direction (longitudinal direction parallel to the direction of travel of the vehicle) and transverse cracks intersect each other. This is the stage where multiple cracks form a grid due to the live load and the crack density in the grid region increases. In the latter half of the period, the crack penetrates the floor slab 6 in the vertical direction (perpendicular to the lower surface of the floor slab).

d:格子状の領域のひび割れ密度が規定値を超え、貫通した複数のひび割れの破面同士が平滑化された状態である。摺り磨き作用により床版6がせん断抵抗を失う段階である。 d: A state in which the crack density in the lattice-like region exceeds a specified value, and the fracture surfaces of a plurality of penetrating cracks are smoothed. This is the stage where the floor slab 6 loses shear resistance due to the polishing action.

e:抜け落ちが生じた状態である。低下した押抜きせん断強度を超える輪荷重により抜け落ちが生じる。 e: A state in which omission has occurred. Wheel loads exceeding the reduced punch shear strength cause pull-out.

このように損傷図面データ作成部42により、損傷図面データの全体に関する編集が行われる。また例えば、損傷図面データ作成部42により、損傷図面データに床版6の全体に関する健全性の判定区分を操作部28を介して入力されてもよい。 In this manner, the damaged drawing data generation unit 42 edits the damaged drawing data as a whole. Further, for example, the damage drawing data creation unit 42 may input the soundness determination classification for the entire floor slab 6 to the damage drawing data via the operation unit 28 .

次に、損傷図面データ作成部42で編集が完了した損傷図面データを出力部44が出力する。損傷図面データは、表示制御部38により表示部26に表示出力させることができるほか、ネットワークを介してプリンタ(図示を省略)に印刷出力させることができる。例えば、図9に示した損傷図面データがプリンタにより印刷出力される。また、損傷図面データは、ネットワークを介してデータベース(図示を省略)にアップロードすることができる。 Next, the output unit 44 outputs the damaged drawing data edited by the damaged drawing data creating unit 42 . The damaged drawing data can be displayed on the display unit 26 by the display control unit 38, and can also be printed out on a printer (not shown) via the network. For example, the damaged drawing data shown in FIG. 9 is printed out by a printer. Also, the damaged drawing data can be uploaded to a database (not shown) via a network.

<ミラーリングのバリエーション>
前述の第2の実施形態では、本発明の理解を容易にするため、ミラーリング軸の方向が固定である場合を例に説明したが、本発明はそのようなミラーリング軸の方向が固定である場合に限定されない。本発明は、ミラーリング軸の方向を可変にした構成でもよい。
<Mirroring variations>
In the above-described second embodiment, the case in which the direction of the mirroring axis is fixed has been described as an example in order to facilitate understanding of the present invention. is not limited to The present invention may have a configuration in which the direction of the mirroring axis is variable.

ミラーリング部54は、各種の情報に基づいて、ミラーリング軸の方向を決定する機能を有する。ミラーリング部54は、決定した方向のミラーリング軸を中心としてミラーリングを行う。 The mirroring section 54 has a function of determining the direction of the mirroring axis based on various information. The mirroring unit 54 performs mirroring around the mirroring axis in the determined direction.

第1に、画像取得部22により入力された画像(ミラーリング前の画像である)を画像解析して、その画像解析の結果に基づいてミラーリング軸の方向を決定する態様がある。 Firstly, there is a mode in which an image (which is an image before mirroring) input by the image acquisition unit 22 is image-analyzed, and the direction of the mirroring axis is determined based on the result of the image analysis.

図19は、格間が撮影された撮影画像を示す図である。例えば、図19に示す、床版6の格間の撮影画像IMG21を取得したとする。この撮影画像IMG21は、格間の縁部の画像EG(以下「縁部画像」という)を含む。実空間において、格間の縁部の形状は矩形であり、その矩形を構成する互いに直交する二辺は一般に長さが異なる。つまり縁部の矩形は、互いに直交する長辺と短辺とを有する。また、実空間において、縁部の矩形の互いに直交する二辺は、橋梁1を基準とした全体座標系における二つの座標軸Gx、Gyと方向が一致している。そこで、ミラーリング部54は、撮影画像IMG21から縁部画像を検出し、その縁部画像を必要に応じて矩形に射影変換した後、その矩形の互いに直交する長辺および短辺のうちいずれか一辺の方向に基づいて、ミラーリング軸の方向を決定することができる。もっとも、本発明の撮影対象(点検対象である)は床版6の格間に限定されず、他の撮影対象の幾何学的特徴に基づいてミラーリング軸の方向を決定してよいことは、言うまでもない。 FIG. 19 is a diagram showing a photographed image in which a coffer is photographed. For example, assume that a photographed image IMG21 of a coffer of the floor slab 6 shown in FIG. 19 is obtained. This photographed image IMG21 includes an image EG of the edge of the coffer (hereinafter referred to as "edge image"). In real space, the shape of the edge of a coffer is a rectangle, and the lengths of two mutually orthogonal sides forming the rectangle are generally different. That is, the edge rectangle has long sides and short sides that are perpendicular to each other. In the real space, the two sides of the edge rectangle that are orthogonal to each other are oriented in the same direction as the two coordinate axes Gx and Gy in the global coordinate system with the bridge 1 as a reference. Therefore, the mirroring unit 54 detects an edge image from the captured image IMG21, performs projective transformation of the edge image into a rectangle as necessary, and then converts one of the mutually orthogonal long and short sides of the rectangle to The direction of the mirroring axis can be determined based on the direction of . Of course, the object to be photographed (the object to be inspected) of the present invention is not limited to the crate of the floor slab 6, and the direction of the mirroring axis may be determined based on the geometric features of other objects to be photographed. stomach.

第2に、建造物を基準にした全体座標系(「第1の座標系」である)の座標軸と、画像を撮影した撮影装置10を基準にした局所座標系(「第2の座標系」である)の座標軸とがなす角度に基づいて、ミラーリング軸の方向を決定する態様がある。 Secondly, the coordinate axes of the global coordinate system (“first coordinate system”) based on the building and the local coordinate system (“second coordinate system”) based on the imaging device 10 that captured the image ), the direction of the mirroring axis is determined based on the angle formed by the coordinate axes.

例えば、図20に示すようにロボット装置90に搭載された撮影装置10により撮影して得られた画像が画像取得部22により入力され、かつロボット装置90の撮影装置制御に従った撮影装置制御情報が画像取得部22により入力される。この撮影装置制御情報には、図21に示すように、橋梁1を基準にした全体座標系の座標軸Gx、Gy、Gzと、撮影装置10を基準にした局所座標系の座標軸Lx、Ly、Lzとがなす角度を示す角度情報が含まれる。本例の局所座標系において、互いに直交する三つの座標軸Lx、Ly、Lzのうち一つの座標軸Lzは、撮影装置10の撮影方向(光軸方向ともいう)であり、かつ橋梁1の床版6(被撮影面である)と直交する。つまり、本例では、全体座標系の一つの座標軸Gzの方向と局所座標系の一つの座標軸Lzの方向とが一致している。 For example, as shown in FIG. 20, an image captured by the imaging device 10 mounted on the robot device 90 is input by the image acquiring unit 22, and the imaging device control information according to the imaging device control of the robot device 90. is input by the image acquisition unit 22 . As shown in FIG. 21, this imaging device control information includes coordinate axes Gx, Gy, and Gz of a global coordinate system with the bridge 1 as a reference, and coordinate axes Lx, Ly, and Lz of a local coordinate system with the imaging device 10 as a reference. It contains angle information indicating the angle between the two. In the local coordinate system of this example, one coordinate axis Lz of the three mutually orthogonal coordinate axes Lx, Ly, and Lz is the photographing direction (also referred to as the optical axis direction) of the photographing device 10, and is the floor slab 6 of the bridge 1. (which is the surface to be photographed). That is, in this example, the direction of one coordinate axis Gz of the global coordinate system and the direction of one coordinate axis Lz of the local coordinate system match.

本例のロボット装置90は、橋梁1に懸垂した懸垂式ロボットであり、図20ではその撮影に関する要部のみを示した。なお、懸垂式ロボットは、橋梁1に懸垂する代わりに、橋梁上の走行体(車輌)に懸垂する方式のロボットでもよい。また、懸垂式ロボットの代わりに、ドローン(無人飛行体)等の無人飛行式ロボットを用いる場合にも本発明を適用可能である。 The robot device 90 of this example is a suspended robot suspended from the bridge 1, and FIG. The suspension type robot may be a robot that suspends from a running body (vehicle) on the bridge instead of suspending from the bridge 1 . Also, the present invention can be applied to a case where an unmanned flying robot such as a drone (unmanned flying object) is used instead of the suspended robot.

本例のロボット装置90は、撮影装置10の移動および回動の制御を行う撮影装置制御機構92を備える。この撮影装置制御機構92は、撮影装置10を互いに直交するGx方向、Gy方向およびGz方向のそれぞれで移動可能なXYZ移動機構と、撮影装置10をパン方向Pおよびチルト方向Tのそれぞれで回動可能なパンチルト機構とを兼ねている。 The robot device 90 of this example includes an imaging device control mechanism 92 that controls movement and rotation of the imaging device 10 . The photographing device control mechanism 92 includes an XYZ movement mechanism capable of moving the photographing device 10 in each of the Gx, Gy, and Gz directions orthogonal to each other, and rotating the photographing device 10 in each of the pan direction P and tilt direction T. It also serves as a possible pan-tilt mechanism.

ミラーリング部54は、全体座標系の座標軸Gx(またはGy)と局所座標系の座標軸Lx(またはLy)とでなす角度を示す角度情報に基づいて、ミラーリング軸の方向を決定することが可能である。 The mirroring unit 54 can determine the direction of the mirroring axis based on the angle information indicating the angle between the coordinate axis Gx (or Gy) of the global coordinate system and the coordinate axis Lx (or Ly) of the local coordinate system. .

また、撮影装置10をパン方向Pに回動させる場合、つまり橋梁1を基準とした全体座標系に対して撮影装置10の方位角度が可変である場合、ミラーリング部54は、全体座標系の座標軸GxまたはGyに対する撮影装置10の方位角度に基づいて、ミラーリング軸の方向を決定することが可能である。 Further, when the photographing device 10 is rotated in the panning direction P, that is, when the azimuth angle of the photographing device 10 is variable with respect to the global coordinate system with the bridge 1 as a reference, the mirroring unit 54 moves the coordinate axes of the global coordinate system. Based on the azimuth angle of imager 10 with respect to Gx or Gy, it is possible to determine the direction of the mirroring axis.

なお、全体座標系の座標軸Gx、Gy、Gzに対する局所座標系の座標軸Lx、Ly、Lzの設定態様、および撮影装置10のパンチルトの態様(角度制御態様)には、各種あるため、その局所座標系の座標軸の設定態様および撮影装置10の角度制御態様に応じた角度情報を取得して、その角度情報に基づいてミラーリング軸の方向を決定すればよい。 Note that there are various modes of setting the coordinate axes Lx, Ly, and Lz of the local coordinate system with respect to the coordinate axes Gx, Gy, and Gz of the global coordinate system, and pan-tilt modes (angle control modes) of the photographing device 10. It is only necessary to obtain angle information according to the setting mode of the coordinate axes of the system and the angle control mode of the imaging device 10, and determine the direction of the mirroring axis based on the angle information.

<クライアントサーバ型>
クライアントサーバ型のシステムでは、クライアント装置およびサーバ装置の少なくともいずれかにより損傷データ編集装置20を構成してもよい。言い換えると、本発明の損傷データ編集装置20は、クライアントサーバ型のシステムのうちの一つまたは複数のコンピュータ装置により構成してよい。
<Client-server type>
In a client-server system, the damaged data editing device 20 may be configured by at least one of a client device and a server device. In other words, the damaged data editing device 20 of the present invention may be configured by one or more computer devices in a client-server system.

以上、本発明を実施するための形態に関して説明してきたが、本発明は上記した実施形態および変形例に限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能である。 Although the embodiments for carrying out the present invention have been described above, the present invention is not limited to the above-described embodiments and modifications, and various modifications are possible without departing from the gist of the present invention.

1 橋梁
2 主桁
3 横桁
4 対傾構
5 横構
6 床版
7 橋脚
10 撮影装置
20 損傷データ編集装置
22 画像取得部
24 図面データ取得部
26 表示部
28 操作部
30 CPU
32 損傷データ生成部
34 射影関係受付部
36 射影変換部
38 表示制御部
40 編集部
42 損傷図面データ作成部
44 出力部
46 撮影画像合成部
48 損傷データ合成部
50 記憶部
52 ミラーリング関係受付部
54 ミラーリング部
82 損傷リスト
90 ロボット装置
92 撮影装置制御機構
ステップS10-ステップS17 第1の実施形態の損傷データ編集工程
ステップS20-ステップS29 第2の実施形態の損傷データ編集工程
1 Bridge 2 Main Girder 3 Cross Girder 4 Tilting Structure 5 Horizontal Structure 6 Floor Slab 7 Pier 10 Imaging Device 20 Damage Data Editing Device 22 Image Acquisition Unit 24 Drawing Data Acquisition Unit 26 Display Unit 28 Operation Unit 30 CPU
32 Damage data generation unit 34 Projection relationship reception unit 36 Projection transformation unit 38 Display control unit 40 Editing unit 42 Damage drawing data generation unit 44 Output unit 46 Photographed image synthesis unit 48 Damage data synthesis unit 50 Storage unit 52 Mirroring relationship reception unit 54 Mirroring Part 82 Damage list 90 Robot device 92 Imaging device control mechanism Steps S10 to S17 Damage data editing process of the first embodiment Steps S20 to S29 Damage data editing process of the second embodiment

Claims (10)

プロセッサと、点検対象の建造物の図面データを記憶する記憶部とを備える損傷データ編集装置であって、
前記プロセッサは、
前記点検対象の建造物を分割撮影することにより得られる複数の撮影画像から合成された合成画像を取得し、
前記複数の撮影画像が合成される前に、前記複数の撮影画像を画像解析することにより検出された、損傷を表現する損傷データであって、前記合成画像の合成情報に基づいて合成された損傷データを取得し、
前記記憶部から前記点検対象の建造物の前記図面データを取得し、
前記合成画像と取得された前記図面データとの射影関係の入力を受け付け、
受け付けられた前記射影関係に基づいて、前記合成された損傷データを射影変換し、
射影変換された前記合成された損傷データを出力する、
損傷データ編集装置。
A damage data editing device comprising a processor and a storage unit for storing drawing data of a building to be inspected,
The processor
Acquiring a composite image synthesized from a plurality of photographed images obtained by separately photographing the building to be inspected,
Damage data expressing damage detected by image analysis of the plurality of captured images before the plurality of captured images are combined, the damage combined based on the combined information of the combined image. get the data,
Acquiring the drawing data of the building to be inspected from the storage unit;
Receiving an input of a projection relationship between the synthesized image and the acquired drawing data;
projectively transforming the synthesized damage data based on the received projective relationship;
outputting the combined damage data that has been projectively transformed;
Damage data editor.
表示部を更に備え、
前記プロセッサは、
前記表示部に前記合成画像を表示させるとともに、前記合成された損傷データを前記合成画像にオーバレイ表示させ、
前記表示部に表示された前記合成された損傷データの編集の指令を受け付けて、前記編集の指令に基づいて前記合成された損傷データを編集し、
受け付けられた前記射影関係に基づいて、編集された前記合成された損傷データを射影変換する、
請求項1に記載の損傷データ編集装置。
further comprising a display,
The processor
displaying the synthesized image on the display unit and displaying the synthesized damage data overlaid on the synthesized image;
receiving a command to edit the synthesized damage data displayed on the display unit, and editing the synthesized damage data based on the command to edit;
projectively transforming the edited synthesized damage data based on the received projective relationship;
The damage data editing device according to claim 1.
表示部を更に備え、
前記プロセッサは、
前記表示部に前記図面データを表示させ、
前記表示部に表示された前記合成画像と前記図面データとの前記射影関係を示す、前記合成画像の4点および前記図面データの4点を受け付ける請求項1又は2に記載の損傷データ編集装置。
further comprising a display,
The processor
causing the display unit to display the drawing data;
3. The damage data editing device according to claim 1, wherein four points of said synthesized image and four points of said drawing data, which indicate said projection relationship between said synthesized image displayed on said display unit and said drawing data, are received.
前記プロセッサは、
前記合成画像の4点を前記図面データの4点に合わせる射影変換行列を算出し、前記算出した射影変換行列により合成した前記合成された損傷データを射影変換する請求項3に記載の損傷データ編集装置。
The processor
4. Damage data editing according to claim 3 , wherein a projective transformation matrix is calculated for matching the four points of the synthesized image with the four points of the drawing data, and the synthesized damage data synthesized by the calculated projective transformation matrix is subject to projective transformation. Device.
前記プロセッサは、
前記合成画像と前記図面データとのミラーリング関係の入力を受け付け、
受け付けられた前記ミラーリング関係に基づいて、前記合成された損傷データをミラーリングし、
ミラーリングおよび射影変換された前記合成された損傷データを出力する請求項1から4のいずれか1項に記載の損傷データ編集装置。
The processor
receiving an input of a mirroring relationship between the composite image and the drawing data;
mirroring the combined damage data based on the received mirroring relationship;
5. The damage data editing device according to any one of claims 1 to 4, which outputs the combined damage data that has undergone mirroring and projective transformation.
前記プロセッサは、
射影変換された前記合成された損傷データと前記合成された損傷データに対応する前記図面データとが重畳された損傷図面データを作成し、
前記損傷図面データを出力する請求項1から5のいずれか1項に記載の損傷データ編集装置。
The processor
Creating damage drawing data by superimposing the synthesized damage data that has undergone projective transformation and the drawing data corresponding to the synthesized damage data,
6. The damage data editing device according to claim 1, which outputs the damage drawing data.
前記点検対象の建造物は、橋梁またはトンネルである請求項1から6のいずれか1項に記載の損傷データ編集装置。 7. The damage data editing device according to any one of claims 1 to 6, wherein the structure to be inspected is a bridge or a tunnel. 請求項1から7のいずれか1項に記載の損傷データ編集装置と、画像処理装置とを含むシステムであって、A system comprising the damage data editing device according to any one of claims 1 to 7 and an image processing device,
前記画像処理装置のプロセッサは、The processor of the image processing device,
前記建造物を分割撮影して得た複数の撮影画像を取得し、Acquiring a plurality of captured images obtained by dividing and capturing the building,
前記複数の撮影画像を画像合成処理し、performing image synthesis processing on the plurality of captured images;
前記複数の撮影画像を合成処理前に、前記複数の撮影画像を画像解析することにより損傷を検出して、前記損傷を表現する損傷データを生成し、Before combining the plurality of captured images, damage is detected by image analysis of the plurality of captured images, and damage data representing the damage is generated;
前記画像合成処理で得た撮影画像の合成情報に基づいて、前記損傷データを合成処理し、synthesizing the damage data based on the synthesis information of the photographed images obtained in the image synthesizing process;
前記合成された損傷データ、及び前記画像合成処理された撮影画像である合成画像を前記損傷データ編集装置に出力し、outputting the synthesized damage data and a synthesized image, which is a photographed image subjected to the image synthesis processing, to the damage data editing device;
前記損傷データ編集装置の前記プロセッサは、The processor of the damaged data compilation device comprises:
前記合成画像を取得し、obtaining the composite image;
前記合成された損傷データを取得し、obtaining the combined damage data;
前記記憶部から前記建造物の前記図面データを取得し、acquiring the drawing data of the building from the storage unit;
前記合成画像と取得された前記図面データとの射影関係の入力を受け付け、Receiving an input of a projection relationship between the synthesized image and the acquired drawing data;
受け付けられた前記射影関係に基づいて、前記合成された損傷データを射影変換し、projectively transforming the synthesized damage data based on the received projective relationship;
射影変換された前記合成された損傷データを出力する、outputting the combined damage data that has been projectively transformed;
システム。system.
プロセッサと、点検対象の建造物の図面データを記憶する記憶部とを備える損傷データ編集装置の損傷データ編集方法であって、
前記プロセッサは、
前記点検対象の建造物を分割撮影することにより得られる複数の撮影画像から合成された合成画像を取得する工程と、
前記複数の撮影画像が合成される前に、前記複数の撮影画像を画像解析することにより検出された、損傷を表現する損傷データであって、前記合成画像の合成情報に基づいて合成された損傷データを取得する工程と、
前記記憶部から前記点検対象の建造物の図面データを取得する工程と、
前記合成画像と取得された前記図面データとの射影関係の入力を受け付ける工程と、
受け付けられた前記射影関係に基づいて、前記合成された損傷データを射影変換する工程と、
射影変換された前記合成された損傷データを出力する工程と、
を行う損傷データ編集方法。
A damage data editing method for a damage data editing device comprising a processor and a storage unit for storing drawing data of a building to be inspected,
The processor
acquiring a composite image synthesized from a plurality of photographed images obtained by separately photographing the building to be inspected;
Damage data representing damage detected by image analysis of the plurality of captured images before the plurality of captured images are combined, the damage combined based on the combined information of the combined image. obtaining data;
a step of acquiring drawing data of the building to be inspected from the storage unit;
receiving an input of a projection relationship between the composite image and the acquired drawing data;
projectively transforming the combined damage data based on the received projective relationship;
outputting the composite damage data that has been projectively transformed;
damage data compilation method.
プロセッサと、点検対象の建造物の図面データを記憶する記憶部とを備える損傷データ編集装置のプログラムであって、
前記プロセッサに、
前記点検対象の建造物を分割撮影することにより得られる複数の撮影画像から合成された合成画像を取得する工程と、
前記複数の撮影画像が合成される前に、前記複数の撮影画像を画像解析することにより検出された、損傷を表現する損傷データであって、前記合成画像の合成情報に基づいて合成された損傷データを取得する工程と、
前記記憶部から前記点検対象の建造物の図面データを取得する工程と、
前記合成画像と取得された前記図面データとの射影関係の入力を受け付ける工程と、
受け付けられた前記射影関係に基づいて、前記合成された損傷データを射影変換する工程と、
射影変換された前記合成された損傷データを出力する工程と、
を行わせるプログラム。
A program for a damage data editing device comprising a processor and a storage unit for storing drawing data of a building to be inspected,
to the processor;
acquiring a composite image synthesized from a plurality of photographed images obtained by separately photographing the building to be inspected;
Damage data expressing damage detected by image analysis of the plurality of captured images before the plurality of captured images are combined, the damage combined based on the combined information of the combined image. obtaining data;
a step of acquiring drawing data of the building to be inspected from the storage unit;
receiving an input of a projection relationship between the composite image and the acquired drawing data;
projectively transforming the combined damage data based on the received projective relationship;
outputting the composite damage data that has been projectively transformed;
A program that allows you to do
JP2020201168A 2017-07-27 2020-12-03 DAMAGE DATA EDITING DEVICE, DAMAGE DATA EDITING METHOD, PROGRAM, AND SYSTEM Active JP7170023B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017145567 2017-07-27
JP2017145567 2017-07-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019532452A Division JP6805351B2 (en) 2017-07-27 2018-06-26 Damage data editing equipment, damage data editing methods, and programs

Publications (3)

Publication Number Publication Date
JP2021047197A JP2021047197A (en) 2021-03-25
JP2021047197A5 JP2021047197A5 (en) 2021-07-29
JP7170023B2 true JP7170023B2 (en) 2022-11-11

Family

ID=65041050

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019532452A Active JP6805351B2 (en) 2017-07-27 2018-06-26 Damage data editing equipment, damage data editing methods, and programs
JP2020201168A Active JP7170023B2 (en) 2017-07-27 2020-12-03 DAMAGE DATA EDITING DEVICE, DAMAGE DATA EDITING METHOD, PROGRAM, AND SYSTEM

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019532452A Active JP6805351B2 (en) 2017-07-27 2018-06-26 Damage data editing equipment, damage data editing methods, and programs

Country Status (2)

Country Link
JP (2) JP6805351B2 (en)
WO (1) WO2019021719A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7356242B2 (en) * 2019-03-18 2023-10-04 デンカ株式会社 Concrete structure management device, information processing system, concrete structure management method, and program
JP7312581B2 (en) * 2019-03-18 2023-07-21 デンカ株式会社 Concrete structure management device, information processing system, concrete structure management method, and program
JP7427381B2 (en) * 2019-07-22 2024-02-05 キヤノン株式会社 Information processing device, system, information processing method and program
JP7607186B2 (en) * 2020-06-30 2024-12-27 株式会社長谷工コーポレーション Measuring device, creating device, inspection result creating system, and program
KR102713557B1 (en) * 2021-12-07 2024-10-07 한국건설기술연구원 Input automation system of appearance inspection drawings for construction structure using scaner, and method for the same
KR102387717B1 (en) * 2021-12-14 2022-04-18 (주) 다음기술단 Method for inspection and diagnosis of facilities damage using photo album technique and drone photograph
KR102378411B1 (en) * 2021-12-14 2022-03-24 (주) 다음기술단 Making and visualizing method of appearance inspection drawing using portable electronic device
JP2024000324A (en) * 2022-06-20 2024-01-05 キヤノン株式会社 Information processing device, information processing method, and program
JP7678491B1 (en) * 2024-08-22 2025-05-16 株式会社ダックビル Fault storage device, fault storage method, and fault storage program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099784A (en) 1999-09-29 2001-04-13 Keisoku Kensa Kk Method for detecting crack on floor board of existing bridge and method for displaying the same
JP2002310920A (en) 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP2002328096A (en) 2001-04-27 2002-11-15 Tokyo Electric Power Co Inc:The Crack defect detection program, crack defect detection method, and crack defect detection system formed on structure
JP2004318790A (en) 2003-04-16 2004-11-11 Im Soft Kk Inspection device and inspection method for structure, and recording medium
JP2005310044A (en) 2004-04-26 2005-11-04 Constec Engi Co Apparatus, method and program for data processing
JP2016099235A (en) 2014-11-21 2016-05-30 株式会社ソーシャル・キャピタル・デザイン Normally placed image processing system and structure maintenance management business system
WO2017051633A1 (en) 2015-09-25 2017-03-30 富士フイルム株式会社 Damage diagram generation apparatus and damage diagram generation method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006132973A (en) * 2004-11-02 2006-05-25 Fujimitsu Komuten:Kk Crack inspection device and method of concrete structure
JP5803723B2 (en) * 2012-02-14 2015-11-04 富士通株式会社 Structure inspection support method, structure inspection support program, and structure inspection support device
JP6029870B2 (en) * 2012-06-27 2016-11-24 公益財団法人鉄道総合技術研究所 Method and apparatus for detecting deformation of concrete surface
JP2016126769A (en) * 2014-12-26 2016-07-11 古河機械金属株式会社 Inspection result output device, inspection result output method, and program
JP6654649B2 (en) * 2015-12-14 2020-02-26 株式会社ニコン・トリンブル Defect detection device and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099784A (en) 1999-09-29 2001-04-13 Keisoku Kensa Kk Method for detecting crack on floor board of existing bridge and method for displaying the same
JP2002310920A (en) 2001-04-19 2002-10-23 Keisoku Kensa Kk Method for detecting crack in concrete wall and device thereof
JP2002328096A (en) 2001-04-27 2002-11-15 Tokyo Electric Power Co Inc:The Crack defect detection program, crack defect detection method, and crack defect detection system formed on structure
JP2004318790A (en) 2003-04-16 2004-11-11 Im Soft Kk Inspection device and inspection method for structure, and recording medium
JP2005310044A (en) 2004-04-26 2005-11-04 Constec Engi Co Apparatus, method and program for data processing
JP2016099235A (en) 2014-11-21 2016-05-30 株式会社ソーシャル・キャピタル・デザイン Normally placed image processing system and structure maintenance management business system
WO2017051633A1 (en) 2015-09-25 2017-03-30 富士フイルム株式会社 Damage diagram generation apparatus and damage diagram generation method

Also Published As

Publication number Publication date
JP6805351B2 (en) 2020-12-23
JP2021047197A (en) 2021-03-25
WO2019021719A1 (en) 2019-01-31
JPWO2019021719A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP7170023B2 (en) DAMAGE DATA EDITING DEVICE, DAMAGE DATA EDITING METHOD, PROGRAM, AND SYSTEM
JP7146013B2 (en) Server device, image processing method, and program
US11189009B2 (en) Image processing apparatus and image processing method
US10681269B2 (en) Computer-readable recording medium, information processing method, and information processing apparatus
WO2006049174A1 (en) Concrete structure crack inspection device and crack inspection method
Armesto et al. FEM modeling of structures based on close range digital photogrammetry
JP7429774B2 (en) Damage evaluation device, method and program
JP6775054B2 (en) Inspection support device
CN111684234B (en) Method for determining repair length and device for determining repair length
EP4131157A1 (en) Inspection support device, method, and program
US20230237641A1 (en) Inspection support device for structure, inspection support method for structure, and program
JP2024012527A (en) Information display device, method and program
JP7715687B2 (en) Analysis device, analysis method, and program
Haggren et al. Mapvision: the photogrammetric machine vision system
Janowski et al. The method of measuring the membrane cover geometry using laser scanning and synchronous photogrammetry
JP2017228208A (en) Drawing creation device and drawing creation method
WO2020116279A1 (en) Inspection assistance device and method for structure
JP6779368B2 (en) Image processing equipment, image processing methods, and programs
JP7740965B2 (en) Inspection system, inspection method, and program
Günen et al. Digital Twin of Historical Structures Using Point Cloud: A Case Study of the Gümüşhane Metropolitan Rum Church
JP2025026181A (en) Information processing device, information processing method, and information processing program
Cos-Gayon et al. ANALYSIS, MODELING AND FOLLOWING OF STRUCTURAL DEFORMATIONS THROUGH LASER SCANNER AND ITS BIM IMPLEMENTATION
JP2025180803A (en) Piping display system and piping display method
Bilotta Structural Analysis of Cultural Heritage assisted by 3D Photogrammetry
JPH11110554A (en) Rotational deviation detecting method and rotational deviation detecting device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7170023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250