[go: up one dir, main page]

JP7503426B2 - Map conversion system and map conversion program - Google Patents

Map conversion system and map conversion program Download PDF

Info

Publication number
JP7503426B2
JP7503426B2 JP2020102656A JP2020102656A JP7503426B2 JP 7503426 B2 JP7503426 B2 JP 7503426B2 JP 2020102656 A JP2020102656 A JP 2020102656A JP 2020102656 A JP2020102656 A JP 2020102656A JP 7503426 B2 JP7503426 B2 JP 7503426B2
Authority
JP
Japan
Prior art keywords
robot
map
simulation
type
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020102656A
Other languages
Japanese (ja)
Other versions
JP2021196487A (en
Inventor
幸平 永田
浩太郎 三舩
正人 中島
陽 内藤
康如 佐久間
貴文 柿崎
享 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Corp
Original Assignee
Takenaka Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Corp filed Critical Takenaka Corp
Priority to JP2020102656A priority Critical patent/JP7503426B2/en
Publication of JP2021196487A publication Critical patent/JP2021196487A/en
Application granted granted Critical
Publication of JP7503426B2 publication Critical patent/JP7503426B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動体の経路を規定するための地図の取得に関する。 The present invention relates to obtaining a map for defining a route for a moving object.

建設現場において、移動体であるロボットの位置推定を精緻に行い、ロボットの作業により施工作業を自動化する技術が進展している。例えば、建設現場であっても自己の位置を推定するロボットの位置推定に係る技術が知られている(例えば、特許文献1)。この技術では、計測可能な施工対象物の施工データから抽出してマッピング情報を得て、計測データと、マッピング情報とに基づいて、空間内における自己位置を算出している。 At construction sites, technology is being developed to precisely estimate the position of a moving robot and automate construction work through the robot's operations. For example, technology is known for estimating the position of a robot that can estimate its own position even at a construction site (for example, Patent Document 1). With this technology, mapping information is obtained by extracting it from construction data of a measurable construction object, and the robot's own position within space is calculated based on the measurement data and the mapping information.

また、移動空間内のレイアウトを変更しても容易に適用でき、導入コストが小さく、さらに、高速且つ正確に自己位置認識に係る技術が知られている(例えば、特許文献2)。移動体は自分の位置を推定し、指定された目的地まで自律的に移動制御可能として、移動体の位置を安定的に得る技術が知られている(例えば、特許文献3)。 There is also known a technology for self-location recognition that can be easily applied even if the layout of the moving space is changed, has low introduction costs, and is fast and accurate (for example, Patent Document 2). There is also known a technology for a moving body to estimate its own position and autonomously control its movement to a specified destination, thereby stably obtaining the position of the moving body (for example, Patent Document 3).

また、視覚的情報を用いた移動体装置のローカリゼーションに関する技術が知られている(例えば、特許文献4)。この技術では、コンピューティングシステムにおいて、各エリア記述ファイルは、エリアにある第1の移動体装置が検出する空間的特徴の点群を表わしている。また、フィードバックデータは、エリア中にある間に、ローカリゼーションエリア記述ファイルが表わす空間的特徴のうち1つ以上が第2の移動体装置によって検出されたか否かを同定している。 Techniques related to localization of mobile devices using visual information are also known (e.g., Patent Literature 4). In this technique, in a computing system, each area description file represents a point cloud of spatial features detected by a first mobile device in the area. Feedback data also identifies whether one or more of the spatial features represented by the localization area description file are detected by a second mobile device while in the area.

また、経路生成に係る技術として、作業を情報に含んだ自律移動経路を自動的に生成して経路移動を実行する経路生成に係る技術が知られている(例えば、特許文献5)。この技術では、ノード要素とコネクタの探索から、ロボットの通過するコネクタのリストを生成することにより経路生成を行っている。また、Graph-based SLAM技術を改良することで比較的に誤差の小さい経路データを生成する技術が知られている(例えば、特許文献6)。 As a route generation technique, a route generation technique is known that automatically generates an autonomous movement route that includes task information and executes route movement (for example, Patent Document 5). With this technique, a route is generated by searching for node elements and connectors and generating a list of connectors that the robot will pass through. Also, a technique is known that generates route data with relatively small error by improving Graph-based SLAM technology (for example, Patent Document 6).

特開2018-164966号公報JP 2018-164966 A 特開2010-66934号公報JP 2010-66934 A 特開2019-125354号公報JP 2019-125354 A 特表2018-519558号公報JP 2018-519558 A 特開2006-259963号公報JP 2006-259963 A 特開2018-84995号公報JP 2018-84995 A

上記特許文献1~6に記載の技術によれば、実空間におけるロボットの自己位置を推定し、また、ロボットが作業するための経路を生成できる。しかし、ロボットによっては、自己位置を推定したとしても、予め想定した経路を通過できない等、不具合が生じる。これは、ロボットの種類によっては三次元地図上の移動可能範囲が異なるため、一律に移動可能範囲を規定した三次元地図を元に経路を生成しても、全てのロボットに一律に同様の自己位置推定、及び経路を適用できないからである。また、個々のロボットによっても効率的な経路は異なる。 The technologies described in Patent Documents 1 to 6 above make it possible to estimate the self-position of a robot in real space and generate a route for the robot to work on. However, with some robots, even if they estimate their self-position, they may have problems, such as being unable to travel along a pre-planned route. This is because the movable range on a three-dimensional map varies depending on the type of robot, and so even if a route is generated based on a three-dimensional map that uniformly defines the movable range, the same self-position estimation and route cannot be applied uniformly to all robots. Furthermore, efficient routes differ depending on the individual robot.

本発明は上記事実を考慮して、建物内における移動体の精緻な制御を可能とすることを目的とする。 Taking the above facts into consideration, the present invention aims to enable precise control of moving objects within a building.

上記目的を達成するために、本発明の地図変換システムは、予め内部構造及び構造物の属性情報が処理された空間を表す三次元BIMデータと、移動体の種類に応じた所定の個体情報とに基づいて、自己位置推定を用いたシミュレーションにより、前記移動体の移動可能経路を規定した二次元地図または三次元地図を取得する。これにより、建物内における移動体の精緻な制御を可能とする。 To achieve the above objective, the map conversion system of the present invention obtains a two-dimensional or three-dimensional map that defines the possible routes of a moving object through a simulation using self-location estimation based on three-dimensional BIM data that represents a space in which the internal structure and attribute information of the structure have been processed in advance, and on specific individual information according to the type of moving object. This enables precise control of moving objects within a building.

本発明によれば、建物内における移動体の精緻な制御を可能とする、という効果が得られる。 The present invention has the effect of enabling precise control of moving objects within a building.

環境地図を取得する過程のイメージ図である。FIG. 1 is an image diagram of a process for acquiring an environmental map. ロボット管理プラットフォームのイメージ図である。FIG. 1 is an image of a robot management platform. 本発明の実施形態に係る地図変換システムの構成を示すブロック図である。1 is a block diagram showing a configuration of a map conversion system according to an embodiment of the present invention. 記憶部に格納されるロボットの種類ごとの個体情報の一例を示す図である。10 is a diagram showing an example of individual information for each type of robot stored in a storage unit; FIG. 本発明の実施形態に係る地図変換装置における図面変換処理を示すフローチャートである。4 is a flowchart showing a map conversion process in the map conversion device according to the embodiment of the present invention. 本発明の実施形態に係る地図変換装置における動作制御処理を示すフローチャートである。4 is a flowchart showing an operation control process in the map conversion device according to the embodiment of the present invention. ある空間に各種障害物が配置された環境地図の一例を示す図である。FIG. 1 is a diagram showing an example of an environmental map in which various obstacles are placed in a space. 人型歩行ロボットの移動の経路シミュレーションを行った場合の一例を示す図である。FIG. 13 is a diagram showing an example of a simulation of a movement path of a humanoid walking robot. 四輪駆動ロボットの移動の経路シミュレーションを行った場合の一例を示す図である。FIG. 13 is a diagram showing an example of a simulation of a path of movement of a four-wheel drive robot. ドローンの移動の経路シミュレーションを行った場合の一例を示す図である。FIG. 13 is a diagram showing an example of a simulation of a drone's movement path.

[本発明の実施形態]
以下、図面を参照して、本発明の実施形態の地図変換システムについて説明する。
[Embodiments of the present invention]
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A map conversion system according to an embodiment of the present invention will now be described with reference to the accompanying drawings.

上述した課題を解決するために、本発明は、三次元BIM(Building Information Modeling)データ(以下、単にBIMデータと記載する)とロボットの自己位置推定とによって、ロボットの体躯又は姿勢に応じて移動可能な経路を規定した地図を取得する。これにより、建物内におけるロボットの精緻な制御を可能とする。ここで本実施形態におけるロボットは、作業用ロボット、監視用ドローン等を含む移動体を指す。BIMデータとは、建物の内部構造及び構造物の属性情報が処理された空間を表す三次元の立体モデルの図面データである。建築設計の分野では、BIMデータの活用が進んでおり、建築設計を行う際、設計対象の建物の3次元モデルとしてBIMデータが作成される。ここで、BIMデータにおいて、ロボットがどのように移動可能であるかは未知であり、ロボットの種類ごとに移動可能範囲は異なる。 In order to solve the above-mentioned problems, the present invention uses three-dimensional BIM (Building Information Modeling) data (hereinafter simply referred to as BIM data) and robot self-location estimation to obtain a map that specifies the path that the robot can move along depending on its body or posture. This enables precise control of the robot within a building. Here, the robot in this embodiment refers to a moving object including a work robot, a surveillance drone, etc. BIM data is drawing data of a three-dimensional solid model that represents a space in which the internal structure of a building and attribute information of the structure have been processed. In the field of architectural design, the use of BIM data is progressing, and when architectural design is performed, BIM data is created as a three-dimensional model of the building to be designed. Here, in the BIM data, it is unknown how the robot can move, and the movable range differs depending on the type of robot.

そこで、本発明の実施形態では、ロボットの種類ごとに、自己位置推定を用いたシミュレーションにより、ロボットの移動可能経路を規定した環境地図を取得する。環境地図は、二次元地図又は三次元地図の何れかとして取得する。二次元地図であってもX軸Y軸の移動可能範囲は規定されるため制御は可能である。つまり、本実施形態ではBIMデータをロボットの移動可能経路を規定するように変換した環境地図を取得して、ロボットの制御に活用する。 Therefore, in an embodiment of the present invention, an environmental map that specifies the robot's possible movement paths is obtained for each type of robot through a simulation using self-location estimation. The environmental map is obtained as either a two-dimensional map or a three-dimensional map. Even if it is a two-dimensional map, the possible movement range on the X-axis and Y-axis is specified, so control is possible. In other words, in this embodiment, an environmental map is obtained in which BIM data has been converted to specify the robot's possible movement paths, and is used to control the robot.

図1は、環境地図を取得する過程のイメージ図である。本実施形態では図1に示すように、BIMデータを元に、ロボットの種類ごとにシミュレーションを行って、ロボットの種類ごとの環境地図を取得する。 Figure 1 is an image diagram of the process of acquiring an environmental map. In this embodiment, as shown in Figure 1, a simulation is performed for each type of robot based on the BIM data, and an environmental map for each type of robot is acquired.

シミュレーションにおける自己位置推定には、SLAM(Simultaneous Localization and Mapping)を利用する。SLAMとは、ロボットのセンサで周辺の環境を認識すると同時に、自己の位置及び姿勢を精度よく推定する技術であり、自己の位置を推定すると同時に環境地図を生成する。SLAMにおいては、ロボットは複数のセンサを組み合わせて環境認識を行う。センサはロボットによって様々であるが、測距センサ、カメラ、ジャイロセンサ、磁気センサ、加速度センサ、レーダーセンサ等を用いる。本実施形態では、SLAMによる自己位置推定をシミュレーション環境上で行う。シミュレーション環境にBIMデータとロボットの個体情報とを与えてシミュレーション上を行うことで、実際に建設現場でロボットを走行させた場合と同様の自己位置推定の結果、及び環境地図が生成できる。本実施形態で実環境でなくシミュレーション環境でSLAMを利用するのは動作エミュレートの高速化が可能だからである。 For self-location estimation in the simulation, SLAM (Simultaneous Localization and Mapping) is used. SLAM is a technology that uses the robot's sensors to recognize the surrounding environment and simultaneously estimate the robot's own position and orientation with high accuracy, and generates an environmental map while estimating the robot's own position. In SLAM, the robot recognizes the environment by combining multiple sensors. The sensors vary depending on the robot, but distance sensors, cameras, gyro sensors, magnetic sensors, acceleration sensors, radar sensors, etc. are used. In this embodiment, self-location estimation using SLAM is performed in a simulation environment. By providing BIM data and individual information of the robot to the simulation environment and performing a simulation, it is possible to generate self-location estimation results and an environmental map similar to those when the robot is actually run on a construction site. In this embodiment, SLAM is used in a simulation environment rather than a real environment because it allows for faster operation emulation.

このようにロボットの種類ごとに環境地図を作成する必要性について説明する。例えば、BIMデータから単純に構造物の存在する箇所を移動不可能な空間と規定した平面的な二次元の地図を取得したとする。このようにして取得した二次元の地図は、ロボットの移動可能範囲を正しく反映した地図とはいえない。なぜならば、構造物の高さ方向、突起等と、ロボットとの衝突が考慮されていないからである。このような二次元の地図を元に経路を生成しても実際のロボットの移動可能範囲と異なってしまう。また、BIMデータを三次元地図として捉える場合でも、空間の中の構造データだけが与えられている一義的な構造を示すデータであり、これだけでは、単に構造物の配置されていない空間に経路を生成することしかできない。 The need to create an environmental map for each type of robot in this way will be explained. For example, suppose a planar two-dimensional map is acquired from BIM data in which areas where structures exist are simply defined as unmovable spaces. A two-dimensional map acquired in this way cannot be said to be a map that correctly reflects the robot's movable range. This is because it does not take into account the height direction of the structure, protrusions, etc., and collisions between the robot and the map. Even if a route is generated based on such a two-dimensional map, it will differ from the actual movable range of the robot. Furthermore, even if BIM data is considered as a three-dimensional map, it is data that uniquely indicates a structure, with only structural data in the space given, and this alone makes it possible to simply generate routes in a space where no structures are located.

一方、ロボットの種類ごとに地図上の移動可能範囲、つまり移動可能な経路は異なってくる。なぜならば、ロボットの種類ごとに、センサ位置及び範囲、体躯(走行型の車輪付きロボットであれば車幅、車高、アームなど)、姿勢、及び移動形態(路面走行、飛行など)といった個体情報が異なるからである。例えば、単純な例では、路面走行するロボットは路面に構造物又は資材が配置されている場所は通行できないが、飛行型のロボットであれば通行可能である。また数センチ程度の段差であれば通行可能であっても、10センチ以上の高さがある場合は通行できない、など様々な状況が想定され得る。よって、ロボットの種類ごとに構造物の検知、衝突等を考慮してシミュレーションを行い、移動可能範囲を与える必要がある。 On the other hand, the movable range on the map, that is, the movable route, differs for each type of robot. This is because each type of robot has different individual information, such as sensor position and range, body size (width, height, arms, etc. for wheeled robots), posture, and movement mode (road running, flying, etc.). For example, in a simple example, a road running robot cannot pass through areas where structures or materials are placed on the road surface, but a flying robot can. Also, various situations can be imagined, such as a robot that can pass over a step of only a few centimeters but cannot pass over a step of 10 centimeters or more. Therefore, it is necessary to perform simulations that take into account detection of structures, collisions, etc. for each type of robot and give it a movable range.

ここでシミュレーションに活用するロボット管理プラットフォームについて説明する。図2はロボット管理プラットフォームのイメージ図である。図2に示すように、ロボット管理プラットフォームは、クラウド環境でロボットの管理を行うためのプラットフォームである。ロボット管理プラットフォームにはロボットを管理するための機能を実行するプログラムが各種モジュールとして実装されており、モジュールを適宜連携させて必要な処理を行う。これによりロボット管理プラットフォームは、ロボットによる施工作業のオートメーション化を実現する。図2に示したモジュールの一覧はあくまで機能的な手段の一例を示しており、これらの例に限定されない。このようなロボット管理プラットフォームを活用することにより、煩わしいロボット操作のための設定作業などを極力なくすことに繋がる。また、施工対象のBIMデータをもとにロボットの自己位置を推定することで、現場担当者はBIMデータを参照してロボットの指示ができるようになるため、直感的な操作を現場担当者に提供できる。また、遠隔操作におけるロボットの状態監視など、施工時に必要な機能をプラットフォームのサービスとして展開できる。図2において、本実施形態の手法に関連するモジュールとしては、「SLAM・BIMデータ連携」、「シミュレーション環境」、及び「経路シミュレーション」等が挙げられる。本実施形態では、「シミュレーション環境」で「SLAM・BIMデータ連携」を行うことにより環境地図を生成する。また、生成した環境地図を用いてロボットの実際の「経路シミュレーション」を行うようにする。 Here, the robot management platform used in the simulation will be described. FIG. 2 is an image diagram of the robot management platform. As shown in FIG. 2, the robot management platform is a platform for managing robots in a cloud environment. The robot management platform is implemented with programs for managing robots as various modules, and the modules are appropriately linked to perform necessary processing. In this way, the robot management platform realizes automation of construction work using robots. The list of modules shown in FIG. 2 merely shows an example of functional means, and is not limited to these examples. By utilizing such a robot management platform, it is possible to eliminate as much as possible the troublesome setting work for robot operation. In addition, by estimating the robot's self-position based on the BIM data of the construction target, the on-site person in charge can refer to the BIM data to instruct the robot, so that an intuitive operation can be provided to the on-site person in charge. In addition, functions required during construction, such as monitoring the status of the robot during remote operation, can be deployed as a platform service. In FIG. 2, modules related to the method of this embodiment include "SLAM/BIM data linkage," "simulation environment," and "route simulation." In this embodiment, an environmental map is generated by performing "SLAM/BIM data linkage" in the "simulation environment." In addition, the generated environmental map will be used to perform an actual "route simulation" of the robot.

以上のように本実施形態では、一義的な空間情報のみが規定されたBIMデータを元にシミュレーション環境を構築し、シミュレーションを行う。シミュレーションでは、ロボットの種類ごとの平面方向及び高さ方向の空間認識を行い、ロボットの種類に応じて移動可能範囲を既定した環境地図を取得する。移動可能範囲を既定した環境地図は、ロボットの種類に係る属性情報に対応した移動可能範囲が既定される。つまり本実施形態によればロボットの種類に応じた多義的な環境地図を獲得できる。 As described above, in this embodiment, a simulation environment is constructed based on BIM data in which only unambiguous spatial information is defined, and a simulation is performed. In the simulation, spatial recognition is performed in the planar and vertical directions for each type of robot, and an environmental map is obtained in which the movable range is predefined according to the type of robot. In the environmental map in which the movable range is predefined, the movable range is predefined according to the attribute information related to the type of robot. In other words, according to this embodiment, an ambiguous environmental map can be obtained according to the type of robot.

シミュレーションにおいて考慮する事項について、ロボットの特定の種類を例に説明する。例えば、ごみ収集を目的とする四輪駆動ロボットの場合、シミュレーション環境において、かき集めたごみを集積する場所、及び作業終了後に停止する位置を設定する必要がある。また搬送を目的とした四輪駆動ロボットの場合、材料に取り付けられたQRコード(登録商標)を読み込み自動で搬送先(エリア)を取得する作業が必要である。また、材料ヤードに決められた列に材料パレットを整列する作業が必要である。シミュレーションでは、これらの必要な作業及び作業に係る制御を、ロボットの種類ごとに個体情報として考慮する必要がある。また、歩行又は走行可能な傾斜路の斜度、通過可能な段差、飛行体の場合に飛行可能高さ等も個体情報として考慮される必要がある。 The matters to be considered in the simulation will be explained using a specific type of robot as an example. For example, in the case of a four-wheel drive robot intended for garbage collection, it is necessary to set in the simulation environment the location where the collected garbage will be accumulated and the location where the robot will stop after the work is completed. In addition, in the case of a four-wheel drive robot intended for transportation, it is necessary to read the QR code (registered trademark) attached to the material and automatically obtain the destination (area). It is also necessary to align the material pallets in a predetermined row in the material yard. In the simulation, these necessary tasks and the control related to the tasks must be considered as individual information for each type of robot. In addition, the gradient of the ramp that can be walked or driven on, the steps that can be passed, and the height at which the robot can fly in the case of an aircraft must also be considered as individual information.

図3は、本発明の実施形態に係る地図変換システムの構成を示すブロック図である。図3に示すように、地図変換システム100は、地図変換装置110と、端末140と、複数のロボット150の各々(150A~150C)とが、ネットワークNを介して接続されている。ネットワークNは、例えば、インターネット回線、又は公衆無線LAN等である。以下、制御対象のロボット全般について指す場合には、単にロボット150と記載する。 Figure 3 is a block diagram showing the configuration of a map conversion system according to an embodiment of the present invention. As shown in Figure 3, in the map conversion system 100, a map conversion device 110, a terminal 140, and each of a number of robots 150 (150A to 150C) are connected via a network N. The network N is, for example, an Internet line or a public wireless LAN. Hereinafter, when referring to a robot to be controlled in general, it will be simply referred to as robot 150.

端末140は、各種担当が操作する端末であり、地図変換装置110の処理に必要な入出力を行う。ここでの各種担当は上述のロボット管理プラットフォームに当てはめられる。例えば、環境地図の取得に係る担当であれば「機材管理担当者」、ロボット150の個別の動作制御に係る担当であれば「現場担当者」である。端末140のログイン時に各種担当に応じた権限が振り分けられているが、地図変換システム100の主たる処理でないためここでは説明は省略する。本実施形態では、端末140により、BIMデータの入力、各種ロボットの個体情報の入力、BIMデータの対象とするロボット150の種類の入力、環境地図の確認、及びロボットの制御入力データの入力等を行う。ロボットの制御入力データとは、例えば目的地、運搬対象等を含む情報である。 The terminal 140 is a terminal operated by various personnel, and performs input and output necessary for the processing of the map conversion device 110. The various personnel here correspond to the robot management platform described above. For example, the person in charge of acquiring the environmental map is an "equipment management person", and the person in charge of individual operation control of the robot 150 is an "on-site person in charge". When logging in to the terminal 140, authority is assigned according to the various personnel, but since this is not the main processing of the map conversion system 100, an explanation is omitted here. In this embodiment, the terminal 140 is used to input BIM data, input individual information of various robots, input the type of robot 150 that is the subject of the BIM data, check the environmental map, and input control input data for the robot. The control input data for the robot is information including, for example, the destination, the object to be transported, etc.

ロボット150は、環境地図の取得の対象とするロボットである。ロボット150は、上述したシミュレーション環境にエージェントとして種類ごとに実装されており動作エミュレートが可能であるとする。また、施工現場の実環境においては、生成された制御情報に従って動作する。 The robot 150 is the robot for which the environmental map is to be acquired. The robots 150 are implemented by type as agents in the above-mentioned simulation environment, and their behavior can be emulated. In the actual environment of the construction site, the robots operate according to the generated control information.

地図変換装置110は、通信部112と、変換部114と、動作制御部116と、記憶部120とを含んで構成されている。また、地図変換装置110は、CPUと、RAMと、各処理部を実行するためのプログラム及び各種データを記憶したROMと、を含むコンピュータで構成することができる(図示省略)。本実施形態の地図変換装置110は、上述した図2のロボット管理プラットフォームの一部の機能をモジュール化して構築したサーバであり、各機能部は機能の一例である。 The map conversion device 110 includes a communication unit 112, a conversion unit 114, an operation control unit 116, and a storage unit 120. The map conversion device 110 can be configured as a computer including a CPU, a RAM, and a ROM that stores programs and various data for executing each processing unit (not shown). The map conversion device 110 of this embodiment is a server constructed by modularizing some of the functions of the robot management platform of FIG. 2 described above, and each functional unit is an example of a function.

通信部112は、端末140及びロボット150との通信により各種データの送受信を行う。例えば、端末140からBIMデータ、及びロボットの種類ごとの個体情報を受け付け記憶部120に格納する。また、BIMデータの対象とするロボット150の種類を受け付ける。また、取得した環境地図を端末140に送信する。また、制御対象のロボット150について生成した制御情報を端末140及び当該ロボット150に送信する。 The communication unit 112 transmits and receives various data by communicating with the terminal 140 and the robot 150. For example, it receives BIM data and individual information for each type of robot from the terminal 140 and stores it in the memory unit 120. It also receives the type of robot 150 that is the subject of the BIM data. It also transmits the acquired environmental map to the terminal 140. It also transmits control information generated for the robot 150 to be controlled to the terminal 140 and the robot 150.

記憶部120には、BIMデータ、ロボット150の種類ごとの個体情報が格納される。また、変換部114により取得された、ロボット150の種類ごとの環境地図が格納される。また、動作制御部116により生成された、制御対象のロボット150の制御情報が格納される。図4は、記憶部120に格納されるロボット150の種類ごとの個体情報の一例を示す図である。図4に示すように、個体情報は、ロボットの種類を示す種別、縦幅(h)及び横幅(w)のサイズ、備えられたセンサ情報等である。また、個体情報には、ロボットの種類に応じた必要な作業、作業に係る必要な制御の情報も含まれる。移動形態が路面であれば路面を走行して作業する四輪駆動ロボット等であり、移動形態が飛行であれば所定の高さの空間を飛行する飛行タイプのロボット(ドローン)である。センサ情報は、ロボットが備えるセンサの数だけ情報を持つ。センサ情報の一例としては、センサの種類(測距センサ、カメラ等)、センサ位置、センサ範囲等であるが、これ以外の情報を含んでもよい。センサ情報の一例として、掃除を目的とする四輪駆動ロボット(以下、掃除用ロボット)の例を説明する。例えば、掃除用ロボットはセンサ情報として、レーザースキャナ、及びバンパーセンサを有する。レーザースキャナは周囲の壁及び障害物を検出するセンサであり、レーザースキャナを用いることで、掃除する領域の四隅に置かれた反射マーカーを検出することにより掃除領域を判断できる。また、掃除用ロボットは反射マーカーで囲われた掃除領域内のゴミが全て掃除できるような経路で掃除領域内を移動するため、移動経路は掃除領域内に自動生成できる。バンパーセンサは、障害物に接触したことを検出するセンサであり、掃除領域内の障害物を検知して回避する。以上のようなロボットの種類ごとに与えられる個体情報を組み合わせてシミュレーションは行われる。 The storage unit 120 stores BIM data and individual information for each type of robot 150. In addition, an environmental map for each type of robot 150 acquired by the conversion unit 114 is stored. In addition, control information for the robot 150 to be controlled, generated by the operation control unit 116, is stored. FIG. 4 is a diagram showing an example of individual information for each type of robot 150 stored in the storage unit 120. As shown in FIG. 4, the individual information is a type indicating the type of robot, the size of the vertical width (h) and horizontal width (w), information on the sensors provided, etc. In addition, the individual information also includes information on the necessary work according to the type of robot and the necessary control related to the work. If the movement form is a road surface, it is a four-wheel drive robot that runs on the road surface and works, and if the movement form is flying, it is a flying type robot (drone) that flies in a space at a predetermined height. The sensor information has information for the number of sensors provided by the robot. Examples of sensor information include the type of sensor (ranging sensor, camera, etc.), sensor position, sensor range, etc., but may include other information. As an example of sensor information, a four-wheel drive robot for cleaning purposes (hereinafter, a cleaning robot) will be described. For example, the cleaning robot has a laser scanner and a bumper sensor as sensor information. The laser scanner is a sensor that detects surrounding walls and obstacles, and by using the laser scanner, the cleaning area can be determined by detecting reflective markers placed at the four corners of the area to be cleaned. In addition, the cleaning robot moves within the cleaning area along a path that can clean up all the dirt within the cleaning area surrounded by the reflective markers, so the movement path can be automatically generated within the cleaning area. The bumper sensor is a sensor that detects contact with an obstacle, and detects and avoids obstacles within the cleaning area. Simulations are performed by combining the individual information given to each type of robot as described above.

変換部114は、記憶部120のBIMデータと個体情報とに基づいて、自己位置推定を用いたシミュレーションにより、環境地図を取得する。 The conversion unit 114 obtains an environmental map by performing a simulation using self-position estimation based on the BIM data and individual information in the memory unit 120.

変換部114において環境地図を取得するまでの変換部114の処理工程について説明する。変換部114では、まず対象とするBIMデータを記憶部120から取得し、BIMデータによるシミュレーション環境を構築する。対象とするBIMデータは環境地図が必要な施工現場のデータである。次に取得したBIMデータについて、端末140から当該BIMデータの対象とするロボット150の種類を受け付け、取得対象(N種)とする。ここでの取得対象とは、ロボット150の全ての種類のうち、取得したBIMデータについて環境地図の取得する必要があるロボット150の種類を指す。このようにBIMデータに応じて対象のロボット150の種類を定めるのは、施工現場において必要なロボット150の種類が異なる場合が想定されるからである。次に、N種の取得対象について、取得対象ごとにシミュレーション環境におけるエージェントを作成する。エージェントの作成には記憶部120の個体情報を用いる。作成したエージェントをシミュレーション環境の任意の初期位置に配置し、空間全体を走査するように自己位置推定を行いながら環境地図を更新することを、空間全体の走査が完了するまで繰り返す。シミュレーションにおいては、個体情報に応じたエージェントとBIMデータの構造物の高さ方向の衝突を反映する。高さ方向の衝突について、一例として走行タイプの場合と飛行タイプの場合とを例に説明する。走行タイプのロボットの場合、空間に所定の高さ以上の構造物が存在する場合には構造物と衝突し、移動できない領域として環境地図が更新される。一方、飛行タイプのロボットの場合、所定の高さ以上の構造物があったとしても当該構造物の上方の空間にサイズよりも大きい空間があれば、構造物との衝突を回避し、移動できる領域として環境地図が更新される。最終的な環境地図を取得し、記憶部120に格納する。格納と共に該当の端末140(機材管理担当者が操作する端末)に出力するようにしてもよい。変換部114は以上の処理工程により環境地図を取得する。 The processing steps of the conversion unit 114 up to the acquisition of the environmental map in the conversion unit 114 will be described. In the conversion unit 114, first, the target BIM data is acquired from the storage unit 120, and a simulation environment is constructed by the BIM data. The target BIM data is data of a construction site that requires an environmental map. Next, for the acquired BIM data, the type of robot 150 that is the target of the BIM data is accepted from the terminal 140, and set as the acquisition target (N types). The acquisition target here refers to the type of robot 150 that needs to acquire an environmental map for the acquired BIM data, among all types of robots 150. The reason for determining the type of target robot 150 according to the BIM data in this way is that it is assumed that the type of robot 150 required at the construction site may differ. Next, for the N types of acquisition targets, an agent in the simulation environment is created for each acquisition target. The individual information in the storage unit 120 is used to create the agent. The created agent is placed at an arbitrary initial position in the simulation environment, and the environmental map is updated while performing self-location estimation so as to scan the entire space, and this is repeated until scanning of the entire space is completed. In the simulation, the collision in the height direction between the agent according to the individual information and the structure of the BIM data is reflected. The collision in the height direction will be explained using the running type and the flying type as examples. In the case of a running type robot, if a structure of a certain height or more exists in the space, the robot will collide with the structure and the environmental map is updated to show that the robot cannot move. On the other hand, in the case of a flying type robot, even if a structure of a certain height or more exists, if there is a space above the structure that is larger than the size, the robot will avoid colliding with the structure and the environmental map is updated to show that the robot can move. The final environmental map is acquired and stored in the storage unit 120. The map may be output to the corresponding terminal 140 (a terminal operated by the equipment manager) together with the storage. The conversion unit 114 acquires the environmental map through the above processing steps.

動作制御部116は、動作制御に係る端末140(現場担当者が操作する端末)から受け付けた制御対象のロボット150の制御入力データと、当該ロボット150の種類に対応した環境地図とに基づいて、ロボット150の制御情報を生成する。制御入力データにおける目的地までの経路に複数の環境地図が含まれている場合には、複数の環境地図を用いて制御情報を生成する。生成した制御情報は端末140及び当該ロボット150に送信する。ロボット150は制御情報に従って動作する。制御情報は、当該ロボット150の種類に対応した環境地図を用いて、制御入力データに含まれる目的地までの経路シミュレーション及び必要作業工程を含む情報として生成される。経路シミュレーションの事例の具体例については後述する。 The operation control unit 116 generates control information for the robot 150 based on the control input data for the robot 150 to be controlled received from the operation control terminal 140 (a terminal operated by a site worker) and an environmental map corresponding to the type of the robot 150. If the route to the destination in the control input data includes multiple environmental maps, the control information is generated using the multiple environmental maps. The generated control information is sent to the terminal 140 and the robot 150. The robot 150 operates according to the control information. The control information is generated as information including a route simulation and necessary work processes to the destination included in the control input data, using an environmental map corresponding to the type of the robot 150. Specific examples of route simulations will be described later.

ここで動作制御に係る端末140では表示インターフェースにおいて、ロボット150の制御情報における環境地図上の経路の確認、及びリアルタイムな状態監視が可能である。表示インターフェースには様々な態様が想定され得る。例えば、環境地図上の経路について二次元的な表示又は三次元的な表示を切り替えられる表示インターフェースとしてもよい。また、表示インターフェースに目的地までの推定到達時間の表示、状態監視に応じた進行状況の表示等をしてもよい。 Here, the terminal 140 involved in the operation control has a display interface that allows confirmation of the route on the environmental map in the control information of the robot 150 and real-time status monitoring. Various aspects of the display interface can be envisioned. For example, the display interface may be one that can switch between a two-dimensional display and a three-dimensional display of the route on the environmental map. The display interface may also display an estimated arrival time to the destination, a progress status according to status monitoring, etc.

次に、本発明の実施形態の地図変換装置110の作用について説明する。図5は、本発明の実施形態に係る地図変換装置110における図面変換処理を示すフローチャートである。CPUがROMからプログラム及び各種データを読み出して実行することにより、図面変換処理が行なわれる。CPUが、地図変換装置110の各部として機能する。なお、BIMデータ、及びロボットの種類ごとの個体情報は記憶部120に予め格納されているとする。 Next, the operation of the map conversion device 110 according to an embodiment of the present invention will be described. FIG. 5 is a flowchart showing the drawing conversion process in the map conversion device 110 according to an embodiment of the present invention. The drawing conversion process is performed by the CPU reading and executing a program and various data from the ROM. The CPU functions as each part of the map conversion device 110. It is assumed that the BIM data and individual information for each type of robot are stored in advance in the memory unit 120.

ステップS100では、変換部114が、対象とするBIMデータを記憶部120から取得し、BIMデータによるシミュレーション環境を構築する。 In step S100, the conversion unit 114 retrieves the target BIM data from the storage unit 120 and constructs a simulation environment using the BIM data.

ステップS102では、変換部114が、取得したBIMデータについて、端末140から当該BIMデータの対象とするロボット150の種類(N種)を受け付ける。 In step S102, the conversion unit 114 receives from the terminal 140 the type (N types) of robot 150 that is the subject of the acquired BIM data.

ステップS104では、変換部114が、取得対象nのロボットの種類を設定する(取得対象nの初期値はn=1)。 In step S104, the conversion unit 114 sets the type of robot for the acquisition target n (the initial value of the acquisition target n is n=1).

ステップS106では、変換部114が、取得対象nについて、記憶部120の個体情報を用いてシミュレーション環境におけるエージェントを作成する。 In step S106, the conversion unit 114 creates an agent in the simulation environment for the acquisition target n using the individual information in the memory unit 120.

ステップS108では、変換部114が、作成したエージェントをシミュレーション環境の任意の初期位置に配置する。 In step S108, the conversion unit 114 places the created agent at an arbitrary initial position in the simulation environment.

ステップS110では、変換部114が、空間全体を走査するようにエージェントの自己位置推定を行いながら環境地図を更新することを、空間全体の走査が完了するまで繰り返す。シミュレーションにおいては、一例として、個体情報に応じたエージェントとBIMデータの構造物との高さ方向の衝突を反映する。 In step S110, the conversion unit 114 repeats updating the environmental map while estimating the agent's self-position so as to scan the entire space, until scanning of the entire space is completed. In the simulation, as an example, the vertical collision between the agent according to the individual information and the structure of the BIM data is reflected.

ステップS112では、変換部114が、最終的な環境地図を取得し、記憶部120に格納する。 In step S112, the conversion unit 114 obtains the final environment map and stores it in the memory unit 120.

ステップS114では、変換部114が、取得対象n≧Nであるか否かを判定する。条件を満たす場合は処理を終了し、条件を満たさない場合はステップS104に戻りn=n+1とカウントアップして取得対象nを更新し処理を繰り返す。 In step S114, the conversion unit 114 determines whether the acquisition target n is greater than or equal to N. If the condition is met, the process ends, and if the condition is not met, the process returns to step S104, counting up n = n + 1 to update the acquisition target n, and repeats the process.

次に実環境においてロボット150の動作を制御する場合の作用について説明する。図6は本発明の実施形態に係る地図変換装置110における動作制御処理を示すフローチャートである。 Next, we will explain the operation of controlling the movement of the robot 150 in a real environment. Figure 6 is a flowchart showing the movement control process in the map conversion device 110 according to an embodiment of the present invention.

ステップS200では、通信部112が、動作制御に係る端末140から送信された制御対象のロボット150の制御入力データを受け付ける。 In step S200, the communication unit 112 receives control input data for the robot 150 to be controlled, which is transmitted from the terminal 140 related to the operation control.

ステップS202では、動作制御部116が、制御入力データと、当該ロボット150の種類とに対応した環境地図を記憶部120から取得する。なお、制御入力データにおける目的地までの経路に複数の環境地図が含まれている場合には複数の環境地図を取得する。 In step S202, the operation control unit 116 acquires an environmental map corresponding to the control input data and the type of the robot 150 from the storage unit 120. Note that if the route to the destination in the control input data includes multiple environmental maps, multiple environmental maps are acquired.

ステップS204では、動作制御部116が、制御入力データと、取得した環境地図とに基づいて、制御情報を生成する。 In step S204, the operation control unit 116 generates control information based on the control input data and the acquired environmental map.

ステップS206では、動作制御部116が、生成した制御情報を端末140及び当該ロボット150に送信する。ロボット150は受信した制御情報に従って動作する。 In step S206, the operation control unit 116 transmits the generated control information to the terminal 140 and the robot 150. The robot 150 operates according to the received control information.

ここで、ロボットの種類ごとの経路シミュレーションの事例について図7~図10を参照して説明する。なお、経路シミュレーションの場合を例に説明するが、環境地図の生成のためのシミュレーションにおいても同様に考慮される。 Here, examples of route simulation for each type of robot will be described with reference to Figures 7 to 10. Note that while route simulation will be used as an example, the same considerations can also be applied to simulations for generating an environmental map.

図7は、ある空間に各種障害物が配置された環境地図の一例を示す図である。図8~図10は、ロボットの種類として、人型歩行ロボット、四輪駆動ロボット、及びドローンについて、図7の三次元BIMデータの空間を移動する経路シミュレーションを行った場合の一例である。空間には始発地点及び目的地点が設定されており、障害物が配置されている。配置される障害物としては、例えば、高さ(h)が定められた障害物、下部の空間のみ通行可能な障害物、通行不可の障害物がある。各障害物には移動における制約が設けられている。例えば、高さが定められた障害物は、3.0m、0.5mがあるが、これ以上の高さを飛行可能なドローンのみが移動できる。また、下部の空間のみ通行可能な障害物とは、四輪駆動ロボットが通行可能であることを示す。また、通行不可の障害物の間は狭く配置されており、当該配置の間隔であれば人型歩行ロボットが移動可能である。また、目的地点の手前には段差があり、人型歩行ロボットはまたいで移動が可能であるが、四輪駆動ロボットはスロープからの移動が必要である。 Figure 7 is a diagram showing an example of an environmental map in which various obstacles are placed in a certain space. Figures 8 to 10 are examples of route simulations performed for robots of various types, such as a humanoid walking robot, a four-wheel drive robot, and a drone, moving through the space of the three-dimensional BIM data in Figure 7. A starting point and a destination point are set in the space, and obstacles are placed therein. The obstacles that are placed include, for example, obstacles with a fixed height (h), obstacles that can only be passed through the lower space, and obstacles that cannot be passed through. Each obstacle has a restriction on movement. For example, obstacles with fixed heights include 3.0 m and 0.5 m, and only drones that can fly at heights higher than this can move through them. An obstacle that can only be passed through the lower space indicates that a four-wheel drive robot can pass through it. The spaces between the obstacles that cannot be passed through are narrow, and the humanoid walking robot can move through the space within the space. There is also a step in front of the destination point, and the humanoid walking robot can move over it, but the four-wheel drive robot must move through a slope.

図8は、人型歩行ロボットの移動の経路シミュレーションを行った場合の一例を示す図である。図8に示すように、人型歩行ロボットの場合は始発地点から通行不可の障害物の間を通りながら目的地点まで移動する経路が経路シミュレーションにおいて求められる。経路シミュレーションでは、人型歩行ロボットの個体情報としては、例えば、サイズ、及び移動形態が組み合わせて用いられる。経路シミュレーションにおいてこれらの個体情報の組み合わせは、人型歩行ロボットの横幅のサイズであれば通行不可の障害物の間を通行可能である点、及び移動形態が歩行であるため段差をまたぐことが可能であるという点として反映される。障害物との衝突という観点では、経路シミュレーションには、通行不可の障害物の間を通る際の衝突、下部の空間のみ通行可能な障害物との衝突、及び段差をまたぐ際の衝突等が反映される。 Figure 8 is a diagram showing an example of a route simulation of the movement of a humanoid walking robot. As shown in Figure 8, in the case of a humanoid walking robot, a route from a starting point to a destination point while passing between impassable obstacles is obtained in the route simulation. In the route simulation, for example, a combination of size and movement form is used as individual information of the humanoid walking robot. In the route simulation, the combination of these individual information is reflected as the fact that the humanoid walking robot can pass between impassable obstacles if it is the size of its width, and that it can step over steps because its movement form is walking. In terms of collisions with obstacles, the route simulation reflects collisions when passing between impassable obstacles, collisions with obstacles that can only be passed through the lower space, collisions when stepping over steps, etc.

図9は、四輪駆動ロボットの移動の経路シミュレーションを行った場合の一例を示す図である。図9に示すように、四輪駆動ロボットの場合は始発地点から通行不可の障害物の間を避け、下部の空間のみ通行可能な障害物を通り、スロープを経由して目的地点まで移動する経路が経路シミュレーションにおいて求められる。経路シミュレーションでは、四輪駆動ロボットの個体情報としては、例えば、サイズ、及び移動形態が組み合わせて用いられる。経路シミュレーションにおいてこれらの個体情報の組み合わせは、四輪駆動ロボットのサイズの高さであれば下部のみ通行可能な障害物は経由可能である点、横幅のサイズでは通行不可の障害物の間を通行できない点として反映される。また、移動形態が路面走行であるため段差をまたぐことができずスロープを経由する必要があるという点として反映される。 Figure 9 is a diagram showing an example of a route simulation of the movement of a four-wheel drive robot. As shown in Figure 9, in the case of a four-wheel drive robot, the route simulation determines a route from a starting point to a destination point that avoids obstacles that cannot be passed, passes through obstacles that can only be passed through the lower space, and travels via a slope. In the route simulation, a combination of size and movement form is used as individual information of the four-wheel drive robot, for example. In the route simulation, the combination of these individual information is reflected as the fact that the height of the four-wheel drive robot means that it can pass through obstacles that can only be passed through the lower space, and that the width means that it cannot pass between obstacles that cannot be passed. In addition, it is reflected as the fact that the movement form is road running and therefore cannot cross steps and must travel via a slope.

図10は、ドローンの移動の経路シミュレーションを行った場合の一例を示す図である。図10に示すように、ドローンの場合は始発地点から通行不可の障害物の間を避け、高さが定められている障害物の上空を通り目的地点まで移動する経路が経路シミュレーションにおいて求められる。経路シミュレーションでは、ドローンの個体情報としては、例えば、サイズ、センサ、及び移動形態が組み合わせて用いられる。経路シミュレーションにおいて、サイズ及びセンサの組み合わせは、狭い範囲での制御が困難である点等が反映される。また、移動形態が飛行であるため所定の高さ以下の障害物の上空の飛行が可能である点が反映される。 Figure 10 is a diagram showing an example of a route simulation of drone movement. As shown in Figure 10, in the case of a drone, the route simulation determines a route that moves from a starting point to a destination point, avoiding obstacles that are impassable, passing above obstacles with a set height. In the route simulation, a combination of size, sensors, and movement mode, for example, is used as individual information of the drone. In the route simulation, the combination of size and sensors reflects the difficulty of control in a small range, etc. Also, because the movement mode is flight, it reflects the fact that flight above obstacles below a certain height is possible.

以上、説明したように、本発明の実施形態に係る地図変換システム100によれば、建物内における移動体の精緻な制御を可能とする。 As described above, the map conversion system 100 according to an embodiment of the present invention enables precise control of moving objects within a building.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 The present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the spirit of the invention.

例えば、上述した実施形態では、地図変換システムに動作制御部を含む態様について説明したが、これに限定されるものではなく、他の動作制御用のシステムを別途構築し、他のシステムによって動作制御を行うようにしてもよい。 For example, in the above embodiment, the map conversion system includes an operation control unit, but the present invention is not limited to this. A separate system for other operation control may be constructed, and operation control may be performed by the other system.

また、地図変換システムが対象とする環境は建設現場に限らず、例えば供用中の建物内など、BIMデータが付随した空間であれば同様に適用可能である。 In addition, the map conversion system is not limited to target environments such as construction sites; it can be applied to any space that has BIM data, such as inside a building currently in use.

また、対象とするロボットは上述した例に限らず、例えば搭乗型の自動搬送機であってもよい。一例としてパーソナルモビリティ、及び電動車いすなど、を上述したロボットとして本実施形態に係る手法を適用してもよい。 The target robot is not limited to the above-mentioned examples, but may be, for example, a ride-on type automatic transport vehicle. As an example, the method according to this embodiment may be applied to the above-mentioned robots such as personal mobility devices and electric wheelchairs.

100 地図変換システム
110 地図変換装置
112 通信部
114 変換部
116 動作制御部
120 記憶部
140 端末
150 ロボット
100 Map conversion system 110 Map conversion device 112 Communication unit 114 Conversion unit 116 Operation control unit 120 Storage unit 140 Terminal 150 Robot

Claims (3)

三次元BIMデータは建物の内部構造及び構造物の属性情報が定義済みの空間を表す三次元の立体モデルの図面データであり、
前記三次元BIMデータと、移動体の種類に応じた所定の個体情報とに基づいて、SLAM(Simultaneous Localization and Mapping)を利用した自己位置推定を用いたシミュレーションを行い、
当該シミュレーションにおいて、前記移動体の種類及び前記個体情報に応じたエージェントを作成し、
当該シミュレーションにおいて、前記三次元BIMデータの空間全体を前記エージェントで走査し、前記移動体に対応する環境地図を作成することにより、前記移動体の移動可能経路を規定した二次元地図又は三次元地図の何れかである作成された環境地図を取得する、
地図変換システムであって、
前記シミュレーションの走査において前記エージェントと前記三次元BIMデータの構造物との高さ方向の衝突であって前記移動体の種類及び前記個体情報によって異なる衝突を反映することを含む、
地図変換システム。
3D BIM data is a three-dimensional model of a building's internal structure and the attributes of the structure, which represent the space defined by the data.
Based on the 3D BIM data and specific individual information according to the type of moving object, a simulation is performed using self-location estimation using Simultaneous Localization and Mapping (SLAM) ,
In the simulation, an agent is created according to the type of the moving object and the individual information;
In the simulation, the agent scans the entire space of the three-dimensional BIM data, and creates an environmental map corresponding to the moving object, thereby obtaining a created environmental map, which is either a two-dimensional map or a three-dimensional map that defines a possible moving route of the moving object.
A map conversion system , comprising:
The simulation includes reflecting a collision between the agent and a structure of the 3D BIM data in a height direction in the scanning, the collision differing depending on the type of the moving object and the individual information.
Map conversion system.
前記個体情報は、前記移動体の種類に対応する、センサの位置、体格、及び移動形態の何れかの情報を少なくとも一つ含む請求項1に記載の地図変換システム。 The map conversion system according to claim 1, wherein the individual information includes at least one of the following information: sensor position, physique, and movement mode, which corresponds to the type of the moving body. 三次元BIMデータは建物の内部構造及び構造物の属性情報が定義済みの空間を表す三次元の立体モデルの図面データであり、
前記三次元BIMデータと、移動体の種類に応じた所定の個体情報とに基づいて、SLAM(Simultaneous Localization and Mapping)を利用した自己位置推定を用いたシミュレーションを行い、
当該シミュレーションにおいて、前記移動体の種類及び前記個体情報に応じたエージェントを作成し、
当該シミュレーションにおいて、前記三次元BIMデータの空間全体を前記エージェントで走査し、前記移動体に対応する環境地図を作成することにより、前記移動体の移動可能経路を規定した二次元地図または三次元地図の何れかである作成された環境地図を取得する、
処理をコンピュータに実行させる地図変換プログラムであって、
前記シミュレーションの走査において前記エージェントと前記三次元BIMデータの構造物との高さ方向の衝突であって前記移動体の種類及び前記個体情報によって異なる衝突を反映することを含む、
地図変換プログラム。
3D BIM data is a three-dimensional model of a building's internal structure and the attributes of the structure, which represent the space defined by the data.
Based on the 3D BIM data and predetermined individual information according to the type of moving object, a simulation is performed using self-location estimation using Simultaneous Localization and Mapping (SLAM) ,
In the simulation, an agent is created according to the type of the moving object and the individual information;
In the simulation, the agent scans the entire space of the three-dimensional BIM data, and creates an environmental map corresponding to the moving object, thereby obtaining a created environmental map, which is either a two-dimensional map or a three-dimensional map that defines a possible moving route of the moving object.
A map conversion program for causing a computer to execute a process,
In the scanning of the simulation, a collision in a height direction between the agent and a structure of the 3D BIM data is reflected, which collision differs depending on the type of the moving object and the individual information.
Map conversion program.
JP2020102656A 2020-06-12 2020-06-12 Map conversion system and map conversion program Active JP7503426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020102656A JP7503426B2 (en) 2020-06-12 2020-06-12 Map conversion system and map conversion program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020102656A JP7503426B2 (en) 2020-06-12 2020-06-12 Map conversion system and map conversion program

Publications (2)

Publication Number Publication Date
JP2021196487A JP2021196487A (en) 2021-12-27
JP7503426B2 true JP7503426B2 (en) 2024-06-20

Family

ID=79197929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020102656A Active JP7503426B2 (en) 2020-06-12 2020-06-12 Map conversion system and map conversion program

Country Status (1)

Country Link
JP (1) JP7503426B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7623274B2 (en) * 2021-12-28 2025-01-28 Kddi株式会社 Map utilization device and program
JP7623310B2 (en) 2022-01-25 2025-01-28 Kddi株式会社 Map utilization device and program
CN115290097B (en) * 2022-09-30 2022-12-30 安徽建筑大学 BIM-based real-time accurate map construction method, terminal and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291540A (en) 2008-06-09 2009-12-17 Hitachi Ltd Mobile robot system
JP2015144013A (en) 2015-03-31 2015-08-06 株式会社日立製作所 robot system and map update method
JP2017129413A (en) 2016-01-19 2017-07-27 株式会社ダイヘン Route teaching device
JP2018522297A (en) 2015-05-04 2018-08-09 鹿島建設株式会社 BIM-based field facility automation modeling system and method
JP2020020206A (en) 2018-08-02 2020-02-06 株式会社大林組 Spray device and spray method
US20200164521A1 (en) 2018-11-27 2020-05-28 Cloudminds (Beijing) Technologies Co., Ltd. Positioning and navigation method for a robot, and computing device thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291540A (en) 2008-06-09 2009-12-17 Hitachi Ltd Mobile robot system
JP2015144013A (en) 2015-03-31 2015-08-06 株式会社日立製作所 robot system and map update method
JP2018522297A (en) 2015-05-04 2018-08-09 鹿島建設株式会社 BIM-based field facility automation modeling system and method
JP2017129413A (en) 2016-01-19 2017-07-27 株式会社ダイヘン Route teaching device
JP2020020206A (en) 2018-08-02 2020-02-06 株式会社大林組 Spray device and spray method
US20200164521A1 (en) 2018-11-27 2020-05-28 Cloudminds (Beijing) Technologies Co., Ltd. Positioning and navigation method for a robot, and computing device thereof

Also Published As

Publication number Publication date
JP2021196487A (en) 2021-12-27

Similar Documents

Publication Publication Date Title
Kim et al. SLAM-driven intelligent autonomous mobile robot navigation for construction applications
Bircher et al. Receding horizon path planning for 3D exploration and surface inspection
Li et al. Universal path planning for an indoor drone
JP7503426B2 (en) Map conversion system and map conversion program
Schneier et al. Literature review of mobile robots for manufacturing
Droeschel et al. Multilayered mapping and navigation for autonomous micro aerial vehicles
Nieuwenhuisen et al. Autonomous navigation for micro aerial vehicles in complex GNSS-denied environments
Dryanovski et al. An open-source navigation system for micro aerial vehicles
Ibrahim et al. BIM-driven mission planning and navigation for automatic indoor construction progress detection using robotic ground platform
KR20190142360A (en) Method and system for creating and sorting environment maps
Ferrick et al. UAV obstacle avoidance using image processing techniques
Hu et al. Multi-agent robotic system (MARS) for UAV-UGV path planning and automatic sensory data collection in cluttered environments
KR102262378B1 (en) A method and system for managing maps
Kayhani et al. Tag-based indoor localization of UAVs in construction environments: Opportunities and challenges in practice
Kudriashov et al. SLAM techniques application for mobile robot in rough terrain
Choi et al. Cellular Communication-Based Autonomous UAV Navigation with Obstacle Avoidance for Unknown Indoor Environments.
Harun et al. Collision avoidance control for Unmanned Autonomous Vehicles (UAV): Recent advancements and future prospects
KR20200035930A (en) Robot for generating 3d indoor map using autonomous driving and method for controlling the robot
Mantha et al. Robots in indoor and outdoor environments
Zhou et al. Hybrid obstacle avoidance system with vision and ultrasonic sensors for multi-rotor MAVs
WO2023219058A1 (en) Information processing method, information processing device, and information processing system
JP2021196489A (en) Map correction system, and map correction program
Lee et al. Localization method for mobile robots moving on stairs in multi-floor environments
Bolognini et al. A fault-tolerant automatic mission planner for a fleet of aerial vehicles
Priyasad et al. Point cloud based autonomous area exploration algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240610

R150 Certificate of patent or registration of utility model

Ref document number: 7503426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150