WO2024224647A1 - 変化検出方法、変化検出システム及び変化検出装置 - Google Patents
変化検出方法、変化検出システム及び変化検出装置 Download PDFInfo
- Publication number
- WO2024224647A1 WO2024224647A1 PCT/JP2023/016977 JP2023016977W WO2024224647A1 WO 2024224647 A1 WO2024224647 A1 WO 2024224647A1 JP 2023016977 W JP2023016977 W JP 2023016977W WO 2024224647 A1 WO2024224647 A1 WO 2024224647A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- coordinate
- point
- feature amount
- coordinates
- change
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 249
- 238000000034 method Methods 0.000 claims description 192
- 238000004364 calculation method Methods 0.000 description 179
- 238000012545 processing Methods 0.000 description 59
- 238000005259 measurement Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 30
- 230000015654 memory Effects 0.000 description 27
- 238000013473 artificial intelligence Methods 0.000 description 21
- 238000012549 training Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000004035 construction material Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Definitions
- the present disclosure relates to a change detection method, a change detection system, and a change detection device.
- Patent Document 1 describes an object recognition method that uses a pre-created object model to recognize a target object included in an observation scene.
- the object recognition system of Patent Document 1 performs a matching process between a first feature amount, which is a feature amount of an area including a point of interest in a distance image of an observed point cloud, and a second feature amount, which is a feature amount of an area of a distance image of a point cloud of an object model.
- a first feature amount which is a feature amount of an area including a point of interest in a distance image of an observed point cloud
- a second feature amount which is a feature amount of an area of a distance image of a point cloud of an object model.
- the object recognition system of Patent Document 1 uses the feature amount of the area including the point of interest. In this case, if the size of the area including the point of interest is not an appropriate value, the object recognition system may not be able to accurately perform the matching process. In this case, the object recognition system may not be able to accurately recognize the target object.
- the objective of this disclosure is to provide a change detection method, a change detection system, and a change detection device that can improve the accuracy of detecting changes between point clouds.
- the change detection method is executed by a computer, and compares a first feature of a first coordinate calculated using information on the presence of a point in a first region including a first coordinate in a first point group with a second feature of the second coordinate corresponding to the first coordinate calculated using information on the presence of a point in a second region including a second coordinate in a second point group, compares a third feature of the first coordinate calculated using information on the presence of a point in a third region including the first coordinate and larger than the first region with a fourth feature of the second coordinate calculated using information on the presence of a point in a fourth region including the second coordinate and larger than the second region, and determines whether a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate using a comparison result between the first feature and the second feature and a comparison result between the third feature and the fourth feature.
- the change detection system includes a first comparison means for comparing a first feature of a first coordinate calculated using information on the presence of a point in a first region including a first coordinate in a first point group with a second feature of the second coordinate corresponding to the first coordinate calculated using information on the presence of a point in a second region including a second coordinate in a second point group; a second comparison means for comparing a third feature of the first coordinate calculated using information on the presence of a point in a third region including the first coordinate and larger than the first region with a fourth feature of the second coordinate calculated using information on the presence of a point in a fourth region including the second coordinate and larger than the second region; and a determination means for determining whether a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate using a comparison result between the first feature and the second feature and a comparison result between the third feature and the fourth feature.
- the change detection device includes a first comparison means for comparing a first feature of a first coordinate calculated using information on the presence of a point in a first region including a first coordinate in a first point group with a second feature of the second coordinate corresponding to the first coordinate calculated using information on the presence of a point in a second region including a second coordinate in a second point group; a second comparison means for comparing a third feature of the first coordinate calculated using information on the presence of a point in a third region including the first coordinate and larger than the first region with a fourth feature of the second coordinate calculated using information on the presence of a point in a fourth region including the second coordinate and larger than the second region; and a determination means for determining whether a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate using a comparison result between the first feature and the second feature and a comparison result between the third feature and the fourth feature.
- the present disclosure provides a change detection method, a change detection system, and a change detection device that can improve the accuracy of detecting changes between point clouds.
- FIG. 11 is a diagram for explaining an example of calculation of a feature amount according to the first embodiment
- 4 is a flowchart showing an example of a representative process of the change detection device according to the first embodiment
- 1 is a block diagram showing an example of a change detection system according to a first embodiment
- FIG. 11 is a block diagram showing an example of a monitoring system according to a second embodiment.
- FIG. 11 is a block diagram showing an example of a center server according to a second embodiment. 13 shows an example of a reference point group according to the second embodiment. 13 shows an example of an input point group according to the second embodiment.
- FIG. 11 shows an example of a situation in which reference point group data according to the second embodiment is acquired.
- 13 shows an example of a situation in which input point cloud data is acquired according to the second embodiment.
- 13 shows an example of an ideal comparison result between a reference point group and an input point group according to the second embodiment.
- 13 shows an example of an actual comparison result between a reference point group and an input point group according to the second embodiment.
- FIG. 11 is a diagram showing a polar coordinate system centered on the coordinates that are the target of calculation of the reference point group in the second embodiment.
- 13 is an example of a spatial feature amount calculated for the coordinates of a reference point group according to the second embodiment.
- 13 is an example of a spatial feature calculated for coordinates of an input point group according to the second embodiment.
- FIG. 9C is a diagram for explaining equation (5) in the example of FIGS. 9B and 9C.
- 13 is a flowchart showing an outline of an example of processing by a center server according to the second embodiment; 13 is a flowchart illustrating an example of detailed processing of the center server. 13 is a flowchart showing another example of detailed processing of the center server.
- FIG. 1 is a schematic diagram for explaining a problem associated with the related art.
- FIG. 1 is a schematic diagram for explaining a problem associated with the related art.
- FIG. 11 is a schematic diagram for explaining a technique according to a second embodiment.
- FIG. 11 is a schematic diagram for explaining a technique according to a second embodiment.
- FIG. 11 is a supplementary diagram for explaining the technique according to the second embodiment.
- FIG. 11 is a block diagram showing another example of the center server according to the second embodiment.
- 13 is a flowchart showing an outline of an example of processing by a center server according to the second embodiment; 13 is a flowchart illustrating an example of detailed processing of the center server. 13 is a flowchart showing another example of detailed processing of the center server.
- FIG. 11 is a block diagram showing another example of the center server according to the second embodiment.
- FIG. 11 is a block diagram showing another example of the center server according to the second embodiment.
- FIG. 2 is a block diagram showing an example of a hardware configuration of an apparatus according to each embodiment.
- FIG. 1 is a block diagram showing an example of a change detection device.
- the change detection device 10 includes a first comparison unit 11, a second comparison unit 12, and a determination unit 13.
- Each unit (means) of the change detection device 10 is controlled by a control unit (controller) (not shown). Each unit will be described below.
- the first comparison unit 11 compares a first feature amount of a first coordinate in the first point cloud with a second feature amount of a second coordinate in the second point cloud.
- the first feature amount to be compared by the first comparison unit 11 is a first feature amount of the first coordinate calculated using information on the presence of a point in a first region including the first coordinate in the first point cloud.
- the second feature amount to be compared by the first comparison unit 11 is a second feature amount of a second coordinate corresponding to the first coordinate calculated using information on the presence of a point in a second region including the second coordinate in the second point cloud.
- the first point cloud is first data indicating the presence or absence of a point at each coordinate of a specified region.
- the first point cloud represents, for example, the shape of an object in a three-dimensional space, and an example of such a data is data obtained by using a sensor to visualize an object at a specified location.
- the sensor used may be, for example, a range sensor or an imaging element such as a camera.
- the first point cloud becomes mapping data obtained by measuring and visualizing an object at a specified location.
- a specific example of a range sensor is LiDAR (Light Detection And Ranging) that uses light detection and ranging. Both 3D LiDAR and 2D LiDAR can be used as LiDAR. An example of the use of 3D LiDAR will be described later in the second embodiment.
- the first point cloud becomes mapping data generated based on a two-dimensional image of a specified location.
- the above-mentioned measurements or photographs may be actual measurements or photographs, or may be virtually performed by a computer.
- the method of acquiring the first point cloud is not limited to the above.
- the first point cloud data may be generated by a device external to the change detection device 10, or may be generated by the change detection device 10.
- the second point cloud including the second coordinates is second data indicating the presence or absence of a point at each coordinate of a specified region, and examples thereof are similar to those of the first point cloud.
- the second point cloud data may be generated by a device external to the change detection device 10, or may be generated by the change detection device 10.
- the first point cloud and the second point cloud are point clouds to be compared, and are, for example, mapping data obtained by measuring the same location.
- the first coordinates and the second coordinates are also compared, and for example, the first coordinates and the second coordinates may indicate the same position, but the relationship between the first coordinates and the second coordinates is not limited to this.
- the first feature may be calculated by the change detection device 10, or may be calculated by a device other than the change detection device 10 and acquired by the first comparison unit 11.
- the calculation device may calculate the first feature as follows.
- the calculation device defines a first region, which is composed of a plurality of first small regions and includes first coordinates, for the first point cloud. Then, the calculation device calculates the first feature using information regarding the presence of points in each first small region.
- the information regarding the presence of points may be generated by the computing device by analyzing the acquired first point cloud, or may be included in information acquired by the computing device from outside.
- the information regarding the presence of points may be, for example, information indicating whether a point is present or absent in each first small region.
- the information regarding the presence of points may be information indicating whether a point is present, whether a point is not present, or whether the presence of a point is unknown in each first small region.
- the presence of a point is unknown means that although the presence or absence of a point is defined in the first small region in the first point cloud, it is considered unknown whether the point actually exists.
- the feature amount for the first small region calculated by the computing device may be a different value for each of the cases where a point exists, where a point does not exist, and where the presence of a point is unknown.
- the existence of a point, the absence of a point, or the unknown existence of a point can be defined, for example, as follows:
- the first point cloud is mapping data acquired as a result of measurement using a range sensor. If there is a point in the first small region, the first small region is defined as having a point present. On the other hand, if there is no point in the first small region, it is determined whether the first small region is located between the position where the point exists in the first point cloud at the time of measurement and the position of the range sensor. If the first small region is located between the position where the point exists in the first point cloud at the time of measurement and the position of the range sensor, it is defined as not having a point in the first small region. On the other hand, if the first small region is not located between the position where the point exists in the first point cloud and the position of the range sensor, the presence of the point in the first small region is defined as unknown.
- This definition is based on the assumption that when a range sensor acquires mapping data, light should be incident on the range sensor from an object shown in the mapping data, and no object should exist between the object and the range sensor. Ray tracing technology can be applied to this definition.
- This is a particularly effective definition for improving detection accuracy, for example, when the density of points in the first point cloud is sparser than the density of points in the second point cloud.
- a location where there is no point in the first point cloud may not only be a location where there is no point in reality, but also a location where an object exists in the measurement but is not recorded as data. In this case, when it is not possible to determine that there is no point in reality, it is preferable to define the location where there is no point as a location where the presence of a point is unknown.
- N the number of points present in the first small region.
- M the number of times that light passes through the first small region.
- the presence, absence, or unknownness of a point can be defined according to the values of N-M and N+M.
- the presence of a point in the first small region is defined as being unknown. This is because the number of points in the first small region in the first point group is small, and the number of cases in which light from other points in the first point group passes through the first small region is also small, making it difficult to determine whether or not a point exists in the first small region.
- the value of N+M is equal to or greater than the threshold Th1
- the presence or absence of a point in the first small region is defined depending on whether the value of N-M is equal to or greater than a threshold Th2 (Th2 is an integer, and is 0 as an example, but is not limited to this).
- N-M When the value of N-M is equal to or greater than the threshold Th2, it is considered that there is a high probability that a point exists in the first small region, and therefore it is defined that a point exists. On the other hand, when the value of N-M is less than the threshold (e.g., a negative value), it is considered that there is a high probability that a point does not exist in the first small region, and therefore it is defined that there is no point.
- FIG. 2 is a diagram for explaining an example of calculation of the first feature amount.
- the first point group is G1
- the first coordinate is FC
- the first region including FC is shown as R1.
- Region R1 is the first region that is the target of calculation of the first feature amount.
- Region R1 can be divided into multiple small regions SR1.
- the presence of points in point group G1 is indicated by black circles, and the absence of points is indicated by white circles.
- small regions where the presence of points is unknown may exist within region R1.
- the computing device defines a region R1 that is composed of multiple small regions SR1 and that includes the coordinates FC, for which a feature is to be calculated.
- the computing device then calculates the feature for the coordinates FC using information about the presence of points in each small region SR1 of the region R1.
- the calculated first feature may be expressed as a scalar quantity or a vector quantity.
- the second feature (described below) corresponding to the first feature is also expressed as a scalar quantity. Then, in the comparison process of the first comparison unit 11, the first feature is compared with the corresponding second feature.
- the corresponding second feature amount is also expressed as a vector amount. Then, in the comparison process of the first comparison unit 11, each element in the first feature amount is compared with each element in the second feature amount corresponding to each element.
- a feature amount is expressed as a vector amount
- FIG. 2 shows an example in which information on the presence or absence of one point is associated with one small region SR1.
- the size of the small region SR1 may be increased so that information on the presence or absence of multiple points is associated with one small region SR1.
- the number of small regions SR1 contained in region R1 and the shapes of region R1 and small regions SR1 are arbitrary.
- region R1 may be any solid shape that separates the internal region from the external region, such as a sphere, a rectangular parallelepiped such as a cube, or a polyhedron.
- region R1 may be any shape that separates the internal region from the external region, such as a circle, a rectangular parallelepiped such as a square, or a polygon.
- the change detection device 10 can perform a similar calculation.
- the computing device also calculates the second feature, for example, as follows:
- the computing device defines a second region for the second point group, the second region being composed of a plurality of second small regions and including second coordinates.
- the definition of this second region and the second small region is similar to the definition of the first region and the first small region for the first feature, as explained in the example of FIG. 2.
- the computing device defines a second region for the second point group, the second region being composed of a plurality of second small regions and including second coordinates. Then, the computing device calculates the second feature using information regarding the presence of points in each second small region.
- the information regarding the presence of points may be, for example, information indicating whether a point is present or not present in each second small region.
- the information regarding the presence of points may be information indicating whether a point is present in each second small region, whether a point is not present, or whether the presence of a point is unknown.
- the detailed definition of the information regarding the presence of points is as explained for the first feature, and therefore will not be explained here.
- the information regarding the presence of points shown above may be generated by the computing device by analyzing the acquired second point cloud, or may be included in information acquired by the computing device from outside. The details of the calculation of other second features are similar to those of the calculation of the first feature, and therefore will not be explained here.
- the first comparison unit 11 compares a first feature amount of a first coordinate in the first point cloud with a second feature amount of a second coordinate in the second point cloud. The result of this comparison is used by the determination unit 13 to determine whether or not a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate. Details of the determination will be described later.
- the first comparison unit 11 may derive the comparison result between the first feature amount and the second feature amount by using any calculation process such as arithmetic operations. For example, when the first feature amount and the second feature amount are scalar amounts, the first comparison unit 11 may calculate the difference between the first feature amount and the second feature amount, and derive whether or not the difference is equal to or greater than a threshold as the comparison result. When the difference is equal to or greater than the threshold, there is a possibility that a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates, whereas when the difference is less than the threshold, there is a possibility that a change in the presence or absence of a point has not occurred between the first coordinates and the second coordinates.
- the first comparison unit 11 may derive the comparison result between the first feature and the second feature using an algorithm based on a predefined rule base.
- the first comparison unit 11 may compare corresponding elements of each vector amount.
- the first comparison unit 11 can derive a comparison result between the first feature amount and the second feature amount based on the comparison result for all elements.
- the first comparison unit 11 may determine whether the corresponding elements have the same value, or whether the difference value between the corresponding elements is larger or smaller than a threshold value. Based on this determination, the first comparison unit 11 may derive the similarity between the first feature amount and the second feature amount as the comparison result for all elements. If this similarity is equal to or larger than a predetermined threshold value, there is a possibility that there has been no change in the presence or absence of a point between the first coordinates and the second coordinates. On the other hand, if this similarity is less than the predetermined threshold value, there is a possibility that there has been a change in the presence or absence of a point between the first coordinates and the second coordinates.
- the first comparison unit 11 may derive the comparison result by using an AI (Artificial Intelligence) model that has been trained in advance, such as a neural network.
- AI Artificial Intelligence
- This training is performed by inputting training data including information on the first and second feature amounts that are samples, and information on the comparison result corresponding to that information (correct answer label) into the AI model.
- the information on the comparison result is, for example, information indicating whether a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate.
- the first comparison unit 11 inputs the first feature amount and the second feature amount into the AI model.
- the AI model outputs information indicating the comparison result between the first feature amount and the second feature amount based on this input information. Even in this way, the first comparison unit 11 can execute the judgment process.
- any technique such as logistic regression or neural network, can be used for training the learning model.
- the second comparison unit 12 compares a third feature amount of the first coordinate in the first point cloud with a fourth feature amount of the second coordinate in the second point cloud.
- the third feature amount compared by the second comparison unit 12 is the third feature amount of the first coordinate calculated using information about the presence of a point in a third region including the first coordinate in the first point cloud.
- the fourth feature amount compared by the second comparison unit 12 is the fourth feature amount of the second coordinate corresponding to the first coordinate calculated using information about the presence of a point in a fourth region including the second coordinate in the second point cloud.
- the third region is larger than the first region
- the fourth region is larger than the second region.
- the third region being larger than the first region is defined as, for example, the following cases, but is not limited thereto.
- the third region contains the first region, but the reverse is not true.
- the first point cloud is a point cloud in three-dimensional space
- the volume that the third region occupies in the first point cloud is larger than the volume that the first region occupies in the first point cloud.
- the first point cloud is a point cloud in two-dimensional space
- the area that the third region occupies in the first point cloud is larger than the area that the first region occupies in the first point cloud.
- a similar definition can also be used for the fourth region being larger than the second region.
- the explanation of the first and second point groups and the first and second coordinates is the same as that explained in the first comparison unit 11, and therefore the explanation is omitted. Also, the calculation method of the third and fourth feature amounts is the same as that of the first and second feature amounts, and therefore the explanation is omitted.
- the second comparison unit 12 compares the third feature amount of the first coordinates in the first point cloud with the fourth feature amount of the second coordinates in the second point cloud. This comparison result is used by the determination unit 13 to determine whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates.
- the second comparison unit 12 can also derive the comparison result between the third feature amount and the fourth feature amount using a method similar to that of the first comparison unit 11. This method is the same as that described for the first comparison unit 11, so a description thereof will be omitted.
- the determination unit 13 uses the first comparison result obtained by the first comparison unit 11 comparing the first feature amount and the second feature amount, and the second comparison result obtained by the second comparison unit 12 comparing the third feature amount and the fourth feature amount. This allows the determination unit 13 to determine whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates.
- the determination method of the determination unit 13 may be performed by any calculation process, such as arithmetic operations, using the first comparison result and the second comparison result, or may be performed by an algorithm based on a predefined rule base.
- the determination unit 13 can determine that a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates.
- the difference between the first feature amount and the second feature amount is less than threshold Th1
- the difference between the third feature amount and the fourth feature amount is equal to or greater than threshold Th2.
- the first comparison result indicates that there is no change in the presence or absence of a point between the first coordinates and the second coordinates
- the second comparison result indicates that there is a change in the presence or absence of a point between the first coordinates and the second coordinates.
- the determination unit 13 can determine that there is a change in the presence or absence of a point between the first coordinates and the second coordinates. The reason why the determination unit 13 makes such a determination will be described later in embodiment 2.
- the determination unit 13 can determine that there is no change in the presence or absence of a point between the first coordinates and the second coordinates.
- the determination unit 13 determines whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates based on the relationship between the difference in feature amount, which is the comparison result, and the threshold value. However, the determination unit 13 may also determine whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates based on the relationship between the similarity, which is the comparison result, and the threshold value.
- the judgment method of the judgment unit 13 may be performed using an AI model that has been trained in advance, such as a neural network.
- This learning is performed by inputting teacher data to the AI model, including information on the comparison results of the first comparison unit 11 and the comparison results of the second comparison unit 12 that serve as samples, and information (correct answer label) that corresponds to the information and indicates whether a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate.
- the judgment unit 13 inputs the first comparison result and the second comparison result to the AI model. Based on this input information, the AI model outputs information indicating whether a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate. In this way, the judgment unit 13 can also perform the judgment process.
- any technology such as logistic regression or neural network, can be used for training the learning model.
- the first comparison unit 11 compares a first feature amount of a first coordinate in the first point group with a second feature amount of a second coordinate in the second point group (step S11; first comparison step).
- the second comparison unit 12 compares a third feature amount of a first coordinate in the first point group with a fourth feature amount of a second coordinate in the second point group (step S12; second comparison step).
- the determination unit 13 uses the comparison results of steps S11 and S12 to determine whether or not a change in the presence or absence of a point has occurred between the first coordinate and the second coordinate (step S13; determination step). Note that either the process of step S11 or the process of S12 may be executed first, or both processes may be executed in parallel.
- the determination unit 13 determines whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates, using the following two comparison results.
- a comparison result between a first feature amount of a first coordinate calculated in a first region and a second feature amount of a second coordinate calculated in a second region.
- a comparison result between a third feature amount of a first coordinate calculated in a third region larger than the first region and a fourth feature amount of a second coordinate calculated in a fourth region larger than the second region.
- the change detection device 10 sets an area smaller than the appropriate size as the area for calculating the feature amount related to the first coordinates and the second coordinates. In this case, even in a situation where it should be determined that there is a change in the presence or absence of a point between the first coordinates and the second coordinates, the change detection device 10 may erroneously determine that there is no change in the presence or absence of a point.
- the change detection device 10 sets an area larger than the appropriate size as the area for calculating the feature quantities related to the first coordinates and the second coordinates.
- the feature quantities of an area far away from the coordinates of interest are also taken into account in the comparison. Therefore, even in a situation where it should be determined that there is no change in the presence or absence of a point between the first coordinates and the second coordinates, the change detection device 10 may erroneously determine that there is a change in the presence or absence of a point. In this way, whether the area for which the feature quantities are calculated is large or small, the change detection device 10 may erroneously determine that there is a change in the presence or absence of a point.
- the change detection device 10 sets both small and large areas to calculate feature quantities related to the first and second coordinates.
- the determination unit 13 uses the two comparison results related to the small and large areas to determine whether a change in the presence or absence of a point has occurred between the first and second coordinates.
- the change detection device 10 can prevent erroneous determination of the presence or absence of a difference in points between the first and second coordinates. Therefore, the change detection device 10 can improve the accuracy of detecting changes between point groups.
- the determination unit 13 may perform the above determination for multiple sets of corresponding coordinates in the first point cloud and the second point cloud to detect changes in the presence or absence of points in the entire predetermined area of the point cloud. For example, the determination unit 13 may perform the above determination for all coordinates of the first point cloud or all coordinates of the second point cloud. This makes it possible to detect changes in the presence or absence of points in the entire first point cloud or the second point cloud. Therefore, for example, when the first point cloud and the second point cloud are point cloud data measured at the same location, the change detection device 10 can identify the location that has changed in the two point clouds.
- the location that has changed is, for example, a location where an object that existed in one of the two point clouds no longer exists in the other point cloud.
- information indicating that a point is present in the small region, that a point is not present, or that the presence of a point is unknown may be used as information regarding the presence of a point in the small region.
- information indicating not only the presence or absence of a point but also that the presence of a point is unknown may be used as information regarding the presence of a point in the small region. This makes it possible to reflect a state in which the presence of a point is unknown in at least either the first point group or the second point group in the change detection, thereby further improving the change detection accuracy in the change detection device 10.
- the change detection device 10 may further include a detection unit that detects a change in the presence or absence of an object between the first point cloud and the second point cloud based on the above-mentioned determination result of the determination unit 13. A specific detection method will be described later in the second embodiment.
- the change detection device 10 may further include an output unit that outputs the determination result of the determination unit 13 to the inside or outside of the change detection device 10.
- the output unit can visually emphasize the location where the determination unit 13 has determined that a change in the presence or absence of a point has occurred, and output the data of the determination result to the outside of the change detection device 10 (e.g., a monitor) in a visible format such as an image or a point cloud.
- This process may be performed on all locations where the determination unit 13 has determined that a change in the presence or absence of a point has occurred, and thus the locations where the presence or absence of an object has changed in the two point clouds can be presented to the user.
- Examples of "visual emphasis” include the following, but examples of the emphasis process are not limited to these.
- the output unit may also output the determination result of the determination unit 13 using sound or the like via a speaker. In this way, the output unit can output an alert using an image or sound.
- the output unit may also output the determination result of the determination unit 13 to another device. Furthermore, the output unit may output the detection result of detecting a change in the presence or absence of an object between the first point cloud and the second point cloud as described above.
- FIG. 4 is a block diagram showing an example of a change detection system.
- the change detection system 20 includes a comparison device 21 and a determination device 22.
- the comparison device 21 includes a first comparison unit 11 and a second comparison unit 12, and the determination device 22 includes a determination unit 13 and an output unit 14.
- the first comparison unit 11, the second comparison unit 12, and the determination unit 13 execute the same processing as that shown in (1A).
- the comparison device 21 When the comparison device 21 generates a first comparison result of the first feature amount and the second feature amount, and a second comparison result of the third feature amount and the fourth feature amount, the information of the generated comparison result is output to the determination device 22.
- the determination unit 13 of the determination device 22 executes the processing shown in (1A) using the information of the first and second comparison results.
- the output unit 14 of the determination device 22 is the output unit described in (1A), and outputs the determination result of the determination unit 13 to the inside or outside of the determination device 22.
- the change detection process according to the present disclosure may be realized using a single device as shown in (1A), or may be realized as a system in which the processes to be executed are distributed among a plurality of devices as shown in (1B).
- the device configuration shown in (1B) is merely an example.
- the change detection system 20 may include a first device and a second device, the first device may include a first comparison unit 11, and the second device may include a second comparison unit 12 and a determination unit 13.
- the first device may include an acquisition unit that acquires at least one of the first feature amount or the second feature amount, or a calculation unit that calculates at least one of the first feature amount or the second feature amount.
- the second device may also include an acquisition unit that acquires at least one of the third feature amount or the fourth feature amount, or a calculation unit that calculates at least one of the third feature amount or the fourth feature amount.
- an acquisition unit that acquires at least one of the third feature amount or the fourth feature amount
- a calculation unit that calculates at least one of the third feature amount or the fourth feature amount.
- three different devices may be provided in the change detection system 20, and each device may include a first comparison unit 11, a second comparison unit 12, and a determination unit 13.
- the change detection system 20 may be provided, in part or in whole, in a cloud server built on the cloud, or in other types of virtualized servers generated using virtualization technology, etc. Functions other than those provided in such servers are placed at the edge.
- the edge is a device placed at or near the site, and is also a device that is close to the terminal in terms of the network hierarchy.
- Embodiment 2 In the following embodiment 2, a specific example of the change detection method described in embodiment 1 will be disclosed. However, the specific example of the change detection method described in embodiment 1 is not limited to the one shown below. Furthermore, the configurations and processes described below are merely examples, and are not limited to these.
- Fig. 5 is a block diagram showing an example of a monitoring system.
- the monitoring system 100 includes a plurality of robots 101A, 101B, and 101C (hereinafter collectively referred to as robots 101), a base station 110, a center server 120, and a reference point group DB 200.
- robots 101 are provided on the edge side (on-site side) of the monitoring system 100, and the center server 120 is located at a position away from the site (on the cloud side).
- the center server 120 is located at a position away from the site (on the cloud side).
- the robot 101 functions as a terminal that measures a specific location while moving through a site to be monitored in order to inspect infrastructure equipment for failures or abnormalities.
- the robot 101 is an edge device connected to a network, has a LiDAR 102, and can measure any location.
- the robot 101 transmits the measured point cloud data to the center server 120 via the base station 110.
- the robot 101 transmits the point cloud data using a wireless line.
- the point cloud data may also be transmitted using a wired line.
- the robot 101 may transmit the point cloud data acquired by measurement using the LiDAR 102 directly to the center server 120, or may perform appropriate preprocessing on the acquired point cloud data before transmitting it to the center server 120.
- the robot 101 may transmit information indicating the measurement position to the center server 120 together with the point cloud data acquired at that position.
- the robot 101 has functions such as AMCL (Adaptive Monte Carlo Localization) or SLAM (Simultaneous Localization and Mapping), and estimates its own position using these functions and transmits the information to the center server 120.
- the robot 101 may obtain information indicating the measurement position using a satellite positioning system function such as GPS (Global Positioning System), and transmit the information to the center server 120.
- GPS Global Positioning System
- the movement route and measurement points of the robot 101 may be determined in advance, and the robot 101 and the center server 120 may share the information in advance, so that the center server 120 is aware of the position of the robot 101.
- the robot 101 may be, for example, an AGV (Automatic Guided Vehicle) that runs under the control of the center server 120, an AMR (Autonomous Mobile Robot) that is capable of autonomous movement, a drone, etc., but is not limited to these.
- AGV Automatic Guided Vehicle
- AMR Automatic Mobile Robot
- the base station 110 transfers the point clouds transmitted from each robot 101 to the center server 120 via the network.
- the base station 110 is a local 5G (5th Generation) base station, a 5G gNB (next Generation Node B), an LTE eNB (evolved Node B), a wireless LAN access point, etc., but may also be other relay devices.
- the network is, for example, a core network such as 5GC (5th Generation Core network) or EPC (Evolved Packet Core), the Internet, etc.
- a server other than the center server 120 may be connected to the base station 110.
- a MEC (Multi-access Edge Computing) server may be connected to the base station 110.
- the MEC server can, for example, control the bit rate of the data transmitted by each robot 101 by assigning a bit rate for the data transmitted by each robot 101 to the base station 110 and transmitting this information to each robot 101.
- the MEC server can transmit information on the bit rate of each robot 101 to the center server 120, allowing the center server 120 to grasp the bit rate information.
- FIG. 6 is a block diagram showing an example of the center server 120.
- the center server 120 includes a reference point cloud acquisition unit 121, an input point cloud acquisition unit 122, a reference feature amount calculation unit 123, an input feature amount calculation unit 124, a first comparison unit 125, a second comparison unit 126, a change detection unit 127, and a detection result generation unit 128.
- the center server 120 can compare each piece of point cloud data measured and acquired by the robot 101 with the reference data, detect changes, and generate comparison results. Each part of the center server 120 will be described below.
- the reference point cloud acquisition unit 121 acquires a reference point cloud to be compared with the point cloud acquired by the robot 101 in measurement.
- the reference point cloud is a point cloud acquired by previously measuring the location measured by the robot 101, and is stored in the reference point cloud DB 200.
- the reference point cloud is data that represents the shape of an object in three-dimensional space.
- the term "previously" refers to information before the reference point cloud acquisition unit 121 acquired the reference point cloud, and may be information measured before the robot 101 was operated (before work began in a warehouse where the robot 101 is operating, before the robot 101 was turned on, etc.), or information updated at a predetermined time (break time in a warehouse, etc., regular update time, etc.).
- the center server 120 when the input point cloud acquisition unit 122, which will be described later, acquires the point cloud data transmitted by the robot 101 (hereinafter also referred to as the input point cloud), the center server 120 also acquires information on the measurement positions of the input point cloud. Furthermore, the reference point cloud DB 200 stores the reference point cloud in association with the position information at which the reference point cloud was measured. The reference point cloud acquisition unit 121 compares the measurement position information of the input point cloud with the measurement position information stored in the reference point cloud DB 200. If the comparison results in a match in the measurement position information stored in the reference point cloud DB 200, the reference point cloud acquisition unit 121 acquires the reference point cloud associated with the matching measurement position information. In this way, the reference point cloud acquisition unit 121 searches the reference point cloud DB 200 to acquire data on the reference point cloud to be compared with the point cloud measured and acquired by the robot 101.
- data previously measured and acquired may be stored in the reference point cloud DB 200 as an image rather than as a point cloud.
- the reference point cloud acquisition unit 121 identifies matching measurement position information as a result of searching the above-mentioned reference point cloud DB 200, it acquires an image associated with the matching measurement position information.
- the reference point cloud acquisition unit 121 can convert the data format of the image into a point cloud to acquire the reference point cloud.
- the input point cloud acquisition unit 122 acquires the input point cloud acquired by the robot 101 through measurement via the communication unit of the center server 120. This allows the input point cloud acquisition unit 122 to acquire point cloud data measured in real time. However, if the robot 101 takes an image and transmits the image data to the center server 120, the input point cloud acquisition unit 122 can convert the data format of the image into a point cloud to acquire the input point cloud. Like the reference point cloud, the input point cloud is data that represents the shape of an object in three-dimensional space. However, there are differences between the input point cloud and the reference point cloud, which will be described later.
- the first issue is that the point densities in the reference point cloud and the input point cloud may differ, and the second issue is that the measurement position of the robot 101 may deviate from the measurement position of the reference point cloud.
- Figures 7A and 7B show examples of a reference point cloud and an input point cloud.
- the reference point cloud in Figure 7A is 3D data measured using a sensor before the robot 101 performs measurements related to the input point cloud.
- "Before performing measurements related to the input point cloud” may be when the robot is deployed at the site, when the robot is inspecting the site before operating at the site, or before work begins, such as on the morning of an operating day.
- Figure 7B is 3D data acquired by the robot 101 performing measurements.
- Figures 7A and 7B are data measured inside a warehouse, and racks L inside the warehouse are captured as a point cloud.
- Figure 7B also captures an object OB not in Figure 7A as a point cloud.
- the reference point cloud T1 has a higher density of points, whereas the input point cloud T2 has a lower density of points. This is because the input point cloud T2 is data measured in real time, and the amount of data is smaller. In other words, compared to the reference point cloud T1, the input point cloud T2 may not record point information at coordinates where an object exists and a point should be located. In addition, the point density may change in the reference point cloud T1 and the input point cloud T2 depending on the measurement environment of the reference point cloud T1 and the input point cloud T2. Thus, in actual use, it is expected that the point density of the reference point cloud and the input point cloud will differ greatly. If these two point clouds are directly compared, it may be difficult to accurately detect changes in the two point clouds. Therefore, it is preferable to be able to improve the accuracy of detecting changes between the point clouds, even if the input point cloud does not show accurate information due to changes in the point cloud density compared to the reference point cloud.
- FIG. 8A shows an example of a situation in which a reference point cloud is obtained by measurement
- FIG. 8B shows an example of a situation in which an input point cloud is obtained by measurement
- a location I1 where factory equipment is located is measured using a dedicated sensor S.
- This dedicated sensor S obtains a point cloud by using LiDAR.
- the measurement range of the dedicated sensor S is indicated by G11.
- Gas tanks T1 and T2 are included within the range of G11.
- the same location I1 is measured using LiDAR 102 of the robot 101.
- the measurement range of the dedicated sensor S is indicated by G12.
- object L1 which was not present in FIG.
- the robot 101 is controlled during measurement so that the estimated position of the robot 101 is the same as the measured position of the dedicated sensor S. Ideally, therefore, G11 and G12 are in the same range.
- the error in the estimation of the robot 101's own position may become large depending on the environment in which the robot 101 is placed. The error may also become large when the position of the robot 101 cannot be corrected even when the center server 120 executes control processing. In such a case, as shown in FIG. 8B, a deviation occurs between G11 and G12.
- a deviation in the measured position itself hereinafter also referred to as a deviation in the translation direction
- a deviation in the measured direction itself hereinafter also referred to as a deviation in the rotation direction.
- Figure 8C shows the ideal comparison result between the reference point cloud and the input point cloud
- Figure 8D shows the actual comparison result between the reference point cloud and the input point cloud.
- the change detection method proposed in the second embodiment makes it possible to solve these problems by performing the process described below.
- the reference feature calculation unit 123 calculates the feature of each coordinate in the reference point group. This feature is expressed by vectorizing information on the presence or absence of a point at the coordinate to be calculated and at the surrounding coordinates (i.e., information on the existence of a point), and will hereafter be referred to as a spatial feature. Details of the method of calculation of the spatial feature by the reference feature calculation unit 123 will be described below.
- FIG. 9A shows a polar coordinate system centered on the coordinates to be calculated for the reference point group.
- the coordinate F1 to be calculated is placed at the center O, it is possible to identify coordinates contained in a specified area including the coordinate F1 by using the distance r and angles ( ⁇ , ⁇ ) from the center O as parameters.
- the coordinate F1 corresponds to the first coordinate in embodiment 1
- the specified area including the coordinate F1 corresponds to the first area or the third area in embodiment 1.
- the reference feature calculation unit 123 acquires data on a group of points in a spherical region S1 of radius ⁇ centered on coordinate F1 in the reference point group. Then, it calculates and finds parameters (r, ⁇ , ⁇ ) in the polar coordinate system shown in FIG. 9A for each coordinate in the spherical region S1.
- the reference feature calculation unit 123 divides the spherical region S1 into a number of small regions SR1 (for example, the first small region in the first embodiment) and sets each coordinate to be included within the small region SR1.
- the spherical region S1 is divided so that the distance r and angle ( ⁇ , ⁇ ) in each small region SR1 are discretized values.
- the angle ⁇ is divided by 2 ⁇ (rad)
- the angle ⁇ is divided by ⁇ (rad)
- the distance r is divided by d.
- 2 ⁇ is a value equal to or less than ⁇
- d is a value equal to or less than ⁇ /2.
- the spherical region S1 is,
- the image is divided into a number of small regions SR1.
- the number of small regions SR1 is expressed by using a floor function and a ceiling function, respectively.
- the reference feature calculation unit 123 calculates a vectorized spatial feature by defining the presence or absence of a point in each divided small region SR1 as an element of the spatial feature. For example, a vector representation in which 1 is indicated when a point exists at each coordinate and 2 is indicated when a point does not exist at each coordinate is assumed, but the example of the vector representation is not limited to this.
- FIG. 9B is an example of spatial features calculated for the coordinates of the reference point group.
- FIG. 9B in a spherical region S1 with coordinate F1 at center O, the presence of a point in small region SR1 is indicated by a black circle, and the absence of a point is indicated by a white circle.
- FIG. 9B also shows coordinate H1 on spherical region S1, which will be used as an example when explaining the calculation of spatial features below.
- the reference feature calculation unit 123 sets a neighborhood area ⁇ 1 of the coordinate F1 in the reference point group.
- the neighborhood area ⁇ 1 is an area including at least one coordinate other than the coordinate F1, and is set as an area of radius ⁇ 1 in a polar coordinate system centered on the coordinate F1, for example, but the setting of the neighborhood area ⁇ 1 is not limited to this.
- the reference feature calculation unit 123 then calculates spatial features for each coordinate other than the coordinate F1 included in the neighborhood area ⁇ 1 in the same manner as the calculation of spatial features for the coordinate F1 described above.
- the reference feature calculation unit 123 defines a spherical area including coordinates, which is composed of multiple small areas, for each coordinate other than the coordinate F1 included in the neighborhood area ⁇ 1, in the same manner as the spherical area S1 and the small area SR1. Then, the spatial features are calculated using information on the presence or absence of a point in each small area.
- the reference feature amount calculation unit 123 calculates the spatial feature amount of the coordinate F1 when ⁇ is ⁇ 1 , and calculates the spatial feature amount of the coordinate F1 when ⁇ is ⁇ 2 ( ⁇ 2 > ⁇ 1 ).
- ⁇ is ⁇ 2
- the volume of the spherical region S1 becomes larger than when ⁇ is ⁇ 1 , and the number of the multiple small regions SR1 also increases.
- the reference feature amount calculation unit 123 calculates the spatial feature amount using information on the presence or absence of points in a wider area around the coordinate F1.
- the spherical region S1 when ⁇ is ⁇ 1 is referred to as the spherical region S11
- the spherical region S1 when ⁇ is ⁇ 2 is referred to as the spherical region S12.
- the spherical region S1 when ⁇ is ⁇ 1 corresponds to the first region in the first embodiment
- the spherical region S1 when ⁇ is ⁇ 2 corresponds to the third region in the first embodiment.
- the reference feature amount calculation unit 123 defines a spherical area that is composed of a plurality of small areas and includes the coordinates for each coordinate other than the coordinate F1 included in the neighboring area ⁇ 1 as described above. Then, the spatial feature amount is calculated by using information on the presence or absence of a point in each small area. Note that the reference feature amount calculation unit 123 may change the value of the radius ⁇ 1 of the neighboring area ⁇ 1 when ⁇ is ⁇ 1 and when ⁇ is ⁇ 2 , or may use a common value of the radius ⁇ 1.
- the reference feature amount calculation unit 123 may change the radius ⁇ 1 of the neighboring area ⁇ 1 to ⁇ 2 / ⁇ 1 times that when ⁇ is ⁇ 1.
- the method in which the reference feature amount calculation unit 123 changes the radius ⁇ 1 is not limited to this.
- the input feature calculation unit 124 calculates the spatial feature of each coordinate in the input point cloud. This spatial feature is expressed as a vector of information indicating whether a point exists, does not exist, or the existence of a point is unknown at the coordinate to be calculated and its surrounding coordinates (i.e., information regarding the existence of a point).
- the input feature calculation unit 124 uses the distance r from the center O and the angle ( ⁇ , ⁇ ) as parameters to identify coordinates included in a predetermined area including the coordinate F2.
- the coordinate F2 corresponds to the second coordinate in the first embodiment
- the predetermined area including the coordinate F2 corresponds to the second area or the fourth area in the first embodiment.
- the coordinate F2 is a coordinate to be compared with the coordinate F1 in terms of spatial features, and here indicates the same coordinate in the reference point cloud and the input point cloud.
- the input feature calculation unit 124 acquires data on the point cloud in a spherical region S2 of radius ⁇ centered on coordinate F2 in the input point cloud.
- the size of the spherical region S2 is the same as that of the spherical region S1. Then, it calculates and finds the parameters (r, ⁇ , ⁇ ) in the polar coordinate system shown in Figure 9A for each coordinate in the spherical region.
- the input feature calculation unit 124 divides the spherical region S2 into a plurality of small regions SR2 (for example, the second small regions in the first embodiment) and sets each coordinate to be included within the small regions SR2.
- the spherical region S1 is divided in the same way as the spherical region S2. That is, the angle ⁇ is divided by 2 ⁇ (rad), the angle ⁇ is divided by ⁇ (rad), and the distance r is divided by d. Note that 2 ⁇ is a value equal to or less than ⁇ , and d is a value equal to or less than ⁇ /2. Therefore, the spherical region S2 is,
- the input feature amount calculation unit 124 calculates a vectorized spatial feature amount by defining, as an element of the spatial feature amount, information indicating whether a point exists, whether a point does not exist, or whether the existence of a point is unknown in each divided small region SR2. For example, a vector notation is assumed in which 1 is indicated when a point exists in each coordinate, 2 is indicated when a point does not exist, and 0 is indicated when the existence of a point is unknown, but examples of the vector notation are not limited to this.
- the input feature calculation unit 124 determines information indicating whether a point exists in each small region SR2, whether a point does not exist, or whether the existence of a point is unknown, as follows. If a point exists in a small region SR2, the input feature calculation unit 124 defines the small region SR2 as having a point. On the other hand, if there is no point in the small region SR2, the input feature calculation unit 124 determines whether the small region SR2 is located between the position where the point exists in the input point cloud at the time of measurement and the position of LiDAR 102.
- the input feature calculation unit 124 defines the small region SR2 as having no point. On the other hand, if the small region SR2 is not located between the position where the point exists in the input point cloud at the time of measurement and the position of LiDAR 102, the input feature calculation unit 124 defines the existence of a point in the small region SR2 as unknown. This type of ray tracing technique can be applied to the definition.
- the density of points in the input point cloud is sparser than the density of points in the reference point cloud. Therefore, it is possible that an object that is captured in the reference point cloud will not be captured accurately in the input point cloud, and some points of the object will not be recorded in the input point cloud. Therefore, when it is not possible to be certain that a point does not actually exist, it is preferable to define the presence of a point as unknown for a small region SR2 that does not contain a point.
- Figure 9C is an example of spatial features calculated for the coordinates of the input point cloud.
- Figure 9C in a spherical region S2 with coordinate F2 at center O, the presence of a point in small region SR2 is indicated by a black circle, the absence of a point is indicated by a white circle, and the presence of a point is unknown is indicated by a triangle.
- Figure 9C also shows coordinate H2 on spherical region S2, which will be used as an example when explaining the calculation of spatial features below. Note that coordinates H1 and H2 indicate the same coordinates in the reference point cloud and the input point cloud.
- the input feature amount calculation unit 124 sets a neighborhood area ⁇ 2 of the coordinate F2 in the input point cloud.
- the neighborhood area ⁇ 2 is an area including at least one coordinate other than the coordinate F2, and is set as an area of radius ⁇ 2 in a polar coordinate system centered on the coordinate F2, for example, but the setting of the neighborhood area ⁇ 2 is not limited to this.
- the input feature amount calculation unit 124 calculates spatial features for each coordinate other than the coordinate F2 included in the neighborhood area ⁇ 2 in the same manner as the calculation of spatial features at the coordinate F2 described above.
- the input feature amount calculation unit 124 defines a spherical area including the coordinates, which is composed of multiple small areas, in the same manner as the spherical area S2 and the small area SR2, for each coordinate other than the coordinate F2 included in the neighborhood area ⁇ 2. Then, the spatial features are calculated by using information indicating that a point exists, that a point does not exist, or that the existence of a point is unknown in each small area.
- the size of the neighborhood region ⁇ 2 in the input point cloud may be the same as or different from the size of the neighborhood region ⁇ 1 in the reference point cloud. That is, in this example, the radius ⁇ 1 may be the same length as the radius ⁇ 2, or may be a different length.
- the input feature amount calculation unit 124 calculates the spatial feature amount of the coordinate F2 when ⁇ is ⁇ 3 , and calculates the spatial feature amount of the coordinate F2 when ⁇ is ⁇ 4 ( ⁇ 4 > ⁇ 3 ).
- ⁇ is ⁇ 3
- the volume of the spherical region S2 is larger than when ⁇ is ⁇ 4
- the number of the multiple small regions SR2 is also increased.
- the input feature amount calculation unit 124 calculates the spatial feature amount using information on the presence or absence of points in a wider area around the coordinate F2.
- the spherical region S2 when ⁇ is ⁇ 3 will be referred to as spherical region S23
- the spherical region S2 when ⁇ is ⁇ 4 will be referred to as spherical region S24.
- the spherical region S2 when ⁇ is ⁇ 3 corresponds to the second region in the first embodiment
- the spherical region S1 when ⁇ is ⁇ 4 corresponds to the fourth region in the first embodiment.
- the input feature amount calculation unit 124 defines a spherical area including coordinates, which is composed of a plurality of small areas, for each coordinate other than the coordinate F2 included in the neighborhood area ⁇ 2, as described above, in both cases where ⁇ is ⁇ 3 and where ⁇ is ⁇ 4. Then, the input feature amount calculation unit 124 calculates the spatial feature amount by using information on the presence or absence of a point in each small area. Note that the input feature amount calculation unit 124 may change the value of the radius ⁇ 2 of the neighborhood area ⁇ 2 when ⁇ is ⁇ 3 and when ⁇ is ⁇ 4 , or may use a common value of the radius ⁇ 2.
- the reference feature amount calculation unit 123 may change the radius ⁇ 2 of the neighborhood area ⁇ 2 to ⁇ 4 / ⁇ 3 times that when ⁇ is ⁇ 3.
- the method by which the input feature amount calculation unit 124 changes the radius ⁇ 2 is not limited to this.
- the reference feature calculation unit 123 and the input feature calculation unit 124 calculate the spatial feature at each coordinate of the reference point group and the input point group.
- the first comparison unit 125 corresponds to the first comparison unit 11 in the first embodiment.
- the first comparison unit 125 compares the spatial feature amount of the spherical region S11 including the coordinate F1 in the reference point group with the spatial feature amount of the spherical region S23 including the coordinate F2 in the input point group.
- the spatial feature amount of the spherical region S11 is the feature amount calculated by the reference feature amount calculation unit 123 as described above, and is hereinafter defined as P1.
- the spatial feature amount of the spherical region S23 is the feature amount calculated by the input feature amount calculation unit 124 as described above, and is hereinafter defined as P2.
- the first comparison unit 125 compares the spatial feature amount P1 with the spatial feature amount P2 to calculate the similarity between the two. The first comparison unit 125 then uses the similarity to determine whether or not there has been a change in the presence or absence of points between the coordinates F1 of the reference point group and the coordinates F2 of the input point group.
- the first comparing section 125 can perform the following two types of determination processing. (I) Determine whether a point that did not exist in the coordinate F1 of the reference point group now exists in the coordinate F2 of the input point group. (II) Determine whether a point that existed in the coordinate F1 of the reference point group no longer exists in the coordinate F2 of the input point group. Details of processes (I) and (II) are explained below.
- the first comparison unit 125 calculates S(P1, P2) as follows:
- ⁇ , ⁇ , and r in (5) to (7) are divided into units of 2 ⁇ , ⁇ , and d, respectively.
- P1 ⁇ r on the right side of (5) indicates an element of feature amount P1, which is an element of the spatial feature amount defined in small region SR1 in spherical region S11.
- P2 ⁇ r indicates an element of feature amount P2, which is an element of the spatial feature amount defined in small region SR2 in spherical region S23.
- P1 ⁇ r and P2 ⁇ r are elements of the feature amounts in small regions SR1 and SR2 that are in the same position when the reference point group and the input point group are compared.
- ValidNum in (5) is the number of small regions SR2 in the spherical region S23 other than the small regions SR2 defined as "where the presence of a point is unknown". Therefore, (5) indicates that Score (P1 ⁇ r , P2 ⁇ r ) is summed over all small regions SR2 in the spherical region S23 (or all small regions SR1 in the spherical region S11), and the sum is normalized using ValidNum. At this time, the small regions SR2 defined as "where the presence of a point is unknown" are not evaluated in the similarity calculation (i.e., are ignored in the calculation).
- Score(P1 ⁇ r , P2 ⁇ r ) shows the definition of Score(P1 ⁇ r , P2 ⁇ r ).
- Score(P1 ⁇ r , P2 ⁇ r ) is 1 when Same around (P1 ⁇ r , P2 ⁇ r ) exists for P1 ⁇ r and P2 ⁇ r , and is 0 otherwise.
- (6) defines the priority of Score(P1 ⁇ r, P2 ⁇ r) for P1 ⁇ r and P2 ⁇ r. When Same around(P1 ⁇ r , P2 ⁇ r ) exists , the priority is set high, and when it does not, the priority is set low.
- FIG. 9D is a diagram for explaining the above formula (7) in the examples of FIG. 9B and FIG. 9C.
- a part of the spherical region S1 near the coordinate H1 in FIG. 9B and a part of the spherical region S2 near the coordinate H2 in FIG. 9C are shown.
- the element in the spatial feature of the small region SR1 including the coordinate H1 is P1 ⁇ r
- the element in the spatial feature of the small region SR2 including the coordinate H2 is P2 ⁇ r .
- FIG. 9D is a diagram for explaining the above formula (7) in the examples of FIG. 9B and FIG. 9C.
- a part of the spherical region S1 near the coordinate H1 in FIG. 9B and a part of the spherical region S2 near the coordinate H2 in FIG. 9C are shown.
- the element in the spatial feature of the small region SR1 including the coordinate H1 is P1 ⁇ r
- the elements in the spatial feature of the small region SR1 adjacent in the ⁇ direction to the small region SR1 including the coordinate H1 in the ⁇ direction are P1 ( ⁇ +1) ⁇ r and P1 ( ⁇ - 1) ⁇ r . Furthermore, in FIG. 9D, the small region SR1 adjacent in the r direction is defined in each of the small region SR1 including the coordinate H1, the small region SR1 at P1 ( ⁇ +1) ⁇ r, and the small region SR1 at P1 ( ⁇ -1) ⁇ r .
- the elements in the spatial feature amount of these small regions SR1 are P1 ⁇ (r ⁇ 1) , P1 ( ⁇ +1) ⁇ (r ⁇ 1) , and P1 ( ⁇ 1) ⁇ (r ⁇ 1) , respectively.
- P1 ⁇ r indicates that a point does not exist
- P2 ⁇ r indicates that a point exists, so they are not the same element.
- the range of ⁇ indicated by formula (7) includes P1 ( ⁇ +1) ⁇ r and P1 ( ⁇ -1) ⁇ r .
- P1 ( ⁇ -1) ⁇ r indicates that a point exists, so P1 ( ⁇ -1) ⁇ r and P2 ⁇ r are the same element. Therefore, in the example of FIG. 9D, Same around (P1 ⁇ r , P2 ⁇ r ) shown in (7) exists, and Score (P1 ⁇ r , P2 ⁇ r ) shown in (6) is 1.
- the first comparison unit 125 performs a matching process to calculate the similarity S(P1, P2) shown in equation (5) by calculating Score (P1 ⁇ r , P2 ⁇ r ) for all ⁇ , ⁇ , and r.
- the first comparison unit 125 also calculates the similarity S(Pn, P2) for each coordinate other than the coordinate F1 included in the neighborhood region ⁇ 1 set by the reference feature calculation unit 123, using the same calculation method as for S(P1, P2).
- Pn is the feature at each coordinate other than the coordinate F1, and is calculated by the reference feature calculation unit 123 using the same calculation method as for P1.
- S(PN, P2) is defined as the similarity S within the neighborhood region ⁇ 1 including S(P1, P2) and S(Pn, P2).
- the first comparison unit 125 After calculating all similarities S(PN,P2) in the neighborhood region ⁇ 1 in this way, the first comparison unit 125 identifies Smax (PN,P2) which is the maximum value among S(PN,P2).
- the coordinates of the reference point group corresponding to this Smax (PN,P2) are the coordinates most similar to the coordinate F2 in the input point group in terms of the state indicating whether or not a point exists among the coordinates included in the neighborhood region ⁇ 1 in the reference point group.
- the first comparison unit 125 compares the magnitude relationship between Smax (PN,P2) and a predetermined threshold value ThS1.
- the first comparison unit 125 determines that the coordinates included in the neighboring region ⁇ 1 have a low degree of similarity with the coordinate F2. The first comparison unit 125 then determines that a point that did not exist in the coordinate F1 of the reference point group now exists in the coordinate F2 of the input point group. On the other hand, if Smax (PN,P2) is greater than ThS1, the first comparison unit 125 does not make the above determination.
- the first comparison unit 125 executes a matching process to calculate S(P1, P2), which is the similarity between the feature amount of the coordinate F1 and the feature amount of the coordinate F2. This calculation method is the same as in (I), so the explanation will be omitted.
- the first comparison unit 125 also calculates the similarity S(P1, Pm) for each coordinate other than the coordinate F2 included in the neighborhood region ⁇ 2 set by the input feature calculation unit 124, using the same calculation method as for S(P1, P2).
- Pm is the feature at each coordinate other than the coordinate F2, and is calculated by the input feature calculation unit 124 using the same calculation method as for P2.
- S(P1, PM) is defined as the similarity S within the neighborhood region ⁇ 2 including S(P1, P2) and S(P1, Pm).
- the first comparison unit 125 After calculating all similarities SS(P1,PM) in the neighborhood region ⁇ 2 in this way, the first comparison unit 125 identifies Smax (P1,PM) which is the maximum value among S(P1,PM).
- the coordinates of the reference point group corresponding to this Smax (P1,PM) are the coordinates which, among the coordinates included in the neighborhood region ⁇ 2 in the input point group, are most similar in terms of the state indicating whether or not a point exists to the coordinate F1 in the reference point group.
- the first comparison unit 125 compares the magnitude relationship between Smax (P1,PM) and a predetermined threshold value ThS2.
- the first comparison unit 125 determines that the coordinates included in the neighborhood region ⁇ 2 have a low similarity to the coordinate F1. The first comparison unit 125 then determines that a point that existed in the coordinate F1 of the reference point group no longer exists in the coordinate F2 of the input point group. On the other hand, if Smax (P1,PM) is greater than ThS2, the first comparison unit 125 does not make the above determination.
- the first comparator 125 determines that the presence or absence of a point at the coordinate F1 has not changed at the coordinate F2, i.e., that there is no change between the coordinate F1 and the coordinate F2.
- the reference feature calculation unit 123 and the input feature calculation unit 124 can change the size of the neighborhood regions ⁇ 1 and ⁇ 2, respectively, depending on the situation.
- the reference feature calculation unit 123 may increase the size of the neighborhood region ⁇ 1 (e.g., the size of the radius ⁇ 1) as the distance between the position indicated by the coordinate F1 when the reference point group is measured and the position of the dedicated sensor S at the time of measurement increases. This is because the influence of the above-mentioned deviation occurs over a wider range as the coordinate F1 of the reference point group is farther away from the dedicated sensor S at the time of measurement, so it is preferable to set the coordinates of the reference point group to be compared over a wider range.
- the input feature calculation unit 124 may increase the size of the neighborhood region ⁇ 2 (e.g., the size of the radius ⁇ 2) as the distance between the position indicated by the coordinate F2 when the input point group is measured and the position of the LiDAR 102 at the time of measurement increases.
- the first comparison unit 125 executes the above processes (I) and (II) for each coordinate in the reference point group and each coordinate in the input point group corresponding to each coordinate. This enables the first comparison unit 125 to detect changes in the presence or absence of points in all coordinates of the reference point group and the input point group.
- the coordinates of the input point group are selected as the starting point for detecting changes, and the presence or absence of changes is determined for each coordinate of the input point group, thereby detecting whether a point that is not in the reference point group has been newly added to the input point group.
- the coordinates of the reference point group are selected as the starting point for detecting changes, and the presence or absence of changes is determined for each coordinate of the reference point group, thereby detecting whether a point in the reference point group is no longer in the input point group.
- the second comparison unit 126 corresponds to the second comparison unit 12 in the first embodiment.
- the second comparison unit 126 compares the spatial feature amount of the spherical region S12 including the coordinate F1 in the reference point group with the spatial feature amount of the spherical region S24 including the coordinate F2 in the input point group.
- the spatial feature amount of the spherical region S12 is the feature amount calculated by the reference feature amount calculation unit 123 as described above, and is hereinafter defined as P3.
- the spatial feature amount of the spherical region S24 is the feature amount calculated by the input feature amount calculation unit 124 as described above, and is hereinafter defined as P4.
- the second comparison unit 126 compares the spatial feature amount P3 with the spatial feature amount P4 to calculate the similarity between them. The second comparison unit 126 then uses the similarity to determine whether or not there has been a change in the presence or absence of points between the coordinates F1 of the reference point group and the coordinates F2 of the input point group.
- the second comparison unit 126 performs a comparison on spatial features that cover a wider range than the spatial features that are covered by the first comparison unit 125.
- the second comparing section 126 can perform the following two types of determination processing. (III) Determine whether a point that did not exist in the coordinate F1 of the reference point group now exists in the coordinate F2 of the input point group. (IV) Determine whether a point that existed in the coordinate F1 of the reference point group no longer exists in the coordinate F2 of the input point group. Details of processes (III) and (IV) are explained below.
- ⁇ , ⁇ , and r in (8) to (10) are divided into units of 2 ⁇ , ⁇ , and d, respectively.
- P3 ⁇ r on the right side of (8) indicates an element of feature quantity P3, which is an element of the spatial feature quantity defined in small region SR1 in spherical region S12.
- P4 ⁇ r indicates an element of feature quantity P4, which is an element of the spatial feature quantity defined in small region SR2 in spherical region S24.
- P3 ⁇ r and P4 ⁇ r are elements of the feature quantities in small regions SR1 and SR2 that are in the same position when the reference point group and the input point group are compared.
- Changed(P3 ⁇ r ) is defined as follows. If P3 ⁇ r is an element of the small region SR1 including the coordinates of the input point group determined as having a change in the presence or absence of a point between the input point group and the reference point group in the comparison process of the first comparison unit 125 described above, Changed(P3 ⁇ r ) is true, otherwise it is false.
- Score(P3 ⁇ r , P4 ⁇ r ) is ⁇ when Changed(P3 ⁇ r ) is true.
- Score(P3 ⁇ r , P4 ⁇ r ) is 1. In other cases, Score(P3 ⁇ r , P4 ⁇ r ) is 0.
- (9) defines the priority of Score (P1 ⁇ r , P2 ⁇ r ) for P1 ⁇ r and P2 ⁇ r . If Same around (P1 ⁇ r , P2 ⁇ r ) exists and P3 ⁇ r is not "point presence unknown", the priority is set high, otherwise the priority is set lower. In particular, if Changed (P3 ⁇ r ) is true, even if P3 ( ⁇ +d1)( ⁇ +d2)r and P4 ⁇ r have the same value, a priority ⁇ lower than 1 can be set. ⁇ can be freely set as a value equal to or greater than 0 and less than 1.
- the small area SR2 in which the presence or absence of a point has changed between the input point group and the reference point group will not be evaluated in the calculation of similarity, as with the small area SR2 defined as "point presence unknown".
- the second comparison unit 126 executes a matching process to calculate the similarity S(P3, P4) shown in equation (8) by calculating Score(P3 ⁇ r , P4 ⁇ r ) for all ⁇ , ⁇ , and r.
- the second comparison unit 126 also calculates similarity S(Pn, P4) for each coordinate other than coordinate F1 included in the neighborhood region ⁇ 1 set by the reference feature calculation unit 123, using the same calculation method as S(P3, P4).
- Pn is the feature at each coordinate other than coordinate F1, and is calculated by the reference feature calculation unit 123 using the same calculation method as P1.
- S(PN, P4) is defined as the similarity S within the neighborhood region ⁇ 1 including S(P1, P4) and S(Pn, P4).
- the second comparison unit 126 specifies Smax (PN, P4) which is the maximum value among S(PN, P4).
- the coordinates of the reference point group corresponding to this Smax (PN, P4) are the coordinates which are most similar to the coordinates F2 in the input point group in terms of the state indicating whether or not a point exists among the coordinates included in the neighborhood region ⁇ 1 in the reference point group.
- the second comparison unit 126 compares the magnitude relationship between Smax (PN, P4) and a predetermined threshold value ThS3. Note that ThS3 may be the same value as ThS1, or may be a different value.
- the second comparison unit 126 determines that the coordinates included in the neighboring region ⁇ 1 have a low similarity to the coordinate F2. The second comparison unit 126 then determines that a point that did not exist in the coordinate F1 of the reference point group now exists in the coordinate F2 of the input point group. On the other hand, if Smax (PN,P4) is greater than ThS3, the second comparison unit 126 does not make the above determination.
- the second comparison unit 126 executes a matching process to calculate S(P3, P4), which is the similarity between the feature amount of the coordinate F1 and the feature amount of the coordinate F2. This calculation method is the same as in (III), so the description will be omitted.
- the second comparison unit 126 also calculates the similarity S(P3, Pm) for each coordinate other than the coordinate F2 included in the neighborhood region ⁇ 2 set by the input feature calculation unit 124, using the same calculation method as S(P3, P4).
- Pm is the feature at each coordinate other than the coordinate F2, and is calculated by the input feature calculation unit 124 using the same calculation method as P4.
- S(P3, PM) is defined as the similarity S within the neighborhood region ⁇ 2 including S(P3, P4) and S(P3, Pm).
- the second comparison unit 126 specifies S max (P3, PM) that is the maximum value among S(P3, PM).
- the coordinates of the reference point group corresponding to this S max (P3, PM) are the coordinates that are most similar to the coordinates F1 in the reference point group in terms of the state indicating whether or not a point exists among the coordinates included in the neighborhood region ⁇ 2 in the input point group.
- the second comparison unit 126 compares the magnitude relationship between S max (P3, PM) and a predetermined threshold value ThS4. Note that ThS4 may be the same value as ThS2, or may be a different value.
- the second comparator 126 determines that the coordinates included in the neighboring region ⁇ 2 have a low similarity to the coordinate F1. The second comparator 126 then determines that a point that existed at the coordinate F1 of the reference point group no longer exists at the coordinate F2 of the input point group. On the other hand, if Smax (P3,PM) is greater than ThS4, the second comparator 126 does not make the above determination.
- the second comparator 126 determines that the presence or absence of a point at the coordinate F1 has not changed at the coordinate F2, i.e., that there is no change between the coordinate F1 and the coordinate F2.
- the second comparison unit 126 executes the above processes (III) and (IV) for each coordinate in the reference point group and each coordinate in the input point group that corresponds to each of those coordinates. This enables the second comparison unit 126 to detect changes in the presence or absence of points at all coordinates of the reference point group and the input point group. Note that in (III), for the same reason as in (I), it is detected whether a point that is not in the reference point group has been newly added to the input point group. Meanwhile, in (IV), for the same reason as in (II), it is detected whether a point that is in the reference point group is no longer in the input point group.
- the change detection unit 127 corresponds to the determination unit 13 in the first embodiment, and determines whether or not a change in the presence or absence of a point has occurred between the coordinate F1 of the reference point group and the coordinate F2 of the input point group.
- the change detection unit 127 performs this determination by using the comparison result of the spatial feature P1 and the spatial feature P2 performed by the first comparison unit 125, and the comparison result of the spatial feature P3 and the spatial feature P4 performed by the second comparison unit 126. The details of the determination will be described below.
- the change detection unit 127 determines, based on the determination result of (I), that the point that did not exist in the coordinate F1 of the reference point group now exists in the coordinate F2 of the input point group.
- the change detection unit 127 determines, based on the determination results of (I) and (III), that a point that does not exist in the coordinate F1 of the reference point group does not exist in the coordinate F2 of the input point group either.
- the change detection unit 127 determines, based on the determination result of (II), that the point that existed at coordinate F1 of the reference point group no longer exists at coordinate F2 of the input point group.
- process (II) a point that existed at coordinate F1 of the reference point group is determined to also exist at coordinate F2 of the input point group, while in process (IV), a determination result different from (II) is obtained.
- process (IV) it is determined that a point that existed at coordinate F1 of the reference point group no longer exists at coordinate F2 of the input point group.
- the change detection unit 127 determines, based on the determination results of (II) and (IV), that the point that existed at coordinate F1 of the reference point group no longer exists at coordinate F2 of the input point group.
- the change detection unit 127 determines, based on the determination results of (I) and (III), that the point that existed at the coordinate F1 of the reference point group also exists at the coordinate F2 of the input point group.
- the change detection unit 127 performs a final determination as to whether or not there is a point between the coordinate F1 of the reference point group and the coordinate F2 of the input point group, based on the determination results of the first comparison unit 125 and the second comparison unit 126.
- the change detection unit 127 similarly performs a final determination between each coordinate of the reference point group that is to be determined for change and each coordinate of the input point group.
- the detection result generating unit 128 generates an image showing the change between the input point group and the reference point group based on the determination results of each coordinate of the reference point group and each coordinate of the input point group determined by the change detection unit 127.
- the change detection unit 127 uses the above method to determine whether or not a point that did not exist in the coordinate F1 of the reference point group has become present in the coordinate F2 of the input point group based on the processing results of (I) and (III). For example, when the reference point group and the input point group are acquired in the situation shown in Figures 8A and 8B, the detection result generating unit 128 can generate the image shown in Figure 8C based on the determination result of the change detection unit 127.
- the change detection unit 127 can also determine whether or not a point that existed in the coordinate F1 of the reference point group has ceased to exist in the coordinate F2 of the input point group based on the processing results of (II) and (IV).
- the detection result generating unit 128 can also generate an image showing the change based on the determination result.
- the image generated by the detection result generating unit 128 does not display the locations that are determined to be unchanged in the comparison between the reference point cloud and the input point cloud, but can display the locations of the differences between the two.
- the center server 120 may have an interface such as a display that shows the image generated by the detection result generating unit 128 to the user.
- the detection result generating unit 128 may also generate a point cloud of 3D data indicating the changes detected by the change detection unit 127 instead of an image.
- the detection result generating unit 128 may execute processing to visually highlight locations where a change in the presence or absence of a point has occurred (or locations where a change in the presence or absence of an object has occurred) on the generated screen or point cloud, similar to the output unit shown in embodiment 1.
- FIG. 10A to 10C are flowcharts showing an example of a representative process of the center server 120, and an overview of the process of the center server 120 will be explained with reference to this flowchart. The details of each process are as described above, and therefore will not be explained as appropriate.
- Fig. 10A is a flowchart showing an overview of an example of the process of the center server 120, and the process flow will be explained first with reference to Fig. 10A.
- the reference point cloud acquisition unit 121 acquires reference point cloud data from the reference point cloud DB 200 (step S21; acquisition step).
- the input point cloud acquisition unit 122 acquires input point cloud data by acquiring data transmitted by the robot 101 (step S22; acquisition step). Note that either step S21 or S22 may be performed first, or both steps may be performed in parallel.
- Process (A) indicates the above processes (I) and (III) and related processes, and the details thereof will be described using FIG. 10B.
- process (B) indicates the above processes (II) and (IV) and related processes, the details of which are explained using FIG. 10C. Note that either of the processes in steps S23 and S24 may be performed first, or both processes may be performed in parallel.
- the change detection unit 127 performs a final determination of the difference in the presence or absence of points between each coordinate of the reference point group to be judged for changes and each coordinate of the input point group based on the processing results of (I) and (III). Similarly, the change detection unit 127 performs a final determination of the difference in the presence or absence of points between each coordinate of the reference point group to be judged for changes and each coordinate of the input point group based on the processing results of (II) and (IV) (step S25; final determination step).
- the detection result generating unit 128 generates an image showing the detected change based on the judgment result of the change detection unit 127 based on the processing results of (I) and (III). Similarly, the detection result generating unit 128 generates an image showing the detected change based on the judgment result of the change detection unit 127 based on the processing results of (II) and (IV) (step S26; detection result image generating step).
- the input feature calculation unit 124 calculates spatial features for coordinates in the input point cloud for which features have not yet been calculated (step S31; feature calculation step).
- the input feature calculation unit 124 outputs information on the coordinates for which spatial features were calculated in step S31 to the reference feature calculation unit 123.
- the reference feature calculation unit 123 Based on the output coordinate information, the reference feature calculation unit 123 identifies coordinates in the reference point group that correspond to the coordinates.
- the coordinate information output by the input feature calculation unit 124 is the coordinate F2 information in the above example
- the coordinate information identified by the reference feature calculation unit 123 is the coordinate F1 information in the above example.
- the reference feature calculation unit 123 sets a neighborhood region ⁇ 1 that includes the coordinate F1, and calculates the spatial features of each coordinate included in the neighborhood region ⁇ 1 (step S32; feature calculation step). Note that in the above, the process of step S31 is performed before the process of step S32, but the process of step S32 may be performed before the process of step S31, or both processes may be performed in parallel.
- the input feature amount calculation unit 124 executes the process of step S31 to calculate the spatial feature amount for both the case where ⁇ is ⁇ 3 and the case where ⁇ is ⁇ 4 .
- the reference feature amount calculation unit 123 executes the process of step S32 to calculate the spatial feature amount for both the case where ⁇ is ⁇ 1 and the case where ⁇ is ⁇ 2 . Therefore, the input feature amount calculation unit 124 calculates the spatial feature amount for the coordinate F2 in which the spherical region to be calculated is small (i.e., the spherical region S23) and the spatial feature amount for the spherical region to be calculated is large (i.e., the spherical region S24).
- the reference feature amount calculation unit 123 calculates the spatial feature amount for the coordinate F1 in which the spherical region to be calculated is small (i.e., the spherical region S11) and the spatial feature amount for the spherical region to be calculated is large (i.e., the spherical region S12).
- the first comparison unit 125 uses the spatial features calculated in steps S31 and S32 to calculate the similarity between coordinates F1 and F2 for spherical regions S11 and S23, which are small spherical regions.
- the second comparison unit 126 uses the spatial features calculated in steps S31 and S32 to calculate the similarity between coordinates F1 and F2 for spherical regions S12 and S24, which are large spherical regions (step S33; similarity calculation step).
- the first comparison unit 125 executes the process (I) by comparing the calculated maximum similarity with a predetermined threshold value to determine whether a change has occurred in the presence or absence of a point at the coordinate F2.
- the second comparison unit 126 also executes the process (III) by comparing the calculated maximum similarity with a predetermined threshold value to determine whether a change has occurred in the presence or absence of a point at the coordinate F2 (step S34; change detection step).
- the first comparison unit 125 and the second comparison unit 126 determine whether or not the similarity calculation and change detection determination have been completed for all coordinates in the input point cloud (step S35; end determination step). If the similarity calculation and change detection determination have not been completed for all coordinates in the input point cloud (No in step S35), the process returns to step S31 and is repeated for the coordinates in the input point cloud for which the similarity has not been calculated. If the similarity calculation and change detection determination have been completed for all coordinates in the input point cloud (Yes in step S35), process (A) ends.
- the change detection unit 127 performs a final determination based on the information indicating the presence or absence of a change at each coordinate, generated as a result of process (A), and the detection result generation unit 128 generates a change detection image based on the determination result.
- the reference feature calculation unit 123 calculates spatial features for coordinates in the reference point group for which features have not yet been calculated (step S41; feature calculation step).
- the reference feature calculation unit 123 outputs information on the coordinates for which spatial features were calculated in step S41 to the input feature calculation unit 124.
- the input feature calculation unit 124 Based on the output coordinate information, the input feature calculation unit 124 identifies coordinates in the input point cloud that correspond to the coordinates.
- the coordinate information output by the reference feature calculation unit 123 is the coordinate F1 information in the above example
- the coordinate information identified by the input feature calculation unit 124 is the coordinate F2 information in the above example.
- the input feature calculation unit 124 sets a neighborhood region ⁇ 2 that includes the coordinate F2, and calculates the spatial features of each coordinate included in the neighborhood region ⁇ 2 (step S42; feature calculation step). Note that in the above, the process of step S41 is performed before the process of step S42, but the process of step S42 may be performed before the process of step S41, or both processes may be performed in parallel.
- the reference feature calculation unit 123 executes the process of step S41 to calculate the spatial feature both when ⁇ is ⁇ 1 and when ⁇ is ⁇ 2.
- the input feature calculation unit 124 executes the process of step S42 to calculate the spatial feature both when ⁇ is ⁇ 3 and when ⁇ is ⁇ 4. The details are as shown in the description of FIG. 10B.
- the first comparison unit 125 uses the spatial features calculated in steps S41 and S42 to calculate the similarity between coordinates F1 and F2 for spherical regions S11 and S23, which are small spherical regions.
- the second comparison unit 126 uses the spatial features calculated in steps S41 and S42 to calculate the similarity between coordinates F1 and F2 for spherical regions S12 and S24, which are large spherical regions (step S43; similarity calculation step).
- the first comparison unit 125 compares the calculated maximum similarity with a predetermined threshold value to determine whether or not a change has occurred in the presence or absence of a point at the coordinate F1, and executes the process (II).
- the second comparison unit 126 also compares the calculated maximum similarity with a predetermined threshold value to determine whether or not a change has occurred in the presence or absence of a point at the coordinate F1, and executes the process (IV) (step S44; change detection step).
- the first comparison unit 125 and the second comparison unit 126 determine whether or not the similarity calculation and change detection determination have been completed for all coordinates in the input point cloud (step S45; end determination step). If the similarity calculation and change detection determination have not been completed for all coordinates in the input point cloud (No in step S45), the process returns to step S41 and is repeated for the coordinates in the input point cloud for which the similarity has not been calculated. If the similarity calculation and change detection determination have been completed for all coordinates in the input point cloud (Yes in step S45), process (B) ends.
- the change detection unit 127 performs a final determination based on the information indicating the presence or absence of a change at each coordinate, generated as a result of process (B), and the detection result generation unit 128 generates a change detection image based on the determination result.
- the center server 120 may first calculate the similarity for all coordinates in the input point cloud, and then perform a change detection determination for each coordinate in the input point cloud.
- the center server 120 may first calculate the similarity for all coordinates in the reference point cloud, and then perform a change detection determination for each coordinate in the reference point cloud.
- both processes (A) and (B) are executed, but only one of processes (A) and (B) may be executed, and the change detection unit 127 and the detection result generation unit 128 may execute the processes for only the executed process, and an image may be generated.
- the change detection unit 127 and the detection result generation unit 128 may execute the processes for only the executed process, and an image may be generated.
- the center server 120 can generate a detection image for each input point cloud by performing the comparison process described above between each of the input point clouds and the reference point cloud.
- Figures 11A and 11B are schematic diagrams for explaining this problem.
- a feature amount at coordinate X1 in point cloud 1 and a feature amount at coordinate Y1 corresponding to coordinate X1 in point cloud 2 are calculated.
- the areas in point cloud 1 and point cloud 2 for which feature amounts are calculated are represented as A1 and B1, respectively.
- area A1 is a small area in the vicinity of coordinate X1
- area B1 is a small area in the vicinity of coordinate Y1.
- point clouds 1 and 2 show points that indicate objects reflected in the point clouds, and information regarding the presence of other points is omitted in point clouds 1 and 2.
- the area of coordinates X2-X3 including coordinate X1 in point cloud 1 differs in the presence or absence of points from the corresponding area in point cloud 2. Therefore, it should be determined that the presence or absence of points differs between coordinates X1 and Y1.
- areas A1 and B1 for which feature values are calculated are small, and there is a possibility that the information regarding the presence of points in area A1 and the information regarding the presence of points in area B1 will be the same or nearly the same.
- the feature values for area A1 and the feature values for area B1 will be the same or nearly the same, and the change detection system that performs the determination will determine that no change in the presence or absence of points has occurred in both cases.
- the change detection system will determine that no change in the presence or absence of points has occurred even for coordinates where it should have been determined that a change in the presence or absence of a point has occurred.
- FIG. 11A such an inaccurate determination is shown in the determination result as a "detection error.”
- a feature value at coordinate X4 in point cloud 1 and a feature value at coordinate Y4 corresponding to coordinate X4 in point cloud 2 are calculated.
- the areas in point cloud 1 and point cloud 2 for which feature values are calculated are denoted as A2 and B2, respectively.
- area A2 is an area neighboring coordinate X4 and larger than area A1
- area B2 is an area neighboring coordinate Y4 and larger than area B1.
- the change detection system then compares the calculated feature values to determine whether a change in the presence or absence of a point has occurred.
- the coordinate X4 in point cloud 1 and the corresponding coordinate Y4 in point cloud 2 have the same presence or absence of a point. Therefore, it should be determined that the presence or absence of a point is the same for both coordinates X4 and Y4.
- area A2 for which the feature values are calculated is large, area A2 includes area C3, which includes coordinates where the presence or absence of a point differs between point cloud 1 and point cloud 2. Based on the contribution of area C3, the feature values for area A1 and area B1 are significantly different, so it is determined that the presence or absence of a point differs between coordinates X4 and Y4.
- the change detection system determines that a change in the presence or absence of a point has occurred even for coordinates where it should originally have been determined that there was no change in the presence or absence of a point. In FIG. 11B, such an inaccurate determination is shown in the determination result as a "misdetection.”
- Figures 12A and 12B are schematic diagrams for explaining a technique according to embodiment 2.
- a feature amount at coordinate X1 in point cloud 1 and a feature amount at coordinate Y1 corresponding to coordinate X1 in point cloud 2 are calculated.
- the change detection system compares the calculated feature amounts to determine whether a change in the presence or absence of a point has occurred.
- the reason for this determination is the same as that explained in Figure 11A, and so a description will be omitted.
- a feature value at coordinate X4 in point cloud 1 and a feature value at coordinate Y4 corresponding to coordinate X4 in point cloud 2 are calculated.
- the areas in point cloud 1 and point cloud 2 for which feature values are calculated are denoted as A2 and B2, respectively.
- area A2 is an area neighboring coordinate X4 and larger than area A1
- area B2 is an area neighboring coordinate Y4 and larger than area B1.
- the change detection system then compares the calculated feature values to determine whether a change in the presence or absence of a point has occurred.
- the change detection system lowers the contribution of area C3 including the coordinates determined to have different points in the determination in Fig. 11A below the contribution from area D3, which is an area other than area C3 in area A2.
- This process differs from that described in Fig. 11B.
- the change detection system can determine that the presence or absence of a point is the same for both coordinates X4 and Y4. Therefore, as shown in Figure 12B, the change detection system can accurately determine that there has been no change in the presence or absence of a point for coordinates where it should originally have been determined that there has been no change in the presence or absence of a point.
- the change detection system can detect objects whose presence or position has changed between the input point cloud and the reference point cloud, while suppressing detection errors and false detections. Furthermore, the scale of the objects to be detected varies from object to object. Here, if only one type of area size for calculating feature amounts is used, there is a possibility that objects of different sizes cannot be accurately detected. However, in the present disclosure, two types of area sizes for calculating feature amounts are used, making it possible to accurately detect objects of different sizes.
- FIG. 13 is a supplementary diagram explaining the technique according to the second embodiment.
- a feature amount at coordinate X5 in point cloud 1 and a feature amount at coordinate Y5 corresponding to coordinate X5 in point cloud 2 are calculated.
- the areas in point cloud 1 and point cloud 2 for which feature amounts are calculated are represented as A3 and B3, respectively.
- area A3 is a large area in the vicinity of coordinate X5
- area B3 is a large area in the vicinity of coordinate Y5.
- the change detection system reduces the contribution of areas C4 and C5, which contain coordinates determined to have a difference in the presence or absence of points when the area for calculating the feature amount is small, below the contribution from area D4, which is an area within area A3 other than areas C4 and C5.
- area D4 which is an area within area A3 other than areas C4 and C5.
- This process is as described with reference to Figure 12B.
- the information on the presence or absence of points in area D4 in point cloud 1 and the information on the presence or absence of points in area E2 in point cloud 2 that corresponds to area D4 appear to be the same. For this reason, the difference between the feature amount at coordinate X5 and the feature amount at coordinate Y5 becomes small, and it is conceivable that the change detection system will determine that no change in the presence or absence of points has occurred between the two.
- the first comparison unit 125 compares the spatial feature P1 of the coordinate F1 calculated using the spherical region S11 in the reference point group with the spatial feature P2 of the coordinate F2 calculated using the spherical region S23 in the input point group.
- the second comparison unit 126 compares the spatial feature P3 of the coordinate F1 calculated using the spherical region S12 in the input point group with the spatial feature P4 of the coordinate F2 calculated using the spherical region S24 in the input point group.
- the spherical region S12 is larger than the spherical region S11
- the spherical region S23 is larger than the spherical region S24.
- the change detection unit 127 uses the comparison results of the first comparison unit 125 and the second comparison unit 126 to determine whether a change in the presence or absence of a point has occurred between the coordinate F1 and the coordinate F2. In this way, by using two comparison results for multiple different regions, the change detection device 10 can prevent erroneous determination of the presence or absence of differences between points at the first coordinates and the second coordinates. Therefore, the center server 120 can improve the accuracy of detecting changes between point groups.
- the first comparison unit 125 determines that a change in the presence or absence of a point has occurred between coordinates F1 and F2 by comparing spatial feature amount P1 and spatial feature amount P2.
- the change detection unit 127 may determine that a change in the presence or absence of a point has occurred between coordinates F1 and F2.
- the first comparison unit 125 by comparing the spatial feature amount P1 with the spatial feature amount P2, determines that there is no change in the presence or absence of a point between the coordinates F1 and F2.
- the second comparison unit 126 by comparing the spatial feature amount P3 with the spatial feature amount P4, determines that there is a change in the presence or absence of a point between the coordinates F1 and F2.
- the change detection unit 127 may determine that there is a change in the presence or absence of a point between the coordinates F1 and F2.
- the second comparison unit 126 may use the comparison result in the first comparison unit 125 between at least one coordinate in the input point group and at least one coordinate in the reference point group corresponding to the coordinate of the input point group to compare the spatial feature P3 and the spatial feature P4. That is, after the spatial feature P1 of the small spherical region S11 is compared with the spatial feature P2 of the spherical region S23, the comparison result is used to compare the spatial feature P3 of the large spherical region S12 with the spatial feature P4 of the spherical region S24. In this way, the center server 120 can reflect the comparison result in the first comparison unit 125, the comparison result of which should be adjusted in the comparison in the second comparison unit 126, in the comparison in the second comparison unit 126. Therefore, the center server 120 can more accurately determine whether or not a change in the presence or absence of a point has occurred in the second comparison unit 126.
- the second comparison unit 126 calculates a lower Score (P3 ⁇ r , P4 ⁇ r ), which is a priority, compared to when Changed (P3 ⁇ r ) is false and Same around ( P1 ⁇ r , P2 ⁇ r ) exists.
- the center server 120 can accurately determine that there has been no change in the presence or absence of points for coordinates where it would normally be determined that there has been no change in the presence or absence of points.
- information regarding the presence of a point in a certain region may be information indicating that a point exists in the region, that a point does not exist, or that the presence of a point is unknown.
- point cloud data is acquired using measurements or the like, there may be a state in which the presence of a point is unknown in the point cloud.
- the center server 120 can also reflect such states in the detection of changes in points, making it possible to further improve the accuracy of change detection.
- the change detection unit 127 may also determine whether a change in the presence or absence of a point has occurred between the coordinates of the input point cloud and the coordinates of the reference point cloud for a number of corresponding coordinates in the input point cloud and the reference point cloud.
- the detection result generation unit 128 can use the determination result of the change detection unit 127 to detect a change in the presence or absence of an object between the input point cloud and the reference point cloud, and output the detection result. In this way, the center server 120 can detect a change in the presence or absence of an object between the input point cloud and the reference point cloud, making it possible to apply this to monitoring infrastructure, etc.
- the information regarding the presence of points within the regions of the input point cloud and the reference point cloud may be information indicating either the presence or absence of a point within the region.
- the state in which the presence of a point is unknown does not have to be taken into consideration in the feature calculation and determination process.
- taking into consideration the state in which the presence of a point is unknown is more desirable from the perspective of improving change detection accuracy.
- the reference point cloud and the input point cloud may be mapping data generated based on two-dimensional images generated by a camera or a positioning sensor capturing images of a specific location.
- the following cases are also considered as cases in which a misalignment may occur between the capture of images related to the reference point cloud and the capture of images related to the input point cloud.
- a misalignment may occur when images of the same location are captured at different times using a movable camera carried by a person and the reference point cloud and the input point cloud are generated based on the images.
- the first comparison unit 125 may perform the process (I) on multiple coordinates of less than all of the input point cloud and multiple coordinates of the corresponding reference point cloud. The same applies to (III) performed by the second comparison unit 126. The first comparison unit 125 may also perform the process (II) on multiple coordinates of less than all of the reference point cloud and multiple coordinates of the corresponding input point cloud. The same applies to (IV) performed by the second comparison unit 126. In this way, if there is an area in the point cloud that does not require judgment, the center server 120 can detect changes in the coordinates excluding that area.
- Score (P1 ⁇ r , P2 ⁇ r ) has a different value depending on whether P1 ⁇ r and P2 ⁇ r are equal.
- Score (P3 ⁇ r ) is 1.
- Score (P3 ⁇ r , P4 ⁇ r ) is 0. Even with such a method, it is possible for the first comparison unit 125 and the second comparison unit 126 to calculate the spatial feature amount.
- FIG. 14 is a block diagram showing another example of the center server according to the second embodiment.
- the center server 120 further includes an extraction unit 129 in addition to the components shown in Fig. 6. Below, the processing of the center server 120 will be described with reference to (2A) omitted, and only the points specific to this example will be described.
- the extraction unit 129 directly compares the presence or absence of points at each corresponding coordinate in the reference point group acquired by the reference point group acquisition unit 121 and the input point group acquired by the input point group acquisition unit 122. This extracts information on coordinates where the presence or absence of points at corresponding coordinates differs between the reference point group and the input point group (information on changed coordinates), and does not extract other coordinates.
- the reference feature calculation unit 123 and the input feature calculation unit 124 execute the process shown in (2A) for the coordinates of the reference point group and the coordinates of the input point group extracted in this manner, and calculate the spatial feature.
- the first comparison unit 125, the second comparison unit 126, the change detection unit 127, and the detection result generation unit 128 execute the process shown in (2A) using the calculated spatial feature.
- FIG. 15A to 15C are flowcharts showing an example of a representative process of the center server 120 in (2B), which corresponds to Fig. 10A to 10C, and an overview of the process of the center server 120 will be explained with reference to this flowchart. Note that the same points as in (2A) will be omitted as appropriate.
- the reference point cloud acquisition unit 121 acquires reference point cloud data from the reference point cloud DB 200 (step S21; acquisition step). Also, the input point cloud acquisition unit 122 acquires input point cloud data by acquiring data transmitted by the robot 101 (step S22; acquisition step).
- the extraction unit 129 directly compares the presence or absence of points at corresponding coordinates between the reference point group acquired by the reference point group acquisition unit 121 and the input point group acquired by the input point group acquisition unit 122. This detects information on changed coordinates (step S27; change detection step).
- the reference feature amount calculation unit 123, the input feature amount calculation unit 124, the first comparison unit 125, and the second comparison unit 126 execute process (A') (step S23'; process (A') step).
- Process (A) refers to the above processes (I) and (III) and related processes, and the details of these processes will be described using FIG. 13B.
- process (B') indicates the above processes (II) and (IV) and related processes, the details of which are explained using FIG. 13C. Note that either of the processes in steps S23' and S24' may be performed first, or both may be performed in parallel.
- the change detection unit 127 performs a final determination of the difference in the presence or absence of points between each coordinate of the reference point group to be judged for changes and each coordinate of the input point group based on the processing results of (I) and (III). Similarly, the change detection unit 127 performs a final determination of the difference in the presence or absence of points between each coordinate of the reference point group to be judged for changes and each coordinate of the input point group based on the processing results of (II) and (IV) (step S25; final determination step).
- the detection result generating unit 128 generates an image showing the detected change based on the judgment result of the change detection unit 127 based on the processing results of (I) and (III). Similarly, the detection result generating unit 128 generates an image showing the detected change based on the judgment result of the change detection unit 127 based on the processing results of (II) and (IV) (step S26; detection result image generating step).
- the input feature calculation unit 124 calculates spatial features for coordinates in the input point group extracted by the extraction unit 129 for which features have not yet been calculated (step S31; feature calculation step).
- the input feature calculation unit 124 outputs information on the coordinates that were the subject of calculation of the spatial features in step S31 to the reference feature calculation unit 123.
- the reference feature calculation unit 123 Based on the output coordinate information, the reference feature calculation unit 123 identifies the coordinates in the reference point group that correspond to the coordinates. In this example, the reference feature calculation unit 123 sets a neighborhood region ⁇ 1 that includes the coordinate F1, and calculates the spatial feature of each coordinate included in the neighborhood region ⁇ 1 (step S32; feature calculation step). As described above, the process of step S31 or the process of step S32 may be performed in any order, or both processes may be performed in parallel.
- the input feature calculation unit 124 executes the process of step S31 to calculate the spatial feature both when ⁇ is ⁇ 3 and when ⁇ is ⁇ 4.
- the reference feature calculation unit 123 executes the process of step S32 to calculate the spatial feature both when ⁇ is ⁇ 1 and when ⁇ is ⁇ 2 .
- the first comparison unit 125 uses the spatial features calculated in steps S31 and S32 to calculate the similarity between coordinates F1 and F2 for spherical regions S11 and S23, which are small spherical regions.
- the second comparison unit 126 uses the spatial features calculated in steps S31 and S32 to calculate the similarity between coordinates F1 and F2 for spherical regions S12 and S24, which are large spherical regions (step S33; similarity calculation step).
- the first comparison unit 125 executes the process (I) by comparing the calculated maximum similarity with a predetermined threshold value to determine whether a change has occurred in the presence or absence of a point at coordinate F2.
- the second comparison unit 126 also executes the process (III) by comparing the calculated maximum similarity with a predetermined threshold value to determine whether a change has occurred in the presence or absence of a point at coordinate F2 (step S34; change detection step).
- the first comparison unit 125 and the second comparison unit 126 determine whether or not the similarity calculation and change detection determination have been completed for all coordinates extracted in the input point cloud (step S36; end determination step). If the similarity calculation and change detection determination have not been completed for all extracted coordinates (No in step S36), the process returns to step S31 and repeats the process for the coordinates for which the similarity has not been calculated. If the similarity calculation and change detection determination have been completed for all extracted coordinates (Yes in step S36), process (A') ends.
- the change detection unit 127 performs a final determination based on the information indicating the presence or absence of a change at each coordinate, generated as a result of process (A'), and the detection result generation unit 128 generates a change detection image based on the determination result.
- the reference feature calculation unit 123 calculates spatial features for coordinates in the reference point group extracted by the extraction unit 129 for which features have not yet been calculated (step S41; feature calculation step).
- the reference feature calculation unit 123 outputs information on the coordinates that were the subject of calculation of the spatial features in step S41 to the input feature calculation unit 124.
- the input feature calculation unit 124 Based on the output coordinate information, the input feature calculation unit 124 identifies the coordinates in the input point cloud that correspond to the coordinates. In this example, the input feature calculation unit 124 sets a neighborhood region ⁇ 2 that includes the coordinate F2, and calculates the spatial feature of each coordinate included in the neighborhood region ⁇ 2 (step S42; feature calculation step). As described above, the process of step S41 or the process of step S42 may be performed in any order, or both processes may be performed in parallel.
- the reference feature calculation unit 123 executes the process of step S41 to calculate the spatial feature both when ⁇ is ⁇ 1 and when ⁇ is ⁇ 2.
- the input feature calculation unit 124 executes the process of step S42 to calculate the spatial feature both when ⁇ is ⁇ 3 and when ⁇ is ⁇ 4. The details are as shown in the description of FIG. 10B.
- the first comparison unit 125 uses the spatial features calculated in steps S41 and S42 to calculate the similarity between coordinates F1 and F2 for spherical regions S11 and S23, which are small spherical regions.
- the second comparison unit 126 uses the spatial features calculated in steps S41 and S42 to calculate the similarity between coordinates F1 and F2 for spherical regions S12 and S24, which are large spherical regions (step S43; similarity calculation step).
- the first comparison unit 125 executes the process (II) by comparing the calculated maximum similarity with a predetermined threshold value to determine whether a change has occurred in the presence or absence of a point at the coordinate F1.
- the second comparison unit 126 also executes the process (IV) by comparing the calculated maximum similarity with a predetermined threshold value to determine whether a change has occurred in the presence or absence of a point at the coordinate F1 (step S44; change detection step).
- the first comparison unit 125 and the second comparison unit 126 determine whether or not the similarity calculation and change detection determination have been completed for all coordinates extracted in the reference point cloud (step S46; end determination step). If the similarity calculation and change detection determination have not been completed for all extracted coordinates (No in step S46), the process returns to step S41 and is repeated for coordinates in the input point cloud for which similarity has not been calculated. If the similarity calculation and change detection determination have been completed for all extracted coordinates (Yes in step S46), process (B') ends.
- the change detection unit 127 performs a final determination based on the information indicating the presence or absence of a change at each coordinate, generated as a result of process (B'), and the detection result generation unit 128 generates a change detection image based on the determination result.
- the center server 120 can extract information on the coordinates that have changed using the extraction unit 129, and execute the change detection process shown in (2A) for the extracted coordinates. This can reduce the calculation costs required for all steps of the process, compared to executing the change detection process shown in (2A) for the coordinates of all input point groups or reference point groups.
- FIG. 16A is a block diagram showing another example of the center server according to the embodiment 2.
- the center server 120 further includes an object identification unit 130 in addition to the components shown in Fig. 15.
- object identification unit 130 in addition to the components shown in Fig. 15.
- the object identification unit 130 performs the following judgment on the image generated by the detection result generation unit 128 based on the judgment result of the change detection unit 127 based on the processing results of (I) and (III), or the image based on the judgment result of the change detection unit 127 based on the processing results of (II) and (IV).
- the object identification unit 130 judges whether the change in the presence or absence of a point shown in the image corresponds to some kind of object (e.g., a container, a vehicle, construction materials, etc.).
- the object identification unit 130 determines whether the changed point cloud portion is equal to or larger than a predetermined size, and if it is equal to or larger than the predetermined size, it determines that the changed point cloud portion corresponds to some kind of object. If the changed point cloud portion is smaller than the predetermined size, the object identification unit 130 determines that the changed point cloud portion is noise.
- the object identification unit 130 may compare the location of the changed point cloud with pre-stored point cloud data of various objects for determination, such as containers, vehicles, construction materials, etc. If the location of the changed point cloud matches the point cloud data of any object, or matches except for an error of, for example, a few percent, the object identification unit 130 identifies the matching object as an object whose presence or absence has changed between the input point cloud and the reference point cloud.
- the object identification unit 130 may perform object determination using a pre-trained AI model. This training is performed by inputting training data, including image information showing the changed point cloud as a sample and information (correct answer label) showing various objects corresponding to that information, into the AI model. After the AI model has been trained using the training data, the object identification unit 130 inputs the image generated by the detection result generation unit 128 into the AI model. Based on this input image, the AI model outputs information showing the object shown in the input image. In this way, the object identification unit 130 can also perform object identification processing. Note that any technology, such as logistic regression or neural network, can be used to train the learning model.
- the object identifying unit 130 determines whether the change in the presence or absence of points shown in the point cloud, which is the detection result, corresponds to some object.
- the detection result generating unit 128 can perform object determination using an AI model that has been trained in advance. This learning is performed by inputting training data including a changed point cloud that serves as a sample and information (correct answer label) indicating various objects corresponding to that information into the AI model. After the AI model has been trained using the training data, the object identifying unit 130 inputs the point cloud generated by the detection result generating unit 128 into the AI model. Based on this point cloud, the AI model can output information indicating the object indicated by the point cloud.
- Other determination methods that the detection result generating unit 128 can execute are as described above.
- the center server 120 can detect whether there has been a change in the presence or absence of an object between the reference point group and the input point group. More preferably, the center server 120 can also identify an object whose presence or absence has changed between the reference point group and the input point group.
- the object identification unit 130 may generate and output a screen on which a process for visually highlighting the identified object has been performed. The process for visually highlighting the object is as described in the first embodiment.
- the object identification unit 130 may output an alert by using a voice via a speaker.
- the object identification unit 130 may output the determination result of the determination unit 13 to another device.
- FIG. 16B is a block diagram showing another example of the center server according to the second embodiment.
- the center server 120 further includes a mobility control unit 131.
- the points explained in (2A) to (2C) are omitted, and only points specific to this example are explained.
- the movement control unit 131 controls the movement of the robot 101. For example, when the object identification unit 130 determines that the location of the changed point cloud corresponds to some kind of object, the movement control unit 131 can instruct the robot 101 to approach the location of the changed point cloud and then measure the location further. This instruction is given in order to obtain more detailed point cloud data of the location and analyze it. Alternatively, the movement control unit 131 may control the robot 101 as described above when the object identification unit 130 identifies a specific type of object.
- the movement control unit 131 may output an instruction in at least one of the following cases. - When it is determined based on the judgment results based on the processing results of (I) and (III) that an object is not present in the reference point cloud and an object has become present in the input point cloud; or When it is determined based on the judgment results based on the processing results of (II) and (IV) that an object is present in the reference point cloud and the object has disappeared in the input point cloud.
- the movement control unit 131 it is preferable for the movement control unit 131 to output an instruction at least when an object is not present in the reference point cloud and an object has become present in the input point cloud.
- FIG. 16A and 17B are flowcharts showing an example of a representative process of the center server 120 in (2D), which corresponds to FIG. 16A, and an overview of the process of the center server 120 will be described with reference to this flowchart. Note that descriptions of the same points as in (2A) and (2B) will be omitted as appropriate.
- Steps S21 to S26 are the same as those in FIG. 16A, and therefore will not be described here.
- the object identification unit 130 executes the process shown in (2C) and determines whether the changed point cloud corresponds to any object in the image generated based on the determination results based on the process results of (I) and (III) (step S28; object detection determination step). If the changed point cloud does not correspond to an object (No in step S28), the movement control unit 131 does not execute any special control. In this case, the robot 101 moves along, for example, a previously set movement route.
- step S28 the movement control unit 131 controls the robot 101 to approach the changed point cloud and then further measure the location (step S29; robot movement step). In this case, the robot 101 moves away from the previously set movement route.
- steps S28 and S29 can also be performed on images generated based on the judgment results based on the process results of (II) and (IV).
- the center server 120 can also perform the processes shown in (2A) to (2D) on images acquired by the robot approaching and performing measurements as a result of the process of step S29.
- the center server 120 controls the robot 101 to acquire detailed point cloud data. This enables more detailed inspection of failures or abnormalities in infrastructure facilities. Note that even when the detection result generating unit 128 generates a point cloud, the movement control unit 131 can execute similar control based on the object determination result of the object identifying unit 130.
- the movement control unit 131 may set the movement route to a route that avoids the location where the object is present.
- the movement control unit 131 controls the movement of the robot 101 so that it moves along the newly set route.
- steps S31 to S34 are repeatedly executed for each point in the input point cloud.
- a process of calculating spatial features for all coordinates to be processed in the input point cloud and a process of calculating spatial features for an area including the coordinates of the reference point cloud that correspond to each coordinate of the input point cloud may be executed first.
- the processes of steps S33 to S34 are executed for all coordinates, making it possible to detect a change in the presence or absence of points in the area to be processed.
- the order of the processes may be similarly changed.
- the center server 120 in the second embodiment includes, as comparison units, a first comparison unit 125 and a second comparison unit 126 that calculates the similarity using a spherical area larger than the first comparison unit 125.
- the center server 120 may further include a third comparison unit.
- the third comparison unit compares the spatial feature amount of the coordinate F1 calculated using a spherical area larger than the spherical area S12 with the spatial feature amount of the coordinate F2 calculated using a spherical area larger than the spherical area S24.
- the third comparison unit can execute the comparison of the spatial feature amount based on the comparison result of the second comparison unit 126. In this way, the third comparison unit determines whether or not a change in the presence or absence of a point has occurred between the coordinate F1 and the coordinate F2.
- the change detection unit 127 judges whether or not a change in the presence or absence of a point has occurred between coordinates F1 and F2 based on the comparison results of the first comparison unit 125, the second comparison unit 126, and the third comparison unit.
- the change detection unit 127 judges that a change in the presence or absence of a point has occurred between coordinates F1 and F2 when it is judged that a change in the presence or absence of a point has occurred between coordinates F1 and F2 in the comparison results performed by the first comparison unit 125 or the second comparison unit 126.
- the change detection unit 127 judges that a change in the presence or absence of a point has occurred between coordinates F1 and F2.
- the area for calculating spatial features can be set in only three stages, but if necessary, the area for calculating spatial features can be set in four or more stages and four or more comparison units can be provided. Even in this case, the change detection unit 127 performs a determination similar to that described above based on the comparison results of each comparison unit. The detection result generation unit 128 generates an image based on the determination results performed by the change detection unit 127.
- polar coordinates are used to define the spherical region S1 surrounding the coordinate F1 and the spherical region S2 surrounding the coordinate F2.
- using polar coordinates has the effect of making the calculations of the reference feature calculation unit 123 and the input feature calculation unit 124 easier.
- the method of calculating the similarity shown in (5) to (7) in the second embodiment can be changed as appropriate.
- the first comparison unit 125 calculates S(P1, P2) by simply adding Score(P1 ⁇ r , P2 ⁇ r ) shown in (6).
- the first comparison unit 125 may calculate S(P1, P2) by other methods so that S(P1, P2) increases monotonically with respect to the number of Same around (P1 ⁇ r , P2 ⁇ r ) present in the entire range of ⁇ , ⁇ , and r.
- S(P1, P2) is proportional to the inverse of ValidNum.
- the change detection unit 127 may calculate S(P1, P2) by other methods so that S(P1, P2) decreases monotonically with respect to ValidNum. The same can be said about the calculations (8) to (10) performed by the first comparing section 125.
- any part of the above-mentioned processing executed by each unit of the center server 120 may be executed by at least one of the robot 101 and a different server.
- the processing of the center server 120 may be realized by a distributed system.
- the center server 120 may not be provided, and the robot 101 may execute the above-mentioned processing of the center server 120 in a stand-alone manner.
- the reference point cloud and the position information at which the reference point cloud was measured are stored in association with each other in the storage unit of the robot 101.
- the robot 101 performs measurement with its own LiDAR 102 and acquires the input point cloud.
- the robot 101 searches the storage unit using the position information at which the input point cloud was measured, and acquires the data of the reference point cloud to be compared with the input point cloud.
- the details are the same as those of the processing of the reference point cloud acquisition unit 121 described above.
- the robot 101 can execute the processing related to the reference feature amount calculation unit 123 to the detection result generation unit 128 described above.
- the robot 101 may also execute the processing related to the object identification unit 130.
- the robot 101 detects an object with the object identification unit 130, it can control its own movement unit to approach the location of the changed point cloud and then measure the location.
- this disclosure has been described as a hardware configuration, but this disclosure is not limited to this.
- This disclosure can also be realized by having a processor in a computer execute a computer program to execute the processes (steps) of the change detection device, each device in the change detection system, or the center server described in the above embodiment.
- FIG. 18 is a block diagram showing an example of the hardware configuration of an information processing device in which the processing of each of the above-described embodiments is executed.
- this information processing device 90 includes a signal processing circuit 91, a processor 92, and a memory 93.
- the signal processing circuit 91 is a circuit for processing signals according to the control of the processor 92.
- the signal processing circuit 91 may also include a communication circuit for receiving signals from a transmitting device.
- the processor 92 is connected (coupled) to the memory 93, and performs the processing of the device described in the above embodiment by reading and executing software (computer programs) from the memory 93.
- Examples of the processor 92 include a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an FPGA (Field-Programmable Gate Array), a DSP (Demand-Side Platform), and an ASIC (Application Specific Integrated Circuit).
- a single processor may be used as the processor 92, or multiple processors may be used in cooperation with each other.
- Memory 93 may be composed of volatile memory, non-volatile memory, or a combination of both.
- the volatile memory may be, for example, a RAM (Random Access Memory) such as DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory).
- the non-volatile memory may be, for example, a ROM (Read Only Memory) such as PROM (Programmable Random Only Memory) or EPROM (Erasable Programmable Read Only Memory), flash memory, or an SSD (Solid State Drive).
- a single memory may be used as memory 93, or multiple memories may be used in cooperation with each other.
- the memory 93 is used to store one or more instructions.
- the one or more instructions are stored in the memory 93 as a group of software modules.
- the processor 92 can perform the processing described in the above embodiment by reading and executing these groups of software modules from the memory 93.
- the memory 93 may include memory built into the processor 92 in addition to memory provided outside the processor 92.
- the memory 93 may also include storage located away from the processors that make up the processor 92.
- the processor 92 can access the memory 93 via an I/O (Input/Output) interface.
- processors in each device in the above-mentioned embodiments execute one or more programs including a set of instructions for causing a computer to execute the algorithm described in the drawings. This processing enables the information processing described in each embodiment to be realized.
- the program includes instructions (or software code) that, when loaded into a computer, cause the computer to perform one or more functions described in the embodiments.
- the program may be stored on a non-transitory computer-readable medium or tangible storage medium.
- computer-readable medium or tangible storage medium includes random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drive (SSD) or other memory technology, CD-ROM, digital versatile disk (DVD), Blu-ray® disk or other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage or other magnetic storage device.
- the program may be transmitted on a transitory computer-readable medium or communication medium.
- transitory computer-readable medium or communication medium includes electrical, optical, acoustic, or other forms of propagated signals.
- a comparison between the third feature amount and the fourth feature amount is performed by using a comparison result between at least one of the first coordinates and the second coordinate corresponding to the at least one first coordinate among a comparison result between the first feature amount related to the plurality of first coordinates in the first point cloud and the second feature amount related to the plurality of second coordinates in the second point cloud; 3.
- the change detection method of claim 3. (Appendix 5)
- the information regarding the presence of a point in the first region is information indicating that a point exists in the first region, that a point does not exist, or that the presence of a point is unknown
- the information regarding the presence of a point in the third region is information indicating that a point exists in the third region, that a point does not exist, or that the presence of a point is unknown. 5.
- (Appendix 7) a first comparison means for comparing a first feature amount of a first coordinate calculated using information on the presence of a point in a first region including a first coordinate in a first point cloud with a second feature amount of a second coordinate corresponding to the first coordinate calculated using information on the presence of a point in a second region including a second coordinate in a second point cloud; a second comparison means for comparing a third feature amount of the first coordinate calculated using information on the presence of a point in a third region including the first coordinate and larger than the first region with a fourth feature amount of the second coordinate calculated using information on the presence of a point in a fourth region including the second coordinate and larger than the second region; a determination means for determining whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates, using a comparison result between the first feature amount and the second feature amount and a comparison result between the third feature amount and the fourth feature amount;
- a change detection system comprising: (Appendix 8) when
- the second comparison means performs a comparison between the third feature amount and the fourth feature amount by using a comparison result between at least one of the first coordinates and the second coordinate corresponding to the at least one first coordinate among comparison results between the first feature amount related to the plurality of first coordinates in the first point cloud and the second feature amount related to the plurality of second coordinates in the second point cloud.
- the second comparison means indicates that a change in the presence or absence of a point has not occurred between the at least one first coordinate and the at least one second coordinate, and compared to a case in which information indicating the presence or absence of a point is considered to be the same in the at least one first coordinate and the at least one second coordinate, the second comparison means reduces a weighting for indicating that a comparison result between the third feature amount and the fourth feature amount indicates that a change in the presence or absence of a point has not occurred between the first coordinate and the second coordinate; 10.
- the change detection system of claim 9. (Appendix 11)
- the information regarding the presence of a point in the first region is information indicating that a point exists in the first region, that a point does not exist, or that the presence of a point is unknown
- the information regarding the presence of a point in the third region is information indicating that a point exists in the third region, that a point does not exist, or that the presence of a point is unknown.
- Appendix 12 a detection means for detecting a change in the presence or absence of an object between the first point cloud and the second point cloud by using a result of a determination by the determination means as to whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates for a plurality of corresponding coordinates in the first point cloud and the second point cloud; and an output means for outputting the result of the detection.
- a change detection device comprising: (Appendix 14) when a comparison of a first feature amount of a first coordinate calculated using information on the presence of a point in a first region including a first coordinate in a first point cloud with a second feature amount of a second coordinate corresponding to the first coordinate calculated using information on the presence of a point in a second region including a second coordinate in a second point cloud; a second comparison means for comparing a third feature amount of the first coordinate calculated using information on the presence of a point in a third region including the first coordinate and larger than the first region with a fourth feature amount of the second coordinate calculated using information on the presence of a point in a fourth region including the second coordinate and larger than the second region; a determination means for determining whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates, using a comparison result between the first feature amount and the second feature amount and a comparison result between the third feature amount and the fourth feature amount;
- a change detection device comprising: (Append
- the second comparison means performs a comparison between the third feature amount and the fourth feature amount by using a comparison result between at least one of the first coordinates and the second coordinate corresponding to the at least one first coordinate among comparison results between the first feature amount related to the plurality of first coordinates in the first point cloud and the second feature amount related to the plurality of second coordinates in the second point cloud.
- the second comparison means When a comparison result between the first feature amount related to the at least one first coordinate and the second feature amount related to the at least one second coordinate indicates that a change in the presence or absence of a point has occurred between the at least one first coordinate and the at least one second coordinate, the second comparison means indicates that a change in the presence or absence of a point has not occurred between the at least one first coordinate and the at least one second coordinate, and compared to a case in which information indicating the presence or absence of a point is considered to be the same in the at least one first coordinate and the at least one second coordinate, the second comparison means reduces a weighting for indicating that a comparison result between the third feature amount and the fourth feature amount indicates that a change in the presence or absence of a point has not occurred between the first coordinate and the second coordinate; 16.
- the change detection apparatus of claim 15. (Appendix 17)
- the information regarding the presence of a point in the first region is information indicating that a point exists in the first region, that a point does not exist, or that the presence of a point is unknown
- the information regarding the presence of a point in the third region is information indicating that a point exists in the third region, that a point does not exist, or that the presence of a point is unknown. 17.
- a change detection device according to any one of appendix 13 to 16.
- Appendix 18 a detection means for detecting a change in the presence or absence of an object between the first point cloud and the second point cloud by using a result of a determination by the determination means as to whether or not a change in the presence or absence of a point has occurred between the first coordinates and the second coordinates for a plurality of corresponding coordinates in the first point cloud and the second point cloud; and an output means for outputting the result of the detection.
- a change detection device according to any one of claims 13 to 17.
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
本実施形態にかかる一態様の変化検出装置(10)は、第1の点群における第1の領域内における点の存在に関する情報を用いて計算された、第1の座標の第1の特徴量と、第2の点群における第2の領域内における点の存在に関する情報を用いて計算された、第1の座標と対応する第2の座標の第2の特徴量と、を比較する第1の比較部(11)と、第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、第1の座標の第3の特徴量と、第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、第2の座標の第4の特徴量と、を比較する第2の比較部(12)と、第1の特徴量及び第2の特徴量の比較結果と、第3の特徴量及び第4の特徴量の比較結果と、を用いて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定する判定部(13)とを備える。
Description
本開示は、変化検出方法、変化検出システム及び変化検出装置に関する。
環境に存在する物体の有無等を認識する技術の研究がなされている。
例えば、特許文献1には、予め作成した物体モデルを用いて、観測場面に含まれる対象物体を認識する物体認識方法が記載されている。特許文献1の物体認識システムは、観測された点群の距離画像の注目点を含む領域の特徴量である第1の特徴量と、物体モデルの点群の距離画像の領域の特徴量である第2の特徴量とのマッチング処理を行う。マッチング処理の結果を用いて、物体認識システムは、物体モデルに対して対象物体を認識する。
上記の通り、特許文献1の物体認識システムは、距離画像同士におけるある注目点を比較するときに、その注目点を含む領域の特徴量を用いる。このとき、注目点を含む領域の大きさが適切な値でない場合には、物体認識システムは、マッチング処理を正確に実行できない可能性がある。この場合、物体認識システムは、対象物体を正確に認識することができない可能性がある。
本開示の目的は、点群同士の変化を検出する精度を高めることが可能な変化検出方法、変化検出システム及び変化検出装置を提供することである。
本実施形態にかかる一態様の変化検出方法は、コンピュータが実行するものであって、第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較し、前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較し、前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定するものである。
本実施形態にかかる一態様の変化検出システムは、第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段とを備えるものである。
本実施形態にかかる一態様の変化検出装置は、第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段とを備えるものである。
本開示によれば、点群同士の変化を検出する精度を高めることが可能な変化検出方法、変化検出システム及び変化検出装置を提供することができる。
以下、図面を参照して、本開示の実施の形態について説明する。なお、実施の形態における以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、この開示では、明記のない限り、複数の項目について「その少なくともいずれか」が定義された場合、その定義は、任意の1つの項目を意味してもよいし、任意の複数の項目(全ての項目を含む)を意味してもよい。
実施の形態1
(1A)
以下、図面を参照して本開示の実施の形態1について説明する。この(1A)では、変化検出装置について説明する。
(1A)
以下、図面を参照して本開示の実施の形態1について説明する。この(1A)では、変化検出装置について説明する。
図1は、変化検出装置の一例を示すブロック図である。変化検出装置10は、第1の比較部11、第2の比較部12及び判定部13を備える。変化検出装置10の各部(各手段)は、不図示の制御部(コントローラ)により制御される。以下、各部について説明する。
[構成の説明]
第1の比較部11は、第1の点群における第1の座標の第1の特徴量と、第2の点群における第2の座標の第2の特徴量とを比較する。詳細には、第1の比較部11が比較対象とする第1の特徴量は、第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、第1の座標の第1の特徴量である。また、第1の比較部11が比較対象とする第2の特徴量は、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、第1の座標と対応する第2の座標の第2の特徴量である。
第1の比較部11は、第1の点群における第1の座標の第1の特徴量と、第2の点群における第2の座標の第2の特徴量とを比較する。詳細には、第1の比較部11が比較対象とする第1の特徴量は、第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、第1の座標の第1の特徴量である。また、第1の比較部11が比較対象とする第2の特徴量は、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、第1の座標と対応する第2の座標の第2の特徴量である。
第1の点群は、所定の領域内において、領域の各座標における点の有無を示す第1のデータである。第1の点群は、例えば3次元空間における物体の形を表したものであり、その一例として、センサを用いて取得された、所定の場所にある物体が視覚化されたデータが挙げられる。用いられるセンサは、例えば測域センサであってもよいし、カメラ等の撮像素子であってもよい。測域センサを用いた場合、第1の点群は、所定の場所にある物体が計測され、視覚化されたマッピングデータとなる。測域センサの具体例として、光検出及び測距を用いたLiDAR(Light Detection And Ranging)が挙げられる。LiDARは、3DLiDAR、2DLiDARのどちらも用いることが可能である。3DLiDARを用いた場合の例については実施の形態2で後述する。また、カメラを用いた場合、第1の点群は、所定の場所が撮影された2次元の画像に基づいて生成されたマッピングデータとなる。
なお、上述の計測又は撮影は、実際になされたものであってもよいし、コンピュータで仮想的になされたものであってもよい。ただし、第1の点群を取得する方法は、以上に示したものには限られない。第1の点群データは、変化検出装置10の外部にある装置が生成してもよいし、変化検出装置10が生成してもよい。
第2の座標が含まれる第2の点群は、所定の領域内において、領域の各座標における点の有無を示す第2のデータであり、その例は第1の点群と同様である。第2の点群データは、変化検出装置10の外部にある装置が生成してもよいし、変化検出装置10が生成してもよい。
第1の点群と、第2の点群とは、比較対象となる点群であり、例えば同じ場所が計測されたマッピングデータである。また、第1の座標と、第2の座標は比較対象となっており、例えば、第1の座標と第2の座標とは同じ位置を示すものであってもよいが、第1の座標と第2の座標との関係はこれに限らない。
第1の特徴量は、変化検出装置10が計算してもよいし、変化検出装置10とは異なる装置が計算したものを第1の比較部11が取得してもよい。例えば、変化検出装置10とは異なる装置である計算装置が第1の特徴量を計算する場合、計算装置は第1の特徴量を次のように計算してもよい。計算装置は、第1の点群に関して、複数の第1の小領域から構成され、第1の座標を含む第1の領域を定義する。そして、計算装置は、各第1の小領域における点の存在に関する情報を用いて、第1の特徴量を計算する。
点の存在に関する情報は、計算装置が、取得した第1の点群を解析することで生成してもよいし、計算装置が外部から取得した情報に含まれていてもよい。点の存在に関する情報は、例えば、各第1の小領域において点が存在するか存在しないかのいずれかを示す情報であってもよい。別の例として、点の存在に関する情報は、各第1の小領域において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であってもよい。
ここで、「点の存在が不明」とは、第1の点群における第1の小領域では点の有り又は無しが定義されているものの、実際には点が存在しているかどうかが不明と考えられることを示す。計算装置が計算した第1の小領域に関する特徴量は、例えば、点が存在する場合、点が存在しない場合、点の存在が不明である場合のそれぞれの場合で、異なる値であってもよい。
点が存在する、点が存在しない、又は点の存在が不明であることは、例えば以下のようにして定義される。
一例では、第1の点群が、測域センサを用いた計測の結果取得されたマッピングデータであるとする。第1の小領域において点が有る場合、その第1の小領域には、点が存在すると定義される。一方、第1の小領域において点が無い場合、その第1の小領域が、計測時における第1の点群において点が存在する位置と、測域センサの位置との間に位置するか否かが判定される。第1の小領域が、計測時における第1の点群において点が存在する位置と、測域センサの位置との間に位置する場合、第1の小領域に点が存在しないと定義される。一方、第1の点群において点が存在する位置と、測域センサの位置との間に第1の小領域が位置しない場合、第1の小領域において点の存在が不明であると定義される。
この定義は、測域センサがマッピングデータを取得する場合、マッピングデータに写っている物体から測域センサに光が入射されるはずであり、物体と測域センサとの間には何の物体も存在しないはずであるという仮定に基づいている。この定義付けには、レイトレーシングの技術を適用することが可能である。これは、例えば第1の点群の点の密度が、第2の点群の点の密度よりも疎である場合に、検出の精度を高めるために、特に有効な定義である。第1の点群の点の密度が疎である場合に、第1の点群において点が無い箇所は、現実に点が存在しない場合だけでなく、計測において物体が存在したにもかかわらずデータとして記録されないような場合が考えられる。この場合には、現実に点が存在しないことが確定できないようなときに、点が無い箇所を、点の存在が不明であると定義することが好ましい。
また、以下のような別の例も考えられる。まず、第1の小領域内に存在する点の数をNとする。また、上記のレイトレーシングの手法で示した通り、第1の点群内に存在するあらゆる点から測域センサに対して光が入射する状況を仮定したときに、光がその第1の小領域を通過する回数をMとする。このとき、N-M及びN+Mの値に応じて、点の有無、不明を定義することができる。
具体的には、N+Mの値が閾値Th1(Th1は0以上の整数)未満である場合、第1の小領域において点の存在が不明であると定義される。これは、第1の点群において、第1の小領域内に存在する点の数自体が少なく、また、第1の点群内に存在する他の点からの光がその第1の小領域を通過する場合の数も少ないため、第1の小領域において点が存在するか否かが判定しにくいためである。一方、N+Mの値が閾値Th1以上である場合、N-Mの値が閾値Th2(Th2は整数であり、一例としては0であるが、これに限られない)以上であるか否かに応じて、第1の小領域における点が存在の有無が定義される。N-Mの値が閾値Th2以上である場合、第1の小領域には、点が存在する確率が高いと考えられるため、点が存在すると定義される。一方、N-Mの値が閾値未満である(例えば負の値である)場合、第1の小領域には、点が存在しない確率が高いと考えられるため、点が存在しないと定義される。
図2は、第1の特徴量の計算例を説明するための図である。図2では、第1の点群がG1、第1の座標がFC、FCを含む第1の領域がR1として示されている。領域R1は、第1の特徴量の計算対象である第1の領域である。領域R1は、複数の小領域SR1に分割されることができる。また、図2では、点群G1において点があることが黒丸で、点がないことが白丸で、それぞれ表記されている。なお、図2には示されていないが、点の存在が不明である小領域が領域R1内に存在してもよい。
図2の状態において、計算装置は、特徴量の計算対象となる座標FCについて、複数の小領域SR1から構成され、座標FCを含む領域R1を定義する。そして、計算装置は、領域R1の各小領域SR1における点の存在に関する情報を用いて、座標FCについての特徴量を計算する。
計算される第1の特徴量は、スカラー量で表されてもよいし、ベクトル量として表されてもよい。第1の特徴量がスカラー量として表される場合、第1の特徴量に対応する第2の特徴量(後述)もスカラー量で表される。そして、第1の比較部11の比較処理において、第1の特徴量と、それに対応する第2の特徴量とが比較される。
また、第1の特徴量がベクトル量として表される場合、対応する第2の特徴量もベクトル量で表される。そして、第1の比較部11の比較処理において、第1の特徴量における各要素と、その各要素に対応する第2の特徴量における各要素との比較がなされる。特徴量がベクトル量として表される具体例は、実施の形態2で詳細に説明する。
なお、図2では、1つの小領域SR1に対して、1つの点の有無の情報が対応付けられる例を示している。しかしながら、小領域SR1の大きさを大きくして、1つの小領域SR1に対して、複数の点の有無の情報が対応付けられていてもよい。領域R1が含む小領域SR1の個数や、領域R1及び小領域SR1の形状は任意である。例えば、第1の点群が3次元である場合は、領域R1は球体、立方体等の直方体、多面体等、内部領域と外部領域を区切る任意の立体であってもよい。第1の点群が2次元である場合は、領域R1は円、正方形等の直方形、多角形等、内部領域と外部領域を区切る任意の図形であってもよい。
計算装置ではなく、変化検出装置10が第1の特徴量を計算する場合であっても、変化検出装置10において同様の計算が可能であることは言うまでもない。
また、計算装置は、第2の特徴量を、例えば次のように計算する。計算装置は、第2の点群に関して、複数の第2の小領域から構成され、第2の座標を含む第2の領域を定義する。この第2の領域及び第2の小領域の定義については、第1の特徴量に関する第1の領域及び第1の小領域の定義と同様であり、図2の例で説明した通りである。計算装置は、第2の点群に関して、複数の第2の小領域から構成され、第2の座標を含む第2の領域を定義する。そして、計算装置は、各第2の小領域における点の存在に関する情報を用いて、第2の特徴量を計算する。
点の存在に関する情報は、例えば、各第2の小領域において点が存在するか存在しないかのいずれかを示す情報であってもよい。別の例として、点の存在に関する情報は、各第2の小領域において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であってもよい。点の存在に関する情報の詳細な定義については、第1の特徴量について説明した通りであるため、説明を省略する。以上に示した点の存在に関する情報は、計算装置が、取得した第2の点群を解析することで生成してもよいし、計算装置が外部から取得した情報に含まれていてもよい。その他の第2の特徴量の計算の詳細についても、第1の特徴量の計算と同様であるため、説明を省略する。
第1の比較部11は、第1の点群における第1の座標の第1の特徴量と、第2の点群における第2の座標の第2の特徴量を比較する。この比較結果は、判定部13において、第1の座標と第2の座標との間で点の有無の変化が生じたか否かの判定に用いられる。判定の詳細は後述する。
第1の比較部11は、例えば、四則演算等の任意の演算処理を用いて、第1の特徴量と第2の特徴量との比較結果を導出してもよい。例えば、第1の特徴量及び第2の特徴量がスカラー量である場合、第1の比較部11は、第1の特徴量及び第2の特徴量の差分を計算し、その差分が閾値以上であるか否かを比較結果として導出してもよい。差分が閾値以上である場合には、第1の座標と第2の座標との間で点の有無の変化が生じた可能性がある一方、差分が閾値未満である場合には、第1の座標と第2の座標との間で点の有無の変化が生じていない可能性がある。点の有無の変化が生じた場合とは、第1の座標と第2の座標の一方に点が存在し、他方に点が存在していない場合が該当する。一方、点の有無の変化が生じていない場合とは、第1の座標と第2の座標の両方に点が存在する場合か、又はいずれにも点が存在していない場合が該当する。
別の例として、第1の比較部11は、事前に定義されたルールベースに基づくアルゴリズムを用いて、第1の特徴量と第2の特徴量との比較結果を導出してもよい。
さらに別の例として、第1の特徴量及び第2の特徴量がベクトル量である場合、第1の比較部11は、各ベクトル量の対応する要素同士を比較してもよい。第1の比較部11は、全要素に関するその比較結果に基づいて、第1の特徴量と第2の特徴量との比較結果を導出することができる。
例えば、第1の比較部11は、第1の特徴量と第2の特徴量とで対応する要素同士を比較する際に、対応する要素が同じ値を取るか否か、又は対応する要素同士の差分値と閾値との大小関係について判定してもよい。第1の比較部11は、その判定に基づいて、全要素に関する比較結果として、第1の特徴量と第2の特徴量との類似度を、比較結果として導出してもよい。この類似度が所定の閾値以上である場合、第1の座標と第2の座標との間で点の有無の変化が生じていない可能性がある。一方、この類似度が所定の閾値未満である場合、第1の座標と第2の座標との間で点の有無の変化が生じた可能性がある。
さらに、第1の比較部11は、ニューラルネットワーク等、事前に学習がなされたAI(Artificial Intelligence)モデルを用いることで、比較結果を導出してもよい。この学習は、サンプルとなる第1の特徴量及び第2の特徴量の情報と、その情報に対応する比較結果の情報(正解ラベル)と、を含む教師データを、AIモデルに入力させることでなされる。比較結果の情報は、例えば、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを示す情報である。教師データを用いてAIモデルが学習された後、第1の比較部11は、第1の特徴量と、第2の特徴量とを、AIモデルに入力する。AIモデルは、この入力情報に基づいて、第1の特徴量と第2の特徴量との比較結果を示す情報を出力する。このようにしても、第1の比較部11は、判定処理を実行することができる。なお、学習モデルの学習には、ロジスティック回帰、ニューラルネットワークといった任意の技術を用いることができる。
図1に戻り、説明を続ける。第2の比較部12は、第1の点群における第1の座標の第3の特徴量と、第2の点群における第2の座標の第4の特徴量とを比較する。詳細には、第2の比較部12が比較対象とする第3の特徴量は、第1の点群における第1の座標を含む第3の領域内における点の存在に関する情報を用いて計算された、第1の座標の第3の特徴量である。また、第2の比較部12が比較対象とする第4の特徴量は、第2の点群における第2の座標を含む第4の領域内における点の存在に関する情報を用いて計算された、第1の座標と対応する第2の座標の第4の特徴量である。
ここで、第3の領域は第1の領域よりも大きい領域であり、第4の領域は第2の領域よりも大きい領域である。第3の領域は第1の領域よりも大きいとは、例えば、以下のような場合として定義されるが、これに限らない。
・第3の領域は第1の領域を包含するが、その逆は成立しない場合
・第1の点群が3次元空間における点群であれば、第3の領域が第1の点群内において占める体積が、第1の領域が第1の点群内において占める体積よりも大きい場合
・第1の点群が2次元空間における点群であれば、第3の領域が第1の点群内において占める面積が、第1の領域が第1の点群内において占める面積よりも大きい場合
第4の領域は第2の領域よりも大きいことについても、これと同様の定義が可能である。
・第3の領域は第1の領域を包含するが、その逆は成立しない場合
・第1の点群が3次元空間における点群であれば、第3の領域が第1の点群内において占める体積が、第1の領域が第1の点群内において占める体積よりも大きい場合
・第1の点群が2次元空間における点群であれば、第3の領域が第1の点群内において占める面積が、第1の領域が第1の点群内において占める面積よりも大きい場合
第4の領域は第2の領域よりも大きいことについても、これと同様の定義が可能である。
なお、第1の点群及び第2の点群、並びに第1の座標及び第2の座標の説明については、第1の比較部11において説明したものと同様であるため、説明を省略する。また、第3の特徴量及び第4の特徴量の計算方法についても、第1の特徴量及び第2の特徴量の計算方法と同様であるため、説明を省略する。
第2の比較部12は、第1の点群における第1の座標の第3の特徴量と、第2の点群における第2の座標の第4の特徴量を比較する。この比較結果は、判定部13において、第1の座標と第2の座標との間で点の有無の変化が生じたか否かの判定に用いられる。また、第2の比較部12は、第1の比較部11と同様の手法を用いて、第3の特徴量と第4の特徴量との比較結果を導出することができる。この手法については第1の比較部11について示した通りであるため、説明を省略する。
判定部13は、第1の特徴量及び第2の特徴量について第1の比較部11が比較した第1の比較結果と、第3の特徴量及び第4の特徴量について第2の比較部12が比較した第2の比較結果と、を用いる。これにより、判定部13は、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定することができる。
判定部13の判定方法は、第1の比較結果と第2の比較結果を用いた、四則演算等の任意の演算処理で実行されてもよいし、事前に定義されたルールベースに基づくアルゴリズムで実行されてもよい。
例えば、第1の比較結果において、第1の特徴量及び第2の特徴量の差分が閾値Th1以上であり、かつ、第2の比較結果において、第3の特徴量及び第4の特徴量の差分が閾値Th2以上である場合を仮定する。なお、閾値Th1と閾値Th2は同じ値でも異なる値でもよい。この場合、判定部13は、第1の座標と第2の座標との間で点の有無の変化が生じていると判定することができる。
また、第1の比較結果において、第1の特徴量及び第2の特徴量の差分が閾値Th1未満であり、第2の比較結果において、第3の特徴量及び第4の特徴量の差分が閾値Th2以上である場合を仮定する。この場合、第1の比較結果は、第1の座標と第2の座標との間で点の有無の変化が生じていないことを示す一方、第2の比較結果は、第1の座標と第2の座標との間で点の有無の変化が生じていることを示す。この場合、判定部13は、第1の座標と第2の座標との間で点の有無の変化が生じていると判定することができる。判定部13がこのような判定をする理由については、実施の形態2で後述する。
また、第1の比較結果において、第1の特徴量及び第2の特徴量の差分が閾値Th1未満であり、かつ、第2の比較結果において、第3の特徴量及び第4の特徴量の差分が閾値Th2未満である場合を仮定する。この場合、判定部13は、第1の座標と第2の座標との間で点の有無の変化が生じていないと判定することができる。
以上の例において、判定部13は、比較結果である特徴量の差分と閾値との関係に基づいて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定した。ただし、判定部13は、比較結果である類似度と閾値との関係に基づいて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定してもよい。
さらに、判定部13の判定方法は、ニューラルネットワーク等、事前に学習がなされたAIモデルを用いることで実行されてもよい。この学習は、サンプルとなる第1の比較部11の比較結果及び第2の比較部12の比較結果の情報と、その情報に対応する、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを示す情報(正解ラベル)と、を含む教師データを、AIモデルに入力させることでなされる。教師データを用いてAIモデルが学習された後、判定部13は、第1の比較結果と、第2の比較結果とを、AIモデルに入力する。AIモデルは、この入力情報に基づいて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを示す情報を出力する。このようにしても、判定部13は、判定処理を実行することができる。なお、学習モデルの学習には、ロジスティック回帰、ニューラルネットワークといった任意の技術を用いることができる。
[処理フローの説明]
図3は、変化検出装置10の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、変化検出装置10の処理の概要が説明される。なお、各処理の詳細については上述の通りであるため、説明を省略する。
図3は、変化検出装置10の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、変化検出装置10の処理の概要が説明される。なお、各処理の詳細については上述の通りであるため、説明を省略する。
まず、第1の比較部11は、第1の点群における第1の座標の第1の特徴量と、第2の点群における第2の座標の第2の特徴量と、を比較する(ステップS11;第1の比較ステップ)。第2の比較部12は、第1の点群における第1の座標の第3の特徴量と、第2の点群における第2の座標の第4の特徴量と、を比較する(ステップS12;第2の比較ステップ)。判定部13は、ステップS11の比較結果と、ステップS12の比較結果と、を用いて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定する(ステップS13;判定ステップ)。なお、ステップS11の処理とS12の処理とは、いずれの処理が先に実行されてもよいし、両方の処理が並列でなされてもよい。
[効果の説明]
以上に示したように、判定部13は、以下の2つの比較結果を用いて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定する。
・第1の領域内について計算された第1の座標の第1の特徴量と、第2の領域内について計算された第2の座標の第2の特徴量との比較結果
・第1の領域よりも大きい第3の領域内について計算された第1の座標の第3の特徴量と、第2の領域よりも大きい第4の領域内について計算された第2の座標の第4の特徴量との比較結果
以上に示したように、判定部13は、以下の2つの比較結果を用いて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定する。
・第1の領域内について計算された第1の座標の第1の特徴量と、第2の領域内について計算された第2の座標の第2の特徴量との比較結果
・第1の領域よりも大きい第3の領域内について計算された第1の座標の第3の特徴量と、第2の領域よりも大きい第4の領域内について計算された第2の座標の第4の特徴量との比較結果
点の有無の変化が生じたか否かを判定するために用いる特徴量を算出するために、小さい領域又は大きい領域のいずれかのみを設定した場合、以下のような問題点がある。変化検出装置10が、第1の座標及び第2の座標に係る特徴量を算出するための領域として、適切な領域の大きさよりも小さい領域を設定する場合が考えられる。この場合、第1の座標と第2の座標との間で、本来点の有無の変化があると判定されるべき状況でも、変化検出装置10は、点の有無の変化がないと誤って判定する可能性がある。
一方、変化検出装置10が、第1の座標及び第2の座標に係る特徴量を算出するための領域として、適切な領域の大きさよりも大きい領域を設定する場合が考えられる。この場合、注目する座標から大きく離間した領域の特徴量も比較において考慮されてしまう。そのため、第1の座標と第2の座標との間で、本来点の有無の変化がないと判定されるべき状況でも、変化検出装置10は、点の有無の変化があると誤って判定する可能性がある。このように、特徴量の計算対象となる領域が大きい場合、又は小さい場合のいずれであっても、変化検出装置10は、点の有無の変化を誤って判定してしまう可能性がある。
しかしながら、上記の通り、変化検出装置10は、第1の座標及び第2の座標に係る特徴量を算出するために、小さい領域と大きい領域の両方を設定する。そして、判定部13は、小さい領域と大きい領域に関する2つの比較結果を用いて、第1の座標と第2の座標との間で点の有無の変化が生じたか否かを判定する。このように、複数の異なる領域についての2つの比較結果を用いることで、変化検出装置10は、第1の座標と第2の座標における点の相違の有無を誤って判定することを抑制することができる。そのため、変化検出装置10は、点群同士の変化を検出する精度を高めることができる。
なお、判定部13は、第1の点群と第2の点群とにおいて対応する座標同士の複数のセットについて、上記の判定を実行して、点群の所定の領域全体について点の有無の変化を検出してもよい。例えば、判定部13は、第1の点群の全座標又は第2の点群の全座標について、上述の判定を実行してもよい。これにより、第1の点群又は第2の点群の全体における点の有無の変化を検出することが可能となる。そのため、例えば第1の点群及び第2の点群が、同じ場所を計測した点群のデータである場合、変化検出装置10は、2つの点群において変化した箇所を特定することが可能となる。変化した箇所は、例えば2つの点群のうち一方の点群において存在していた物体が、他方の点群において存在しなくなった箇所である。
また、第1の特徴量及び第3の特徴量の計算では、小領域における点の存在に関する情報として、その小領域において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報が用いられてもよい。第1の座標に係る特徴量に代えて、又はそれに加えて、第2の特徴量及び第4の特徴量の計算においても、小領域における点の存在に関する情報として、点の存在の有無だけでなく、点の存在が不明であることを示す情報がさらに用いられてもよい。これにより、第1の点群又は第2の点群の少なくともいずれかにおいて点の存在が不明となるような状態を変化の検出に反映することができるため、変化検出装置10における変化検出精度をさらに高めることが可能となる。
変化検出装置10は、判定部13の上記の判定結果に基づいて、第1の点群と第2の点群との間で物体の有無の変化があったことを検知する検知部をさらに有してもよい。具体的な検知方法については、実施の形態2で後述する。
また、変化検出装置10は、判定部13の判定結果を変化検出装置10の内部又は外部に出力する出力部をさらに有してもよい。例えば、出力部は、判定部13が点の有無の変化が生じたと判定した箇所を視覚的に強調するようにして、判定結果のデータを画像、点群等の視認可能な形式で、変化検出装置10の外部(例えばモニタ)に出力することができる。この処理は、判定部13が点の有無の変化が生じたと判定した全ての箇所に実行されてもよく、これにより、2つの点群において物体の有無が変化した箇所をユーザに提示することができる。なお、「視覚的に強調」の例として、以下が挙げられるが、強調処理の例はこれに限らない。
・点の有無の変化が生じた箇所(又は、物体の有無が変化した箇所)を枠で囲む
・点の有無の変化が生じた箇所の外形を、他の物体の外形の色と異なる色(例えば赤い色)で表示する
・点の有無の変化が生じた箇所を点滅させる
・点の有無の変化が生じた箇所を塗りつぶして影のように表示する
・点の有無の変化が生じた箇所(又は、物体の有無が変化した箇所)を枠で囲む
・点の有無の変化が生じた箇所の外形を、他の物体の外形の色と異なる色(例えば赤い色)で表示する
・点の有無の変化が生じた箇所を点滅させる
・点の有無の変化が生じた箇所を塗りつぶして影のように表示する
また、出力部は、判定部13の判定結果を、スピーカを介して音声等を用いて出力してもよい。このようにして、出力部は、画像や音声を用いてアラートを出力することができる。また、出力部は、判定部13の判定結果を他の装置に出力してもよい。さらに、出力部は、第1の点群と第2の点群との間で物体の有無の変化を検知した検知結果を、上記に示したように出力してもよい。
(1B)
次に、(1B)では、変化検出システムについて説明する。図4は、変化検出システムの一例を示すブロック図である。変化検出システム20は、比較装置21及び判定装置22を備える。比較装置21は、第1の比較部11及び第2の比較部12を有し、判定装置22は、判定部13及び出力部14を有する。この第1の比較部11、第2の比較部12及び判定部13は、(1A)に示したものと同じ処理を実行する。比較装置21が、第1の特徴量及び第2の特徴量の第1の比較結果と、第3の特徴量及び第4の特徴量の第2の比較結果と、を生成した場合、生成された比較結果の情報は判定装置22に出力される。判定装置22の判定部13は、第1及び第2の比較結果の情報を用いて、(1A)に示した処理を実行する。なお、判定装置22の出力部14は、(1A)において説明した出力部であり、判定部13の判定結果を判定装置22の内部又は外部に出力するものである。
次に、(1B)では、変化検出システムについて説明する。図4は、変化検出システムの一例を示すブロック図である。変化検出システム20は、比較装置21及び判定装置22を備える。比較装置21は、第1の比較部11及び第2の比較部12を有し、判定装置22は、判定部13及び出力部14を有する。この第1の比較部11、第2の比較部12及び判定部13は、(1A)に示したものと同じ処理を実行する。比較装置21が、第1の特徴量及び第2の特徴量の第1の比較結果と、第3の特徴量及び第4の特徴量の第2の比較結果と、を生成した場合、生成された比較結果の情報は判定装置22に出力される。判定装置22の判定部13は、第1及び第2の比較結果の情報を用いて、(1A)に示した処理を実行する。なお、判定装置22の出力部14は、(1A)において説明した出力部であり、判定部13の判定結果を判定装置22の内部又は外部に出力するものである。
以上に示したように、本開示に関する変化検出処理は、(1A)に示したように、単一の装置を用いて実現されてもよいし、(1B)に示したように、実行される処理が複数の装置に分散されたシステムとして実現されてもよい。なお、(1B)に示した装置構成はあくまで例示である。他の例として、変化検出システム20が第1の装置と第2の装置を備え、第1の装置が第1の比較部11を有し、第2の装置が第2の比較部12及び判定部13を有してもよい。第1の装置は、第1の特徴量又は第2の特徴量の少なくともいずれかを取得する取得部、又は、第1の特徴量又は第2の特徴量の少なくともいずれかを計算する計算部を有していてもよい。第2の装置も、第3の特徴量又は第4の特徴量の少なくともいずれかを取得する取得部、又は、第3の特徴量又は第4の特徴量の少なくともいずれかを計算する計算部を有していてもよい。さらに別の例として、変化検出システム20内に、異なる装置が3個設けられ、各装置がそれぞれ第1の比較部11、第2の比較部12、判定部13を有してもよい。
なお、変化検出システム20は、その一部又は全部が、クラウド上に構築されたクラウドサーバに設けられてもよいし、仮想化技術等を用いて生成されたその他の種類の仮想化サーバに設けられてもよい。このようなサーバに設けられた機能以外の機能は、エッジに配置される。例えば、ネットワークを介して現場で撮影された映像を監視するシステムにおいて、エッジは現場や現場の近くに配置された装置であり、また、ネットワークの階層として端末に近い装置である。
実施の形態2
以下の実施の形態2では、実施の形態1にて説明した変化検出手法の具体例を開示する。ただし、実施の形態1に示した変化検出手法の具体例は、以下に示したものに限られない。また、以下で説明される構成及び処理は例示であり、これに限定されるものではない。
以下の実施の形態2では、実施の形態1にて説明した変化検出手法の具体例を開示する。ただし、実施の形態1に示した変化検出手法の具体例は、以下に示したものに限られない。また、以下で説明される構成及び処理は例示であり、これに限定されるものではない。
(2A)
[構成の説明]
図5は、監視システムの一例を示すブロック図である。監視システム100は、複数のロボット101A、101B及び101C(以下、総称してロボット101と記載)、基地局110、センターサーバ120並びに参照点群DB200を備える。図5の例において、ロボット101は監視システム100のエッジ側(現場側)に設けられ、センターサーバ120は、現場から離れた位置(クラウド側)に配置されている。以下、各装置について説明する。
[構成の説明]
図5は、監視システムの一例を示すブロック図である。監視システム100は、複数のロボット101A、101B及び101C(以下、総称してロボット101と記載)、基地局110、センターサーバ120並びに参照点群DB200を備える。図5の例において、ロボット101は監視システム100のエッジ側(現場側)に設けられ、センターサーバ120は、現場から離れた位置(クラウド側)に配置されている。以下、各装置について説明する。
ロボット101は、インフラ設備の故障又は異常に関する点検をするために、監視対象となる現場を移動しながら所定の場所を計測する端末として機能する。換言すれば、ロボット101は、ネットワークに接続されたエッジデバイスであって、LiDAR102を有し、任意の場所を計測することができる。ロボット101は、計測した点群のデータを、基地局110を介してセンターサーバ120に送信する。ロボット101は、この例では、無線回線を用いて点群のデータを送信する。ただし、点群のデータは、有線回線を用いて送信されてもよい。また、ロボット101は、LiDAR102が計測することで取得した点群のデータをそのままセンターサーバ120に送信してもよいし、取得した点群のデータに適宜前処理を行ってセンターサーバ120に送信してもよい。
さらに、ロボット101は、計測位置を示す情報を、その位置で取得した点群のデータと併せてセンターサーバ120に送信してもよい。ロボット101は、例えばAMCL(Adaptive Monte Carlo Localization)又はSLAM(Simultaneous Localization and Mapping)等の機能を有しており、それらの機能を用いて自己の位置を推定し、その情報をセンターサーバ120に送信する。別の例として、ロボット101は、GPS(Global Positioning System)等の衛星測位システム機能を用いて計測位置を示す情報を取得し、その情報をセンターサーバ120に送信してもよい。さらに別の例として、ロボット101の移動ルート及び計測地点が予め決定され、ロボット101及びセンターサーバ120がその情報を事前に共有することで、センターサーバ120がロボット101の位置を把握していてもよい。
ロボット101は、例えばセンターサーバ120の制御に基づいて走行するAGV(Automatic Guided Vehicle)、自律的な移動が可能なAMR(Autonomous Mobile Robot)、ドローン等であってもよいが、これに限られない。
基地局110は、ネットワークを介して各ロボット101から送信された点群をセンターサーバ120に転送する。例えば、基地局110は、ローカル5G(5th Generation)の基地局、5GのgNB(next Generation Node B)、LTEのeNB(evolved Node B)、無線LANのアクセスポイント等であるが、その他の中継装置でもよい。ネットワークは、例えば、5GC(5th Generation Core network)やEPC(Evolved Packet Core)などのコアネットワーク、インターネット等である。
なお、基地局110には、センターサーバ120以外のサーバが接続されていてもよい。例えば、基地局110にMEC(Multi-access Edge Computing)サーバが接続されていてもよい。MECサーバは、例えば、各ロボット101が基地局110に送信するデータのビットレートを割り当て、その情報を各ロボット101に送信することで、各ロボット101が送信するデータのビットレートを制御することができる。また、MECサーバが各ロボット101のビットレートの情報をセンターサーバ120に送信することで、センターサーバ120はビットレートの情報を把握することができる。
図6は、センターサーバ120の一例を示すブロック図である。センターサーバ120は、参照点群取得部121、入力点群取得部122、参照特徴量計算部123、入力特徴量計算部124、第1の比較部125、第2の比較部126、変化検出部127及び検出結果生成部128を備える。センターサーバ120は、ロボット101が計測して取得した点群のデータ毎に、参照データと比較して、変化を検出し、比較結果を生成することができる。以下、センターサーバ120の各部について説明する。
参照点群取得部121は、ロボット101が計測で取得した点群と比較するための参照点群を取得する。参照点群は、ロボット101が計測した場所を従前に計測して取得した点群であり、参照点群DB200に格納されている。参照点群は、3次元空間における物体の形を表したデータである。従前とは、参照点群取得部121が参照点群を取得する以前の情報であればよく、例えば、ロボット101が稼働する前(ロボット101が稼働する倉庫等の始業前、ロボット101の電源が入る前等)に計測されたものであってもよいし、所定の時間(倉庫等の休憩時間、定期的な更新時間等)に更新された情報であってもよい。
例えば、センターサーバ120は、ロボット101が送信した点群のデータ(以下、入力点群とも記載)を後述の入力点群取得部122が取得した場合に、その入力点群の計測位置の情報を併せて取得する。また、参照点群DB200には、参照点群と、その参照点群が計測された位置情報とが関連付けて格納されている。参照点群取得部121は、入力点群の計測位置の情報と、参照点群DB200に格納された計測位置情報とを比較する。比較した結果、参照点群DB200に格納された計測位置情報で一致するものがあった場合に、参照点群取得部121は、一致した計測位置情報と関連付けられた参照点群を取得する。このようにして参照点群取得部121は、参照点群DB200を検索して、ロボット101が計測して取得した点群と比較対象となる参照点群のデータを取得する。
なお、参照点群DB200には、従前に計測して取得したデータが点群としてではなく、画像として格納されていてもよい。この場合、参照点群取得部121は、上述の参照点群DB200に対する検索の結果一致した計測位置情報を特定した場合に、一致した計測位置情報と関連付けられた画像を取得する。参照点群取得部121は、その画像のデータ形式を点群に変換して、参照点群を取得することができる。
入力点群取得部122は、センターサーバ120の通信部を介して、ロボット101が計測で取得した入力点群を取得する。これにより、入力点群取得部122は、リアルタイムで計測がなされた点群のデータを取得することができる。ただし、ロボット101が画像を撮影し、その画像データをセンターサーバ120に送信した場合、入力点群取得部122は、その画像のデータ形式を点群に変換して、入力点群を取得することができる。入力点群は、参照点群と同様、3次元空間における物体の形を表したデータである。しかしながら、入力点群と参照点群とでは、後述の相違点が存在する。
以上に示すようにして取得した参照点群及び入力点群を用いて、リアルタイムでの点群の比較処理を実行する場合、以下に示す2つの課題が想定される。第1の課題は、参照点群及び入力点群における点の密度が異なる場合があるということであり、第2の課題は、ロボット101の計測位置が、参照点群の計測位置とずれることがあるということである。以下、各課題について説明する。
(1)図7A及び7Bは、参照点群及び入力点群の一例を示す。図7Aにおける参照点群は、ロボット101が入力点群に係る計測を実行する前に、センサを用いて計測された3Dデータである。入力点群に係る計測を実行する前とは、ロボットが現場に配置された時であってもよいし、ロボットを現場で稼働する前の現場確認時であってもよいし、稼働日の朝のような業務開始前であってもよい。また、図7Bは、ロボット101が計測を実行して取得した3Dデータである。図7A及び図7Bは、倉庫の中を計測したデータであり、倉庫の中にあるラックLが点群として写っている。また、図7Bでは、図7AにはないオブジェクトOBが点群として写っている。
図7A及び7Bを比較すると、参照点群T1の方が点の密度が密であるのに対し、入力点群T2の方が点の密度が疎である。これは、入力点群T2が、リアルタイムで計測されたデータであり、そのデータ量が少なくなるためである。換言すれば、入力点群T2では、参照点群T1と比較すると、物体が存在し、本来点があるべき座標において、点の情報が記録されないことがある。また、参照点群T1及び入力点群T2の計測環境に応じても、参照点群T1と入力点群T2とにおいて、点の密度は変化することがある。このように、実際の使用において、参照点群及び入力点群のそれぞれの点の密度が大きく異なることが想定される。この2つの点群を直接比較すると、2つの点群における変化の正確な検出が困難になる可能性がある。そのため、入力点群が参照点群と比較して、点群の密度の変化に伴い、正確な情報を示していない場合であっても、点群同士の変化を検出する精度を高めるようにできることが好ましい。
(2)図8Aは、参照点群を計測で取得する状況の一例を示し、図8Bは、入力点群を計測で取得する状況の一例を示す。図8Aでは、工場設備がある場所I1を、専用センサSを用いて計測している。この専用センサSは、LiDARを用いることで、点群を取得する。このとき、専用センサSの計測範囲はG11で示される。G11の範囲内には、ガスタンクT1及びT2が含まれる。一方、図8Bでは、同じ場所I1を、ロボット101のLiDAR102を用いて計測している。このとき、専用センサSの計測範囲はG12で示される。G12の範囲内には、ガスタンクT1及びT2のほか、図8Aではなかった物体L1が含まれる。このような状況では、参照点群及び入力点群を比較することで、この物体L1を変化として検出し、他の物体については変化として検出しないようにすることが好ましい。換言すれば、入力点群が参照点群と比較して、計測範囲の変化に伴い、正確な情報を示していない場合であっても、点群同士の変化を検出する精度を高めるようにできることが好ましい。
図8Bにおいて、ロボット101は計測時に、ロボット101の推定された位置が専用センサSの計測位置と同じ位置となるように制御される。したがって、理想的には、G11とG12は同じ範囲となる。しかしながら、ロボット101の自己の位置推定は、ロボット101がおかれた環境に応じて、その誤差が大きくなることがある。また、センターサーバ120が制御処理を実行してもロボット101の位置が修正できないような場合にも、その誤差が大きくなることがある。このような場合、図8Bに示すように、G11とG12にズレが生じる。このズレは、計測位置自体のズレ(以下、並進方向のズレとも記載)と、計測方向自体のズレ(以下、回転方向のズレとも記載)の2種類のものがある。
図8Cは、参照点群と入力点群の理想的な比較結果を示し、図8Dは、参照点群と入力点群の実際の比較結果を示す。G11とG12が同じ範囲となる場合、参照点群と入力点群とを比較することで、図8Cに示したように、参照点群と入力点群との変化として物体L1のみが検出され、他の物体は検出されない。しかしながら、実際には、上述の通り、G11とG12にズレが生じる。したがって、図8Dに示したように、参照点群と入力点群との変化として、物体L1だけでなく、ガスタンクT1及びT2も検出されてしまうことがある。このように、計測範囲のズレが生じることで、変化検出精度が悪化してしまう可能性があった。
実施の形態2で提案する変化検出手法では、以下に示す処理が実行されることで、このような課題を解決することを可能とする。
図6に戻り、説明を続ける。参照特徴量計算部123は、参照点群における各座標の特徴量を計算する。この特徴量は、計算対象となる座標及びその周辺の座標における点の有無の情報(すなわち、点の存在に関する情報)がベクトル化されて表されるものであり、以降、空間特徴量とも記載する。参照特徴量計算部123の空間特徴量の計算方法の詳細について、以下で記載する。
図9Aは、参照点群の計算対象となる座標を中心とした極座標系を示す図である。計算対象となる座標F1を中心Oに配置した場合に、中心Oからの距離r及び角度(θ、φ)をパラメータとして用いることで、座標F1を含む所定の領域に含まれる座標を特定することが可能となる。座標F1は、実施の形態1における第1の座標に対応し、座標F1を含む所定の領域は、実施の形態1における第1の領域又は第3の領域に対応する。
この例では、参照特徴量計算部123は、参照点群において、座標F1を中心とした半径εの球体領域S1における点群のデータを取得する。そして、球体領域S1における各座標における、図9Aで示した極座標系におけるパラメータ(r、θ、φ)を計算して求める。
参照特徴量計算部123は、球体領域S1を複数の小領域SR1(例えば、実施の形態1における第1の小領域)に分割し、その小領域SR1内に各座標が含まれるように設定する。ここで、各々の小領域SR1における距離rと角度(θ、φ)が離散化された値となるように、球体領域S1は分割される。この例では、角度θは2α(rad)で分割され、角度φはα(rad)で分割され、距離rはdで分割される。なお、2αはπ以下の値であり、dはε/2以下の値である。このとき、球体領域S1は、
図9Bは、参照点群の座標について計算された空間特徴量の一例である。図9Bには、座標F1が中心Oである球体領域S1において、小領域SR1において点があることが黒丸で、点がないことが白丸でそれぞれ表記されている。また、図9Bには、以降の空間特徴量の計算を説明する際に例示する、球体領域S1上の座標H1が示される。
さらに、参照特徴量計算部123は、参照点群における座標F1の近傍領域δ1を設定する。近傍領域δ1は、座標F1以外の座標を少なくとも1つ含む領域であり、例えば、座標F1を中心とする極座標系において半径λ1の領域として設定されるが、近傍領域δ1の設定はこれに限られない。そして、参照特徴量計算部123は、近傍領域δ1に含まれる座標F1以外の各座標についても、上記で示した座標F1における空間特徴量の算出と同様に、空間特徴量を算出する。つまり、参照特徴量計算部123は、近傍領域δ1に含まれる座標F1以外の各座標について、球体領域S1及び小領域SR1と同様の手法で、複数の小領域から構成され、座標を含む球体領域を定義する。そして、各小領域における点の存在の有無の情報を用いることで、空間特徴量を計算する。
ここで、参照特徴量計算部123は、εがε1の場合の座標F1の空間特徴量を算出し、かつ、εがε2(ε2>ε1)の場合の座標F1の空間特徴量を算出する。εがε2の場合は、εがε1の場合に比較して、球体領域S1の体積が大きくなり、複数の小領域SR1の数も増加する。つまり、εがε2の場合には、εがε1の場合に比較すると、参照特徴量計算部123は、座標F1周辺のより広域の点の有無に関する情報を用いて、空間特徴量を算出していることになる。以降、εがε1の場合の球体領域S1を球体領域S11とし、εがε2の場合の球体領域S1を球体領域S12とする。また、εがε1の場合の球体領域S1は、実施の形態1における第1の領域に対応し、εがε2の場合の球体領域S1は、実施の形態1における第3の領域に対応する。
また、参照特徴量計算部123は、εがε1の場合と、εがε2の場合の両方において、上記の通り、近傍領域δ1に含まれる座標F1以外の各座標について、複数の小領域から構成され、座標を含む球体領域を定義する。そして、各小領域における点の存在の有無の情報を用いることで、空間特徴量を計算する。なお、参照特徴量計算部123は、εがε1の場合と、εがε2の場合とで、近傍領域δ1の半径λ1の値を変更してもよいし、共通の半径λ1の値を用いてもよい。例えば、参照特徴量計算部123は、εがε2の場合に、近傍領域δ1の半径λ1を、εがε1の場合と比較してε2/ε1倍に変更してもよい。ただし、参照特徴量計算部123が半径λ1を変更する方法は、これに限らない。
次に、入力特徴量計算部124の計算方法について説明する。入力特徴量計算部124は、入力点群における各座標の空間特徴量を計算する。この空間特徴量は、計算対象となる座標及びその周辺の座標において、点が存在する、点が存在しない、又は点の存在が不明であることを示す情報(すなわち、点の存在に関する情報)がベクトル化されて表されるものである。
入力特徴量計算部124は、入力点群において計算対象となる座標F2を中心Oに配置した場合に、中心Oからの距離r及び角度(θ、φ)をパラメータとして用いることで、座標F2を含む所定の領域に含まれる座標を特定する。座標F2は、実施の形態1における第2の座標に対応し、座標F2を含む所定の領域は、実施の形態1における第2の領域又は第4の領域に対応する。座標F2は、座標F1と空間特徴量を比較する対象となる座標であり、ここでは、参照点群と入力点群において同じ座標を示す。
入力特徴量計算部124は、入力点群において、座標F2を中心とした半径εの球体領域S2における点群のデータを取得する。球体領域S2の大きさは、球体領域S1と同じである。そして、球体領域における各座標における、図9Aで示した極座標系におけるパラメータ(r、θ、φ)を計算して求める。
入力特徴量計算部124は、球体領域S2を複数の小領域SR2(例えば、実施の形態1における第2の小領域)に分割し、その小領域SR2内に各座標が含まれるように設定する。球体領域S1は、球体領域S2と同じように分割される。すなわち、角度θは2α(rad)で分割され、角度φはα(rad)で分割され、距離rはdで分割される。なお、2αはπ以下の値であり、dはε/2以下の値である。そのため、球体領域S2は、
ここで、入力特徴量計算部124は、各小領域SR2において点が存在する、点が存在しない、又は点の存在が不明であることを示す情報を次のようにして決定する。入力特徴量計算部124は、小領域SR2において点が有る場合、その小領域SR2には、点が存在すると定義する。一方、小領域SR2において点が無い場合、入力特徴量計算部124は、その小領域SR2が、計測時における入力点群において点が存在する位置と、LiDAR102の位置との間に位置するか否かを判定する。小領域SR2が、計測時における入力点群において点が存在する位置と、LiDAR102の位置との間に位置する場合、入力特徴量計算部124は、小領域SR2内に点が存在しないと定義する。一方、計測時における入力点群において点が存在する位置と、LiDAR102の位置との間に小領域SR2が位置しない場合、入力特徴量計算部124は、小領域SR2において点の存在が不明であると定義する。定義には、このようなレイトレーシングの技術が適用できる。
上述の通り、入力点群の点の密度は、参照点群の点の密度よりも疎である。そのため、参照点群で写っていた物体が、入力点群において正確に写らなくなり、物体の一部の点が入力点群に記録されないような場合が考えられる。したがって、現実に点が存在しないことが確定できないようなときに、点が内部に無い小領域SR2について、点の存在が不明であると定義することが好ましい。
図9Cは、入力点群の座標について計算された空間特徴量の一例である。図9Cには、座標F2が中心Oである球体領域S2において、小領域SR2において点があることが黒丸、点がないことが白丸、点の存在が不明であることが三角でそれぞれ表記されている。また、図9Cには、以降の空間特徴量の計算を説明する際に例示する、球体領域S2上の座標H2が示される。なお、座標H1と座標H2は、参照点群と入力点群において同じ座標を示す。
さらに、入力特徴量計算部124は、入力点群における座標F2の近傍領域δ2を設定する。近傍領域δ2は、座標F2以外の座標を少なくとも1つ含む領域であり、例えば、座標F2を中心とする極座標系において半径λ2の領域として設定されるが、近傍領域δ2の設定はこれに限られない。そして、入力特徴量計算部124は、近傍領域δ2に含まれる座標F2以外の各座標についても、上記で示した座標F2における空間特徴量の算出と同様に、空間特徴量を算出する。つまり、入力特徴量計算部124は、近傍領域δ2に含まれる座標F2以外の各座標について、球体領域S2及び小領域SR2と同様の手法で、複数の小領域から構成され、座標を含む球体領域を定義する。そして、各小領域において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報を用いることで、空間特徴量を計算する。
なお、入力点群における近傍領域δ2の大きさは、参照点群における近傍領域δ1の大きさと同じであってもよいし、異なっていてもよい。すなわち、この例では、半径λ1は半径λ2と同じ長さであってもよいし、異なる長さであってもよい。
さらに、入力特徴量計算部124は、εがε3の場合の座標F2の空間特徴量を算出し、かつ、εがε4(ε4>ε3)の場合の座標F2の空間特徴量を算出する。εがε3の場合は、εがε4の場合に比較して、球体領域S2の体積が大きくなり、複数の小領域SR2の数も増加する。つまり、εがε4の場合には、εがε3の場合に比較すると、入力特徴量計算部124は、座標F2周辺のより広域の点の有無に関する情報を用いて、空間特徴量を算出していることになる。なお、一例として、ε3=ε1、ε4=ε2であってもよいが、ε1~ε4の大小関係はこれに限らない。また、一例として、ε2/ε1=ε4/ε3であってもよい。以降、εがε3の場合の球体領域S2を球体領域S23とし、εがε4の場合の球体領域S2を球体領域S24とする。また、εがε3の場合の球体領域S2は、実施の形態1における第2の領域に対応し、εがε4の場合の球体領域S1は、実施の形態1における第4の領域に対応する。
入力特徴量計算部124は、εがε3の場合と、εがε4の場合の両方において、上記の通り、近傍領域δ2に含まれる座標F2以外の各座標について、複数の小領域から構成され、座標を含む球体領域を定義する。そして、各小領域における点の存在の有無の情報を用いることで、空間特徴量を計算する。なお、入力特徴量計算部124は、εがε3の場合と、εがε4の場合とで、近傍領域δ2の半径λ2の値を変更してもよいし、共通の半径λ2の値を用いてもよい。例えば、参照特徴量計算部123は、εがε4の場合に、近傍領域δ2の半径λ2を、εがε3の場合と比較してε4/ε3倍に変更してもよい。ただし、入力特徴量計算部124が半径λ2を変更する方法は、これに限らない。
以上のようにして、参照特徴量計算部123と、入力特徴量計算部124は、参照点群と入力点群の各座標において空間特徴量を計算する。
図6に戻り、説明を続ける。第1の比較部125は、実施の形態1における第1の比較部11に対応する。第1の比較部125は、参照点群における座標F1を含む球体領域S11に関する空間特徴量と、入力点群における座標F2を含む球体領域S23に関する空間特徴量と、を比較する。球体領域S11に関する空間特徴量は、上記の通り、参照特徴量計算部123が計算した特徴量であって、以降、P1と定義する。また、球体領域S23に関する空間特徴量は、上記の通り、入力特徴量計算部124が計算した特徴量であって、以降、P2と定義する。P1は、実施の形態1における第1の特徴量に対応し、P2は、実施の形態1における第2の特徴量に対応する。第1の比較部125は、空間特徴量P1と空間特徴量P2とを比較して、両者の類似度を算出する。そして、第1の比較部125は、その類似度を用いて、参照点群の座標F1と入力点群の座標F2との間で、点の有無が変化したか否かを判定する。
第1の比較部125が実行可能な判定処理は、以下の2種類がある。
(I)参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったか否かを判定する
(II)参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったか否かを判定する
以下、処理(I)及び(II)の詳細について説明する。
(I)参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったか否かを判定する
(II)参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったか否かを判定する
以下、処理(I)及び(II)の詳細について説明する。
(I)の処理において、特徴量P1及び特徴量P2の類似度をS(P1, P2)と定義すると、第1の比較部125は、S(P1, P2)を次のように計算する。
また、(5)におけるValidNumは、球体領域S23において、「点の存在が不明」であると定義された小領域SR2以外の小領域SR2の数である。したがって、(5)は、球体領域S23における全ての小領域SR2(又は、球体領域S11における全ての小領域SR1)にわたって、Score(P1φθr, P2φθr)が合計され、合計値がValidNumを用いて規格化されることを示している。このとき、「点の存在が不明」であると定義された小領域SR2については、類似度の計算において評価がなされない(すなわち、計算上無視される)。
(6)は、Score(P1φθr,P2φθr)の定義を示している。Score(P1φθr,P2φθr)は、P1φθrとP2φθrに関して、後述のSamearound(P1φθr,P2φθr)が存在する場合には1となり、それ以外の場合では0となる。換言すれば、(6)は、P1φθrとP2φθrに関するScore(P1φθr,P2φθr)の優先度を定義している。Samearound(P1φθr,P2φθr)が存在する場合には優先度が高く設定され、そうでない場合には優先度が低く設定される。
(7)は、参照領域においてφが-ρ1+φ1からρ1+φ1までの範囲をとり、θが-ρ2+θ2からρ2+θ2までの範囲をとるP1(φ+d1)(θ+d2)rと、P2φθrとが同じ値となる場合があるときに、Samearound(P1φθr,P2φθr)が存在することを示している。なお、φ1、θ2は、P1φθrにおける小領域SR1のφ、θの値である。また、ρ1、ρ2は、それぞれφ、θに対するズレの許容値であり、少なくとも、P1φθrにおける小領域SR1に対して隣接した小領域SR1が含まれるように定義される。このように、(7)では、小領域SR1のP1φθr(空間特徴量の要素)だけでなく、その小領域SR1の周辺領域に含まれる第1の小領域の空間特徴量の要素についても、その小領域SR1に対応する入力点群における小領域SR2の空間特徴量の要素との比較がなされる。このように、P1φθrについての周辺領域を考慮するSamearound(P1φθr,P2φθr)を定義して、Score(P1φθr,P2φθr)をより正確に計算することができる。
また、小領域SR1又はSR2において点の存在が不明である場合には、Samearound(P1φθr,P2φθr)は定義されず、(6)においてScore(P1φθr,P2φθr)は0となる。
図9Dは、図9B及び9Cの例において、上記の式(7)を説明するための図である。この図においては、図9Bにおける座標H1の近傍である球体領域S1の一部と、図9Cにおける座標H2の近傍である球体領域S2の一部が示されている。座標H1を含む小領域SR1の空間特徴量における要素はP1φθr、座標H2を含む小領域SR2の空間特徴量における要素はP2φθrである。また、図9Dでは、φ方向において、座標H1を含む小領域SR1にφ方向において隣接した小領域SR1の空間特徴量における要素は、P1(φ+1)θr及びP1(φ-1)θrである。さらに、図9Dでは、座標H1を含む小領域SR1、P1(φ+1)θrにかかる小領域SR1及びP1(φ-1)θrにかかる小領域SR1のそれぞれにおいて、r方向において隣接した小領域SR1が定義されている。これらの小領域SR1の空間特徴量における要素は、それぞれP1φθ(r-1)、P1(φ+1)θ(r-1)、P1(φ-1)θ(r-1)である。
図9Dの例において、P1φθrは点が存在しないことを示し、P2φθrは点が存在することを示すため、両者は同じ要素ではない。しかしながら、式(7)が示すφの範囲は、P1(φ+1)θr及びP1(φ-1)θrを含む。この例では、P1(φ-1)θrが、点が存在することを示すものであるため、P1(φ-1)θrとP2φθrは同じ要素となる。そのため、図9Dの例では、(7)に示すSamearound(P1φθr,P2φθr)が存在し、(6)に示すScore(P1φθr,P2φθr)は1となる。
このようにして、第1の比較部125は、全てのφ、θ、rについてScore(P1φθr,P2φθr)を算出することで、式(5)に示す類似度S(P1, P2)を計算するマッチング処理を実行する。
また、第1の比較部125は、参照特徴量計算部123が設定した近傍領域δ1に含まれる座標F1以外の各座標についても、S(P1, P2)と同様の算出手法を用いて、類似度S(Pn, P2)を算出する。なお、Pnは、座標F1以外の各座標における特徴量であって、P1と同様の計算方法を用いて参照特徴量計算部123が計算したものである。以下、S(P1, P2)とS(Pn, P2)を含む近傍領域δ1内の類似度Sとして、S(PN, P2)を定義する。
第1の比較部125は、このようにして近傍領域δ1内における全ての類似度S(PN, P2)を算出した後、S(PN, P2)の中で最大値となるSmax(PN, P2)を特定する。このSmax(PN, P2)にかかる参照点群の座標は、参照点群における近傍領域δ1に含まれる座標の中で、点が存在するか否かを示す状態が、入力点群における座標F2と最も類似している座標である。第1の比較部125は、Smax(PN, P2)と、所定の閾値ThS1との大小関係を比較する。
Smax(PN, P2)がThS1以下である場合、第1の比較部125は、近傍領域δ1に含まれる座標は、座標F2との類似度合いが低いと判定する。そして、第1の比較部125は、参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったことを判定する。一方、Smax(PN, P2)がThS1よりも大きい場合、第1の比較部125は上記のように判定しない。
次に、(II)の処理について説明する。第1の比較部125は、座標F1の特徴量と座標F2の特徴量との類似度であるS(P1, P2)を算出するマッチング処理を実行する。この算出方法は(I)と同様であるため、説明を省略する。
また、第1の比較部125は、入力特徴量計算部124が設定した近傍領域δ2に含まれる座標F2以外の各座標についても、S(P1, P2)と同様の算出手法を用いて、類似度S(P1,Pm)を算出する。なお、Pmは、座標F2以外の各座標における特徴量であって、P2と同様の計算方法を用いて入力特徴量計算部124が計算したものである。以下、S(P1, P2)とS(P1,Pm)を含む近傍領域δ2内の類似度Sとして、S(P1, PM)を定義する。
第1の比較部125は、このようにして近傍領域δ2内における全ての類似度SS(P1, PM)を算出した後、S(P1, PM)の中で最大値となるSmax(P1, PM)を特定する。このSmax(P1, PM)にかかる参照点群の座標は、入力点群における近傍領域δ2に含まれる座標の中で、点が存在するか否かを示す状態が、参照点群における座標F1と最も類似している座標である。第1の比較部125は、Smax(P1, PM)と、所定の閾値ThS2との大小関係を比較する。
Smax(P1, PM)がThS2以下である場合、第1の比較部125は、近傍領域δ2に含まれる座標は、座標F1との類似度合いが低いと判定する。そして、第1の比較部125は、参照点群の座標F1において存在していた点が、入力点群の座標F2において存在しなくなったことを判定する。一方、Smax(P1, PM)がThS2よりも大きい場合、第1の比較部125は上記のように判定しない。
(I)において、Smax(PN, P2)がThS1より大きいと判定され、(II)において、Smax(P1, PM)がThS2より大きいと判定された場合には、第1の比較部125は、座標F1における点の有無が座標F2において変化しなかったと判定する。つまり、座標F1と座標F2との間に変化がないと判定される。
なお、参照特徴量計算部123及び入力特徴量計算部124は、それぞれ近傍領域δ1、δ2の大きさを、状況に応じて変更することが可能である。例えば、参照特徴量計算部123は、参照点群の計測時に座標F1が示す位置と、計測時の専用センサSの位置との間の距離が長くなるほど、近傍領域δ1の大きさ(例えば、半径λ1の大きさ)を大きくしてもよい。これは、参照点群の座標F1が計測時に専用センサSから離れているほど、上記のズレの影響がより広範囲に生じるため、比較対象となる参照点群側の座標をより広範囲に設定することが好ましいためである。同様の理由で、入力特徴量計算部124は、入力点群の計測時に座標F2が示す位置と、計測時のLiDAR102の位置との間の距離が長くなるほど、近傍領域δ2の大きさ(例えば、半径λ2の大きさ)を大きくしてもよい。
第1の比較部125は、参照点群における各座標と、その各座標に対応する入力点群における各座標について、上記の(I)及び(II)の処理を実行する。これにより、第1の比較部125は、参照点群及び入力点群の全座標において、点の有無の変化を検出することができる。なお、(I)では、変化を検出する際の起点として入力点群の座標が選択され、入力点群の各座標について変化の有無が判定されることから、参照点群にない点が入力点群で新しく追加されたか否かが検出される。一方、(II)では、変化を検出する際の起点として参照点群の座標が選択され、参照点群の各座標について変化の有無が判定されることから、参照点群で有る点が、入力点群ではなくなったか否かが検出される。
図6に戻り、説明を続ける。第2の比較部126は、実施の形態1における第2の比較部12に対応する。第2の比較部126は、参照点群における座標F1を含む球体領域S12に関する空間特徴量と、入力点群における座標F2を含む球体領域S24に関する空間特徴量と、を比較する。球体領域S12に関する空間特徴量は、上記の通り、参照特徴量計算部123が計算した特徴量であって、以降、P3と定義する。また、球体領域S24に関する空間特徴量は、上記の通り、入力特徴量計算部124が計算した特徴量であって、以降、P4と定義する。P3は、実施の形態1における第3の特徴量に対応し、P4は、実施の形態1における第4の特徴量に対応する。第2の比較部126は、空間特徴量P3と空間特徴量P4とを比較して、両者の類似度を算出する。そして、第2の比較部126は、その類似度を用いて、参照点群の座標F1と入力点群の座標F2との間で、点の有無が変化したか否かを判定する。
上記の通り、球体領域S12は球体領域S11よりも大きく、球体領域S24は球体領域S23よりも大きい。そのため、第2の比較部126は、第1の比較部125が対象とする空間特徴量よりも広い範囲を対象とした空間特徴量について、比較を実行する。
第2の比較部126が実行可能な判定処理は、以下の2種類がある。
(III)参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったか否かを判定する
(IV)参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったか否かを判定する
以下、処理(III)及び(IV)の詳細について説明する。
(III)参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったか否かを判定する
(IV)参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったか否かを判定する
以下、処理(III)及び(IV)の詳細について説明する。
(III)の処理において、特徴量P3及び特徴量P4の類似度をS(P3, P4)と定義すると、第2の比較部126は、S(P3, P4)を次のように計算する。
また、(8)におけるValidNum’は、球体領域S24において、「点の存在が不明」であると定義された小領域SR2と、Changed(P3φθr)=trueと判定される小領域SR1に対応する小領域SR2と、が除外された小領域SR2の数である。また、Changed(P3φθr)は、次のように定義される。P3φθrが、前述の第1の比較部125の比較処理において、入力点群と参照点群との間で点の有無が変化したと判定された入力点群の座標を含む小領域SR1の要素である場合に、Changed(P3φθr)はtrueとなり、そうでない場合にfalseとなる。入力点群と参照点群との間で点の有無が変化したと判定されるのは、(I)又は(II)の少なくともいずれかにおいて、入力点群と参照点群との間で点の有無が変化したと判定された場合である。つまり、第2の比較部126での比較処理が対象とする空間特徴量よりも狭い範囲を対象とする空間特徴量の比較処理において点の有無が変化したと判定された場合に、Changed(P3φθr)はtrueとなる。
したがって、(8)は、球体領域S24における全ての小領域SR2(又は、球体領域S12における全ての小領域SR1)にわたって、Score(P3φθr, P4φθr)が合計され、合計値がValidNum’を用いて規格化されることを示している。このとき、「点の存在が不明」であると定義された小領域SR2については、類似度の計算において評価がなされない(すなわち、計算上無視される)。
(9)は、Score(P3φθr,P4φθr)の定義を示している。Score(P3φθr,P4φθr)は、Changed(P3φθr)がtrueである場合にμとなる。一方、P3φθrとP4φθrに関して、後述のSamearound(P3φθr,P4φθr)が存在し、かつ、P3φθrが「点の存在が不明」でない場合には、Score(P3φθr,P4φθr)は1となる。そして、それ以外の場合では、Score(P3φθr,P4φθr)は0となる。
換言すれば、(9)は、P1φθrとP2φθrに関するScore(P1φθr,P2φθr)の優先度を定義している。Samearound(P1φθr,P2φθr)が存在し、かつ、P3φθrが「点の存在が不明」でない場合には、優先度が高く設定され、そうでない場合には、優先度がそれよりも低く設定される。特に、Changed(P3φθr)がtrueである場合には、P3(φ+d1)(θ+d2)rと、P4φθrとが同じ値となる場合であっても、1よりも低い優先度μが設定可能となる。μは、0以上1未満の値として自由に設定することが可能である。例えばμ=0の場合には、入力点群と参照点群との間で点の有無が変化した小領域SR2について、「点の存在が不明」であると定義された小領域SR2と同様、類似度の計算において評価がなされないことになる。
(10)は、参照領域においてφが-ρ1+φ1からρ1+φ1までの範囲をとり、θが-ρ2+θ2からρ2+θ2までの範囲をとるP3(φ+d1)(θ+d2)rと、P4φθrとが同じ値となる場合があるときに、Samearound(P3φθr,P4φθr)が存在することを示している。なお、φ1、θ2は、P3φθrにおける小領域SR1のφ、θの値である。また、ρ1、ρ2は、それぞれφ、θに対するズレの許容値であり、少なくとも、P3φθrにおける小領域SR1に対して隣接した小領域SR1が含まれるように定義される。このように、(10)では、小領域SR1のP3φθr(空間特徴量の要素)だけでなく、その小領域SR1の周辺領域に含まれる小領域SR1の空間特徴量の要素についても、その小領域SR1に対応する入力点群における小領域SR2の空間特徴量の要素との比較がなされる。(10)の更なる詳細な説明は、図9Dにおいて(7)を説明した通りであるため、省略する。このように、P3φθrについての周辺領域を考慮するSamearound(P3φθr,P4φθr)を定義して、Score(P3φθr,P4φθr)をより正確に計算することができる。
このようにして、第2の比較部126は、全てのφ、θ、rについてScore(P3φθr,P4φθr)を算出することで、式(8)に示す類似度S(P3, P4)を計算するマッチング処理を実行する。
また、第2の比較部126は、参照特徴量計算部123が設定した近傍領域δ1に含まれる座標F1以外の各座標についても、S(P3, P4)と同様の算出手法を用いて、類似度S(Pn, P4)を算出する。なお、Pnは、座標F1以外の各座標における特徴量であって、P1と同様の計算方法を用いて参照特徴量計算部123が計算したものである。以下、S(P1, P4)とS(Pn, P4)を含む近傍領域δ1内の類似度Sとして、S(PN, P4)を定義する。
第2の比較部126は、このようにして近傍領域δ1内における全ての類似度S(PN, P4)を算出した後、S(PN, P4)の中で最大値となるSmax(PN, P4)を特定する。このSmax(PN, P4)にかかる参照点群の座標は、参照点群における近傍領域δ1に含まれる座標の中で、点が存在するか否かを示す状態が、入力点群における座標F2と最も類似している座標である。第2の比較部126は、Smax(PN, P4)と、所定の閾値ThS3との大小関係を比較する。なお、ThS3はThS1と同じ値であってもよいし、異なる値であってもよい。
Smax(PN, P4)がThS3以下である場合、第2の比較部126は、近傍領域δ1に含まれる座標は、座標F2との類似度合いが低いと判定する。そして、第2の比較部126は、参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったことを判定する。一方、Smax(PN, P4)がThS3よりも大きい場合、第2の比較部126は上記のように判定しない。
次に、(IV)の処理について説明する。第2の比較部126は、座標F1の特徴量と座標F2の特徴量との類似度であるS(P3, P4)を算出するマッチング処理を実行する。この算出方法は(III)と同様であるため、説明を省略する。
また、第2の比較部126は、入力特徴量計算部124が設定した近傍領域δ2に含まれる座標F2以外の各座標についても、S(P3, P4)と同様の算出手法を用いて、類似度S(P3,Pm)を算出する。なお、Pmは、座標F2以外の各座標における特徴量であって、P4と同様の計算方法を用いて入力特徴量計算部124が計算したものである。以下、S(P3, P4)とS(P3,Pm)を含む近傍領域δ2内の類似度Sとして、S(P3, PM)を定義する。
第2の比較部126は、このようにして近傍領域δ2内における全ての類似度SS(P3, PM)を算出した後、S(P3, PM)の中で最大値となるSmax(P3, PM)を特定する。このSmax(P3, PM)にかかる参照点群の座標は、入力点群における近傍領域δ2に含まれる座標の中で、点が存在するか否かを示す状態が、参照点群における座標F1と最も類似している座標である。第2の比較部126は、Smax(P3, PM)と、所定の閾値ThS4との大小関係を比較する。なお、ThS4はThS2と同じ値であってもよいし、異なる値であってもよい。
Smax(P3, PM)がThS4以下である場合、第2の比較部126は、近傍領域δ2に含まれる座標は、座標F1との類似度合いが低いと判定する。そして、第2の比較部126は、参照点群の座標F1において存在していた点が、入力点群の座標F2において存在しなくなったことを判定する。一方、Smax(P3, PM)がThS4よりも大きい場合、第2の比較部126は上記のように判定しない。
(III)において、Smax(PN, P4)がThS3より大きいと判定され、(IV)において、Smax(P3, PM)がThS4より大きいと判定された場合には、第2の比較部126は、座標F1における点の有無が座標F2において変化しなかったと判定する。つまり、座標F1と座標F2との間に変化がないと判定される。
第2の比較部126は、参照点群における各座標と、その各座標に対応する入力点群における各座標について、上記の(III)及び(IV)の処理を実行する。これにより、第2の比較部126は、参照点群及び入力点群の全座標において、点の有無の変化を検出することができる。なお、(III)では、(I)と同様の理由で、参照点群にない点が入力点群で新しく追加されたか否かが検出される。一方、(IV)では、(II)と同様の理由で、参照点群で有る点が、入力点群ではなくなったか否かが検出される。
次に、変化検出部127の処理について説明する。変化検出部127は、実施の形態1における判定部13に対応し、参照点群の座標F1と入力点群の座標F2との間で、点の有無の変化が生じたか否かを判定する。変化検出部127は、第1の比較部125が実行した、空間特徴量P1及び空間特徴量P2の比較結果と、第2の比較部126が実行した、空間特徴量P3及び空間特徴量P4の比較結果とを用いることで、この判定を実行する。以下、判定の詳細について説明する。
第1の例として、(I)の処理において、参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったと判定されたと仮定する。このとき、変化検出部127は、(I)の判定結果に基づいて、参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったと判定する。
第2の例として、(I)の処理において、参照点群の座標F1において存在しなかった点は、入力点群の座標F2においても存在しないと判定された一方、(III)の処理において、(I)とは異なる判定結果が得られたと仮定する。つまり、(III)の処理では、参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったことが判定されたとする。このとき、変化検出部127は、(I)及び(III)の判定結果に基づいて、参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったと判定する。
第3の例として、(I)及び(III)の処理において、参照点群の座標F1において存在しなかった点は、入力点群の座標F2においても存在しないと判定されたと仮定する。このとき、変化検出部127は、(I)及び(III)の判定結果に基づいて、参照点群の座標F1において存在しなかった点は、入力点群の座標F2においても存在しないと判定する。
第4の例として、(II)の処理において、参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったと判定されたと仮定する。このとき、変化検出部127は、(II)の判定結果に基づいて、参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったと判定する。
第5の例として、(II)の処理において、参照点群の座標F1において存在した点が、入力点群の座標F2においても存在すると判定された一方、(IV)の処理において、(II)とは異なる判定結果が得られたと仮定する。つまり、(IV)の処理では、参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったと判定されたとする。このとき、変化検出部127は、(II)及び(IV)の判定結果に基づいて、参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったと判定する。
第6の例として、(II)及び(IV)の処理において、参照点群の座標F1において存在した点が、入力点群の座標F2においても存在すると判定されたと仮定する。このとき、変化検出部127は、(I)及び(III)の判定結果に基づいて、参照点群の座標F1において存在した点は、入力点群の座標F2においても存在すると判定する。
以上のようにして、変化検出部127は、第1の比較部125及び第2の比較部126の判定結果に基づいて、参照点群の座標F1と入力点群の座標F2間における点の有無の相違について、最終的な判定を実行する。変化検出部127は、変化の判定対象となる参照点群の各座標と入力点群の各座標との間で、同様に最終的な判定を実行する。
検出結果生成部128は、変化検出部127が判定した参照点群の各座標と入力点群の各座標における判定結果に基づいて、入力点群と参照点群間における変化を示す画像を生成する。詳細には、変化検出部127は、上記の方法を用いて、(I)及び(III)の処理結果に基づき、参照点群の座標F1において存在しなかった点が、入力点群の座標F2において存在するようになったか否かを判定する。例えば、図8A及び8Bに示した状況において参照点群と入力点群が取得された場合、変化検出部127の判定結果に基づいて、検出結果生成部128は、図8Cに示す画像を生成することができる。また、変化検出部127は、(II)及び(IV)の処理結果に基づき、参照点群の座標F1において存在した点が、入力点群の座標F2において存在しなくなったか否かを判定することも可能である。検出結果生成部128は、その判定結果に基づいて変化を示す画像を生成することもできる。
このようにして検出結果生成部128が生成する画像には、参照点群と入力点群との比較において変化しないと判定された箇所は表示されず、両者の差分の箇所を表示させることができる。なお、センターサーバ120は、検出結果生成部128が生成した画像をユーザに見せるディスプレイ等のインタフェースを有していてもよい。また、検出結果生成部128は、画像に代えて、変化検出部127が検出した変化を示す3Dデータの点群を生成してもよい。さらに、検出結果生成部128は、実施の形態1に示した出力部と同様に、生成した画面又は点群上で、点の有無の変化が生じた箇所(又は、物体の有無が変化した箇所)を視覚的に強調する処理を実行してもよい。
[処理の説明]
図10A~10Cは、センターサーバ120の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、センターサーバ120の処理の概要が説明される。各処理の詳細については上述の通りであるため、適宜説明を省略する。図10Aは、センターサーバ120の処理例の概略を示したフローチャートであり、まず、図10Aを用いて処理のフローを説明する。
図10A~10Cは、センターサーバ120の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、センターサーバ120の処理の概要が説明される。各処理の詳細については上述の通りであるため、適宜説明を省略する。図10Aは、センターサーバ120の処理例の概略を示したフローチャートであり、まず、図10Aを用いて処理のフローを説明する。
まず、参照点群取得部121は、参照点群DB200から参照点群のデータを取得する(ステップS21;取得ステップ)。また、入力点群取得部122は、ロボット101が送信したデータを取得することで、入力点群のデータを取得する(ステップS22;取得ステップ)。なお、ステップS21とS22の処理は、どちらが先になされてもよいし、両方の処理が並列になされてもよい。
次に、参照特徴量計算部123、入力特徴量計算部124、第1の比較部125及び第2の比較部126は、処理(A)を実行する(ステップS23;処理(A)ステップ)。処理(A)は、上記の処理(I)及び(III)並びに関連する処理を示し、その詳細は図10Bを用いて説明される。
また、参照特徴量計算部123、入力特徴量計算部124、第1の比較部125及び第2の比較部126は、処理(B)も実行する(ステップS24;処理(B)ステップ)。処理(B)は、上記の処理(II)及び(IV)並びに関連する処理を示し、その詳細は図10Cを用いて説明される。なお、ステップS23とS24の処理は、どちらが先になされてもよいし、両方の処理が並列になされてもよい。
変化検出部127は、(I)及び(III)の処理結果に基づき、変化の判定対象となる参照点群の各座標と入力点群の各座標との間で、点の有無の相違について、最終的な判定を実行する。同様に、変化検出部127は、(II)及び(IV)の処理結果に基づき、変化の判定対象となる参照点群の各座標と入力点群の各座標との間で、点の有無の相違について、最終的な判定を実行する(ステップS25;最終判定ステップ)。
検出結果生成部128は、(I)及び(III)の処理結果に基づく変化検出部127の判定結果に基づいて、検出された変化を示す画像を生成する。同様に、検出結果生成部128は、(II)及び(IV)の処理結果に基づく変化検出部127の判定結果に基づいて、検出された変化を示す画像を生成する(ステップS26;検出結果画像生成ステップ)。
次に、図10Bを用いて、センターサーバの詳細な処理(A)の一例を示す。まず、入力特徴量計算部124は、入力点群内のまだ特徴量が計算されていない座標について、その空間特徴量を計算する(ステップS31;特徴量計算ステップ)。入力特徴量計算部124は、ステップS31で空間特徴量について計算対象となった座標の情報を、参照特徴量計算部123に出力する。
参照特徴量計算部123は、出力された座標の情報に基づき、その座標と対応する参照点群内の座標を特定する。ここでは、入力特徴量計算部124が出力した座標の情報が、上記の例における座標F2の情報であり、参照特徴量計算部123が特定する座標の情報は、上記の例における座標F1の情報であるとする。参照特徴量計算部123は、座標F1を含む近傍領域δ1を設定し、近傍領域δ1内に含まれる各座標について、それらの空間特徴量を計算する(ステップS32;特徴量計算ステップ)。なお、上記では、ステップS31の処理がステップS32の処理よりも先になされているが、ステップS32の処理がステップS31の処理よりも先になされるようにしてもよいし、両方の処理が並列になされてもよい。
また、入力特徴量計算部124は、εがε3の場合と、εがε4の場合の両方について、ステップS31の処理を実行し、空間特徴量を計算する。同様に、参照特徴量計算部123は、εがε1の場合と、εがε2の場合の両方について、ステップS32の処理を実行し、空間特徴量を計算する。そのため、入力特徴量計算部124は、座標F2について、計算対象となる球体領域が小さい(つまり、球体領域S23である)空間特徴量と、計算対象となる球体領域が大きい(つまり、球体領域S24である)空間特徴量とを計算する。また、参照特徴量計算部123は、座標F1について、計算対象となる球体領域が小さい(つまり、球体領域S11である)空間特徴量と、計算対象となる球体領域が大きい(つまり、球体領域S12である)空間特徴量とを計算する。
第1の比較部125は、ステップS31及びS32でそれぞれ計算された空間特徴量を用いて、小さい球体領域同士である球体領域S11と球体領域S23に関して、座標F1と座標F2との類似度を計算する。また、第2の比較部126は、ステップS31及びS32でそれぞれ計算された空間特徴量を用いて、大きい球体領域同士である球体領域S12と球体領域S24に関して、座標F1と座標F2との類似度を計算する(ステップS33;類似度計算ステップ)。
第1の比較部125は、計算した類似度の最大値と、所定の閾値とを比較することで、座標F2において点の有無に変化が生じたか否かを判定することで、(I)の処理を実行する。また、第2の比較部126も、計算した類似度の最大値と、所定の閾値とを比較することで、座標F2において点の有無に変化が生じたか否かを判定することで、(III)の処理を実行する(ステップS34;変化検出ステップ)。
第1の比較部125及び第2の比較部126は、入力点群内の全座標について、類似度の計算及び変化検出の判定が終了したか否かを判定する(ステップS35;終了判定ステップ)。入力点群内の全座標について、類似度の計算及び変化検出の判定が終了していない場合(ステップS35のNo)、類似度を計算していない入力点群内の座標について、ステップS31に戻り、処理を繰り返す。入力点群内の全座標について、類似度の計算及び変化検出の判定が終了した場合(ステップS35のYes)、処理(A)は終了する。そして、上記の通り、変化検出部127は、処理(A)の結果生成された、各座標における変化の有無を示す情報に基づいて最終的な判定を実行し、検出結果生成部128は、その判定結果に基づいて変化検出画像を生成する。
次に、図10Cを用いて、センターサーバの詳細な処理(B)の一例を示す。まず、参照特徴量計算部123は、参照点群内のまだ特徴量が計算されていない座標について、その空間特徴量を計算する(ステップS41;特徴量計算ステップ)。参照特徴量計算部123は、ステップS41で空間特徴量について計算対象となった座標の情報を、入力特徴量計算部124に出力する。
入力特徴量計算部124は、出力された座標の情報に基づき、その座標と対応する入力点群内の座標を特定する。ここでは、参照特徴量計算部123が出力した座標の情報が、上記の例における座標F1の情報であり、入力特徴量計算部124が特定する座標の情報は、上記の例における座標F2の情報であるとする。入力特徴量計算部124は、座標F2を含む近傍領域δ2を設定し、近傍領域δ2内に含まれる各座標について、それらの空間特徴量を計算する(ステップS42;特徴量計算ステップ)。なお、上記では、ステップS41の処理がステップS42の処理よりも先になされているが、ステップS42の処理がステップS41の処理よりも先になされるようにしてもよいし、両方の処理が並列になされてもよい。
また、参照特徴量計算部123は、εがε1の場合と、εがε2の場合の両方について、ステップS41の処理を実行し、空間特徴量を計算する。同様に、入力特徴量計算部124は、εがε3の場合と、εがε4の場合の両方について、ステップS42の処理を実行し、空間特徴量を計算する。この詳細は、図10Bの説明で示した通りである。
第1の比較部125は、ステップS41及びS42でそれぞれ計算された空間特徴量を用いて、小さい球体領域同士である球体領域S11と球体領域S23に関して、座標F1と座標F2との類似度を計算する。また、第2の比較部126は、ステップS41及びS42でそれぞれ計算された空間特徴量を用いて、大きい球体領域同士である球体領域S12と球体領域S24に関して、座標F1と座標F2との類似度を計算する(ステップS43;類似度計算ステップ)。
第1の比較部125は、計算した類似度の最大値と、所定の閾値とを比較することで、座標F1において点の有無に変化が生じたか否かを判定して、(II)の処理を実行する。また、第2の比較部126も、計算した類似度の最大値と、所定の閾値とを比較することで、座標F1において点の有無に変化が生じたか否かを判定して、(IV)の処理を実行する(ステップS44;変化検出ステップ)。
第1の比較部125及び第2の比較部126は、入力点群内の全座標について、類似度の計算及び変化検出の判定が終了したか否かを判定する(ステップS45;終了判定ステップ)。入力点群内の全座標について、類似度の計算及び変化検出の判定が終了していない場合(ステップS45のNo)、類似度を計算していない入力点群内の座標について、ステップS41に戻り、処理を繰り返す。入力点群内の全座標について、類似度の計算及び変化検出の判定が終了した場合(ステップS45のYes)、処理(B)は終了する。そして、上記の通り、変化検出部127は、処理(B)の結果生成された、各座標における変化の有無を示す情報に基づいて最終的な判定を実行し、検出結果生成部128は、その判定結果に基づいて変化検出画像を生成する。
なお、図10Bにおいて、センターサーバ120は、先に入力点群内の全座標についての類似度を計算した後に、入力点群内の各座標について、変化検出の判定を実行してもよい。同様に、図10Cにおいて、センターサーバ120は、先に参照点群内の全座標についての類似度を計算した後に、参照点群内の各座標について、変化検出の判定を実行してもよい。
上記の例では、処理(A)、(B)の両方が実行される例について説明したが、処理(A)、(B)のいずれか一方だけが実行され、実行された処理のみについて、変化検出部127及び検出結果生成部128の処理が実行され、画像が生成されてもよい。また、各処理を順に実行する際に、従前の処理で算出された特徴量や類似度といった情報について、後の処理で使用する際には、再度算出することなく、従前算出された結果を流用可能であることは言うまでもない。
また、ロボット101が計測を実行して複数枚の点群を取得する場合、入力点群取得部122において、入力点群は複数生成される。センターサーバ120は、その各々の入力点群と、参照点群との間で、上記に示した比較処理を実行することで、入力点群ごとに検出画像を生成することが可能である。
[効果の説明]
物体認識において、2つの異なる点群の対応する座標同士において点の有無が相違するか否かを判定するために、各点群における座標の特徴量を計算し、両者の特徴量を比較することが考えられる。このとき、特徴量を計算する対象となる領域が小さい場合、又は特徴量を計算する対象となる領域が大きい場合のいずれであっても、実施の形態1において示した通り、正確な判定ができない可能性があるという問題点がある。
物体認識において、2つの異なる点群の対応する座標同士において点の有無が相違するか否かを判定するために、各点群における座標の特徴量を計算し、両者の特徴量を比較することが考えられる。このとき、特徴量を計算する対象となる領域が小さい場合、又は特徴量を計算する対象となる領域が大きい場合のいずれであっても、実施の形態1において示した通り、正確な判定ができない可能性があるという問題点がある。
図11A及び11Bは、この課題を説明するための概略図である。図11Aでは、点群1における座標X1における特徴量と、点群2において座標X1に対応する座標Y1における特徴量とが算出される。点群1及び点群2において特徴量を計算する対象となる領域は、それぞれA1、B1と表される。ここで、領域A1は座標X1の近傍領域として小さい領域であり、領域B1は座標Y1の近傍領域として小さい領域である。
なお、図11A~13において、点群1及び2は、点群に映り込む物体を示す点が示されており、点群1及び2において、その他の点の存在に関する情報は記載が省略されていることに留意されたい。
図11Aで示した通り、点群1において座標X1を含む座標X2~X3の領域は、対応する点群2の領域と点の有無が異なる。そのため、本来であれば、座標X1と座標Y1とについて、両者で点の有無が異なると判定されるべきである。しかしながら、特徴量を計算する対象となる領域A1及び領域B1が小さく、領域A1内の点の存在に関する情報と、領域B1内の点の存在に関する情報が同一又は略同一となる可能性がある。この場合、領域A1に係る特徴量と、領域B1に係る特徴量とが同一又は略同一となることから、判定を実行する変化検出システムは、両者で点の有無の変化が生じないと判定してしまう。そのため、変化検出システムは、点の有無の変化が生じたと本来判定されるべき座標についても、点の有無の変化が生じないと判定してしまう。図11Aでは、判定結果において、このような不正確な判定を「検出ミス」として示している。
一方、図11Bでは、点群1における座標X4における特徴量と、点群2において座標X4に対応する座標Y4における特徴量とが算出される。点群1及び点群2において特徴量を計算する対象となる領域は、それぞれA2、B2と表される。ここで、領域A2は座標X4の近傍領域として領域A1よりも大きい領域であり、領域B2は座標Y4の近傍領域として領域B1よりも大きい領域である。そして、変化検出システムは、算出された特徴量を比較して、点の有無の変化が生じたか否かを判定する。
図11Bで示した通り、点群1における座標X4は、対応する点群2における座標Y4との間で、点の有無が同一となる。そのため、本来であれば、座標X4と座標Y4とについて、両者で点の有無が同一となると判定されるべきである。しかしながら、特徴量を計算する対象となる領域A2が大きいため、領域A2内部に、点群1と点群2とで点の有無が異なる座標が含まれる領域C3が含まれることになる。この領域C3の寄与に基づいて、領域A1に係る特徴量と、領域B1に係る特徴量とが大きく異なることから、座標X4と座標Y4とについて、両者で点の有無が異なると判定されてしまう。そのため、変化検出システムは、点の有無の変化がないと本来判定されるべき座標についても、点の有無の変化が生じたと判定してしまう。図11Bでは、判定結果において、このような不正確な判定を「誤検出」として示している。
図11A及び11Bに示した通り、特徴量を計算する対象となる領域が小さい場合には検出ミスの事例が生じやすくなり、特徴量を計算する対象となる領域が大きい場合には誤検出の事例が生じやすくなる。この例では、検出ミスと誤検出がトレードオフの関係となる。
図12A及び12Bは、実施の形態2に係る手法を説明するための概略図である。図12Aでは、点群1における座標X1における特徴量と、点群2において座標X1に対応する座標Y1における特徴量とが算出される。そして、変化検出システムは、算出された特徴量を比較して、点の有無の変化が生じたか否かを判定する。図12Aに示した判定結果では、点の有無の変化が生じたと本来判定されるべき領域1について、点の有無の変化が生じないと判定されることになる。このように判定される理由は図11Aにおいて説明したものと同じであるため、説明を省略する。
一方、図12Bでは、点群1における座標X4における特徴量と、点群2において座標X4に対応する座標Y4における特徴量とが算出される。点群1及び点群2において特徴量を計算する対象となる領域は、それぞれA2、B2と表される。ここで、領域A2は座標X4の近傍領域として領域A1よりも大きい領域であり、領域B2は座標Y4の近傍領域として領域B1よりも大きい領域である。そして、変化検出システムは、算出された特徴量を比較して、点の有無の変化が生じたか否かを判定する。
ここで、変化検出システムは、図12Bの判定において、図11Aの判定において点の有無が異なると判定された座標を含む領域C3の寄与を、領域A2内の領域C3以外の領域である領域D3からの寄与よりも下げる。この処理が、図11Bで説明したものと異なる点となる。この処理は、式(9)においてChanged(P3φθr)=trueと判定された場合にScore(P3φθr,P4φθr)をμとして、優先度を下げることに対応する。
この処理を行うことで、領域A2に係る特徴量及び領域B2に係る特徴量は、それぞれ、領域D3からの寄与と、領域D3に対応する領域である領域E3からの寄与が主なものとなる。そのため、領域A2に係る特徴量及び領域B2に係る特徴量との差異が小さくなることから、変化検出システムは、座標X4と座標Y4とについて、両者で点の有無が同一であると判定することができる。したがって、変化検出システムは、図12Bに示す通り、点の有無の変化がないと本来判定されるべき座標について、点の有無の変化が生じていないことを正確に判定することができる。
このように、変化検出システムは、検出ミス及び誤検出が抑制された状態で、入力点群と参照点群との間で存在又は位置が変化した物体を検出することができる。また、検出対象である物体は、そのスケールが物体毎に異なる。ここで、特徴量を計算するための領域の大きさとして1種類のものしか用いない場合には、大きさが異なる物体について正確に検出できない可能性があった。しかしながら、本開示では、特徴量を計算するための領域の大きさとして2種類のものが用いられるため、大きさが異なる物体についても正確に検出できることが可能となる。
図13は、実施の形態2に係る手法を説明する補足図である。図13では、点群1における座標X5における特徴量と、点群2において座標X5に対応する座標Y5における特徴量とが算出される。点群1及び点群2において特徴量を計算する対象となる領域は、それぞれA3、B3と表される。ここで、領域A3は座標X5の近傍領域として大きい領域であり、領域B3は座標Y5の近傍領域として大きい領域である。図13では、座標X5と座標Y5とについて、両者で点の有無が異なると判定されることが望ましい。
変化検出システムは、図13の判定において、特徴量を計算する対象となる領域が小さい場合の判定において点の有無が異なると判定された座標を含む領域C4及びC5の寄与を、領域A3内の領域C4及びC5以外の領域である領域D4からの寄与よりも下げる。この処理は、図12Bに関して説明した通りである。このとき、図13において、点群1の領域D4における点の有無の情報と、点群2において領域D4に対応する領域E2における点の有無の情報とは、一見すると同じように見える。この理由があることから、座標X5における特徴量と、座標Y5における特徴量との差異が小さくなってしまい、変化検出システムは、両者で点の有無の変化が生じないと判定してしまうようにも考えられる。
しかしながら、図13の右側に示した通り、領域A3内において、領域C4及びC5以外の領域では、点が存在しない領域C6及びC7が存在する。一方、領域B3内において、領域C6及びC7に対応する領域D6及びD7では、点の存在が不明である。このように、比較対象となる領域A3及びB3において、本来は点の有無が同じとなるにもかかわらず、点群同士を比較した場合に、点の有無に関する情報が異なると解釈される領域が存在する場合が想定される。例えば、点群1が入力点群、点群2が参照点群である場合、そのような領域が存在する可能性が、現実的には高くなる。そのため、図13において、座標X5における特徴量と、座標Y5における特徴量との差異は大きいままとなる。したがって、変化検出システムは、座標X5と座標Y5において、両者で点の有無の変化が生じると正確に判定することが可能となる。
実施の形態2において、第1の比較部125は、参照点群において球体領域S11を用いて計算された座標F1の空間特徴量P1と、入力点群において球体領域S23を用いて計算された座標F2の空間特徴量P2と、を比較する。また、第2の比較部126は、入力点群において球体領域S12を用いて計算された座標F1の空間特徴量P3と、入力点群において球体領域S24を用いて計算された座標F2の空間特徴量P4と、を比較する。ここで、球体領域S12は球体領域S11よりも大きく、球体領域S23は球体領域S24よりも大きい。そして、変化検出部127は、第1の比較部125の比較結果と、第2の比較部126の比較結果を用いて、座標F1と座標F2との間で点の有無の変化が生じたか否かを判定する。このように、複数の異なる領域についての2つの比較結果を用いることで、変化検出装置10は、第1の座標と第2の座標における点の相違の有無を誤って判定することを抑制することができる。そのため、センターサーバ120は、点群同士の変化を検出する精度を高めることができる。
また、第1の比較部125が、空間特徴量P1と空間特徴量P2を比較することで、座標F1と座標F2との間で点の有無の変化が生じていると判定する場合が考えられる。この場合、変化検出部127は、座標F1と座標F2との間で点の有無の変化が生じたと判定してもよい。特徴量を計算するのに小さい領域を用いた場合、図11A~12Bの説明で示した通り、誤検出の事象が生じにくいと考えられる。したがって、点の有無の変化が生じた領域について、センターサーバ120は、誤検出が生じにくい検出をすることが可能となる。
また、第1の比較部125が、空間特徴量P1と空間特徴量P2を比較することで、座標F1と座標F2との間で点の有無の変化が生じていないと判定する場合も考えられる。このとき、第2の比較部126が、空間特徴量P3と空間特徴量P4を比較することで、座標F1と座標F2との間で点の有無の変化が生じていると判定する場合が想定される。この場合、変化検出部127は、座標F1と座標F2との間で点の有無の変化が生じたと判定してもよい。特徴量を計算するのに大きい領域を用いた場合、図11A~12Bの説明で示した通り、検出ミスの事象が生じにくいと考えられる。したがって、特徴量を計算するのに小さい領域を用いた場合に検出ミスとなり得る領域についても、センターサーバ120は、正確な検出をすることが可能となる。
また、入力点群における少なくとも1つの座標と、その入力点群の座標に対応する参照点群における少なくとも1つの座標と、の第1の比較部125における比較結果を、第2の比較部126は、空間特徴量P3と空間特徴量P4との比較に用いてもよい。つまり、小さい領域である球体領域S11の空間特徴量P1と、球体領域S23の空間特徴量P2との比較がなされた後で、その比較結果が、大きい領域である球体領域S12の空間特徴量P3と、球体領域S24の空間特徴量P4との比較に用いられる。これにより、センターサーバ120は、第1の比較部125における比較結果において、第2の比較部126における比較において優先度が調整されるべき比較結果を、第2の比較部126における比較において反映させることができる。そのため、センターサーバ120は、第2の比較部126における点の有無の変化が生じたか否かの判定を、より正確に実行することができる。
また、第1の比較部125における比較結果として、以下の2つの場合を仮定する。
(場合1):ある座標について、入力点群と参照点群との間で点の有無が変化したと判定された場合
(場合2):点の有無の変化が生じていないと判定され、かつ、座標F1と座標F2とにおいて点の有無を示す情報が同一であるとみなされる場合
ここで、場合1においては場合2と比較して、第2の比較部126は、空間特徴量P3及び空間特徴量P4の比較結果が、座標F1と座標F2との間で点の有無の変化が生じていないと示すための重み付けを下げる。換言すれば、(9)においてChanged(P3φθr)がtrueである場合は、Changed(P3φθr)がfalseであり、かつ、Samearound(P1φθr,P2φθr)が存在する場合と比較して、第2の比較部126は、優先度であるScore(P3φθr,P4φθr)を低く計算する。この処理がなされることで、図12Bの説明に示した通り、センターサーバ120は、点の有無の変化がないと本来判定されるべき座標について、点の有無の変化が生じていないことを正確に判定することができる。
(場合1):ある座標について、入力点群と参照点群との間で点の有無が変化したと判定された場合
(場合2):点の有無の変化が生じていないと判定され、かつ、座標F1と座標F2とにおいて点の有無を示す情報が同一であるとみなされる場合
ここで、場合1においては場合2と比較して、第2の比較部126は、空間特徴量P3及び空間特徴量P4の比較結果が、座標F1と座標F2との間で点の有無の変化が生じていないと示すための重み付けを下げる。換言すれば、(9)においてChanged(P3φθr)がtrueである場合は、Changed(P3φθr)がfalseであり、かつ、Samearound(P1φθr,P2φθr)が存在する場合と比較して、第2の比較部126は、優先度であるScore(P3φθr,P4φθr)を低く計算する。この処理がなされることで、図12Bの説明に示した通り、センターサーバ120は、点の有無の変化がないと本来判定されるべき座標について、点の有無の変化が生じていないことを正確に判定することができる。
また、入力点群又は参照点群の少なくともいずれかにおいて、ある領域内の点の存在に関する情報は、その領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であってもよい。特に計測等を用いて点群データを取得した場合、点群内において点の存在が不明である状態が存在することがある。このような状態についても、センターサーバ120は点の変化の検出に反映することができるため、変化検出精度をさらに高めることが可能となる。
また、変化検出部127は、入力点群の座標と参照点群の座標との間で点の有無の変化が生じたか否かの判定を、入力点群と参照点群とにおいて対応する複数の座標について実行してもよい。検出結果生成部128は、変化検出部127の判定結果を用いて、入力点群と参照点群との間で物体の有無の変化を検出し、その検出結果を出力することができる。このようにして、センターサーバ120は、入力点群と参照点群との間で、物体の有無の変化を検出することができるため、インフラ等の監視に適用することが可能となる。
なお、実施の形態2において、入力点群及び参照点群の領域内の点の存在に関する情報は、その領域内において点が存在する、又は点が存在しないことのいずれかを示す情報であってもよい。つまり、点の存在が不明である状態を、特徴量の計算及び判定処理において考慮に入れなくともよい。しかしながら、上記の通り、点の存在が不明である状態を考慮に入れることが、変化検出精度を高めるという観点からより望ましい。
参照点群と入力点群は、カメラ又は測位センサが所定の場所を撮影して生成された2次元の画像に基づき、生成されたマッピングデータであってもよい。参照点群にかかる画像の撮影と入力点群にかかる画像の撮影においてズレが生じる場合として、上記の例で示した場合のほか、次のような場合も想定される。例えば、人が持って移動する可動式のカメラで同じ場所の画像を異なるタイミングで撮影し、その画像に基づいて参照点群と入力点群を生成した場合に、ズレが生じることがある。また、設備に固定された定点カメラが同じ場所の画像を異なるタイミングで撮影した場合であっても、地震又は設備の劣化に伴い定点カメラの位置又は撮影方向がずれることに起因してズレが生じることが想定される。このような場合においても、上記の処理を実行することで、変化検出精度の悪化を抑制することができる。
第1の比較部125は、(I)の処理を、入力点群のうち全部ではない複数の座標と、それに対応する参照点群の複数の座標について実行してもよい。第2の比較部126が実行する(III)についても同様である。また、第1の比較部125は、(II)の処理を、参照点群のうち全部ではない複数の座標と、それに対応する入力点群の複数の座標について実行してもよい。第2の比較部126が実行する(IV)についても同様である。このようにして、点群のうち判定が不要な領域がある場合には、センターサーバ120は、その領域を除いた座標について変化を検出することができる。
また、(I)及び(III)の計算式である(6)及び(9)において、P1φθr及びP3φθrについての周辺領域を考慮しないような計算が実行されることも可能である。この場合、(6)及び(9)は、それぞれ以下の(11)及び(12)に置き換わる。
(2B)
[構成の説明]
図14は、実施の形態2にかかるセンターサーバの別の例を示すブロック図である。センターサーバ120は、図6に示した構成要素のほか、抽出部129をさらに備える。以下、センターサーバ120の処理について、(2A)で説明した点については省略し、本例に特有の点について説明する。
[構成の説明]
図14は、実施の形態2にかかるセンターサーバの別の例を示すブロック図である。センターサーバ120は、図6に示した構成要素のほか、抽出部129をさらに備える。以下、センターサーバ120の処理について、(2A)で説明した点については省略し、本例に特有の点について説明する。
抽出部129は、参照点群取得部121が取得した参照点群と、入力点群取得部122が取得した入力点群とにおいて、それぞれの対応する各座標同士の点の有無を、そのまま直接比較する。これにより、参照点群と、入力点群とのそれぞれにおいて、対応する座標における点の有無が異なる座標の情報(変化した座標の情報)が抽出され、そうでない座標については抽出されない。
参照特徴量計算部123及び入力特徴量計算部124は、このようにして抽出された参照点群の座標と、入力点群の座標について、(2A)に示した処理を実行し、空間特徴量を計算する。また、第1の比較部125、第2の比較部126、変化検出部127及び検出結果生成部128は、計算された空間特徴量を用いて、(2A)に示した処理を実行する。
[処理の説明]
図15A~15Cは、図10A~10Cに対応する、(2B)におけるセンターサーバ120の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、センターサーバ120の処理の概要が説明される。なお、(2A)と同じ点については、適宜記載を省略する。
図15A~15Cは、図10A~10Cに対応する、(2B)におけるセンターサーバ120の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、センターサーバ120の処理の概要が説明される。なお、(2A)と同じ点については、適宜記載を省略する。
まず、図15Aにおいて、参照点群取得部121は、参照点群DB200から参照点群のデータを取得する(ステップS21;取得ステップ)。また、入力点群取得部122は、ロボット101が送信したデータを取得することで、入力点群のデータを取得する(ステップS22;取得ステップ)。
次に、抽出部129は、参照点群取得部121が取得した参照点群と、入力点群取得部122が取得した入力点群とにおいて、それぞれの対応する各座標同士の点の有無を直接比較する。これにより、変化した座標の情報を検出する(ステップS27;変化検出ステップ)。参照特徴量計算部123、入力特徴量計算部124、第1の比較部125及び第2の比較部126は、処理(A’)を実行する(ステップS23’;処理(A’)ステップ)。処理(A)は、上記の処理(I)及び(III)並びに関連する処理を示し、その詳細は図13Bを用いて説明される。
また、参照特徴量計算部123、入力特徴量計算部124、第1の比較部125及び第2の比較部126は、処理(B’)も実行する(ステップS24’;処理(B’)ステップ)。処理(B’)は、上記の処理(II)及び(IV)並びに関連する処理を示し、その詳細は図13Cを用いて説明される。なお、ステップS23’とS24’の処理は、どちらが先になされてもよいし、両者が並列になされてもよい。
変化検出部127は、(I)及び(III)の処理結果に基づき、変化の判定対象となる参照点群の各座標と入力点群の各座標との間で、点の有無の相違について、最終的な判定を実行する。同様に、変化検出部127は、(II)及び(IV)の処理結果に基づき、変化の判定対象となる参照点群の各座標と入力点群の各座標との間で、点の有無の相違について、最終的な判定を実行する(ステップS25;最終判定ステップ)。
検出結果生成部128は、(I)及び(III)の処理結果に基づく変化検出部127の判定結果に基づいて、検出された変化を示す画像を生成する。同様に、検出結果生成部128は、(II)及び(IV)の処理結果に基づく変化検出部127の判定結果に基づいて、検出された変化を示す画像を生成する(ステップS26;検出結果画像生成ステップ)。
次に、図15Bを用いて、センターサーバの詳細な処理(A’)の一例を示す。まず、入力特徴量計算部124は、抽出部129が抽出した入力点群の座標のうち、入力点群内のまだ特徴量が計算されていない座標について、その空間特徴量を計算する(ステップS31;特徴量計算ステップ)。入力特徴量計算部124は、ステップS31で空間特徴量について計算対象となった座標の情報を、参照特徴量計算部123に出力する。
参照特徴量計算部123は、出力された座標の情報に基づき、その座標と対応する参照点群内の座標を特定する。この例では、参照特徴量計算部123は、座標F1を含む近傍領域δ1を設定し、近傍領域δ1内に含まれる各座標について、それらの空間特徴量を計算する(ステップS32;特徴量計算ステップ)。上記の通り、ステップS31の処理とステップS32の処理は、いずれが先になされてもよいし、両方の処理が並列でなされてもよい。
また、入力特徴量計算部124は、εがε3の場合と、εがε4の場合の両方について、ステップS31の処理を実行し、空間特徴量を計算する。同様に、参照特徴量計算部123は、εがε1の場合と、εがε2の場合の両方について、ステップS32の処理を実行し、空間特徴量を計算する。
第1の比較部125は、ステップS31及びS32でそれぞれ計算された空間特徴量を用いて、小さい球体領域同士である球体領域S11と球体領域S23に関して、座標F1と座標F2との類似度を計算する。また、第2の比較部126は、ステップS31及びS32でそれぞれ計算された空間特徴量を用いて、大きい球体領域同士である球体領域S12と球体領域S24に関して、座標F1と座標F2との類似度を計算する(ステップS33;類似度計算ステップ)。
第1の比較部125は、計算した類似度の最大値と、所定の閾値とを比較して、座標F2において点の有無に変化が生じたか否かを判定することで、(I)の処理を実行する。また、第2の比較部126も、計算した類似度の最大値と、所定の閾値とを比較して、座標F2において点の有無に変化が生じたか否かを判定することで、(III)の処理を実行する(ステップS34;変化検出ステップ)。
第1の比較部125及び第2の比較部126は、入力点群において抽出された全座標について、類似度の計算及び変化検出の判定が終了したか否かを判定する(ステップS36;終了判定ステップ)。抽出された全座標について、類似度の計算及び変化検出の判定が終了していない場合(ステップS36のNo)、類似度を計算していない座標について、ステップS31に戻り、処理を繰り返す。抽出された全座標について、類似度の計算及び変化検出の判定が終了した場合(ステップS36のYes)、処理(A’)は終了する。そして、上記の通り、変化検出部127は、処理(A’)の結果生成された、各座標における変化の有無を示す情報に基づいて最終的な判定を実行し、検出結果生成部128は、その判定結果に基づいて変化検出画像を生成する。
次に、図15Cを用いて、センターサーバの詳細な処理(B’)の一例を示す。まず、参照特徴量計算部123は、抽出部129が抽出した参照点群の座標のうち、参照点群内のまだ特徴量が計算されていない座標について、その空間特徴量を計算する(ステップS41;特徴量計算ステップ)。参照特徴量計算部123は、ステップS41で空間特徴量について計算対象となった座標の情報を、入力特徴量計算部124に出力する。
入力特徴量計算部124は、出力された座標の情報に基づき、その座標と対応する入力点群内の座標を特定する。この例では、入力特徴量計算部124は、座標F2を含む近傍領域δ2を設定し、近傍領域δ2内に含まれる各座標について、それらの空間特徴量を計算する(ステップS42;特徴量計算ステップ)。上記の通り、ステップS41の処理とステップS42の処理は、いずれが先になされてもよいし、両方の処理が並列でなされてもよい。
また、参照特徴量計算部123は、εがε1の場合と、εがε2の場合の両方について、ステップS41の処理を実行し、空間特徴量を計算する。同様に、入力特徴量計算部124は、εがε3の場合と、εがε4の場合の両方について、ステップS42の処理を実行し、空間特徴量を計算する。この詳細は、図10Bの説明で示した通りである。
第1の比較部125は、ステップS41及びS42でそれぞれ計算された空間特徴量を用いて、小さい球体領域同士である球体領域S11と球体領域S23に関して、座標F1と座標F2との類似度を計算する。また、第2の比較部126は、ステップS41及びS42でそれぞれ計算された空間特徴量を用いて、大きい球体領域同士である球体領域S12と球体領域S24に関して、座標F1と座標F2との類似度を計算する(ステップS43;類似度計算ステップ)。
第1の比較部125は、計算した類似度の最大値と、所定の閾値とを比較して、座標F1において点の有無に変化が生じたか否かを判定することで、(II)の処理を実行する。また、第2の比較部126も、計算した類似度の最大値と、所定の閾値とを比較して、座標F1において点の有無に変化が生じたか否かを判定することで、(IV)の処理を実行する(ステップS44;変化検出ステップ)。
第1の比較部125及び第2の比較部126は、参照点群において抽出された全座標について、類似度の計算及び変化検出の判定が終了したか否かを判定する(ステップS46;終了判定ステップ)。抽出された全座標について、類似度の計算及び変化検出の判定が終了していない場合(ステップS46のNo)、類似度を計算していない入力点群内の座標について、ステップS41に戻り、処理を繰り返す。抽出された全座標について、類似度の計算及び変化検出の判定が終了した場合(ステップS46のYes)、処理(B’)は終了する。そして、上記の通り、変化検出部127は、処理(B’)の結果生成された、各座標における変化の有無を示す情報に基づいて最終的な判定を実行し、検出結果生成部128は、その判定結果に基づいて変化検出画像を生成する。
以上に示したように、センターサーバ120は、抽出部129が変化した座標の情報を抽出し、その抽出された座標について、(2A)に示した変化検出処理を実行することが可能である。これにより、全ての入力点群又は参照点群の座標に対して(2A)に示した変化検出処理を実行するよりも、処理の全工程に必要な計算コストを低減させることができる。
(2C)
図16Aは、実施の形態2にかかるセンターサーバの別の例を示すブロック図である。センターサーバ120は、図15に示した構成要素のほか、物体識別部130をさらに備える。以下、センターサーバ120の処理について、(2A)及び(2B)で説明した点については省略し、本例に特有の点について説明する。
図16Aは、実施の形態2にかかるセンターサーバの別の例を示すブロック図である。センターサーバ120は、図15に示した構成要素のほか、物体識別部130をさらに備える。以下、センターサーバ120の処理について、(2A)及び(2B)で説明した点については省略し、本例に特有の点について説明する。
物体識別部130は、検出結果生成部128が生成した、(I)及び(III)の処理結果に基づく変化検出部127の判定結果に基づいた画像、又は(II)及び(IV)の処理結果に基づく変化検出部127の判定結果に基づいた画像について、以下の判定を実行する。物体識別部130は、画像に示された点の有無の変化箇所が、何らかの物体(例えば、コンテナ、車両、工事資材等)に相当するか否かを判定する。
例えば、物体識別部130は、変化した点群の箇所が所定の大きさ以上か否かを判定し、所定の大きさ以上である場合、変化した点群の箇所が何らかの物体に相当すると判定する。物体識別部130は、変化した点群の箇所が所定の大きさ未満である場合、変化した点群の箇所はノイズであると判定する。
別の例として、物体識別部130は、変化した点群の箇所と、事前に記憶したコンテナ、車両、工事資材等といった判定用の各種物体の点群データとを比較してもよい。変化した点群の箇所がいずれかの物体の点群データと一致、又は、例えば数パーセント程度の誤差を除いて一致する場合に、物体識別部130は、その一致した物体を、入力点群と参照点群との間で存在の有無が変化した物体であると特定する。
あるいは、物体識別部130は、事前に学習がなされたAIモデルを用いて、物体判定を実行してもよい。この学習は、サンプルとなる変化した点群を示す画像情報と、その情報に対応する各種物体を示す情報(正解ラベル)と、を含む教師データを、AIモデルに入力させることでなされる。教師データを用いてAIモデルが学習された後、物体識別部130は、検出結果生成部128が生成した画像をAIモデルに入力する。AIモデルは、この入力画像に基づいて、その入力画像で示された物体を示す情報を出力する。このようにしても、物体識別部130は物体の識別処理を実行することができる。なお、学習モデルの学習には、ロジスティック回帰、ニューラルネットワークといった任意の技術を用いることができる。
なお、検出結果生成部128が検出結果として3Dデータの点群を生成した場合でも、物体識別部130は、検出結果である点群において示された点の有無の変化箇所が、何らかの物体に相当するか否かを判定する。例えば、検出結果生成部128は、事前に学習がなされたAIモデルを用いて、物体判定を実行することができる。この学習は、サンプルとなる変化した点群と、その情報に対応する各種物体を示す情報(正解ラベル)と、を含む教師データを、AIモデルに入力させることでなされる。教師データを用いてAIモデルが学習された後、物体識別部130は、検出結果生成部128が生成した点群をAIモデルに入力する。AIモデルは、この点群に基づいて、その点群で示された物体を示す情報を出力することができる。検出結果生成部128が実行可能なそのほかの判定方法は、上記の通りである。
[効果の説明]
以上のようにして、センターサーバ120は、参照点群と入力点群との間で、物体の有無の変化があったか否かを検知することができる。さらに好ましくは、センターサーバ120は、参照点群と入力点群との間において存在の有無が変化した物体を識別することもできる。なお、物体識別部130は、識別した物体について、その物体を視覚的に強調する処理を実行した画面を生成し、出力してもよい。視覚的に強調する処理については、実施の形態1に説明した通りである。また、物体識別部130は、何らかの物体を識別した場合に、スピーカを介して、音声を用いてアラートを出力してもよい。また、物体識別部130は、判定部13の判定結果を他の装置に出力してもよい。
以上のようにして、センターサーバ120は、参照点群と入力点群との間で、物体の有無の変化があったか否かを検知することができる。さらに好ましくは、センターサーバ120は、参照点群と入力点群との間において存在の有無が変化した物体を識別することもできる。なお、物体識別部130は、識別した物体について、その物体を視覚的に強調する処理を実行した画面を生成し、出力してもよい。視覚的に強調する処理については、実施の形態1に説明した通りである。また、物体識別部130は、何らかの物体を識別した場合に、スピーカを介して、音声を用いてアラートを出力してもよい。また、物体識別部130は、判定部13の判定結果を他の装置に出力してもよい。
(2D)
図16Bは、実施の形態2にかかるセンターサーバの別の例を示すブロック図である。センターサーバ120は、図16Aに示した構成要素のほか、移動制御部131をさらに備える。以下、センターサーバ120の処理について、(2A)~(2C)で説明した点については省略し、本例に特有の点について説明する。
図16Bは、実施の形態2にかかるセンターサーバの別の例を示すブロック図である。センターサーバ120は、図16Aに示した構成要素のほか、移動制御部131をさらに備える。以下、センターサーバ120の処理について、(2A)~(2C)で説明した点については省略し、本例に特有の点について説明する。
移動制御部131は、ロボット101の移動を制御する。例えば、物体識別部130が、変化した点群の箇所が何らかの物体に相当すると判定したとき、移動制御部131は、ロボット101に対して、変化した点群の箇所に対して接近した後、さらに当該箇所を計測するように指示することができる。この指示は、当該箇所の更に詳細な点群のデータを取得し、解析をするためになされるものである。あるいは、移動制御部131は、物体識別部130が特定の種類の物体を識別した場合に、上記のようにロボット101を制御してもよい。
移動制御部131は、以下の少なくともいずれかの場合に指示を出力してもよい。
・(I)及び(III)の処理結果に基づく判定結果に基づいて、参照点群において物体が存在せず、入力点群において物体が存在するようになったと判定された場合
・(II)及び(IV)の処理結果に基づく判定結果に基づいて、参照点群において物体が存在しており、入力点群において物体が存在しなくなったと判定された場合
ただし、変化箇所について詳細な解析をするためには、少なくとも、参照点群において物体が存在せず、入力点群において物体が存在するようになった場合において、移動制御部131が指示を出力するのが好ましい。
・(I)及び(III)の処理結果に基づく判定結果に基づいて、参照点群において物体が存在せず、入力点群において物体が存在するようになったと判定された場合
・(II)及び(IV)の処理結果に基づく判定結果に基づいて、参照点群において物体が存在しており、入力点群において物体が存在しなくなったと判定された場合
ただし、変化箇所について詳細な解析をするためには、少なくとも、参照点群において物体が存在せず、入力点群において物体が存在するようになった場合において、移動制御部131が指示を出力するのが好ましい。
[処理の説明]
図17A~17Bは、図16Aに対応する、(2D)におけるセンターサーバ120の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、センターサーバ120の処理の概要が説明される。なお、(2A)及び(2B)と同じ点については、適宜記載を省略する。
図17A~17Bは、図16Aに対応する、(2D)におけるセンターサーバ120の代表的な処理の一例を示したフローチャートであり、このフローチャートを参照して、センターサーバ120の処理の概要が説明される。なお、(2A)及び(2B)と同じ点については、適宜記載を省略する。
ステップS21~S26については、図16Aと同様であるため、説明を省略する。ステップS26の後、物体識別部130は(2C)に示した処理を実行し、(I)及び(III)の処理結果に基づく判定結果に基づいて生成された画像において、変化した点群の箇所が、何らかの物体に相当するか否かを判定する(ステップS28;物体検出判定ステップ)。変化した点群の箇所が物体に相当しない場合(ステップS28のNo)、移動制御部131は特段の制御を実行しない。この場合、ロボット101は、例えば従前に設定された移動ルートに沿って移動する。一方、変化した点群の箇所が何らかの物体に相当する場合(ステップS28のYes)、移動制御部131は、ロボット101に対して、変化した点群の箇所に対して接近した後、さらに当該箇所を計測するように指示するように制御する(ステップS29;ロボット移動ステップ)。この場合、ロボット101は、従前に設定された移動ルートを一旦外れて移動する。
なお、(II)及び(IV)の処理結果に基づく判定結果に基づいて生成された画像についても、ステップS28及びS29に示した処理を実行することが可能である。また、ステップS29の処理の結果、ロボットが接近して計測を実行することで取得した画像についても、センターサーバ120は、(2A)~(2D)に示した処理を実行することができる。
[効果の説明]
以上に示したように、検出結果生成部128が生成した画像において何らかの物体が検出されたような場合に、センターサーバ120は、ロボット101に対して詳細な点群のデータを取得させるように制御する。これにより、インフラ設備の故障又は異常に関する、より詳細な点検が可能となる。なお、検出結果生成部128が点群を生成する場合であっても、物体識別部130の物体判定結果に基づいて、移動制御部131は同様の制御を実行することができる。
以上に示したように、検出結果生成部128が生成した画像において何らかの物体が検出されたような場合に、センターサーバ120は、ロボット101に対して詳細な点群のデータを取得させるように制御する。これにより、インフラ設備の故障又は異常に関する、より詳細な点検が可能となる。なお、検出結果生成部128が点群を生成する場合であっても、物体識別部130の物体判定結果に基づいて、移動制御部131は同様の制御を実行することができる。
他の例として、移動制御部131は、物体識別部130が検出した物体が、従前に設定された移動ルート上に存在すると判定した場合、移動ルートを、物体が存在する箇所を避けるようなルートに設定してもよい。移動制御部131は、新たに設定したルート上を移動するように、ロボット101の移動を制御する。
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態に記載した各構成又は各処理は、任意に組み合わせることが可能である。また、各フローチャートに記載の処理の順番は、図面の通りでなく、適宜入れ替えられてもよいし、複数の処理が並列に実行されてもよい。
例えば、図10Bでは、ステップS31~S34の処理が、入力点群の各点に対して繰り返し実行されている。しかしながら、これに代えて、入力点群において処理対象である全座標について空間特徴量を計算する処理と、入力点群の各座標と対応する参照点群の座標を含む領域について空間特徴量を計算する処理と、が先になされてもよい。その後、全座標についてステップS33~S34の処理が実行されることで、処理対象となる領域における点の有無の変化を検知することができる。他のフローチャートでも、同様の処理の順番の入れ替えが可能である。
実施の形態2におけるセンターサーバ120は、比較部として、第1の比較部125と、第1の比較部125よりも大きい球体領域を用いて類似度を計算する第2の比較部126とを備える。しかしながら、センターサーバ120は、第3の比較部をさらに備えてもよい。第3の比較部は、球体領域S12よりも更に大きい球体領域を用いて計算された座標F1の空間特徴量と、球体領域S24よりも更に大きい球体領域を用いて計算された座標F2の空間特徴量と、を比較する。このとき、(9)に示した通り、第2の比較部126が第1の比較部125の比較結果に基づいた空間特徴量の比較を実行したように、第3の比較部は、第2の比較部126の比較結果に基づいた空間特徴量の比較を実行することができる。このようにして、第3の比較部は、座標F1と座標F2との間で点の有無の変化が生じているか否かを判定する。
変化検出部127は、第1の比較部125、第2の比較部126及び第3の比較部の比較結果に基づいて、座標F1と座標F2との間で点の有無の変化が生じたか否かを判定する。ここで、変化検出部127は、第1の比較部125又は第2の比較部126が実行した比較結果において、座標F1と座標F2との間で点の有無の変化が生じていると判定された場合に、座標F1と座標F2との間で点の有無の変化が生じたと判定する。また、第1の比較部125及び第2の比較部126の比較結果において、座標F1と座標F2との間で点の有無の変化が生じていないと判定された場合でも、第3の比較部の比較結果において、座標F1と座標F2との間で点の有無の変化が生じていると判定された場合が想定される。この場合、変化検出部127は、座標F1と座標F2との間で点の有無の変化が生じたと判定する。
以上の例では、空間特徴量の算出の領域が3段階だけ設定可能として説明したが、必要に応じて、空間特徴量の算出の領域が4段階以上設定され、比較部が4ユニット以上設けられてもよい。この場合でも、変化検出部127は、各比較部の比較結果に基づいて、上記と同様の判定を実行する。検出結果生成部128は、変化検出部127が実行した判定結果に基づいて画像を生成する。
実施の形態2では、極座標を用いて、座標F1の周辺領域である球体領域S1及び座標F2の周辺領域である球体領域S2を定義した。しかしながら、極座標に限らず、円筒座標等、他の種類の座標系を用いて、座標F1及びF2の周辺領域を定義することも可能である。ただし、極座標を用いた場合、参照特徴量計算部123及び入力特徴量計算部124の計算が容易になるという効果を奏する。
また、実施の形態2において(5)~(7)に示した類似度の計算方法は、適宜変更することができる。例えば、(5)では、第1の比較部125は、(6)に示すScore(P1φθr,P2φθr)を単純加算することでS(P1, P2)を計算した。しかしながら、第1の比較部125は、それ以外の方法で、Samearound(P1φθr,P2φθr)がφ、θ、rの全範囲において存在する数に関してS(P1, P2)が単調増加となるように、S(P1, P2)を計算してもよい。また、(5)では、S(P1, P2)はValidNumの逆数に比例している。しかしながら、変化検出部127はそれ以外の方法で、ValidNumに関してS(P1, P2)が単調減少となるように、S(P1, P2)を計算してもよい。第1の比較部125が実行する(8)~(10)の計算についても、同様のことがいえる。
実施の形態2において、センターサーバ120が各部で実行する上述の処理における任意の一部は、ロボット101又は異なるサーバの少なくともいずれかが実行してもよい。つまり、センターサーバ120の処理は分散システムで実現されてもよい。
また、別の例として、センターサーバ120が設けられず、ロボット101がスタンドアローンで上述のセンターサーバ120の処理を実行してもよい。この場合、ロボット101内の記憶部に、参照点群と、その参照点群が計測された位置情報とが関連付けて格納されている。ロボット101は、自身のLiDAR102で計測を行い、入力点群を取得する。ロボット101は、入力点群を計測した位置情報を用いて記憶部を検索し、入力点群と比較対象となる参照点群のデータを取得する。この詳細については、上記の参照点群取得部121の処理と同様である。そして、ロボット101は、上記の参照特徴量計算部123~検出結果生成部128に関する処理を実行することができる。また、ロボット101は、物体識別部130に関する処理を実行してもよい。さらに、ロボット101は、物体識別部130で何らかの物体を検出した場合、変化した点群の箇所に対して接近した後、さらに当該箇所を計測するように、自身の移動部を制御することもできる。
以上に示した実施の形態では、この開示をハードウェアの構成として説明したが、この開示は、これに限定されるものではない。この開示は、上述の実施形態において説明された変化検出装置、変化検出システムにおける各装置又はセンターサーバの処理(ステップ)を、コンピュータ内のプロセッサにコンピュータプログラムを実行させることで実現することも可能である。
図18は、以上に示した各実施の形態の処理が実行される情報処理装置のハードウェア構成例を示すブロック図である。図18を参照すると、この情報処理装置90は、信号処理回路91、プロセッサ92及びメモリ93を含む。
信号処理回路91は、プロセッサ92の制御に応じて、信号を処理するための回路である。なお、信号処理回路91は、送信装置から信号を受信する通信回路を含んでいてもよい。
プロセッサ92は、メモリ93と接続されて(結合して)おり、メモリ93からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態において説明された装置の処理を行う。プロセッサ92の一例として、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、FPGA(Field-Programmable Gate Array)、DSP(Demand-Side Platform)、ASIC(Application Specific Integrated Circuit)が挙げられる。プロセッサ92として、1個のプロセッサが用いられてもよいし、複数のプロセッサが協働して用いられてもよい。
メモリ93は、揮発性メモリや不揮発性メモリ、またはそれらの組み合わせで構成される。なお、揮発性メモリは、例えば、DRAM (Dynamic Random Access Memory)、SRAM (Static Random Access Memory)等のRAM (Random Access Memory)であってもよい。不揮発性メモリは、例えば、PROM (Programmable Random Only Memory)、EPROM (Erasable Programmable Read Only Memory) 等のROM (Read Only Memory)、フラッシュメモリや、SSD(Solid State Drive)であってもよい。メモリ93として、1個のメモリが用いられてもよいし、複数のメモリが協働して用いられてもよい。
メモリ93は、1以上の命令を格納するために使用される。ここで、1以上の命令は、ソフトウェアモジュール群としてメモリ93に格納される。プロセッサ92は、これらのソフトウェアモジュール群をメモリ93から読み出して実行することで、上述の実施形態において説明された処理を行うことができる。
なお、メモリ93は、プロセッサ92の外部に設けられるものに加えて、プロセッサ92に内蔵されているものを含んでもよい。また、メモリ93は、プロセッサ92を構成するプロセッサから離れて配置されたストレージを含んでもよい。この場合、プロセッサ92は、I/O(Input/Output)インタフェースを介してメモリ93にアクセスすることができる。
以上に説明したように、上述の実施形態における各装置が有する1又は複数のプロセッサは、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。この処理がなされることで、各実施の形態に記載された情報処理が実現できる。
プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disk(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較し、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較し、
前記第1の特徴量及び前記第2の特徴量の比較結果である第1の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果である第2の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する、
コンピュータが実行する変化検出方法。
(付記2)
前記第1の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第2の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記第1の比較結果及び前記第2の比較結果を用いた判定において、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
付記1に記載の変化検出方法。
(付記3)
前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
付記1又は2に記載の変化検出方法。
(付記4)
前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
付記3に記載の変化検出方法。
(付記5)
前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
付記1乃至4のいずれか1項に記載の変化検出方法。
(付記6)
前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標で実行して、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出し、
前記検出の結果を出力する、
付記1乃至5のいずれか1項に記載の変化検出方法。
(付記7)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段と、
を備える変化検出システム。
(付記8)
前記第1の特徴量及び前記第2の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記判定手段は、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
付記7に記載の変化検出システム。
(付記9)
前記第2の比較手段は、前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
付記7又は8に記載の変化検出システム。
(付記10)
前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第2の比較手段は、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
付記9に記載の変化検出システム。
(付記11)
前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
付記7乃至10のいずれか1項に記載の変化検出システム。
(付記12)
前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標について前記判定手段が実行した結果を用いて、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出する検出手段と、
前記検出の結果を出力する出力手段と、をさらに備える、
付記7乃至11のいずれか1項に記載の変化検出システム。
(付記13)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段と、
を備える変化検出装置。
(付記14)
前記第1の特徴量及び前記第2の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記判定手段は、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
付記13に記載の変化検出装置。
(付記15)
前記第2の比較手段は、前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
付記13又は14に記載の変化検出装置。
(付記16)
前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第2の比較手段は、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
付記15に記載の変化検出装置。
(付記17)
前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
付記13乃至16のいずれか1項に記載の変化検出装置。
(付記18)
前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標について前記判定手段が実行した結果を用いて、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出する検出手段と、
前記検出の結果を出力する出力手段と、をさらに備える、
付記13乃至17のいずれか1項に記載の変化検出装置。
(付記19)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較し、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較し、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する、
ことをコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
(付記1)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較し、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較し、
前記第1の特徴量及び前記第2の特徴量の比較結果である第1の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果である第2の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する、
コンピュータが実行する変化検出方法。
(付記2)
前記第1の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第2の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記第1の比較結果及び前記第2の比較結果を用いた判定において、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
付記1に記載の変化検出方法。
(付記3)
前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
付記1又は2に記載の変化検出方法。
(付記4)
前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
付記3に記載の変化検出方法。
(付記5)
前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
付記1乃至4のいずれか1項に記載の変化検出方法。
(付記6)
前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標で実行して、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出し、
前記検出の結果を出力する、
付記1乃至5のいずれか1項に記載の変化検出方法。
(付記7)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段と、
を備える変化検出システム。
(付記8)
前記第1の特徴量及び前記第2の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記判定手段は、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
付記7に記載の変化検出システム。
(付記9)
前記第2の比較手段は、前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
付記7又は8に記載の変化検出システム。
(付記10)
前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第2の比較手段は、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
付記9に記載の変化検出システム。
(付記11)
前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
付記7乃至10のいずれか1項に記載の変化検出システム。
(付記12)
前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標について前記判定手段が実行した結果を用いて、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出する検出手段と、
前記検出の結果を出力する出力手段と、をさらに備える、
付記7乃至11のいずれか1項に記載の変化検出システム。
(付記13)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段と、
を備える変化検出装置。
(付記14)
前記第1の特徴量及び前記第2の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記判定手段は、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
付記13に記載の変化検出装置。
(付記15)
前記第2の比較手段は、前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
付記13又は14に記載の変化検出装置。
(付記16)
前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第2の比較手段は、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
付記15に記載の変化検出装置。
(付記17)
前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
付記13乃至16のいずれか1項に記載の変化検出装置。
(付記18)
前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標について前記判定手段が実行した結果を用いて、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出する検出手段と、
前記検出の結果を出力する出力手段と、をさらに備える、
付記13乃至17のいずれか1項に記載の変化検出装置。
(付記19)
第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較し、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較し、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する、
ことをコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
以上、実施の形態を参照して本開示を説明したが、本開示は上記によって限定されるものではない。本開示の構成や詳細には、開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
10 変化検出装置
11 第1の比較部 12 第2の比較部
13 判定部 14 出力部
20 変化検出システム
21 比較装置 22 判定装置
100 監視システム
101 ロボット 102 LiDAR
110 基地局
120 センターサーバ
121 参照点群取得部 122 入力点群取得部
123 参照特徴量計算部 124 入力特徴量計算部
125 第1の比較部 126 第2の比較部
127 変化検出部 128 検出結果生成部
129 抽出部 130 物体識別部
131 移動制御部
200 参照点群DB
11 第1の比較部 12 第2の比較部
13 判定部 14 出力部
20 変化検出システム
21 比較装置 22 判定装置
100 監視システム
101 ロボット 102 LiDAR
110 基地局
120 センターサーバ
121 参照点群取得部 122 入力点群取得部
123 参照特徴量計算部 124 入力特徴量計算部
125 第1の比較部 126 第2の比較部
127 変化検出部 128 検出結果生成部
129 抽出部 130 物体識別部
131 移動制御部
200 参照点群DB
Claims (18)
- 第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較し、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較し、
前記第1の特徴量及び前記第2の特徴量の比較結果である第1の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果である第2の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する、
コンピュータが実行する変化検出方法。 - 前記第1の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第2の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記第1の比較結果及び前記第2の比較結果を用いた判定において、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
請求項1に記載の変化検出方法。 - 前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
請求項1又は2に記載の変化検出方法。 - 前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
請求項3に記載の変化検出方法。 - 前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
請求項1乃至4のいずれか1項に記載の変化検出方法。 - 前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標で実行して、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出し、
前記検出の結果を出力する、
請求項1乃至5のいずれか1項に記載の変化検出方法。 - 第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段と、
を備える変化検出システム。 - 前記第1の特徴量及び前記第2の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記判定手段は、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
請求項7に記載の変化検出システム。 - 前記第2の比較手段は、前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
請求項7又は8に記載の変化検出システム。 - 前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第2の比較手段は、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
請求項9に記載の変化検出システム。 - 前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
請求項7乃至10のいずれか1項に記載の変化検出システム。 - 前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標について前記判定手段が実行した結果を用いて、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出する検出手段と、
前記検出の結果を出力する出力手段と、をさらに備える、
請求項7乃至11のいずれか1項に記載の変化検出システム。 - 第1の点群における第1の座標を含む第1の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第1の特徴量と、第2の点群における第2の座標を含む第2の領域内における点の存在に関する情報を用いて計算された、前記第1の座標と対応する前記第2の座標の第2の特徴量と、を比較する第1の比較手段と、
前記第1の座標を含み、前記第1の領域よりも大きい第3の領域内における点の存在に関する情報を用いて計算された、前記第1の座標の第3の特徴量と、前記第2の座標を含み、前記第2の領域よりも大きい第4の領域内における点の存在に関する情報を用いて計算された、前記第2の座標の第4の特徴量と、を比較する第2の比較手段と、
前記第1の特徴量及び前記第2の特徴量の比較結果と、前記第3の特徴量及び前記第4の特徴量の比較結果と、を用いて、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かを判定する判定手段と、
を備える変化検出装置。 - 前記第1の特徴量及び前記第2の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないことを示し、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていることを示す場合に、前記判定手段は、前記第1の座標と前記第2の座標との間で点の有無の変化が生じたと判定する、
請求項13に記載の変化検出装置。 - 前記第2の比較手段は、前記第1の点群における複数の前記第1の座標に関する前記第1の特徴量と、前記第2の点群における複数の前記第2の座標に関する前記第2の特徴量と、の比較結果のうち、少なくとも1つの前記第1の座標と、前記少なくとも1つの第1の座標と対応する前記第2の座標と、の比較結果を用いることで、前記第3の特徴量及び前記第4の特徴量の比較を実行する、
請求項13又は14に記載の変化検出装置。 - 前記少なくとも1つの第1の座標に関する前記第1の特徴量と、前記少なくとも1つの第2の座標に関する前記第2の特徴量と、の比較結果が、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていることを示す場合には、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標との間で点の有無の変化が生じていないことを示し、かつ、前記少なくとも1つの第1の座標と前記少なくとも1つの第2の座標とにおいて点の有無を示す情報が同一であるとみなされる場合と比較して、前記第2の比較手段は、前記第3の特徴量及び前記第4の特徴量の比較結果が、前記第1の座標と前記第2の座標との間で点の有無の変化が生じていないと示すための重み付けを下げる、
請求項15に記載の変化検出装置。 - 前記第1の領域内における点の存在に関する情報は、前記第1の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報であり、前記第3の領域内における点の存在に関する情報は、前記第3の領域内において点が存在する、点が存在しない、又は点の存在が不明であることのいずれかを示す情報である、
請求項13乃至16のいずれか1項に記載の変化検出装置。 - 前記第1の座標と前記第2の座標との間で点の有無の変化が生じたか否かの判定を、前記第1の点群と前記第2の点群とにおいて対応する複数の座標について前記判定手段が実行した結果を用いて、前記第1の点群と前記第2の点群との間で物体の有無の変化を検出する検出手段と、
前記検出の結果を出力する出力手段と、をさらに備える、
請求項13乃至17のいずれか1項に記載の変化検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/016977 WO2024224647A1 (ja) | 2023-04-28 | 2023-04-28 | 変化検出方法、変化検出システム及び変化検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/016977 WO2024224647A1 (ja) | 2023-04-28 | 2023-04-28 | 変化検出方法、変化検出システム及び変化検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024224647A1 true WO2024224647A1 (ja) | 2024-10-31 |
Family
ID=93255837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/016977 WO2024224647A1 (ja) | 2023-04-28 | 2023-04-28 | 変化検出方法、変化検出システム及び変化検出装置 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024224647A1 (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009064287A (ja) * | 2007-09-07 | 2009-03-26 | Meidensha Corp | 侵入者検知装置 |
JP2016217941A (ja) * | 2015-05-22 | 2016-12-22 | 株式会社東芝 | 3次元データ評価装置、3次元データ測定システム、および3次元計測方法 |
JP2017009378A (ja) * | 2015-06-19 | 2017-01-12 | 株式会社トヨタマップマスター | 点群データ処理装置、点群データ処理方法、プログラム、および記録媒体 |
JP2020166516A (ja) * | 2019-03-29 | 2020-10-08 | 田中 成典 | 点群データ管理システム |
-
2023
- 2023-04-28 WO PCT/JP2023/016977 patent/WO2024224647A1/ja unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009064287A (ja) * | 2007-09-07 | 2009-03-26 | Meidensha Corp | 侵入者検知装置 |
JP2016217941A (ja) * | 2015-05-22 | 2016-12-22 | 株式会社東芝 | 3次元データ評価装置、3次元データ測定システム、および3次元計測方法 |
JP2017009378A (ja) * | 2015-06-19 | 2017-01-12 | 株式会社トヨタマップマスター | 点群データ処理装置、点群データ処理方法、プログラム、および記録媒体 |
JP2020166516A (ja) * | 2019-03-29 | 2020-10-08 | 田中 成典 | 点群データ管理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885352B2 (en) | Method, apparatus, and device for determining lane line on road | |
US20200003886A1 (en) | Apparatus and method with ego motion estimation | |
CN112926514A (zh) | 一种多目标检测及跟踪方法、系统、存储介质及应用 | |
WO2015098971A1 (ja) | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
JP4985516B2 (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
Raza et al. | Comparing and evaluating indoor positioning techniques | |
JP2012042396A (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
US11922667B2 (en) | Object region identification device, object region identification method, and object region identification program | |
WO2017154655A1 (ja) | 群衆種類識別システム、群衆種類識別方法および群衆種類識別プログラムを記憶する記憶媒体 | |
Park et al. | Identifying reflected images from object detector in indoor environment utilizing depth information | |
US12002193B2 (en) | Inspection device for inspecting a building or structure | |
EP4006829A1 (en) | Information processing device, data generation method, and non-transitory computer-readable medium having program stored thereon | |
US20240119620A1 (en) | Posture estimation apparatus, posture estimation method, and computer-readable recording medium | |
WO2024224647A1 (ja) | 変化検出方法、変化検出システム及び変化検出装置 | |
WO2021186640A1 (ja) | 劣化検出装置、劣化検出システム、劣化検出方法、およびプログラム | |
KR100835906B1 (ko) | 로봇 전역 위치 추정 방법 및 로봇 전역 위치 추정 장치 | |
Giulietti et al. | Automated vision-based concrete crack measurement system | |
WO2024084601A1 (ja) | 変化検出方法、変化検出システム及び変化検出装置 | |
Vaida et al. | Automatic extrinsic calibration of LIDAR and monocular camera images | |
WO2023016392A1 (en) | Systems and methods for pose determination of a mobile subject | |
JP2023107676A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Fischer et al. | Evaluation of a smart mobile robotic system for industrial plant inspection and supervision | |
KR102139667B1 (ko) | 정보 획득 방법 및 디바이스. | |
KR102740476B1 (ko) | 스켈레톤화 기법을 활용한 재난현장의 객체 손상 정도 평가 방법 및 장치 | |
Mu et al. | AUV SLAM method based on SO-CFAR and ADT feature extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23935422 Country of ref document: EP Kind code of ref document: A1 |