WO2024242156A1 - Direction estimation device, direction estimation system, direction estimation method, and direction estimation program - Google Patents
Direction estimation device, direction estimation system, direction estimation method, and direction estimation program Download PDFInfo
- Publication number
- WO2024242156A1 WO2024242156A1 PCT/JP2024/018935 JP2024018935W WO2024242156A1 WO 2024242156 A1 WO2024242156 A1 WO 2024242156A1 JP 2024018935 W JP2024018935 W JP 2024018935W WO 2024242156 A1 WO2024242156 A1 WO 2024242156A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- direction estimation
- sound
- sonar
- image
- listening
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 32
- 230000007246 mechanism Effects 0.000 claims description 17
- 238000005259 measurement Methods 0.000 abstract description 63
- 238000010586 diagram Methods 0.000 description 36
- 238000012545 processing Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 238000007667 floating Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006740 morphological transformation Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
Definitions
- the present invention relates to a direction estimation device, a direction estimation system, a direction estimation method, and a direction estimation program.
- mooring line load monitoring system that remotely monitors the failure and breakage of mooring lines of floating bodies such as ships (for example, non-patent document 1).
- Non-Patent Document 1 a sensor such as a strain gauge is attached to the upper end or middle of the mooring rope, and the output value of the sensor is constantly monitored.
- This monitoring makes it possible to detect critical events such as the breakage of the mooring rope and to predict the risk of breakage due to excessive tension.
- the strain and other information obtained from the sensors is merely fragmentary information at a certain point on the mooring line, making it difficult to accurately monitor the overall shape and behavior of the mooring line, as well as the amount and distribution of biological fouling.
- the present disclosure therefore aims to provide a direction estimation device, a direction estimation system, a direction estimation method, and a direction estimation program that are capable of suppressing errors when measuring the position of an object.
- a direction estimation device includes an information acquisition unit that acquires listening result information indicating a time series of listening results measured by a sonar that emits sound beams in multiple directions, the listening results being sound waves from multiple listening directions including at least some of the multiple directions, and a direction estimation unit that estimates a perpendicular incidence direction in which the sound beam perpendicularly enters an object based on the listening result information.
- the listening result information may indicate the listening results of the sound waves from the multiple listening directions for each zenith angle and each deviation angle.
- multiple listening directions can be expressed in polar coordinates based on the sonar, simplifying the process of estimating the perpendicular incidence direction.
- the information acquisition unit may acquire, as the listening result information, image information for each zenith angle, which indicates a fan-shaped image having a radius and a central angle that are the elapsed time from the time the sound beam was emitted and the deflection angle, respectively, and which includes an image corresponding to the echo of the sound beam from the target, and the direction estimation unit may estimate the vertical incidence direction based on the image information for each zenith angle.
- the change in the image with respect to the zenith angle i.e., the change with respect to the image's angle of incidence
- the direction estimation unit may estimate the vertical incidence direction based on the length of each of the images included in each of the images indicated by the image information for each of the zenith angles.
- the perpendicular incident direction can be accurately determined by utilizing the property that the closer the angle at which the sound beam is incident on the target object is to perpendicular, the shorter the image length becomes.
- the direction estimation unit may further calculate the distance between the sonar and the target object based on the image information when the estimated perpendicular incident direction is included in the sound beam.
- the distance between the center of the fan and the image is the distance between the position where the sound beam perpendicularly enters the object and the sonar, making use of this property to accurately calculate the distance between the position where the sound beam perpendicularly enters the object and the sonar.
- the object may appear to be linear when viewed from the sonar.
- the object is planar, it is necessary to estimate its direction in advance and measure from the appropriate direction. For example, if the object is a flat seabed, it is necessary to measure from above, and if it is a vertical wall, it is necessary to measure from the side.
- the shape of the object can be treated as linear, so it is possible to measure without estimating the appropriate direction in advance. Also, the relational expression between the angle at which the sound beam is incident on the object and the image length can be easily derived. This makes it easy to estimate the perpendicular incidence direction.
- the distance between the sonar and a plane including the target object may be smaller than a value determined based on the distance between the sonar and the target object.
- the direction estimation device may further include a memory unit that stores pairs of the perpendicular incidence direction and the distance, and a shape estimation unit that estimates the shape of the object based on the multiple pairs stored in the memory unit.
- a curve that closely approximates the multiple positions represented by each of the multiple pairs can be calculated, and the shape of the entire object can be estimated by assuming that the curve represents the shape of the object. This makes it possible to estimate the shape of the entire object based on the measurement results of some positions on the object.
- the sonar may be a multi-beam sonar.
- a direction estimation system includes an underwater robot equipped with a sonar and the above-mentioned direction estimation unit, the sonar emits sound beams in multiple directions, listens to sound waves from multiple listening directions including at least some of the multiple directions, and generates listening result information indicating the listening results in a time series.
- the sonar may be a multi-beam sonar that measures the sound waves from the multiple listening directions for each declination angle
- the underwater robot may include a mechanism that directs the sonar to the multiple listening directions for each zenith angle.
- a direction estimation method is a direction estimation method in a direction estimation device, which includes acquiring listening result information indicating the listening results of sound waves from a plurality of listening directions including at least a portion of the plurality of directions, the listening result information being a time series of listening results measured by a sonar that emits sound beams in a plurality of directions, and estimating a perpendicular incidence direction in which the sound beam is perpendicularly incident on an object based on the listening result information.
- a direction estimation program is a direction estimation program used in a direction estimation device, and is a program for causing a computer to function as an information acquisition unit that acquires listening result information that indicates a time series of listening results measured by a sonar that emits sound beams in multiple directions, the listening results being sound waves from multiple listening directions that include at least some of the multiple directions, and a direction estimation unit that estimates the perpendicular incidence direction in which the sound beam is perpendicularly incident on an object based on the listening result information.
- the present disclosure provides a direction estimation device, a direction estimation system, a direction estimation method, and a direction estimation program that can reduce errors when measuring the position of an object.
- FIG. 1 is a diagram for explaining the position of an underwater robot relative to a mooring line according to an embodiment of the present disclosure.
- FIG. FIG. 1 is a diagram illustrating a configuration of a direction estimation system according to an embodiment of the present disclosure.
- FIG. 1 is a diagram showing a configuration of an underwater robot according to an embodiment of the present disclosure.
- FIG. 2 is a diagram for explaining the orientation of the MBS in an underwater robot according to an embodiment of the present disclosure.
- FIG. 2 is a diagram for explaining the orientation of the MBS in an underwater robot according to an embodiment of the present disclosure.
- FIG. 2 is a diagram for explaining the orientation of the MBS in an underwater robot according to an embodiment of the present disclosure.
- FIG. 1 is a diagram for explaining the position of an underwater robot relative to a mooring line according to an embodiment of the present disclosure.
- FIG. FIG. 1 is a diagram illustrating a configuration of a direction estimation system according to an embodiment of the present disclosure.
- FIG. 1 is a diagram showing
- FIG. 2 is a diagram illustrating an example of an acoustic image according to an embodiment of the present disclosure.
- FIG. 13 illustrates an example of a swivel mechanism according to an embodiment of the present disclosure.
- 1 is a diagram for explaining the principle of direction estimation performed by a direction estimation device according to an embodiment of the present disclosure.
- FIG. 1 is a diagram for explaining the principle of direction estimation performed by a direction estimation device according to an embodiment of the present disclosure.
- FIG. FIG. 13 is a diagram showing an example of a change in a theoretical solution of an image length L * image with respect to a head angle ⁇ according to an embodiment of the present disclosure.
- FIG. 1 is a diagram illustrating a configuration of a direction estimation device according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of a change in image length L * image over time according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of a result of fitting by a fitting unit according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of a target angle ⁇ 0 calculated for each scan by a fitting unit according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of a distance d calculated for each scan by a fitting unit according to an embodiment of the present disclosure.
- FIG. 13 is a diagram for explaining a method for calculating coordinates of a mooring line according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of measurement results of absolute coordinates of a mooring line according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of measurement results of absolute coordinates of a mooring line according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of measurement results of absolute coordinates of a mooring line according to an embodiment of the present disclosure.
- FIG. 13 is a diagram showing an example of measurement results of absolute coordinates of a mooring line according to an embodiment of the present disclosure.
- 4 is a flowchart defining an operation procedure when a direction estimation device 11 according to an embodiment of the present disclosure performs a direction estimation process.
- FIG. 13 is a diagram showing an example of a target angle ⁇ 0 calculated for each scan by a fitting unit in a first modified example of a direction estimation device according to an embodiment of the present disclosure.
- Each drawing may show an X-axis, a Y-axis, and a Z-axis.
- the X-axis, the Y-axis, and the Z-axis are coordinate axes fixed to the Earth, and form a right-handed three-dimensional Cartesian coordinate system.
- the vertical downward direction is the positive direction of the Z-axis.
- the X-axis and the Y-axis are oriented horizontally.
- the direction of the X-axis arrow may be referred to as the X-axis + side
- the direction opposite the arrow may be referred to as the X-axis - side, and the same applies to the other axes.
- the mooring line 401 (object) is, for example, a chain that moor a float supporting a wind turbine from the seabed surface Pb in a floating wind power generation system.
- the mooring line 401 hangs down under its own weight to form a catenary curve (suspended curve).
- This mooring method in which mooring force is obtained by the weight of the hanging mooring line 401 is called catenary mooring.
- the plane including the mooring line 401 may be referred to as the moving plane Pm.
- the moving plane Pm is parallel to the ZX plane.
- the underwater robot 111 is a remotely operated unmanned underwater robot (Remotely Operated Vehicle: ROV) that is remotely controlled by an operator from outside the underwater robot 111 (e.g., on a ship or on land).
- the underwater robot 111 may be an underwater robot that is directly operated by a human, or it may be an underwater robot that performs missions autonomously without assistance such as human operation.
- the underwater robot 111 for example, has five thrusters and can control five degrees of freedom: surge, sway, heave, pitch, and yaw.
- this position satisfies the condition that the distance between the moving plane Pm and the MBS 114 is smaller than a value determined based on the distance between the MBS 114 and the mooring line 401. Specifically, the distance between the moving plane Pm and the MBS 114 is smaller than 100% (preferably, 20%) of the distance between the MBS 114 and the mooring line 401.
- five thrusters in the underwater robot 111 operate in response to remote control from outside, causing the underwater robot 111 to change depth and move horizontally within the moving plane Pm.
- the mooring line 401 appears straight when viewed from the MBS 114.
- FIG. 2 is a diagram showing the configuration of a direction estimation system according to an embodiment of the present disclosure.
- the direction estimation system 201 includes a computer 101 and an underwater robot 111.
- the computer 101 is installed, for example, on land.
- the computer 101 may also be installed on a floating body, a ship, or an underwater robot 111.
- the computer 101 includes a processor 21, a bus 22, a communication I/F (interface) 23, a memory 24 (storage unit), and a disk 25 (storage unit).
- the computer 101 is, for example, a personal computer.
- processor 21, communication unit 23, memory 24, and disk 25 are connected via bus 22 so that data can be exchanged among them.
- the memory 24 is a volatile storage device such as a dynamic random access memory (DRAM).
- the communication unit 23 and the underwater robot 111 which is provided outside the computer 101, are connected, for example, by a cable.
- the communication unit 23 communicates with the underwater robot 111 via the cable.
- the disk 25 is a readable/writable non-volatile storage device such as a hard disk drive (HDD) or a solid state drive (SSD), and stores programs (code).
- the disk 25 is not limited to an HDD or an SSD, and may be a memory card, a read-only CD-ROM (Compact Disc Read Only Memory), or a DVD-ROM (Digital Versatile Disc-Read Only Memory).
- the program can be installed from an external source.
- the program is distributed in a state stored in a storage medium such as the disk 25 that can be read by the computer 101.
- the program may be distributed over the Internet connected via a communication interface.
- the processor 21 When executing a program, the processor 21 transfers the program stored on the disk 25 and the data required to execute the program to the memory 24.
- the processor 21 reads the processing instructions and data required to execute the program from the memory 24, and executes arithmetic processing according to the contents of the processing instructions. At this time, the processor 21 may generate new data required to execute the program and store it in the memory 24.
- the processor 21 is not limited to a configuration in which it obtains the program and data from the disk 25, and may also be configured to obtain the program and data from a server via the Internet.
- FIG. 3 is a diagram showing the configuration of an underwater robot according to one embodiment of the present disclosure.
- the underwater robot 111 includes a communication unit 112, a swivel mechanism 113, an MBS 114, a thruster control unit 115, an absolute coordinate measurement unit 116, and a swivel angle measurement unit 117.
- the communication unit 112 in the underwater robot 111 communicates with the computer 101.
- the thruster control unit 115 controls the five thrusters based on control information received from the computer 101 via the communication unit 112.
- the absolute coordinate measurement unit 116 measures, for example, coordinates (hereinafter sometimes referred to as absolute coordinates) that indicate the position of the underwater robot 111 when a reference point on the Earth is used as the reference point.
- the absolute coordinate measurement unit 116 includes, for example, a one-axis fiber optic gyro (FOG) and a Doppler velocity log (DVL).
- the amount of movement of the underwater robot 111 is calculated, for example, by integrating the horizontal ground speed measured by the DVL along the azimuth angle obtained by integrating the angular velocity of the azimuth angle measured by the FOG.
- the absolute coordinate measurement unit 116 measures the absolute coordinates of the underwater robot 111 by adding the calculated amount of movement to the absolute coordinates of the initial position.
- the absolute coordinate measuring unit 116 measures the absolute coordinates of the underwater robot 111 at a predetermined period and transmits absolute coordinate information indicating the measured absolute coordinates to the computer 101 via the communication unit 112.
- Figures 4 to 6 are diagrams for explaining the orientation of the MBS 114 in an underwater robot according to one embodiment of the present disclosure.
- the x-axis, y-axis, and z-axis are defined as Cartesian coordinates fixed to the MBS 114.
- the x-axis, y-axis, and z-axis form a right-handed three-dimensional Cartesian coordinate system.
- the x-axis is parallel to the Y-axis
- the y-axis and z-axis are parallel to the moving plane Pm.
- Figure 4 shows MBS 114 as viewed from the negative side of the y-axis.
- Figure 5 shows MBS 114 as viewed from the negative side of the x-axis.
- Figure 6 shows MBS 114 as viewed from the positive side of the z-axis.
- the MBS 114 emits an acoustic beam 411 (sound wave beam) in multiple directions, listens to sound waves from multiple listening directions that include at least some of the multiple directions, and generates listening result information that indicates the listening results in a time series.
- acoustic beam 411 sound wave beam
- the MBS 114 emits an acoustic beam 411 in multiple directions in the zx plane and listens to sound waves from the multiple directions.
- the direction in which the acoustic beam 411 travels and the direction in which the sound waves are listened to are, for example, the same.
- the listening direction Da in the zx plane is defined by the deflection angle ⁇ when the z axis is used as a reference. Note that the direction in which the acoustic beam 411 travels and the direction in which the sound waves are listened to may be different.
- the MBS 114 emits an acoustic beam 411 in multiple listening directions Da, each determined by multiple deflection angles ⁇ , and listens to sound waves from the multiple listening directions Da.
- FIG. 7 is a diagram showing an example of an acoustic image according to an embodiment of the present disclosure.
- the MBS 114 generates a sector-shaped acoustic image 301 whose radius and central angle are the elapsed time from the time the acoustic beam 411 was emitted and the deflection angle ⁇ , respectively, and which includes an image 302 corresponding to the echo of the acoustic beam 411 from the mooring line 401.
- the acoustic image 301 further includes an image 303 corresponding to the echo of the acoustic beam 411 from the sea surface.
- the range of the fan-shaped acoustic image 301 is the area where an image can exist.
- the measurement origin of the MBS 114 is located at the intersection of two radii that pass through both ends of the fan-shaped arc, i.e., the center of the fan.
- a coordinate representation within the acoustic image 301 (hereinafter sometimes referred to as acoustic image coordinates), the above intersection point is set as the origin, and a u-axis and a v-axis that are orthogonal to each other are defined.
- the u-axis direction is, for example, a direction that bisects the central angle of the sector, and is taken so as to show the time-series listening results based on the acoustic beam 411 emitted in the z-axis direction.
- the direction Dr defined by the deflection angle ⁇ when the u-axis is used as the reference shows the time-series listening results based on the acoustic beam 411 emitted in the listening direction Da (see Figure 5).
- the radius of the sector is the maximum distance R that can be measured by the MBS 114 (hereinafter, sometimes referred to as the measurement range R).
- the measurement range R of the MBS 114 is set appropriately according to the size of the mooring line 401.
- the position of the image is determined by its direction and the time that has elapsed from when acoustic beam 411 was emitted until the echo is received.
- the MBS 114 generates an acoustic image 301 for each measurement.
- the MBS 114 performs measurements at a predetermined interval, for example, and transmits image information indicating the acoustic image 301 to the computer 101 via the communication unit 112.
- the oscillating mechanism 113 has a rotation shaft (not shown) that is rotated by, for example, a motor.
- the rotation shaft is parallel to the x-axis.
- the MBS 114 is attached to the rotation shaft of the oscillating mechanism 113. This allows the MBS 114 to rotate around the rotation shaft.
- the oscillating mechanism 113 rotates the rotation shaft back and forth at a predetermined angular velocity within a predetermined angle range, thereby causing the MBS 114 to perform a continuous oscillating motion.
- the swivel angle measurement unit 117 measures the swivel angle (zenith angle) of the MBS 114.
- the swivel angle measurement unit 117 includes, for example, an angle sensor, and acquires the angle of the rotation axis of the swivel mechanism 113 detected by the angle sensor, i.e., the swivel angle, at a predetermined interval.
- the swivel angle measurement unit 117 transmits swivel angle information indicating the acquired angle to the computer 101 via the communication unit 112.
- the measurement timing of the angle sensor and the measurement timing of the MBS 114 are approximately the same. However, the measurement timing of the angle sensor and the measurement timing of the MBS 114 may be different.
- FIG. 9 and 10 are diagrams for explaining the principle of direction estimation performed by a direction estimation device according to an embodiment of the present disclosure. As shown in Fig. 9 and 10, how the length L * image (see Fig. 7) of the image 302 of the mooring line 401 changes depending on the distance from the MBS 114 to the mooring line 401 and the incident angle of the acoustic beam to the mooring line 401 is theoretically derived.
- the angle between the axis of rotation TA of the swing and the direction in which the mooring line 401 extends is 90 degrees (see Figure 6).
- the mooring line 401 is positioned exactly in the center of the viewing angle of MBS114 (see Figure 4).
- the first assumption is that in the region of the mooring line 401 where the acoustic beam 411 hits when the MBS 114 performs a swiveling motion, the mooring line 401 is considered to be locally straight.
- the second assumption is to ignore the thickness of the mooring line 401. This is equivalent to considering that the acoustic beam 411 reflects from the central axis of the mooring line 401.
- the third assumption is that the MBS 114 is considered to be a point.
- the fourth assumption is that the acoustic beam 411 is uniformly distributed only within a certain symmetrical angular range (e.g., 2 ⁇ ) as viewed from the body of the MBS 114 (see Figures 5, 9, and 10).
- the fifth assumption is to ignore the pulse width of the acoustic beam 411 and to assume that the acoustic beam 411 spreads out like a widthless arc.
- ⁇ is the swivel angle of the MBS 114, with the reference direction Ds from point O as the reference and the counterclockwise direction as viewed from the x-axis + side to the x-axis - side as the positive direction.
- the reference direction Ds is, for example, the horizontal direction.
- ⁇ 0 is the swivel angle ⁇ when the acoustic beam 411 is perpendicularly incident on the mooring line 401.
- Point A is the intersection of the center line of the acoustic beam 411 and the mooring line 401.
- Points B and C are the upper and lower intersections of the mooring line 401 and a line indicating the distribution range of the acoustic beam, which is taken ⁇ above and below the center line of the acoustic beam 411, respectively.
- the shortest reflection path depends on whether point H is located between points B and C.
- L * image is expressed as a ratio of Ldiff to R, then: It becomes.
- FIG. 11 is a diagram showing an example of a change in the theoretical solution of the length L * image of the image 302 according to an embodiment of the present disclosure with respect to the swivel angle ⁇ .
- the vertical axis indicates L * image .
- the horizontal axis indicates the swivel angle ⁇ in degrees.
- FIG. 12 is a diagram showing the configuration of a direction estimation device according to an embodiment of the present disclosure.
- FIG. 12 shows the software configuration of the direction estimation device 11.
- the direction estimation device 11 is configured, for example, by executing a program in the processor 21 of the computer 101.
- the direction estimation device 11 includes, as functional blocks, a hearing result information acquisition unit 31, a head-swivel angle information acquisition unit 32, a control unit 33, an image processing unit 34, a data set generation unit 35, a direction estimation unit 36, an object coordinate calculation unit 37, an absolute coordinate information acquisition unit 38, and an overall shape estimation unit 39.
- the control unit 33 in the direction estimation device 11 controls the underwater robot 111 through the bus 22 and the communication unit 23. Specifically, the control unit 33 controls the thrusters of the underwater robot 111, the swing mechanism 113, and the MBS 114.
- the listening result information acquisition unit 31 acquires the listening result information.
- the listening result information indicates the results of listening to sound waves from multiple listening directions for each swivel angle ⁇ and each deflection angle ⁇ .
- the listening result information acquisition unit 31 receives image information showing an acoustic image 301 as listening result information from the underwater robot 111 at each measurement timing of the MBS 114.
- the image information is also information for each swiveling angle ⁇ .
- the hearing result information acquisition unit 31 outputs the acquired acoustic image 301 to the image processing unit 34.
- the image processing unit 34 When the image processing unit 34 receives the acoustic image 301 from the hearing result information acquisition unit 31, it acquires the length L * image of the image 302 based on the acoustic image 301 (see FIG. 7).
- the image processing unit 34 sets an area that includes the image 302 and binarizes that area.
- the image processing unit 34 performs an opening morphological transformation on the binarized area (hereinafter sometimes referred to as the binarized area) to remove small noise points, and then performs a closing morphological transformation to connect small gaps.
- the image processing unit 34 gives the smallest rectangle that circumscribes the selected contour and has each side parallel to the sides of the original image.
- the image processing unit 34 calculates the position (u1, v1) that is the midpoint of the bottom side of the rectangle as the position of the bottommost part of the image 302 of the mooring line 401.
- the image processing unit 34 also calculates the height of the rectangle as the length L * image of the image 302 of the mooring line 401.
- the swivel angle information acquisition unit 32 receives swivel angle information from the MBS 114 at each measurement timing of the swivel angle measurement unit 117 in the MBS 114, and outputs the swivel angle information to the data set generation unit 35.
- FIG. 13 is a diagram showing an example of a change in length L * image of the image 302 over time according to an embodiment of the present disclosure.
- the vertical axis indicates L * image
- the horizontal axis indicates time.
- the data set generator 35 receives the bottom position information and length information from the image processor 34, and stores the bottom position (u1, v1), the length L * image of the image 302, and the measurement time in association with each other. This generates a first data set in which the bottom position (u1, v1), the length L * image of the image 302, and the measurement time are arranged in chronological order.
- the graph shown in Fig. 13 plots the change in L * image over time when the MBS 114 swings back and forth once.
- the data set generator 35 also receives the swing angle information from the swing angle information acquirer 32 and stores the swing angle ⁇ in association with the measurement time. This generates a second data set in which pairs of the swing angle ⁇ and the measurement time are arranged in chronological order.
- the data set generator 35 generates a third data set in which the position (u1, v1) of the bottom of the image 302, the length L * image of the image 302, and the swing angle ⁇ correspond to each other based on the relationship between the measurement times in the first data set and the measurement times in the second data set. As a result, the horizontal axis of the graph in Fig. 13 is converted from time to the swing angle ⁇ based on the third data set.
- the data set generator 35 outputs the third data set to the direction estimator 36.
- Fig. 14 is a diagram showing an example of a result of fitting by a fitting unit according to an embodiment of the present disclosure.
- the vertical axis indicates L * image
- the horizontal axis indicates the swing angle ⁇ in "°".
- the direction estimation unit 36 estimates the perpendicular incidence direction based on the length L * image of each image 302 indicated by the image information for each swing angle ⁇ .
- the direction estimation unit 36 performs fitting based on the third data set and formula (5) to calculate the target angle ⁇ 0 that gives the curve Cb when formula (5) best fits the third data set.
- the direction estimation unit 36 calculates the target angle ⁇ 0 for each one-way swing of the MBS 114.
- the shape of the mooring rope 401 is approximated by a straight line, so that a point on the linear mooring rope 401 that is the shortest distance from the MBS 114 is located in the direction of the target angle ⁇ 0 .
- the direction estimation unit 36 calculates the distance d image from the acquired position (u1, v1) to the origin (0, 0) of the acoustic image coordinates in the acoustic image 301, and calculates the result of multiplying the distance d image by the measurement range R as the distance d from the MBS 114 to the mooring line 401.
- Fig. 15 is a diagram showing an example of a target angle ⁇ 0 calculated for each scan by a fitting unit according to an embodiment of the present disclosure.
- the vertical axis indicates the target angle ⁇ 0 in units of "°".
- the horizontal axis indicates the number of scans. For example, when the number of scans is an odd number and an even number, the swing motion of the MBS 114 is the result of the forward and backward paths, respectively.
- the 16 is a diagram showing an example of the distance d calculated for each scan by the fitting unit according to an embodiment of the present disclosure.
- the vertical axis indicates the distance d in units of "m".
- the horizontal axis can be read in the same way as in FIG. 15.
- the direction estimation unit 36 outputs the target angle ⁇ 0 and the distance d to the target coordinate calculation unit 37 for each scan, i.e., for each one-way swing of the MBS 114.
- the target coordinate calculation unit 37 calculates the absolute coordinates of the mooring rope 401 based on the target angle ⁇ 0 and distance d received from the direction estimation unit 36 and the absolute coordinate information received from the absolute coordinate information acquisition unit 38 .
- the absolute coordinates of the position of the MBS 114 are (xs, zs)
- the pitch angle of the robot is ⁇
- the swing angle at normal incidence is the target angle ⁇ 0
- the absolute coordinates of the point where the center plane 411a of the acoustic beam 411 and the mooring line 401 intersect are (xt, zt).
- ⁇ is positive in the counterclockwise direction as viewed from the Y-axis + side
- ⁇ 0 is positive in the clockwise direction as viewed from the Y-axis + side.
- (xt, zt) T can be obtained as follows.
- (xs, zs) T can be expressed as follows using (xb, zb) T and (xsb, zsb) T :
- (xt, zt) T can be expressed as follows using (xb, zb) T and (xsb, zsb) T , which are parameters that can be easily extracted in an actual device.
- Symbol 401a is located at the absolute coordinates of the markers measured, for example, by underwater motion capture.
- the multiple symbols included in symbol group Sr1 are each located at the absolute coordinates when the underwater robot 111 generates the listening result information.
- the absolute coordinates of the mooring line 401 calculated based on the listening result information generated at the positions of the multiple symbols included in the symbol group Sr1 are located at the multiple symbols included in the symbol group St1.
- the multiple symbols included in symbol group Sr2 are each located at the absolute coordinates when the underwater robot 111 generated the listening result information.
- the absolute coordinates of the mooring line 401 calculated based on the listening result information generated at the positions of the multiple symbols included in the symbol group Sr2 are located at the multiple symbols included in the symbol group St2.
- the multiple symbols included in symbol group Sr3 are each located at the absolute coordinates when the underwater robot 111 generated the listening result information.
- the absolute coordinates of the mooring line 401 calculated based on the listening result information generated at the positions of the multiple symbols included in the symbol group Sr3 are located at the multiple symbols included in the symbol group St3.
- the multiple symbols included in symbol group Sr4 are each located at the absolute coordinates when the underwater robot 111 generated the listening result information.
- the absolute coordinates of the mooring line 401 calculated based on the listening result information generated at the positions of the multiple symbols included in the symbol group Sr4 are located at the multiple symbols included in the symbol group St4.
- the multiple symbols included in symbol group Sr5 are each located at the absolute coordinates when the underwater robot 111 generated the listening result information.
- the absolute coordinates of the mooring line 401 calculated based on the listening result information generated at the positions of the multiple symbols included in the symbol group Sr5 are located at the multiple symbols included in the symbol group St5.
- the multiple symbols included in symbol group Sr6 are each located at the absolute coordinates when the underwater robot 111 generated the listening result information.
- the absolute coordinates of the mooring line 401 calculated based on the listening result information generated at the positions of the multiple symbols included in the symbol group Sr6 are located at the multiple symbols included in the symbol group St6.
- the multiple symbols included in symbol group Sr7 are each located at the absolute coordinates when the underwater robot 111 generated the listening result information.
- the absolute coordinates of the mooring line 401 calculated based on the listening result information generated at the positions of the multiple symbols included in the symbol group Sr7 are located at the multiple symbols included in the symbol group St7.
- each symbol included in the symbol groups St1 to St7 closely reproduces the curve (not shown) connecting each symbol 401a.
- the direction estimation device 11 can accurately calculate the absolute coordinates of the mooring rope 401.
- the overall shape estimation unit 39 in the direction estimation device 11 estimates the shape of the mooring line 401 based on multiple pairs of the vertical incidence direction and distance d stored in the memory 24 or disk 25.
- the overall shape estimation unit 39 acquires multiple pieces of object coordinate information stored in the memory 24 or disk 25 via the bus 22, and estimates the overall shape of the mooring line 401 based on the multiple pieces of object coordinate information acquired.
- the overall shape estimation unit 39 assumes, for example, a curve that closely approximates the shape of the mooring line 401.
- the overall shape estimation unit 39 assumes a catenary curve whose shape is determined by parameters, and calculates the parameters when the catenary curve best fits each absolute coordinate indicated by the multiple object coordinates by performing fitting based on the multiple object coordinate information acquired and the assumed catenary curve.
- the overall shape estimation unit 39 estimates the overall shape of the mooring rope 401 based on the calculated parameters and catenary curve. In other words, it is possible to estimate the overall shape of the mooring rope 401 based on fragmentary measurement results.
- FIG. 22 is a flowchart that defines an operation procedure when the direction estimation device 11 according to an embodiment of the present disclosure performs a direction estimation process.
- the underwater robot 111 moves, for example, along a predetermined path.
- the path includes, for example, a number of preferred positions in the vicinity of the mooring line 401.
- the direction estimation device 11 performs a measurement process (step S104).
- the measurement process is started when a predetermined condition is satisfied, for example, when the underwater robot 111 reaches a predetermined measurement position or when a predetermined measurement timing arrives.
- the direction estimation device 11 determines whether the underwater robot 111 has reached the end point of the specified movement path (step S106).
- step S106 If the direction estimation device 11 determines that the underwater robot 111 has not reached the end point (NO in step S106), it moves the underwater robot 111 further along the travel path (step S102).
- the direction estimation device 11 determines that the underwater robot 111 has reached the end point (YES in step S106), it outputs the shape of the mooring lines 401 based on the calculated absolute coordinates of the multiple mooring lines 401 (step S108).
- FIG. 23 is a flowchart that defines the operation procedure when a direction estimation device according to an embodiment of the present disclosure performs measurement processing.
- FIG. 23 shows details of the operation in step S104 in FIG. 22.
- the direction estimation device 11 performs a measurement start process (step S202). Specifically, the direction estimation device 11 activates the swivel mechanism 113, MBS 114, absolute coordinate measurement unit 116, and swivel angle measurement unit 117 in the underwater robot 111. This causes the underwater robot 111 to transmit swivel angle information, image information, and absolute coordinate information to the direction estimation device 11.
- the swivel mechanism 113 causes the MBS 114 to perform a swivel motion.
- the direction estimation device 11 performs information acquisition processing (step S204) until the MBS 114's swivel angle ⁇ reaches its upper limit (NO in step S206).
- the direction estimation device 11 performs a process of calculating the target object position coordinates (step S208).
- the direction estimation device 11 performs a process of calculating the target object position coordinates (step S214).
- the direction estimation device 11 determines that the predetermined termination condition is not satisfied (NO in step S216), it performs information acquisition processing (step S204) until the swing angle ⁇ of the MBS 114 reaches its upper limit (NO in step S206).
- the specified end condition is, for example, that a specified time has elapsed since the start of measurement, or that the oscillating mechanism 113 has moved the oscillating angle of the MBS 114 back and forth a specified number of times.
- step S216 if the direction estimation device 11 determines that the specified termination condition is satisfied (YES in step S216), it terminates the measurement process.
- the direction estimation device 11 waits until it receives image information, swing angle information, or absolute coordinate information from the underwater robot 111 (NO in step S302, NO in step S308, and NO in step S314).
- the direction estimation device 11 When the direction estimation device 11 receives image information from the underwater robot 111 (YES in step S302), it processes the acoustic image 301 indicated by the image information and obtains the position (u1, v1) of the bottom of the image 302 and the length L * image of the image 302 (step S304).
- the direction estimation device 11 stores the position (u1, v1) of the bottom portion and the length L * image of the image 302 in the first data set in association with the measurement time (step S306).
- the direction estimation device 11 when the direction estimation device 11 receives the swing angle information from the underwater robot 111 (YES in step S308), it stores the swing angle ⁇ indicated by the swing angle information in the second data set in association with the measurement time (step S310).
- the direction estimation device 11 when the direction estimation device 11 receives absolute coordinate information from the underwater robot 111 (YES in step S312), it stores the swing angle ⁇ indicated by the swing angle information in association with the measurement time (step S314).
- FIG. 25 is a flowchart that defines the operation procedure when a direction estimation device according to an embodiment of the present disclosure performs a process of calculating object position coordinates.
- FIG. 25 shows details of the operations in steps S208 and S214 in FIG. 23.
- the direction estimation device 11 generates a third data set in which the position (u1, v1) of the bottom of the image 302 and the length L * image of the image 302 correspond to the swing angle ⁇ , based on the relationship between the measurement time in the first data set and the measurement time in the second data set (step S402).
- the direction estimation device 11 performs fitting based on the third data set and equation (5) to calculate the target angle ⁇ 0 that gives the curve Cb when equation (5) best fits the third data set (step S404).
- the direction estimation device 11 acquires the position (u1, v1) of the bottom of the image 302 corresponding to the swing angle ⁇ closest to the target angle ⁇ 0 in the third data set, and calculates the distance d image from the origin (0, 0) of the acoustic image coordinates to the position (u1, v1) by the measurement range R as the distance d from the MBS 114 to the mooring line 401 (step S406).
- the direction estimation device 11 calculates the absolute coordinates of the mooring rope 401 based on the target angle ⁇ 0 and the distance d, and the absolute coordinates indicated by the absolute coordinate information (step S408).
- the swivel angle information acquisition unit 32 measures an angle greater than the swivel angle ⁇ at which the MBS 114 generated the acoustic image 301, on the return journey, the swivel angle information acquisition unit 32 will measure an angle smaller than the swivel angle ⁇ at which the MBS 114 generated the acoustic image 301.
- the swivel angle information acquisition unit 32 measures an angle smaller than the swivel angle ⁇ at which the MBS 114 generated the acoustic image 301, on the return journey, the swivel angle information acquisition unit 32 will measure an angle larger than the swivel angle ⁇ at which the MBS 114 generated the acoustic image 301.
- the direction estimation unit 36 calculates the average of two target angles ⁇ 0 for two consecutive scan numbers as the target angle ⁇ 0 for one of the two consecutive scan numbers.
- the direction estimation unit 36 calculates, for example, the average of two target angles ⁇ 0 when the number of scans is 1 and 2, as the target angle ⁇ 0 when the number of scans is 1.
- the object of shape measurement is a mooring rope 401, but this is not limited to this.
- the object may be, for example, a ship's rudder, or the like, which appears linear when viewed from the edge.
- image information is transmitted from the underwater robot 111 to the computer 101 each time the MBS 114 generates image information, but this is not limited to this.
- the image information generated by the MBS 114 may be sequentially stored in a storage device provided in the underwater robot 111. In this case, after the measurement by the MBS 114 is completed, the direction estimation device 11 estimates the vertical incidence direction based on the image information stored in the storage device.
- a configuration in which the MBS 114 is provided on the underwater robot 111 has been described, but this is not limited to the above.
- a scanning sonar may be provided on the underwater robot 111 instead of the MBS 114.
- a configuration in which the MBS 114, which has good accuracy in the declination direction, is provided on the underwater robot 111 is preferable.
- the orientation of the MBS 114 is changed by the oscillating motion of the oscillating mechanism 113, but this is not limited to the configuration.
- the MBS 114 may be fixed to the underwater robot 111, and the orientation of the MBS 114 may be changed by adjusting the pitch of the underwater robot 111.
- the MBS 114 is provided on the underwater robot 111, but this is not limiting.
- the MBS 114 may be provided on a ship or held by a diver.
- the absolute coordinates are calculated from the coordinates of the relative position (target angle ⁇ 0 and distance d), but the present invention is not limited to this.
- the rider can easily recognize the position of the target object based on the target angle ⁇ 0 and distance d.
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Description
本出願は、2023年5月23日に出願された日本特許出願番号2023-84885号に基づくもので、ここにその記載内容を援用する。 This application is based on Japanese Patent Application No. 2023-84885, filed on May 23, 2023, the contents of which are incorporated herein by reference.
本発明は、方向推定装置、方向推定システム、方向推定方法及び方向推定プログラムに関する。 The present invention relates to a direction estimation device, a direction estimation system, a direction estimation method, and a direction estimation program.
船舶などの浮体の係留索の故障及び破断を遠隔から監視する係留索負荷監視システムがある(例えば、非特許文献1)。 There is a mooring line load monitoring system that remotely monitors the failure and breakage of mooring lines of floating bodies such as ships (for example, non-patent document 1).
非特許文献1に記載の係留索負荷監視システムでは、係留索の上端又は中腹にひずみゲージなどのセンサが取り付けられ、センサの出力値が常時モニタリングされる。このモニタリングによって係留索の破断といった決定的なイベントを検出することや、張力過大による破断リスクを予測することが可能である。
しかしながら、センサから得られるひずみなどは、あくまで索上のある点における断片的な情報にすぎず、係留索の全体的な形状及び挙動、並びに生物付着量及びその分布などを正確にモニタリングすることは難しい。
In the mooring rope load monitoring system described in
However, the strain and other information obtained from the sensors is merely fragmentary information at a certain point on the mooring line, making it difficult to accurately monitor the overall shape and behavior of the mooring line, as well as the amount and distribution of biological fouling.
これらを正確にモニタリングするためには、小さい誤差で係留索の位置を測定する技術が求められる。 In order to monitor these accurately, technology is required that can measure the position of mooring lines with minimal error.
そこで、本開示は、対象物の位置を測定するときの誤差を抑制することが可能な方向推定装置、方向推定システム、方向推定方法及び方向推定プログラムを提供することを目的とする。 The present disclosure therefore aims to provide a direction estimation device, a direction estimation system, a direction estimation method, and a direction estimation program that are capable of suppressing errors when measuring the position of an object.
本発明の一態様に係る方向推定装置は、複数の方向に音波ビームを発するソナーによって測定された時系列の聴音結果であって、前記複数の方向の少なくとも一部を含む複数の聴音方向からの音波の前記聴音結果を示す聴音結果情報を取得する情報取得部と、前記聴音結果情報に基づいて、前記音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する方向推定部と、を備える。 A direction estimation device according to one aspect of the present invention includes an information acquisition unit that acquires listening result information indicating a time series of listening results measured by a sonar that emits sound beams in multiple directions, the listening results being sound waves from multiple listening directions including at least some of the multiple directions, and a direction estimation unit that estimates a perpendicular incidence direction in which the sound beam perpendicularly enters an object based on the listening result information.
従来のソナーでは、ソナーから見た対象物の方向と、ソナー及び対象物間の距離とが測定可能であるものの、対象物に対する音波ビームの入射角を正確に取得することが困難なため、対象物の位置測定に誤差が生じてしまう。これに対して、音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する態様によれば、推定した垂直入射方向に、ソナーによって測定された距離だけ離れた位置を、誤差の抑制された対象物の位置として求めることができる。したがって、対象物の位置を測定するときの誤差を抑制することができる。 Although conventional sonar can measure the direction of an object as seen by the sonar and the distance between the sonar and the object, it is difficult to accurately obtain the angle of incidence of the sound beam on the object, which results in errors in measuring the object's position. In contrast, with an aspect that estimates the perpendicular incidence direction in which the sound beam perpendicularly enters the object, it is possible to determine the position of the object with reduced error as a position that is the distance measured by the sonar in the estimated perpendicular incidence direction. Therefore, errors can be reduced when measuring the object's position.
上記態様において、前記聴音結果情報は、天頂角ごと及び偏角ごとの前記複数の聴音方向からの前記音波の前記聴音結果を示してもよい。 In the above aspect, the listening result information may indicate the listening results of the sound waves from the multiple listening directions for each zenith angle and each deviation angle.
この態様によれば、ソナーを基準とする極座標で複数の聴音方向を表すことができるので、垂直入射方向の推定処理を簡易にすることができる。 In this embodiment, multiple listening directions can be expressed in polar coordinates based on the sonar, simplifying the process of estimating the perpendicular incidence direction.
上記態様において、前記情報取得部は、前記聴音結果情報として、前記音波ビームが発された時刻からの経過時間及び前記偏角をそれぞれ半径及び中心角とする扇状の画像であって、前記音波ビームの前記対象物からの反響に応じた像が含まれる前記画像を示す画像情報を前記天頂角ごとに取得し、前記方向推定部は、前記天頂角ごとの前記画像情報に基づいて前記垂直入射方向を推定してもよい。 In the above aspect, the information acquisition unit may acquire, as the listening result information, image information for each zenith angle, which indicates a fan-shaped image having a radius and a central angle that are the elapsed time from the time the sound beam was emitted and the deflection angle, respectively, and which includes an image corresponding to the echo of the sound beam from the target, and the direction estimation unit may estimate the vertical incidence direction based on the image information for each zenith angle.
この態様によれば、像の天頂角に対する変化すなわち像の入射角に対する変化を容易に取得することができる。これにより、対象物に対する音波ビームの入射角に応じて像の長さが変化する性質を利用して、垂直入射方向の推定を容易に行うことができる。 According to this embodiment, the change in the image with respect to the zenith angle, i.e., the change with respect to the image's angle of incidence, can be easily obtained. This makes it easy to estimate the vertical incidence direction by utilizing the property that the image length changes depending on the angle of incidence of the sound beam on the target object.
上記態様において、前記方向推定部は、前記天頂角ごとの前記画像情報の示す各前記画像にそれぞれ含まれる各前記像の長さに基づいて前記垂直入射方向を推定してもよい。 In the above aspect, the direction estimation unit may estimate the vertical incidence direction based on the length of each of the images included in each of the images indicated by the image information for each of the zenith angles.
この態様によれば、例えば、対象物が直線状の場合において、対象物に対して音波ビームが入射する角度が垂直に近いほど像の長さが短くなる性質を利用して、垂直入射方向を精度よく求めることができる。 According to this aspect, for example, when the target object is linear, the perpendicular incident direction can be accurately determined by utilizing the property that the closer the angle at which the sound beam is incident on the target object is to perpendicular, the shorter the image length becomes.
上記態様において、前記方向推定部は、さらに、推定した前記垂直入射方向が前記音波ビームに含まれる場合の前記画像情報に基づいて前記ソナーと前記対象物との間の距離を算出してもよい。 In the above aspect, the direction estimation unit may further calculate the distance between the sonar and the target object based on the image information when the estimated perpendicular incident direction is included in the sound beam.
この態様によれば、垂直入射方向が音波ビームに含まれる場合の画像では、扇の中心と像との間の距離が、音波ビームが対象物に対して垂直に入射する位置とソナーとの間の距離となる性質を利用して、音波ビームが対象物に対して垂直に入射する位置とソナーとの間の距離を精度よく算出することができる。 In this embodiment, in an image in which the sound beam includes a perpendicular incidence direction, the distance between the center of the fan and the image is the distance between the position where the sound beam perpendicularly enters the object and the sonar, making use of this property to accurately calculate the distance between the position where the sound beam perpendicularly enters the object and the sonar.
上記態様において、前記対象物は、前記ソナーから見て直線状に見えてもよい。 In the above embodiment, the object may appear to be linear when viewed from the sonar.
対象物が面状の場合、その方向を事前に推定して、適切な方向から計測することが求められる。例えば、対象物が平坦な海底面であれば上から計測することが求められ、垂直な壁面であれば横から計測することが求められる。この態様によれば、対象物の形状を直線状として取り扱うことができるので、事前に適切な方向を推定することなく計測することができる。また、対象物に対して音波ビームが入射する角度と像の長さとの関係式を簡易に導出することができる。これにより、垂直入射方向の推定を容易に行うことができる。 If the object is planar, it is necessary to estimate its direction in advance and measure from the appropriate direction. For example, if the object is a flat seabed, it is necessary to measure from above, and if it is a vertical wall, it is necessary to measure from the side. With this aspect, the shape of the object can be treated as linear, so it is possible to measure without estimating the appropriate direction in advance. Also, the relational expression between the angle at which the sound beam is incident on the object and the image length can be easily derived. This makes it easy to estimate the perpendicular incidence direction.
上記態様において、前記対象物を含む平面と前記ソナーとの間の距離は、前記ソナーと前記対象物との間の距離を基準として定められた値より小さくてもよい。 In the above aspect, the distance between the sonar and a plane including the target object may be smaller than a value determined based on the distance between the sonar and the target object.
このように、対象物を含む平面の近傍にソナーが位置する態様により、垂直入射方向の推定精度の劣化を抑制することができる。 In this way, by positioning the sonar near a plane that includes the target object, it is possible to suppress deterioration in the accuracy of estimating the vertical incidence direction.
上記態様において、前記方向推定装置は、前記垂直入射方向及び前記距離の組を保持する記憶部と、前記記憶部に保持された複数の前記組に基づいて前記対象物の形状を推定する形状推定部と、をさらに備えてもよい。 In the above aspect, the direction estimation device may further include a memory unit that stores pairs of the perpendicular incidence direction and the distance, and a shape estimation unit that estimates the shape of the object based on the multiple pairs stored in the memory unit.
この態様によれば、例えば、複数の組がそれぞれ表す複数の位置をよく近似する曲線を算出し、その曲線が対象物の形状を表すものとして対象物全体の形状を推定することができる。これにより、対象物における一部の位置の計測結果に基づいて、対象物全体の形状を推定することが可能となる。 According to this aspect, for example, a curve that closely approximates the multiple positions represented by each of the multiple pairs can be calculated, and the shape of the entire object can be estimated by assuming that the curve represents the shape of the object. This makes it possible to estimate the shape of the entire object based on the measurement results of some positions on the object.
上記態様において、前記ソナーは、マルチビームソナーであってもよい。 In the above embodiment, the sonar may be a multi-beam sonar.
この態様によれば、複数の聴音方向からの音波の聴音結果を効率よく取得することができるとともに、聴音方向がばらつくことを抑制することができるので、垂直入射方向の推定精度の劣化を抑制することができる。 According to this aspect, it is possible to efficiently obtain the results of listening to sound waves from multiple listening directions, and it is also possible to suppress variation in the listening directions, thereby suppressing deterioration in the estimation accuracy of the perpendicular incidence direction.
上記態様において、前記ソナーは、スキャニングソナーであってもよい。 In the above embodiment, the sonar may be a scanning sonar.
この態様によれば、複数の聴音方向からの音波の聴音結果を低コストで取得することができる。 According to this embodiment, sound wave listening results from multiple listening directions can be obtained at low cost.
本発明の他の態様に係る方向推定システムは、ソナーが設けられた水中ロボットと、上記方向推定部と、を備え、前記ソナーは、複数の方向に音波ビームを発し、かつ、前記複数の方向の少なくとも一部を含む複数の聴音方向からの音波を聴音し、時系列の聴音結果を示す聴音結果情報を生成する。 A direction estimation system according to another aspect of the present invention includes an underwater robot equipped with a sonar and the above-mentioned direction estimation unit, the sonar emits sound beams in multiple directions, listens to sound waves from multiple listening directions including at least some of the multiple directions, and generates listening result information indicating the listening results in a time series.
従来のソナーでは、ソナーから見た対象物の方向と、ソナー及び対象物間の距離とが測定可能であるものの、対象物に対する音波ビームの入射角を正確に取得することが困難なため、対象物の位置測定に誤差が生じてしまう。これに対して、音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する態様によれば、推定した垂直入射方向に、ソナーによって測定された距離だけ離れた位置を、誤差の抑制された対象物の位置として求めることができる。したがって、対象物の位置を測定するときの誤差を抑制することができる。また、水中を自在に移動できる水中ロボットにソナーが設けられるので、対象物の多くの位置を測定することができる。これにより、対象物の全体の形状を取得することができる。 Although conventional sonar can measure the direction of an object as seen by the sonar and the distance between the sonar and the object, it is difficult to accurately obtain the angle of incidence of the sound beam on the object, which results in errors in measuring the object's position. In contrast, according to an aspect that estimates the perpendicular incidence direction in which the sound beam perpendicularly enters the object, a position that is a distance away from the estimated perpendicular incidence direction measured by the sonar can be obtained as the position of the object with reduced errors. Therefore, errors when measuring the object's position can be reduced. In addition, because the sonar is installed on an underwater robot that can move freely underwater, many positions of the object can be measured. This makes it possible to obtain the overall shape of the object.
上記態様において、前記ソナーは、前記複数の聴音方向のうち、偏角ごとの前記聴音方向からの前記音波を測定するマルチビームソナーであり、前記水中ロボットは、前記複数の聴音方向のうち、天頂角ごとの前記聴音方向に前記ソナーを向ける機構を含んでもよい。 In the above aspect, the sonar may be a multi-beam sonar that measures the sound waves from the multiple listening directions for each declination angle, and the underwater robot may include a mechanism that directs the sonar to the multiple listening directions for each zenith angle.
この態様によれば、天頂角ごと及び偏角ごとの複数の聴音方向からの音波の聴音結果を示す聴音結果情報を簡易に生成することができる。 According to this aspect, it is possible to easily generate listening result information that indicates the listening results of sound waves from multiple listening directions for each zenith angle and each deviation angle.
本発明の他の態様に係る方向推定方法は、方向推定装置における方向推定方法であって、複数の方向に音波ビームを発するソナーによって測定された時系列の聴音結果であって、前記複数の方向の少なくとも一部を含む複数の聴音方向からの音波の前記聴音結果を示す聴音結果情報を取得することと、前記聴音結果情報に基づいて、前記音波ビームが対象物に対して垂直に入射する垂直入射方向を推定することと、を含む。 A direction estimation method according to another aspect of the present invention is a direction estimation method in a direction estimation device, which includes acquiring listening result information indicating the listening results of sound waves from a plurality of listening directions including at least a portion of the plurality of directions, the listening result information being a time series of listening results measured by a sonar that emits sound beams in a plurality of directions, and estimating a perpendicular incidence direction in which the sound beam is perpendicularly incident on an object based on the listening result information.
従来のソナーでは、ソナーから見た対象物の方向と、ソナー及び対象物間の距離とが測定可能であるものの、対象物に対する音波ビームの入射角を正確に取得することが困難なため、対象物の位置測定に誤差が生じてしまう。これに対して、音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する態様によれば、推定した垂直入射方向に、ソナーによって測定された距離だけ離れた位置を、誤差の抑制された対象物の位置として求めることができる。したがって、対象物の位置を測定するときの誤差を抑制することができる。 Although conventional sonar can measure the direction of an object as seen by the sonar and the distance between the sonar and the object, it is difficult to accurately obtain the angle of incidence of the sound beam on the object, which results in errors in measuring the object's position. In contrast, with an aspect that estimates the perpendicular incidence direction in which the sound beam perpendicularly enters the object, it is possible to determine the position of the object with reduced error as a position that is the distance measured by the sonar in the estimated perpendicular incidence direction. Therefore, errors can be reduced when measuring the object's position.
本発明の他の態様に係る方向推定プログラムは、方向推定装置において用いられる方向推定プログラムであって、コンピュータを、複数の方向に音波ビームを発するソナーによって測定された時系列の聴音結果であって、前記複数の方向の少なくとも一部を含む複数の聴音方向からの音波の前記聴音結果を示す聴音結果情報を取得する情報取得部と、前記聴音結果情報に基づいて、前記音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する方向推定部と、として機能させるためのプログラムである。 A direction estimation program according to another aspect of the present invention is a direction estimation program used in a direction estimation device, and is a program for causing a computer to function as an information acquisition unit that acquires listening result information that indicates a time series of listening results measured by a sonar that emits sound beams in multiple directions, the listening results being sound waves from multiple listening directions that include at least some of the multiple directions, and a direction estimation unit that estimates the perpendicular incidence direction in which the sound beam is perpendicularly incident on an object based on the listening result information.
従来のソナーでは、ソナーから見た対象物の方向と、ソナー及び対象物間の距離とが測定可能であるものの、対象物に対する音波ビームの入射角を正確に取得することが困難なため、対象物の位置測定に誤差が生じてしまう。これに対して、音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する態様によれば、推定した垂直入射方向に、ソナーによって測定された距離だけ離れた位置を、誤差の抑制された対象物の位置として求めることができる。したがって、対象物の位置を測定するときの誤差を抑制することができる。 Although conventional sonar can measure the direction of an object as seen by the sonar and the distance between the sonar and the object, it is difficult to accurately obtain the angle of incidence of the sound beam on the object, which results in errors in measuring the object's position. In contrast, with an aspect that estimates the perpendicular incidence direction in which the sound beam perpendicularly enters the object, it is possible to determine the position of the object with reduced error as a position that is the distance measured by the sonar in the estimated perpendicular incidence direction. Therefore, errors can be reduced when measuring the object's position.
本開示によれば、対象物の位置を測定するときの誤差を抑制することが可能な方向推定装置、方向推定システム、方向推定方法及び方向推定プログラムを提供することができる。 The present disclosure provides a direction estimation device, a direction estimation system, a direction estimation method, and a direction estimation program that can reduce errors when measuring the position of an object.
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。 A preferred embodiment of the present invention will be described with reference to the attached drawings. In each drawing, the same reference numerals denote the same or similar configurations.
[第1実施形態]
図1は、本開示の一実施形態に係る水中ロボットの係留索に対する位置を説明するための図である。
[First embodiment]
FIG. 1 is a diagram for explaining the position of an underwater robot relative to a mooring line according to one embodiment of the present disclosure.
各図面には、X軸、Y軸及びZ軸を示すことがある。X軸、Y軸及びZ軸は、地球に固定された座標軸であり、右手系の3次元の直交座標を形成する。鉛直下向きが、Z軸の正の方向である。つまり、X軸及びY軸は、水平方向を向いている。以下、X軸の矢印方向をX軸+側、矢印とは逆方向をX軸-側と呼ぶことがあり、その他の軸についても同様である。なお、Z軸+側及びZ軸-側を、それぞれ「下側」及び「上側」と呼ぶこともある。また、Z軸方向を「深さ方向」と呼ぶこともある。また、X軸、Y軸又はZ軸にそれぞれ直交する面を、YZ面、ZX面又はXY面と呼ぶことがある。 Each drawing may show an X-axis, a Y-axis, and a Z-axis. The X-axis, the Y-axis, and the Z-axis are coordinate axes fixed to the Earth, and form a right-handed three-dimensional Cartesian coordinate system. The vertical downward direction is the positive direction of the Z-axis. In other words, the X-axis and the Y-axis are oriented horizontally. Hereinafter, the direction of the X-axis arrow may be referred to as the X-axis + side, and the direction opposite the arrow may be referred to as the X-axis - side, and the same applies to the other axes. The Z-axis + side and Z-axis - side may be referred to as the "lower side" and "upper side", respectively. The Z-axis direction may also be referred to as the "depth direction". The planes perpendicular to the X-axis, Y-axis, or Z-axis, respectively, may be referred to as the YZ plane, ZX plane, or XY plane.
係留索401(対象物)は、例えば、浮体式の風力発電において、風車を支える浮体を海底面Pbから係留するチェーンである。係留索401の一端が浮体に固定され、かつ、係留索401の他端が海底面Pbに固定されると、係留索401は自重で垂れ下がりカテナリ曲線(懸垂曲線)をなす。この垂れ下がった係留索401の自重によって係留力を得る係留方式は、カテナリ係留と呼ばれる。以下、係留索401を含む面を、移動面Pmと称することがある。本実施形態では、移動面Pmは、ZX面と平行である。
The mooring line 401 (object) is, for example, a chain that moor a float supporting a wind turbine from the seabed surface Pb in a floating wind power generation system. When one end of the
水中ロボット111は、水中ロボット111の外部(例えば船上又は地上)から操作者が遠隔操作を行う遠隔操縦無人水中ロボット(Remotely Operated Vehicle : ROV)である。なお、水中ロボット111は、人間が直接乗り込んで操縦する水中ロボットでもよいし、人間による操縦等の支援を受けず、自律的にミッションをこなす水中ロボットでもよい。
The
水中ロボット111は、例えば、5基のスラスタを有しており、サージ(Surge)、スウェイ(Sway)、ヒーブ(Heave)、ピッチ(Pitch)及びヨー(Yaw)の5つの自由度の制御が可能である。
The
水中ロボット111には、マルチビームイメージングソナー(Multibeam Imaging Sonar)114(マルチビームソナー)(以下、MBS114と称することがある。)が設けられる。
The
水中ロボット111は、外部からの遠隔操作に応じて、水中ロボット111を基準としたときの係留索401の位置(以下、相対位置と称することがある。)の測定に適した位置(以下、好適位置と称することがある。)を移動する。
In response to remote control from outside, the
好適位置は、例えば、移動面PmとMBS114との間の距離が、MBS114と係留索401との間の距離より小さいという条件を満たす位置である。
The preferred position is, for example, a position that satisfies the condition that the distance between the moving plane Pm and the
好ましくは、移動面PmとMBS114との間の距離が、MBS114と係留索401との間の距離を基準として定められた値より小さいという条件を満たす位置である。具体的には、移動面PmとMBS114との間の距離は、MBS114と係留索401との間の距離の100%(好ましくは、20%)より小さい。
Preferably, this position satisfies the condition that the distance between the moving plane Pm and the
より好ましくは、好適位置は、例えば、MBS114が移動面Pmと交わるという条件を満たす位置である。この場合、移動面PmとMBS114との間の距離は、MBS114と係留索401との間の距離の例えば2%より小さい。
More preferably, the preferred position is, for example, a position that satisfies the condition that the
具体的には、水中ロボット111における5基のスラスタが外部からの遠隔操作に応じて動作し、水中ロボット111が移動面Pm内において、深度を変えたり、水平方向に移動したりする。水中ロボット111が好適位置に存在するときは、MBS114から係留索401を見ると、係留索401は、直線状に見える。
Specifically, five thrusters in the
図2は、本開示の一実施形態に係る方向推定システムの構成を示す図である。図2に示すように、方向推定システム201は、コンピュータ101と、水中ロボット111と、を備える。
FIG. 2 is a diagram showing the configuration of a direction estimation system according to an embodiment of the present disclosure. As shown in FIG. 2, the
コンピュータ101は、例えば、陸上に設けられる。なお、コンピュータ101は、浮体若しくは船舶又は水中ロボット111に設けられてもよい。
The
コンピュータ101は、プロセッサ21と、バス22と、通信I/F(インタフェース)23と、メモリ24(記憶部)と、ディスク25(記憶部)と、を含む。コンピュータ101は、例えば、パーソナルコンピュータである。
The
コンピュータ101では、プロセッサ21、通信部23、メモリ24及びディスク25は、互いにデータのやり取りが可能なようにバス22を介して接続される。
In
メモリ24は、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置である。通信部23と、コンピュータ101の外部に設けられる水中ロボット111とは、例えばケーブルで接続される。通信部23は、ケーブルを通じて水中ロボット111と通信する。
The
通信部23は、プロセッサ21からの指示に従って各種データを水中ロボット111へ送信する。また、通信部23は、水中ロボット111から送信された各種データを受信し、受信したデータをプロセッサ21へ出力する。
The
ディスク25は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)などの読み書きが可能な不揮発性の記憶装置であり、プログラム(コード)が保存されている。
なお、ディスク25は、HDD及びSSDに限定するものではなく、メモリーカード又は読み込み専用のCD-ROM(Compact Disc Read Only Memory)若しくはDVD-ROM(Digital Versatile Disc-Read Only Memory)などであってもよい。また、プログラムは、外部からインストールすることができる。また、プログラムは、ディスク25のようなコンピュータ101によって読み取り可能な記憶媒体に格納された状態で流通する。
なお、プログラムは、通信インタフェースを経由して接続されたインターネット上で流通するものであってもよい。
The
The
The program may be distributed over the Internet connected via a communication interface.
プロセッサ21は、プログラムの実行時において、ディスク25に保存されたプログラム及び当該プログラムの実行に必要なデータをメモリ24に転送する。プロセッサ21は、プログラムの実行に必要な処理命令及びデータをメモリ24から読み出し、処理命令の内容に従って演算処理を実行する。このとき、プロセッサ21は、プログラムの実行に必要なデータを新たに生成してメモリ24に保存する場合がある。なお、プロセッサ21は、プログラム及びデータをディスク25から取得する構成に限らず、インターネットを経由してサーバなどから取得する構成であってもよい。
When executing a program, the
図3は、本開示の一実施形態に係る水中ロボットの構成を示す図である。図3に示すように、水中ロボット111は、通信部112と、首振り機構113と、MBS114と、スラスタ制御部115と、絶対座標測定部116と、首振り角測定部117と、を備える。
FIG. 3 is a diagram showing the configuration of an underwater robot according to one embodiment of the present disclosure. As shown in FIG. 3, the
水中ロボット111における通信部112は、コンピュータ101と通信する。スラスタ制御部115は、通信部112を通じてコンピュータ101から受信する制御情報に基づいて5つのスラスタを制御する。
The
絶対座標測定部116は、例えば、地球上の基準点を基準としたときの水中ロボット111の位置を示す座標(以下、絶対座標と称することがある。)を測定する。
The absolute coordinate
絶対座標測定部116は、例えば、1軸の光ファイバジャイロ(Fiber Optic Gyro : FOG)と、ドップラー式速度計(Doppler Velocity Log : DVL)と、を含む。水中ロボット111の移動量は、例えば、FOGによって測定された方位角の角速度を積分して得られる方位角に沿って、DVLによって測定された水平方向の対地速度を積分することで算出される。絶対座標測定部116は、算出した移動量を初期位置の絶対座標に加えることで水中ロボット111の絶対座標を測定する。
The absolute coordinate
絶対座標測定部116は、例えば、水中ロボット111の絶対座標を所定の周期で測定し、測定した絶対座標を示す絶対座標情報を通信部112経由でコンピュータ101へ送信する。
The absolute coordinate measuring
図4~図6は、本開示の一実施形態に係る水中ロボットにおけるMBS114の向きを説明するための図である。
Figures 4 to 6 are diagrams for explaining the orientation of the
図4~図6に示すように、MBS114に固定された直交座標としてx軸、y軸及びz軸を定義する。x軸、y軸及びz軸は、右手系の3次元の直交座標を形成する。水中ロボット111が設計通りに移動して好適位置に存在するときは、x軸は、Y軸と平行であり、y軸及びz軸は、移動面Pmと平行である。
As shown in Figures 4 to 6, the x-axis, y-axis, and z-axis are defined as Cartesian coordinates fixed to the
図4は、y軸-側からMBS114を見たときの図である。図5は、x軸-側からMBS114を見たときの図である。図6は、z軸+側からMBS114を見たときの図である。
Figure 4 shows
MBS114は、複数の方向に音響ビーム411(音波ビーム)を発し、かつ、複数の方向の少なくとも一部を含む複数の聴音方向からの音波を聴音し、時系列の聴音結果を示す聴音結果情報を生成する。
The
詳細には、MBS114は、1回の測定において、zx面内の複数の方向に音響ビーム411を発し、当該複数の方向からの音波を聴音する。音響ビーム411の進む方向及び音波を聴音する方向(例えば聴音方向Da)は、例えば、同じである。zx面内における聴音方向Daは、z軸を基準としたときの偏角βによって規定される。なお、音響ビーム411の進む方向及び音波を聴音する方向は、異なってもよい。
In detail, in one measurement, the
すなわち、MBS114は、1回の測定において、複数の偏角βによってそれぞれ定まる複数の聴音方向Daに音響ビーム411を発し、当該複数の聴音方向Daからの音波を聴音する。
In other words, in one measurement, the
図7は、本開示の一実施形態に係る音響画像の一例を示す図である。図4~図7に示すように、MBS114は、音響ビーム411が発された時刻からの経過時間及び偏角βをそれぞれ半径及び中心角とする扇状の音響画像301であって、音響ビーム411の係留索401からの反響に応じた像302が含まれる音響画像301を生成する。本実施形態では、音響画像301には、音響ビーム411の海面からの反響に応じた像303がさらに含まれる。
FIG. 7 is a diagram showing an example of an acoustic image according to an embodiment of the present disclosure. As shown in FIGS. 4 to 7, the
扇状の音響画像301の範囲内は、像が存在しうる領域である。MBS114の計測原点は、扇形の弧の両端を通る二つの半径の交点すなわち扇の中心に位置する。
The range of the fan-shaped
音響画像301内の座標表現(以下、音響画像座標と称することがある。)として、上記交点を原点とし、互いに直交するu軸及びv軸を定義する。u軸方向は、例えば、扇形の中心角を二等分する方向であり、z軸方向に発された音響ビーム411に基づく時系列の聴音結果が示されるようにとる。u軸を基準としたときの偏角βによって規定される方向Drは、聴音方向Da(図5参照)に発された音響ビーム411に基づく時系列の聴音結果が示される。
As a coordinate representation within the acoustic image 301 (hereinafter sometimes referred to as acoustic image coordinates), the above intersection point is set as the origin, and a u-axis and a v-axis that are orthogonal to each other are defined. The u-axis direction is, for example, a direction that bisects the central angle of the sector, and is taken so as to show the time-series listening results based on the
扇形の半径は、MBS114で測定することのできる最大距離R(以下、測定レンジRと称することがある。)である。MBS114の測定レンジRは、係留索401のサイズに合わせて適切に設定される。
The radius of the sector is the maximum distance R that can be measured by the MBS 114 (hereinafter, sometimes referred to as the measurement range R). The measurement range R of the
MBS114が音響ビームに基づく反響を受波した場合、その方位と、音響ビーム411が発された時刻から反響を受波するまでの経過時間とによって像の位置が定まる。像は、反響が返ってくるまでの経過時間が短いほど音響画像座標の原点(0,0)の近くに位置し、また、当該経過時間が長いほど扇形の弧の近くに位置する。
When MBS114 receives an echo based on an acoustic beam, the position of the image is determined by its direction and the time that has elapsed from when
また、反響の強度が強いほど像が白く映る。音響画像301において扇形の領域の内部に白く映っている棒状の像302が係留索401の像である。水中ロボット111が設計通りに移動して好適位置に位置するときは、係留索401の像302は、u軸上において真っ直ぐに伸びた像となる。
Furthermore, the stronger the reverberation, the whiter the image appears. The white rod-shaped
本実施形態では、MBS114は、測定ごとに音響画像301を生成する。MBS114は、例えば所定の周期で測定を行い、音響画像301を示す画像情報を通信部112経由でコンピュータ101へ送信する。
In this embodiment, the
図8は、本開示の一実施形態に係る首振り機構113の一例を示す図である。図8に示すように、首振り機構113は、水中ロボット111(図示しない)に固定される。
FIG. 8 is a diagram showing an example of a
首振り機構113は、例えば、モータによって回転する回転軸(図示しない)を有する。回転軸は、x軸と平行である。MBS114は、首振り機構113における回転軸に取り付けられる。これにより、MBS114を回転軸の周りに回転させることができる。
The
本実施形態では、首振り機構113は、所定の角度範囲において、所定の角速度で回転軸を往復回転することによって、MBS114を連続して首振り運動させる。
In this embodiment, the
図4及び図8に示すように、首振り角測定部117は、MBS114の首振り角(天頂角)を測定する。本実施形態では、首振り角測定部117は、例えば、角度センサを含み、角度センサによって検出された首振り機構113の回転軸の角度すなわち首振り角を所定周期で取得する。首振り角測定部117は、取得した角度を示す首振り角情報を通信部112経由でコンピュータ101へ送信する。
As shown in Figures 4 and 8, the swivel
角度センサの測定タイミング及びMBS114の測定タイミングは、略同じが好ましい。なお、角度センサの測定タイミング及びMBS114の測定タイミングは、異なっていてもよい。
It is preferable that the measurement timing of the angle sensor and the measurement timing of the
[測定の原理]
図9及び図10は、本開示の一実施形態に係る方向推定装置によって行われる方向推定の原理を説明するための図である。図9及び図10に示すように、MBS114から係留索401までの距離及び音響ビームの係留索401に対する入射角によって係留索401の像302の長さL*
image(図7参照)長さがどのように変化するかを理論的に導出する。
[Measurement principle]
9 and 10 are diagrams for explaining the principle of direction estimation performed by a direction estimation device according to an embodiment of the present disclosure. As shown in Fig. 9 and 10, how the length L * image (see Fig. 7) of the
図9に示すように、点OにMBS114が位置している場合において、点Oから係留索401に下した垂線が音響ビーム411に含まれない状況を想定する。
As shown in FIG. 9, when the
MBS114を正面側(z軸+側)から見たとき、首振りの回転軸TAと係留索401の延びる方向とのなす角度は、90度とする(図6参照)。また、係留索401は、MBS114の視野角のちょうど中央に位置しているものとする(図4参照)。
When MBS114 is viewed from the front side (z-axis + side), the angle between the axis of rotation TA of the swing and the direction in which the
さらに、議論を簡単にするため以下の5つの仮定をおく。すなわち、第1の仮定は、MBS114が首振り運動をしたときに音響ビーム411の当たる係留索401の領域では、係留索401が局所的に直線であるとみなすことである。
Furthermore, to simplify the discussion, the following five assumptions are made. The first assumption is that in the region of the
第2の仮定は、係留索401の太さを無視することである。これは、音響ビーム411が、係留索401の中心軸から反射するとみなすことと等価である。
The second assumption is to ignore the thickness of the
第3の仮定は、MBS114を点とみなすことである。第4の仮定は、音響ビーム411は、MBS114の本体から見て一定の対称な角度範囲内(例えば、2δ)(図5、図9及び図10参照)にのみ一様に分布することである。
The third assumption is that the
第5の仮定は、音響ビーム411のパルス幅は無視し、音響ビーム411が幅のない円弧状に広がるものとすることである。
The fifth assumption is to ignore the pulse width of the
これらの仮定をおいた場合において、音響画像301に映る係留索401の像302の長さを考える。2δは、yz面内における音響ビーム411の分布角である。距離dは、点Oから係留索401に下ろした垂線OHの長さである。
With these assumptions, consider the length of the
αは、点Oから基準方向Dsに基準をとり、かつ、x軸+側からx軸-側を見たときの反時計回りを正の向きとしたMBS114の首振り角である。基準方向Dsは、例えば水平方向である。そして、α0は、音響ビーム411が係留索401に対して垂直に入射するときの首振り角αである。
α is the swivel angle of the
また、点Aは、音響ビーム411の中心線と係留索401との交点である。点B及びCは、それぞれ、音響ビーム411の中心線から上下にδずつとった音響ビームの分布範囲を示す線と係留索401との上側及び下側の交点である。
Point A is the intersection of the center line of the
まず、簡単のためα0=0°の場合を考える。音響ビーム411が係留索401に反射してMBS114に返ってくるとき、音響ビーム411は、三角形OBC内の領域に分布することとなる。この領域内の最長の反射経路の長さL1は、線分OB及びOCのうちの長い方の長さである。長さL1は、d=OHを用いて、
一方、最短の反射経路は、点Bと点Cとの間に点Hが位置するか否かによって場合分けが生じる。点Bと点Cとの間に点Hが位置する場合(図10参照)は、最短経路の長さは、d=OHに等しい。 On the other hand, the shortest reflection path depends on whether point H is located between points B and C. When point H is located between points B and C (see Figure 10), the length of the shortest path is equal to d = OH.
点Bと点Cとの間に点Hが位置しない場合(図9参照)は、線分OB及びOCのうちの短い方が最短経路となる。従って、最短の反射経路の長さL2は、
以上より、最短経路の長さと最短経路の長さとの差Ldiffは、
MBS114の測定レンジをRとして、像302の長さL*
imageをLdiffのRに対する割合として表すこととすると、
ここで、α0≠0°である場合を考慮する。α0≠0°の場合は、係留索401を点Oのまわりに対象角度α0だけ回転させたものと考えると、最終的に像302の長さL*
imageの理論解は、
図11は、本開示の一実施形態に係る像302の長さL*
imageの理論解の首振り角αに対する変化の一例を示す図である。なお、図11において、縦軸はL*
imageを示す。横軸は、単位を「°」とする首振り角αを示す。
11 is a diagram showing an example of a change in the theoretical solution of the length L * image of the
図11に示すように、例えば、d=2.0m、R=7.5m、α0=-45.0°及びδ=10.0°としてL* image(α)をプロットすると、-90°≦α≦0°の範囲においてα=α0で最小値をとる下に凸な曲線が得られる。 As shown in FIG. 11, for example, when L * image (α) is plotted with d=2.0 m, R=7.5 m, α0 =-45.0°, and δ=10.0°, a downward convex curve is obtained that has a minimum value at α= α0 in the range of -90°≦α≦0°.
これは、係留索401に対してMBS114の音響ビーム411が垂直に入射するような首振り角の場合に、音響画像301に係留索401の像302が最も短く映ることを意味する。
This means that when the oscillation angle is such that the
必ずしも直線ではない実際の係留索401においても、局所的に直線とみなすことによって、この「係留索401の像302の長さLimageが最小となるとき、MBS114の音響ビーム411が係留索401に対して垂直に入射している」という性質を仮定する。
Even in the case of an
図12は、本開示の一実施形態に係る方向推定装置の構成を示す図である。図12には、方向推定装置11のソフトウェア構成が示される。方向推定装置11は、例えば、コンピュータ101におけるプロセッサ21においてプログラムを実行させることによって構成されるものである。
FIG. 12 is a diagram showing the configuration of a direction estimation device according to an embodiment of the present disclosure. FIG. 12 shows the software configuration of the
図12に示すように、方向推定装置11は、機能ブロックとして、聴音結果情報取得部31と、首振り角情報取得部32と、制御部33と、画像処理部34と、データセット生成部35と、方向推定部36と、対象物座標算出部37と、絶対座標情報取得部38と、全体形状推定部39と、を備える。
As shown in FIG. 12, the
方向推定装置11における制御部33は、バス22及び通信部23を通じて水中ロボット111を制御する。具体的には、制御部33は、水中ロボット111のスラスタの制御、首振り機構113の制御及びMBS114の制御などを行う。
The
聴音結果情報取得部31は、聴音結果情報を取得する。本実施形態では、聴音結果情報は、首振り角αごと及び偏角βごとの複数の聴音方向からの音波の聴音結果を示す。
The listening result
具体的には、聴音結果情報取得部31は、聴音結果情報として、音響画像301を示す画像情報を、MBS114の測定タイミングごとに水中ロボット111から受信する。
Specifically, the listening result
首振り機構113によってMBS114が所定の角速度で首振り運動しているので、画像情報は首振り角αごとの情報でもある。聴音結果情報取得部31は、取得した音響画像301を画像処理部34へ出力する。
Because the
画像処理部34は、聴音結果情報取得部31から音響画像301を受けると、音響画像301に基づいて像302の長さL*
imageを取得する(図7参照)。
When the
具体的には、画像処理部34は、例えば、像302が含まれる領域を設定して当該領域を二値化する。画像処理部34は、二値化した領域(以下、二値化領域と称することがある。)に対してモルフォロジー変換のオープニングを行い、小さなノイズ点を除去し、続いてモルフォロジー変換のクロージングを行い、小さな隙間を連結する。
Specifically, the
画像処理部34は、二値化領域における複数の輪郭から、計測原点(u=0,v=0)から最も近い点を持つ輪郭を選択する。ただし、計測原点に近すぎるものはノイズ点とみなして除外してもよい。
The
画像処理部34は、選択した輪郭に外接し、かつ各辺が元の画像の辺と平行な最小の長方形を与える。
The
画像処理部34は、長方形の下の辺の中点である位置(u1,v1)を係留索401の像302の最下部の位置として算出する。また、画像処理部34は、長方形の高さを係留索401の像302の長さL*
imageとして算出する。
The
画像処理部34は、算出した像302の最下部の位置(u1,v1)を示す最下部位置情報、及び像302の長さL*
imageを示す長さ情報をデータセット生成部35へ出力する。
The
首振り角情報取得部32は、MBS114における首振り角測定部117の測定タイミングごとに首振り角情報をMBS114から受信し、首振り角情報をデータセット生成部35へ出力する。
The swivel angle
図13は、本開示の一実施形態に係る像302の長さL*
imageの時間変化の一例を示す図である。なお、図13において、縦軸はL*
imageを示す。横軸は、時間を示す。
13 is a diagram showing an example of a change in length L * image of the
データセット生成部35は、画像処理部34から最下部位置情報及び長さ情報を受けて、最下部の位置(u1,v1)及び像302の長さL*
imageと、測定時刻とを対応付けて蓄積する。これにより、最下部の位置(u1,v1)、像302の長さL*
image及び測定時刻の組が時系列順に並んだ第1データセットが生成される。図13に示すグラフは、MBS114の首振りが1往復したときのL*
imageの時間変化をプロットしたものである。
The
また、データセット生成部35は、首振り角情報取得部32から首振り角情報を受けて、首振り角αと測定時刻とを対応付けて蓄積する。これにより、首振り角α及び測定時刻の組が時系列順に並んだ第2データセットが生成される。
The
データセット生成部35は、第1データセットにおける測定時刻と第2データセットにおける測定時刻との関係に基づいて、像302の最下部の位置(u1,v1)及び像302の長さL*
imageと、首振り角αとを対応付けた第3データセットを生成する。これにより、図13のグラフの横軸が、第3データセットに基づいて時間から首振り角αに変換される。データセット生成部35は、第3データセットを方向推定部36へ出力する。
The
図14は、本開示の一実施形態に係るフィッティング部によってフィッティングされた結果の一例を示す図である。なお、図14において、縦軸はL* imageを示す。横軸は、単位を「°」とする首振り角αを示す。 Fig. 14 is a diagram showing an example of a result of fitting by a fitting unit according to an embodiment of the present disclosure. In Fig. 14, the vertical axis indicates L * image , and the horizontal axis indicates the swing angle α in "°".
方向推定部36は、首振り角αごとの画像情報の示す各像302の長さL*
imageに基づいて垂直入射方向を推定する。
The
本実施形態では、方向推定部36は、データセット生成部35から第3データセットを受けると、第3データセットに基づいて垂直入射方向を推定する。
In this embodiment, when the
具体的には、方向推定部36は、第3データセット及び式(5)に基づいてフィッティングを行うことにより、式(5)が第3データセットに最も当てはまるときの曲線Cbを与える対象角度α0を算出する。方向推定部36は、MBS114の首振りの片道分ごとに対象角度α0を算出する。
Specifically, the
本実施形態では、係留索401の形状を直線で近似しているので、対象角度α0の方向には、線状の係留索401上の点であって、MBS114との距離が最短となる点が位置する。
In this embodiment, the shape of the
また、方向推定部36は、推定した垂直入射方向が音響ビーム411に含まれる場合の画像情報に基づいてMBS114と係留索401との間の距離dを算出する。
The
本実施形態では、方向推定部36は、第3データセットにおいて、対象角度α0に最も近い首振り角αに対応する音響画像301における像302の最下部の位置(u1,v1)を取得する。
In this embodiment, the
方向推定部36は、取得した位置(u1,v1)から音響画像301における音響画像座標の原点(0,0)までの距離dimageを算出し、距離dimageと測定レンジRとを乗じた結果をMBS114から係留索401までの距離dとして算出する。
The
図15は、本開示の一実施形態に係るフィッティング部によってスキャンごとに算出された対象角度α0の一例を示す図である。なお、図15において、縦軸は、単位を「°」とする対象角度α0を示す。横軸は、スキャン数を示す。例えば、スキャン数が奇数及び偶数のときは、それぞれMBS114の首振り運動が往路及び復路の結果である。
Fig. 15 is a diagram showing an example of a target angle α0 calculated for each scan by a fitting unit according to an embodiment of the present disclosure. In Fig. 15, the vertical axis indicates the target angle α0 in units of "°". The horizontal axis indicates the number of scans. For example, when the number of scans is an odd number and an even number, the swing motion of the
図16は、本開示の一実施形態に係るフィッティング部によってスキャンごとに算出された距離dの一例を示す図である。縦軸は、単位を「m」とする距離dを示す。なお、横軸の見方は、図15と同様である。方向推定部36は、スキャンごとすなわちMBS114の首振りの片道分ごとに、対象角度α0及び距離dを対象物座標算出部37へ出力する。
16 is a diagram showing an example of the distance d calculated for each scan by the fitting unit according to an embodiment of the present disclosure. The vertical axis indicates the distance d in units of "m". The horizontal axis can be read in the same way as in FIG. 15. The
絶対座標情報取得部38は、絶対座標情報をバス22経由で水中ロボット111から受信すると、絶対座標情報を対象物座標算出部37へ出力する。
When the absolute coordinate
対象物座標算出部37は、方向推定部36から受ける対象角度α0及び距離dと、絶対座標情報取得部38から受ける絶対座標情報とに基づいて係留索401の絶対座標を算出する。
The target coordinate
図17は、本開示の一実施形態に係る係留索の座標を算出する方法を説明するための図である。図12及び図17に示すように、MBS114の位置の絶対座標を(xs,zs)、ロボットのピッチ角をθ、垂直入射時の首振り角を対象角度α0、及び音響ビーム411の中心面411aと係留索401とが交わる点の絶対座標を(xt,zt)とする。
また、θは、Y軸+側から見て反時計回りを正とし、α0は、Y軸+側から見て時計回りを正とする。このとき、(xt,zt)Tは以下のように求められる。
In addition, θ is positive in the counterclockwise direction as viewed from the Y-axis + side, and α 0 is positive in the clockwise direction as viewed from the Y-axis + side. In this case, (xt, zt) T can be obtained as follows.
水中ロボット111の測位中心の絶対座標を(xb,zb)とし、その点から見たMBS114の相対的な取り付け位置の絶対座標を(xsb,zsb)とすれば、(xs,zs)Tは、(xb,zb)Tと(xsb,zsb)Tとを用いて以下のように表される。
式(6)及び式(7)から(xs,zs)Tを消去して、実機において容易に取り出せるパラメータである(xb,zb)Tと(xsb,zsb)Tとを用いて(xt,zt)Tは以下のように表すことができる。
対象物座標算出部37は、係留索401の絶対座標として(xt,zt)を算出し、算出した絶対座標を示す対象物座標情報をバス22経由でメモリ24又はディスク25に保存する。
The object coordinate
図18~図21は、本開示の一実施形態に係る係留索の絶対座標の測定結果の一例を示す図である。なお、図18~図21において、縦軸は、単位を「m」とするZ座標を示す。横軸は、単位を「m」とするX座標を示す。 FIGS. 18 to 21 are diagrams showing an example of the measurement results of the absolute coordinates of a mooring line according to one embodiment of the present disclosure. In FIG. 18 to FIG. 21, the vertical axis indicates the Z coordinate in units of "m". The horizontal axis indicates the X coordinate in units of "m".
図18~図21に示すように、複数のマーカーが係留索401に取り付けられている。シンボル401aは、例えば、水中モーションキャプチャによって測定されたマーカーの絶対座標に位置する。
As shown in Figures 18 to 21, multiple markers are attached to a
図18に示すように、シンボル群Sr1に含まれる複数のシンボルは、水中ロボット111が聴音結果情報を生成したときの絶対座標にそれぞれ位置する。
As shown in FIG. 18, the multiple symbols included in symbol group Sr1 are each located at the absolute coordinates when the
シンボル群Sr1に含まれる複数のシンボルの位置で生成された聴音結果情報に基づいて算出された係留索401の絶対座標には、シンボル群St1に含まれる複数のシンボルが位置する。
The absolute coordinates of the
シンボル群Sr2に含まれる複数のシンボルは、水中ロボット111が聴音結果情報を生成したときの絶対座標にそれぞれ位置する。
The multiple symbols included in symbol group Sr2 are each located at the absolute coordinates when the
シンボル群Sr2に含まれる複数のシンボルの位置で生成された聴音結果情報に基づいて算出された係留索401の絶対座標には、シンボル群St2に含まれる複数のシンボルが位置する。
The absolute coordinates of the
シンボル群Sr3に含まれる複数のシンボルは、水中ロボット111が聴音結果情報を生成したときの絶対座標にそれぞれ位置する。
The multiple symbols included in symbol group Sr3 are each located at the absolute coordinates when the
シンボル群Sr3に含まれる複数のシンボルの位置で生成された聴音結果情報に基づいて算出された係留索401の絶対座標には、シンボル群St3に含まれる複数のシンボルが位置する。
The absolute coordinates of the
図19に示すように、シンボル群Sr4に含まれる複数のシンボルは、水中ロボット111が聴音結果情報を生成したときの絶対座標にそれぞれ位置する。
As shown in FIG. 19, the multiple symbols included in symbol group Sr4 are each located at the absolute coordinates when the
シンボル群Sr4に含まれる複数のシンボルの位置で生成された聴音結果情報に基づいて算出された係留索401の絶対座標には、シンボル群St4に含まれる複数のシンボルが位置する。
The absolute coordinates of the
シンボル群Sr5に含まれる複数のシンボルは、水中ロボット111が聴音結果情報を生成したときの絶対座標にそれぞれ位置する。
The multiple symbols included in symbol group Sr5 are each located at the absolute coordinates when the
シンボル群Sr5に含まれる複数のシンボルの位置で生成された聴音結果情報に基づいて算出された係留索401の絶対座標には、シンボル群St5に含まれる複数のシンボルが位置する。
The absolute coordinates of the
図20に示すように、シンボル群Sr6に含まれる複数のシンボルは、水中ロボット111が聴音結果情報を生成したときの絶対座標にそれぞれ位置する。
As shown in FIG. 20, the multiple symbols included in symbol group Sr6 are each located at the absolute coordinates when the
シンボル群Sr6に含まれる複数のシンボルの位置で生成された聴音結果情報に基づいて算出された係留索401の絶対座標には、シンボル群St6に含まれる複数のシンボルが位置する。
The absolute coordinates of the
図21に示すように、シンボル群Sr7に含まれる複数のシンボルは、水中ロボット111が聴音結果情報を生成したときの絶対座標にそれぞれ位置する。
As shown in FIG. 21, the multiple symbols included in symbol group Sr7 are each located at the absolute coordinates when the
シンボル群Sr7に含まれる複数のシンボルの位置で生成された聴音結果情報に基づいて算出された係留索401の絶対座標には、シンボル群St7に含まれる複数のシンボルが位置する。
The absolute coordinates of the
このように、シンボル群St1~St7に含まれる各シンボルは、各シンボル401aを結ぶ曲線(図示しない)を良く再現している。つまり、方向推定装置11によって係留索401の絶対座標を精度よく算出することができる。
In this way, each symbol included in the symbol groups St1 to St7 closely reproduces the curve (not shown) connecting each
図12に示すように、係留索401の全体形状が分かれば係留索401のモニタリングに有益であるため、係留索401の形状を推定する技術が求められる。本実施形態では、方向推定装置11における全体形状推定部39は、メモリ24又はディスク25に保持された垂直入射方向及び距離dの組であって複数の組に基づいて係留索401の形状を推定する。
As shown in FIG. 12, if the overall shape of the
本実施形態では、全体形状推定部39は、メモリ24又はディスク25に蓄積された複数の対象物座標情報をバス22経由で取得し、取得した複数の対象物座標情報に基づいて係留索401の全体形状を推定する。
In this embodiment, the overall
具体的には、全体形状推定部39は、例えば、制御部33による水中ロボット111の制御が終了した後、メモリ24又はディスク25に蓄積された複数の対象物座標情報を取得する。
Specifically, for example, after the
全体形状推定部39は、例えば、係留索401の形状をよく近似する曲線を仮定する。本実施形態では、全体形状推定部39は、パラメータで形状が定まるカテナリ曲線を仮定し、取得した複数の対象物座標情報と、仮定したカテナリ曲線とに基づいてフィッティングを行うことにより、複数の対象物座標の示す各絶対座標にカテナリ曲線が最も当てはまるときのパラメータを算出する。
The overall
全体形状推定部39は、算出したパラメータ及びカテナリ曲線に基づいて、係留索401の全体的な形状を推定する。つまり、断片的な計測結果に基づいて、係留索401全体の形状を推定することが可能となる。
The overall
[方向推定処理]
図22は、本開示の一実施形態に係る方向推定装置11が方向推定処理を行う際の動作手順を定めたフローチャートである。
[Direction Estimation Processing]
FIG. 22 is a flowchart that defines an operation procedure when the
図22に示すように、水中ロボット111は、例えば、所定の移動経路を移動する。移動経路は、例えば、係留索401の近傍における複数の好適位置を含む。
As shown in FIG. 22, the
まず、方向推定装置11は、例えば、水中ロボット111を移動経路に沿って移動させる(ステップS102)。
First, the
次に、方向推定装置11は、測定処理を行う(ステップS104)。測定処理は、例えば、水中ロボット111が所定の測定位置に到達したり、所定の測定タイミングが到来するなどの所定条件が満たされたときに開始される。
Next, the
次に、方向推定装置11は、水中ロボット111が所定の移動経路の終点に到達したか否かを判定する(ステップS106)。
Next, the
方向推定装置11は、水中ロボット111が終点に到達していないと判定すると(ステップS106でNO)、水中ロボット111を移動経路に沿ってさらに移動させる(ステップS102)。
If the
一方、方向推定装置11は、水中ロボット111が終点に到達したと判定すると(ステップS106でYES)、算出した複数の係留索401の絶対座標に基づいて、係留索401の形状を出力する(ステップS108)。
On the other hand, when the
図23は、本開示の一実施形態に係る方向推定装置が測定処理を行う際の動作手順を定めたフローチャートである。図23は、図22のステップS104における動作の詳細を示している。 FIG. 23 is a flowchart that defines the operation procedure when a direction estimation device according to an embodiment of the present disclosure performs measurement processing. FIG. 23 shows details of the operation in step S104 in FIG. 22.
図23に示すように、まず、方向推定装置11は、測定開始処理を行う(ステップS202)。具体的には、方向推定装置11は、水中ロボット111における首振り機構113、MBS114、絶対座標測定部116及び首振り角測定部117を起動させる。これにより、水中ロボット111から首振り角情報、画像情報及び絶対座標情報が方向推定装置11に送信される。首振り機構113は、MBS114に首振り運動させる。
As shown in FIG. 23, first, the
次に、方向推定装置11は、MBS114の首振り角αが上限に到達するまで(ステップS206でNO)、情報取得処理を行う(ステップS204)。
Next, the
次に、方向推定装置11は、対象物位置座標の算出処理を行う(ステップS208)。
Next, the
次に、方向推定装置11は、MBS114の首振り角αが下限に到達するまで(ステップS212でNO)、情報取得処理を行う(ステップS210)。
Next, the
次に、方向推定装置11は、対象物位置座標の算出処理を行う(ステップS214)。
Next, the
次に、方向推定装置11は、所定の終了条件が満たされていないと判定すると(ステップS216でNO)、MBS114の首振り角αが上限に到達するまで(ステップS206でNO)、情報取得処理を行う(ステップS204)。
Next, if the
所定の終了条件は、例えば、測定開始から所定時間が経過したこと、又は首振り機構113がMBS114の首振り角を所定回数往復させたことなどである。
The specified end condition is, for example, that a specified time has elapsed since the start of measurement, or that the
一方、方向推定装置11は、所定の終了条件が満たされたと判定すると(ステップS216でYES)、測定処理を終了する。
On the other hand, if the
図24は、本開示の一実施形態に係る方向推定装置が情報取得処理を行う際の動作手順を定めたフローチャートである。図24は、図23のステップS204及びS210における動作の詳細を示している。 FIG. 24 is a flowchart that defines the operation procedure when a direction estimation device according to an embodiment of the present disclosure performs information acquisition processing. FIG. 24 shows details of the operations in steps S204 and S210 in FIG. 23.
図24に示すように、まず、方向推定装置11は、画像情報、首振り角情報又は絶対座標情報を水中ロボット111から受信するまで待機する(ステップS302でNO、ステップS308でNO及びステップS314でNO)。
As shown in FIG. 24, first, the
方向推定装置11は、画像情報を水中ロボット111から受信すると(ステップS302でYES)、画像情報の示す音響画像301を画像処理し、像302の最下部の位置(u1,v1)、及び像302の長さL*
imageを取得する(ステップS304)。
When the
次に、方向推定装置11は、最下部の位置(u1,v1)及び像302の長さL*
imageを、測定時刻と対応付けて第1データセットに蓄積する(ステップS306)。
Next, the
また、方向推定装置11は、首振り角情報を水中ロボット111から受信すると(ステップS308でYES)、首振り角情報の示す首振り角αを、測定時刻と対応付けて第2データセットに蓄積する(ステップS310)。
In addition, when the
また、方向推定装置11は、絶対座標情報を水中ロボット111から受信すると(ステップS312でYES)、首振り角情報の示す首振り角αを、測定時刻と対応付けて保持する(ステップS314)。
In addition, when the
図25は、本開示の一実施形態に係る方向推定装置が対象物位置座標の算出処理を行う際の動作手順を定めたフローチャートである。図25は、図23のステップS208及びS214における動作の詳細を示している。 FIG. 25 is a flowchart that defines the operation procedure when a direction estimation device according to an embodiment of the present disclosure performs a process of calculating object position coordinates. FIG. 25 shows details of the operations in steps S208 and S214 in FIG. 23.
図25に示すように、まず、方向推定装置11は、第1データセットにおける測定時刻と第2データセットにおける測定時刻との関係に基づいて、像302の最下部の位置(u1,v1)及び像302の長さL*
imageと、首振り角αとを対応付けた第3データセットを生成する(ステップS402)。
As shown in FIG. 25, first, the
次に、方向推定装置11は、第3データセット及び式(5)に基づいてフィッティングを行うことにより、式(5)が第3データセットに最も当てはまるときの曲線Cbを与える対象角度α0を算出する(ステップS404)。
Next, the
次に、方向推定装置11は、第3データセットにおいて、対象角度α0に最も近い首振り角αに対応する像302の最下部の位置(u1,v1)を取得し、音響画像座標の原点(0,0)から位置(u1,v1)までの距離dimageと測定レンジRとを乗じた結果をMBS114から係留索401までの距離dとして算出する(ステップS406)。
Next, the
次に、方向推定装置11は、対象角度α0及び距離dと、絶対座標情報の示す絶対座標とに基づいて係留索401の絶対座標を算出する(ステップS408)。
Next, the
(第1変形例)
図26は、本開示の一実施形態に係る方向推定装置の第1変形例におけるフィッティング部によってスキャンごとに算出された対象角度α0の一例を示す図である。なお、図26の見方は、図15と同様である。
(First Modification)
26 is a diagram illustrating an example of a target angle α 0 calculated for each scan by a fitting unit in a first modified example of a direction estimation device according to an embodiment of the present disclosure. Note that the way to view FIG. 26 is the same as that of FIG. 15.
例えば、MBS114が音響画像301を生成するタイミングと、首振り角情報取得部32が首振り角αを取得するタイミングとがずれることがある。この場合、首振り運動の往路(例えば、スキャン数が奇数)のときの対象角度α0が、首振り運動の復路(例えば、スキャン数が偶数)のときの対象角度α0よりも大きくなるか、あるいは小さくなる。
For example, the timing when the
詳細には、例えば、往路において、MBS114が音響画像301を生成した首振り角αよりも大きい角度を首振り角情報取得部32が測定する場合、復路では、MBS114が音響画像301を生成した首振り角αよりも小さい角度を首振り角情報取得部32が測定してしまう。
In more detail, for example, if on the outbound journey, the swivel angle
また、例えば、往路において、MBS114が音響画像301を生成した首振り角αよりも小さい角度を首振り角情報取得部32が測定する場合、復路では、MBS114が音響画像301を生成した首振り角αよりも大きい角度を首振り角情報取得部32が測定してしまう。
In addition, for example, if on the outbound journey, the swivel angle
これに対して、方向推定装置11の第1変形例では、方向推定部36は、2つの連続するスキャン数のときの2つの対象角度α0の平均を、当該2つの連続するスキャン数のうちの一方のときの対象角度α0として算出する。
In contrast, in the first modified example of the
具体的には、方向推定部36は、例えば、スキャン数が1及び2のときの2つの対象角度α0の平均を、スキャン数が1のときの対象角度α0として算出する。
Specifically, the
そして、方向推定部36は、例えば、スキャン数が2及び3のときの2つの対象角度α0の平均を、スキャン数が2のときの対象角度α0として算出する。
Then, the
これにより、MBS114が音響画像301を生成した首振り角αと、首振り角情報取得部32が測定する首振り角αと、の差を相殺することができるので、対象角度α0のばらつきを抑制することができる。
This makes it possible to cancel out the difference between the swing angle α at which the
なお、本実施形態では、形状計測の対象物が係留索401である構成について説明したが、これに限定するものではない。対象物は、例えば、船の舵などのように縁から見たときに直線状に見えるものであってもよい。
In this embodiment, the object of shape measurement is a
また、本実施形態では、MBS114が画像情報を生成するごとに水中ロボット111からコンピュータ101へ画像情報が送信される構成について説明したが、これに限定するものではない。MBS114が生成する画像情報が水中ロボット111に設けられる記憶装置に順次蓄積される構成であってもよい。この場合、方向推定装置11は、MBS114による測定が完了した後、記憶装置に蓄積された画像情報に基づいて垂直入射方向を推定する。
In addition, in this embodiment, a configuration has been described in which image information is transmitted from the
また、本実施形態では、MBS114が水中ロボット111に設けられる構成について説明したが、これに限定するものではない。MBS114の代わりにスキャニングソナーが水中ロボット111に設けられる構成であってもよい。しかしながら、偏角方向の精度のよいMBS114が水中ロボット111に設けられる構成が好ましい。
In addition, in this embodiment, a configuration in which the
また、本実施形態では、首振り機構113による首振り運動によってMBS114の向きが変更される構成について説明したが、これに限定するものではない。例えば、MBS114が水中ロボット111に固定され、水中ロボット111のピッチを調整することによってMBS114の向きが変更される構成であってもよい。
In addition, in this embodiment, a configuration has been described in which the orientation of the
また、本実施形態では、MBS114が水中ロボット111に設けられる構成について説明したが、これに限定するものではない。MBS114は、船舶に設けられたり、あるいはダイバーによって保持される構成であってもよい。
In addition, in this embodiment, the
また、本実施形態では、首振り角αに対するL* imageのプロットにモデル関数すなわち式(5)をフィッティングさせることによって垂直入射時の対象角度α0を推定する構成について説明したが、これに限定するものではない。例えば、2つの首振り角αのときの2つのL* imageを比べて、小さいL* imageの首振り角αのときの音波ビームが垂直入射に近いと判定するアルゴリズムを用いる構成であってもよい。式(5)は最小値を有するので、このアルゴリズムを繰り返し実行することによってL* imageが最小となる垂直入射方向を求めることができる。 In addition, in this embodiment, the configuration has been described in which the target angle α 0 at the time of vertical incidence is estimated by fitting the model function, i.e., equation (5), to the plot of L * image against the swivel angle α, but this is not limited to this. For example, an algorithm may be used that compares two L * images at two swivel angles α and determines that the sound beam at the swivel angle α with the smaller L * image is close to vertical incidence. Since equation (5) has a minimum value, the vertical incidence direction at which the L * image is smallest can be found by repeatedly executing this algorithm.
また、本実施形態では、相対位置の座標(対象角度α0及び距離d)から絶対座標を求める構成について説明したが、これに限定するものではない。例えば、水中ロボット111に搭乗者が搭乗している場合、搭乗者は、対象角度α0及び距離dに基づいて対象物の位置を容易に認識することができる。
In this embodiment, the absolute coordinates are calculated from the coordinates of the relative position (target angle α0 and distance d), but the present invention is not limited to this. For example, when a rider is on board the
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The above-described embodiments are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The elements of the embodiments, as well as their arrangement, materials, conditions, shapes, sizes, etc., are not limited to those exemplified, and may be modified as appropriate. Furthermore, configurations shown in different embodiments may be partially substituted or combined.
11…方向推定装置
21…プロセッサ
22…バス
23…通信部
24…メモリ
25…ディスク
31…聴音結果情報取得部
32…首振り角情報取得部
33…制御部
34…画像処理部
35…データセット生成部
36…方向推定部
37…対象物座標算出部
38…絶対座標情報取得部
39…全体形状推定部
101…コンピュータ
111…水中ロボット
112…通信部
113…首振り機構
114…マルチビームイメージングソナー
115…スラスタ制御部
116…絶対座標測定部
117…首振り角測定部
201…方向推定システム
301…音響画像
302、303…像
401…係留索
411…音響ビーム
411a…中心面
TA…回転軸
Pm…移動面
Pb…海底面
Da…聴音方向
Ds…基準方向
R…測定レンジ
11...
Claims (14)
前記聴音結果情報に基づいて、前記音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する方向推定部と、を備える、
方向推定装置。 An information acquisition unit that acquires sound-hearing result information indicating a time series of sound-hearing results measured by a sonar that emits sound beams in multiple directions, the sound-hearing result being from multiple sound-hearing directions including at least a portion of the multiple directions;
and a direction estimating unit that estimates a normal incidence direction in which the sound wave beam is normal to the object based on the hearing result information.
Directional estimation device.
請求項1に記載の方向推定装置。 The sound listening result information indicates the sound listening results of the sound waves from the multiple sound listening directions for each zenith angle and each deviation angle.
The direction estimation device according to claim 1 .
前記方向推定部は、前記天頂角ごとの前記画像情報に基づいて前記垂直入射方向を推定する、
請求項2に記載の方向推定装置。 The information acquisition unit acquires, as the hearing result information, image information showing a sector-shaped image having a radius and a central angle that are the elapsed time from the time when the sound beam was emitted and the deflection angle, respectively, for each zenith angle, the image including an image corresponding to the echo of the sound beam from the object;
The direction estimation unit estimates the vertical incidence direction based on the image information for each zenith angle.
The direction estimation device according to claim 2 .
請求項3に記載の方向推定装置。 The direction estimation unit estimates the normal incidence direction based on a length of each of the images included in each of the images indicated by the image information for each of the zenith angles.
The direction estimation device according to claim 3 .
請求項3に記載の方向推定装置。 The direction estimation unit further calculates a distance between the sonar and the object based on the image information when the estimated normal incidence direction is included in the sound wave beam.
The direction estimation device according to claim 3 .
請求項1に記載の方向推定装置。 The object appears to the sonar as a straight line.
The direction estimation device according to claim 1 .
請求項6に記載の方向推定装置。 The distance between the plane including the object and the sonar is smaller than a value determined based on the distance between the sonar and the object.
The direction estimation device according to claim 6 .
前記垂直入射方向及び前記距離の組を保持する記憶部と、
前記記憶部に保持された複数の前記組に基づいて前記対象物の形状を推定する形状推定部と、をさらに備える、
請求項5に記載の方向推定装置。 The direction estimation device comprises:
A storage unit that stores a pair of the normal incidence direction and the distance;
A shape estimation unit that estimates a shape of the object based on the plurality of sets stored in the storage unit,
The direction estimation device according to claim 5 .
請求項1に記載の方向推定装置。 The sonar is a multi-beam sonar.
The direction estimation device according to claim 1 .
請求項1に記載の方向推定装置。 The sonar is a scanning sonar.
The direction estimation device according to claim 1 .
請求項1から10のいずれか一項に記載の方向推定装置と、を備え、
前記ソナーは、複数の方向に音波ビームを発し、かつ、前記複数の方向の少なくとも一部を含む複数の聴音方向からの音波を聴音し、時系列の聴音結果を示す聴音結果情報を生成する、
方向推定システム。 An underwater robot equipped with sonar,
A direction estimation device according to any one of claims 1 to 10,
The sonar emits sound beams in a plurality of directions, listens to sound waves from a plurality of listening directions including at least a portion of the plurality of directions, and generates listening result information indicating the listening results in a time series.
Orientation Estimation System.
前記水中ロボットは、
前記複数の聴音方向のうち、天頂角ごとの前記聴音方向に前記ソナーを向ける機構を含む、
請求項11に記載の方向推定システム。 The sonar is a multi-beam sonar that measures the sound waves from the plurality of listening directions for each declination angle,
The underwater robot comprises:
A mechanism for directing the sonar to a listening direction for each zenith angle among the plurality of listening directions,
The direction estimation system of claim 11.
複数の方向に音波ビームを発するソナーによって測定された時系列の聴音結果であって、前記複数の方向の少なくとも一部を含む複数の聴音方向からの音波の前記聴音結果を示す聴音結果情報を取得することと、
前記聴音結果情報に基づいて、前記音波ビームが対象物に対して垂直に入射する垂直入射方向を推定することと、を含む、
方向推定方法。 A direction estimation method for a direction estimation device, comprising:
Acquiring sound-sensing result information indicating a time series of sound-sensing results measured by a sonar that emits sound beams in a plurality of directions, the sound-sensing result being from a plurality of sound-sensing directions including at least a portion of the plurality of directions;
and estimating a normal incidence direction in which the sound beam is normal to the object based on the hearing result information.
Direction estimation methods.
コンピュータを、
複数の方向に音波ビームを発するソナーによって測定された時系列の聴音結果であって、前記複数の方向の少なくとも一部を含む複数の聴音方向からの音波の前記聴音結果を示す聴音結果情報を取得する情報取得部と、
前記聴音結果情報に基づいて、前記音波ビームが対象物に対して垂直に入射する垂直入射方向を推定する方向推定部と、として機能させるための、
方向推定プログラム。 A direction estimation program for use in a direction estimation device,
Computer,
An information acquisition unit that acquires sound-hearing result information indicating a time series of sound-hearing results measured by a sonar that emits sound beams in multiple directions, the sound-hearing result being from multiple sound-hearing directions including at least a portion of the multiple directions;
a direction estimation unit that estimates a perpendicular incidence direction in which the sound wave beam is perpendicularly incident on an object based on the hearing result information,
Direction estimation program.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023084885A JP2024168324A (en) | 2023-05-23 | 2023-05-23 | Direction estimation device, direction estimation system, direction estimation method, and direction estimation program |
JP2023-084885 | 2023-05-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024242156A1 true WO2024242156A1 (en) | 2024-11-28 |
Family
ID=93589457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2024/018935 WO2024242156A1 (en) | 2023-05-23 | 2024-05-23 | Direction estimation device, direction estimation system, direction estimation method, and direction estimation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024168324A (en) |
WO (1) | WO2024242156A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01227982A (en) * | 1988-03-08 | 1989-09-12 | Furuno Electric Co Ltd | Fish finder |
JPH0894753A (en) * | 1994-09-22 | 1996-04-12 | Yaskawa Electric Corp | Method for measuring distance and normal direction |
JP2005528950A (en) * | 2002-06-07 | 2005-09-29 | ダイアグノスティック・アルトラサウンド・コーポレーション | System and method for measuring bladder wall thickness |
JP2006162294A (en) * | 2004-12-02 | 2006-06-22 | Furuno Electric Co Ltd | Bottom sediment detection system |
US20180163532A1 (en) * | 2016-12-08 | 2018-06-14 | Exxonmobil Research And Engineering Company | Systems and methods for real-time monitoring of a line |
US20190154439A1 (en) * | 2016-03-04 | 2019-05-23 | May Patents Ltd. | A Method and Apparatus for Cooperative Usage of Multiple Distance Meters |
-
2023
- 2023-05-23 JP JP2023084885A patent/JP2024168324A/en active Pending
-
2024
- 2024-05-23 WO PCT/JP2024/018935 patent/WO2024242156A1/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01227982A (en) * | 1988-03-08 | 1989-09-12 | Furuno Electric Co Ltd | Fish finder |
JPH0894753A (en) * | 1994-09-22 | 1996-04-12 | Yaskawa Electric Corp | Method for measuring distance and normal direction |
JP2005528950A (en) * | 2002-06-07 | 2005-09-29 | ダイアグノスティック・アルトラサウンド・コーポレーション | System and method for measuring bladder wall thickness |
JP2006162294A (en) * | 2004-12-02 | 2006-06-22 | Furuno Electric Co Ltd | Bottom sediment detection system |
US20190154439A1 (en) * | 2016-03-04 | 2019-05-23 | May Patents Ltd. | A Method and Apparatus for Cooperative Usage of Multiple Distance Meters |
US20180163532A1 (en) * | 2016-12-08 | 2018-06-14 | Exxonmobil Research And Engineering Company | Systems and methods for real-time monitoring of a line |
Also Published As
Publication number | Publication date |
---|---|
JP2024168324A (en) | 2024-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11119211B2 (en) | Acoustic doppler system and method | |
CN101750611B (en) | Underwater robot object detection device and detection method | |
US20100067330A1 (en) | Ship mounted underwater sonar system | |
JP2016521360A (en) | Underwater platform with LIDAR and related methods | |
JP2012051561A (en) | Unmanned underwater vehicle and method for operating unmanned underwater vehicle | |
US9529107B2 (en) | Method of deployment, method and device for seismic prospecting in an aquatic medium | |
Joe et al. | Sensor fusion of two sonar devices for underwater 3D mapping with an AUV | |
CN109085597B (en) | Unmanned ship for underwater topography measurement | |
CN108919274B (en) | Shallow water wave following scanning detection system based on single wave beam and working method thereof | |
KR20200079133A (en) | Evaluation methods of underwater navigation performance of unmanned underwater vehicles | |
CN108919324B (en) | Positioning method of underwater glider | |
JP2002168952A (en) | Reconstruction method of three-dimensional submarine structure | |
JP2002090456A (en) | Topographic measuring apparatus | |
EP3064958B1 (en) | Systems and associated methods for producing a 3d sonar image | |
CN112698349B (en) | Overwater and underwater synchronous integrated space measurement system and method for shallow sea island | |
WO2024242156A1 (en) | Direction estimation device, direction estimation system, direction estimation method, and direction estimation program | |
JP7279898B2 (en) | SONAR SYSTEM, POSITION DIFFERENCE DETECTION METHOD AND PROGRAM | |
Chun et al. | 3D detection and tracking of mooring lines of floating offshore wind turbines by autonomous underwater vehicle | |
JP7601691B2 (en) | Autonomous Underwater Vehicle and Control Program | |
Kondo et al. | Structure tracing with a ranging system using a sheet laser beam | |
Chou et al. | Mechanical Imaging Sonar-based AUV Wall Following in a Water Tank | |
Szymak et al. | Research on Subsystem of Obstacles Detection Based on Physical Model of Biomimetic Underwater Vehicle | |
Kim et al. | Imaging sonar based AUV localization and 3D mapping using image sequences | |
CN118795897B (en) | A dynamic height control method for underwater robot based on DVL information | |
Rho et al. | High-Precision Underwater Image Sonar Mapping in Aquatic Structural Environment using LiDAR Odometry and Mapping for Safety Inspection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24811162 Country of ref document: EP Kind code of ref document: A1 |