[go: up one dir, main page]

WO2014195994A1 - センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法 - Google Patents

センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法 Download PDF

Info

Publication number
WO2014195994A1
WO2014195994A1 PCT/JP2013/003525 JP2013003525W WO2014195994A1 WO 2014195994 A1 WO2014195994 A1 WO 2014195994A1 JP 2013003525 W JP2013003525 W JP 2013003525W WO 2014195994 A1 WO2014195994 A1 WO 2014195994A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
feature point
information output
amplitude
representative data
Prior art date
Application number
PCT/JP2013/003525
Other languages
English (en)
French (fr)
Inventor
大 竹元
Original Assignee
古野電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 古野電気株式会社 filed Critical 古野電気株式会社
Priority to PCT/JP2013/003525 priority Critical patent/WO2014195994A1/ja
Priority to JP2015521179A priority patent/JP6240671B2/ja
Priority to US14/896,233 priority patent/US20160116572A1/en
Publication of WO2014195994A1 publication Critical patent/WO2014195994A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/522Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves
    • G01S13/524Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves based upon the phase or frequency shift resulting from movement of objects, with reference to the transmitted signals, e.g. coherent MTi
    • G01S13/534Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves based upon the phase or frequency shift resulting from movement of objects, with reference to the transmitted signals, e.g. coherent MTi based upon amplitude or phase shift resulting from movement of objects, with reference to the surrounding clutter echo signal, e.g. non coherent MTi, clutter referenced MTi, externally coherent MTi
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/581Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/582Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/937Radar or analogous systems specially adapted for specific applications for anti-collision purposes of marine craft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/295Means for transforming co-ordinates or for evaluating data, e.g. using computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/96Sonar systems specially adapted for specific applications for locating fish

Definitions

  • the present invention mainly relates to a sensor information output device that receives a radio wave or a reflected wave of a sound wave as a reception signal and outputs data obtained based on the reception signal to an external display device.
  • a radar apparatus includes a sensor unit including a radar antenna and an instruction unit including a radar image creation unit.
  • the sweep data acquired by the sensor unit is output to the instruction unit as an analog signal.
  • the instructing unit converts the analog signal output from the sensor unit into a digital signal, and creates a radar image after performing various signal processing.
  • a radar apparatus that has a sensor unit that converts sweep data from an analog signal to a digital signal and outputs the digital signal to an instruction unit.
  • Patent Document 1 discloses a technology for reducing network traffic in a ship.
  • Patent Document 1 discloses a radar control device that performs unnecessary signal removal setting while confirming a radar image from a remote location. In this radar control device, the amount of data is reduced by converting the amplitude of a predetermined region of the radar image into an average amplitude value of the region.
  • Patent Document 2 includes a fixed target level correlator and a moving target level correlator. Sweep data is input to each correlator.
  • the fixed target correlator emphasizes the fixed target
  • the moving target correlator emphasizes the moving target. And a moving target and a fixed target can be distinguished by changing a display color for every output of each correlator.
  • Patent Document 2 only a fixed target or a moving target is emphasized, and only a part of data is not extracted, so that the amount of data is not effectively reduced. Absent. Rather, in Patent Document 2, since each signal is output after performing two types of signal processing on one sweep data, the amount of data output from the sensor unit to the display unit increases.
  • radar data is created by the sensor unit and data is transmitted, for example, when displaying radar images on a plurality of display devices, due to the difference in resolution of the display devices, coarse radar images that have only been enlarged, aspect ratio A radar image in which the end portion is not displayed due to the mismatch or a part of the radar image protrudes from the display area is displayed.
  • the above problem is not limited to the radar device, but is a problem common to all devices including a sensor unit and an instruction unit.
  • the present invention has been made in view of the above circumstances, and its main purpose is to output data suitable for drawing while reducing the amount of data to be output to the instruction unit (display device side). It is to provide a sensor information output device.
  • the sensor information output device includes a receiving unit, a feature point extracting unit, and a representative data output unit.
  • the receiving unit receives a radio wave or a reflected wave of a sound wave transmitted from the sensor as a reception signal.
  • the feature point extraction unit extracts feature points from the received signal.
  • the representative data output unit outputs at least distance information indicating the distance from the sensor and amplitude information of the feature point extracted by the feature point extraction unit to the outside of the apparatus as representative data of the received signal.
  • the video can be drawn on the display device side in accordance with the resolution of the display device.
  • the feature point extraction unit extracts the feature points based on an amplitude of the received signal.
  • the position where the target of the received signal exists can be used as the feature point.
  • the feature point extraction unit preferably extracts the feature point of the received signal based on a change in amplitude of the received signal in a distance direction or an azimuth direction when viewed from the sensor. .
  • a point that accurately indicates the distance to the target can be used as a feature point.
  • a point that accurately indicates the azimuth in which the target exists can be used as a feature point. It is also possible to detect the position of the target while simultaneously changing the distance direction and the azimuth direction.
  • the feature point extraction unit uses a peak point of a change in amplitude of the received signal in a distance direction or an azimuth direction as viewed from the sensor as the feature point.
  • the peak point of the amplitude change often indicates the center of the echo indicating the target. Therefore, by outputting this point as a peak point, a point that accurately indicates the position of the target can be used as a feature point.
  • the feature point extraction unit uses an inflection point of the amplitude of the received signal in the distance direction or the azimuth direction as viewed from the sensor as the feature point.
  • the portion showing the characteristic of the amplitude change can be used as the feature point, the point indicating the position of the target accurately can be used as the feature point.
  • the feature point extraction unit uses a center position of a target obtained based on a change in amplitude of the received signal in the distance direction or the azimuth direction as viewed from the sensor as the feature point. It is preferable.
  • the feature point extraction unit sets, as the feature point, a point extracted based on a change amount of the amplitude of the reception signal in the distance direction or the azimuth direction when viewed from the sensor. . More specifically, it is more preferable that the rising point or the falling point of the amplitude is the feature point, or that the amplitude change amount is equal to or greater than a predetermined reference.
  • the rise (or fall) of the amplitude as a feature point, it is possible to detect the place where the target is started (or finished). More accurate drawing can be performed on the apparatus side. Further, by considering the point where the amount of change in amplitude is high, for example, the rise (or fall) of the amplitude can be accurately detected.
  • the representative data output unit does not output a point whose amplitude is equal to or less than a predetermined reference.
  • the representative data output unit classifies the amplitude of the feature point into a plurality of amplitude classes based on the amplitude, and outputs the amplitude class as the amplitude information of the feature point. Is preferred.
  • the representative data output unit when the amplitude class is the same at the feature point, determines the amplitude class and the number of consecutive amplitude classes as the amplitude of the feature point. It is preferable to output as information.
  • the representative data output unit outputs phase information of the feature points.
  • the speed of the target can be calculated by performing a predetermined process on the display device side where the phase information is input. Therefore, an image in consideration of the speed of the target can be displayed on the display device side.
  • the representative data output unit preferably outputs target determination information indicating whether or not the feature point is a target.
  • the representative data output unit outputs movement information indicating whether or not the target of the feature point is moving.
  • the representative data output unit outputs the speed of the target.
  • the representative data output unit outputs azimuth information of the feature points in addition to the distance information and the amplitude information of the feature points.
  • the representative data output unit preferably outputs the representative data wirelessly.
  • wireless communication has a smaller amount of data transfer per unit time / second than wired communication. Therefore, representative data can be output wirelessly without difficulty by suppressing the amount of communication to be output as in the present application.
  • the representative data output unit outputs the received signal before extracting the feature points to the outside of the device in addition to the representative data.
  • a sensor video display device having the following configuration. That is, the sensor video display device includes a representative data input unit, a video creation unit, and a display unit.
  • the representative data input unit extracts feature points based on the amplitude of the received signal, and information including at least distance information and amplitude information of the feature points is input from the outside as representative data of the received signal.
  • the video creation unit creates a sensor video indicating a surrounding target based on the representative data input to the representative data input unit.
  • the display unit displays the sensor video created by the video creation unit.
  • a detection device including the sensor information output device and the sensor video display device.
  • the sensor information output method described above is provided.
  • FIG. 1 is a block diagram showing a configuration of a radar apparatus according to an embodiment of the present invention.
  • the figure which shows a mode that one sweep data (The received signal continuous in a distance direction) is acquired, and the graph which shows one acquired sweep data.
  • direction direction) is acquired, and the graph which arranged the amplitude in a predetermined distance.
  • FIG. 1 is a block diagram showing a configuration of a radar apparatus according to an embodiment of the present invention.
  • the radar device (detection device) 1 of the present embodiment is configured as a marine radar device.
  • the radar device 1 can transmit pulsed radio waves and is configured to receive reflected waves from a target (for example, land or other ship on the sea) around the ship.
  • the radar apparatus 1 can create and display a radar image indicating the position and shape of the target based on the received reflected wave.
  • the radar apparatus 1 includes a sensor information output device (sensor unit) 10 and a sensor video display device 20.
  • sensor unit sensor information output device
  • sensor video display device 20 the structure provided with two sensor video display apparatuses 20 is shown by FIG. 1, the structure provided with one sensor video display apparatus 20 may be sufficient, and three or more may be sufficient.
  • the sensor information output device 10 detects a target, performs various processing on a signal indicating the detection result, and then outputs the signal to the sensor video display device 20.
  • the sensor information output device 10 includes a radar antenna (sensor unit) 11, a receiving unit 12, an A / D conversion unit 13, a signal processing unit 14, a feature point extraction unit 15, an additional information calculation unit 16, a representative A data output unit 17.
  • the radar antenna 11 is configured to transmit a pulsed radio wave having strong directivity and receive a reflected wave from each target as a reception signal. With this configuration, it is possible to know the distance r from the ship to the target by measuring the time from when the radar antenna 11 transmits the pulsed radio wave to when it receives the reflected wave.
  • the radar antenna 11 is configured to be able to rotate 360 ° in a horizontal plane, and is configured to repeatedly transmit and receive radio waves while changing the transmission direction of pulse radio waves (changing the angle of the radar antenna 11). With this configuration, a target on a plane around the ship can be detected over 360 °.
  • a CW (continuous wave) radar or a pulse Doppler radar may be used instead of the pulse radar.
  • a radar device having a configuration in which the radar antenna is not rotated may be used.
  • a radar device having an antenna element in the entire circumferential direction or a radar device that detects only a specific direction such as the front does not need to rotate the radar antenna.
  • the sweep data can be expressed as data including one or a plurality of received signals.
  • FIG. 2A shows a state when a pulsed radio wave is transmitted in the direction of angle ⁇ from the heading.
  • FIG. 2B shows sweep data (received signals continuous in the distance direction) obtained by this sweep.
  • the sweep data is data including the distance from the own device (radar antenna) and the amplitude. From FIG. 2B, it can be seen that the amplitude of the position where the target exists in FIG.
  • the receiving unit 12 receives the sweep data output from the radar antenna 11 and outputs it to the A / D conversion unit 13.
  • the A / D converter 13 receives the sweep data output from the receiver 12 and converts the sweep data from an analog signal to a digital signal.
  • the signal processing unit 14 performs processing for removing unnecessary signals on the sweep data converted into digital signals. For example, the signal processing unit 14 performs a process of removing sea surface reflection from the sweep data, a process of removing a noise floor, a process of enhancing a signal indicating a target, and the like.
  • FIG. 3A shows the sweep data after this signal processing.
  • the signal processing unit 14 outputs the sweep data after the signal processing to the feature point extraction unit 15.
  • the feature point extraction unit 15 extracts feature points based on one or a plurality of sweep data. Specifically, a feature point is extracted based on a change in the amplitude of the received signal in the distance direction as viewed from the radar antenna 11, and a feature point is determined based on the change in the amplitude of the received signal in the azimuth direction as viewed from the radar antenna 11. There are a method for extracting, and a method combining both of them.
  • the change in amplitude can be acquired from, for example, one sweep data as shown in FIGS. 2 (a) and 2 (b).
  • the feature point extraction unit 15 can extract various points as feature points from this one sweep data.
  • the peak point of the amplitude change of the received signal in the distance direction is used as a feature point (see FIG. 3B).
  • the peak point of the amplitude of the received signal for example, the rising point or (and) the falling point of the amplitude can be used as the feature point.
  • an intermediate point between the rising point and the falling point that is, the center position of the target
  • the above feature points can be obtained by using a change amount (differential value) of the sweep data (or continuous reception signal) or the like. For example, when the amount of change in the sweep data suddenly increases from zero or in the vicinity thereof, the possibility of a rising point is high. Further, when the change amount of the sweep data is changed from a relatively large value to zero or in the vicinity thereof, the point is likely to be a peak point. In addition, when the amount of change in the sweep data changes from a negative value to zero or in the vicinity thereof, the possibility of a falling point is high. In addition to these values, the position of the peak point or the like can be calculated more accurately by performing the calculation using the point (inflection point) at which the twice differential value of the sweep data is zero. Further, this inflection point may be used as a feature point.
  • the feature point extraction unit 15 performs a process of dividing the amplitude of the received signal into four amplitude classes (class 0 to class 3) (see FIG. 3B).
  • class 0 to class 3 For example, the amplitude class of the target located at the distance r 1 is 2.
  • the number of amplitude class stages and the amplitude range corresponding to each amplitude class can be changed as appropriate.
  • the feature point extraction unit 15 is configured not to determine that the value of the amplitude is equal to or less than a predetermined value (a value of the amplitude class is 0) as a feature point (that is, not to transmit to the sensor video display device 20). Thereby, it can prevent extracting the peak of a noise part as a feature point.
  • This change in amplitude can be acquired from a plurality of sweep data, as shown in FIGS. 5 (a) and 5 (b).
  • the sensor information output device 10 extracts and arranges the received signals at a predetermined distance (r 6 in FIG. 5) from a plurality of continuous sweep data, thereby arranging the graph shown in FIG. Create
  • the sensor information output apparatus 10 approximates the discrete data shown in FIG. Thereby, the graph shown to Fig.6 (a) is obtained. Thereafter, the sensor information output device 10 (feature point extraction unit 15) performs processing for detecting a peak point, a rising point, a falling point, and the like using the differential value of this function, etc., as described above. To extract. Since this embodiment is configured to detect a peak point, as shown in FIG. 6B, a point having an orientation of ⁇ 3 is extracted as a feature point.
  • a plurality of points obtained from a plurality of sweep data are approximated by a function, but feature points can also be extracted (selected) without using a function.
  • feature points can also be extracted (selected) without using a function. For example, when the amplitude increases in accordance with the change in direction and then decreases, the peak point can be obtained by selecting a point near the increase / decrease boundary.
  • the additional information calculation unit 16 calculates additional information on the target indicating the feature points extracted by the feature point extraction unit 15.
  • the speed of the target is obtained based on the phase change of the pulsed radio wave, and this speed is used as additional information of the feature point.
  • Other information may be used as additional information.
  • phase information of a pulsed radio wave can be used as additional information.
  • the speed of the target can be obtained and used on the sensor video display device 20 side.
  • information indicating not only the speed of the target but only whether or not the target is moving may be used as additional information (movement information).
  • the target determination information that is the determination result may be used as additional information. Therefore, even if it is a case where noise, such as sea surface reflection, is determined as a feature point, it can prevent that this noise is displayed on the sensor image display apparatus 20 as a target. Note that a feature point determined not to be a target may not be transmitted to the sensor video display device 20.
  • the representative data output unit 17 outputs the representative data of the received signal to the sensor video display device 20.
  • representative data will be described with reference to FIGS. 4 and 7.
  • FIG. 4 shows representative data for outputting the feature points shown in FIG. 3B
  • FIG. 7 shows representative data for outputting the feature points shown in FIG. 6B.
  • the representative data is composed of a portion indicating the azimuth (angle) of the representative data (direction information such as ⁇ and ⁇ + ⁇ in FIG. 4) and a portion indicating the feature point of the azimuth. Is done.
  • the portion indicating the feature point is data including the distance from the radar antenna 11, the amplitude information (amplitude class), the additional information (target speed), and the like regarding the feature point.
  • the representative data output unit 17 transmits the representative data by continuous length compression. That is, the representative data output unit 17 outputs the amplitude class and the number of consecutive amplitude classes when the amplitude class (or speed) is the same at the adjacent feature points. Specifically, the representative data of the distance r 3 in FIG. 4 outputs that the amplitude class and the speed are the same for three consecutive times. Thereby, the amount of data to be transmitted can be reduced.
  • the representative data in FIG. 4 is a configuration that outputs only data related to feature points in the sweep data
  • the amount of data output by the sensor information output device 10 is significantly larger than the conventional configuration that outputs data related to all points. Can be reduced. Further, since the sensor information output device 10 sends only one point extracted as a feature point in one sweep as the data related to the target, the sensor image display device 20 is notified of the accurate position of the target. it can.
  • the target is detected in any orientation of ⁇ 1 to ⁇ 5 , but as shown in FIG. 7, the sensor information output device 10 of this embodiment is a feature point. Send representative data for ⁇ 3 only. Thereby, the sensor information output device 10 can inform the sensor video display device 20 of the correct orientation of the target.
  • the sensor information output device 10 transmits representative data as described above.
  • the sensor information output device 10 is output wirelessly.
  • wireless communication has a smaller data transfer amount per unit time second than wired communication.
  • the amount of data to be output can be greatly reduced as compared with the conventional case, so that wireless communication can be used without any problem.
  • the feature points are extracted based on the change in the amplitude of the received signal in the distance direction or the azimuth direction.
  • the feature points can be extracted based on both the distance direction and the azimuth direction.
  • temporary feature points in the distance direction from the radar antenna 11 are extracted for one sweep data (received signal continuous in the distance direction).
  • the same processing is performed on other continuously obtained sweep data to extract temporary feature points in the distance direction.
  • those having close azimuths received signals continuous in the azimuth direction
  • the temporary feature point located at the center is used as the feature point.
  • one representative data is created for one target, so that the position (distance and azimuth) of the target can be accurately notified to the sensor video display device 20 and the amount of data to be output can be determined. It can be further reduced.
  • the method for extracting the feature points based on both the distance direction and the azimuth direction is arbitrary.
  • the feature points may be selected by comparing the amplitudes of the received signals in the direction (the data comparison direction in FIG. 8).
  • the present invention can also be expressed as extracting feature points based on changes in the amplitude of the received signal in the distance direction, the azimuth direction, and the direction that forms an angle with these directions (collectively referred to as a predetermined direction). .
  • the sensor video display device 20 creates and displays a radar video (sensor video) indicating the position of the target based on the representative data input from the sensor information output device 10. As shown in FIG. 1, the sensor video display device 20 includes a representative data input unit 21, a video creation unit 22, and a display unit 23.
  • the representative data output from the representative data output unit 17 is input to the representative data input unit 21.
  • the representative data input unit 21 outputs the representative data to the video creation unit 22 after restoring the above-described continuous length compression.
  • the video creation unit 22 creates a radar video showing surrounding targets based on the representative data.
  • the display unit 23 is a display such as a liquid crystal or an organic EL, and displays the video created by the video creation unit 22.
  • the radar apparatus 1 creates and displays a radar image. Since the sweep data is acquired sequentially, the radar image is updated accordingly.
  • FIG. 9 is a block diagram illustrating a configuration of the radar apparatus 1 according to a modification.
  • members that are the same as or similar to those in the above embodiment may be denoted by the same reference numerals and description thereof may be omitted.
  • a radar image is created based only on representative data.
  • the sensor image display device 20 creates a radar image based on both the representative data and the sweep data.
  • the radar apparatus 1 includes a main video creation unit 31 and a complementary video creation unit 32.
  • the main video creation unit 31 is a configuration newly added to the above embodiment, and creates a radar video (main video) based on the sweep data.
  • the complementary video creation unit 32 performs a main video complementary process based on the representative data. For example, the complementary video creation unit 32 redraws the corresponding echo of the main video using the feature point data, thereby eliminating the collapse of a plurality of adjacent echoes and redrawing the echo when enlarged. Can do.
  • the sensor information output apparatus 10 includes the receiving unit 12, the feature point extracting unit 15, and the representative data output unit 17.
  • the radar antenna 11 receives a reflected wave of radio waves (or sound waves) as a received signal.
  • the feature point extraction unit 15 extracts feature points from the received signal.
  • the representative data output unit 17 uses at least distance information indicating the distance from the radar antenna 11 and amplitude information of the feature points extracted by the feature point extraction unit 15 as representative data of the sweep data. Output to.
  • the video creation unit 22 can draw the radar video according to the resolution of the display unit 23.
  • the representative data is output wirelessly, but the representative data may be output by wire. Even in this case, the effect of reducing the network traffic is useful.
  • reception signals continuous in the distance direction, the azimuth direction, and the predetermined direction are described. However, it is not always necessary to use all reception signals arranged in each direction. You can use it by skipping).
  • image adjustment such as peak width adjustment is performed before coordinate conversion, but image adjustment may be performed after coordinate conversion.
  • the radar image may represent a target with an icon or the like instead of a configuration for drawing display data.
  • each configuration of the radar device 1 is arbitrary, and if the sensor information output device 10 and the sensor video display device 20 are physically separated (if it is necessary to output a signal), the arrangement of each configuration is changed. it can.
  • the constituent elements of the sensor information output device 10 or the radar antenna 11 are not necessarily arranged in the same casing.
  • Sensor image display device 20 may not be a dedicated product that displays only radar images, but may be a general-purpose product that has other functions.
  • a display device, a PC, a smartphone, or a tablet terminal that displays images from a plurality of sensors may be used.
  • a radar device other than a ship for example, a radar device disposed on an aircraft, a land device, and detects a moving body such as a ship. May be a radar device.
  • any device other than a radar device such as a sonar or a fish finder
  • a radar device such as a sonar or a fish finder
  • the present application can also be applied to.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Ocean & Marine Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

 センサ情報出力装置(10)は、受信部(12)と、特徴点抽出部(15)と、代表データ出力部(17)と、を備える。受信部(12)は、レーダアンテナ(11)が電波の反射波を受信信号として受信する。特徴点抽出部(15)は、受信信号から特徴点を抽出する。代表データ出力部(17)は、特徴点抽出部(15)が抽出した特徴点について、少なくともレーダアンテナ(11)からの少なくとも距離を示す距離情報と、振幅情報と、をスイープデータの代表データとしてセンサ情報出力装置(10)の外部へ出力する。

Description

センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法
 本発明は、主要には、電波又は音波の反射波を受信信号として受信し、この受信信号に基づいて得られたデータを外部の表示装置へ出力するセンサ情報出力装置に関する。
 一般的にレーダ装置は、レーダアンテナ等から構成されるセンサユニットと、レーダ映像作成部等から構成される指示部と、を備える。従来では、センサユニットが取得したスイープデータは、アナログ信号のまま指示部へ出力される。指示部は、センサユニットから出力されたアナログ信号をデジタル信号に変換し、各種の信号処理が行った後に、レーダ映像を作成する。
 ところで、アナログ信号は、伝送距離に応じて信号が劣化する。そのため、近年では、センサユニットでスイープデータをアナログ信号からデジタル信号に変換し、このデジタル信号を指示部へ出力する構成のレーダ装置が知られている。
 しかし、デジタル信号のスイープデータをそのまま指示部へ出力すると、データ量が多いため、ネットワークトラフィックが増大してしまう。最近では船内においてLANによるネットワーク化が進んでおり、その中で各機器が出力するデータのトラフィックの低減が望まれている。特に、LANの無線化も進んでおり、この場合は有線通信と比較して単位時間秒当たりのデータ転送量が少なくなるため、各機器が出力するデータのトラフィックの低減が一層望まれている。
 ここで、特許文献1は、船内のネットワークトラフィックを軽減する技術を開示する。特許文献1は、遠隔地からレーダ映像を確認しつつ、不要信号の除去設定等を行うレーダ制御装置を開示する。このレーダ制御装置では、レーダ映像の所定領域の振幅を、当該領域の平均振幅値に変換することで、データ量を低減する。
 特許文献2は、固定物標面相関器と、移動物標面相関器と、を備える。それぞれの相関器にはスイープデータが入力される。固定物標面相関器では固定物標が強調され、移動物標面相関器では移動物標が強調される。そして、それぞれの相関器の出力毎に表示色を異ならせることで、移動物標と固定物標とを区別することができる。
特開平5-134034号公報 特許2913563号公報
 しかし、特許文献1のように所定範囲の振幅値を一律に平均値にすると、データの品質が劣化してしまう。従って、スイープデータのデータ量を適切に低減できない。
 また、特許文献2では、あくまで固定物標又は移動物標を強調しているだけであり、一部のデータのみを抽出している訳ではないないので、データ量を効果的に低減するものではない。むしろ、特許文献2では、1つのスイープデータに2種の信号処理を行った後に、それぞれの信号を出力しているため、センサユニットから表示部へ出力されるデータ量が増大してしまう。
 また、センサ部でレーダ映像を作成してデータを送信する場合、例えば複数の表示装置でレーダ映像を表示するときは、表示装置の解像度の違いにより、拡大しただけの粗いレーダ映像、アスペクト比の不整合により端部が表示されない又は一部が表示領域外にはみ出たレーダ映像が表示されることとなる。
 なお、上記の課題はレーダ装置に限られず、センサユニットと指示部からなる装置全般に共通する課題である。
 本発明は以上の事情に鑑みてされたものであり、その主要な目的は、指示部(表示装置側)への出力するデータのデータ量を低減しつつ、描画に適したデータを出力可能なセンサ情報出力装置を提供することにある。
課題を解決するための手段及び効果
 本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
 本発明の第1の観点によれば、以下の構成のセンサ情報出力装置が提供される。即ち、このセンサ情報出力装置は、受信部と、特徴点抽出部と、代表データ出力部と、を備える。前記受信部は、センサから送信された電波又は音波の反射波を受信信号として受信する。前記特徴点抽出部は、前記受信信号から特徴点を抽出する。前記代表データ出力部は、前記特徴点抽出部が抽出した前記特徴点の、少なくとも前記センサからの距離を示す距離情報と、振幅情報と、を前記受信信号の代表データとして装置外部へ出力する。
 これにより、出力するデータ量を大幅に低減できるので、ネットワークトラフィックを軽減することができる。また、映像作成後のデータではなく、映像作成前のデータを出力するため、表示装置の解像度に合わせて、表示装置側で映像を描画できる。
 前記のセンサ情報出力装置においては、前記特徴点抽出部は、前記受信信号の振幅に基づいて前記特徴点を抽出することが好ましい。
 これにより、受信信号の物標が存在する位置を特徴点とすることができる。
 前記のセンサ情報出力装置においては、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化に基づいて当該受信信号の前記特徴点を抽出することが好ましい。
 これにより、距離方向に応じた振幅の変化を利用することで、物標までの距離を正確に示す点を特徴点とすることができる。また、方位方向に応じた振幅の変化を利用することで、物標の存在する方位を正確に示す点を特徴点とすることができる。なお、距離方向と方位方向を同時に変化させつつ物標の位置を検出することもできる。
 前記のセンサ情報出力装置においては、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化のピーク点を前記特徴点とすることが好ましい。
 これにより、振幅の変化のピーク点は、物標を示すエコーの中心を示すことが多い。従って、この点をピーク点として出力することで、物標の位置等を正確に示す点を特徴点とすることができる。
 前記のセンサ情報出力装置においては、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変曲点を前記特徴点とすることが好ましい。
 これにより、振幅の変化の特徴を示す部分を特徴点とできるので、物標の位置等を正確に示す点を特徴点とすることができる。
 前記のセンサ情報出力装置においては、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化に基づいて求めた物標の中心位置を前記特徴点とすることが好ましい。
 これにより、物標の中心位置を特徴点とすることで、表示装置側でセンサ映像を表示する際に、物標の位置を正確に表現できる。
 前記のセンサ情報出力装置においては、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化量に基づいて抽出した点を前記特徴点とすることが好ましい。また、具体的には、振幅の立ち上がり点、又は立ち下がり点を前記特徴点としたり、振幅の変化量が所定の基準以上の点を前記特徴点としたりすることが更に好ましい。
 これにより、例えば振幅の立ち上がり(又は立ち下がり)を特徴点とすることで、物標を検知し初めた(又は検知し終わった)箇所を検出できるので、これらの情報を利用することで、表示装置側でより正確な描画を行うことができる。また、振幅の変化量が高い点を考慮することで、例えば振幅の立ち上がり(又は立ち下がり)を的確に検出できる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、振幅が所定の基準以下の点を出力対象としないことが好ましい。
 これにより、物標が検出されていない部分を出力しないので、出力するデータ量を一層低減することができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記特徴点の振幅を当該振幅に基づいて複数の振幅クラスに分類し、当該振幅クラスを前記特徴点の前記振幅情報として出力することが好ましい。
 これにより、振幅をそのまま出力する構成と比較して、出力するデータ量を一層低減することができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記特徴点において、前記振幅クラスが同一である場合、振幅クラスと、当該振幅クラスが連続する個数と、を前記特徴点の前記振幅情報として出力することが好ましい。
 このように連長圧縮を行うことで、出力するデータ量を一層低減することができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記特徴点の位相情報を出力することが好ましい。
 これにより、位相情報が入力される表示装置側で所定の処理を行うことで、物標の速度を算出することができる。従って、物標の速度を考慮した映像を表示装置側で表示することができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記特徴点が物標であるか否かを示す物標判定情報を出力することが好ましい。
 これにより、出力した代表データが物標を示すかノイズ等を示すかを表示装置側に知らせることができる。従って、物標かノイズかを考慮した映像を表示装置側で表示することができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、当該特徴点の物標が移動しているか否かを示す移動情報を出力することが好ましい。
 これにより、表示装置側で映像を作成する際に移動物標と固定物標とを区別して表示することができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記物標の速度を出力することが好ましい。
 これにより、表示装置側で映像を作成する際に速度に応じた態様で移動物標を表示することができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記特徴点の前記距離情報及び前記振幅情報に加え、前記特徴点の方位情報を出力することが好ましい。
 これにより、センサによって様々な方位の物標が検出可能な場合に、物標の方位を表示装置側に知らせることができる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記代表データを無線により出力することが好ましい。
 一般的に無線通信は、有線通信と比較して単位時間秒当たりのデータ転送量が少ない。従って、本願のように出力する通信量を抑えることで、無理なく無線で代表データを出力できる。
 前記のセンサ情報出力装置においては、前記代表データ出力部は、前記代表データに加え、前記特徴点を抽出する前の前記受信信号を装置外部へ出力することが好ましい。
 これにより、入力側において、代表データと通常のデータの両方を利用してセンサ映像を作成できる。
 本発明の第2の観点によれば、以下の構成のセンサ映像表示装置が提供される。即ち、このセンサ映像表示装置は、代表データ入力部と、映像作成部と、表示部と、を備える。前記代表データ入力部は、受信信号の振幅に基づいて特徴点が抽出され、当該特徴点の、少なくとも距離情報及び振幅情報を含む情報が、前記受信信号の代表データとして外部から入力される。前記映像作成部は、前記代表データ入力部に入力された前記代表データに基づいて、周囲の物標を示すセンサ映像を作成する。前記表示部は、前記映像作成部が作成した前記センサ映像を表示する。
 これにより、入力されるデータ量を大幅に低減できるので、ネットワークトラフィックを軽減することができる。また、映像作成後のデータではなく、映像作成前のデータを出力するため、例えば拡大表示を行った場合でも、センサ映像を再描画して映像が荒くなることを防止できる。
 本発明の第3の観点によれば、前記のセンサ情報出力装置と、前記センサ映像表示装置と、を備える探知装置が提供される。
 本発明の第4の観点によれば、上記で説明したセンサ情報出力方法が提供される。
本発明の一実施形態に係るレーダ装置の構成を示すブロック図。 1つのスイープデータ(距離方向に連続する受信信号)を取得する様子を示す図、及び、取得した1つのスイープデータを示すグラフ。 信号処理後のスイープデータを示すグラフ、及び、特徴点抽出後のグラフ。 センサ情報出力装置からセンサ映像表示装置へ出力される代表データを概念的に示す図。 隣接する複数のスイープデータ(方位方向に連続する受信信号)を取得する様子を示す図、及び、所定距離における振幅を並べたグラフ。 所定距離における振幅を並べたグラフについての、信号処理後のグラフ、及び、特徴点抽出後のグラフ。 センサ情報出力装置からセンサ映像表示装置へ出力される代表データを概念的に示す図。 振幅の比較方法の他の例を示す図。 変形例に係るレーダ装置の構成を示すブロック図。
 次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態に係るレーダ装置の構成を示すブロック図である。
 本実施形態のレーダ装置(探知装置)1は、船舶用のレーダ装置として構成されている。このレーダ装置1は、パルス状電波を送信可能であるとともに、自船の周囲にある物標(例えば陸地、海上の他船等)からの反射波を受信するように構成されている。そして、レーダ装置1は、受信した反射波に基づいて物標の位置及び形状を示すレーダ映像を作成して表示することができる。
 以下、レーダ装置1の構成について説明する。図1に示すように、レーダ装置1は、センサ情報出力装置(センサユニット)10と、センサ映像表示装置20と、を備えている。なお、図1にはセンサ映像表示装置20を2つ備える構成が示されているが、センサ映像表示装置20を1つ備える構成であっても良いし、3つ以上であっても良い。
 センサ情報出力装置10は、物標を探知して探知結果を示す信号に各種処理を行った後に、センサ映像表示装置20へ出力する。センサ情報出力装置10は、レーダアンテナ(センサ部)11と、受信部12と、A/D変換部13と、信号処理部14と、特徴点抽出部15と、付加情報算出部16と、代表データ出力部17と、を備えている。
 レーダアンテナ11は、指向性の強いパルス状電波を送信するとともに、各物標からの反射波をそれぞれ受信信号として受信するように構成されている。この構成で、レーダアンテナ11がパルス状電波を送信してから反射波を受信するまでの時間を測定することにより、自船から物標までの距離rを知ることができる。また、レーダアンテナ11は水平面内で360°回転可能に構成され、パルス状電波の送信方向を変えながら(レーダアンテナ11の角度を変化させながら)電波の送受信を繰り返し行うように構成されている。この構成により、自船周囲の平面上の物標を360°にわたり探知することができる。
 なお、このパルスレーダに代えて、CW(continuous wave)レーダやパルスドップラーレーダを用いても良い。また、上記の構成に代えて、レーダアンテナを回転させない構成のレーダ装置を用いても良い。例えば、全周方向にアンテナ素子を有する構成のレーダ装置や、前方等の特定の方向のみを探知するレーダ装置等は、レーダアンテナを回転させる必要がない。
 なお、以下の説明では、レーダアンテナ11がパルス状電波を送受信する動作をスイープと称し、スイープにより得られるデータを「スイープデータ」と称する。従って、スイープデータは、1又は複数の受信信号を含むデータと表現することができる。図2(a)は、船首方位から角度θの方向にパルス状電波を送信したときの様子を示している。図2(b)は、このスイープにより得られるスイープデータ(距離方向に連続する受信信号)を示している。スイープデータは、自機(レーダアンテナ)からの距離と、振幅と、を含むデータである。図2(b)からは、図2(a)で物標が存在する位置の振幅が大きくなっていることが分かる。
 受信部12は、レーダアンテナ11が出力したスイープデータを受信して、A/D変換部13へ出力する。
 A/D変換部13は、受信部12が出力したスイープデータを受信して、スイープデータをアナログ信号からデジタル信号へと変換する。
 信号処理部14は、デジタル信号へ変換されたスイープデータに対して、不要な信号を除去する処理等を行う。例えば、信号処理部14は、スイープデータから海面反射を除去する処理、ノイズフロアを除去する処理、物標を示す信号を強調する処理等を行う。図3(a)は、この信号処理後のスイープデータを示している。信号処理部14は、信号処理後のスイープデータを特徴点抽出部15へ出力する。
 特徴点抽出部15は、1又は複数のスイープデータに基づいて特徴点を抽出する。具体的には、レーダアンテナ11から見て距離方向の受信信号の振幅の変化に基づいて特徴点を抽出する方法、レーダアンテナ11から見て方位方向の受信信号の振幅の変化に基づいて特徴点を抽出する方法、及びその両方を組み合わせた方法等が存在する。
 初めに、距離方向の受信信号の振幅の変化に基づいて特徴点を抽出する方法を説明する。この振幅の変化は、図2(a)及び図2(b)等に示すように、例えば1つのスイープデータから取得することができる。
 特徴点抽出部15は、この1つのスイープデータから様々な点を特徴点として抽出することができる。例えば本実施形態では、距離方向の受信信号の振幅の変化のピーク点を特徴点としている(図3(b)を参照)。受信信号の振幅のピーク点以外にも、例えば振幅の立ち上がり点又は(及び)立ち下がり点を特徴点とすることができる。また、立ち上がり点と立ち下がり点の中間(即ち物標の中心位置)を特徴点とすることもできる。
 上記の特徴点は、スイープデータ(又は連続する受信信号)の変化量(微分値)等を用いて求めることができる。例えばスイープデータの変化量がゼロ又はその近傍から急に増加した場合は立ち上がり点の可能性が高い。また、スイープデータの変化量が比較的大きな値からゼロ又はその近傍になった場合、その点はピーク点の可能性が高い。また、スイープデータの変化量が負の値からゼロ又はその近傍になった場合は立ち下がり点の可能性が高い。また、これらの値に加え、スイープデータの2回微分値がゼロの点(変曲点)を用いて演算を行うことで、ピーク点等の位置をより正確に算出できる。また、この変曲点を特徴点としても良い。
 また、特徴点抽出部15は、受信信号の振幅を4段階の振幅クラス(クラス0からクラス3)に分ける処理を行う(図3(b)を参照)。例えば距離r1に位置する物標の振幅クラスは2である。なお、振幅クラスの段階数や、各振幅クラスに対応する振幅の範囲は適宜変更することができる。
 また、特徴点抽出部15は、振幅が所定以下の値(振幅クラスが0の値)を特徴点とは判断しないように(即ちセンサ映像表示装置20へ送信しないように)構成されている。これにより、ノイズ部分のピークを特徴点として抽出することを防止できる。
 次に、方位方向の受信信号の振幅の変化に基づいて特徴点を抽出する方法について説明する。この振幅の変化は、図5(a)及び図5(b)に示すように、複数のスイープデータから取得することができる。具体的には、センサ情報出力装置10は、連続する複数のスイープデータのうち、所定の距離(図5ではr6)の受信信号を抽出して並べることで、図5(b)に示すグラフを作成する。
 次に、センサ情報出力装置10は、図5(b)に示す離散的なデータを、関数で近似する。これにより、図6(a)に示すグラフが得られる。その後、センサ情報出力装置10(特徴点抽出部15)は、上記と同様に、この関数の微分値等を用いて、ピーク点、立ち上がり点、立ち下がり点等を検出する処理を行って特徴点を抽出する。本実施形態ではピーク点を検出する構成なので、図6(b)に示すように、方位がθ3である点が特徴点として抽出される。
 なお、上記では、複数のスイープデータにより得られた複数の点を関数で近似したが、関数を用いずに特徴点を抽出(選択)することもできる。例えば、方位の変化に応じて振幅が増加し、その後振幅が減少する場合は、増加と減少の境界付近の点を選択することでピーク点を求めることができる。
 付加情報算出部16は、特徴点抽出部15が抽出した特徴点を示す物標の付加情報を算出する。本実施形態では、パルス状電波の位相変化に基づいて物標の速度を求め、この速度を特徴点の付加情報としている。なお、他の情報を付加情報としても良い。
 例えば、パルス状電波の位相情報を付加情報とすることができる。この場合、センサ映像表示装置20側で物標の速度を求めて利用することができる。また、物標の速度ではなく、物標が移動しているか否かだけを示す情報を付加情報(移動情報)としても良い。
 更には、スイープデータの波形及び移動情報等に基づいて物標であるか否かを判定し、その判定結果である物標判定情報を付加情報としても良い。これにより、例えば海面反射等のノイズを特徴点と判定した場合であっても、このノイズが物標としてセンサ映像表示装置20に表示されることを防止できる。なお、物標でないと判定された特徴点はセンサ映像表示装置20へ送信しない構成であっても良い。
 代表データ出力部17は、受信信号の代表データをセンサ映像表示装置20へ出力する。以下、図4及び図7を参照して代表データについて説明する。図4は、図3(b)で示す特徴点を出力する代表データを示し、図7は、図6(b)に示す特徴点を出力する代表データを示す。
 代表データは、図4及び図7に示すように、代表データの方位(角度)を示す部分(図4のθ及びθ+α等、方位情報)と、当該方位の特徴点を示す部分と、で構成される。特徴点を示す部分は、特徴点についての、レーダアンテナ11からの距離と、振幅情報(振幅クラス)と、付加情報(物標の速度)と、等で構成されるデータである。
 ここで、代表データ出力部17は、連長圧縮により代表データを送信する。つまり、代表データ出力部17は、隣接する特徴点において、振幅クラス(又は速度)が同一である場合、振幅クラスと、当該振幅クラスが連続する個数と、を出力する。具体的には、図4の距離r3の代表データでは、振幅クラスと速度が3連続同一である旨を出力する。これにより、送信するデータ量を低減できる。
 図4の代表データは、スイープデータのうち特徴点に関するデータのみを出力する構成なので、全ての点に関するデータを出力する従来の構成と比較して、センサ情報出力装置10が出力するデータ量を大幅に低減できる。更に、センサ情報出力装置10は、物標に関するデータとしては、1つのスイープのうち特徴点として抽出された1点のみを送るので、物標の正確な位置をセンサ映像表示装置20に知らせることができる。
 また、図5に示すように、物標はθ1~θ5の何れの方位にも検出されているが、図7に示すように本実施形態のセンサ情報出力装置10は、特徴点であるθ3についてのみ代表データを送る。これにより、センサ情報出力装置10は、物標の正確な方位をセンサ映像表示装置20に知らせることができる。
 更に、図4及び図7の代表データでは、上述のように特徴点の具体的な振幅クラスを段階的に表示するため、代表データのデータ量を一層低減できる。
 センサ情報出力装置10は、以上のようにして代表データを送信する。なお、本実施形態では、センサ情報出力装置10を無線により出力する。一般的に無線通信は、有線通信と比較して単位時間秒当たりのデータ転送量が少ない。この点、本実施形態では、上述のように、出力するデータ量を従来と比較して大幅に低減できるので、問題なく無線通信を用いることができる。
 また、上記では、距離方向又は方位方向の受信信号の振幅の変化に基づいて特徴点を抽出する処理をそれぞれ説明したが、距離方向及び方位方向の両方に基づいて特徴点を抽出することもできる。例えば、初めに1つのスイープデータ(距離方向に連続する受信信号)について、レーダアンテナ11からの距離方向の仮の特徴点を抽出する。そして、連続して得られた他のスイープデータに対しても同じ処理を行って、距離方向の仮の特徴点をそれぞれ抽出する。その後、これらのスイープデータから得られた仮の特徴点のうち方位が近いもの(方位方向に連続する受信信号)を比較して、例えば中心に位置する仮の特徴点を特徴点とする。これにより、1つの物標について1つの代表データが作成されることになるので、物標の位置(距離及び方位)を正確にセンサ映像表示装置20に知らせることができるとともに、出力するデータ量を一層低減できる。
 また、距離方向及び方位方向の両方に基づいて特徴点を抽出する方法は任意であり、上記で説明した他にも、例えば図8に示すように、距離方向及び方位方向の両方に対して角度をなす方向(図8のデータ比較方向)の受信信号の振幅を比較して特徴点を選択しても良い。
 このように、本発明は、距離方向、方位方向、これらの方向と角度をなす方向(まとめて所定方向と称する)の受信信号の振幅の変化に基づいて特徴点を抽出すると表現することもできる。
 次に、センサ映像表示装置20について説明する。センサ映像表示装置20は、センサ情報出力装置10から入力された代表データに基づいて、物標の位置を示すレーダ映像(センサ映像)を作成して表示する。センサ映像表示装置20は、図1に示すように、代表データ入力部21と、映像作成部22と、表示部23と、を備える。
 代表データ入力部21には、代表データ出力部17が出力した代表データが入力される。代表データ入力部21は、上記の連長圧縮を元に戻した上で、この代表データを映像作成部22へ出力する。映像作成部22は、代表データに基づいて、周囲の物標を示すレーダ映像を作成する。表示部23は、液晶や有機EL等のディスプレイであり、映像作成部22が作成した映像を表示する。
 以上のようにして、レーダ装置1はレーダ映像を作成して表示する。なお、スイープデータは順次取得されるので、それに応じてレーダ映像が更新されていく。
 次に、上記実施形態の変形例について説明する。図9は、変形例に係るレーダ装置1の構成を示すブロック図である。なお、変形例の説明において、上記実施形態と同一又は類似の部材には同一の符号を付し、説明を省略する場合がある。
 上記実施形態では、代表データのみに基づいてレーダ映像が作成される。これに対し、変形例では、センサ映像表示装置20は、代表データとスイープデータの両方に基づいてレーダ映像が作成される。
 具体的には、変形例のレーダ装置1は、メイン映像作成部31と、補完映像作成部32と、を備える。メイン映像作成部31は、上記実施形態に新たに付加された構成であり、スイープデータに基づいてレーダ映像(メイン映像)を作成する。補完映像作成部32は、代表データに基づいて、メイン映像の補完処理を行う。例えば、補完映像作成部32は、特徴点のデータを用いてメイン映像の対応するエコーを描画し直すことで、隣接する複数のエコーの潰れを無くしたり、拡大時にエコーを再描画したりすることができる。
 以上に説明したように、本実施形態のセンサ情報出力装置10は、受信部12と、特徴点抽出部15と、代表データ出力部17と、を備える。受信部12は、レーダアンテナ11が電波(又は音波)の反射波を受信信号として受信する。特徴点抽出部15は、受信信号から特徴点を抽出する。代表データ出力部17は、特徴点抽出部15が抽出した特徴点について、少なくともレーダアンテナ11からの距離を示す距離情報と、振幅情報と、をスイープデータの代表データとしてセンサ情報出力装置10の外部へ出力する。
 これにより、出力するデータ量を大幅に低減できるので、ネットワークトラフィックを軽減することができる。また、映像作成後のデータではなく、映像作成前のデータを出力するため、表示部23の解像度に合わせて、映像作成部22がレーダ映像を描画できる。
 以上に本発明の好適な実施の形態及び変形例を説明したが、上記の構成は例えば以下のように変更することができる。
 上記では、無線により代表データを出力する構成であるが、有線により代表データを出力しても良い。この場合であっても、ネットワークトラフィックを軽減できるという効果は有用である。
 上記では、「距離方向、方位方向、所定方向に連続する受信信号」等と表現したが、必ずしも各方向に並ぶ全ての受信信号を用いる必要はなく、例えば受信信号を選択して(例えば1つ飛ばして)利用しても良い。
 上記では、座標変換前にピーク幅の調整等の映像調整を行ったが、座標変換後に映像調整を行っても良い。
 レーダ映像は、表示用データを描画する構成に代えて、アイコン等で物標を表現しても良い。
 レーダ装置1の各構成の配置は任意であり、センサ情報出力装置10とセンサ映像表示装置20とが物理的に離れていれば(信号を出力する必要があれば)、各構成の配置を変更できる。例えば、センサ情報出力装置10又はレーダアンテナ11の構成要素が必ずしも同一の筐体内に配置される必要はない。
 センサ映像表示装置20は、レーダ映像のみを表示する専用品でなくても良く、他の機能も有する汎用品であっても良い。例えば、複数のセンサの映像を表示する表示装置、PC、スマートフォン、タブレット端末であっても良い。
 上記では、本願の発明を船舶用のレーダ装置に適用した例を説明したが、船舶用以外のレーダ装置、例えば航空機に配置されるレーダ装置、陸上に配置され、船舶等の移動体を検知するためのレーダ装置であっても良い。
 上記では、本願の発明をレーダ装置に適用した例を説明したが、電波又は音波の反射波に基づいてセンサ映像を作成する構成であれば、レーダ装置以外の機器(ソナー又は魚群探知機等)にも本願を適用できる。
 1 レーダ装置(探知装置)
 10 センサ情報出力装置
 11 レーダアンテナ(センサ部)
 12 受信部
 13 A/D変換部
 14 信号処理部
 15 特徴点抽出部
 16 付加情報算出部
 17 代表データ出力部
 20 センサ映像表示装置
 21 代表データ入力部
 22 映像作成部
 23 表示部

Claims (22)

  1.  センサから送信された電波又は音波の反射波を受信信号として受信する受信部と、
     前記受信信号から特徴点を抽出する特徴点抽出部と、
     前記特徴点抽出部が抽出した前記特徴点の、少なくとも前記センサからの距離を示す距離情報と、振幅情報と、を前記受信信号の代表データとして装置外部へ出力する代表データ出力部と、
    を備えることを特徴とするセンサ情報出力装置。
  2.  請求項1に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記受信信号の振幅に基づいて前記特徴点を抽出することを特徴とするセンサ情報出力装置。
  3.  請求項2に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化に基づいて当該受信信号の前記特徴点を抽出することを特徴とするセンサ情報出力装置。
  4.  請求項3に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化のピーク点を前記特徴点とすることを特徴とするセンサ情報出力装置。
  5.  請求項3に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変曲点を前記特徴点とすることを特徴とするセンサ情報出力装置。
  6.  請求項3に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化に基づいて求めた物標の中心位置を前記特徴点とすることを特徴とするセンサ情報出力装置。
  7.  請求項3に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化量に基づいて抽出した点を前記特徴点とすることを特徴とするセンサ情報出力装置。
  8.  請求項7に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の立ち上がり点、又は立ち下がり点を前記特徴点とすることを特徴とするセンサ情報出力装置。
  9.  請求項7に記載のセンサ情報出力装置であって、
     前記特徴点抽出部は、前記特徴点抽出部は、前記センサから見て距離方向又は方位方向の前記受信信号の振幅の変化量が所定の基準以上の点を前記特徴点とすることを特徴とするセンサ情報出力装置。
  10.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記受信信号の振幅が所定の基準以下の点を出力対象としないことを特徴とするセンサ情報出力装置。
  11.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記特徴点の振幅を当該振幅に基づいて複数の振幅クラスに分類し、当該振幅クラスを前記特徴点の前記振幅情報として出力することを特徴とするセンサ情報出力装置。
  12.  請求項11に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記特徴点において、前記振幅クラスが同一である場合、振幅クラスと、当該振幅クラスが連続する個数と、を前記特徴点の前記振幅情報として出力することを特徴とするセンサ情報出力装置。
  13.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記特徴点の位相情報を出力することを特徴とするセンサ情報出力装置。
  14.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記特徴点が物標であるか否かを示す物標判定情報を出力することを特徴とするセンサ情報出力装置。
  15.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、当該特徴点の物標が移動しているか否かを示す移動情報を出力することを特徴とするセンサ情報出力装置。
  16.  請求項15に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記物標の速度を出力することを特徴とするセンサ情報出力装置。
  17.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記特徴点の前記距離情報及び前記振幅情報に加え、前記特徴点の方位情報を出力することを特徴とするセンサ情報出力装置。
  18.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記代表データを無線により出力することを特徴とするセンサ情報出力装置。
  19.  請求項1に記載のセンサ情報出力装置であって、
     前記代表データ出力部は、前記代表データに加え、前記特徴点を抽出する前の前記受信信号を装置外部へ出力することを特徴とするセンサ情報出力装置。
  20.  受信信号の振幅に基づいて特徴点が抽出され、当該特徴点の、少なくとも距離情報及び振幅情報を含む情報が、前記受信信号の代表データとして外部から入力される代表データ入力部と、
     前記代表データ入力部に入力された前記代表データに基づいて、周囲の物標を示すセンサ映像を作成する映像作成部と、
     前記映像作成部が作成した前記センサ映像を表示する表示部と、
    を備えることを特徴とするセンサ映像表示装置。
  21.  センサ情報出力装置と、当該センサ情報出力装置と物理的に離れた位置に配置されたセンサ映像表示装置と、からなる探知装置において、
     前記センサ情報出力装置は、
     センサから送信された電波又は音波の反射波を受信信号として受信する受信部と、
     前記受信信号から特徴点を抽出する特徴点抽出部と、
     前記特徴点抽出部が抽出した前記特徴点の、少なくとも前記センサからの距離を示す距離情報と、振幅情報と、を前記受信信号の代表データとして出力する代表データ出力部と、
    を備え、
     前記センサ映像表示装置は、
     前記代表データ出力部が出力した前記代表データが入力される代表データ入力部と、
     前記代表データ入力部に入力された前記代表データに基づいて、周囲の物標を示すセンサ映像を作成する映像作成部と、
     前記映像作成部が作成した前記センサ映像を表示する表示部と、
    を備えることを特徴とする探知装置。
  22.  センサから送信された電波又は音波の反射波を受信信号として受信する受信工程と、
     前記受信信号から特徴点を抽出する特徴点抽出工程と、
     前記特徴点抽出工程で抽出した前記特徴点の、少なくとも前記センサからの距離を示す距離情報と、振幅情報と、を前記受信信号の代表データとして装置外部へ出力する代表データ出力工程と、
    を含むことを特徴とするセンサ情報出力方法。
PCT/JP2013/003525 2013-06-05 2013-06-05 センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法 WO2014195994A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2013/003525 WO2014195994A1 (ja) 2013-06-05 2013-06-05 センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法
JP2015521179A JP6240671B2 (ja) 2013-06-05 2013-06-05 センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法
US14/896,233 US20160116572A1 (en) 2013-06-05 2013-06-05 Sensor information output apparatus, sensor image display apparatus, detection apparatus, and sensor information output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/003525 WO2014195994A1 (ja) 2013-06-05 2013-06-05 センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法

Publications (1)

Publication Number Publication Date
WO2014195994A1 true WO2014195994A1 (ja) 2014-12-11

Family

ID=52007671

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003525 WO2014195994A1 (ja) 2013-06-05 2013-06-05 センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法

Country Status (3)

Country Link
US (1) US20160116572A1 (ja)
JP (1) JP6240671B2 (ja)
WO (1) WO2014195994A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227564A (ja) * 2016-06-23 2017-12-28 古野電気株式会社 水中探知システム
JP2021135061A (ja) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9912420B1 (en) * 2016-04-05 2018-03-06 National Technology & Engineering Solutions Of Sandia, Llc Robust power detector for wideband signals among many single tone signals
DE102019214164A1 (de) * 2019-09-17 2021-03-18 Robert Bosch Gmbh Radarsensor für Kraftfahrzeuge

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0560861A (ja) * 1991-09-04 1993-03-12 Nec Corp 二次監視レーダーのデコーデツドビデオ伝送方式
JPH05134034A (ja) * 1991-11-13 1993-05-28 Nec Corp レーダ制御装置
JPH07325143A (ja) * 1994-06-01 1995-12-12 Japan Radio Co Ltd レーダビデオ伝送方法
JPH0943339A (ja) * 1995-07-26 1997-02-14 Nec Corp レーダビデオ圧縮装置
JPH11326493A (ja) * 1998-05-13 1999-11-26 Nec Corp レーダービデオ伝送装置、デジタル送信装置及び受信装置
JP2010266292A (ja) * 2009-05-13 2010-11-25 Furuno Electric Co Ltd レーダ装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4998224A (en) * 1984-10-01 1991-03-05 The United States Of America As Represented By The Secretary Of The Navy System for providing improved reverberation limited sonar performance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0560861A (ja) * 1991-09-04 1993-03-12 Nec Corp 二次監視レーダーのデコーデツドビデオ伝送方式
JPH05134034A (ja) * 1991-11-13 1993-05-28 Nec Corp レーダ制御装置
JPH07325143A (ja) * 1994-06-01 1995-12-12 Japan Radio Co Ltd レーダビデオ伝送方法
JPH0943339A (ja) * 1995-07-26 1997-02-14 Nec Corp レーダビデオ圧縮装置
JPH11326493A (ja) * 1998-05-13 1999-11-26 Nec Corp レーダービデオ伝送装置、デジタル送信装置及び受信装置
JP2010266292A (ja) * 2009-05-13 2010-11-25 Furuno Electric Co Ltd レーダ装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017227564A (ja) * 2016-06-23 2017-12-28 古野電気株式会社 水中探知システム
JP2021135061A (ja) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム
JP7461160B2 (ja) 2020-02-21 2024-04-03 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム

Also Published As

Publication number Publication date
JPWO2014195994A1 (ja) 2017-02-23
JP6240671B2 (ja) 2017-11-29
US20160116572A1 (en) 2016-04-28

Similar Documents

Publication Publication Date Title
JP6108886B2 (ja) 移動体表示装置及び移動体表示方法
JP6240671B2 (ja) センサ情報出力装置、センサ映像表示装置、探知装置、及びセンサ情報出力方法
WO2015190232A1 (ja) レーダ装置及び送信信号制御方法
JP2012017995A (ja) 閾値設定方法、物標探知方法、閾値設定装置、物標探知装置、閾値設定プログラム、および物標探知プログラム
JP2018159552A (ja) 信号処理装置及び信号処理方法
JP5697911B2 (ja) 閾値設定方法、物標探知方法、閾値設定プログラム、物標探知プログラム、および物標探知装置
US10365360B2 (en) Radar apparatus
JP6258310B2 (ja) 引き波検出装置、レーダ装置、引き波検出方法、及び引き波検出プログラム
JP2012247320A (ja) 映像表示装置及びレーダ装置
CN108713153B (zh) 雷达装置以及航迹显示方法
JP2016206153A (ja) 信号処理装置、及びレーダ装置
GB2529063A (en) Detecting device, detecting method and program
JP7219640B2 (ja) 水中探知装置及び水中探知方法
GB2540272A (en) Method of detecting school of fish, program and fish finder
JP2011021983A (ja) 気象レーダ装置及びレーダ信号処理方法
JP2016121970A (ja) エコー信号処理装置、レーダ装置、エコー信号処理方法、及びプログラム
US12123935B2 (en) Solid-state radar device, solid-state radar control method, and non-transitory computer readable medium
JP6235557B2 (ja) レーダー装置
JP2015175776A (ja) 探知装置、水中探知装置、探知方法、及び探知プログラム
US9857467B2 (en) Detection device
JP5603355B2 (ja) 超音波計測装置
JP5730080B2 (ja) レーダ信号処理装置、レーダ装置、レーダ信号処理プログラム及びレーダ信号処理方法
JP2001141817A (ja) レーダ装置
JP6138430B2 (ja) 危険物標検出装置
JP6311230B2 (ja) 目標物検出装置、目標物検出方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13886551

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015521179

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14896233

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13886551

Country of ref document: EP

Kind code of ref document: A1