JP7577613B2 - Radar system and radar signal processing method - Google Patents
Radar system and radar signal processing method Download PDFInfo
- Publication number
- JP7577613B2 JP7577613B2 JP2021102513A JP2021102513A JP7577613B2 JP 7577613 B2 JP7577613 B2 JP 7577613B2 JP 2021102513 A JP2021102513 A JP 2021102513A JP 2021102513 A JP2021102513 A JP 2021102513A JP 7577613 B2 JP7577613 B2 JP 7577613B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- processing
- axis
- range
- denoising
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Description
本実施形態は、レーダシステム及びレーダ信号処理方法に関する。 This embodiment relates to a radar system and a radar signal processing method.
従来のレーダシステムでは、クラッタや熱雑音が多い環境下において、小目標を検出する際には、SN比(Signal-to-Noise ratio:信号対雑音電力比)が小さいため、検出不可や誤検出が発生する問題があり、測角誤差も大きくなってしまう。 In conventional radar systems, when detecting small targets in environments with a lot of clutter and thermal noise, the signal-to-noise ratio (SNR) is low, leading to problems such as failure to detect targets or false detections, and large angle measurement errors.
以上述べたように、従来のレーダシステムでは、クラッタや熱雑音が多い環境下において、小目標を検出する際には、SN比(Signal-to-Noise ratio:信号対雑音電力比)が小さいため、検出不可や誤検出が発生する問題があり、測角誤差も大きくなってしまう。 As described above, when detecting small targets in environments with a lot of clutter and thermal noise, conventional radar systems have a low signal-to-noise ratio (SNR), which can result in failure to detect targets or false detections, and large angle measurement errors.
本実施形態の課題は、クラッタや熱雑音環境下においても、誤検出を低減して小目標を検出することができ、さらに測角精度を向上させることのできるレーダシステム及びレーダ信号処理方法を提供することにある。 The objective of this embodiment is to provide a radar system and radar signal processing method that can reduce false positives, detect small targets, and improve angle measurement accuracy, even in clutter and thermal noise environments.
上記の課題を解決するために、本実施形態に係るレーダシステムは、単パルスまたは変調したN(N≧1)パルスを用いて、slow-time軸でコヒーレント積分処理するレーダシステムであって、学習手段と処理手段とを備える。前記学習手段は、予めレンジ-ドップラデータ(RDデータ)を取得し、そのRDデータをレンジ軸とドップラ軸で重複させながら、M通りに分割した不要波データと予め取得した目標データ(教師信号)を組み合わせた学習データを用いて、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)モデルを学習させる。前記処理手段は、その学習モデルを用いて、リアルタイムに入力されるΣビームとAZ(Azimuth)軸(EL(Elevation)軸)のスクイントビームのRDデータをM通りに分割し、分割単位毎にデノイズ処理して合成したRDデータを用いて、ΣビームによりCFAR(Constant False Alarm Rate:定誤警報率)または極大値等による目標検出処理によって目標を検出し、ΣビームとAZ軸(EL軸)のスクイントビームを用いて測角処理を行う。 In order to solve the above problems, the radar system according to this embodiment is a radar system that performs coherent integration processing on the slow-time axis using a single pulse or modulated N (N≧1) pulses, and is equipped with a learning means and a processing means. The learning means acquires range-Doppler data (RD data) in advance, and while overlapping the RD data on the range axis and the Doppler axis, trains a CNN (Convolutional Neural Network) model using learning data that combines unwanted wave data divided into M ways and previously acquired target data (teacher signal). The processing means uses the learning model to divide the RD data of the Σ beam and the squint beam of the AZ (Azimuth) axis (EL (Elevation) axis) input in real time into M ways, and uses the RD data synthesized by denoising for each division unit to detect targets using the Σ beam through target detection processing based on CFAR (Constant False Alarm Rate) or maximum values, etc., and performs angle measurement processing using the Σ beam and the squint beam of the AZ axis (EL axis).
以下、実施形態について、図面を参照して説明する。 The following describes the embodiment with reference to the drawings.
(第1の実施形態)デノイズ処理
図1は第1の実施形態に係るレーダシステムの送信系統の構成を示すブロック図、図2はその受信系統の構成を示すブロック図である。
First Embodiment Denoising Processing FIG. 1 is a block diagram showing the configuration of a transmission system of a radar system according to a first embodiment, and FIG. 2 is a block diagram showing the configuration of the reception system thereof.
図1に示す送信系統では、信号生成器11で送信種信号を生成し、変調器12で送信種信号に伝送情報を変調多重し、周波数変換器13で変調信号を高周波信号に変換し、パルス変調器14で高周波信号をパルス変調して送信パルス列を生成し、送信アンテナ15でN(N≧2)ヒットのパルスを送信する。
In the transmission system shown in FIG. 1, a
次に図2に示す受信系統について説明する。受信系統では、受信アンテナ21でΣビームとAZ軸でスクイントしたΣAZビーム、EL軸でスクイントしたΣELビームの信号を受信し、それぞれの受信信号を周波数変換器22で周波数変換し、AD変換器23でディジタル信号に変換する。次に、FFT/PC(Fast Fourier Transform/Pulse Compression)処理器24で、fast-time軸のFFTを行うと共に、レーダ信号がパルス圧縮信号(レンジ圧縮、非特許文献1参照)の場合、レンジ-周波数軸で参照信号との乗算を行ってレンジ-ドップラデータ(RDデータ)を取得する。
Next, the receiving system shown in Figure 2 will be described. In the receiving system, the
続いて、DBF(Digital Beam Forming)処理器25でΣビーム、ΣAZビーム、ΣELビームの信号を形成し、デノイズ検出器26により、Σビーム、ΣAZビーム、ΣELビームそれぞれの受信信号からRDデータを所定のタイミングで順次抽出し、レンジ軸及びドップラ軸で所定の大きさに分解し、分割単位でデータ合成し、所定のスレショルドを超える極大値を抽出して目標を検出し、観測値出力器27から観測値として出力する。ここで、極値検出の代わりにCFAR(Constant False Alarm Rate:定誤警報率、非特許文献4参照)を用いてもよい。
Next, the DBF (Digital Beam Forming)
一方、デノイズ検出器26の目標検出結果をセル抽出器28に送り、このセル抽出器28で、DBF処理器25で形成されたΣビーム、ΣAZビーム、ΣELビームそれぞれの受信信号と比較して目標を検出したセルを抽出し、デノイズ測角器29でΣビーム、ΣAZビーム、ΣELビームを用いて測角処理を行い、その測角処理結果を観測値出力器27に送り、観測値出力器27で目標検出の観測値を出力する。
Meanwhile, the target detection results from the
上記構成によるレーダシステムにおいて、図3乃至図10を参照してその処理動作を説明する。 The processing operations of the radar system configured as above will be explained with reference to Figures 3 to 10.
ここで、図3は、図2に示す受信系統のデノイズ処理の様子を示す概念図、図4は、図3に示すデノイズ処理を、学習モデルを用いた推論処理によって実行する場合の手順を示すフローチャートである。 Here, FIG. 3 is a conceptual diagram showing the denoising process of the receiving system shown in FIG. 2, and FIG. 4 is a flowchart showing the procedure for performing the denoising process shown in FIG. 3 by inference processing using a learning model.
まず、送信系統では、図1に示すように、信号生成器11で送信種信号が生成され、変調器12で変調処理が施された後、周波数変換器13で高周波信号に変換され、パルス変調器14でパルス変調されて、送信アンテナ15からN(N≧2)ヒットのパルスとなって送信される。
First, in the transmission system, as shown in FIG. 1, a transmission seed signal is generated by a
一方、受信系統では、図2に示すように、受信アンテナ21で受信した信号は、周波数変換器22で周波数変換され、AD変換器23でディジタル信号に変換される。次に、FFТ/PC処理器24でslow-time軸でFFT処理して周波数領域に変換され、パルス圧縮(非特許文献1)信号の場合は、パルス圧縮(レンジ圧縮、非特許文献1)され、レンジ-ドップラデータ(RDデータ)が得られる。
Meanwhile, in the receiving system, as shown in FIG. 2, the signal received by the receiving
このRDデータは、デノイズ検出器26により、所定のタイミングで順次抽出され、レンジ軸及びドップラ軸で所定の大きさに分解される。この様子を図3に示す。図3に示すように、RDデータの検出領域を小分割する場合、小分割した境界付近に目標があるときは検出できない場合がある。このため、小分割単位はレンジ-ドップラ軸で重複させるものとする。
This RD data is extracted sequentially at a specified timing by the
デノイズ検出器26では、上記小分割単位のRDデータ毎に、図4に示す処理を行い、分割単位をデータ合成し、所定のスレショルドを超える極大値を抽出して目標検出する。図4に示すデノイズ検出処理は、まずデータを上記小分割単位で分割し(ステップS11)、学習モデルを用いた推論処理を実行し(ステップS12)、分割単位の処理が終了したか判断し(ステップS13)、終了していなければ次の分割単位の処理に変更して(ステップS14)、ステップS11の処理に戻る。また、ステップS13で分割単位の処理が終了していれば、分割単位で得られたデータを合成し(ステップS15)、その合成データから目標を検出し(ステップS16)、一連の処理を終了する。ステップS16において、目標の検出に、極値検出を用いてもよいし、その代わりにCFAR(非特許文献2参照)を用いてもよい。
In the
ここで、ステップS12の推論処理に用いる学習モデルの学習手法について、図5乃至図7を参照して説明する。図5(a)、(b)は、それぞれ図4の学習モデルに用いる学習データと教師データを示している。図6は、図4の推論処理に用いる学習モデルの学習処理フローを示している。図7(a)、(b)は、図3に示すデノイズ処理について、学習モデル処理前と学習モデル処理後で比較して示している。 Now, the learning method of the learning model used in the inference process of step S12 will be described with reference to Figs. 5 to 7. Figs. 5(a) and (b) respectively show the learning data and teacher data used in the learning model of Fig. 4. Fig. 6 shows the learning process flow of the learning model used in the inference process of Fig. 4. Figs. 7(a) and (b) show the denoising process shown in Fig. 3, comparing before and after the learning model process.
学習データは、図5(a)に示すように、RDデータを小分割したデータに、目標信号を重畳させて作成する。目標信号としては、予め実測値または計算値を準備しておき、レンジ-ドップラ軸のセル位置、振幅、目標信号の幅等をランダムに設定し、各小分割単位に重畳する。これにより、実測値のクラッタや熱雑音の不要信号Nに目標信号Sを重畳した学習データS+Nを生成できる。教師データとしては、図5(b)に示すように、学習データで用いた目標Sのみを小分割単位毎に設定して生成する。この学習データと教師データと学習モデルを用いて、CNN(畳み込みニューラルネットワーク、非特許文献4)等で構成する学習モデルにより学習する。 As shown in FIG. 5(a), the learning data is created by superimposing a target signal on data obtained by dividing the RD data into small parts. As the target signal, actual measurements or calculated values are prepared in advance, and the cell position on the range-Doppler axis, amplitude, width of the target signal, etc. are set randomly and superimposed on each small division unit. This makes it possible to generate learning data S+N in which the target signal S is superimposed on unnecessary signals N such as clutter and thermal noise of actual measurements. As shown in FIG. 5(b), the teacher data is generated by setting only the target S used in the learning data for each small division unit. Using this learning data, teacher data, and a learning model, learning is performed using a learning model consisting of a CNN (convolutional neural network, non-patent document 4) or the like.
具体的には、図6に示すように、実測値のクラッタや熱雑音の不要信号Nに目標信号Sを重畳した学習データS+Nを生成し(ステップS21)、学習モデルを設定し(ステップS22)、学習データS+Nと目標信号Sのみの教師データSを用いて学習処理して(ステップS23)、所定のエポック数が終了したか判断し(ステップS24)、終了していなければ、学習データを変更してステップS21に戻り、エポック数が終了した場合には、終了した時点の学習モデルの学習パラメータを保存して一連の処理を終了する。以上の処理をデノイズ処理(非特許文献5)と呼ぶ。 Specifically, as shown in FIG. 6, learning data S+N is generated by superimposing a target signal S on unnecessary signals N of actual measured values of clutter and thermal noise (step S21), a learning model is set (step S22), learning processing is performed using the learning data S+N and teacher data S consisting only of the target signal S (step S23), and it is determined whether a predetermined number of epochs has been completed (step S24). If not, the learning data is changed and the process returns to step S21. If the number of epochs has been completed, the learning parameters of the learning model at the time of completion are saved and the series of processes ends. The above process is called denoising processing (Non-Patent Document 5).
上記の学習処理は、通常、オフラインで行うが、リアルタイム処理時には、学習結果のモデルを用いて推論処理を行う。学習した結果、図7(a)に示す学習モデル処理前の状況と、図7(b)に示す学習モデル処理後の状況とを比較して明らかなように、誤検出を抑圧して、目標を抽出することができる。 The above learning process is usually performed offline, but in real-time processing, inference processing is performed using the model of the learning results. As a result of learning, it is possible to suppress false positives and extract the target, as is clear from comparing the situation before the learning model processing shown in Figure 7(a) with the situation after the learning model processing shown in Figure 7(b).
以上は、受信アンテナ21によるΣビーム(和ビーム)の処理である。次に、図8乃至図10を参照して説明する。
The above is the processing of the Σ beam (sum beam) by the receiving
ここで、図8(a),(b)は、ΣビームとΔビームにより誤差電圧εを算出し、予め取得した誤差電圧テーブルを用いて測角する手法を示し、図9(a),(b)は、ΣビームとΣ2ビームのスクイント測角により誤差電圧εを算出し、予め取得した誤差電圧テーブルを用いて測角する手法を示し、図10(a),(b),(c)は、Σビーム、ΣAZビーム、ΣELビームの各々について、デノイズ処理を行う例を示している。 Here, Figures 8(a) and (b) show a method of calculating error voltage ε using the Σ beam and Δ beam and measuring the angle using a previously acquired error voltage table, Figures 9(a) and (b) show a method of calculating error voltage ε using squint angle measurement of the Σ beam and Σ2 beam and measuring the angle using a previously acquired error voltage table, and Figures 10(a), (b), and (c) show examples of denoising processing for each of the Σ beam, ΣAZ beam, and ΣEL beam.
まず、測角のためには、通常は、アンテナ開口をAZ軸(EL軸)で開口2分割して形成したΔビーム(差ビーム)を用いた位相モノパルス測角を用いる(非特許文献3参照)。これは、図8(a),(b)に示すように、ΣビームとΔビームにより、次式で示す誤差電圧εを算出し、予め取得した誤差電圧テーブルを用いて、測角する手法である。 First, to measure the angle, phase monopulse angle measurement is usually used, using a Δ beam (difference beam) formed by dividing the antenna aperture into two on the AZ axis (EL axis) (see Non-Patent Document 3). As shown in Figures 8(a) and (b), this is a method of measuring the angle by calculating the error voltage ε shown in the following formula using the Σ beam and Δ beam, and using a previously acquired error voltage table.
デノイズ処理を行うと、位相成分が失われるため、この位相モノパルス処理を適用できない。対策として、Σビームに対して、AZ軸(EL軸)においてビーム幅内で角度をずらせたスクイントビームΣAZ(ΣEL)による振幅成分のみを用いたスクイント測角を適用する。これを図9に示す。 When denoising is performed, the phase component is lost, so this phase monopulse processing cannot be applied. As a countermeasure, a squint angle measurement is applied that uses only the amplitude component of a squint beam ΣAZ (ΣEL) that has an angle shifted within the beam width on the AZ axis (EL axis) for the Σ beam. This is shown in Figure 9.
この処理を行うためには、図10(a),(b),(c)に示すように、Σビーム、ΣAZビーム、ΣELビームの各々について、デノイズ処理を行う。デノイズ処理後のΣビームの出力により目標の検出処理を行って、Σビーム、ΣAZビーム、ΣELビームより目標検出セルを抽出して、(2)式を用いて測角処理を行う。この手法により、デノイズ処理により不要信号を抑圧した信号で測角ができ、角度精度を向上することができる。 To perform this processing, denoising is performed on each of the Σ beam, ΣAZ beam, and ΣEL beam, as shown in Figures 10(a), (b), and (c). Target detection processing is performed using the output of the Σ beam after denoising processing, target detection cells are extracted from the Σ beam, ΣAZ beam, and ΣEL beam, and angle measurement processing is performed using equation (2). With this method, angles can be measured using signals in which unnecessary signals have been suppressed by denoising processing, improving angle accuracy.
以上のように、本実施形態に係るレーダシステムは、単パルスまたは変調したN(N≧1)パルスを用いて、slow-time軸でコヒーレント積分処理するレーダシステムであって、予めレンジ-ドップラデータ(RDデータ)を取得し、そのRDデータをレンジ軸とドップラ軸で重複させながら、M通りに分割した不要波データと予め取得した目標データ(教師信号)を組み合わせた学習データを用いて、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)モデルを学習させ、その学習モデルを用いて、リアルタイムに入力されるΣビームとAZ軸(EL軸)のスクイントビームのRDデータをM通りに分割し、分割単位毎にデノイズ処理して合成したRDデータを用いて、ΣビームによりCFAR(Constant False Alarm Rate:定誤警報率)または極大値等による目標検出処理によって目標を検出し、ΣビームとAZ軸(EL軸)のスクイントビームを用いて測角処理を行う。 As described above, the radar system according to this embodiment is a radar system that performs coherent integration processing on the slow-time axis using a single pulse or modulated N (N≧1) pulses, acquires range-Doppler data (RD data) in advance, and while overlapping the RD data on the range axis and Doppler axis, uses learning data that combines unwanted wave data divided into M ways and previously acquired target data (teacher signal) to train a CNN (Convolutional Neural Network) model. Using this learning model, RD data of the Σ beam and squint beam of the AZ axis (EL axis) that is input in real time is divided into M ways, and using the RD data that is denoised and combined for each division unit, the Σ beam is used to detect targets by target detection processing using CFAR (Constant False Alarm Rate) or maximum values, etc., and angle measurement processing is performed using the Σ beam and the squint beam of the AZ axis (EL axis).
すなわち、本実施形態によれば、デノイズ処理により、クラッタや熱雑音の影響を抑圧することができ、これによって小目標を検出して、測角精度を向上させることができる。 In other words, according to this embodiment, the effects of clutter and thermal noise can be suppressed by denoising processing, which makes it possible to detect small targets and improve angle measurement accuracy.
(第2の実施形態)事前処理
第1の実施形態では、デノイズ処理として、学習モデル処理により不要波を抑圧して測角する手法について述べた。本実施形態では、その測角精度を向上する手法について、図11乃至図13を参照して説明する。図11及び図12において、それぞれ図2及び図3と同一部分には同一符号を付して示し、ここでは異なる部分について説明する。
Second embodiment: Pre-processing In the first embodiment, a method for measuring an angle by suppressing unnecessary waves using a learning model process as denoising processing has been described. In this embodiment, a method for improving the angle measurement accuracy will be described with reference to Figs. 11 to 13. In Figs. 11 and 12, the same parts as those in Figs. 2 and 3 are denoted by the same reference numerals, and only the different parts will be described here.
図11は第2の実施形態に係る受信系統の構成を示すブロック図、図12は図11に示すデノイズ処理の流れを示すフローチャート、図13は図12に示すデノイズ処理を具体的に示す概念図である。 Figure 11 is a block diagram showing the configuration of a receiving system according to the second embodiment, Figure 12 is a flowchart showing the flow of the denoising process shown in Figure 11, and Figure 13 is a conceptual diagram specifically showing the denoising process shown in Figure 12.
第2の実施形態において、第1の実施形態と異なる点は、デノイズ検出処理器26の前に事前処理器2Aを配置し、デノイズ処理における推論処理(ステップS12)の前段で事前処理(ステップS17)を実行するようにした点にある。
The second embodiment differs from the first embodiment in that a
上記事前処理を図13に示す。まず、RDデータの目標が存在する可能性の低い遠距離、高ドップラ付近のデータを用いてノイズのrms(root mean square)値を算出し、所定の係数を乗算した信号最小値を算出する。次に、ΣビームとΣAZ(ΣEL)ビームのレンジ-ドップラデータを分割する。次にΣビ-ムの分割単位毎に、最大振幅が信号最小値を超える場合に、最大振幅値により規格化する。信号最小値を設定する理由は、ノイズのみの場合に、規格化によって信号振幅が大きくなることを防ぐためである。また、規格化を行う理由は、信号振幅の大小により、デノイズの不要波抑圧効果がばらつくのを抑えるためである。 The above pre-processing is shown in Figure 13. First, the rms (root mean square) value of the noise is calculated using data from the RD data at long distances and near high Doppler, where there is a low possibility of a target being present, and the minimum signal value is calculated by multiplying it by a specified coefficient. Next, the range-Doppler data of the Σ beam and the ΣAZ (ΣEL) beam is divided. Next, for each division unit of the Σ beam, if the maximum amplitude exceeds the minimum signal value, it is normalized by the maximum amplitude value. The minimum signal value is set to prevent the signal amplitude from becoming large due to normalization when there is only noise. In addition, normalization is performed to prevent variation in the unwanted wave suppression effect of the denoise due to the magnitude of the signal amplitude.
この規格化係数を用いて、ΣAZ(ΣEL)を規格化する。これにより、規格化を行っても、ΣビームとΣAZ(ΣEL)ビームの振幅比が保存されるため、(3),(4)式によるスクイント測角を実施することができる。 This normalization coefficient is used to normalize ΣAZ (ΣEL). As a result, even after normalization, the amplitude ratio between the Σ beam and the ΣAZ (ΣEL) beam is preserved, making it possible to perform squint angle measurement using equations (3) and (4).
以上のように、本実施形態によれば、分割したデータ毎に、Σビームの最大振幅により規格化係数を算出し、Σビームとスクイントビームに同じ規格化係数を適用して、デノイズ処理を行う。すなわち、分割したデータ毎にΣビームの最大値で規格化することにより、信号振幅の大小による抑圧効果のばらつきを抑えるとともに、Σビームの規格化係数をスクイントビームに適用することで、Σビームとスクイントビームの差を保持し、これによって高精度なスクイント測角を可能にすることができる。 As described above, according to this embodiment, a normalization coefficient is calculated for each divided data by the maximum amplitude of the Σ beam, and the same normalization coefficient is applied to the Σ beam and the squint beam to perform denoising. In other words, normalizing each divided data by the maximum value of the Σ beam suppresses variation in the suppression effect due to the magnitude of the signal amplitude, and applying the normalization coefficient of the Σ beam to the squint beam preserves the difference between the Σ beam and the squint beam, thereby enabling highly accurate squint angle measurement.
(第3の実施形態)ショートカット
第1の実施形態では、学習モデルとして、CNN等を用いた一般的な構成について述べた。本実施形態では、不要波抑圧効果の高いショートカットを使うデノイズ方式(非特許5)について、図14乃至図16を参照して説明する。図14は、第3の実施形態に係るレーダシステムの受信系統の構成を示すブロック図、図15は、第3の実施形態のデノイズ処理として、2種の学習モデルを含む場合の流れを示すフローチャート、図16は、第3の実施形態のデノイズ処理として、1種の学習モデルを含む場合の流れを示すフローチャートである。図14乃至図16において、それぞれ図2、図6、図11と同一部分には同一符号を付して示し、ここでは異なる部分について説明する。
(Third embodiment) Shortcut In the first embodiment, a general configuration using a CNN or the like as a learning model was described. In this embodiment, a denoising method (Non-patent 5) using a shortcut with a high effect of suppressing unnecessary waves will be described with reference to Figs. 14 to 16. Fig. 14 is a block diagram showing the configuration of a receiving system of a radar system according to a third embodiment, Fig. 15 is a flowchart showing a flow of a denoising process in the third embodiment in which two types of learning models are included, and Fig. 16 is a flowchart showing a flow of a denoising process in the third embodiment in which one type of learning model is included. In Figs. 14 to 16, the same parts as those in Figs. 2, 6, and 11 are denoted by the same reference numerals, and different parts will be described here.
第3の実施形態において、デノイズ検出器2Bの学習モデルが、図15または図16に示すように、第1及び第2の実施形態のデノイズ検出器26の学習モデルと異なる。図15に、CNNの学習モデル処理(ステップS221)、差分出力処理(ステップS222)、ステップS221のショートカットを含む学習モデルA(デノイズモデル)(ステップS22A)とショートカットを含まないCNNの学習モデル処理(ステップS223)による学習モデルB(ステップS22B)を縦続接続した処理フローを示す。図15では、モデルAの後モデルBの順としているが、逆順でもよい。また、モデルAとモデルBの少なくともいずれか一方を含むものとする。
In the third embodiment, the learning model of the
ショートカットの働きについて、モデルAのみを抽出した図16で説明する。ショートカットは、CNNモデルの入力からCNN出力に向けたラインであり、CNN出力とCNN入力の差分を演算するために用いる。これにより、学習データとして、不要信号N+目標信号Sを入力し、差分出力が教師データになるように学習すると、CNNモデルの部分で、不要信号を模擬するような処理になり、入力データのS+Nから、模擬したNを減算することで、Sを抽出する処理になる。これにより、不要信号を抑圧でき、目標信号を検出しやすくすることができる。 The function of the shortcut is explained using Figure 16, which shows only model A. The shortcut is a line from the input of the CNN model to the CNN output, and is used to calculate the difference between the CNN output and the CNN input. As a result, when an unwanted signal N + target signal S is input as learning data and learning is performed so that the difference output becomes teacher data, the CNN model performs processing to simulate the unwanted signal, and S is extracted by subtracting the simulated N from the input data S + N. This makes it possible to suppress the unwanted signal and make it easier to detect the target signal.
さらに、ショートカットを含まないモデルBを縦続接続することで、教師である目標信号のみを抽出する学習を実施することができる。この場合、処理規模は増えるが、より目標のみを抽出しやすくすることができる。 Furthermore, by cascading model B, which does not include shortcuts, it is possible to carry out learning that extracts only the target signal, which is the teacher. In this case, the processing scale increases, but it becomes easier to extract only the target.
以上のように、本実施形態によれば、CNNモデルとして、ショートカットを含む学習モデルとショートカットを含まない学習モデルの少なくともいずれか一方を用いる。すなわち、ショートカットを用いたCNNモデルと、ショートカットを含まないモデルを縦続接続する場合は、処理コストが最大であるが抑圧性能は高く、いずれか一方の場合は、抑圧性能が劣るが、処理コストが低くなり、運用に応じて最適な選定をすることができる。 As described above, according to this embodiment, at least one of a learning model including shortcuts and a learning model not including shortcuts is used as the CNN model. In other words, when a CNN model using shortcuts and a model not including shortcuts are cascaded, the processing cost is the highest but the suppression performance is high, whereas when only one of them is used, the suppression performance is poor but the processing cost is low, allowing the optimal selection to be made according to the operation.
(第4の実施形態)サブアレイDBF
第1の実施形態では、Σビーム、ΣAZビーム、ΣELビームを形成して、スクイント測角する手法について述べた。本実施形態では、サブアレイ型DBFを用いることで、位相モノパルスビームとスクイントビームの両者を同一のハードウェアで構成して、統合処理をする手法について、図17乃至図20を参照して説明する。
(Fourth embodiment) Sub-array DBF
In the first embodiment, a method for forming a Σ beam, a Σ AZ beam, and a Σ EL beam to perform squint angle measurement has been described. In this embodiment, a method for performing integrated processing by configuring both a phase monopulse beam and a squint beam with the same hardware using a subarray type DBF will be described with reference to Figs. 17 to 20.
図17は、第4の実施形態に係るレーダシステムの受信系統の構成を示し、図18は、第4の実施形態において、アンテナ開口をサブアレイに分割した例を示し、図19は、第4の実施形態に適用されるサブアレイ型DBFの構成例を示し、図20は、第4の実施形態において、サブアレイの受信信号のビーム走査のための位相を説明するための座標系を示している。 Figure 17 shows the configuration of the receiving system of the radar system according to the fourth embodiment, Figure 18 shows an example in which the antenna aperture is divided into subarrays in the fourth embodiment, Figure 19 shows an example of the configuration of a subarray-type DBF applied to the fourth embodiment, and Figure 20 shows a coordinate system for explaining the phase for beam scanning of the received signals of the subarray in the fourth embodiment.
図17に示す受信系統では、アンテナ開口を図18(a)または図18(b)に示すようにサブアレイに分割し、サブアレイ内はアナログ合成とし、サブアレイ間はDBFにより合成する。図17に示す受信系統では、サブアレイ311~31nで、それぞれΣビームとAZ軸でスクイントしたΣAZビーム、ΣビームとEL軸でスクイントしたΣELビームの信号を受信し、それぞれの受信信号を周波数変換器321~32nで周波数変換し、AD変換器331~33nでディジタル信号に変換する。
In the receiving system shown in Figure 17, the antenna aperture is divided into subarrays as shown in Figure 18(a) or 18(b), analog synthesis is performed within the subarray, and synthesis is performed by DBF between the subarrays. In the receiving system shown in Figure 17,
続いて、サブアレイごとの受信出力を、それぞれFFT/PC(Fast Fourier Transform/Pulse Compression)341~34nでFFT演算して周波数領域に変換した後、DBF35でΣビーム、ΣAZビーム、ΣELビームの受信信号について指定方向にDBF演算し、CFAR検出器36及びデノイズ検出器37でそれぞれ目標検出を行い、統合処理器38で各ビームの目標検出結果を統合し、観測値出力器39から目標の観測値を出力する。
Then, the received output for each subarray is converted to the frequency domain by FFT/PC (Fast Fourier Transform/Pulse Compression) 341 to 34n through FFT calculation, and then
一方、統合処理器38の出力をセル抽出器401~40nに順次入力し、セル抽出器401~40nで、FFT/PC341~34nからのサブアレイごとの周波数信号と統合処理器38からの処理信号とを照らし合わせて目標検出セルを抽出し、それぞれDBFモノパルスビーム形成器41、AZ/EL位相モノパルスビーム形成器42で目標の振幅・位相情報を取得する。また、セル抽出器40nの出力について、さらにセル抽出器40n+1に入力して目標が存在する全セルを抽出し、その抽出結果をDBF35に送ってDBF形成の方向を指定するとともに、デノイズ測角器43でΣビーム、ΣAZビーム、ΣELビームそれぞれのデノイズ測角を行い、AZ/EL位相モノパルスビーム形成器42からの目標の振幅・位相情報とともに、統合処理器44に送る。統合処理器44は、検出目標それぞれの振幅、位相、測角値を統合し、目標情報として観測値出力器39に送り、統合処理器38からの目標検出結果と共に観測値出力器39から出力される。
Meanwhile, the output of the
ここで、上記サブアレイ311~31nそれぞれの内部系統は、図19に示すように、アンテナ素子511~514の受信信号を低雑音増幅器521~524で低雑音増幅し、移相器531~534によりビーム走査のための位相制御を受信ビーム制御器55により設定した後、合成器54により合成して、サブアレイ出力を得る。
As shown in FIG. 19, the internal systems of each of the
図10(a)は開口をAZ4×EL4に分割した場合、図10(b)は開口をAZ2×EL2に分割した場合であり、偶数分割であれば、他の分割手法でもよいのは言うまでもない。各サブアレイ311~31n内の位相は、所定のAZ角度方向、EL角度方向にそれぞれビームを形成するように設定する。これにより、開口2分割による和ビームΣと差ビームΔAZ(ΔEL)を形成することができ、(1)式と(2)式を用いて位相モノパルス測角ができる。
Figure 10(a) shows the case where the aperture is divided into AZ4 x EL4, and Figure 10(b) shows the case where the aperture is divided into AZ2 x EL2, but it goes without saying that other division methods are also possible as long as the division is an even number. The phase within each
一方、サブイアレイ内の各アンテナ素子の位相はそのままで、サブアレイ間のDBFにより、スクイントビームΣAZ(ΣEL)を形成できる。 On the other hand, the phase of each antenna element in the subarray remains the same, and a squint beam ΣAZ (ΣEL) can be formed by DBF between the subarrays.
これを定式化する。サブアレイの信号のビーム走査のための位相は、図20の座標系を参照して、Σビーム、ΣAZビーム、ΣELビームにおいて、次式で与えられる。 To formulate this, the phase for beam scanning of the subarray signal is given by the following equation for the Σ beam, Σ AZ beam, and Σ EL beam, with reference to the coordinate system in Figure 20.
これらの位相設定によるビームを用いて、第1乃至第3の実施形態のデノイズ処理により、高精度なスクイント測角を実現することができる。 By using beams with these phase settings, highly accurate squint angle measurement can be achieved through the denoising processing of the first to third embodiments.
以上の処理により、まず検出については、統合処理(38)において、デノイズ処理前のΣビームとデノイズ処理後のΣビームのうち、SNが高い方の結果を選定し、目標のレンジ・ドップラセルを抽出することができる。測角については、統合処理(44)において、デノイズ処理前の方が、SNが高い場合には、位相モノパルスを用い、逆の場合は、デノイズ処理後のスクイント測角値を用いて、観測値を出力する。これにより、デノイズ処理による検出結果または測角結果のばらつきを抑えることができる。 With the above processing, first, for detection, in the integration process (38), the result with the higher SNR is selected from the Σ beam before denoising processing and the Σ beam after denoising processing, and the target range-Doppler cell can be extracted. For angle measurement, in the integration process (44), if the SNR is higher before denoising processing, the phase monopulse is used, and in the opposite case, the squint angle measurement value after denoising processing is used to output the observation value. This makes it possible to reduce the variation in the detection results or angle measurement results due to denoising processing.
以上のように、本実施形態によれば、スクイントビームをサブアレイ型DBFで形成し、デノイズ前の処理とデノイズ後の処理の結果について、目標毎にSNを比較して、大きい方のレンジ・ドップラセルを用いて、デノイズ前の処理では位相モノパルス(スクイント測角)、デノイズ後の処理ではスクイント測角により、測角処理を行う。すなわち、サブアレイ型DBFを用いることで、位相モノパルスビームとスクイントビームの両者を同一のハードウェアで構成し、デノイズ前の処理とデノイズ後の処理の検出または測角の統合処理をすることで、デノイズ処理による検出結果または測角結果のばらつきを抑えることができる。 As described above, according to this embodiment, a squint beam is formed using a sub-array DBF, the SNR of the results of pre-denoising and post-denoising processing is compared for each target, and the larger range-Doppler cell is used to perform angle measurement processing using phase monopulse (squint angle measurement) in pre-denoising processing and squint angle measurement in post-denoising processing. In other words, by using a sub-array DBF, both the phase monopulse beam and the squint beam can be configured using the same hardware, and the detection or angle measurement processing of the pre-denoising and post-denoising processing can be integrated, thereby reducing the variation in the detection or angle measurement results due to the denoising processing.
なお、以上の処理は、デノイズ処理として述べたが、超分解能処理(SRCNN:Super-Resolution Convolution Neural Network、非特許文献6参照)等、他の処理を適用してもよいのは言うまでもない。 Note that the above processing has been described as denoising processing, but it goes without saying that other processing such as super-resolution processing (SRCNN: Super-Resolution Convolution Neural Network, see Non-Patent Document 6) may also be applied.
その他、本発明は上記実施形態をそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 In addition, the present invention is not limited to the above-described embodiment as it is, and in the implementation stage, the components can be modified and embodied without departing from the gist of the invention. Furthermore, various inventions can be formed by appropriately combining multiple components disclosed in the above-described embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, components from different embodiments may be appropriately combined.
11…信号生成器、12…変調器、13…周波数変換器、14…パルス変調器、15…送信アンテナ、
21…受信アンテナ、22…周波数変換器、23…AD変換器、24…FFT/PC(Fast Fourier Transform/Pulse Compression)処理器、25…DBF(Digital Beam Forming)処理器、26…デノイズ検出器、27…観測値出力器、28…セル抽出器、29…デノイズ測角器、2A…事前処理器、2B…デノイズ検出器、
311~31n…サブアレイ、321~32n…周波数変換器、331~33n…AD変換器、341~34n…FFT/PC、35…DBF、36…CFAR検出器、37…デノイズ検出器、38…統合処理器、39…観測値出力器、401~40n,40n+1…セル抽出器、41…DBFモノパルスビーム形成器、42…AZ/EL位相モノパルスビーム形成器、43…デノイズ測角器、44…統合処理器。
11: signal generator, 12: modulator, 13: frequency converter, 14: pulse modulator, 15: transmitting antenna,
21...receiving antenna, 22...frequency converter, 23...AD converter, 24...FFT/PC (Fast Fourier Transform/Pulse Compression) processor, 25...DBF (Digital Beam Forming) processor, 26...denoising detector, 27...observation value output unit, 28...cell extractor, 29...denoising angle measuring unit, 2A...pre-processor, 2B...denoising detector,
311 to 31n...subarray, 321 to 32n...frequency converter, 331 to 33n...AD converter, 341 to 34n...FFT/PC, 35...DBF, 36...CFAR detector, 37...denoise detector, 38...integration processor, 39...observation value output unit, 401 to 40n, 40n+1...cell extractor, 41...DBF monopulse beamformer, 42...AZ/EL phase monopulse beamformer, 43...denoise angle finder, 44...integration processor.
Claims (5)
予めレンジ-ドップラデータを取得し、前記レンジ-ドップラデータをレンジ軸とドップラ軸で重複させながらM通りに分割し、前記分割した不要波データと予め取得した教師信号とする目標データを組み合わせた学習データを用いて、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)モデルを学習させる学習手段と、
前記学習データによる学習モデルを用いて、リアルタイムに入力されるΣビームとAZ(Azimuth)軸(EL(Elevation)軸)のスクイントビームのレンジ-ドップラデータをM通りに分割し、分割単位毎にデノイズ処理して合成したレンジ-ドップラデータを用いて、ΣビームによりCFAR(Constant False Alarm Rate:定誤警報率)または極大値による目標検出処理により目標を検出し、前記ΣビームとAZ軸(EL軸)のスクイントビームを用いて測角処理を行う処理手段と
を具備するレーダシステム。 A radar system that performs coherent integration processing on a slow-time axis using a single pulse or modulated N (N≧1) pulses,
a learning means for acquiring range-Doppler data in advance, dividing the range-Doppler data into M ways while overlapping on a range axis and a Doppler axis, and training a CNN (Convolutional Neural Network) model using learning data that combines the divided unnecessary wave data with previously acquired target data that serves as a teacher signal;
A radar system comprising: a processing means for dividing range-Doppler data of a Σ beam and a squint beam on the AZ (Azimuth) axis (EL (Elevation) axis) input in real time into M ways using a learning model based on the learning data, and using the range-Doppler data synthesized by denoising for each division unit, detecting targets by target detection processing using a CFAR (Constant False Alarm Rate) or maximum value using the Σ beam, and performing angle measurement processing using the Σ beam and the squint beam on the AZ axis (EL axis).
予めレンジ-ドップラデータを取得し、
前記レンジ-ドップラデータをレンジ軸とドップラ軸で重複させながらM通りに分割し、
前記分割した不要波データと予め取得した教師信号とする目標データを組み合わせた学習データを用いて、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)モデルを学習させ、
前記学習データによる学習モデルを用いて、リアルタイムに入力されるΣビームとAZ(Azimuth)軸(EL(Elevation)軸)のスクイントビームのレンジ-ドップラデータをM通りに分割し、
分割単位毎にデノイズ処理して合成したレンジ-ドップラデータを用いて、ΣビームによりCFAR(Constant False Alarm Rate:定誤警報率)または極大値により目標を検出し、
前記ΣビームとAZ軸(EL軸)のスクイントビームを用いて測角処理を行う
レーダ信号処理方法。 A radar signal processing method for performing coherent integration processing on a slow-time axis using a single pulse or modulated N (N≧1) pulses, comprising the steps of:
Obtain range-Doppler data in advance,
The range-Doppler data is divided into M ways while overlapping on the range axis and the Doppler axis;
A CNN (Convolutional Neural Network) model is trained using training data obtained by combining the divided unnecessary wave data and target data that is a teacher signal obtained in advance;
Using a learning model based on the learning data, the range-Doppler data of the Σ beam and the squint beam of the AZ (Azimuth) axis (EL (Elevation) axis) input in real time is divided into M ways,
Using the range-Doppler data that has been denoised and synthesised for each division unit, targets are detected using the Σ beam based on the CFAR (Constant False Alarm Rate) or maximum value.
A radar signal processing method for performing angle measurement processing using the Σ beam and a squint beam on the AZ axis (EL axis).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102513A JP7577613B2 (en) | 2021-06-21 | 2021-06-21 | Radar system and radar signal processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102513A JP7577613B2 (en) | 2021-06-21 | 2021-06-21 | Radar system and radar signal processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023001662A JP2023001662A (en) | 2023-01-06 |
JP7577613B2 true JP7577613B2 (en) | 2024-11-05 |
Family
ID=84688697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021102513A Active JP7577613B2 (en) | 2021-06-21 | 2021-06-21 | Radar system and radar signal processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7577613B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117519474B (en) * | 2023-11-06 | 2024-05-14 | 中国人民解放军陆军工程大学 | A radar gesture feature acquisition method considering motion prior |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014206382A (en) | 2013-04-10 | 2014-10-30 | 三菱電機株式会社 | Target type identification device |
JP2018205174A (en) | 2017-06-06 | 2018-12-27 | 株式会社東芝 | Radar device and radar signal processing method thereof |
JP2019086464A (en) | 2017-11-09 | 2019-06-06 | 株式会社東芝 | Radar apparatus and radar signal processing method thereof |
JP2020027047A (en) | 2018-08-13 | 2020-02-20 | 株式会社東芝 | Radar system and radar signal processing method thereof |
JP2020046774A (en) | 2018-09-14 | 2020-03-26 | 株式会社東芝 | Signal processor, distance measuring device and distance measuring method |
-
2021
- 2021-06-21 JP JP2021102513A patent/JP7577613B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014206382A (en) | 2013-04-10 | 2014-10-30 | 三菱電機株式会社 | Target type identification device |
JP2018205174A (en) | 2017-06-06 | 2018-12-27 | 株式会社東芝 | Radar device and radar signal processing method thereof |
JP2019086464A (en) | 2017-11-09 | 2019-06-06 | 株式会社東芝 | Radar apparatus and radar signal processing method thereof |
JP2020027047A (en) | 2018-08-13 | 2020-02-20 | 株式会社東芝 | Radar system and radar signal processing method thereof |
JP2020046774A (en) | 2018-09-14 | 2020-03-26 | 株式会社東芝 | Signal processor, distance measuring device and distance measuring method |
Also Published As
Publication number | Publication date |
---|---|
JP2023001662A (en) | 2023-01-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9529078B2 (en) | Using orthogonal space projections to generate a constant false alarm rate control parameter | |
EP3040737B1 (en) | Using orthogonal space projections to generate a constant false alarm rate control parameter | |
US20050179579A1 (en) | Radar receiver motion compensation system and method | |
JP6470152B2 (en) | Radar apparatus and radar signal processing method | |
CN108931766B (en) | Non-uniform STAP interference target filtering method based on sparse reconstruction | |
JP2016008852A (en) | Doppler radar device and radar signal processing method thereof | |
JP5044358B2 (en) | Radar equipment | |
JP2009020015A (en) | Radar system | |
CN109946668A (en) | Target Secondary Identification Method Based on Multi-beamforming | |
CN109655819B (en) | Clutter suppression three-dimensional imaging method based on real-aperture Doppler beam sharpening | |
CN109061598B (en) | STAP clutter covariance matrix estimation method | |
JP7577613B2 (en) | Radar system and radar signal processing method | |
JP2017003494A (en) | Radar apparatus and radar signal processing method | |
JP7399706B2 (en) | Radar device and its radar signal processing method | |
Chen et al. | Parametric iterative soft thresholding algorithm for refocusing of moving targets in SAR images | |
CN109507654B (en) | LS-based phase information calculation method in complex environment | |
CN113359196B (en) | Multi-target vital sign detection method based on subspace method and DBF | |
JP6367134B2 (en) | Radar apparatus and radar signal processing method | |
JP4976968B2 (en) | Radar equipment | |
RU2316788C1 (en) | Mode of detection by a pulsed-doppler radar of a group target | |
CN112906476A (en) | Airborne radar training sample selection method based on signal-to-noise-ratio loss | |
Aliabadi et al. | Adaptive scaled wiener postfilter beamformer for ultrasound imaging | |
JP7551476B2 (en) | Radar device and radar signal processing method | |
JP7577612B2 (en) | Radar system and radar signal processing method | |
Himed et al. | Synthetic aperture radar–moving target indicator processing of multi-channel airborne radar measurement data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240126 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240911 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7577613 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |