JPH08338700A - Multiple guidance device of airframe - Google Patents
Multiple guidance device of airframeInfo
- Publication number
- JPH08338700A JPH08338700A JP7144656A JP14465695A JPH08338700A JP H08338700 A JPH08338700 A JP H08338700A JP 7144656 A JP7144656 A JP 7144656A JP 14465695 A JP14465695 A JP 14465695A JP H08338700 A JPH08338700 A JP H08338700A
- Authority
- JP
- Japan
- Prior art keywords
- target
- distance
- airframe
- image sensor
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000010586 diagram Methods 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Landscapes
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、飛しょう体(例えば対
艦ミサイル)の誘導制御装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a guidance control device for a flying vehicle (for example, an anti-ship missile).
【0002】[0002]
【従来の技術】従来の技術では、目標物(例えば目標
艦)の大きさを知るため、図6に示すように、アクティ
ブレーダを使用し、目標物までの距離Rとレーダ反射波
の受信電力Pr により、目標物のレーダ反射面σを算出
し、このσを目標物の大きさに等価であるとしていた。2. Description of the Related Art In the prior art, in order to know the size of a target object (for example, a target ship), an active radar is used as shown in FIG. 6, and the distance R to the target object and the received power of the radar reflected wave are used. The radar reflection surface σ of the target is calculated from Pr, and this σ is equivalent to the size of the target.
【0003】[0003]
【発明が解決しようとする課題】従来の技術による目標
物の大きさの判別では、解決すべき次の問題があった。
すなわち、目標物のレーダ反射面σは、レーダに対する
目標物の向きや、上部構造物の形状等の諸条件によって
大きく変動するものである。In the determination of the size of the target by the conventional technique, there are the following problems to be solved.
That is, the radar reflection surface σ of the target largely changes depending on various conditions such as the direction of the target with respect to the radar and the shape of the upper structure.
【0004】そのため、必ずしも目標物の大きさとは一
致しない場合があり、期待した判別効果が得られないと
いう問題があった。また、単に目標物のレーダ反射面σ
の大小で目標物を選択した場合、小さな島等の非目標物
のレーダ反射を目標物として、捕捉、追尾してしまう恐
れがあった。本発明は、これらの問題を解決することが
できる装置を提供することを目的とする。Therefore, there is a case that the size of the target does not always match, and the expected discrimination effect cannot be obtained. Also, simply the radar reflection surface σ of the target
When a target object is selected depending on the size, the radar reflection of a non-target object such as a small island may be captured and tracked as the target object. The present invention aims to provide a device capable of solving these problems.
【0005】[0005]
【課題を解決するための手段】本発明に係る飛しょう体
の複合誘導装置は(A)アクティブレーダと(B)画像
センサと(C)計算機を具備し、(D)前記計算機は、
アクティブレーダにより飛しょう体から目標物の左端ま
での距離(RL )および右端までの距離(RR )を入力
するとともに、画像センサから目標物に対する画視角
(θ)を入力し、目標物の大きさ(L)および向き
(ψ)を算出し、制御信号を飛しょう体の制御装置に出
力することを特徴とする。A composite guidance system for a flying object according to the present invention comprises (A) an active radar, (B) an image sensor and (C) a computer, and (D) the computer,
The distance from the flying object to the left end of the target (RL) and the distance to the right end (RR) are input by the active radar, and the view angle (θ) to the target is input from the image sensor to determine the size of the target. (L) and direction (ψ) are calculated, and a control signal is output to the control device of the flying object.
【0006】すなわち、本発明では、アクティブレーダ
と画像センサからのデータを計算機により統合処理し
て、目標物の大きさ(船体長L)と向き(ψ)を検出す
る。このうち、アクティブレーダは、目標物の左端まで
の距離(RL )及び目標物の右端までの距離(RR )を
検出する。これらの差から、目標物の奥行き(χ=|R
L −RR |)を得、これらの平均から目標物までの距離
(R)を得る。また、画像センサは目標物の横の拡がり
幅を角度の幅、すなわち画視角(θ)として検出する。That is, according to the present invention, the data from the active radar and the image sensor are integrated by a computer to detect the size (hull length L) and direction (ψ) of the target. Among them, the active radar detects the distance (RL) to the left end of the target and the distance (RR) to the right end of the target. From these differences, the depth of the target (χ = | R
L-RR |) and obtain the distance (R) from these averages to the target. Further, the image sensor detects the lateral spread width of the target as the angular width, that is, the view angle (θ).
【0007】[0007]
(1)目標物までの距離Rと、画視角θから船体長Lの
角度方向の長さ成分Rθが得られる。 (2)(船体長L)2 =(距離方向の奥行)2 +(角度
方向の長さ成分)2 から船体長Lが得られる。 (3)船体長Lと距離方向の奥行χから、目標物の向き
(角度)の絶対値|ψ|が得られる。 (4)目標物の概略の向き(左側が手前か、若しくは右
側が手前か)により、目標物の向き(角度)の符号が得
られる。 (5)前述の(3)と(4)から目標物の向きが得られ
る。(1) The distance R to the target object and the length component Rθ of the hull length L in the angular direction are obtained from the view angle θ. (2) The hull length L is obtained from (hull length L) 2 = (depth in distance direction) 2 + (length component in angular direction) 2 . (3) The absolute value | ψ | of the direction (angle) of the target is obtained from the hull length L and the depth χ in the distance direction. (4) The sign of the orientation (angle) of the target is obtained from the approximate orientation of the target (whether the left side is the front side or the right side is the front side). (5) The orientation of the target can be obtained from the above (3) and (4).
【0008】[0008]
【実施例】本発明の第1実施例を図1〜図5に示す。図
1は第1実施例の概要図で、1は目標物、2は飛しょう
体である。図2は第1実施例のブロック図で、3はアク
ティブレーダ、4は計算機、5は画像センサである。3
〜5は飛しょう体内に装備している。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention is shown in FIGS. FIG. 1 is a schematic diagram of the first embodiment, in which 1 is a target and 2 is a flying object. FIG. 2 is a block diagram of the first embodiment, 3 is an active radar, 4 is a computer, and 5 is an image sensor. Three
~ 5 is equipped in the flying body.
【0009】飛しょう体2は、目標物1を捕捉、追尾す
るために、センサとしてアクティブレーダ3と画像セン
サ5を作動させ目標物へ接近する。飛しょう体2のセン
サであるアクティブレーダ3と画像センサ5が目標物を
捕捉した時点で、図2のブロック図に従い、計算機4が
目標物の長さLと目標物の向きψを計算し、制御信号を
飛しょう体の制御装置へ出力する。The flying body 2 approaches the target object by operating the active radar 3 and the image sensor 5 as sensors in order to capture and track the target object 1. At the time when the active radar 3 and the image sensor 5 which are the sensors of the flying object 2 capture the target object, the computer 4 calculates the length L of the target object and the direction ψ of the target object according to the block diagram of FIG. The control signal is output to the control device of the flying object.
【0010】すなわち、アクティブレーダ3により目標
物1の右端及び左端までの距離RRとRL を得ることが
でき、RR とRL の差から目標物1の距離方向の奥行χ
(χ=|RL −RR |)を得ることができる。That is, the active radar 3 can obtain the distances RR and RL to the right and left ends of the target 1, and the depth χ of the target 1 in the distance direction can be obtained from the difference between RR and RL.
(.Chi. =. Vertline.RL -RR.vertline.) Can be obtained.
【0011】次に、画像センサ5により、目標物1によ
る角度の幅θ(すなわち画視角θ)が得られる。これら
の情報(目標物の長さLと目標物の向きψ)を、次の
(1)及び(2)により計算することで、目標物の長さ
Lと目標物の向きψを得ることができる。Next, the image sensor 5 obtains an angle width θ (that is, an image viewing angle θ) of the target 1. By calculating these pieces of information (the length L of the target object and the direction ψ of the target object) by the following (1) and (2), the length L of the target object and the direction ψ of the target object can be obtained. it can.
【0012】[0012]
【数1】 [Equation 1]
【0013】この目標物の長さL及び目標物の向きψを
得ることで、以下に示す機能を飛しょう体に持たせるこ
とが可能になる。 (1)目標物(軍艦で全長約200m)と非目標物(全
長400m以上のタンカーや島等)の目標判別機能。 (2)目標物を複数捕捉した場合、それぞれの目標物の
長さLと、向きψを比較し、目標物を選択(例えば1番
Lの長い艦を選択)する目標物選択機能。 (3)目標物の向きψから、飛しょう体の目標物への命
中方向を調整(例えば、飛しょう体が跳弾しないようψ
±90°から命中)する命中方向調整機能。 (瞬間視野角λおよび目標物の画視角θの求め方) (瞬間視野角λ)1例として次のような条件の場合につ
いて説明する(図3)。 (a)IIR素子(Image Infra red Rays;赤外線画
像)の画素数;128×128 (b)個別素子の大きさ;30μm (c)光学系の焦点距離;100mm このときの瞬間視野角λは式(3)から求めることがで
きる。By obtaining the length L of the target object and the direction ψ of the target object, it becomes possible for the flying object to have the following functions. (1) Target discriminating function between a target object (about 200 m in total length with a warship) and a non-target object (tanker or island with a total length of 400 m or more) (2) A target selection function that, when a plurality of targets are captured, compares the length L of each target with the direction ψ and selects the target (for example, selects the longest ship L). (3) Adjust the hit direction of the flying object to the target object from the direction ψ of the target object (for example, ψ so that the flying object does not bounce).
Hit direction adjustment function to hit from ± 90 °. (How to Obtain Instantaneous Viewing Angle λ and Image Viewing Angle θ of Target) (Instantaneous Viewing Angle λ) As an example, the case of the following conditions will be described (FIG. 3). (A) Number of pixels of IIR element (Image Infra red Rays; infrared image); 128 × 128 (b) Size of individual element; 30 μm (c) Focal length of optical system; 100 mm It can be obtained from (3).
【0014】[0014]
【数2】 (目標物の画視角θ)目標物の画視角θは、次のように
して求めることができる。[Equation 2] (Image viewing angle θ of target) The image viewing angle θ of the target can be obtained as follows.
【0015】図4(A)の現画像における128×12
8の各素子について、スレショルド以上の素子を1、未
満を0として、2値化画像図4(B)を得る。そして、
2値化画像について、1とした画素数を累積していく
と、図5のような特性曲線を得る。128 × 12 in the current image of FIG.
For each of the elements of No. 8, the elements having the threshold value or more are set to 1, and the elements of less than 0 are set to 0, and the binarized image FIG. 4B is obtained. And
By accumulating the number of pixels of 1 for the binarized image, a characteristic curve as shown in FIG. 5 is obtained.
【0016】図5における特性曲線の傾斜の大きいAB
部分が目標物に対応する。図5のAB部分に対応する横
軸CDの画素数をk画素とすると、目標物の画視角θは
次の式(4)から求めることができる。AB having a large slope of the characteristic curve in FIG.
The part corresponds to the target. When the number of pixels on the horizontal axis CD corresponding to the portion AB in FIG. 5 is k pixels, the view angle θ of the target object can be obtained from the following equation (4).
【0017】[0017]
【数3】 (Equation 3)
【0018】[0018]
【発明の効果】本発明は前述のように構成されているの
で、以下に述べるような効果を奏することができる。 (1)目標物の向き及び大きさを知ることにより、目標
物か非目標物かの判別をすることができる。 (2)目標物が複数ある場合に、大きな目標物へ優先的
誘導をすることができ、目標物に対する効果的な打撃を
可能にすることができる。Since the present invention is constructed as described above, the following effects can be obtained. (1) By knowing the direction and size of the target object, it is possible to discriminate between the target object and the non-target object. (2) When there are a plurality of targets, it is possible to preferentially guide a large target, and it is possible to effectively strike the target.
【図1】本発明の第1実施例に係る全体の概要図。FIG. 1 is an overall schematic diagram according to a first embodiment of the present invention.
【図2】第1実施例のブロック図。FIG. 2 is a block diagram of the first embodiment.
【図3】瞬間視野角λの求め方を示す図。FIG. 3 is a diagram showing how to determine an instantaneous viewing angle λ.
【図4】目標物の2値化画像を示す図。FIG. 4 is a diagram showing a binarized image of a target.
【図5】目標物の画視角θの求め方を示す図。FIG. 5 is a diagram showing a method of obtaining an image viewing angle θ of a target object.
【図6】従来の技術を示すブロック図。FIG. 6 is a block diagram showing a conventional technique.
1…目標物(例えば目標艦)、 2…飛しょう体、 3…アクティブレーダ、 4…計算機、 5…画像センサ、 R…飛しょう体から目標物までの距離、 RL …飛しょう体から目標物の左端までの距離、 RR …飛しょう体から目標物の右端までの距離、 k…画素数、 λ…瞬間視野角、 θ…画視角、 χ…目標物の距離方向の奥行。 1 ... Target (for example, target ship), 2 ... Flying object, 3 ... Active radar, 4 ... Calculator, 5 ... Image sensor, R ... Distance from flying object to target object, RL ... Flying object to target object To the left end of RR ... Distance from the flying object to the right end of the target, k ... Number of pixels, λ ... Instantaneous viewing angle, θ ... View angle, χ ... Depth in the distance direction of the target.
Claims (1)
アクティブレーダ(3)と(B)画像センサ(5)と
(C)計算機(4)を具備し、(D)前記計算機(4)
は、アクティブレーダ(3)により飛しょう体(2)か
ら目標物(1)の左端までの距離(RL )および右端ま
での距離(RR )を入力するとともに、画像センサ
(5)から目標物に対する画視角(θ)を入力し、目標
物(1)の大きさ(L)および向き(ψ)を算出し、制
御信号を飛しょう体(2)の制御装置に出力することを
特徴とする飛しょう体の複合誘導装置。1. A flying body guiding device comprising: (A)
An active radar (3), (B) an image sensor (5), and (C) a computer (4), and (D) the computer (4).
Inputs the distance (RL) from the flying vehicle (2) to the left end of the target (1) and the distance (RR) to the right end of the target (1) using the active radar (3), and the distance from the image sensor (5) to the target An image viewing angle (θ) is input, a size (L) and a direction (ψ) of the target object (1) are calculated, and a control signal is output to the control device of the flying object (2). Complex guidance device for the body.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7144656A JPH08338700A (en) | 1995-06-12 | 1995-06-12 | Multiple guidance device of airframe |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7144656A JPH08338700A (en) | 1995-06-12 | 1995-06-12 | Multiple guidance device of airframe |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08338700A true JPH08338700A (en) | 1996-12-24 |
Family
ID=15367172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7144656A Withdrawn JPH08338700A (en) | 1995-06-12 | 1995-06-12 | Multiple guidance device of airframe |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08338700A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011007464A (en) * | 2009-06-29 | 2011-01-13 | Toshiba Corp | Missile guiding device |
-
1995
- 1995-06-12 JP JP7144656A patent/JPH08338700A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011007464A (en) * | 2009-06-29 | 2011-01-13 | Toshiba Corp | Missile guiding device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3396408B1 (en) | Lidar and camera data fusion for automated vehicle | |
JP4308381B2 (en) | Perimeter monitoring sensor | |
US6502053B1 (en) | Combination passive and active speed detection system | |
US5955967A (en) | Scan-type radar apparatus for a vehicle to accurately detect an object in a lane of the radar equipped vehicle | |
US7765083B2 (en) | Method and apparatus for detecting sources of projectiles | |
US7602477B2 (en) | Radar device | |
EP0899582A3 (en) | Motor vehicle object detection method | |
US20010031068A1 (en) | Target detection system using radar and image processing | |
JP2000266539A (en) | Inter-vehicle distance measuring apparatus | |
JP2003030792A (en) | Device and method for discriminating type of object | |
EP0066168A1 (en) | Proximity monitor | |
JPH08338700A (en) | Multiple guidance device of airframe | |
JP2005114588A (en) | Tracking device | |
JP3690260B2 (en) | Vehicle distance measurement method | |
JP3444288B2 (en) | Image target detection device | |
JP5521594B2 (en) | Guided flying vehicle device | |
JP3499654B2 (en) | Radar image signal processing device | |
JP3487295B2 (en) | Image target detection device | |
JPH05100020A (en) | Target capturing method for missile | |
JPH10142309A (en) | Image target-detecting apparatus | |
JP3690367B2 (en) | Infrared imaging device | |
KR102512793B1 (en) | System for platooning | |
US20250066001A1 (en) | Autonomous ascent of an underwater vehicle | |
JPH0868844A (en) | Image target detector | |
KR101788262B1 (en) | Apparatus and method for detecting target using sample image of target |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020903 |