JP7687189B2 - Object detection device and object detection method - Google Patents
Object detection device and object detection method Download PDFInfo
- Publication number
- JP7687189B2 JP7687189B2 JP2021176846A JP2021176846A JP7687189B2 JP 7687189 B2 JP7687189 B2 JP 7687189B2 JP 2021176846 A JP2021176846 A JP 2021176846A JP 2021176846 A JP2021176846 A JP 2021176846A JP 7687189 B2 JP7687189 B2 JP 7687189B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- vehicle
- object detection
- collision
- collision risk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、物体検出装置、及び物体検出方法に関し、特に、検出した物体に対して適切にトラッキング処理を行うことが可能な物体検出装置、及び物体検出方法に関する。 The present invention relates to an object detection device and an object detection method, and in particular to an object detection device and an object detection method that can perform appropriate tracking processing on a detected object.
車両に備えられたカメラによって撮影した画像から、歩行者のような人物等の物体を検出し、検出枠とともに表示して、車両の運転者に人物等の存在を示す装置が普及している。このような装置においては、歩行者である人物や車両の移動によって撮影画像中の人物などの位置が変化するため、トラッキング処理を行うことで、動きに追従した検出枠の表示を可能としている。 Devices that detect objects such as pedestrians from images captured by a camera mounted on a vehicle and display them with a detection frame to inform the driver of the presence of people are becoming widespread. In such devices, the position of people in the captured image changes due to the movement of pedestrians or vehicles, so a tracking process is performed to make it possible to display a detection frame that follows the movement.
特許文献1には、車両の周辺に存在する対象物の追跡、つまり、トラッキング技術が記載されている。 Patent document 1 describes a technology for tracking objects around a vehicle.
トラッキング処理には、いくつかの手法が提案されている。一般的には、追従性能の高いトラッキング処理は、演算処理などの処理負荷が比較的に大きく、追従性能の低いトラッキング処理は、処理負荷が比較的小さい。このため、検出した物体の全てのトラッキングに対して追従性能の高いトラッキング処理を適用することは、検出した物体の数が多い場合など、処理負荷が増大してしまい、全ての物体に対するトラッキング処理が行えない場合や、他の処理に影響を与えてしまう場合がある。また、検出した物体の全てのトラッキングに対して追従性能の低いトラッキング処理を適用することは、トラッキングの途切れによって、物体の把握が困難になるなど、車両の走行の安全性に支障が生じる場合もある。 Several methods have been proposed for tracking processing. In general, tracking processing with high tracking performance imposes a relatively large processing load, such as calculation processing, while tracking processing with low tracking performance imposes a relatively small processing load. For this reason, applying tracking processing with high tracking performance to the tracking of all detected objects increases the processing load when there are a large number of detected objects, and it may not be possible to perform tracking processing for all objects or it may affect other processing. Furthermore, applying tracking processing with low tracking performance to the tracking of all detected objects may cause tracking to be interrupted, making it difficult to grasp the objects, and thus jeopardizing the safety of vehicle driving.
本発明は、撮像画像から検出した物体のトラッキング処理を適切に行うことができる物体検出装置、及び物体検出方法を提供することを目的とする。 The present invention aims to provide an object detection device and an object detection method that can appropriately perform tracking processing of an object detected from a captured image.
本発明に係る物体検出装置は、車両の外部を撮像する撮像部から、前記撮像部が撮像した撮像画像を取得し、前記撮像画像内に存在する物体を検出する物体検出部と、前記車両と前記物体とが衝突する危険性の高さを示す衝突危険度を判定する判定部と、前記物体の前記衝突危険度に基づいた追従性能を有するトラッキング手法を選択し、前記選択したトラッキング手法を使用して前記物体のトラッキング処理を行うトラッキング処理部と、を備える。 The object detection device according to the present invention includes an object detection unit that acquires an image captured by an imaging unit that captures an image of the outside of the vehicle from the imaging unit and detects an object present in the captured image, a determination unit that determines a collision risk indicating the degree of risk of a collision between the vehicle and the object, and a tracking processing unit that selects a tracking method having a tracking performance based on the collision risk of the object and performs tracking processing of the object using the selected tracking method.
本発明に係る物体検出方法は、車両の外部を撮像する撮像部から、前記撮像部が撮像した撮像画像を取得し、前記撮像画像内に存在する物体を検出するステップと、前記車両と前記物体とが衝突する危険性の高さを示す衝突危険度を判定するステップと、前記物体の前記衝突危険度に基づいた追従性能を有するトラッキング手法を選択し、前記選択したトラッキング手法を使用して前記物体のトラッキング処理を行うステップと、を物体検出装置が実行する。 The object detection method according to the present invention is carried out by an object detection device, which performs the following steps: acquiring an image captured by an imaging unit that captures an image of the outside of the vehicle, and detecting an object present in the captured image; determining a collision risk indicating the degree of risk of a collision between the vehicle and the object; selecting a tracking method having a tracking performance based on the collision risk of the object, and performing a tracking process for the object using the selected tracking method.
本発明によれば、撮像画像から検出した物体のトラッキング処理を適切に行うことができる。 According to the present invention, it is possible to appropriately perform tracking processing of an object detected from a captured image.
[実施の形態]
<構成>
図1は、実施の形態に係る物体検出装置を含む物体検出システムの構成を例示するブロック図である。
[Embodiment]
<Configuration>
FIG. 1 is a block diagram illustrating a configuration of an object detection system including an object detection device according to an embodiment.
図1に示すように、実施の形態に係る物体検出システム10は、物体検出装置11と撮像部12と表示部13とを備える。
As shown in FIG. 1, the
物体検出装置11は、物体検出システム10の制御を行う制御装置であり、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。物体検出装置11に含まれる制御装置は、記憶されているプログラムを、図示しない内部メモリにロードして実行する。物体検出装置11は、その構成およびプログラムによって実現される機能として、物体検出部111、判定部112、トラッキング処理部113および表示制御部114を備える。
The
撮像部12は、車両に備えられているカメラであり、車両の前方を向いて配置されている。撮像部12は、遠赤外線カメラまたは可視光カメラである。撮像部12は、図示しないが、レンズ、撮像素子、A-D(Analog to Digital)変換素子等が含まれる。撮像部12、撮像した撮像画像を構成するデータを、物体検出部111および表示制御部114に出力する。
The
表示部13は、表示制御部114の制御により各種情報を表示する表示装置、所謂モニタである。表示部13は、例えば液晶パネルや有機EL(Organic Electro-Luminescence)パネルなどの表示パネルを備える。表示部13は、車両の運転者が目視しやすい位置に配置されている。表示部13は、物体検出システム10専用の表示装置であってもよく、車両の他の装置、例えばナビゲーション装置やインフォテインメントシステムと共用の表示装置であってもよい。
The
物体検出部111は、車両の外部を撮像する撮像部12から、撮像部12が撮像した撮像画像を取得し、撮像画像内に存在する物体を検出する。物体検出部111が検出する物体には、人物、自転車に乗車している人物であるサイクリスト、及び動物のうち少なくともいずれかが含まれる。物体検出部111は、撮像画像に対して物体認識辞書を用いたパターンマッチングを行って、物体の検出処理を行う。物体認識辞書は、例えば、人物を認識するための人物認識辞書、サイクリストを認識するためのサイクリスト認識辞書、動物を認識するための動物認識辞書などが含まれる。
The
物体検出部111が参照する物体認識辞書は、撮像部12が遠赤外線カメラである場合は、検出する対象が撮影された遠赤外画像、所謂熱画像を機械学習させた辞書である。例えば、人物認識辞書の場合は、車両から撮影された人物の熱画像を機械学習させた辞書である。
When the
判定部112は、車両と物体のそれぞれの移動に関する情報に基づいて車両と物体とが衝突する危険性の高さを示す衝突危険度を判定する。車両と物体は、それぞれに自由に移動する。例えば、車両と物体がそれぞれ別の方向に、且つ、別の速度で移動する場合もある。また、車両と物体が同一方向に、且つ、同一速度で移動する場合もある。また、車両と物体が同一方向に、且つ、別の速度で移動する場合もある。また、車両と物体が別の方向に、且つ、同一速度で移動する場合もある。なお、衝突危険度を衝突可能性、接触可能性、衝突可能性の影響度、または、接触可能性の影響度と称することもある。
The
移動に関する情報は、車両から物体までの距離、車両の進行方向に対する物体の位置、物体の進行方向、物体の移動速度、物体の車両に対する相対速度、車両の進行方向、車両の移動速度、および車両が物体に衝突するまでの衝突予測時間のうちの少なくともいずれか、または、いくつかの組み合わせを含む情報である。 The information related to movement includes at least one of the following, or a combination of several: the distance from the vehicle to the object, the position of the object relative to the vehicle's direction of travel, the object's direction of travel, the object's speed of travel, the object's relative speed to the vehicle, the vehicle's direction of travel, the vehicle's speed of travel, and the predicted collision time until the vehicle collides with the object.
判定部112は、検出した物体を示す範囲の最下方の位置、つまり接地位置の撮像画像における縦方向の位置関係に基づき、車両から物体までの距離を算出する。判定部112は、車両の進行方向および車両の移動速度を、車両に備えられたCAN(Controller Area Network)を介して取得する。判定部112は、車両の進行方向および車両の移動速度を、図示しないGNSS(Global Navigation Satellite System)受信部が受信した測位情報に基づいて取得してもよい。
The
判定部112は、車両の進行方向に対する物体の位置、物体の進行方向、物体の移動速度、物体の車両に対する相対速度を、車両の進行方向および車両の移動速度に加え、撮像画像における物体の位置の推移から取得する。
The
判定部112は、車両と物体のそれぞれの移動に関する情報に基づき、車両と物体が衝突する可能性を示すレベルとして表される、衝突危険度を判定(算出)する。判定部112が判定する衝突危険度は、実際に車両と物体との衝突可能性が無くとも、車両から見て注意を要する必要性が高い状態であれば、衝突危険度が高いと判断してもよい。従って、衝突危険度とは、車両に対する影響度、要注意度などと置き換えることも可能である。車両に対する影響度が高い状態とは、車両の物体の位置関係によって、車両が徐行しなければならない状態などである。要注意度が高い状態とは、検出された人物が移動していない状態であっても、道路を渡る動作を行う可能性のある位置に存在している場合など、車両の運転者が人物に対して注意を要する場合などである。
The
トラッキング処理部113は、検出した物体のトラッキング処理を行う。トラッキング処理部113は、検出した物体の衝突危険度に基づいた追従性能を有するトラッキング手法を選択して、トラッキング処理を行う。すなわち、トラッキング処理部113は、複数のトラッキング手法のうちから、判定部112が算出した衝突危険度に基づいた追従性能を有するトラッキング手法を選択して、選択したトラッキング手法を用いてトラッキング処理を行う。これにより、物体との衝突危険度が高い場合には追従性能の高いトラッキング手法が選択され、物体との衝突危険度が低い場合には追従性能の低いトラッキング手法が選択される。すなわち、衝突危険度に基づいた適切なトラッキング手法が選択される。トラッキング処理部113は、物体との衝突危険度に基づいて選択したトラッキング手法を使用して物体のトラッキング処理を行う。なお、トラッキング手法をトラッキングアルゴリズムと称することもある。
The
詳細には、トラッキング処理部113は、物体の衝突危険度が高いことを示すレベルが所定閾値以上の場合には追従性能の高いトラッキング手法を選択し、選択したトラッキング手法を使用して物体のトラッキング処理を行う。トラッキング処理部113は、物体の衝突危険度が高いことを示すレベルが所定閾値未満の場合には追従性能の低いトラッキング手法を選択し、選択したトラッキング手法を使用して物体のトラッキング処理を行うか、またはトラッキング処理を停止する。トラッキングを、追跡または追尾と称することもある。
In detail, when the level indicating a high collision risk of the object is equal to or higher than a predetermined threshold, the
ここで、トラッキング処理部113について、さらに詳細に説明する。トラッキング処理部113は、物体検出部111が検出した物体に対し、判定部112が算出した衝突危険度(影響度)に応じて、追従性能の高いトラッキング手法、および追従性能の低いトラッキング手法のいずれかを適用する。なお、追従性能の高いトラッキング手法は処理負荷が比較的大きく、追従性能の低いトラッキング手法は処理負荷が比較的小さい。
The
トラッキング処理部113による物体のトラッキング処理は、検出対象の物体の背景に存在する他の物体などのエッジが複雑な形状ではない場合や、検出対象の物体が他の物体に重なっていない場合は、検出対象の物体のトラッキングは途切れにくいため、追従性能の低いトラッキング手法でトラッキング処理を行っても問題はない。 When the edges of other objects present in the background of the object to be detected are not complex, or when the object to be detected is not overlapped by other objects, the tracking of the object to be detected is unlikely to be interrupted, so there is no problem even if the tracking processing is performed using a tracking method with low tracking performance.
一方、トラッキング処理部113による物体のトラッキング処理は、検出対象の物体の背景に存在する他の物体などのエッジが複雑な形状である場合や、検出対象の物体が他の物体に重なっている場合は、追従性能の低いトラッキング手法では、検出対象の物体のトラッキングは途切れやすい。従って、このような場合に途切れの無いトラッキングを行うために、トラッキング処理部113は、追従性能の高いトラッキング手法を適用することが好ましい。特に、車両に対して衝突危険度が高い物体は、トラッキングが途切れることは危険である。このため、車両に対して衝突危険度が高い物体に対しては、物体の背景などの状態によらず、追従性能の高いトラッキング処理を行うことで、物体のトラッキングの途切れを防止する。また、トラッキング処理部113は、車両に対して衝突危険度が低い物体に対しては、追従性能の低いトラッキング手法でトラッキング処理を行うことに代えて、トラッキング処理を行わなくともよい。例えば、車両の進行方向とは異なる場所に位置する物体や、車両の進行方向とは異なる遠方の場所に位置する物体に対しては、トラッキング処理を行わなくともよい。
On the other hand, when the tracking processing of an object by the
次に、トラッキング処理部113で選択的に用いるトラッキング手法の例を以下に示す。
<追従性能の高いトラッキング手法の例>
ブースティング(Boosting)法、MIL(Multiple Instance Learning)法、KCF(Kernelized Correlation Filter)法、TLD(Tracking Learning Detection)法等。
<追従性能の低いトラッキング手法の例>
カルマンフィルタ、オプティカルフロー、ミーンシフト(Mean shift)法等。
Next, examples of tracking methods selectively used by the
<Example of a tracking method with high tracking performance>
Boosting method, MIL (Multiple Instance Learning) method, KCF (Kernelized Correlation Filter) method, TLD (Tracking Learning Detection) method, etc.
<Examples of tracking methods with poor tracking performance>
Kalman filter, optical flow, mean shift method, etc.
トラッキング処理部113による処理についてまとめる。トラッキング処理部113は、物体の衝突危険度が高い場合には、追従性能の高いトラッキング手法を使用して物体のトラッキング処理を行う。また、トラッキング処理部113は、物体の衝突危険度が低い場合には、追従性能の低いトラッキング手法を使用して物体のトラッキング処理を行うか、またはトラッキング処理を行わない。
The processing by the
図1に戻り、物体検出装置11の表示制御部114は、撮像部12が撮像した撮像画像に加えて、トラッキング処理が行われている、物体検出部111が検出した物体を囲う検出枠を表示部13に表示させる。これにより、車両を運転するドライバーに、検出した物体の存在を伝えることができる。
Returning to FIG. 1, the
表示制御部114は、物体の衝突危険度が高いことを示すレベルが所定閾値以上の場合、ドライバーに危険を伝えるため、警告メッセージを表示部13に表示してもよい。警告メッセージは、音声として発するようにしてもよい。
When the level indicating a high collision risk of an object is equal to or higher than a predetermined threshold, the
以上、説明したように、実施の形態によれば、物体の衝突危険度に基づいた追従性能を有するトラッキング手法を使用して当該物体をトラッキング処理することが可能な物体検出装置、及び方法を提供することができる。 As described above, according to the embodiment, it is possible to provide an object detection device and method capable of tracking an object using a tracking method that has tracking performance based on the collision risk of the object.
<効果>
図2は、実施の形態に係る表示部の表示画面を例示する模式図である。図2の上段から下段に向かうに連れて時間が経過する。つまり、車両に備えられた物体検出システム10が、人物を検出し、検出した人物に検出枠を描画して表示している経過を示す例である。図2において、人物の周りを囲うようにして表示されている外枠は、当該人物が検出されている場合に表示される検出枠である。検出枠は、人物が検出されている結果として、検出されている人物を含むように描画される。このため、人物のトラッキングが途切れた場合には、人物のトラッキングが途切れている期間は、検出枠の描画も途切れる。
<Effects>
FIG. 2 is a schematic diagram illustrating a display screen of a display unit according to an embodiment. Time passes from the top to the bottom of FIG. 2. That is, this is an example showing the process in which the
図2に示す人物は、車両の進行方向に存在することから、判定部112によって、人物に対する衝突危険度が高いと判定されている。具体的には、車両の進行方向および走行速度に加えて、人物の位置および移動方向から、人物に対する衝突危険度が所定閾値以上であると判定されている。従って、図2に示す人物に対しては、追従性能の高いトラッキング手法が適用されている。これにより、人物が他車両などを背景とした位置に存在している場合、つまり、人物とその周囲を含むエッジ形状が複雑な場合であっても、人物(物体)を追従することができる。特に、図2の最下段において、人物と他車両との重なりが発生した場合でも、人物の検出と当該人物のトラッキング処理を途切れずに行うことができる。
The person shown in FIG. 2 is in the direction of travel of the vehicle, and therefore the
また、実施の形態では、物体検出装置11は、常に追従性能の高いトラッキング処理を行うわけではないので、処理負荷を抑えることができる。また、物体検出装置11は、車両との衝突危険度の高い物体に対してのみ追従性能の高いトラッキング処理を行うので、適切にドライバーに警告を出すことができる。
In addition, in the embodiment, the
また、物体検出装置11は、車両との衝突危険度が低い物体に対して追従性能の低い(処理速度の遅い)トラッキング処理を行う(またはトラッキング処理を行わない)。これにより、物体検出装置11は、追従性能の高いトラッキング処理を行う場合と比べて、処理負荷を低減することができる。
In addition, the
<動作>
図3は、実施の形態に係る物体検出装置の動作を例示するフローチャートである。図3に示す処理は、物体検出システム10が備えられた車両のエンジンがオンまたは電源がオンになること、または、車両のヘッドライトがオンになることなど、遠赤外線カメラまたは可視光カメラによる物体検出を行うことが必要とされる条件によって開始される。
<Operation>
3 is a flowchart illustrating the operation of the object detection device according to the embodiment. The process shown in FIG. 3 is started when a condition that requires object detection using a far-infrared camera or a visible light camera is met, such as when the engine or power of a vehicle equipped with the
図3に示すように、処理の開始に伴い、物体検出部111が車両の外部を撮像する撮像部12から、撮像部12が撮像した撮像画像の取得を開始する(ステップS101)。また、処理の開始に伴い、物体検出部111は、撮像部12が撮像した撮像画像(入力画像)の中から物体(人物/サイクリスト/動物など)の検出を開始する(ステップS101)。物体検出部111は、物体を検出(検知)する方法として、例えば、HOG(Histograms of Oriented Gradients)特徴量や、CNN(YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)、など)を利用し、撮像画像上のどこに物体があるかを検出する。
As shown in FIG. 3, when processing starts, the
物体検出部111は、物体を検出したか否かを判定する(ステップS102)。ステップS102において、物体が検出されていない場合(ステップS102:No)、ステップS107に推移する。ステップS102において、物体が検出された場合(ステップS102:Yes)、ステップS103に推移する。
The
ステップS102において、物体が検出された場合、判定部112は、車両と物体とが衝突する危険性の高さを示す衝突危険度を判定する(ステップS103)。すなわち、判定部112は、検出した物体が車両と接触する可能性、つまり、衝突危険度を判定する。
If an object is detected in step S102, the
ステップS103において、判定部112は、車両の挙動を把握するために、車両のCAN(Controller Area Network)を介して、車両の速度及びハンドル舵角などの情報や、加速度センサ等の情報を取得する。また、判定部112は、検出する物体までの距離を物体の接地位置から検出、あるいは距離センサなどを使用して検出する。判定部112は、これらの時系列の情報(データ)から検出物体の移動方向や移動速度を求める。判定部112は、検出物体と車両との衝突可能性の影響度(衝突危険度)を以下に示す条件の1つ、または、複数を組み合わせて判定する。
In step S103, the
・検出物体が車両の正面に存在、または正面に向かっている。
・検出物体が車両の進行方向に存在、または進行方向に向かっている。
・検出物体の移動速度が一定値以上である。
・車両の移動速度が一定値以上である。
・検出物体と車両との相対速度が一定値以上である。
・検出物体と車両との衝突までの予測時間(Time-to-collision)が一定値以下である。
・検出物体との距離が一定値以下である。
- The detected object is in front of the vehicle or is approaching the front.
The detected object is present in the direction of travel of the vehicle or is moving in the direction of travel.
- The movement speed of the detected object is above a certain value.
- The vehicle's movement speed is above a certain value.
The relative speed between the detected object and the vehicle is equal to or greater than a certain value.
The predicted time to collision between the detected object and the vehicle (time-to-collision) is below a certain value.
- The distance to the detection object is less than a certain value.
判定部112は、上述した条件を検出した物体毎にスコア化し、衝突危険度を算出し、衝突危険度が高いことを示すレベルが閾値以上であるか否かを判定する。また、判定部112は、衝突危険度を数値化しなくとも、車両の進行方向に対する検出物体の位置や移動方向から、衝突危険度の高低を判定してもよい。
The
ステップS103で、検出した物体との衝突危険度を判定した後、トラッキング処理部113は、判定された衝突危険度が所定閾値以上であるか否かを判定する(ステップS104)。ステップS104の判定は、衝突危険度が高いか否かの判定としてもよい。
After determining the collision risk with the detected object in step S103, the
ステップS104において、衝突危険度が所定閾値以上であると判定された場合(ステップS104:Yes)、トラッキング処理部113は、所定の追従性能以上のトラッキング手法であって追従性能の高い当該トラッキング手法を選択して物体のトラッキング処理を開始する(ステップS105)。
If it is determined in step S104 that the collision risk is equal to or greater than the predetermined threshold (step S104: Yes), the
トラッキング処理部113は、物体の衝突危険度が所定閾値以上ではない、つまり所定閾値未満であると判定された場合(ステップS104:Nо)、所定の追従性能未満のトラッキング手法であって追従性能の低い当該トラッキング手法を選択して物体のトラッキング処理を開始する、またはトラッキング処理を停止する(ステップS106)。
When the
ステップS105またはステップS106で実行されるトラッキング処理は、物体が検出された場合に、撮像画像の次のフレーム以降において、撮像画像上におけるトラッキング対象の物体の位置を検出する。トラッキング処理は、トラッキング対象の物体が検出できなくなるまで継続される。 The tracking process executed in step S105 or step S106 detects the position of the object to be tracked in the captured image in the next frame of the captured image or later, if an object is detected. The tracking process continues until the object to be tracked can no longer be detected.
ステップS105およびステップS106の後、物体検出装置11は、処理を終了するか否かを判定する(ステップS107)。処理の終了とは、物体検出システム10が備えられた車両のエンジンがオフまたは電源がオフになること、または、車両のヘッドライトがオフになることなど、遠赤外線カメラまたは可視光カメラによる物体検出を行うことを終了する条件を満たすことで、処理を終了することが判定される。
After steps S105 and S106, the
<特徴>
ここで、実施の形態の特徴を示す。
車載カメラなどの撮像部12で人物/サイクリスト/動物などの物体を検出して衝突危険度が有ると判断した時にドライバーに警告を出す物体検出システム10において、
物体を検出した位置と車両の位置/速度などから衝突危険度の高さを判定し、
衝突危険度の高い物体に対しては、追従性能の高いトラッキング処理を行い、
衝突危険度の低い物体に対しては、追従性能の低いトラッキング処理を行う、またはトラッキング処理を行わない。
<Features>
Here, the features of the embodiment will be described.
In an
The system determines the risk of collision based on the detected object's location and the vehicle's location/speed, etc.
For objects with a high collision risk, a highly accurate tracking process is performed.
For objects with a low collision risk, tracking processing with low tracking performance is performed, or no tracking processing is performed at all.
[比較例]
図4は、実施の形態の比較例に係る表示部の表示画面を例示する模式図である。
図4の上段から下段に向かうに連れて時間が経過する。つまり、車両に備えられた物体検出システムが、人物を検出し、検出した人物に検出枠を描画して表示している経過を示す例である。
図4において、人物の周りを囲うようにして表示されている外枠は、当該人物が検出されている場合に表示される検出枠である。
[Comparative Example]
FIG. 4 is a schematic diagram illustrating a display screen of a display unit according to a comparative example of the embodiment.
Time passes from the top to the bottom of Fig. 4. That is, this is an example showing the process in which the object detection system provided in the vehicle detects a person and draws and displays a detection frame around the detected person.
In FIG. 4, the outer frame displayed so as to surround a person is a detection frame that is displayed when that person is detected.
比較例に係る物体検出装置は、物体の衝突危険度に基づいた追従性能を有するトラッキング手法を選択し、選択したトラッキング手法を使用して物体のトラッキング処理を行う機能を有しない。 The object detection device in the comparative example does not have the function of selecting a tracking method having tracking performance based on the collision risk of the object and performing object tracking processing using the selected tracking method.
従って、比較例に係る物体検出装置は、図4に示すように、検出された人物車両の進行方向に存在している場合であっても、追従性能の高いトラッキング手法を選択せず、追従性能の高いトラッキング手法を使用することはない。その結果、比較例に係る物体検出装置では、例えば、人物が他車両などを背景とした位置に存在している場合、つまり、人物とその周囲を含むエッジ形状が複雑な場合に、トラッキング処理が途切れてしまう。つまり、図4の最上段等において、人物に対してトラッキングが行われているが、図4の最下段において、人物のトラッキングが途切れていることを意味する。 Therefore, as shown in FIG. 4, the object detection device according to the comparative example does not select a tracking method with high tracking performance even if the detected person is in the direction of travel of the vehicle, and does not use a tracking method with high tracking performance. As a result, in the object detection device according to the comparative example, for example, when a person is located in a position with other vehicles in the background, that is, when the edge shape including the person and its surroundings is complex, the tracking process is interrupted. In other words, this means that tracking of the person is being performed in the top row of FIG. 4, but tracking of the person is interrupted in the bottom row of FIG. 4.
図4に示す比較例の場合、検出された人物は、衝突危険度が高い、または注意を要する人物であるにもかかわらず、トラッキングが途切れることで、検出枠の表示が行われない期間が生じてしまう。例えば、夜間などにおいて、目視で人物の発見が困難な場合などにおいては、トラッキングが途切れることで、車両の運転者が人物の状態を把握できないことにもつながる。本発明は、比較例のような状態で生じる課題を解決する。 In the comparative example shown in FIG. 4, even though the detected person is at high risk of collision or requires caution, there are periods when tracking is interrupted and the detection frame is not displayed. For example, in cases where it is difficult to find a person visually, such as at night, the interruption of tracking can lead to the driver of the vehicle being unable to grasp the person's condition. The present invention solves the problems that arise in situations such as the comparative example.
上記処理のうちの一部又は全部は、コンピュータプログラムによって実行されてもよい。上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Some or all of the above processes may be executed by a computer program. The above-mentioned programs can be stored and provided to a computer using various types of non-transitory computer readable media. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer readable media include semiconductor memory (e.g., mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)). The program may also be provided to the computer by various types of temporary computer readable media. Examples of temporary computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer readable medium can provide the program to the computer via a wired communication path such as an electrical wire or optical fiber, or via a wireless communication path.
以上、発明を実施の形態に基づき具体的に説明したが、本発明は上記実施の形態に限られたものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。 The invention has been specifically described above based on the embodiment, but it goes without saying that the present invention is not limited to the above embodiment and can be modified in various ways without departing from the gist of the invention.
10…物体検出システム
11…物体検出装置
111…物体検出部
112…判定部
113…トラッキング処理部
114…表示制御部
12…撮像部
13…表示部
REFERENCE SIGNS
Claims (5)
前記車両と前記物体とが衝突する危険性の高さを示す衝突危険度を判定する判定部と、
前記物体の前記衝突危険度に基づいた追従性能を有するトラッキング手法を選択し、前記選択したトラッキング手法を使用して前記物体のトラッキング処理を行うトラッキング処理部と、
を備える物体検出装置。 an object detection unit that acquires an image captured by an imaging unit that captures an image of the outside of the vehicle and detects an object present in the captured image;
a determination unit for determining a collision risk level indicating a degree of risk of a collision between the vehicle and the object;
a tracking processing unit that selects a tracking method having a tracking performance based on the collision risk of the object, and performs tracking processing of the object using the selected tracking method;
An object detection device comprising:
請求項1に記載の物体検出装置。 the determination unit determines the collision risk based on at least one of a distance from the vehicle to the object, a position of the object with respect to a traveling direction of the vehicle, a traveling direction of the object, a moving speed of the object, a relative speed of the object with respect to the vehicle, a traveling direction of the vehicle, a moving speed of the vehicle, and a predicted collision time until the vehicle collides with the object, or a combination of several of these.
The object detection device according to claim 1 .
前記物体の前記衝突危険度が所定閾値以上の場合には所定の追従性能以上の前記トラッキング手法を選択して前記物体の前記トラッキング処理を行い、
前記物体の前記衝突危険度が前記所定閾値未満の場合には所定の追従性能未満の前記トラッキング手法を選択して前記物体の前記トラッキング処理を行う、または前記トラッキング処理を行わない、
請求項1または2に記載の物体検出装置。 The tracking processing unit includes:
When the collision risk of the object is equal to or greater than a predetermined threshold, the tracking method having a predetermined tracking performance or higher is selected to perform the tracking process of the object;
When the collision risk of the object is less than the predetermined threshold, the tracking method having a tracking performance less than a predetermined value is selected to perform the tracking process of the object, or the tracking process is not performed.
The object detection device according to claim 1 .
前記物体の前記衝突危険度が所定閾値以上の場合には処理負荷が大きい前記トラッキング手法を選択して前記物体の前記トラッキング処理を行い、When the collision risk of the object is equal to or greater than a predetermined threshold, the tracking method having a large processing load is selected to perform the tracking process of the object;
前記物体の前記衝突危険度が前記所定閾値未満の場合には処理負荷が小さい前記トラッキング手法を選択して前記物体の前記トラッキング処理を行う、または前記トラッキング処理を行わない、When the collision risk of the object is less than the predetermined threshold, the tracking method having a small processing load is selected to perform the tracking process of the object, or the tracking process is not performed.
請求項3に記載の物体検出装置。The object detection device according to claim 3 .
前記車両と前記物体とが衝突する危険性の高さを示す衝突危険度を判定するステップと、
前記物体の前記衝突危険度に基づいた追従性能を有するトラッキング手法を選択し、前記選択したトラッキング手法を使用して前記物体のトラッキング処理を行うステップと、
を物体検出装置が実行する物体検出方法。
acquiring an image captured by an imaging unit that captures an image of the outside of the vehicle, and detecting an object present in the captured image;
determining a collision risk indicating a degree of risk of a collision between the vehicle and the object;
selecting a tracking method having a tracking performance based on the collision risk of the object, and performing a tracking process of the object using the selected tracking method;
The object detection method is executed by the object detection device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021176846A JP7687189B2 (en) | 2021-10-28 | 2021-10-28 | Object detection device and object detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021176846A JP7687189B2 (en) | 2021-10-28 | 2021-10-28 | Object detection device and object detection method |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2023066239A JP2023066239A (en) | 2023-05-15 |
| JP2023066239A5 JP2023066239A5 (en) | 2024-10-11 |
| JP7687189B2 true JP7687189B2 (en) | 2025-06-03 |
Family
ID=86322422
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021176846A Active JP7687189B2 (en) | 2021-10-28 | 2021-10-28 | Object detection device and object detection method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7687189B2 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004054610A (en) | 2002-07-19 | 2004-02-19 | Sony Corp | Tracking device and method, and robot device |
| US20060031015A1 (en) | 2004-08-09 | 2006-02-09 | M/A-Com, Inc. | Imminent-collision detection system and process |
| JP2016001464A (en) | 2014-05-19 | 2016-01-07 | 株式会社リコー | PROCESSING DEVICE, PROCESSING SYSTEM, PROCESSING PROGRAM, AND PROCESSING METHOD |
| JP2019211831A (en) | 2018-05-31 | 2019-12-12 | トヨタ自動車株式会社 | Object recognition device |
| JP2021528767A (en) | 2018-11-21 | 2021-10-21 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Visual search methods, devices, computer equipment and storage media |
-
2021
- 2021-10-28 JP JP2021176846A patent/JP7687189B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004054610A (en) | 2002-07-19 | 2004-02-19 | Sony Corp | Tracking device and method, and robot device |
| US20060031015A1 (en) | 2004-08-09 | 2006-02-09 | M/A-Com, Inc. | Imminent-collision detection system and process |
| JP2016001464A (en) | 2014-05-19 | 2016-01-07 | 株式会社リコー | PROCESSING DEVICE, PROCESSING SYSTEM, PROCESSING PROGRAM, AND PROCESSING METHOD |
| JP2019211831A (en) | 2018-05-31 | 2019-12-12 | トヨタ自動車株式会社 | Object recognition device |
| JP2021528767A (en) | 2018-11-21 | 2021-10-21 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Visual search methods, devices, computer equipment and storage media |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023066239A (en) | 2023-05-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7295185B2 (en) | Rider assistance system and method | |
| US11155249B2 (en) | Systems and methods for causing a vehicle response based on traffic light detection | |
| JP7388971B2 (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
| US9583003B2 (en) | Vehicle danger notification control apparatus | |
| KR102385280B1 (en) | Camera system and method for contextually capturing the surrounding area of a vehicle | |
| JP3897305B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring method, control program, and readable recording medium | |
| JP6137081B2 (en) | Car equipment | |
| US20170039434A1 (en) | External-Environment-Recognizing Apparatus | |
| JP6045889B2 (en) | In-vehicle control device | |
| GB2558777A (en) | Vehicle collision avoidance | |
| JP5898001B2 (en) | Vehicle periphery monitoring device | |
| JP2008186170A (en) | Driving support system and driving support method | |
| US10696228B2 (en) | On-vehicle display control device, on-vehicle display system, on-vehicle display control method, and program | |
| JP2005309797A (en) | Pedestrian warning device | |
| JP2009132259A (en) | Vehicle periphery monitoring device | |
| JP2018055637A5 (en) | Driving support device and driving support method | |
| JP2021163432A (en) | Signal light state identification device, signal light state identification method, computer program for signal light state identification, and control device | |
| US20180012068A1 (en) | Moving object detection device, image processing device, moving object detection method, and integrated circuit | |
| US11021105B2 (en) | Bird's-eye view video generation device, bird's-eye view video generation method, and non-transitory storage medium | |
| JP5997962B2 (en) | In-vehicle lane marker recognition device | |
| CN115214667A (en) | Vehicle control device, storage medium, and vehicle control method | |
| JP7245653B2 (en) | Traffic light recognition method and traffic light recognition device | |
| JP5192007B2 (en) | Vehicle periphery monitoring device | |
| JP5040851B2 (en) | Wakimi driving judgment device | |
| JP7687189B2 (en) | Object detection device and object detection method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240930 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241003 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250422 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250423 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250505 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7687189 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |