[go: up one dir, main page]

JP7226565B2 - 物体認識方法、及び、物体認識装置 - Google Patents

物体認識方法、及び、物体認識装置 Download PDF

Info

Publication number
JP7226565B2
JP7226565B2 JP2021542287A JP2021542287A JP7226565B2 JP 7226565 B2 JP7226565 B2 JP 7226565B2 JP 2021542287 A JP2021542287 A JP 2021542287A JP 2021542287 A JP2021542287 A JP 2021542287A JP 7226565 B2 JP7226565 B2 JP 7226565B2
Authority
JP
Japan
Prior art keywords
sensor
point
objects
point group
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021542287A
Other languages
English (en)
Other versions
JPWO2021038267A1 (ja
Inventor
朋子 黒飛
邦昭 野田
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2021038267A1 publication Critical patent/JPWO2021038267A1/ja
Application granted granted Critical
Publication of JP7226565B2 publication Critical patent/JP7226565B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、物体認識方法、及び、物体認識装置に関する。
従来、レーザーを用いた送受信センサを使用して、自車両の周辺を走行する検知対象車両の位置を計測する物体追跡装置が知られている(JP2016-148514A参照)。
JP2016-148514Aに開示された上記装置によれば、送受信センサにより取得した点群において互いに近接する点をグルーピングし、矩形で近似することによって物体位置の基準点を算出する。しかしながら、互いに近接する点をグルーピングするだけでは、近接した複数の物体に属する点群を、同一物体に属する点群として誤認識してしまう場合がある。例えば、二つの物体の側面によってL字型の凹部が形成されている場合に、当該二つの物体の側面に属する点群を同一物体の点群として誤認識する場合がある。この時、当該点群に基づいて矩形近似すると、物体が存在しない凹部に矩形の物体(凸物体)が存在していると認識される場合があり問題となる。
本発明は、センサを用いて取得した点群が複数の物体(複数物体)に対応する点群か否かを判定することで、周辺に存在する物体の位置を正しく認識することできる技術を提供することを目的とする。
本発明の一態様における物体認識方法は、周囲に存在する物体の位置を上面視において複数の反射点から構成される点群として取得するセンサを用いた物体認識方法であって、近接度合いに応じて点群をグルーピングし、グルーピングされた点群を多角形近似した際に、グルーピングされた点群を構成する少なくとも一部の検出点が、センサに対して点群を多角形近似した際の近似多角形の死角に位置するか否かを判定する。検出点がセンサに対して死角に位置すると判定した場合には、グルーピングされた点群は複数物体に対応した点群であると認識し、検出点がセンサに対して死角に位置しないと判定した場合には、グルーピングされた点群は近似多角形の単体物体に対応した点群であると認識する。
本発明の実施形態については、添付された図面とともに以下に詳細に説明する。
図1は、第1実施形態の物体認識装置の構成例を示すブロック図である。 図2は、物体認識装置が取得する点群の一例を説明する図である。 図3は、第1実施形態の物体認識装置による物体認識方法を説明するフローチャートである。 図4は、近似多角形構成辺死角判定の手法を説明する図である。 図5は、近似多角形反射点所属判定方法の一例を説明する図である。 図6は、第2実施形態の物体認識装置の構成例を示すブロック図である。 図7は、第2実施形態の物体認識装置による物体認識方法を説明するフローチャートである。 図8は、第2実施形態の物体認識装置による物体認識方法を説明するフローチャートである。 図9は、第3実施形態の物体認識装置の構成例を示すブロック図である。 図10は、センサおよびカメラを備える物体認識装置が取得する周囲に存在する物体の情報を説明する図である。 図11は、第3実施形態の物体認識装置による物体認識方法を説明するフローチャートである。 図12は、センサが取得した物体に関する情報と、カメラが取得した物体に関する情報とが整合するか否かを判定する方法を説明する図である。
<第1実施形態>
図1は、本発明の第1実施形態に係る物体認識装置100の構成例を示すブロック図である。本実施形態の物体認識装置100は、例えば自動車に適用される。
本実施形態の物体認識装置100は、センサ1と、センサ1が取得した情報を処理するコントローラ10とを含んで構成される。また、コントローラ10は、点群グルーピング部11と、多角形近似部12と、近似多角形点群所属判定部13とを含む。
センサ1は、センサ1の周囲環境、すなわち、本実施形態であれば物体認識装置100が搭載された車両の周囲に存在する物体の3次元点群データを取得する3次元点群取得手段として機能する。センサ1は、例えば、ライダ(LiDAR)、レーダ、又はステレオカメラ等が想定されるが、本実施形態のセンサ1にはライダが採用されるものとする。取得した3次元点群データ(以下単に点群ともいう)は、コントローラ10に入力される。取得される点群の一例は、図2を参照して後述する。
コントローラ10は、例えば、中央演算装置(CPU)、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、および、入出力インタフェース(I/Oインタフェース)から構成される。また、コントローラ10が備えるROMには、以下に説明する各機能部がそれぞれに有する各機能を実行するためのプログラムが格納されている。換言すれば、コントローラ10は、ROMに格納された各種プログラムを実行することによって、以下に説明する点群グルーピング部11、多角形近似部12、および近似多角形点群所属判定部13の機能を実現するように構成される。
点群グルーピング部11は、センサ1が取得した点群を地面と平行な2次元平面に投影し、これら点群を近接度合に応じてグルーピングする。このようなグルーピングの手法として、本実施形態ではEuclidean Clusteringという手法を用いるが、当該手法に限らず、点群の近接度合いに応じてグルーピングする他の手法が用いられてもよい。
多角形近似部12は、点群グルーピング部11によってグルーピングされた点群を予め定めた多角形に近似するいわゆる多角形フィッティングを実行する。
近似多角形点群所属判定部13は、センサ1と、多角形近似部12により近似された近似多角形との位置関係から、近似多角形を構成する各辺のうち、グルーピングした点群が対応する辺がセンサ1から見て死角であるか否かを判定する。そして、近似多角形点群所属判定部13は、グルーピングした点群が対応する辺がセンサ1から見て死角であると判定した場合には、当該辺に対応する点群は複数の物体(複数物体)に属すると判断して、当該点群は複数物体の位置を示していると認識する。一方、グルーピングした点群が対応する辺がセンサ1から見て死角ではないと判定した場合には、当該辺を構成する点群は単一の物体(単体物体)に属すると判断して、当該点群は多角形近似によって生成された近似多角形に相当する単体物体の位置を示していると認識する。
このような構成により、物体認識装置100は、取得した点群が示す物体が単体物体か複数物体かを判定することができる。
続いて、取得した点群が単体物体か複数物体かを判定する方法の詳細について、図2および図3を参照して説明する。
図2は、物体認識装置100が取得する点群の一例を説明する図である。図2が示す例では、センサ1が搭載された車両の前方において、道路脇(道路と歩道の境界付近)の植え込み30に隣接して車両20が駐車している状況が示されている。また、センサ1を起点に広がる扇型の線がセンサ1の視野角を示しており、センサ1から見て視野角が広がっていく方向が車両の前方である。
ここで、本実施形態における3次元点群取得手段として採用されるセンサ1は、レーザー光(出射波)を視野角内の複数の方向に向かって出力するとともに、視野角内に存在する物体表面上の複数の反射点に当たって跳ね返ってきた当該レーザー光(反射波)を検出することによって、物体のセンサ1側の側面の位置に対応する複数の反射点2(以下では単に、反射点2とも記載する)のセンサ1に対する相対位置を取得するライダ、あるいはセンサである。そして、物体認識装置100は、センサ1を用いて取得した複数の反射点2を複数の検出点として構成される点群に基づいて、物体認識装置100の周囲に存在する物体の位置を認識する。
なお、センサ1は視野角内の物体表面の位置を点群として取得できれば、どのようなセンサであってもよく、レーダやライダに限定されるものではない。センサ1は例えばステレオカメラであってもよい。すなわち、物体認識装置100は、例えばステレオカメラで撮像した所定の視野角(画角)内に存在する物体に対応した画素毎に物体表面の位置を算出し、各画素に対応する位置を検出点とした点群に基づいて物体認識装置100の周囲に存在する物体の位置を認識してもよい。
以下の記載においては、3次元点群取得手段として採用されるセンサ1は、ライダ、若しくはレーダであるものとする。
ここで、図2で示す場面では、センサ1が取得した点群を近接度合いに応じてグルーピングした結果、植え込み30のセンサ1側の側面と駐車車両20の後端の点群がひとまとまりにグルーピングされる場合がある。すなわち、実際には植え込み30と駐車車両20とからなる複数の物体に対応する点群が、一つの物体(単体物体)に対応する点群として一まとまりにグルーピングされる場合がある。そうすると、従来では、単体物体としてグルーピングされた点群に基づいて多角形近似としての矩形近似が行われる結果、図2で示す点線矩形状の近似多角形(近似矩形)が生成されてしまう。そして、このような近似矩形が生成されると、当該近似矩形が生成された位置に、近似矩形に相当する単体物体が存在すると認識されてしまう。しかしながら、近似矩形が生成された位置は、実際には、植え込み30と駐車車両20とによる複数物体がL字型に配置されることにより生じる凹部分であるため、多角形近似により得られた近似矩形により認識される物体の位置と、実際の物体の位置とが相違してしまうという問題がある。
本実施形態では、このような相違を生じさせないために、センサ1を用いて取得した点群が複数物体に対応する点群か否かを判定する。点群が複数物体に対応することが判定できれば、多角形近似により近似多角形が一旦生成されたとしても、当該近似多角形が生成された位置は複数物体により形成される凹部分であって、当該位置には物体が存在しないことを正しく認識することができる。以下、センサ1を用いて取得した点群が、複数物体に対応するか否かを判定する方法の詳細を説明する。
図3は、本実施形態の物体認識装置100による物体認識方法を説明するフローチャートである。当該フローチャートで説明される処理は、物体認識装置100が起動している間、一定の間隔で常時実行されるようにコントローラ10にプログラムされている。
ステップS101では、コントローラ10が、センサ1を用いて複数の反射点2からなる点群を取得する。点群が取得されると、続くステップS102の処理が実行される。
ステップS102では、コントローラ10が、ステップS101で取得した点群を地面と平行な2次元平面に投影し、近接度合いに応じてグルーピングする。
ステップS103では、コントローラ10が、ステップS102でグルーピングした点群に基づく多角形近似(多角形フィッティング)を実行する。本実施形態で近似した多角形は、矩形(長方形)とするが、三角形や他の多角形でもよい。近似多角形は、近似多角形を構成する辺の位置と点群の位置との誤差が最も小さくなるようにフィッティングされる。
ステップS104では、コントローラ10が、近似多角形構成辺死角判定を実行する。近似多角形構成辺死角判定では、コントローラ10は、ステップS103で近似した近似多角形を構成する辺のうち、センサ1から見た場合に近似多角形の死角となる辺(死角となる反射点2を含む辺であり、以下では死角辺とも記載する)を特定する。言い換えれば、近似多角形のうちでセンサ1に対応しない辺を特定する。死角となる辺を特定する方法の詳細について、図4を参照して説明する。
図4は、本実施形態の近似多角形構成辺死角判定の手法を説明する図である。図中の4角がA~Dで示された長方形は、ステップS101において取得された点群に基づいて近似した長方形(近似矩形)である。
図4(a)は、近似多角形構成辺死角判定方法の一例を説明する図である。本例では、多角形近似において生成された近似矩形を構成する辺とセンサ1との関係においてセンサ1が観測可能な辺(センサ1から見て死角ではない辺であり、センサ1に相対する辺)を先に特定することによって、その他の辺を死角辺と特定する。
具体的には、まず、近似矩形の4角の点A~Dのうち、センサ1に最も近い点と、その両隣の点との計3点を特定する。そして、特定した3点のうちの2点を選び、選んだ2点のそれぞれとセンサ1とを結ぶ線が成す角度が最大となる2点の組み合わせを調べる。
図4(a)の左側の図を参照すると、センサ1に最も近い点は点Cであり、点Cの両隣の点は、点A、Dである。この三つの点A、C、Dのうちの2点とセンサ1とを結ぶ線が成す角度が最大となる2点の組み合わせは、図示するとおり、点A、Dである。
図4(a)の右側の図を参照すると、センサ1に最も近い点は点Cであり、点Cの両隣の点は、点A、Dである。この三つの点A、C、Dのうちの2点とセンサ1とを結ぶ線が成す角度が最大となる2点の組み合わせは、図示するとおり、点C、Dである。なお、センサ1と点C、Dとの各距離が同じで且つ最も近い点であった場合は、点C、Dのいずれを選択してもよい。
そして、近似矩形を構成する辺のうち、角度が最大となる2点の組み合わせとして選ばれた2点と、センサ1に最も近い点とを結ぶ全ての線分は、センサ1が観測可能な辺として特定され、当該辺以外の辺が死角辺と特定される。図4(a)の左側の図を参照すると、観測可能な辺は、図中太実線で囲んだ辺である辺A-C、辺C-Dと特定され、死角辺は、観測可能な辺以外の辺である辺A-B及び辺B-Dと特定される。図4(a)の右側の図を参照すると、観測可能な辺は、図中太実線で囲んだ辺である辺C-Dと特定され、死角辺は、観測可能な辺以外の辺である辺A-B、辺A-C、及び辺B-Dと特定される。
図4(b)は、近似多角形構成辺死角判定方法の他の例を説明する図である。本例では、観測可能な辺を特定せずに、直接死角辺を特定する。
具体的には、近似矩形の4角の点A~Dのうちの1点を選び、選んだ1点とセンサ1とを結ぶ直線が、当該選んだ1点に接続する辺以外の辺と交差する場合に、当該選んだ点と接続する辺を死角辺と特定する。これを点A~Dの全て調べることにより、近似矩形を構成する全ての辺から死角辺を特定することができる。
図4(b)の左側の図を参照すると、点Bとセンサ1とを結ぶ直線は、点Bに接続する辺A-B及び辺B-D以外の辺である辺C-Dと交差しているので、点Bと接続する図中太実線で囲んだ辺である辺A-Bおよび辺B-Dは死角辺と特定される。
図4(b)の右側の図を参照すると、点Aとセンサ1とを結ぶ直線は、点Aに接続する辺A-B及び辺A-C以外の辺である辺C-Dと交差しているので、点Aと接続する図中太実線で囲んだ辺である辺A-Cおよび辺A-Bは死角辺と特定される。さらに、点Bとセンサ1とを結ぶ直線は、点Bに接続する辺A-B及び辺B-D以外の辺である辺C-Dと交差しているので、点Bと接続する辺A-Bおよび辺B-Dも死角辺と特定される。なお、図4(b)を用いて説明した手法は、長方形状の近似矩形に限らず、その他全ての多角形状に対しても適用することができる。
このようにして、近似矩形を構成する辺のうちセンサ1から見て死角となる辺が特定されると、続くステップS105の処理が実行される(図3参照)。
ステップS105では、コントローラ10が、近似多角形反射点所属判定を実行する。近似多角形反射点所属判定では、コントローラ10は、多角形近似により生成された近似矩形の元となる点群を構成する複数の反射点2が、当該近似矩形を構成する辺のどの辺に対応(所属)するかを判定する。より具体的には、コントローラ10は、ステップS101で取得した点群を構成する複数の反射点2が、ステップS104で特定された死角辺ではない辺(センサ1が観測可能な辺)に所属するか否かを判定する。反射点2が所属する辺を判定する方法について、図5を参照して説明する。
図5は、本実施形態の近似多角形反射点所属判定方法の一例を説明する図である。四角の点A~Dで表される長方形は、ステップS103で近似した近似矩形を示す。また、反射点2a、2b、2cは、ステップS101で取得された点群を構成する複数の反射点2の一部を示す。近似多角形反射点所属判定では、取得した点群を構成する複数の反射点2の一部に基づいて、当該反射点2が構成する点群が近似矩形を構成する辺のどの辺に所属するか判定される。
本例では、まず、反射点2から近似矩形を構成する辺に垂線を下ろす。この時、反射点2から近似矩形を構成する辺に垂線を下ろせない場合には、当該反射点2は所属する辺が存在しないと判定される。一方、反射点2から下ろした垂線と近似矩形の辺との交点が存在する場合には、当該反射点2は、交点が存在する辺のうち、反射点2から交点までの距離が最小となる辺に所属すると判定される。
図5を参照すると、例えば反射点2aであれば、辺A-Bと、辺C-Dとに垂線を下ろすことができる。そして、反射点2aから下ろした二つの垂線のうち、その長さが最小となる垂線との交点が存在する辺は、辺A-Bである。よって、反射点2aは、辺A-Bに所属すると判定される。
反射点2bは、どの辺にも垂線を下ろすことができないので、所属する辺は存在しないと判定される。
反射点2cは、全ての辺に垂線を下ろすことができるが、これらの垂線のうち長さが最小となる垂線との交点は辺A-Cに存在する。よって、反射点2cは、辺A-Cに所属すると判定される。
このようにして、ステップS101で取得した点群を構成する反射点2が近似矩形を構成する辺のどの辺に所属するかを判定することができる。反射点2が所属する辺が判定されると、続くステップS106の処理が実行される。
ステップS106では、コントローラ10が、ステップS101で所得した点群を構成する反射点2が、近似矩形を構成する辺のうち、センサ1から見て死角ではない辺に所属するか否かを判定する。すなわち、コントローラ10は、ステップS105において判定された反射点2が所属する辺が、死角辺以外の辺(観測可能な辺)か否かを判定する。ステップS101で取得された点群を構成する複数の反射点2のうち、死角辺以外の辺に所属する反射点2が存在すると判定された場合には、反射点2はセンサ1に対して近似矩形の死角に位置しないと判定してステップS107の処理が実行される。一方、死角辺以外の辺に所属する反射点2は存在しないと判定された場合、すなわち、反射点2は死角辺に所属すると判定された場合には、反射点2はセンサ1に対して近似矩形の死角に位置すると判定してステップS108の処理が実行される。
ステップS107では、取得した点群を構成する反射点2が死角ではない辺に所属していると判定されたので、コントローラ10は反射点2がセンサ1に対して近似矩形の死角に位置しないと判定して、ステップS101で取得した点群が示す物体は単体物体であると判定する。この結果、物体認識装置100は、ステップS101で取得した点群に基づいて多角形近似されることにより生成された近似矩形の位置に、上面視において当該近似矩形に相当する外形の物体が実際に存在していると認識する。
一方、ステップS108では、取得した点群を構成する反射点2が死角辺に所属していると判定されたので、コントローラ10は反射点2がセンサ1に対して近似矩形の死角に位置すると判定して、ステップS101で取得した点群が示す物体は複数物体であると判定する。この結果、物体認識装置100は、ステップS101で取得した点群に基づく多角形近似によって近似矩形が生成された位置に対応する実際の場所は、複数の物体(例えば図2に図示する例においては植え込み30と駐車車両20)により形成された凹部分であって、近似矩形に相当する物体は実在しないと認識する。
以上の処理によって点群が示す物体が単体物体の反射点2で構成されたものであるか複数物体の反射点2で構成されたものであるか判定されると、コントローラ10は、物体認識に係る一連の処理を終了する。
なお、多角形近似をした後に、取得した点群を構成する反射点2が近似多角形のどの辺に所属するかを判定する処理(ステップS104以降の処理)を常に行う必要は必ずしもない。例えば、点群が示す物体が細長い物体である場合には、点群が所属する辺を判定することが難しい場合がある。また、例えば道路脇に存在する細長い物体は、車両の走行に大きな影響がなく無視できる場合もある。したがって、近似多角形を構成する辺のうち、最も短い辺の長さが所定値以上の場合にのみ、ステップS104以降の処理が実行されるように構成してもよい。これにより、反射点2の属する辺を判定しづらい細長い物体、あるいは、認識する必要がないほどの細長い物体以外の物体についてのみステップS104以降の処理が実行されるので、演算負荷を低減することができる。
また、取得した点群を時系列に追跡することによって、一まとまりの点群の移動態様から、当該点群が示す物体の属性を判別できる場合がある。より具体的には、例えばいわゆる時系列追跡技術を使用して周囲に存在する物体の位置を時系列的に計測することで、点群の大きさ及び移動態様から当該点群が示す物体に属性を付与できる場合がある。この場合には、点群が示す物体の属性から当該物体が明らかに単体物体と判別できる場合には、ステップS104以降の処理を省略してもよい。これにより、点群が示す物体があきらかに単体物体であると判別できない場合にのみステップS104以降の処理が実行されるので、演算負荷を低減することができる。
以上、図3を参照して説明した処理が実行されることにより、本実施形態の物体認識装置100は、グルーピングした点群を多角形近似した際に生成される近似多角形が実際の物体の位置を正しく示しているのか、それとも、近似多角形は実際の物体を示すものではなく、実際には複数物体により形成された凹部分であって、当該近似多角形は実際の物体の位置を正しく示していないのかを適切に判定することができる。これにより、周囲に存在する物体の位置を認識する際に取得した点群に基づく多角形近似を行う場合に、生成された近似多角形が実際の物体の位置を正しく示す結果なのか否かを確実に判断することができる。
一方で、センサ1を用いて取得した点群が示す物体が単体物体であるか複数物体であるかを判定する際に、点群に基づく多角形近似を行う必要は必ずしもない。例えば、当該点群を構成する複数の反射点2のそれぞれとセンサ1との間の距離を精度高く検出できる場合には、物体認識装置100は多角形近似しなくとも、多角形近似した際に点群を構成する複数の反射点2が近似多角形の死角に位置することを判定することができるため、点群が示す物体が複数物体か否かを判定することができる。より具体的には、物体認識装置100は、取得した点群を構成する複数の反射点2のうち、センサ1から最も遠い反射点2の両側にセンサ1からより近い反射点2が存在する場合には多角形近似せずに、点群を多角形近似した際には反射点2が近似多角形の死角に位置することを判定して、当該点群が示す物体は複数物体であると判定する。また、センサ1から最も近い反射点2の両側にセンサ1からより遠い反射点2が存在する場合には多角形近似せずに、点群を多角形近似した際には反射点2が近似多角形の死角に位置しないことを判定して、当該点群が示す物体は単体物体であると判定するように構成されてもよい。ただし通常では、複数の反射点2のそれぞれとセンサ1との間の距離には計測誤差が発生するため、上述のように点群を多角形近似した結果から、反射点2が近似多角形の死角に位置するか否かに基づいて、当該点群が示す物体が単体物体であるか複数物体であるかを判定することが好ましい。
以上、第1実施形態の物体認識装置100は、周囲に存在する物体の位置を上面視において複数の反射点2(検出点)から構成される点群として取得するセンサ1を用いた物体認識方法であって、近接度合いに応じて点群をグルーピングし、グルーピングされた点群を多角形近似した際に、グルーピングされた点群を構成する少なくとも一部の反射点2が、センサ1に対して点群を多角形近似した際の近似多角形の死角に位置するか否かを判定し、反射点2がセンサ1に対して近似多角形の死角に位置すると判定した場合には、グルーピングされた点群は複数物体に対応する点群であると認識し、反射点2がセンサ1に対して近似多角形の死角に位置しないと判定した場合には、グルーピングされた点群は近似多角形の単体物体に対応する点群と認識する。これにより、グルーピングされた点群を多角形近似して得られる近似多角形が示す物体が実際に存在するか否かを判定することができる。また、グルーピングされた点群が示す物体が複数物体であることを判定できることにより、グルーピングされた点群は複数物体により形成される凹部分に相当する点群であって、当該位置には物体が存在しないことを正しく認識することが可能となる。
また、第1実施形態の物体認識装置100は、近似多角形を構成する辺のうち最も短い辺の長さが所定値より長い場合に、点群を構成する少なくとも一部の反射点2が近似多角形を構成する辺のうちセンサ1に対して死角となる辺に対応するか否かを判定する。これにより、点群の属する辺を判定しづらい細長い物体、あるいは、認識する必要がないほどの細長い物体以外の物体についてのみ反射点2(検出点)が死角に位置するか否かを判定することができるので、演算負荷を低減することができる。
また、第1実施形態の物体認識装置100は、周囲に存在する物体の位置を時系列的に計測し、時系列的に計測された物体の属性を判別し、グルーピングされた点群が属性が判別されなかった物体に対応する場合に、当該点群を構成する少なくとも一部の反射点2がセンサ1に対して近似多角形の死角に位置するか否かを判定する。これにより、点群が示す物体があきらかに単体物体であると判別できない場合にのみ反射点2が近似多角形の死角に位置するか否かを判定することができるので、演算負荷を低減することができる。
<第2実施形態>
以下では、本発明の第2実施形態に係る物体認識装置200について説明する。
図6は、本実施形態に係る物体認識装置200の構成例を示すブロック図である。物体認識装置200は、点群削減部21と分割部22とをさらに備える点が、第1実施形態の物体認識装置100と相違する。以下、第1実施形態との相違点を中心に説明する。
点群削減部21は、センサ1が取得した点群数(反射点2の数)を削減する。
分割部22は、所得した点群が示す物体が複数物体であると判定された場合に、当該点群に基づいて近似した近似多角形を構成する複数の辺を、それぞれ複数の物体として認識する。点群削減部21と分割部22が行う処理について、図7を参照して説明する。
図7は、本実施形態の物体認識装置200による物体認識方法を説明するフローチャートである。当該フローチャートで説明される処理は、物体認識装置200が起動している間、一定の間隔で常時実行されるようにコントローラ10にプログラムされている。なお、ステップS201とステップS202が追加されている点が、図3を参照して上述した第1実施形態の物体認識方法と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と同様のステップについての説明は割愛する。
ステップS201では、コントローラ10は、ステップS101で取得した点群を削減する。削減の手法は特に限定されず、例えばボクセルフィルタが用いられてよい。本ステップにおいて点群が削減されることによって、点群に基づいてなされる後段処理の演算負荷を削減することができる。なお、演算負荷の低減が必要でない場合は本ステップS101の処理を行う必要はなく、必ずしも必要な処理ではない。
ステップS202は、取得した点群が示す物体が複数物体と判定された場合に行われる処理である。コントローラ10は、近似矩形を構成する辺から、反射点2が所属すると判定された辺、すなわち死角辺を辺ごとに分割する。そして、コントローラ10は、当該死角辺ごとに切り出して認識する(分割して認識する)処理を実行する。すなわち、コントローラ10は、死角辺ごとに対応する反射点2が単体物体に対応する反射点2であると認識する。死角辺に基づいて物体を切り出して認識する方法(物体分割方法)の詳細について、図8を参照して説明する。なお、簡略化のために以下の記載では、死角辺ごとに反射点2が単体物体に対応する反射点2として認識することを「切り出す」あるいは「物体分割」と表現する。
図8は、本実施形態の物体認識装置200が行う物体分割方法を説明する図である。図中の4角がA~Dで示された長方形は、ステップS101において取得された点群に基づいて矩形近似した長方形(近似矩形)である。
図8(a)は、点群が示す物体が複数物体と判定された場合に実行される物体分割方法を説明する図である。第1実施形態において図4を参照して説明したとおり、ステップS106において点群を構成する反射点2が死角辺に所属していることが特定されることにより、当該点群が示す物体は複数物体であることが判定される。
本実施形態の物体分割によれば、反射点2が所属する死角辺ごとに、死角辺に対応する反射点2が単体物体に対応する反射点2として認識される。例えば、図8(a)の左側の図では、物体分割によって、反射点2が所属する死角辺(辺A-B、辺B-D)毎に、各死角辺に対応する反射点2が、点群の分布に応じた二つの矩形単体物体(図中、太線枠で示した形状の物体)として切出されている。他の例として、図8(a)の右側の図では、物体分割によって、反射点2が所属する死角辺(辺A-B、辺A-C、辺B-D)毎に、各死角辺に対応する反射点2が、点群の分布に応じた三つの矩形単体物体(図中、太線枠で示した形状の物体)として切出されている。切り出されたこれらの矩形単体物体(以下、単に矩形物体)は、周囲環境に存在する実際の物体の位置に対応するので、物体認識装置200は、周囲環境に存在する物体の位置を当該矩形物体に基づいてより正しく認識することができる。なお、例えば、図8(a)の左側の図が図2で示す周囲環境を検出した結果とすれば、辺A-Bにかかる矩形物体は植え込み30に対応し、辺B-Dにかかる矩形物体は駐車車両20の後端に対応する。
なお、図8(a)で示すように、反射点2が所属する死角辺のすべてを切り出す必要は必ずしもなく、少なくとも一辺以上の一部の死角辺を特定辺として切り出してもよい。この場合、例えば、死角辺に所属する反射点2の数が多い辺や、死角辺の長さに応じた反射点2の数の割合が多い辺を特定辺として優先して切出してもよい。
また、物体認識装置200の周囲に存在する物体を検出する際には、センサ1を用いるだけではなく、センサ1とは異なる少なくとも一以上の他のセンサも用いて、周囲に存在する物体をこれら複数のセンサを用いて同時に検出する場合がある。この場合、センサ1が検出した物体と、センサ1とは異なる他のセンサが検出した物体との整合がとれた場合にのみ、整合がとれた当該物体を周囲環境に実際に存在する物体として認識するように構成してもよい。これにより、周囲環境に存在する物体の位置をセンサ1のみを用いて検出するのに比べてより精度よく検出することができる。
物体認識装置200がこのように構成されている場合には、上述の物体分割を行うことによって、センサ1が検出した複数物体に相当する複数の矩形物体が生成されるので、センサ1が検出した物体と、センサ1とは異なる他のセンサが検出した物体との整合をより容易に判定することができる。なお、複数のセンサが検出した物体の整合を判定する方法の一例については第3実施形態の説明において後述する。
なお、図8(b)は、点群が示す物体は複数物体ではないと判定された場合を説明する図である。図示するように、反射点2が死角辺ではない辺(観測可能な辺)に所属する場合には、点群が示す物体は単体物体であると判定されるので(ステップS107)、物体分割は行われない。
以上、第2実施形態の物体認識装置200によれば、物体が複数物体と認識された場合には、近似多角形を構成する辺のうち反射点2が対応する辺毎に単体物体として認識する。これにより、周囲環境に存在する物体の位置を正しく認識することができる。
また、第2実施形態の物体認識装置200によれば、単体物体として認識する辺は、対応する反射点2の数に応じて決定される。これにより、例えば、センサ1に近く、センサ1から出力されたレーザー光をより多く反射する物体を優先して単体物体として認識することができる。
<第3実施形態>
以下では、本発明の第3実施形態に係る物体認識装置300について説明する。
図9は、本実施形態に係る物体認識装置300の構成例を示すブロック図である。物体認識装置300は、カメラ3と、属性判定部32と、情報統合部33とをさらに備える点が、第2実施形態の物体認識装置200と相違する。以下、第2実施形態との相違点を中心に説明する。
カメラ3は、後述する属性判定部32において周囲環境に存在する物体の属性を判別するために用いられる情報を取得する属性判別元情報取得部として機能する。ここでの属性とは、例えば、人(歩行者)、車、ガードレール、植え込み等、主に物体の形状から同定される当該物体の性質を表す情報である。カメラ3は、周囲環境を撮像して、撮像した映像データ(カメラ画像)を属性判別元情報として属性判定部32に提供する。なお、属性判別元情報取得部として採用される構成は、カメラ3に限定されない。属性判別元情報取得部は、後段の処理によって属性を判別可能な情報を取得できる他のセンサであってもよい。
属性判定部32は、カメラ3が取得したカメラ画像に基づいて周囲に存在する物体(周囲物体)の属性を物体毎に判別して、判別した属性を当該周囲物体に付与する。
情報統合部33は、属性判定部32によって属性が付与された周囲物体と、センサ1を用いて検出された物体に関する情報とを統合する。これら各機能部が実行する処理の詳細について、図10、11を参照して説明する。
まず、センサ1及びカメラ3がそれぞれ取得した物体に関する情報の統合が行われる場面について、図10を参照して説明する。図10は、第3実施形態にかかるセンサ1及びカメラ3が周囲に存在する物体に関する情報を取得する方法を説明する図である。
まず、センサ1が周囲に存在する物体に関する情報を取得する方法は、第1実施形態において図2を参照して説明した方法と同様である。すなわち、センサ1は、センサ1を起点に広がる扇型のセンサ視野角内に存在する物体のセンサ1側の側面の位置に対応する点群を取得する。そして、センサ1が取得した点群は、多角形近似を経て、単体物体、又は、物体分割によって切り出された複数の矩形物体として特定される。
カメラ3は、図示するように、センサ1と同一方向に係る周囲環境の映像を取得するように構成される。すなわち、図10に示す場面によれば、カメラ3は、センサ1が取得した点群が示す物体と同様の物体、すなわち植え込み30の側面と、駐車車両20の後端とを含むカメラ画像を周囲に存在する物体に関する情報として取得する。
図11は、本実施形態の物体認識装置300による物体認識方法を説明するフローチャートである。当該フローチャートで説明する処理は、物体認識装置300が起動している間、一定の間隔で常時実行されるようにコントローラ10にプログラムされている。なお、ステップS301からステップS303が追加されている点が、図7を参照して上述した第2実施形態の物体認識方法と相違する。以下、第2実施形態との相違点を中心に説明し、第2実施形態と同様のステップについての説明は割愛する。
ステップS301では、コントローラ10は、カメラ3が取得した画像に基づいて周囲物体の属性を判別する。
ステップS302では、コントローラ10は、センサ1が取得した物体に関する情報と、カメラ3が取得した物体に関する情報とが整合するか否かを判定する。本実施形態では、物体に関する情報の一致度に基づいてこれら情報の整合を判定する。
一致度は、例えば、センサ1が検出した物体と、カメラ3が検出した物体との位置関係に基づいて算出されてよい。具体的には、例えば、センサ1から周囲に存在する物体までの距離を検出するとともに、カメラ3から周囲に存在する物体までの距離を検出して、各物体と、センサ1およびカメラ3までの距離の差分に基づいて一致度を算出してもよい。距離が近ければ近いほど、センサ1およびカメラ3がそれぞれ検出した物体の一致度が高いと判定することができる。そして、算出した一致度が予め定めた閾値を超える場合に、これら各物体に関する情報は整合すると判定される。このような算出方法に加えて、あるいは代えて、他の算出方法を採用してもよい。一致度の他の算出方法について、図12を参照して説明する。
図12は、センサ1が取得した物体に関する情報と、カメラ3が取得した物体に関する情報とが整合するか否かを判定する方法を説明する図である。
まず、カメラ3が取得したカメラ画像において、カメラ画像内の物体の占有枠(画像内の物体外形を囲う枠)を抽出する。例えば、カメラ3が取得した画像内に図10で示す駐車車両20が映っていた場合には、駐車車両20を後方から撮像した際に映る駐車車両20の占有枠として、駐車車両20の後端面の外形に略一致する図形Bが抽出される。また、当該図形Bには、ステップS302で判別された属性「車」が付与される。
一方、センサ1が取得した点群に基づいて生成された物体に関する情報からは、水平方向から見た当該物体の外形を示す長方形状の投影枠として図形Aが抽出される。具体的には、センサ1が取得した点群が示す物体が単体物体であれば、ステップS103において多角形近似された近似矩形をカメラ画像に投影して2次元化することにより投影枠としての図形Aを生成する。また、センサ1が取得した点群が示す物体が複数物体であれば、物体分割によって切り出された矩形物体をカメラ画像に投影して2次元化することにより図形Aを生成する。なお、図形Aは、カメラ画像内において、センサ1が取得した点群の位置および大きさと略一致する位置および大きさに投影される。ただし、図形Aの元となる近似多角形は2次元平面に投影して生成された情報なので、図形Aの高さに関する情報は含まれていない。従って、図形Aの高さ方向の大きさについては道路上に存在する物体として適当な一定値が設定される。このようにして、図形Bが抽出されたカメラ画像内に、センサ1が取得した点群に基づいて生成された図形Aが投影される。
そして、カメラ画像内において、撮像された周囲物体の占有枠としての図形Bと、点群に基づいて生成された近似多角形又は切出された矩形物体の投影枠としての図形Aとの共有範囲(一致範囲)を算出する。そして、算出された共有範囲が閾値以上である場合、すなわち、下記式(1)を満足する場合に、センサ1およびカメラ3がそれぞれ別個に取得した各物体は整合する(同一物体)と判定される。なお、閾値は、各物体の整合性を信頼できる値として、採用されるセンサ1及びカメラ3の性能等を考慮して適宜設定される。
Figure 0007226565000001
ステップS301において、センサ1が取得した物体に関する情報と、カメラ3が取得した物体に関する情報とが整合すると判定され、これら物体が同一物体であると判断されると、続くステップS302の処理が実行される。上記式(1)を満足せず、センサ1が取得した物体に関する情報と、カメラ3が取得した物体に関する情報とが整合しない場合には、本フローの1サイクルを終了して、ステップS101からの処理が繰り返し実行される。
ステップS302では、コントローラ10は、センサ1が取得した物体に関する情報と、当該物体と整合すると判定されたカメラ画像内の物体に関する情報とを統合する。これにより、センサ1が取得した物体に、カメラ3が取得した情報に基づいて判別された属性が付与される。この結果、センサ1が取得した物体に関する情報の情報量、正確性、および信頼性を向上させることができる。
以上、第3実施形態の物体認識装置300によれば、センサ1とは異なる認識手段(カメラ3)を用いて、周囲に存在する物体を認識するとともに当該物体の属性を判別し、センサ1を用いて認識された複数物体又は単体物体と、カメラ3を用いて認識された物体とが整合するか否か判定し、複数物体又は単体物体と、認識手段を用いて認識された物体とが整合すると判定された場合に、複数物体又は前記単体物体に属性を付与する。これにより、センサ1が取得した物体に関する情報だけでは属性不明であった物体に属性を付与することができる。また、複数で同一の物体を認識し且つそれらの整合を判定した上で属性が付与されているので、センサ1が取得した物体に関する情報の信頼性を向上させることができる。
また、第3実施形態の物体認識装置300によれば、センサ1から周囲に存在する物体までの距離を検出し、カメラ3から周囲に存在する物体までの距離を検出し、センサ1から物体までの距離と、カメラ3から物体までの距離とに基づいて、センサ1を用いて認識された複数物体又は単体物体と、カメラ3を用いて認識された物体とが整合するか否かを判定する。これにより、センサ1が検出した物体と、カメラ3が検出した物体との位置関係に基づいて、各物体が整合するか否かを判定することができる。
また、第3実施形態の物体認識装置300によれば、カメラ3は、周囲に存在する物体を含む画像を取得し、センサ1を用いて認識された複数物体又は単体物体を画像に投影し、画像に含まれる物体と、当該画像に投影された複数物体又は単体物体との共有範囲を算出し、算出された共有範囲に基づいて、センサ1を用いて認識された複数物体又は単体物体と、カメラ3を用いて認識された物体とが整合するか否かを判定する。これにより、センサ1が検出した物体と、カメラ3が検出した物体の面あるいは空間における共有範囲に基づいて、各物体が整合するか否かを判定することができる。その結果、互いに同一物体である可能性が高い物体に対してのみ情報を統合することができる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。また、上記実施形態は、矛盾が生じない範囲で適宜組み合わせ可能である。

Claims (9)

  1. 周囲に存在する物体の位置を上面視において複数の検出点から構成される点群として取得するセンサを用いた物体認識方法であって、
    近接度合いに応じて前記点群をグルーピングし、
    グルーピングされた前記点群を多角形近似した際に、
    前記グルーピングされた点群を構成する少なくとも一部の前記検出点が、前記センサに対して前記点群を多角形近似した際の近似多角形の死角に位置するか否かを判定し、
    前記検出点が前記センサに対して死角に位置すると判定した場合には、前記グルーピングされた点群は複数物体に対応した点群であると認識し、前記検出点が前記センサに対して死角に位置しないと判定した場合には、前記グルーピングされた点群は前記近似多角形の単体物体に対応した点群であると認識する、
    物体認識方法。
  2. 請求項1に記載の物体認識方法であって、
    前記物体が前記複数物体と認識された場合には、前記近似多角形を構成する辺のうち少なくとも一つの辺である特定辺に対応する前記検出点を、前記単体物体に対応する検出点として認識する、
    物体認識方法。
  3. 請求項2に記載の物体認識方法であって、
    前記特定辺は、対応する前記検出点の数に応じて決定される、
    物体認識方法。
  4. 請求項1から3のいずれか一項に記載の物体認識方法であって、
    前記近似多角形を構成する辺のうち最も短い辺の長さが予め定めた所定の長さより長い場合に、前記点群を構成する少なくとも一部の前記検出点が前記センサに対して前記近似多角形の死角に位置するか否かを判定する、
    物体認識方法。
  5. 請求項1から4のいずれか一項に記載の物体認識方法であって、
    周囲に存在する物体の位置を時系列的に計測し、
    時系列的に計測された前記物体の属性を判別し、
    グルーピングされた前記点群が、前記属性が判別されなかった前記物体に対応する場合に、当該点群を構成する少なくとも一部の前記検出点が前記センサに対して前記近似多角形の死角に位置するか否かを判定する、
    物体認識方法。
  6. 請求項1から5のいずれか一項に記載の物体認識方法であって、
    前記センサとは異なる認識手段を用いて、周囲に存在する物体を認識するとともに当該物体の属性を判別し、
    前記センサを用いて認識された前記複数物体又は前記単体物体と、前記認識手段を用いて認識された前記物体とが整合するか否か判定し、
    前記複数物体又は前記単体物体と、前記認識手段を用いて認識された前記物体とが整合すると判定された場合に、前記センサを用いて認識された前記複数物体又は前記単体物体に前記属性を付与する、
    物体認識方法。
  7. 請求項6に記載の物体認識方法であって、
    前記センサから周囲に存在する物体までの距離を検出し、
    前記認識手段から周囲に存在する物体までの距離を検出し、
    前記センサから前記物体までの距離と、前記認識手段から前記物体までの距離とに基づいて、前記センサを用いて認識された前記複数物体又は前記単体物体と、前記認識手段を用いて認識された前記物体とが同一物体であるか否かを判定する、
    物体認識方法。
  8. 請求項6または7に記載の物体認識方法であって、
    前記認識手段は、周囲に存在する前記物体を含む画像を取得し、
    前記センサを用いて認識された前記複数物体又は前記単体物体を前記画像に投影し、
    前記画像上における前記物体が占める領域である占有領域と、当該画像上に投影された前記複数物体又は前記単体物体が占める領域である投影領域との一致範囲を算出し、
    算出された前記一致範囲に基づいて、前記センサを用いて認識された前記複数物体又は前記単体物体と、前記認識手段を用いて認識された前記物体と同一物体であるか否かを判定する、
    物体認識方法。
  9. 周囲に存在する物体の位置を上面視において複数の検出点から構成される点群として取得するセンサと、当該センサが取得した前記点群を処理するコントローラとを備える物体認識装置であって、
    前記コントローラは、
    近接度合いに応じて前記点群をグルーピングし、
    グルーピングされた前記点群を多角形近似した際に、
    前記グルーピングされた点群を構成する少なくとも一部の前記検出点が、前記センサに対して前記点群を多角形近似した際の近似多角形の死角に位置するか否かを判定し、
    前記検出点が前記センサに対して死角に位置すると判定した場合には、前記グルーピングされた点群は複数物体に対応した点群であると認識し、前記検出点が前記センサに対して死角に位置しないと判定した場合には、前記グルーピングされた点群は前記近似多角形の単体物体に対応した点群であると認識する、
    物体認識装置。
JP2021542287A 2019-08-28 2019-08-28 物体認識方法、及び、物体認識装置 Active JP7226565B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2019/001359 WO2021038267A1 (ja) 2019-08-28 2019-08-28 物体認識方法、及び、物体認識装置

Publications (2)

Publication Number Publication Date
JPWO2021038267A1 JPWO2021038267A1 (ja) 2021-03-04
JP7226565B2 true JP7226565B2 (ja) 2023-02-21

Family

ID=74683849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021542287A Active JP7226565B2 (ja) 2019-08-28 2019-08-28 物体認識方法、及び、物体認識装置

Country Status (5)

Country Link
US (1) US11861914B2 (ja)
EP (1) EP4024330B1 (ja)
JP (1) JP7226565B2 (ja)
CN (1) CN114467111B (ja)
WO (1) WO2021038267A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020215960A1 (de) * 2020-01-31 2021-08-05 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Anordnung zum Ermitteln einer Position eines Objekts
US20230221408A1 (en) * 2022-01-11 2023-07-13 Gm Cruise Holdings Llc Radar multipath filter with track priors

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005009881A (ja) 2003-06-16 2005-01-13 Nissan Motor Co Ltd 前方物体位置検出装置
JP2012173230A (ja) 2011-02-24 2012-09-10 Daihatsu Motor Co Ltd 物体認識装置
JP2013041315A (ja) 2011-08-11 2013-02-28 Fujitsu Ltd 画像認識装置および画像認識方法
JP2016148514A (ja) 2015-02-10 2016-08-18 国立大学法人金沢大学 移動物体追跡方法および移動物体追跡装置
JP2017222309A (ja) 2016-06-17 2017-12-21 日産自動車株式会社 駐車支援方法および装置
JP2018092603A (ja) 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3315054B2 (ja) 1997-04-04 2002-08-19 富士重工業株式会社 車外監視装置
US8208495B2 (en) * 2006-07-26 2012-06-26 Qualcomm Incorporated Data transmission with supplemental resources
CA2678156C (en) * 2007-02-16 2013-10-08 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
EP2597954A4 (en) * 2010-07-09 2014-01-01 Teva Pharma DEUTERATED N-ETHYL-N-PHENYL-1,2-DIHYDRO-4-HYDROXY-5-CHLORO-1-METHYL-2-OXOCHINOLINE-3-CARBOXAMIDE, SALT THEREOF AND APPLICATIONS THEREOF
JP4940461B2 (ja) * 2010-07-27 2012-05-30 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP2014168551A (ja) * 2013-03-01 2014-09-18 Daiichi Shokai Co Ltd 遊技機
JP6685836B2 (ja) * 2016-05-30 2020-04-22 株式会社東芝 情報処理装置、および、情報処理方法
EP3330893A1 (en) 2016-11-30 2018-06-06 Ricoh Company Ltd. Information processing device, information processing method, and carrier means

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005009881A (ja) 2003-06-16 2005-01-13 Nissan Motor Co Ltd 前方物体位置検出装置
JP2012173230A (ja) 2011-02-24 2012-09-10 Daihatsu Motor Co Ltd 物体認識装置
JP2013041315A (ja) 2011-08-11 2013-02-28 Fujitsu Ltd 画像認識装置および画像認識方法
JP2016148514A (ja) 2015-02-10 2016-08-18 国立大学法人金沢大学 移動物体追跡方法および移動物体追跡装置
JP2017222309A (ja) 2016-06-17 2017-12-21 日産自動車株式会社 駐車支援方法および装置
JP2018092603A (ja) 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Also Published As

Publication number Publication date
EP4024330A1 (en) 2022-07-06
EP4024330A4 (en) 2022-09-07
CN114467111A (zh) 2022-05-10
US11861914B2 (en) 2024-01-02
CN114467111B (zh) 2023-08-22
EP4024330B1 (en) 2023-08-09
US20220270375A1 (en) 2022-08-25
JPWO2021038267A1 (ja) 2021-03-04
WO2021038267A1 (ja) 2021-03-04

Similar Documents

Publication Publication Date Title
CN111753609B (zh) 一种目标识别的方法、装置及摄像机
CN112513679B (zh) 一种目标识别的方法和装置
JP5145986B2 (ja) 物体検出装置及び測距方法
CN111712731A (zh) 目标检测方法、系统及可移动平台
CN110555407B (zh) 路面车辆空间识别方法及电子设备
US20140347484A1 (en) Apparatus and method for providing surrounding environment information of vehicle
EP3324359B1 (en) Image processing device and image processing method
WO2022198637A1 (zh) 点云滤噪方法、系统和可移动平台
WO2020127151A1 (en) Method for improved object detection
JP2001052171A (ja) 周囲環境認識装置
JP7226565B2 (ja) 物体認識方法、及び、物体認識装置
JP7036464B2 (ja) 物体識別装置、物体識別方法、及び制御プログラム
Berriel et al. A particle filter-based lane marker tracking approach using a cubic spline model
CN118372820A (zh) 基于机器视觉的汽车防碰撞预警方法、系统、装置及介质
US9183748B2 (en) Apparatus for determining available parking space and method thereof
US11933884B2 (en) Radar image processing device, radar image processing method, and storage medium
JP4102885B2 (ja) 駐車車両検知方法及び駐車車両検知システム
JP2007233440A (ja) 車載用画像処理装置
JP3740531B2 (ja) 駐車車両検知方法、検知システム及び駐車車両検出装置
CN119156548A (zh) 一种点云评估方法及装置
JP7589086B2 (ja) 情報処理装置、車両、路側機、および情報処理方法
RU2779522C1 (ru) Способ распознавания объектов и устройство распознавания объектов
CN115588042A (zh) 基于事件相机和激光雷达的运动检测方法、装置及设备
JPH10232936A (ja) 物体認識方法およびその装置
WO2024142571A1 (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R151 Written notification of patent or utility model registration

Ref document number: 7226565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151