[go: up one dir, main page]

JP7217741B2 - 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具 - Google Patents

演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具 Download PDF

Info

Publication number
JP7217741B2
JP7217741B2 JP2020512307A JP2020512307A JP7217741B2 JP 7217741 B2 JP7217741 B2 JP 7217741B2 JP 2020512307 A JP2020512307 A JP 2020512307A JP 2020512307 A JP2020512307 A JP 2020512307A JP 7217741 B2 JP7217741 B2 JP 7217741B2
Authority
JP
Japan
Prior art keywords
dimensional
image data
point cloud
object identification
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020512307A
Other languages
English (en)
Other versions
JPWO2019194255A1 (ja
Inventor
健佑 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of JPWO2019194255A1 publication Critical patent/JPWO2019194255A1/ja
Application granted granted Critical
Publication of JP7217741B2 publication Critical patent/JP7217741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Description

本発明は、オブジェクト識別システムに関する。
自動車のセンサとして、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、カメラ、ミリ波レーダ、超音波ソナーなどが候補として挙げられる。このなかでLiDARは、そのほかのセンサと比較して、(i)点群データによる物体認識が可能であること、(ii)アクティブセンシングであるが故の悪天候時にも高精度な検出が可能であること、(iii)広範囲の測定が可能であること、などの利点を有しており、今後、自動車のセンシングシステムにおける主流となることが期待されている。
特開2017-56935号公報 特開2009-98023号公報
オブジェクトの検出方法として、オブジェクトのカテゴリ(種類)ごとに特徴量を規定しておき、パターンマッチングによりオブジェクトの位置およびカテゴリを判定する方法が考えられる。しかしながら、この方法では、カテゴリごとに適切な特徴量の設計は容易ではない。
本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、オブジェクトを識別可能な演算処理装置、オブジェクト識別システムおよびオブジェクトの種類の識別方法の提供にある。
本発明のある態様は、オブジェクトの識別方法あるいはシステムに関する。この方法/システムでは、3次元センサにより取得された点群データが、距離を画素値とする2次元の画像データに変換される。そしてこの画像データを畳み込みニューラルネットワークなどの分類器に入力することにより、点群データに含まれるオブジェクトの位置およびカテゴリを判定する。
本発明によれば、オブジェクトを識別できる。
実施の形態に係るオブジェクト識別システムを示す図である。 図2(a)、(b)は、3次元センサが生成する点群データを説明する図である。 図3(a)、(b)は、点群データと画像データの関係を説明する図である。 点群データから画像データへのマッピングを説明する図である。 図5(a)、(b)は、代表的な2つのシーンを示す図である。 学習に対する損失の推移を示す図である。 図7(a)~(e)は、いくつかの検証結果を示す図である。 オブジェクト識別システムを備える自動車のブロック図である。 オブジェクト識別システムを備える車両用灯具を示すブロック図である。 変形例5に係るオブジェクト識別システムを示す図である。 アスペクト比変換部によるアスペクト比の変換処理の一例を説明する図である。
(実施の形態の概要)
本明細書に開示される一実施の形態は、演算処理装置に関する。演算処理装置は、3次元センサにより取得された点群データを、距離を画素値とする2次元の画像データに変換する二次元変換部と、画像データを入力として受け、点群データに含まれるオブジェクトの位置およびカテゴリを判定する分類器を備える。
この実施の形態によれば、本来、分類器の処理対象ではない点群データ形式の3次元データを、2次元の画像データとして扱うことで、画像処理で実績のある分類器による処理が可能となる。また分類器を用いることで特徴量の設計が不要となる。
二次元変換部は、点群データに含まれる各点のユークリッド座標系で表される座標を、極座標系(r,θ,φ)に変換し、(θ,φ)を画素位置、距離rを画素値とする2次元の画像データに変換してもよい。
画像データを複数の領域に分割し、複数の領域を再配置することでアスペクト比を変化させてもよい。分類器の入力に適したアスペクト比と、もとの画像データのアスペクト比が異なっている場合に、アスペクト比を変換することで、演算効率を高めることができる。
(実施の形態)
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
図1は、実施の形態に係るオブジェクト識別システム10を示す図である。オブジェクト識別システム10は、3次元センサ20および演算処理装置40を備える。3次元センサ20は、LiDAR、ToF(Time Of Flight)カメラ、ステレオカメラなどであり、その周囲のオブジェクトOBJの表面を形成する点pの集合(点群)を記述する点群データD1を生成する。
図2(a)、(b)は、3次元センサ20が生成する点群データD1を説明する図である。図2(a)は、オブジェクトと点群の関係を示す斜視図であり、図2(b)は、点群を記述する点群データのデータ構造を表す。図2(a)に示すように、点群は複数n個の点p,p,…,pの集合であり、点群データは、複数の点p,p,…,pそれぞれのユークリッド座標系(x,y,z)の位置を示す3次元データを含む。i番目の点p(i=1,2,…,n)の座標を、(x,y,z)と表記する。なお、点の番号iは、3次元センサ20の種類やメーカによってさまざまであり、2次元で番号を付してもよい。
図1に戻る。演算処理装置40は、点群データD1にもとづいて、オブジェクトOBJの位置およびカテゴリ(種類、クラス)を判定する。たとえばオブジェクトのカテゴリは、歩行者、自転車、自動車、電柱などが例示される。歩行者について、前方から見た歩行者、後方から見た歩行者、側方から見た歩行者を、同じカテゴリとして定義してもよい。自動車、自転車も同様である。本実施の形態ではこの定義を採用する。
演算処理装置40は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置40は、複数のプロセッサの組み合わせであってもよい。
演算処理装置40は、二次元変換部42および畳み込みニューラルネットワーク44を備える。二次元変換部42および畳み込みニューラルネットワーク44は、必ずしもハードウェア的に独立していることを意味するものでなく、CPUなどのハードウェアがソフトウェアプログラムを実行することにより提供される機能を表してもよい。
二次元変換部42は、3次元センサ20により取得された点群データD1を、距離rを画素値とする2次元の画像データD2に変換する。距離rは、たとえば8ビット256階調で表してもよい。
畳み込みニューラルネットワーク44は、画像データD2を入力として受け、点群データD1に含まれるオブジェクトOBJの位置およびカテゴリを判定し、位置およびカテゴリごとの尤度(所属確率)を示す最終データD3を出力する分類器である。畳み込みニューラルネットワーク44は、機械学習によって生成された予測モデルにもとづいて実装される。
畳み込みニューラルネットワーク44については画像認識で広く用いられる公知技術を用いればよいため、詳細な説明は省略する。
図3(a)、(b)は、点群データD1と画像データD2の関係を説明する図である。図3(a)に示すように、点群データD1に含まれる各点pの座標は、ユークリッド座標系(x,y,z)で表される。二次元変換部42は、ユークリッド座標系(x,y,z)を極座標系(r、θ,φ)に変換する。rは動径、θは極角(天頂角)、φは方位角(偏角)である。そして、(θ,φ)を画素位置、距離rを画素値とする2次元の画像データD2に変換する。図2(b)には、点pがマッピングされる様子を示す。
図4は、点群データから画像データへのマッピングを説明する図である。点群データに含まれるすべての点(この例ではp~p19)が、2次元のデータ構造にマッピングされ、画像データD2が生成される。マッピングすべき点pが存在しない画素には、画素値として、最大値(あるいは0、あるいは負の値)をマッピングしてもよい。
以上がオブジェクト識別システム10の構成である。続いて演算処理装置40による物体認識について検証した結果を説明する。
検証は、3次元センサ20が生成する点群データD1を用いずに、3Dコンピュータグラフィックスを用いて生成した距離データを用いて行った。カテゴリは、車、トラック、歩行者、バイク、自転車の5つとした。距離データは、300×300ピクセルの2次元データであり、上述の画像データD2に対応しており、画素値は距離である。
図5(a)、(b)は、代表的な2つのシーンを示す図である。図5(a)のシーンは高速道路であり、2台のトラックと、2台のバイクが前方に位置している。図5(b)のシーンは市街地であり、2人の歩行者と、3台の自動車、1台のバイクが前方に位置している。各図の上段は、距離データを、下段は、2次元平面に投影したカメラ画像を表す。
畳み込みニューラルネットワーク44としては、物体の重なりに強く、また小さな物体の検出も可能なSSD(Single Shot MultiBox Detector)を用いた。SSDは複数の畳み込み層より構成されるニューラルネットワークであり、サイズの異なる6つの畳み込み層が、物体の位置と各カテゴリの尤度を出力する。これらの6つの層から得られる出力は複数個となるが、Non-Maximum Suppressionと称される出力層によって物体領域の重なりが大きい推定結果を統合して、最終的な出力を得る。
畳み込みニューラルネットワーク44の学習に関して、教師データの収集には、先進運転支援システム(ADAS)開発支援ツールとして市販されるシミュレーションソフトPreScanを利用した。教師データは2次元構造の距離データとそのデータに対する物体の位置およびカテゴリが記されたアノテーションデータのセットである。なお2次元構造の距離データは、オブジェクト識別システム10に使用される3次元センサ20と同じものを用いることが望ましいが、ここでは仮想的なDepthカメラを用いることとした。最終的に作成した教師データの数は713個である。
713個の教師データのうち、8割の571個を学習に使用し、残りを検証に使用し多。学習回数は50エポック、バッチサイズは4に設定している。図6は、学習に対する損失の推移を示す図である。
図7(a)~(e)は、いくつかの検証結果を示す図である。バウンディングボックスは、検出されたオブジェクトの位置を表しており、カテゴリと尤度があわせて示される。いくつかの取りこぼしは見られるが、歩行者やトラック、自動車、オートバイを正しく検出できていることが分かる。
オブジェクト識別システム10では、画像データを対象とする畳み込みニューラルネットワークを2次元の距離データに転用することで、位置検出およびカテゴリの識別が可能となる。このオブジェクト識別システム10では、点群データをオブジェクトごとに分割するクラスタリング処理が不要であるという利点もある。
図8は、オブジェクト識別システム10を備える自動車のブロック図である。自動車100は、前照灯102L,102Rを備える。オブジェクト識別システム10のうち、少なくとも3次元センサ20は、前照灯102L,102Rの少なくとも一方に内蔵される。前照灯102は、車体の最も先端に位置しており、周囲のオブジェクトを検出する上で、3次元センサ20の設置箇所として最も有利である。演算処理装置40については、前照灯102に内蔵してもよいし、車両側に設けてもよい。たとえば演算処理装置40のうち、中間データの生成は前照灯102の内部で行い、最終データの生成は車両側に委ねてもよい。
図9は、オブジェクト識別システム10を備える車両用灯具200を示すブロック図である。車両用灯具200は、光源202、点灯回路204、光学系206を備える。さらに車両用灯具200には、3次元センサ20および演算処理装置40が設けられる。演算処理装置40が検出したオブジェクトOBJに関する情報は、車両ECU104に送信される。車両ECUは、この情報にもとづいて、自動運転を行ってもよい。
また、演算処理装置40が検出したオブジェクトOBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具ECU208は、演算処理装置40が生成するオブジェクトOBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路204および光学系206は、灯具ECU208が生成した配光パターンが得られるように動作する。
以上、本発明について、実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、こうした変形例について説明する。
(変形例1)
実施の形態では、3次元の点群データを極座標系(r,θ,φ)に変換し、(θ,φ)を画素位置、距離rを画素値とする2次元の画像データに変換したがその限りでなく、画像データD2への変換に関して、いくつかの変形例がある。
たとえば、3次元の点群データに含まれる各点を、ユークリッド座標系から円筒座標系(r,z,φ)に変換し、(z,φ)を画素位置、rを画素値としてもよい。
また3次元の点群データに含まれる各点を、2次元の平面に投影し、距離rを画素値としてもよい。投影方法としては、透視投影や平行投影を用いることができる。
(変形例2)
オブジェクトを、それを望む方向ごとに異なるカテゴリとして定義してもよい。つまり、あるオブジェクトが、自車と正対しているときと、そうでないときとで、別のカテゴリと定義してもよい。これは、オブジェクトOBJの移動方向の推定に役立つ。
(変形例3)
演算処理装置40は、FPGAや専用のASIC(Application Specific Integrated Circuit)などを用いてハードウェアのみで構成してもよい。
(変形例4)
実施の形態では、車載用のオブジェクト識別システム10を説明したが本発明の適用はその限りでなく、たとえば信号機や交通標識、そのほかの交通インフラに固定的に設置され、定点観測する用途にも適用可能である。
(変形例5)
図10は、変形例5に係るオブジェクト識別システム10Aを示す図である。画像認識による物体検出用に開発されている畳み込みニューラルネットワークの多くは、一般的な画像の解像度およびアスペクト比をサポートしており、想定するアスペクト比は、1:1あるいは4:3、あるいは16:9程度である。一方、低価格な3次元センサ20を用いた場合、仰俯角方向(高さ方向)の解像度が横方向の解像度に比べて極端に小さくなる場合がある。たとえば米国Quanergy Systems社が販売するLiDARであるQurnergy M8は360度スキャン横方向に10400の解像度を有するが、仰俯角方向の解像度はわずかに8であり、アスペクト比(10400:8)が極めて大きい。
そこで図10の演算処理装置40Aは、二次元変換部42によって得られる画像データD2のアスペクト比を変換するアスペクト比変換部46を含む。畳み込みニューラルネットワーク44には、アスペクト比が変換された画像データD2’が入力される。
図11は、アスペクト比変換部46によるアスペクト比の変換処理の一例を説明する図である。元の画像データD2は、複数の領域R1,R2に分割され、それらを再配置することでアスペクト比を変化させてもよい。
畳み込みニューラルネットワーク44の入力に適したアスペクト比と、もとの画像データD2のアスペクト比が異なっている場合に、アスペクト比を変換することで、演算効率を高めることができる。
(変形例6)
分類器のアルゴリズムは、YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)、R-CNN(Region-based Convolutional Neural Network)、SPPnet(Spatial Pyramid Pooling)、Faster R-CNN、DSSD(Deconvolution -SSD)、Mask R-CNNなどを採用することができ、あるいは、将来開発されるアルゴリズムを採用できる。あるいは、線形SVMなどを用いてもよい。
実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用の一側面を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
本発明は、オブジェクト識別システムに関する。
10…オブジェクト識別システム、20…3次元センサ、40…演算処理装置、42…二次元変換部、44…畳み込みニューラルネットワーク、D1…点群データ、D2…画像データ、100…自動車、102…前照灯、104…車両ECU、200…車両用灯具、202…光源、204…点灯回路、206…光学系、208…灯具ECU。

Claims (8)

  1. 3次元センサにより取得された点群データを、距離を画素値とする2次元の画像データに変換する二次元変換部と、
    前記画像データを入力として受け、前記点群データに含まれるオブジェクトの位置およびカテゴリを判定する分類器と、
    を備え、
    前記画像データを複数の領域に分割し、再配置することでアスペクト比を変化させることを特徴とする演算処理装置。
  2. 前記二次元変換部は、前記点群データに含まれる各点のユークリッド座標系の座標を、極座標系(r、θ,φ)に変換し、(θ,φ)を画素位置、距離rを画素値とする2次元の前記画像データに変換することを特徴とする請求項1に記載の演算処理装置。
  3. 3次元センサと、
    請求項1または2に記載の演算処理装置と、
    を備えることを特徴とするオブジェクト識別システム。
  4. 請求項に記載のオブジェクト識別システムを備えることを特徴とする自動車。
  5. 前記3次元センサは、前照灯に内蔵されることを特徴とする請求項に記載の自動車。
  6. 請求項に記載のオブジェクト識別システムを備えることを特徴とする車両用灯具。
  7. 3次元センサにより点群データを生成するステップと、
    前記点群データを、距離を画素値とする2次元の画像データに変換するステップと、
    分類器に前記画像データを入力することにより、前記点群データに含まれるオブジェクトの位置およびカテゴリを判定するステップと、
    前記画像データを複数の領域に分割し、再配置することでアスペクト比を変化させるステップと、
    を備えることを特徴とするオブジェクト識別方法。
  8. 前記変換するステップは、
    ユークリッド座標系の3次元データの集合である前記点群データを、極座標系(r、θ,φ)に変換するステップと、
    (θ,φ)を画素位置、距離rを画素値とする2次元の前記画像データに変換するステップと、
    を含むことを特徴とする請求項に記載のオブジェクト識別方法。
JP2020512307A 2018-04-05 2019-04-03 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具 Active JP7217741B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018073353 2018-04-05
JP2018073353 2018-04-05
PCT/JP2019/014889 WO2019194255A1 (ja) 2018-04-05 2019-04-03 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具

Publications (2)

Publication Number Publication Date
JPWO2019194255A1 JPWO2019194255A1 (ja) 2021-04-22
JP7217741B2 true JP7217741B2 (ja) 2023-02-03

Family

ID=68100562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020512307A Active JP7217741B2 (ja) 2018-04-05 2019-04-03 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具

Country Status (5)

Country Link
US (1) US11341604B2 (ja)
EP (1) EP3779871A4 (ja)
JP (1) JP7217741B2 (ja)
CN (1) CN111989709B (ja)
WO (1) WO2019194255A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147706B (zh) * 2018-10-24 2022-04-12 腾讯科技(深圳)有限公司 障碍物的识别方法和装置、存储介质、电子装置
US11100702B2 (en) * 2019-12-27 2021-08-24 Industrial Technology Research Institute 3D image labeling method based on labeling information of 2D image and 3D image labeling device
CN111612689B (zh) * 2020-05-28 2024-04-05 上海联影医疗科技股份有限公司 医学图像处理方法、装置、计算机设备和可读存储介质
US20240087105A1 (en) 2021-01-26 2024-03-14 Abb Schweiz Ag Systems and Methods for Paint Defect Detection Using Machine Learning
CN113436273A (zh) * 2021-06-28 2021-09-24 南京冲浪智行科技有限公司 一种3d场景定标方法、定标装置及其定标应用
TWI769915B (zh) 2021-08-26 2022-07-01 財團法人工業技術研究院 投射系統及應用其之投射校準方法
CN114076595B (zh) * 2022-01-19 2022-04-29 浙江吉利控股集团有限公司 道路高精度地图生成方法、装置、设备及存储介质
CN114966651A (zh) * 2022-05-19 2022-08-30 安徽蔚来智驾科技有限公司 可行驶区域检测方法、计算机设备、存储介质及车辆
TWI843251B (zh) 2022-10-25 2024-05-21 財團法人工業技術研究院 目標追蹤系統及應用其之目標追蹤方法
CN119291715A (zh) * 2024-12-11 2025-01-10 常州星宇车灯股份有限公司 基于车载激光雷达道路异常检测与车灯交互方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362469A (ja) 2003-06-06 2004-12-24 Softopia Japan Foundation アクティブセンサの動物体検出装置及び動物体検出方法、並びに動物体検出プログラム
JP2009516278A (ja) 2005-11-18 2009-04-16 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 光学式レインセンサが組み込まれているヘッドライトモジュール
JP2013067343A (ja) 2011-09-26 2013-04-18 Koito Mfg Co Ltd 車両用配光制御システム
JP2017138660A (ja) 2016-02-01 2017-08-10 トヨタ自動車株式会社 物体検出方法、物体検出装置、およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3761559B1 (ja) * 2004-10-05 2006-03-29 株式会社ソニー・コンピュータエンタテインメント 画像出力方法
JP2009098023A (ja) 2007-10-17 2009-05-07 Toyota Motor Corp 物体検出装置及び物体検出方法
RU2009104869A (ru) * 2009-02-13 2010-08-20 Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет (R Способ распознавания трехмерных объектов по единственному двумерному изображению и устройство для его реализации
CN102542260A (zh) * 2011-12-30 2012-07-04 中南大学 一种面向无人驾驶车的道路交通标志识别方法
JP6250575B2 (ja) * 2015-03-06 2017-12-20 富士フイルム株式会社 バックライトユニットおよび画像表示装置
DE102015007172A1 (de) * 2015-06-03 2016-02-18 Daimler Ag Fahrzeugscheinwerfer und Fahrzeug
CN204978398U (zh) * 2015-07-21 2016-01-20 张进 汽车组合激光雷达前大灯及汽车
US9576185B1 (en) 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
WO2017067764A1 (en) * 2015-10-19 2017-04-27 Philips Lighting Holding B.V. Harmonized light effect control across lighting system installations
US11094208B2 (en) * 2016-09-30 2021-08-17 The Boeing Company Stereo camera system for collision avoidance during aircraft surface operations
CN206690990U (zh) * 2017-03-07 2017-12-01 广州法锐科技有限公司 一种汽车用组合式激光雷达前照灯
CN107180409B (zh) * 2017-03-31 2021-06-25 河海大学 一种针对弯曲骨架型对象三维点云的广义圆柱投影方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362469A (ja) 2003-06-06 2004-12-24 Softopia Japan Foundation アクティブセンサの動物体検出装置及び動物体検出方法、並びに動物体検出プログラム
JP2009516278A (ja) 2005-11-18 2009-04-16 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 光学式レインセンサが組み込まれているヘッドライトモジュール
JP2013067343A (ja) 2011-09-26 2013-04-18 Koito Mfg Co Ltd 車両用配光制御システム
JP2017138660A (ja) 2016-02-01 2017-08-10 トヨタ自動車株式会社 物体検出方法、物体検出装置、およびプログラム

Also Published As

Publication number Publication date
EP3779871A1 (en) 2021-02-17
CN111989709B (zh) 2024-07-02
US11341604B2 (en) 2022-05-24
WO2019194255A1 (ja) 2019-10-10
CN111989709A (zh) 2020-11-24
JPWO2019194255A1 (ja) 2021-04-22
US20210019860A1 (en) 2021-01-21
EP3779871A4 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
JP7217741B2 (ja) 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具
El Madawi et al. Rgb and lidar fusion based 3d semantic segmentation for autonomous driving
US20200282929A1 (en) Sensor validation using semantic segmentation information
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
US10657392B2 (en) Object detection device, object detection method, and program
JP2020057387A (ja) 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体
WO2009130827A1 (ja) 車両周辺監視装置
JP4486997B2 (ja) 車両周辺監視装置
CN115372990A (zh) 一种高精度语义地图的建图方法、装置和无人车
CN114398937A (zh) 一种基于混合注意力机制的图像-激光雷达数据融合方法
KR102683455B1 (ko) 라이다 데이터의 다중 좌표계 특징을 사용한 객체 검출 시스템 및 방법
JP2017181476A (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
CN112528918A (zh) 道路元素识别方法、地图标注方法及装置、车辆
CN111033316B (zh) 识别传感器及其控制方法、汽车、车辆用灯具、对象识别系统、对象的识别方法
US11899101B2 (en) Predicting the course of a road on the basis of radar data
JP6939198B2 (ja) 物体検出方法及び物体検出装置
CN111833443B (zh) 自主机器应用中的地标位置重建
JP6458577B2 (ja) 画像測距装置
WO2019198789A1 (ja) オブジェクト識別システム、自動車、車両用灯具、オブジェクトのクラスタリング方法
Madawy et al. Rgb and lidar fusion based 3d semantic segmentation for autonomous driving
US20210342599A1 (en) Register sets of low-level features without data association
US11915436B1 (en) System for aligning sensor data with maps comprising covariances
JP7288460B2 (ja) 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
US12165394B2 (en) Method and processing unit for processing sensor data of several different sensors with an artificial neural network in a vehicle
CN117148328A (zh) 一种基于超声波传感器的障碍物识别仿真方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230124

R150 Certificate of patent or registration of utility model

Ref document number: 7217741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150