[go: up one dir, main page]

JP2018092596A - 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム - Google Patents

情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2018092596A
JP2018092596A JP2017171243A JP2017171243A JP2018092596A JP 2018092596 A JP2018092596 A JP 2018092596A JP 2017171243 A JP2017171243 A JP 2017171243A JP 2017171243 A JP2017171243 A JP 2017171243A JP 2018092596 A JP2018092596 A JP 2018092596A
Authority
JP
Japan
Prior art keywords
information
luminance
unit
parallax
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017171243A
Other languages
English (en)
Inventor
佑 山田
Yu Yamada
佑 山田
吉田 淳
Atsushi Yoshida
淳 吉田
陽一郎 大林
Yoichiro Obayashi
陽一郎 大林
久保園 浩喜
Hiroki Kubozono
浩喜 久保園
大輔 岡田
Daisuke Okada
大輔 岡田
真太郎 木田
Shintaro Kida
真太郎 木田
輔宏 木村
Sukehiro Kimura
輔宏 木村
旅人 鈴木
Tabito Suzuki
旅人 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to CN201780073834.7A priority Critical patent/CN110023953A/zh
Priority to EP17804000.2A priority patent/EP3549056B1/en
Priority to PCT/JP2017/039780 priority patent/WO2018100971A1/en
Priority to US16/347,938 priority patent/US11030761B2/en
Publication of JP2018092596A publication Critical patent/JP2018092596A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)

Abstract

【課題】オブジェクトの認識精度を向上させる。【解決手段】情報処理装置は画像解析ユニット108を備える。画像解析ユニット108は、所定の撮像範囲の画像情報において、撮像範囲内に存在するオブジェクトに対応するオブジェクト領域を設定するオブジェクト領域設定部55と、撮像範囲内の輝度を示す輝度情報を取得する輝度情報取得部52と、オブジェクト領域の下部に設定された輝度検出領域内の輝度情報に基づいてオブジェクト領域を補正する補正部56と、を備える。【選択図】図4

Description

本発明は、情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラムに関する。
従来、自動車の安全性において、歩行者と自動車とが衝突したときに、いかに歩行者を守れるか、および、乗員を保護できるかの観点から、自動車のボディー構造等の開発が行われてきた。しかしながら、近年、情報処理技術および画像処理技術の発達により、高速に人および自動車を検出する技術が開発されてきている。これらの技術を応用して、自動車が物体に衝突する前に自動的にブレーキをかけ、衝突を未然に防ぐという自動車もすでに開発されている。車両の自動制御には、人または他車等の物体までの距離を正確に測定する必要があり、そのためには、ミリ波レーダおよびレーザレーダによる測距、ならびに、ステレオカメラによる測距等が実用化されている。
ステレオカメラで測距する場合、左右のカメラで撮影された局所領域のズレ量(視差)に基づいて視差画像(距離画像)を生成し、衝突回避等の対象となるオブジェクトと自車との距離を測定することができる。このとき、同程度の距離を示す(同程度の視差値を有する)一群の画素を1つのオブジェクトとして検出するクラスタリング処理により、オブジェクトの位置、大きさ等を認識することができる。すなわち、視差または視差と同義に扱うことができる情報(例えばミリ波レーダ、レーザレーダ等を利用して取得される、距離に関する情報)に基づくクラスタリング処理により、距離画像(視差画像)または輝度画像においてオブジェクトに相当する領域が設定される。
例えば、自車両等から対象物体を検出する物体検出装置、および物体検出装置での検出結果に基づいて自車両と対象物体との衝突回避支援を行う運転支援装置において、対象物体の移動情報を高精度に得ることを目的として、所定の搭載位置から対象物体の位置を取得し、対象物体の位置周辺の路面上の特徴量に基づいて路面上に基準点を設定し、基準点を基準として対象物体の位置から対象物体の移動情報を算出する構成が開示されている(特許文献1)。
また、路面推定装置において、迅速性および精度を向上させることを目的として、カメラにより撮影された画像から自車両の前方の立体物を検出する立体物検出手段と、検出された立体物の下端位置を検出する下端位置検出手段と、検出された立体物の下端位置と自車両の基準位置とにより仮路面を算出する仮路面算出手段と、仮路面をもとに実路面を推定する実路面推定手段とを備え、立体物検出手段は、カメラにより撮影された画像において所定値以上の長さで上下方向に伸びる縦長エッジから立体物の縦長エッジを抽出し、下端位置検出手段は、抽出された立体物の縦長エッジの下端位置を検出し、仮路面算出手段は、検出された下端位置、自車両の基準位置、カメラから立体物までの距離、およびカメラの光軸から自車両のピッチ角を算出することにより仮路面を算出し、実路面推定手段は、算出されたピッチ角をもとに実路面を推定する構成が開示されている(特許文献2)。
上記のように、視差等の距離情報に基づいてオブジェクトを認識するシステムにおいて、オブジェクトの位置、大きさ等を示すオブジェクト領域を設定する際に、オブジェクトが存在する位置よりも低い位置に視差が検出されると、実際にはオブジェクトが存在しない領域を含むオブジェクト領域が設定される場合がある。例えば、自車両の前方を走行する車両(オブジェクト)が、路面に描かれた標識上を通過する際に、標識部分に視差が検出されると、車両の下方に存在する標識部分を含むようにオブジェクト領域が設定される場合がある。このような場合、実際のオブジェクト(車両)とシステム内でオブジェクトとして扱われるもの(車両および標識を含むもの)との間に誤差が生じ、測距、回避行動等の精度が低下する場合がある。例えば、オブジェクト領域内の視差の平均値に基づいて自車から前方の車両までの距離を算出する場合、オブジェクト領域が本来よりも広く設定されてしまうと、算出される距離は実際の距離より短くなる可能性がある。
本発明は、上記に鑑みてなされたものであって、オブジェクトの認識精度を向上させることを目的とする。
上述した課題を解決し、目的を達成するために、本発明の一形態である情報処理装置は、所定の撮像範囲の画像情報において、前記撮像範囲内に存在するオブジェクトに対応するオブジェクト領域を設定する設定部と、前記撮像範囲内の輝度を示す輝度情報を取得する輝度情報取得部と、前記オブジェクト領域の下部に設定された輝度検出領域内の前記輝度情報に基づいて前記オブジェクト領域を補正する補正部と、を備えることを特徴とする。
本発明によれば、オブジェクトの認識精度を向上させることが可能となる。
図1は、実施形態に係る機器制御システムの概略構成を示す図である。 図2は、実施形態に係る撮像ユニットおよび画像解析ユニットの概略構成を示す模式図である。 図3は、三角測量の原理を利用することで視差値から距離を算出する原理を説明するための図である。 図4は、実施形態に係る画像解析ユニットの機能的構成の例を示す図である。 図5は、輝度画像の例を示す図である。 図6は、図5に示す輝度画像に対応する視差画像の例を示す図である。 図7は、図6に示す視差画像に対応するVマップの例を示す図である。 図8は、図7に示すVマップを利用して路面の形状を検出する際の状態の例を示す図である。 図9は、図6に示す視差画像に対応するリアルUマップの例を示す図である。 図10は、図9に示すリアルUマップを利用してオブジェクト領域の左右の端部を設定する際の状態の例を示す図である。 図11は、図9に示すリアルUマップを利用してオブジェクト領域の上下の端部を設定する際の状態の例を示す図である。 図12は、輝度画像においてオブジェクト領域が仮に設定された状態の例を示す図である。 図13は、オブジェクト領域内に輝度検出領域が設定された状態の例を示す図である。 図14は、輝度検出領域内の輝度を検出し、オブジェクト領域の下端位置を補正する状態の例を示す図である。 図15は、実施形態に係るオブジェクト領域の補正処理の第1の例を示すフローチャートである。 図16は、実施形態に係るオブジェクト領域の補正処理の第2の例を示すフローチャートである。 図17は、輝度ヒストグラムの例を示す図である。 図18は、路面が本来の位置より低い位置にあると検出された場合のVマップの例を示す図である。 図19は、図18に示す路面の推定形状が補正される際のVマップの例を示す図である。
以下に、図面を参照しながら、本発明に係る情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラムの実施形態を詳細に説明する。以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。
<機器制御システムの概略構成>
図1は、実施形態に係る機器制御システム1の概略構成を示す図である。機器制御システム1は、移動体の一例としての自動車などの自車両100(機器)に搭載されており、撮像装置101、表示モニタ103、および走行制御ユニット104(機器制御部)を含む。機器制御システム1は、撮像装置101により撮像した自車両100前方の撮像データに基づいて自車両100前方の路面および検出対象となるオブジェクトを認識し、認識された情報の解析結果に基づいて走行制御ユニット104により自車両100の走行状態等を制御する。ここでのオブジェクトとは、衝突回避等の対象となる物体であり、例えば、車両(自動車、オートバイ、自転車等)、人、動物、構造物(ガードレール、電柱、縁石、分岐ブロック、落下物等)等であり得る。なお、本実施形態の機器制御システム1は、自動車だけでなく、航空機やロボット等の移動体、その他機器にも適用可能である。
撮像装置101は、撮像ユニット107および画像解析ユニット108(情報処理装置)を含む。撮像ユニット107は、1つの被写体に対して複数の撮像データ(輝度情報)を取得するユニットであり、例えばステレオカメラ等である。撮像ユニット107は、例えば自車両100のフロントガラス105の上部(例えばルームミラー付近)に設置される。撮像ユニット107の撮像によって得られる撮像データ等の各種データは、画像解析ユニット108に入力される。画像解析ユニット108は、撮像ユニット107から送信されてくるデータを解析し、自車両100が走行している路面の3次元形状を示す情報、オブジェクトの位置、大きさ、形状等を示す情報等を含む解析結果を生成する。画像解析ユニット108の解析結果は、表示モニタ103および走行制御ユニット104に送られる。表示モニタ103は、撮像装置101で得られた撮像データ、解析結果、およびこれらに関連する情報を表示する。走行制御ユニット104は、画像解析ユニット108による解析結果に基づいて、自車両100の運転者へ警告を報知したり、自車両100のブレーキ、アクセル、ハンドル等を自動制御する走行支援制御を行ったりする。なお、以下「画像」の語を用いるが、本実施形態における「画像」は、必ずしも表示を要するものではなく、モニタ等への表示を伴わない単なる情報の集合体を含む意とする。
〈撮像ユニットおよび画像解析ユニットの概略構成〉
図2は、実施形態に係る撮像ユニット107および画像解析ユニット108の概略構成を示す模式図である。
撮像ユニット107は、2つの撮像部110a,110bを備えたステレオカメラであり、2つの撮像部110a,110bは同一のものである。各撮像部110a,110bは、それぞれ、撮像レンズ111a,111b、受光素子が2次元配置された画像センサ113a,113bを含んだセンサ基板114a,114b、およびセンサ基板114a,114bから出力されるアナログ電気信号(画像センサ113a,113b上の各受光素子が受光した受光量に対応する電気信号)をデジタル電気信号に変換した撮像データ(輝度情報)を生成して出力する信号処理部115a,115bを含む。
また、撮像ユニット107は、FPGA(Field-Programmable Gate Array)等からなる処理ハードウェア部120を備えている。処理ハードウェア部120は、各撮像部110a,110bから出力される輝度情報から視差情報を得るために、各撮像部110a,110bでそれぞれ撮像した撮像画像間の対応画像部分の視差値を演算する視差演算部121を備えている。
ここでいう視差値とは、各撮像部110a,110bでそれぞれ撮像した撮像画像(輝度画像)の一方を基準画像、他方を比較画像とし、撮像領域内の同一地点(オブジェクトの局所領域)に対応した基準画像上の画像部分に対する比較画像上の画像部分の位置ズレ量を、当該画像部分の視差値として算出したものである。三角測量の原理を利用することで、この視差値から撮像ユニット107(自車両100)からオブジェクトの局所領域までの距離を算出することができる。
図3は、三角測量の原理を利用することで視差値から距離を算出する原理を説明するための図である。図3において、fは撮像レンズ111a,111bのそれぞれの焦点距離であり、Dは光軸間の距離であり、Zは撮像レンズ111a,111bから被写体301までの距離(光軸に平行な方向の距離)である。この図において、被写体301上にある点(局所領域)Oに対する左右画像での結像位置は、結像中心からの距離がそれぞれΔ1およびΔ2となる。このときの視差値dは、d=Δ1+Δ2と規定することができる。
図2の説明に戻る。画像解析ユニット108は、画像処理基板等を含み、撮像ユニット107から出力される輝度情報および視差情報を記憶するRAM(Random Access Memory)、ROM(Read Only Memory)等で構成される記憶部122と、識別対象の認識処理、視差計算制御などを行うためのコンピュータプログラムを実行するCPU(Central Processing Unit)123と、データI/F(Interface)124と、シリアルI/F125とを備えている。
処理ハードウェア部120を構成するFPGAは、輝度情報に対してリアルタイム性が要求される処理、例えばガンマ補正、ゆがみ補正(左右の撮像画像の平行化)、ブロックマッチングによる視差演算等を行って視差画像に関する情報を生成し、画像解析ユニット108のRAMに書き出す処理等を行う。画像解析ユニット108のCPU123は、各撮像部110a,110bの画像センサコントローラの制御および画像処理基板の全体的な制御を担う。また、路面の3次元形状の検出処理、オブジェクトの検出処理等を実行する立体物検出プログラムをROMからロードして、RAMに蓄えられた輝度情報や視差情報を入力として各種処理を実行し、その処理結果をデータI/F124又はシリアルI/F125から外部へと出力する。このような処理の実行に際し、データI/F124を利用して、自車両100の車速、加速度(主に自車両前後方向に生じる加速度)、操舵角、ヨーレート等の車両動作情報を入力し、各種処理のパラメータとして使用することもできる。外部に出力されるデータは、自車両100の各種制御(ブレーキ制御、車速制御、操舵制御、警告制御など)を行うための入力データとして使用される。
<画像解析ユニットの機能的構成>
図4は、実施形態に係る画像解析ユニット108の機能的構成の例を示す図である。画像解析ユニット108は、距離情報取得部51、輝度情報取得部52、距離画像生成部53、路面形状検出部54(検出部)、オブジェクト領域設定部55(設定部)、補正部56、解析部57、および出力部58を含む。
距離情報取得部51は、撮像ユニット107を搭載する自車両100と撮像ユニット107の撮像範囲内に存在するオブジェクトとの間の距離を示す距離情報を取得する機能部である。本例における距離情報は、ステレオカメラである撮像ユニット107により取得される視差情報であるが、距離情報はこれに限られるものではない。距離情報取得部51は、記憶部122、CPU123、記憶部122に記憶されたプログラム等の協働により構成される。
輝度情報取得部52は、撮像ユニット107の撮像範囲内の輝度を示す輝度情報を取得する機能部である。輝度とは、広がりを持つ物体の表面の明るさであり、例えば路面上の明るさ、車両等のオブジェクトの表面の明るさ等である。輝度情報取得部52は、記憶部122、CPU123、記憶部122に記憶されたプログラム等の協働により構成される。
距離画像生成部53は、距離情報(本例では視差情報)に基づいて、撮像範囲における距離の分布を示す距離画像(本例では視差画像)を示す距離画像データ(本例では視差画像データ)を生成する機能部である。距離画像生成部53は、記憶部122、CPU123、記憶部122に記憶されたプログラム等の協働により構成される。
図5は、輝度画像61の例を示す図である。図6は、図5に示す輝度画像61に対応する視差画像71の例を示す図である。輝度画像61は、撮像ユニット107により取得された輝度情報に基づいて生成される画像(撮像ユニット107による撮像画像)である。視差画像71は、撮像ユニット107の視差演算部121により生成される視差情報に基づいて生成され、視差(距離)の分布を示す画像である。本例の輝度画像61には、路面62、車両63、および横断歩道の路面標識64が含まれている。これに伴い、視差画像71には、路面62に対応する路面対応領域72、車両63に対応する車両対応領域73、および路面標識対応領域74が含まれている。
路面形状検出部54は、距離情報に基づいて、自車両100が移動している路面62の形状を検出する機能部である。路面形状検出部54は、記憶部122、CPU123、記憶部122に記憶されたプログラム等の協働により構成される。
路面62の形状の検出方法は特に限定されるべきものではないが、例えばV−Disparityマップ(Vマップ)を利用する方法がある。図7は、図6に示す視差画像71に対応するVマップ81の例を示す図である。図8は、図7に示すVマップ81を利用して路面62の形状を検出する際の状態の例を示す図である。なお、以下、本実施形態において「マップ」と表現するものは、単なる情報群を意味するものとする。
Vマップ81は、y軸に視差画像71の縦軸の座標をとり、横軸に視差をとり、視差画像71の各画素の値(x,y,d)を、Vマップ81上の対応する座標位置に投票することにより生成される。すなわち、視差画像を、物体の縦方向位置と横方向位置と奥行方向位置とを対応づけた情報であるとしたとき、Vマップは、物体の縦方向位置と奥行方向位置とを対応づけた情報であると説明することができる。このようなVマップ81を生成することにより、Vマップ81内には路面62に対応する路面視差領域82および車両63に対応する車両視差領域83が現出する。これにより、Vマップ81の各画素値は視差の頻度値となる。このようなVマップ81に対して、図8に示すように、下方から頻度値の検索を行い、列毎に候補点を選択する。選択した候補点群に対して最小二乗法等を用いて近似直線を求めることにより、路面62の形状を検出することができる。例えば、近似直線Y=a*X+bという式が求められたとき、自車両100からのある距離Dに対応する視差値がdであるとすると、視差画像71又は輝度画像61における路面62の高さY(y軸上の値)は、Y=a*d+bで求まる。このような作業を繰り返すことにより、路面62の形状を検出することができる。
より詳細には、ある視差値dにおいてy軸位置がy’である地点に対応する輝度画像の部分に映し出されているオブジェクトの路面からの高さは、当該視差値dにおける近似直線上のy軸位置をy0としたとき、(y’−y0)から算出することができる。一般に、Vマップ上における座標(d,y’)に対応するオブジェクトについての路面からの高さHは、下記式〔1〕より算出することができる。ただし、下記の式〔1〕において、「z」は、視差値dから計算される距離(z=BF/(d−offset))であり、「f」はカメラの焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、「BF」は、ステレオカメラの基線長と焦点距離を乗じた値であり、「offset」は無限遠のオブジェクトを撮影したときの視差値である。
H=z*(y’−y0)/f …式〔1〕
オブジェクト領域設定部55は、距離情報(視差情報)に基づいて、距離画像(視差画像71)においてオブジェクト(車両63)に対応するオブジェクト領域を設定する機能部である。オブジェクト領域設定部55は、記憶部122、CPU123、記憶部122に記憶されたプログラム等の協働により構成される。
オブジェクト領域の設定方法は特に限定されるべきものではないが、例えばリアルUマップを利用する方法がある。ここでいうリアルUマップとは、実空間を俯瞰的に表現したマップ(鳥瞰画像、俯瞰画像等)であり、俯瞰情報の一例である。俯瞰情報を生成する機能部は、オブジェクト領域設定部55に含まれてもよいし、独立した機能部であってもよい。図9は、図6に示す視差画像71に対応するリアルUマップ91の例を示す図である。図10は、図9に示すリアルUマップ91を利用してオブジェクト領域77の左右の端部を設定する際の状態の例を示す図である。図11は、図9に示すリアルUマップ91を利用してオブジェクト領域77の上下の端部を設定する際の状態の例を示す図である。
リアルUマップ91は、視差画像、頻度Uマップまたは高さUマップから生成される。頻度Uマップとは、視差画像71の各画素におけるx軸上の位置とy軸上の位置と視差値dとの組(x,y,d)を、x軸にx、y軸にd、z軸に頻度を取るx−yの2次元ヒストグラムである。高さUマップとは、視差画像71の各画素におけるx軸上の位置とy軸上の位置と視差値dとの組(x,y,d)を、x軸にx、y軸にd、z軸に路面からの高さを取るx−yの2次元ヒストグラムである。すなわち、視差画像を、物体の縦方向位置と横方向位置と奥行方向位置とを対応づけた情報であるとしたとき、頻度Uマップおよび高さUマップは、物体の横方向位置と奥行方向位置とを対応づけた情報であると説明することができる。リアルUマップ91は、x軸(横軸)に頻度Uマップまたは高さUマップのx軸の値を実際の距離に変換した実距離を取り、y軸(縦軸)に頻度Uマップまたは高さUマップの視差を距離に応じて間引いた間引き視差値を取り、z軸に頻度Uマップの頻度または高さUマップの高さを取るx−yの2次元ヒストグラムである。図9に示すリアルUマップ91は、頻度Uマップから生成されたものであり、z軸に頻度が取られているものとする。なお、リアルUマップは、俯瞰的な画像であれば良く、生成方法は上記に限られない。
このようなリアルUマップ91によれば、リアルUマップ91を構成する画素のうち、車両63等のオブジェクトが存在する位置に対応する画素群の頻度値が高くなる。これにより、リアルUマップ91内には、オブジェクト(車両63)に対応する孤立領域93が形成される。
図10に示すように、リアルUマップ91内の孤立領域93に基づいて輝度画像61または視差画像71におけるオブジェクト領域77の左右の端部を設定することができる。本例のオブジェクト領域77はオブジェクト(車両63)の位置及び大きさを矩形で示すものである。すなわち、オブジェクト領域77は、例えば、オブジェクトの中心位置、高さおよび幅を対応づけた情報である。リアルUマップ91上の孤立領域93の左右の端部の位置を輝度画像61または視差画像71の座標に変換することにより、オブジェクト領域77の左右の端部の位置を決定することができる。なお、輝度画像61の座標と視差画像71の座標とは一意に対応しているため、両画像61,71間でオブジェクト領域77を自由に変換することができる。なお、孤立領域の検出は、公知のラベリング処理によって、同一のID(ラベル)が付された領域を検出することによって行うことができる。
図11に示すように、リアルUマップ91内の孤立領域93に基づいて視差画像71におけるオブジェクト領域77の上下の端部を設定することができる。リアルUマップ91上で検出した孤立領域93の上端部は、視差が最も小さい部分であり、距離が最も大きい部分である。孤立領域93の下端部は、視差が最も大きい部分であり、距離が最も小さい部分である。上端部の視差および下端部の視差からそれぞれ最大距離および最小距離を求めることができる。視差画像71上でオブジェクト領域77の上下の端部の位置を決定する際には、最大距離と最小距離との間の範囲内において視差が連続する部分を検出し、上部に位置する視差の連続部分を上端位置、下部に位置する視差の連続部分を下端位置と推定することができる。このとき、車両63が路面標識64上を通過している場合等には、路面標識64が存在する部分にも視差が生じるため、オブジェクト領域77の下端位置が路面標識64(路面62)を含むように設定される場合がある。
図12は、輝度画像61においてオブジェクト領域77が仮に設定された状態の例を示す図である。上記のように、オブジェクト領域設定部55は、視差が垂直方向に連続する部分をオブジェクト領域77の端部であると認識する。そのため、路面標識64上を通過している車両63についてオブジェクト領域77を設定する際に、車両63の最下部(車輪と路面62との接地点)を超えて、路面標識64が描かれた路面62の一部を含むように設定されてしまう場合がある。
なお、距離情報ではなく、輝度情報を用いてオブジェクト領域77を設定することもできる。例えば、予め決定したオブジェクトのテンプレート画像を用いて、テンプレート画像の大きさを変えながら輝度画像内をサーチし、テンプレート画像との一致度が最も高い位置を検出して設定する方法がある。しかし、テンプレートと実際の検出対象が完全に一致する可能性は高くなく、検出対象の周辺も含めてオブジェクト領域77として設定されてしまう場合がある。すなわち、輝度情報を用いてオブジェクト領域77を設定する場合にも、車両63の最下部(車輪と路面62との接地点)を超えて、路面標識64が描かれた路面62の一部を含むように設定されてしまう場合がある。
上記のようなオブジェクト領域77の下端位置についての問題は、リアルUマップのような俯瞰画像を用いてオブジェクト領域77を設定する際に、特に顕著である。俯瞰画像においては縦方向位置の情報が欠落することとなるため、オブジェクトの最下部(縦方向位置)の決定に誤差が生じやすいためである。俯瞰画像は距離画像等と比較して情報量が少ないため処理速度等の点において有利である一方で、上述の問題が生じやすい。このようなオブジェクト領域77の下端位置についての問題は、下記補正部56の機能により解消される。
補正部56は、オブジェクト領域77内の下部に設定された輝度検出領域内の輝度情報に基づいてオブジェクト領域77を補正する機能部である。補正部56は、記憶部122、CPU123、記憶部122に記憶されたプログラム等の協働により構成される。
図13は、オブジェクト領域77内に輝度検出領域78が設定された状態の例を示す図である。輝度検出領域78は、上記のように、視差情報(視差情報から派生する情報(Vマップ81、Uマップ、リアルUマップ91等)を含む)に基づいて仮に設定されたオブジェクト領域77の下端位置から所定の距離Dだけ上方の位置までの領域である。距離Dは、例えば輝度画像61において所定数の画素行が含まれる距離である。距離Dは固定値であっても、所定の条件に応じて変化する値であってもよい。補正部56は、輝度検出領域78内の輝度情報に基づいてオブジェクト領域77の下端位置を補正する。
図14は、輝度検出領域78内の輝度を検出し、オブジェクト領域77の下端位置を補正する状態の例を示す図である。本例の補正部56は、輝度検出領域78の最下部の画素行から上方へ向かって順に画素行毎の平均輝度(行平均輝度)を算出していく。例えば、図14に示す第1の画素行85の行平均輝度は、第2の画素行86の行平均輝度より大きくなる。これは、車両63の下部に形成される影89の影響によるものである。これにより、行平均輝度は、画素行の位置が上方へ移動する程小さくなる。
補正部56は、オブジェクト領域77の下端位置を行平均輝度が所定値未満となった画素行の位置に補正する。当該所定値の設定方法は特に限定されるべきものではないが、例えば、輝度検出領域78内全体の平均輝度(全体平均輝度)との比較に基づく方法であってもよい。例えば、行平均輝度の全体平均輝度に対する割合が所定値(例えば50%)未満となった場合に、オブジェクト領域77の下端位置を当該画素行の位置に補正するようにしてもよい。例えば、図14に示す例において、第1の画素行85の行平均輝度は所定値(例えば全体平均輝度の50%)以上であるが、第2の画素行86においてその行平均輝度が所定値未満となる場合、オブジェクト領域77の下端位置は、第2の画素行86の位置に補正される。
図15は、実施形態に係るオブジェクト領域77の補正処理の第1の例を示すフローチャートである。距離画像生成部53は、距離情報取得部51から取得した視差情報に基づいて、視差画像71(距離画像の一例)を示す視差画像データを生成する(ステップS201)。その後、オブジェクト領域設定部55は、視差情報に基づいて、視差画像71および輝度画像61上に仮のオブジェクト領域77を設定する(ステップS202)。
その後、補正部56は、仮のオブジェクト領域77に輝度検出領域78を設定する(ステップS203)。その後、補正部56は、輝度検出領域78内の全体平均輝度L1を算出する(ステップS204)。その後補正部56は、輝度検出領域78の最下部から順に画素行毎の行平均輝度L2を算出する(ステップS205)。その後、補正部56は、L2*K1<L1が成り立つか否か、すなわち行平均輝度L2の全体平均輝度L1に対する割合が所定値(例えば50%:K1=0.5)未満であるか否かを判定する(ステップS206)。
L2*K1<L1が成り立つ場合(ステップS206:Yes)、オブジェクト領域77の下端位置を現在の画素行の位置に補正する(ステップS207)。一方、L2*K1<L1が成り立たない場合(ステップS206:No)、輝度検出領域78内の全ての画素行を走査したか否かを判定する(ステップS208)。全ての画素行を走査した場合(ステップS208:Yes)にはこのルーチンを終了し、全ての画素行を走査していない場合(ステップS208:No)にはステップS205に戻る。
上記補正処理によれば、オブジェクト(車両63)の下部の輝度がオブジェクト自身により形成される影89の影響により他の場所より小さくなることを利用して、オブジェクト領域77を高精度で設定することが可能となる。
図16は、実施形態に係るオブジェクト領域77の補正処理の第2の例を示すフローチャートである。第2の例に係る補正処理においては、図15に示す第1の例に係る補正処理におけるステップS204とステップS205との間に、ステップS301およびステップS302が実行される。
第2の例に係る補正部56は、輝度検出領域78内の全体平均輝度L1を算出した後(ステップS204)、輝度検出領域78内の画素列毎に全体平均輝度L1を上回る輝度を有する画素数をカウントした輝度ヒストグラムを生成する(ステップS301)。
図17は、輝度ヒストグラム95の例を示す図である。この輝度ヒストグラム95において、理論上取り得る最大値(理論最大値)から算出した閾値T1が示されている。第2の例に係る補正部56は、輝度ヒストグラム95の最大値が閾値T1より大きい場合に、オブジェクト領域77の下端位置の補正を行う。
第2の例に係る補正部56は、輝度ヒストグラム95の最大値が閾値T1より大きいか否かを判定する(ステップS302)。輝度ヒストグラム95の最大値が閾値T1より大きくない場合(ステップS302:No)、このルーチンを終了する。輝度ヒストグラム95の最大値が閾値T1より大きい場合(ステップS302:Yes)、ステップS205以降の処理を実行する。
上記第2の例に係る補正処理においては、輝度ヒストグラム95の最大値が閾値T1より大きい場合にのみオブジェクト領域77の補正を行う。これは、高輝度の画素がオブジェクト領域77の下部に多い程、オブジェクト領域77の下端位置はより大きく下方へ延長されると考えられることによる。輝度ヒストグラム95の最大値が小さい場合、オブジェクト領域77の下端位置の下方への延長量は小さいと考えられるため、このような場合には補正処理を行わないようにする。これにより、不要な補正処理の実行を抑制することが可能となり、演算負荷の軽減等が達成される。
また、補正部56は、上記のように補正されたオブジェクト領域77の下端位置に基づいて、路面形状検出部54により検出された路面62の形状を補正してもよい。
図18は、路面62が本来の位置より低い位置にあると検出された場合のVマップ81の例を示す図である。図18において、車両63に対応する車両視差領域83の下方に路面標識64によるノイズ視差97が検出され、推定された路面62の形状を示す推定線88が本来の位置より下方にずれている状態が示されている。
図19は、図18に示す路面62の推定形状が補正される際のVマップ81の例を示す図である。路面形状の補正方法としては、例えば推定線88を、切片を変えずに点(d,Y)を通るように補正する方法がある。視差値dおよびy座標位置Yは、補正後のオブジェクト領域77の下端位置に対応する値である。
上記のように補正された路面形状は、様々な形態で利用され得る。例えば、補正されたオブジェクト領域77の下端位置と検出された路面形状とのずれ量をフレーム毎に保存しておき、所定のフレーム数以上連続してオブジェクト領域77の補正が行われた場合、次のフレームでの路面検出において、予め修正された路面形状を利用することができる。また、撮像領域内に複数のオブジェクトが存在する場合であって、1つのオブジェクトに対してオブジェクト領域77および路面形状の補正が行われた場合、他のオブジェクトに対するオブジェクト領域77の設定等において、既に補正が行われたオブジェクト領域77の下端位置、路面形状等の情報を利用することができる。これにより、演算負荷の軽減等を図ることができる。
解析部57は、上記のように設定されたオブジェクト領域77、検出された路面形状等の情報に基づいて、オブジェクト領域77内の画素値を解析し、解析結果を示す解析データを生成する機能部である。解析結果は様々であるが、例えば自車両100からオブジェクト(車両63等)までの距離、自車両100とオブジェクトとの相対移動速度、オブジェクトの予測進行方向等であり得る。解析部57は、記憶部122、CPU123、記憶部122に記憶されたプログラム等の協働により構成される。
出力部58は、解析部57により生成された解析データを外部のシステム(表示モニタ103、走行制御ユニット104等)に出力する機能部である。出力部58は、記憶部122、CPU123、データI/F124、シリアルI/F125、記憶部122に記憶されたプログラム等の協働により構成される。
上記実施形態によれば、衝突回避等の対象となるオブジェクトの位置、大きさ等を示すオブジェクト領域77の設定を高精度で行うことが可能となり、自車両100の走行制御の精度を向上させることが可能となる。
以上、本発明の実施形態および変形例について具体的に説明してきたが、本発明は、これらの実施形態および変形例に限定されるものではなく、これらの実施形態および変形例を、本発明の主旨および範囲を逸脱することなく、変更又は変形することができる。
1…機器制御システム、51…距離情報取得部、52…輝度情報取得部、53…距離画像生成部、54…路面形状検出部、55…オブジェクト領域設定部、56…補正部、57…解析部、58…出力部、61…輝度画像、62…路面、63…車両、64…路面標識、71…視差画像、72…路面対応領域、73…車両対応領域、74…路面標識対応領域、81…Vマップ、82…路面視差領域、83…車両視差領域、91…リアルUマップ、93…孤立領域、77…オブジェクト領域、78…輝度検出領域、85…第1の画素行、86…第2の画素行、88…推定線、95…輝度ヒストグラム、97…ノイズ視差、100…自車両、101…撮像装置、103…表示モニタ、104…走行制御ユニット、105…フロントガラス、107…撮像ユニット、108…画像解析ユニット、110a,110b…撮像部、111a,111b…撮像レンズ、113a,113b…画像センサ、114a,114b…センサ基板、115a,115b…信号処理部、120…処理ハードウェア部、301…被写体
特許第5971341号公報 特許第4754434号公報

Claims (13)

  1. 所定の撮像範囲の画像情報において、前記撮像範囲内に存在するオブジェクトに対応するオブジェクト領域を設定する設定部と、
    前記撮像範囲内の輝度を示す輝度情報を取得する輝度情報取得部と、
    前記オブジェクト領域の下部に設定された輝度検出領域内の前記輝度情報に基づいて前記オブジェクト領域を補正する補正部と、
    を備える情報処理装置。
  2. 前記画像情報を取得する撮像ユニットを搭載する機器と前記オブジェクトとの間の距離を示す距離情報を取得し、前記距離情報に基づいて俯瞰情報を生成する俯瞰情報生成部、
    を更に備え、
    前記設定部は、前記俯瞰情報に基づいて前記オブジェクト領域を設定する、
    請求項1に記載の情報処理装置。
  3. 前記設定部は、前記輝度情報に基づいて前記オブジェクト領域を設定する、
    請求項1又は2に記載の情報処理装置。
  4. 前記補正部は、前記輝度検出領域のうち前記輝度情報が示す輝度が所定値未満である領域に基づいて前記オブジェクト領域を補正する、
    請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記オブジェクトが車両であるか否かを判定する車両判定部、
    を更に備え、
    前記補正部は、前記オブジェクトが前記車両である場合に、前記輝度検出領域内の前記輝度情報に基づいて前記オブジェクト領域を補正する、
    請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記距離情報に基づいて路面の形状を検出する検出部、
    を更に備え、
    前記補正部は、補正された前記オブジェクト領域の下端位置に基づいて前記路面の形状を補正する、
    請求項2に記載の情報処理装置。
  7. 前記撮像ユニットは、ステレオカメラであり、
    前記距離情報は、視差情報であり、
    前記設定部は、前記視差情報に基づいて、前記撮像範囲における視差の分布を示す視差画像において前記オブジェクト領域を設定する、
    請求項2に記載の情報処理装置。
  8. 前記視差情報に基づいて、前記視差画像における第1の軸方向位置と第2の軸方向位置と視差との組を2次元ヒストグラム情報に変換したUマップを示すUマップデータを生成するUマップデータ生成部と、
    前記Uマップデータに基づいて、前記Uマップにおける第1の軸を画素単位から実際の前記距離に変換し、第2の軸の前記視差を、前記距離に応じた間引き率を有する間引き視差値に変換したリアルUマップを示すリアルUマップデータを生成するリアルUマップデータ生成部と、
    を更に備え、
    前記設定部は、前記リアルUマップにおいて前記オブジェクトに対応する孤立領域を検出し、前記孤立領域に基づいて前記オブジェクト領域を設定する、
    請求項7に記載の情報処理装置。
  9. 請求項1〜8のいずれか1項に記載の情報処理装置を備える撮像装置。
  10. 請求項1〜8のいずれか1項に記載の情報処理装置と、
    前記オブジェクト領域内の情報に基づいて機器の動作を制御する機器制御部と、
    を備える機器制御システム。
  11. 請求項10に記載の機器制御システムを備え、
    前記機器制御部により制御される移動体。
  12. 所定の撮像範囲の画像情報において、前記撮像範囲内に存在するオブジェクトに対応するオブジェクト領域を設定するステップと、
    前記撮像範囲内の輝度を示す輝度情報を取得するステップと、
    前記オブジェクト領域の下部に設定された輝度検出領域内の前記輝度情報に基づいて前記オブジェクト領域を補正するステップと、
    を含む情報処理方法。
  13. コンピュータに、
    所定の撮像範囲の画像情報において、前記撮像範囲内に存在するオブジェクトに対応するオブジェクト領域を設定する処理と、
    前記撮像範囲内の輝度を示す輝度情報を取得する処理と、
    前記オブジェクト領域の下部に設定された輝度検出領域内の前記輝度情報に基づいて前記オブジェクト領域を補正する処理と、
    を実行させるプログラム。
JP2017171243A 2016-11-30 2017-09-06 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム Withdrawn JP2018092596A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780073834.7A CN110023953A (zh) 2016-11-30 2017-11-02 信息处理设备、成像设备、装置控制系统、移动体、信息处理方法以及计算机程序产品
EP17804000.2A EP3549056B1 (en) 2016-11-30 2017-11-02 Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
PCT/JP2017/039780 WO2018100971A1 (en) 2016-11-30 2017-11-02 Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
US16/347,938 US11030761B2 (en) 2016-11-30 2017-11-02 Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016232556 2016-11-30
JP2016232556 2016-11-30

Publications (1)

Publication Number Publication Date
JP2018092596A true JP2018092596A (ja) 2018-06-14

Family

ID=62566249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017171243A Withdrawn JP2018092596A (ja) 2016-11-30 2017-09-06 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US11030761B2 (ja)
EP (1) EP3549056B1 (ja)
JP (1) JP2018092596A (ja)
CN (1) CN110023953A (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6950170B2 (ja) * 2016-11-30 2021-10-13 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
JP2020160914A (ja) * 2019-03-27 2020-10-01 株式会社豊田自動織機 物体検出装置
JP7463701B2 (ja) 2019-11-19 2024-04-09 株式会社リコー 画像診断装置、故障診断装置及びプログラム
US12250489B2 (en) 2020-04-27 2025-03-11 Sony Group Corporation Information processing device and method for generating composite video
KR20210147405A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
CN112417967B (zh) * 2020-10-22 2021-12-14 腾讯科技(深圳)有限公司 障碍物检测方法、装置、计算机设备和存储介质
CN115257767B (zh) * 2022-09-26 2023-02-17 中科慧眼(天津)研究开发有限公司 一种基于平面靶标的路面障碍物测高方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076987A (ja) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd 先行車両認識装置
JP2008130087A (ja) * 2006-11-17 2008-06-05 Alpine Electronics Inc 対象領域分割方法及び対象領域分割装置
JP2009175846A (ja) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd 車両検出装置
JP2015143979A (ja) * 2013-12-27 2015-08-06 株式会社リコー 画像処理装置、画像処理方法、プログラム、画像処理システム
JP2016001463A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP2016029557A (ja) * 2014-07-14 2016-03-03 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3430641B2 (ja) * 1994-06-10 2003-07-28 日産自動車株式会社 車間距離検出装置
JP4754434B2 (ja) 2006-08-09 2011-08-24 本田技研工業株式会社 路面推定装置
JP4970516B2 (ja) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP5892876B2 (ja) 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置
CN104364611A (zh) * 2012-06-05 2015-02-18 三菱电机株式会社 显示装置
CN104508722B (zh) * 2012-07-27 2016-08-24 歌乐株式会社 车载用周围环境识别装置
US10246030B2 (en) 2012-08-09 2019-04-02 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and driving assistance apparatus
JP6270102B2 (ja) * 2012-10-10 2018-01-31 株式会社リコー 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム
JP5874756B2 (ja) * 2014-02-07 2016-03-02 トヨタ自動車株式会社 区画線検出システム及び区画線検出方法
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US9892328B2 (en) 2014-06-18 2018-02-13 Mobileye Vision Technologies Ltd. Hazard detection from a camera in a scene with moving shadows
US20160019429A1 (en) 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
JP6379967B2 (ja) * 2014-10-09 2018-08-29 株式会社デンソー 画像生成装置および画像生成方法
US10079827B2 (en) 2015-03-16 2018-09-18 Ricoh Company, Ltd. Information processing apparatus, information processing method, and information processing system
JP6780297B2 (ja) 2015-08-07 2020-11-04 株式会社リコー 情報処理装置、画像形成装置、情報処理システム、プログラム、及び認証方法
JP6743882B2 (ja) 2016-03-14 2020-08-19 株式会社リコー 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003076987A (ja) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd 先行車両認識装置
JP2008130087A (ja) * 2006-11-17 2008-06-05 Alpine Electronics Inc 対象領域分割方法及び対象領域分割装置
JP2009175846A (ja) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd 車両検出装置
JP2015143979A (ja) * 2013-12-27 2015-08-06 株式会社リコー 画像処理装置、画像処理方法、プログラム、画像処理システム
JP2016001463A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP2016029557A (ja) * 2014-07-14 2016-03-03 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム

Also Published As

Publication number Publication date
US11030761B2 (en) 2021-06-08
EP3549056B1 (en) 2023-07-26
CN110023953A (zh) 2019-07-16
US20190295281A1 (en) 2019-09-26
EP3549056A1 (en) 2019-10-09

Similar Documents

Publication Publication Date Title
JP2018092596A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム
JP6733225B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
EP2775423A2 (en) Object detection apparatus, vehicle-mounted device control system and carrier medium of program of object detection
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP6769477B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN104954734A (zh) 图像处理设备和图像处理方法
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
US20220067973A1 (en) Camera calibration apparatus and operating method
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US20180300562A1 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
US11054245B2 (en) Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JP6711128B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6458577B2 (ja) 画像測距装置
JP6431299B2 (ja) 車両周辺監視装置
JP6763198B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6812701B2 (ja) 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2018088234A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム
JP4629638B2 (ja) 車両の周辺監視装置
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム
WO2018100971A1 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP2023061621A (ja) 画像処理装置
EP3330893A1 (en) Information processing device, information processing method, and carrier means
CN112400094A (zh) 物体探测装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20211027