[go: up one dir, main page]

JPWO2000064175A1 - 画像処理装置および監視システム - Google Patents

画像処理装置および監視システム

Info

Publication number
JPWO2000064175A1
JPWO2000064175A1 JP2000-613188A JP2000613188A JPWO2000064175A1 JP WO2000064175 A1 JPWO2000064175 A1 JP WO2000064175A1 JP 2000613188 A JP2000613188 A JP 2000613188A JP WO2000064175 A1 JPWO2000064175 A1 JP WO2000064175A1
Authority
JP
Japan
Prior art keywords
image
vehicle
camera
image processing
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000-613188A
Other languages
English (en)
Other versions
JP3300334B2 (ja
Inventor
修作 岡本
雅通 中川
一生 登
淳 森村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000613188A priority Critical patent/JP3300334B2/ja
Priority claimed from JP2000613188A external-priority patent/JP3300334B2/ja
Priority claimed from PCT/JP2000/002474 external-priority patent/WO2000064175A1/ja
Application granted granted Critical
Publication of JP3300334B2 publication Critical patent/JP3300334B2/ja
Publication of JPWO2000064175A1 publication Critical patent/JPWO2000064175A1/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 車両の周囲を撮影する複数のカメラの撮像画像を用いて、車両の上方の仮想視点から見た合成画像を生成する。合成画像において、自車両が存在する車両領域には、自車両のイラスト画像または実画像を表示する。また、いずれのカメラからも撮影されない自車両周囲の領域は、死角領域として表示する。

Description

【発明の詳細な説明】
技術分野 本発明は、複数のカメラによって撮像された画像を用いて合成画像を生成する
画像処理技術に関するものであり、特に、車両運転の際の安全確認の補助などに
利用される監視システムに有効な技術に属する。 背景技術 従来の一般的な監視システムでは、監視対象となる部分を1台または複数台の
監視カメラで撮影し、その画像をモニタに表示する構成が一般的である。この場
合、通常は、設置されたカメラの台数に応じて、モニタを準備する。 また、従来の車両用の安全監視システムとしては、例えば、車両の周囲を撮影
するカメラを設置し、カメラで撮影した画像を運転席近くに設置したモニターに
表示させるものがある。このシステムにより、運転者は、車両後方のような、目
視やミラーでは安全確認が困難な場所を、モニタで確認することができる。 さらに、日本国特許公報 第2696516号では、ギアや車速に応じて、モ
ニタ画面の分割表示を行う構成が開示されている。具体的には、車両が停止・微
速状態にあると判定したときは、モニタ画面を3分割して、車両の左右および下
方に配置された3個のカメラの撮像画像を合成して再生し、車両が前方走行状態
にあると判定したときは、モニタ画面を2分割して、車両の左右に配置された2
個のカメラの撮像画像を合成して再生する。 また、日本国特許公開公報 特開平11−78692号では、車両用映像提示
装置として、遭遇した場面毎に的確な映像を合成・表示する構成が開示されてい
る。具体的には、後退車庫入れ状態か、前進車庫入れ状態か、縦列駐車状態か、
あるいは見通しの悪い交差点に進入した状態か等の車両の運転状態に応じて、カ
メラ画像の変形・合成を行う。 しかしながら、このような従来の構成は、車両の運転者などのようなユーザに
とって、必ずしも利用しやすいシステムであるとはいえない。 発明の開示 本発明は、画像処理装置または監視システムとして、車両の運転者などのユー
ザの利便性を、従来よりもさらに向上させることを目的とする。 具体的には、本発明は、画像処理装置として、車両の周囲を撮影する複数のカ
メラの撮像画像を入力とし、これらのカメラ画像から、仮想視点から見た合成画
像を生成する画像処理部を備え、前記画像処理部は、前記仮想視点の位置、視線
の向きおよび焦点距離のうちの少なくともいずれか1つを、前記車両の走行状態
に応じて変更するものである。 そして、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離
のうちの少なくともいずれか1つを、前記車両の走行速度に応じて変更するのが
好ましい。 また、前記画像処理部は、仮想視点の位置、視線の向き、および焦点距離のう
ちの少なくともいずれか1つの変更とともに、変更後の仮想視点の視野範囲外画
像の取込の制御を行うのが好ましい。さらに、変更後の仮想視点の視野範囲外画
像の取込の制御を、画像合成のためのモデルを変更することによって行うのが好
ましい。 また、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離の
うちの少なくともいずれか1つを、前記車両の舵角に応じて変更するのが好まし
い。 また、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離の
うちの少なくともいずれか1つを、前記車両が備えている物体検出センサによる
検出結果に応じて変更するのが好ましい。 また、前記画像処理部は、原マッピングテーブルを有し、この原マッピングテ
ーブルから切り出したマッピングテーブルを用いて合成画像の生成を行うもので
あり、かつ、前記原マッピングテーブルから切り出すマッピングテーブルを変更
することによって、仮想視点の位置、視線の向き、および焦点距離のうちの少な
くともいずれか1つの変更を行うのが好ましい。 また、本発明は、画像処理装置として、車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から、仮想視点から見た合成画像を生
成する画像処理部を備え、前記画像処理部は、前記車両の走行状態に応じて、前
記仮想視点の視野範囲外画像の取込の制御を行うものである。 また、本発明は、監視システムとして、車両の周囲を撮影する複数のカメラと
、前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から、仮想視点
から見た合成画像を生成する画像処理部と、前記合成画像を表示する表示部とを
備え、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離のう
ちの少なくともいずれか1つを、前記車両の走行状態に応じて変更するものであ
る。 また、具体的には本発明は、画像処理装置として、車両の周囲を撮影する複数
のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画
像処理部を備え、前記画像処理部は、仮想視点から見た第1の画像と、前記第1
の画像の仮想視点と位置、視線の向きおよび焦点距離のうちの少なくともいずれ
か1つが異なる視点から見た、または前記第1の画像とモデルが異なる第2の画
像とを含む画像を、前記合成画像として生成するものである。 そして、前記第2の画像は、前記カメラ画像の少なくとも1つであるのが好ま
しい。 また、前記第1の画像は、自車およびその周辺を示す近傍画像であり、前記第
2の画像は、前記近傍画像が示す自車の周辺領域よりも遠方の領域を示す遠方画
像であるのが好ましい。そして、前記画像処理部は、前記合成画像において、前
記近傍画像の周囲に前記遠方画像を配置するのが好ましい。さらには、前記遠方
画像は、前記近傍画像と連続性を有する画像であるのが好ましい。 また、前記第1の画像は、自車両の少なくとも一部と自車両の周囲の少なくと
も一部とを示す画像であり、前記第2の画像は、前記第1の画像が示す領域の少
なくとも一部を拡大した画像であるのが好ましい。 また、本発明は、監視システムとして、車両の周囲を撮影する複数のカメラと
、前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を
生成する画像処理部と、前記合成画像を表示する表示部とを備え、前記画像処理
部は、仮想視点から見た第1の画像と、前記第1の画像の仮想視点と位置、視線
の向きおよび焦点距離のうちの少なくともいずれか1つが異なる視点から見た、
または前記第1の画像とモデルが異なる第2の画像とを含む画像を、前記合成画
像として生成するものである。 また、具体的には本発明は、車両の周囲を撮影する複数のカメラの撮像画像を
入力とし、これらのカメラ画像から合成画像を生成する画像処理部を備え、前記
画像処理部は、前記合成画像において、自車両が存在する車両領域の少なくとも
一部と、自車両の周囲の少なくとも一部を示し注意を喚起するための注意喚起領
域とを表示するものである。 そして、前記合成画像は、前記車両の上方に設定された仮想視点から見た画像
であるのが好ましい。 また、前記画像処理部は、前記車両領域に、自車両のイラスト画像または実画
像を表示するのが好ましい。 また、前記注意喚起領域は、いずれのカメラからも撮影されない車両周囲の死
角領域の少なくとも一部を含むのが好ましい。あるいは、前記注意喚起領域は、
いずれのカメラからも撮影されない車両周囲の死角領域に相当する領域であるの
が好ましい。そして、前記画像処理部は、各カメラ画像における自車両の映り込
み領域を示す領域データを用いて、前記死角領域および車両領域を合わせた領域
の範囲を決定するのが好ましい。 また、本発明は、監視システムとして、車両の周囲を撮影する複数のカメラと
、前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を
生成する画像処理部と、前記合成画像を表示する表示部とを備え、前記画像処理
部は、前記合成画像において、自車両が存在する車両領域の少なくとも一部と、
自車両の周囲の少なくとも一部を示し注意を喚起するための注意喚起領域とを表
示するものである。 また、具体的には本発明は、画像処理装置として、車両の周囲を撮影する複数
のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画
像処理部を備え、前記画像処理部は、合成画像の画素とカメラ画像の画素との対
応関係を記述する第1のマッピングデータと、合成画像の画素とカメラ画像以外
の画素データとが対応することを示す識別子を記述する第2のマッピングデータ
とを有するマッピングテーブルを用いて、前記合成画像を生成するものである。 そして、前記カメラ画像以外の画素データは、前記車両または、前記車両の周
囲の少なくとも一部にある死角領域を示すものであるのが好ましい。 また、前記画像処理部はカメラ画像以外の所定の画像を記憶しており、前記第
2のマッピングデータは、合成画像の画素に対し、当該画素に対応する,記憶さ
れた前記所定の画像における座標値を記述するものであるのが好ましい。 また、前記第2のマッピングデータは、合成画像の画素に対応する画素データ
を記述するものであるのが好ましい。 また、本発明は、画像処理装置として、車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画像処理部を
備え、前記画像処理部は、合成画像の画素と、カメラ画像の画素データおよびカ
メラ画像以外の画素データのうちの一方または両方からなる複数の画素データと
の対応関係を記述し、かつ、各画素データに対してそれぞれ必要度を記述したマ
ッピングデータを用い、各画素データに対して必要度に応じた重み付けを行い、
前記合成画像の画素の画素データを生成するものである。 また、本発明は、画像処理装置として、車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画像処理部を
備え、前記画像処理部は、原マッピングテーブルを有し、この原マッピングテー
ブルから、合成画像の画素とカメラ画像の画素との対応関係を記述するマッピン
グテーブルを切り出し、切り出したマッピングテーブルを用いて、合成画像を生
成するものである。 発明を実施するための最良の形態 図1は本発明に係る監視システムの概念図である。図1に示す監視システムに
おいて、画像処理部2は、撮像部1から出力された複数のカメラ画像を入力とし
、これらを合成して、仮想視点から見たときの合成画像を生成する。この合成画
像は、例えば液晶ディスプレイのような表示部3によって表示される。画像処理
部2によって、本発明に係る画像処理装置が構成される。 ここでの説明では、本監視システムは、車両に搭載されるものとし、駐車の際
のアシストなどを用途として用いられるものとする。 図2はカメラ配置の例、図3は図2のように配置された各カメラの撮像画像の
例である。図2に示すように、ここでは5台のカメラが、車両のドアミラー付近
、後方ピラー付近および後部トランク上に、それぞれ配置されている。画像処理
部2は、図3に示す5枚のカメラ画像から、仮想視点から見たときの合成画像を
生成する。 仮想視点は、コンピュータグラフィックスの映像生成におけるカメラ配置の場
合と同様に、3次元空間の任意の位置に、任意の方向に向けて、設定することが
できる。仮想視点を決定するパラメータは、3次元空間での仮想視点の位置を表
す座標(X座標,Y座標,Z座標)と、その向きを表す3つの角度すなわち方位
角(水平回転)、仰角(傾き)およびTwist(光軸周りの回転)と、視野範
囲を決める焦点距離とからなる。焦点距離は、仮想視点と合成画像を生成する投
影面との距離であり、小さいときは広角の画像になり、大きいときは望遠の画像
になる。実際のカメラなどでは、投影面のフィルムのサイズ(35mm)に換算
したときの距離(mm)で表すことが多いが、本明細書では、合成画像のサイズ
を画素で表しているので、焦点距離も画素で考える。 この仮想視点の位置、向きおよび焦点距離を状況に応じて選択することによっ
て、適切な合成画像を生成することが可能になる。 図4は仮想視点と実カメラとの関係を概念的に示す図である。図4では、仮想
視点は車両の上方に設定されている。図5は生成された合成画像の例であり、図
4に示す仮想視点から見た、自車およびその近辺を示す画像が生成されている。 本実施形態では、画像処理部2は、複数のカメラ画像から合成画像を生成する
ために、マッピングテーブル4を用いる。ここで、「マッピングテーブル」とは
、合成画像の画素と、各カメラ画像の画素データとの対応関係が記述されたテー
ブルのことをいう。なお、後述するように、マッピングテーブルには、合成画像
の画素とカメラ画像以外の画素データとの対応関係も記述可能である。 <マッピングテーブルの原理説明> 以下、マッピングテーブルを用いて、複数のカメラ画像から合成画像を生成す
る動作について、説明する。 図6はこの動作の概要を説明するための図である。図6(a)〜(c)は、互
いに異なる位置に取り付けられた3台のカメラ(図2におけるカメラ3,カメラ
1およびカメラ2にそれぞれ対応する)の撮像画像である。図6(d)は、図6
(a)〜(c)の各カメラ画像から合成画像を生成するために用いるマッピング
テーブルである。画像処理部2は、図6(a)〜(c)の3枚のカメラ画像から
、図6(d)のマッピングテーブルの情報を基にして、図6(e)に示す1枚の
合成画像を生成するものとする。 図6(d)に示すマッピングテーブルは、図6(e)に示す合成画像の各画素
について、それぞれマッピングデータを有している。各マッピングデータは、対
応する合成画像の画素が、どのカメラ画像の画素によって生成されるか、という
情報を記述する。 合成画像を生成する、ということは、合成画像の全ての画素の値を決定すると
いうことである。ここでは、画像処理部2は左上から順次、ラスター順に合成画
像の画素の値を決定するものとし、その途中で画素P1の値を決定する場合を例
にとって、その動作を説明する。 まず、合成画像の画素P1に対応するマッピングデータMP1を参照する。マ
ッピングデータMP1には、対応するカメラ番号と、そのカメラ画像の対応する
画素の座標とが記述されている。いまマッピングデータMP1には、カメラ番号
として「1」、X座標として「340」、Y座標として「121」が記述されて
いる。 画像処理部2は、マッピングデータMP1の記述内容に従って、図6(b)に
示すカメラ1の撮像画像の座標(340,121)の画素データC1を参照し、
画素データC1の値から、合成画像の画素P1の値を決定する。ここでは、最も
簡単な決定方法として、画素データC1の値をそのまま画素P1の値とする。同
様の方法によって、合成画像の各画素について値を決定することによって、図6
(e)に示すような合成画像が生成される。 例えば、合成画像の画素P2に対応するマッピングデータMP2は、図6(c
)に示すカメラ2の撮像画像の画素データC2を示しているので、画素P2の値
として画素データC2の値が与えられる。同様に、合成画像の画素P3に対応す
るマッピングデータMP3は、図6(a)に示すカメラ3の撮像画像の画素デー
タC3を示しているので、画素P3の値として画素データC3の値が与えられる
。図6(d)のマッピングテーブルにおいて、領域R1はカメラ1に対応し、領
域R2はカメラ2に対応し、領域R3はカメラ3に対応する。 各カメラに対応する3つの領域R1〜R3以外の領域R4は、各カメラの撮影
領域以外であったり、自車両によって隠されている死角であったりすることによ
って、対応するカメラ画像が存在しない領域である。例えば合成画像の画素P4
は、そのような領域R4の画素である。この場合、画素P4に対応するマッピン
グデータMP4のカメラ番号には、対応するカメラ画像が存在しないことを示す
特定のカメラ番号(ここでは「−1」とする)を記述しておく。そして、カメラ
番号「−1」のとき、対応する画素P4には、撮影領域外や死角であることを示
す所定の画素データを設定する。ここでは、所定の画素データとして黒色を設定
する。 図6の例では、マッピングテーブルは、車両上方の仮想視点から車両の周囲を
見下ろすような合成画像が生成可能なように構成されている。このようなマッピ
ングテーブルは、後述するように、いわゆる路面平面モデルを前提とした幾何変
換を用いて作成することが可能である。あるいは、合成画像を見ながら、試行錯
誤しながら作成してもかまわない。 実際には、マッピングテーブルを用いることによって、合成画像とカメラ画像
の画素データとの対応関係を、用途に応じて、自由に設定することができる。例
えば、カメラ画像の任意の領域を拡大または縮小してカメラ画像の一部に合成し
たり、複数のカメラ画像を並べて合成するなど、任意の合成画像を生成すること
ができる。 そして、いかなる合成画像を生成するマッピングテーブルであっても、画像処
理部2は、合成画像各画素について、マッピングデータの参照、指定されたカメ
ラ画像の画素データの参照、合成画像の画素値の設定を行うステップを実行する
だけですむので、その処理量は、画像合成をその都度演算によって実行する場合
に比べて格段に小さくなる。このため、本方式は、合成画像の種類にかかわらず
処理量が一定になり、かつ、高速処理が可能であるので、リアルタイムに一定時
間で処理を終える必要のある監視や運転補助などの用途に対して、特に適してい
る。 (合成画像生成動作の第1例) 図7は本実施形態に係る監視システムの構成例を示す図である。図7において
、画像処理部2は、画像合成部200、表示パターン記憶部210および表示パ
ターン設定部220を備えている。表示パターン記憶部210は、上述したよう
なマッピングテーブルを複数個記憶するマッピングテーブル記憶部211を有し
ている。表示パターン設定部220は、マッピングテーブル記憶部211に格納
されたマッピングテーブルから、生成する合成画像の表示パターンに応じて1個
のマッピングテーブルMPTを選択し、画像合成部200のマッピングテーブル
参照部202に設定する。 また、表示パターン記憶部210は、様々なイラスト画像を記憶するイラスト
記憶部212を有している。表示パターン設定部220は、合成画像の生成に必
要となるイラスト画像をイラスト画像記憶部212から読み出し、画像合成部2
00のイラスト参照部203に設定する。ここでは、自車両を示すイラスト画像
が設定されるものとする。 画像合成部200は、マッピングテーブル参照部202に設定されたマッピン
グテーブルMPTに従って、撮像部1から出力されたカメラ画像を用いて、合成
画像を生成する。タイミング生成部205は、合成画像の動画系列を生成するた
めのタイミング信号を生成する。 各カメラ101には、一対のフレームメモリ102a,102bが設けられて
いる。ここでは各カメラ101はCCDタイプであるものとする。カメラがCM
OSタイプの場合には、カメラにフレームメモリの機能を持たせることも可能で
あり、この場合はフレームメモリを省くことができる。 図8は合成画像の1フレームを生成するときの画像合成部200の動作を示す
フローチャートである。 まず、タイミング生成部205から出力されたフレーム開始のタイミング信号
に応じて、撮像部1は、各カメラ101が撮影した画像を書き込むフレームメモ
リ102aと、画像合成部200から参照されるフレームメモリ102bとを切
り替える(ステップS11)。ここで、各カメラ101に対してフレームメモリ
を2個設けて切り替えを行うようにしたのは、後述するように、画像合成部20
0はカメラ画像の画素データを、カメラ101からの書き込みの順序とは関係無
く、マッピングテーブルMPTに応じて飛び飛びに参照するので、書き込みと参
照とが互いに干渉しないようにするためである。 次に、タイミング生成部205は、合成処理を行う画素をマッピングテーブル
参照部202に指定するためのタイミング信号を生成する(ステップS12)。
マッピングテーブル参照部202はマッピングテーブルMPTから、指定された
画素に対応するマッピングデータを読み出し、画素合成部201に出力する(ス
テップS13)。 画素合成部201は、入力されたマッピングデータの内容に応じて、フレーム
メモリ102に格納された各カメラ画像の画素データや、イラスト参照部203
に格納されたイラスト画像の画素データなどを用いて、指定された合成画像の画
素の値を生成し、映像信号生成部204に出力する(ステップS14)。このス
テップS14の処理は、後に詳述する。 映像信号生成部204は、タイミング生成部205から出力されたタイミング
信号に応じて、入力された合成画像の画素値を映像信号に変換し、表示部3に出
力する(ステップS15)。 画像合成部200はフレームの全画素について、ステップS12〜S15の処
理を実行する(ステップS16,S17)。タイミング生成部205は、フレー
ムの最終画素の処理が終わると、次のフレームの処理を開始する。 なお、フィールド単位でも、同様の処理を実行することができる。 図9はマッピングテーブルの構成の例を示す図である。図9に示すマッピング
テーブルは、4種類のマッピングデータMP11〜MP14を有している。各マ
ッピングデータの構成は基本的には図6に示すマッピングデータと同様であるが
、カメラ番号およびx,y座標に加えて、その画素値の必要度が記述されている
。ここでは、「必要度」は0から1までの値によって表されており、値が大きい
ほど、その画素値の必要度は高いものとする。 マッピングデータMP11は、合成画像の画素と、1個のカメラ画像の画素デ
ータとの対応関係を記述したものである。この場合は、必要度は「1」となる。
また、マッピングデータMP12は、合成画像の画素と、複数のカメラ画像の画
素データとの対応関係を記述したものである。この場合は、合成画像の画素値は
、カメラ画像の画素データに対し、その必要度に応じた重み付けを行った上で、
生成する。 マッピングデータMP13は、合成画像の画素に、イラスト画像の画素データ
を貼り付けるために用いられるものである。すなわち、イラスト参照部203に
格納されたイラスト画像が認識できるように、イラスト参照部203にカメラ番
号として、いずれの実カメラにも対応しない番号(ここでは「99」)を割り当
てる。 マッピングデータMP14は、合成画像の画素が、いわゆる死角領域に当たる
ことを示すものである。すなわち、マッピングテーブルを生成する際に、合成画
像の画素を生成するために参照するカメラ画像の画素の座標値を計算した結果、
その座標値の画素が、例えば車両自体を撮している場合には、その合成画像の画
素は、車両領域と死角領域とを合わせた領域に当たる。この領域から車両領域を
除いたものが、死角領域になる。このため、例えばカメラ番号やx,y座標に実
在しない値を与えることによって、死角領域であることを表す。ここでは、カメ
ラ番号として「−1」を与えるものとする。 図10は画素合成ステップS14の詳細な処理の流れを示すフローチャートで
ある。 まず、合成する画素の値を「0」に初期化する(ステップS21)。 次に、合成する画素に対応するマッピングデータから、カメラ番号、x,y座
標および必要度を読み出す(ステップS22)。 ステップS22において、読み出したカメラ番号がイラスト画像を示す識別番
号「99」であるとき(すなわちマッピングデータMP13の場合)、ステップ
S24にすすみ、イラスト参照部203に格納されたイラスト画像の、指定され
たx,y座標の画素データを読み出し、保持する。そして、ステップS28にす
すむ。一方、カメラ番号が「99」でないときは、ステップS25にすすむ。 ステップS25において、読み出したカメラ番号が死角領域を示す識別番号「
−1」であるとき(すなわちマッピングデータMP14の場合)、ステップS2
6にすすみ、予め設定された死角領域を表す画素データを保持する。そして、ス
テップS28にすすむ。一方、カメラ番号が「−1」でないときは、ステップS
27にすすむ。 ステップS27において、カメラ番号が「99」「−1」以外の場合、すなわ
ちイラスト画像を貼る領域でも死角領域でもないと判断される場合は、このカメ
ラ番号は実際のカメラを示す番号であるとして、対応するカメラ番号のフレーム
メモリ102に格納されたカメラ画像から、指定されたx、y座標の画素データ
を読み出し、保持する。 ステップS28において、保持した画素データに、その必要度に応じて重み付
けを行い、合成画像の画素値に加算する。マッピングデータに記述された全ての
カメラ番号について、ステップS22〜S28の処理を繰り返す(ステップS2
9,S30)。全てのカメラ番号について処理が終了すると、画素合成部201
は合成する画素の値を出力する(ステップS31)。 例えば図9に示すマッピングデータMP12の場合には、合成画像の画素値は
、次の式によって求められる。 合成画像の画素値 =(カメラ2の座標(10,10)の画素値×0.3 +カメラ3の座標(56,80)の画素値×0.5)/(0.3+0.5)
ここで、必要度の和(0.3+0.5)によって除するのは、画素値を正規化す
るためである。 以上のような動作によって、複数のカメラ画像を混合した合成画像や、イラス
ト画像を含む合成画像を、容易に生成することができる。また、カメラ画像とイ
ラスト画像とを必要度に応じて重み付けすることによって、実画像の上にイラス
ト画像を半透明で表示する合成画像も生成することができる。あるいは、カメラ
画像以外の画素データ同士を必要度に応じて重み付けすることによって、イラス
ト画像同士を半透明で表示するような合成画像も生成することができる。 また、イラスト画像としては、自車のイラストや画像以外にも、例えば、画像
のスケールや指標などのような画面上で固定の形状を持つものを与えることが可
能である。 なお、ここでの説明では、イラスト画像を参照するためのカメラ番号(「99
」)と、死角領域であることを示すカメラ番号(「−1」)とを個別に設定する
ものとしたが、死角領域を表す画像をイラスト参照部203に格納しておけば、
イラスト画像を参照する場合と死角領域を示す場合とで、同じカメラ番号(「9
9」)を用いることが可能になる。この場合には、例えば、車両を表すイラスト
画像と死角領域を表す画像とを合わせて、イラスト参照部203に格納しておく
ことも可能になる。 また、表示パターン設定部220は、表示モードの指定に応じて表示パターン
を変更する場合には、新たな表示パターンに応じたマッピングテーブルを、マッ
ピングテーブル記憶部211から読み出して、マッピングテーブル参照部202
に設定すればよい。あるいは、複数のマッピングテーブルを合成し、新たなマッ
ピングテーブルを生成してもよい。 またここでは、図9に示すマッピングデータMP13のように、イラスト画像
を表示するためにイラスト参照部203のX,Y座標値を記述するものとしたが
、この代わりに、イラスト画像の画素データ自体をマッピングデータに記述する
ことも可能である。 図11はこのような場合のマッピングデータの一例である。図11のマッピン
グデータMP15は、カメラ番号が「99」のとき、すなわちイラスト画像を表
示させるとき、X座標、Y座標を記憶する領域に、イラスト画像の画素データ自
体をそのまま赤(R)、緑(G)、青(B)の値で記憶する。 例えば、X座標、Y座標をそれぞれ16ビットで表現するものとすると、その
領域は32ビットのサイズになる。一方、イラスト画像の画像データをR,G,
B各色8ビットで表現するものとすると全部で24ビットになるので、その上位
8ビットに“0”を付加し32ビットのデータとして、座標領域に記憶する。こ
の場合、図10のステップS24では、イラスト参照部203を参照する代わり
に、マッピングデータMP15に記述されたR,G,B値を読み出し保持する。 この場合には、マッピングテーブルとイラスト画像とは一体のものとなり、イ
ラスト参照部203は不要になる。また、マッピングデータからX,Y座標値を
読み出して対応するイラスト画像の画素データを読み出すのではなく、マッピン
グデータから直接R,G,B値を読み出すので、処理の手順が1つ省けることに
なる。 また、自車両のイラスト画像を表示するなどの場合には、通常は必要度を1.
0にすることが多いが、図11の例のように、イラスト画像の必要度を1.0よ
りも小さい値にして他のカメラ画像と合成することによって、合成画像の上に、
スケールや指標を半透明で表示することが可能になる。 <基本的な合成画像の例> マッピングテーブルは、大きく、単独マップと複合マップの2つに分けること
ができる。「単独マップ」とは、所定の空間モデル(詳細は後述する)を用いて
、カメラ画像と仮想視点画像とを画素レベルで対応づけたものである。「複合マ
ップ」については後述する。 画像合成部200にどのマッピングテーブルが設定されるかによって、画像処
理部2の表示モードが決定される。この表示モードは、手動によって、または自
動的に切り換えることができる。 代表的な単独マップと、それを用いた合成画像例を、以下に示す。 ・ 鉛直見下ろし(図12〜図14) 空間モデルとしては、路面平面モデルを用いる。仮想視点の位置は、自車の上
方であり、視線の向きは真下である。距離感が一目で分かることを特徴とし、主
たる用途としては駐車(直角、縦列)等が考えられる。図12は8個のカメラ画
像を利用したもの、図13は4個のカメラ画像を利用したもの、図14は2個の
カメラ画像を利用したものである。 ・ 斜め見下ろし(図15) 空間モデルとしては、路面平面モデルを用いる。仮想視点の位置は、自車の上
方であり、視線の向きは斜め後ろ向きである。視線の角度を調整することによっ
て、視野を自由に変換することができる。このモードでは、自車後方が、正しい
位置関係で見渡すように一望できる。主たる用途としては、通常走行時のリアビ
ューモニタとして、あるいは、駐車動作開始時のような低速後退時の確認などが
考えられる。低速走行時には、速度に応じて視野や向きを切り替えるようにして
もよい。 ・ パノラマ(図16,図17) 空間モデルとしては、円筒モデルを用いる。図16は前方パノラマモードであ
り、仮想視点の位置は、自車の先端部であり、視線の向きは真正面である。この
モードでは、走行方向前方の様子が分かるので、ブラインドコーナービューモニ
タとしての利用が考えられる。すなわち、狭い路地から広い通りに出るとき、こ
のモードによって広い通りの様子を一目で認識することができる。 図17は後方パノラマモードであり、仮想視点の位置は、自車の後端部であり
、視線の向きは真後ろである。このモードでは、自車後方部分がパノラマ180
度画像として見渡すように一望できる。主たる用途としては、走行時(特に高速
走行時)のリアビューモニタとしての利用が考えられる。 ・ 斜め見下ろし+パノラマ(図18) 空間モデルとしては、路面平面モデルと円筒モデルとを用いる。すなわち、図
18に示すように、自車後方の直近は、路面平面モデルを用いた斜め見下ろしモ
ードで表示し、自車後方遠方は、円筒モデルを用いたパノラマモードで表示する
。したがって、このモードは、斜め見下ろしモードとパノラマモードの両方の用
途に対応している。 <表示自動切替> 本監視システムは、これまで例示したマッピングテーブルを、様々な運転場面
に応じて適宜切り換えることによって、より安全で快適な運転をサポートするこ
とが可能となる。また、一つの運転操作においても、逐次変わりゆく自車周囲状
況に応じてマッピングテーブルを切り換えることは、運転者にとって必要不可欠
な機能となる。 すなわち、合成画像の仮想視点の位置、視線の向きおよび焦点距離の少なくと
もいずれか1つを、車両の走行状態に応じて変更することによって、運転者の利
便性を向上させることができる。 図19は車両の走行状態に応じて、合成画像の仮想視点の高さを変更した場合
の例を示す図である。図19(a)〜(f)に示す各画像は、下に行くにつれて
仮想視点の高さが徐々に高くなっており、車両を含めた表示領域が次第に広くな
っている。すなわち、仮想視点の高さを下げることによってズームアップが実現
され、仮想視点の高さを上げることによってズームダウンが実現される。なお、
仮想視点の焦点距離を変更した場合でも、図19と同様に合成画像を変化させる
ことができる。 仮想視点の高さを切り替えるトリガーとしては、まず、車両の走行速度が考え
られる。例えば、車両の走行速度が上昇するにつれて、広い領域が表示されるよ
う仮想視点を高くする一方、低下するにつれて、狭い領域が表示されるよう仮想
視点を低くすればよい。あるいは、車両が、自車と障害物との距離を測定する物
体検出センサを備えているときは、その物体検出センサの出力信号を切替のトリ
ガーとして用いてもよい。例えば、検出された障害物との距離が、近くなるにつ
れて、狭い領域が表示されるよう仮想視点を低くする一方、遠くなるにつれて、
広い領域が表示されるよう仮想視点を高くすればよい。さらには、切替スイッチ
を設けておいて、運転手または他の乗員がそのスイッチを介して拡大・縮小を指
定できるようにしてもよい。 図20は車両の走行状態に応じて、合成画像の仮想視点の視線の向きを変更し
た場合の例を示す図である。図20(a)〜(d)に示す各画像は、下に行くに
つれて、仮想視点の視線の向きが、斜め後方から徐々に鉛直下方に変化している
。また、視線の向きとともに、合成画像を生成するためのモデルも変化している
。すなわち、視線の向きが斜めに傾くほど、疑似円筒モデルの合成画像の領域が
大きくなっており、より遠方が見やすくなっている。 図20では、仮想視点の視線の向きの変更とともに、変更後の仮想視点の視野
範囲外画像の取込が制御されている、といえる。すなわち、疑似円筒モデルを用
いることによって、仮想視点の視野範囲外の画像が合成画像に取り込まれている
。そして、車両の走行状態に応じて、仮想視点の視野範囲外画像の取込の有無、
そのサイズ、および、その撮像範囲が制御されている。 仮想視点の視線の向きを切り替えるトリガーとしては、仮想視点の高さを切り
替える場合と同様に、車両の走行速度、スイッチ入力などが想定される。例えば
、車両の走行速度が低いときは、視線の向きを真下にしておき、走行速度が上昇
するにつれて、視線の向きを傾けて、より後方が表示されるようにすればよい。 図21は車両の舵角に応じて、合成画像の仮想視点の視線の向きを変更した例
を示す図である。図21の例では、舵角に応じて、仮想視点を光軸周りに回転さ
せている。(a)はギアがバックでハンドルが真っ直ぐの場合の合成画像である
。この場合は車両が後方に直進するので、後方の領域が見やすくなるように、合
成画像中の自車両が真っ直ぐになり、自車両の左右の領域が均等に表示されるよ
うに、仮想視点を設定する。一方、(b)はギアがバックでハンドルを左に切っ
た場合の合成画像である。この場合は車両は左後方に進むので、そのときに車が
移動する領域すなわち自車両の右側、右後方および後方が見やすくなるように、
仮想視点を光軸周りに回転させる。これにより、安全性が高まる。 図22は物体検出センサの出力信号に応じた画像切替の例を示す図である。同
図中、(a)は物体検出センサが自車両に近接した障害物を検出する前の画面で
ある。物体検出センサが自車両に近接した他の車両を検出したとき、画面は図2
2(b)のように切り替わる。すなわち、検出した障害物との距離がより認識で
きるように、画像を拡大して表示する。 このように、物体検出センサが障害物を検出したとき、画像を、障害物との距
離に応じて、段階的または連続的に拡大/縮小/回転などして表示することによ
って、障害物に対して、乗員の注意を喚起することができる。また、障害物が存
在する位置に応じて、仮想視点の位置を変更してもよい。 さらに、図23に示すように、障害物が存在する領域を拡大して表示するとと
もに、その領域を枠で囲んで表示してもかまわない。あるいは、枠を点滅させた
り、枠内の色を反転させてもよい。このようにすれば、乗員の注意をさらに確実
に喚起することができる。もちろん、画像を拡大せずに単に枠で囲んで表示する
だけであっても、乗員の注意を喚起することはできることはいうまでもない。ま
た、画面表示の変更とともに、警告音によって、障害物の存在を知らせるように
してもかまわない。 図24は物体検出センサの検出結果に応じた画像切替の他の例を示す図である
。図24では、車両後方に障害物を検知したとき、仮想視点の視線の向きを、真
下からやや後ろ向きに変更している。これにより、車両後方の障害物がより見や
すくなっている。また、検出した障害物が合成画像の中心にくるように、仮想視
点を平行移動させてもよい。 なお、図19〜図24では、仮想視点が車両の上方にある場合の合成画像を例
にとって示したが、仮想視点が他の位置にある場合であっても、車両の走行状態
に応じて仮想視点の位置、視線の向きおよび焦点距離のうちの少なくとも1つを
変更することによって、運転者の利便性を向上させることができる。仮想視点の
位置の他の例としては、リアトランクの位置や、運転者の頭の位置などが考えら
れる。 また、図20では、仮想視点の視線の向きの変更とともに、その視野範囲外画
像の取込を制御しているが、仮想視点の位置や焦点距離の変更とともに、その視
野範囲外画像の取込を制御してもよい。また、モデルを用いないで、仮想視点の
視野範囲外画像を取り込んでもかまわない。さらに、仮想視点を変えないで、仮
想視点の視野範囲外画像の取込の制御のみを、車両の走行状態に応じて、行って
もかまわない。 (合成画像生成動作の第2例) 表示画像の切替は、用いるマッピングテーブルを適宜変更することによって、
容易に実現することができる。ところがこの場合、表示画像の切替を連続的に行
うためには、多数のマッピングテーブルを準備しておくことが必要になる。この
ため、装置に膨大な記憶容量を有する記憶部を設けることが必要になるので、好
ましくない。 ここでは、合成画像よりも大きい原マッピングテーブルを設けておき、この原
マッピングテーブルから切り出したマッピングテーブルを用いて、合成画像の生
成を行うものとする。この場合には、切り出すマッピングテーブルを適宜変更す
ることによって、表示画像の連続的な切替を容易に実現することができる。 図25は本例に係る監視システムの構成を示す図である。図7に示す構成と異
なるのは、マップ領域設定部302が、タイミング生成部205から出力された
合成画像の画素の座標と、表示パターン設定部220Aによって設定されたマッ
ピングテーブルの領域指定情報とに基づいて、対応するマッピングテーブルの要
素を生成し、マッピングテーブル参照部202に出力する点である。マッピング
テーブル参照部202には、表示パターン記憶部210Aが有する原マッピング
テーブル記憶部301に記憶された原マッピングテーブルが、表示パターン設定
部220Aによって設定されている。 すなわち、上述した第1例では、図8に示すステップS13において、タイミ
ング生成部205によって設定された現在出力すべき合成画像の画素に対し、こ
の画素と同一位置にあるマッピングデータを読み出すものとしたが、本例では、
原マッピングテーブル上で、利用するマッピングテーブルの領域を設定した後に
、合成画像の画素に対応するマッピングデータの読み出しを行う。 本例におけるマッピングデータの読み出し方法について説明する。図26およ
び図27は本例における合成画像と原マッピングテーブルとの関係を模式的に表
したものである。図26の例では、原マッピングテーブルから切り出す領域のサ
イズを合成画像と同一のサイズに固定し、オフセット値を変えることによって、
合成画像の平行移動を実現する。図27の例では、原マッピングテーブルから切
り出す領域のサイズおよび要素の読み出しステップを変えることによって、合成
画像の拡大・縮小を実現する。 まず、合成画像の平行移動を行う場合について、図26を参照して説明する。 図26(a)に示す合成画像は幅W_DISP,高さH_DISPのサイズを
持ち、図26(b)に示す原マッピングテーブルは幅W_MAP、高さH_DI
SPのサイズを持つものとする。ここでは、原マッピングテーブルとして、車の
上空の仮想視点から車の周囲の広い範囲を見下ろしたような画像を作るものを考
える。これは、前述した第1例において、焦点距離が一定であるとすると、仮想
視点と投影面の距離が一定のまま、投影面のサイズが(W_DISP,H_DI
SP)から(W_MAP,H_MAP)に拡大したと考えて、原マッピングテー
ブルを構成すればよい。投影面の拡大によって、原マッピングテーブルには、よ
り広範囲の領域に関する情報が含まれる。図26(d)はこのようなマッピング
テーブルの各要素を、対応するカメラ画像およびイラスト画像に置き換えた画像
である。 次に、表示パターン設定部220Aは、原マッピングテーブル上で、合成画像
生成のためのマッピングテーブルとして用いる領域を、原点(0,0)からのオ
フセット(off_x,off_y)によって指定する。点(off_x,of
f_y)を開始点とした大きさ(W_DISP,H_DISP)の領域MPTが
、画像合成のために用いられるマッピングテーブルとなる。合成画像をラスター
走査して得られた画素のX、Y座標にこのオフセット(off_x,off_y
)を加算した位置のマッピングデータが、マッピングテーブル参照部202から
読み出され、画素合成部201に入力される。画素の合成処理は、第1例と同様
に、図10のフローチャートに従って行われる。図26(c)は、図26(b)
に示すマッピングテーブルMPTを用いて得られた合成画像である。 オフセットを加えた座標が原マッピングテーブルの範囲を超えた場合は、画素
合成部201に通知し、予め設定した色(例えば黒)などを画素の値とするなど
領域が判るような表示を行う。 本例によると、仮想視点を車両上方から路面を垂直に見下ろすように配置し、
路面平面モデルを用いた場合に、仮想視点を路面と平行に移動させたときの合成
画像を、マッピングテーブルを増やすことなく、生成することが可能になる。す
なわち、上述した第1例では、平行移動した仮想視点のそれぞれに対応するマッ
ピングテーブルが必要であったが、本例では1つの原マッピングテーブルのみで
済む。例えばスムーズな視点移動を行うために1画素ずつ仮想視点を移動するよ
うな場合、上述した第1例では、移動ステップの全部に対応する多数のマッピン
グテーブルが必要になるが、本例では、広範囲の1つの原マッピングテーブルに
おいて、マッピングテーブルを切り出す開始位置(off_x,off_y)を
変化させるだけで実現可能である。また本例では、例えばダイアルなどを回して
仮想視点の位置を変更したり、障害物検出センサの出力の大きさに比例して障害
物の方向へ仮想視点の位置を変更したりする場合に、細かいステップで仮想視点
の位置が変更できるため、状況に応じた合成画像を容易に生成できる。 本例では、仮想視点を細かなステップで平行移動するために多数のマッピング
テーブルを用いる必要がないので、マッピングテーブルを記憶するためのメモリ
は1個の原マッピングテーブルを記憶可能な容量があればよい。また、第1例で
は、マッピングテーブルの切換や設定に時間がかかるのに対し、本例ではオフセ
ットの設定のみで済むので、処理の高速化を図ることができる。 次に、同様の方法を用いて合成画像の拡大・縮小を行う場合について、図27
を参照して説明する。 図27において、タイミング生成部205は(a)に示す合成画像の画素P1
の座標(x,y)を指定したとする。表示パターン設定部220Aは、領域の開
始位置(off_x,off_y)とともに、要素の読み出しステップ(ste
p_x,step_y)を指定する。このとき、画素P1に対応するマッピング
データMDの座標を(u,v)とすると、座標(u,v)は次の式によって求め
られる。 u=step_x*x+off_x v=step_y*y+off_y 読み出しステップ(step_x,step_y)の値を変えることによって、
合成画像を滑らかに拡大・縮小することが可能になる。原マッピングテーブルか
ら切り出されるマッピングテーブルの領域が、読み出しステップ(step_x
,step_y)の変化に応じてMPT1,MPT2,MPT3,MPT4と変
化したとき、合成画像は(d),(e),(f),(g)のように変化する。 座標(u,v)が原マッピングテーブルの範囲を超えたときは、前述した平行
移動の場合と同様に、指定の色などを出力する。また、読み出しステップ(st
ep_x,step_y)の値は整数以外の値を用いることもでき、この場合は
、計算結果の(u,v)の値を整数に変換する。 本例に係る拡大・縮小によると、仮想視点を車両上方から路面を垂直に見下ろ
すように配置し、路面平面モデルを用いた場合、仮想視点の高さまたは焦点距離
の変更によって視野範囲を拡大・縮小した場合と同様の、合成画像を生成できる
。 例えば、運転者などからの指示やセンサ入力に応じて、原画像の一部を拡大表
示する場合、唐突に拡大画像を出力するのではなく、本例に係る方法を用いて滑
らかに拡大して表示することによって、拡大画像が原画像のどの領域を拡大した
ものであるかが把握しやすくなる。 さらに、読み出しステップの変更とともに、オフセット値を変えることによっ
て、合成画像の拡大・縮小とともに、平行移動も実現することができる。 なお、一般には、マッピングテーブルの領域を矩形に限定する必要はない。す
なわち、表示パターン設定部220Aが、マッピングテーブルの領域を、四辺形
の4頂点の座標で指定するようにしてもよい。 図28において、マッピングテーブルの領域を凸形の四辺形とし、4点n1,
n2,n3,n4で指定する。このとき、合成画像の座標(x、y)の画素P1
に対応するマッピングデータMDの座標(u,v)は、次のように求めることが
できる。 まず、頂点n1,n2を(y/H_DISP:1−y/H_DISP)に内分
する点naの座標を求める。同様に、頂点n3,n4を(y/H_DISP:1
−y/H_DISP)に内分する点nbを求める。次に、点na,nbを(x/
W_DISP:1−y/W_DISP)に内分する点の座標を求めれば、これが
対応するマッピングデータMDの座標(u,v)となる。 このような指定をすれば、平行移動、拡大、縮小、回転を含む、任意のマッピ
ングテーブルの領域指定が可能となる。 なお、本方式によると、路面平面モデルを用いて、仮想視点が上方から路面を
垂直に見下ろす場合については、仮想視点の平行移動や、視野範囲の拡大・縮小
または路面に平行な回転のような仮想視点の変化と正確に一致する合成画像を生
成することができる。ただし、モデルや仮想視点の向きが異なる場合には、仮想
視点の変化と正確に一致する合成画像を生成することは、必ずしもできない。し
かしながら、このような場合でも、仮想視点の変化に近似する合成画像を生成す
ることは可能であるので、本方式は極めて有効である。 <複数種類の画像表示> 複数種類の合成画像を、併せて1つの画面に表示したり、合成画像とカメラ画
像とを同時に1つの画面に表示することによって、運転手の利便性を高めること
ができる。例えば、自車の近傍と遠方とを同時に表示したり、互いに異なる方向
の画像を同時に表示したり、白車の全体と拡大した自車の一部とを同時に表示し
たりすることによって、運転手は、画面表示を切り替えなくても、車両の周囲の
状況が的確に理解することができる。 このような複数種類の画像表示は、複合マップを用いることによって、容易に
実現することができる。「複合マップ」とは、単独マップの必要な部分を切り出
して適当な変形を行い、貼り合わせたり、単独マップにカメラ画像を貼り合わせ
たマッピングテーブルのことをいう。次に説明するような画像表示は、複合マッ
プを用いて容易に実現可能であるが、これ以外の画像表示についても、単独マッ
プ同士や、単独マップとカメラ画像とを組み合わせることによって、様々な運転
場面に応じた複合マップを作ることは可能である。 ここでは、車両上方に設定された仮想視点から見た,自車およびその周辺を示
す近傍画像としての、路面平面モデルを用いた見下ろし画像と、この見下ろし画
像を示す自車の周辺領域よりも遠方の領域を示す遠方画像とを含む画像を、表示
する例について、説明する。図29はここでの説明の前提となるカメラ画像を示
す図である。 図30は第1の画像としての見下ろし画像の左右に、第2の画像としての斜め
後方を撮すカメラ画像を貼り付けた例である。この例では、第2の画像の視点は
、第1の画像の仮想視点と、位置、視線の向きおよび焦点距離が異なっている、
といえる。図30の画像では、見下ろし画像の右側には、右斜め後方の風景を撮
すカメラ2の画像が左右反転されて配置されており、見下ろし画像の左側には、
左斜め後方の風景を撮すカメラ6の画像が左右反転されて配置されている。すな
わち、左右のドアミラー付近に設置されたカメラ2,6の画像が、実際にドアミ
ラーを介して見えるように、左右反転されて配置されている。したがって、運転
手は、ドアミラーを見るのと同じ感覚で、直感的に車両周囲の状況を理解するこ
とができる。もちろん、左右反転せずに表示してもかまわない。 図31は狭い範囲を示す第1の画像としての見下ろし画像と、広い範囲を示す
第2の画像としての見下ろし画像とを並べて表示した例である。この例では、第
2の画像の仮想視点は、第1の画像の仮想視点と、高さまたは焦点距離が異なっ
ている、といえる。図31の画像を見ると、自車の近傍は詳細に、また広い範囲
はサムネイル的に、一度に見ることができる。 図32は第1の画像としての見下ろし画像の周囲に、第2の画像としての前後
左右の斜め見下ろし画像を貼り付けた例である。この例では、第2の画像の仮想
視点は、第1の画像の仮想視点と視線の向きが異なっている。図33は第1の画
像としての見下ろし画像の周囲に、第2の画像としての疑似円筒モデルを用いた
魚眼レンズで見たような画像を貼り付けた例である。この例では、第2の画像は
第1の画像とモデルが異なっている。図34は第1の画像としての見下ろし画像
の周囲に、第2の画像としての前後左右のパノラマ画像を貼り付けた例である。
この例では、第2の画像は、第1の画像と、仮想視点の位置およびモデルが異な
っている。図32〜図34の画像を見ると、自車の近傍においては距離感を保つ
ことができ、かつ、自車周囲遠方は見渡すように一望することができる。 なお、見下ろし画像の前後左右全てに、遠方画像を貼り付ける必要は必ずしも
なく、見せたい方向のみ、例えば右側のみ、後方のみに遠方画像を表示するよう
にしてもかまわない。 なお、図35に示すように、見下ろし画像の周囲の前後左右に斜め見下ろし画
像を貼り付ける場合、表示領域の四隅に空白部を設けて、斜め見下ろし画像は互
いに連続性がないことを強調するようにしてもかまわない。 さらに、図32〜図35のような画像表示を行う際には、周囲の遠方画像を、
フィルタ処理を施すことによって、ぼやかせて表示してもかまわない。これによ
り、運転者の注視領域を自車両の周辺に集中させることができる。また、周囲の
遠方画像の歪みを目立たないようにすることができる。 このような部分的なぼかし処理は、単独マップを用いた画像表示の場合であっ
ても有効である。例えば、図5に示すような見下ろし画像の場合であっても、自
車両およびその近傍にはぼかし処理を行わず、他の駐車車両が映っているような
周辺領域にぼかし処理を行うことによって、同様の効果を得ることができる。駐
車時などの場合には、ぼかし処理を行わない領域は、自車両から10m以内の領
域に設定すると適切である。また、自車両から距離が離れるにつれてぼかし強度
を増加させてもよい。 また、図31の画像は、自車両と、自車両の周囲を示す第1の画像と、この第
1の画像が示す領域の少なくとも一部を拡大した第2の画像とを含む合成画像で
あるともいえる。もちろん、第1の画像が、自車両の全体ではなく自車両の一部
を示していたり、自車両の周囲の一部を示していたりしていても、かまわない。 また、表示画面をマルチウィンドウにし、サブウィンドウに、上述したような
合成画像や、カメラ画像、仮想視点の位置を示す画像、文字情報などを表示する
ようにしてもよい。これにより、自車両の周囲状況がさらに容易に把握しやすく
なり、運転手の利便性が向上する。 マルチ画面の表示方法としては、いろいろなものが考えられる。例えば、図3
6に示すように、カメラ画像や合成画像とともに、仮想視点の位置を示す画像を
サブウィンドウに表示してもよい。これにより、仮想視点の位置を容易に把握す
ることができる。 また例えば、物体検出センサが障害物を検出したときに、各サブウィンドウの
カメラ画像または合成画像上にその障害物の位置を示す警告マークを表示させる
ともに、別のサブウィンドウに、文字によって、その障害物の位置を表示させて
もよい。 <死角領域および自車両領域の表示> (その1) 図37はカメラ画像およびそのカメラ画像における自車両の映り込み領域を示
す領域データとしてのマスクデータの例を示す図である。図37に示すように、
各カメラ画像において自車両が映り込んだ部分を認識し、認識した車両の映り込
み領域を示すマスクデータを、予め画像処理部2に記憶させておく。図37に示
すマスクデータにおける黒色の部分が、車両の映り込み領域である。車両の映り
込み領域は、カメラの仕様と向き、および自車両の形状が定まれば、予め一意に
決定することができる。 図38(a)は図37のカメラ画像を用いて合成した鉛直見下ろし画像である
。図38(a)に示す合成画像では、画像の中央部に白く自車両が映り込んでお
り、多少見づらくなっている。 そこで、各カメラ画像のマスクデータを、仮想視点から見た画像に変換し、合
成画像において、車両の映り込み領域を塗りつぶすことにする。この結果、図3
8(b)に示すような画像が得られ、見やすさが改善される。 また、図38(a)では、画像の中央部に自車両が映り込んでいるため見づら
くなっているとともに、自車両が実際にどこにあるのかが分からないので、運転
しづらい。そこで、自車両のイラスト画像または実画像を、自車両が実際に存在
する位置に、スーパーインポーズする。例えば、画像処理部2は、標準の仮想視
点から見たことを前提とする自車両のイラスト画像または実画像を予め記憶して
おき、その画像を、表示する合成画像の仮想視点から見た画像に変換し、スーパ
ーインポーズすればよい。この結果、図38(c)に示すような画像が得られ、
周りの物体に対する自車両の大きさや相対的な位置関係が、一目で分かるように
なった。自車両画像の変換は、前述したマッピングテーブルを用いることによっ
て、容易に実現できる。 この場合、標準の仮想視点としては、例えば自車両の上方に設けた仮想視点や
、側面に位置する仮想視点や、自車両の前方または後方などに設けた仮想視点を
、用いることができる。また、標準の仮想視点を複数個設けて、複数の標準の仮
想視点に対してそれぞれ画像を準備してもよい。そして、合成画像を生成するた
めの仮想視点の位置が決まると、その仮想視点と各標準の仮想視点との位置関係
から、画像変換時に画像の歪みが最も小さくなる標準の仮想視点を選択するよう
にしてもかまわない。 なお、自車両のイラストまたは実画像を貼り付ける代わりに、CAD/CAM
やCGの分野で公知のサーフェスモデルやソリッドモデルを用いた自車両の3次
元モデルを、合成画像に貼り付けるようにすることも可能である。この場合も、
標準の仮想視点から見た3次元モデルを表す画像を予め準備しておき、この画像
を、表示する合成画像の仮想視点から見た画像に変換し、スーパーインポーズす
ればよい。この変換も、前述したマッピンテーブルを用いることによって、容易
に実現することができる。 さらに、自車両が実際に存在する領域を示す画像として、カメラ画像から生成
した合成画像そのものを利用するようにしてもよい。また、自車両の一部、例え
ばバンパー部分のみを合成画像で表示し、これ以外の部分はイラストまたは実画
像を貼り付けるようにしてもかまわない。 (その2) 仮想視点から見た合成画像には、いずれのカメラの撮像範囲にも属さない領域
が含まれる場合ある。また、自車両が妨げになって、各カメラからは撮像できな
い領域も含まれる場合がある。 この問題を解決するために、上述の(その1)では、車両の映り込み領域に所
定の画素データを与えて塗りつぶすことによって、合成画像をより見やすくした
。 ここで、図39に示すように、自車両が映ったカメラ画像をそのまま仮想視点
画像に変換すると、変換された自車両画像が合成画像に含まれることになり、見
にくくなる(A1)。この場合は、自車両が映る領域を塗りつぶすことによって
、見やすさは改善される。 ところが、仮想視点画像において、自車両が本来存在しない部分に、自車両の
一部が映ってしまう場合が起こりうる(A2)。このような場合は、仮想視点画
像において自車両の部分を塗りつぶすと、本来見えるべき部分までが消えてしま
うので、好ましくない。この問題は、原カメラ画像を仮想視点画像に変換する際
に利用する空間モデルが、カメラに映っている実世界と異なる(ほとんどは単純
化される)場合に起こりうるものである。このため、この問題を原理的に解決す
るためには、実世界の奥行き情報を実時間で計算することが必要となり、非常に
高速な演算能力が装置に要求される。したがって、実施は困難である。 そこで、次のような方法によって、この問題を解決する。 すなわち、合成画像の画素が車両の映り込み領域に含まれるか否かを、原カメ
ラ画像と対になるマスクデータを参照して判断し、この画素の生成を、車両の映
り込み領域に含まれる場合とそうでない場合とにおいて切り換える。すなわち、
マスクデータを仮想視点画像に変換するのではなく、マスクデータを、原カメラ
画像の形態のまま用いる。 図40はマスクデータの一例を示す図である。図40に示すように、各カメラ
画像に対して、自車両の映り込み部分など仮想視点画像合成に用いない領域を示
すマスクデータが設けられている。 この場合には、例えば、合成画像の生成のためにカメラ画像の画素データを参
照するとき、このカメラ画像に対応するマスクデータも参照し、その画素が車両
の映り込み領域に含まれるときには、画素の生成を行わないで、死角領域である
ことが識別可能な色で塗りつぶすなどの処理を行えばよい。 また前述のマッピングデータMP14のように、合成画像の画素が死角領域に
含まれるか否かの情報を、マッピングテーブル自体に持たせてもよい。この場合
には、仮想視点画像合成の際に、フレーム毎にマスクデータを参照する必要が無
くなり、処理の高速化が実現できる。また、マスクデータを蓄える記憶部を設け
る必要がない、という利点がある。 図41は画像合成の結果の一例を示す図である。図41に示す合成画像では、
自車両が存在する車両領域と、自車両の周囲の死角領域とが、示されている。車
両領域を示すことによって、自車両と周囲の状況との位置関係や距離などが、運
転者から把握しやすくなる。また、運転席からは直接見えにくい領域も合成画像
によって確認できるようになるが、さらに死角領域を示すことによって、いずれ
のカメラからも撮影されない領域を運転者に認識させることができるので、安全
性が向上する。 なお、自車両が存在する車両領域の全てを示す必要は必ずしもなく、車両領域
の一部を示す場合もあり得る。例えば、カメラの設置台数が限られており、車両
およびその周囲の一部しか撮影されない場合には、撮影された車両領域の一部と
、その周囲の死角領域のみが示される。あるいは、車両周囲の特定の一部を拡大
表示させるような場合には、表示する車両領域の一部と、その周囲の死角領域が
示される。 また、死角領域の代わりに、車両の乗員などの注意を喚起するための注意喚起
領域を示してもよい。この注意喚起領域は、いずれのカメラからも撮影されない
車両周囲の死角領域を含んだ領域であってもよいし、死角領域そのものに相当す
る領域であってもかまわない。また、注意喚起領域は、車両の周囲の一部を示す
ものであってもよい。 注意喚起領域は、カメラの撮影範囲にかかわらず、車両領域との位置関係のみ
によって予め設定可能であるので、簡易な処理で合成することが可能である。ま
た、注意喚起領域が死角領域を含んでいるとき、死角領域ではない、カメラから
撮影された部分も注意喚起領域として隠されてしまう可能性があるが、例えば、
注意喚起領域を半透明表示して、死角領域と併せて表示するようにしてもよい。 図42はマスクデータを用いて死角領域を求め、イラスト画像を貼り付ける場
合におけるマッピングデータの生成手順を示す図である。図42において、<P
T1>は1個のカメラ画像から生成される合成画像の画素、<PT2>は2個の
カメラ画像を参照するが、カメラ画像の1つが車両の映り込みのために除去され
、残りの1個のカメラ画像から生成される合成画像の画素、<PT3>は1個の
カメラ画像を参照するが、そのカメラ画像が車両の映り込みのために除去される
合成画像の画素、<PT4>は1個のカメラ画像を参照するが、そのカメラ画像
が車両の映り込みのために除去され、かつ、車両のイラスト画像が貼られる合成
画像の画素である。 まず、ステップ1において、参照座標および必要度の計算を行う。合成画像の
画素に対し、全てのカメラ画像について参照座標を計算する。この参照座標の計
算は、後述する幾何演算によって行う。このとき、求めた参照座標がカメラ画像
の撮影範囲外(すなわち死角)にあるときは、座標値として(−1,−1)を記
述する。またここでは、参照するカメラの台数を求め、その逆数を必要度として
与えるものとする。必要度の与え方は、他の方法でもかまわないし、人手による
入力で与えてもよい。このステップ1において、<PT1>が参照するのはカメ
ラ6、、<PT2>が参照するのはカメラ4,5、<PT3>が参照するのはカ
メラ6、<PT4>が参照するのはカメラ2であることを得る。 次に、ステップ2において、車両の映り込み領域を示すマスクデータを参照し
て、死角の処理を行う。座標値が(−1,−1)以外のカメラに対応するマスク
データにおいて、その座標値が示す点が、車両の映り込み領域に属するか否かを
判断する。車両の映り込み領域に属するときは、その座標値を(−1,−1)に
変換する。この変換によって、参照するカメラの台数が減ったときは、必要度の
値を再度計算する。 <PT1>については、図43(d)に示すように、カメラ6のマスクデータ
において点(450,200)は車両の映り込み領域に属しないので、座標値の
変換は行わない。<PT2>については、図43(b)に示すように、カメラ4
のマスクデータにおいて点(150,280)は車両の映り込み領域に属するの
で、カメラ4の座標値を(−1,−1)に変換する。一方、図43(c)に示す
ように、カメラ5のマスクデータにおいて点(490,280)は車両の映り込
み領域に属しないので、カメラ5の座標値は変換しない。そして、その必要度を
「1」に変換する。<PT3>については、図43(d)に示すように、カメラ
6のマスクデータにおいて点(110,250)は車両の映り込み領域に属する
ので、カメラ6の座標値を(−1,−1)に変換する。<PT4>については、
カメラ2のマスクデータにおいて点(600,290)は車両の映り込み領域に
属するので、カメラ4の座標値を(−1,−1)に変換する。 次に、ステップ3において、画像合成に最低限必要なデータにするために、冗
長なデータの整理を行う。まず、座標値が(−1,−1)であるカメラ番号を全
て「−1」に変更する。そして、全てのカメラ番号が「−1」である場合は、こ
れらのデータを1つに統合する(<PT3>,<PT4>)。また、「−1」以
外のカメラ番号がある場合は、カメラ番号が「−1」であるデータを除去する(
<PT1>,<PT2>)。 そして、ステップ4において、自車両のイラスト画像の貼り付けを行う。自車
両のイラスト画像を貼り付ける合成画像の画素については、マッピングデータの
カメラ番号を「99」に変換し、イラスト画像の参照座標を設定する。ここでは
、<PT4>がイラスト画像を貼り付ける画素であるので、カメラ番号を「99
」に変換するとともに、座標値をイラスト画像の参照座標値(360,44)に
変換する。 図44(a)はステップ1終了時におけるマッピングデータを用いた場合の合
成画像の例、図44(b)はステップ3終了時におけるマッピングデータを用い
た場合の合成画像の例、図44(c)はステップ4終了時におけるマッピングデ
ータを用いた場合の合成画像の例である。 図45はマスクデータを用いないで、注意喚起領域を指定する場合におけるマ
ツピングデータの生成手順を示す図である。図45において、<PT5>は1個
のカメラ画像から生成される合成画像の画素、<PT6>は注意喚起領域に指定
される合成画像の画素、<PT7>は注意喚起領域に指定されるが、車両のイラ
スト画像が貼られる合成画像の画素である。 まず、ステップ1’において、初期マッピングテーブルの生成を行う。これは
、図42に示すステップ1およびステップ3の処理によって実行される。 次に、ステップ2’において、注意喚起領域の指定を行う。ステップ1’で生
成した初期マッピングテーブルを用いて合成画像を作成し、この合成画像におい
て、注意喚起領域を指定する。 次に、ステップ3’において、注意喚起領域に該当するマッピングデータの書
き換えを行う。ステップ2’で指定された注意喚起領域に該当するマッピングデ
ータを、カメラ番号「−1」、座標(−1,−1)に変換する。そして、参照す
るカメラの台数が減ったときは、必要度の値を再度計算する。 そして、ステップ4’において、自車両のイラスト画像の貼り付けを行う。こ
こでは、<PT7>がイラスト画像を貼り付ける画素であるので、カメラ番号を
「99」に変換するとともに、座標値をイラスト画像の参照座標値(360,4
4)に変換する。 図46(a)はステップ1’終了時におけるマッピングデータを用いた場合の
合成画像の例、図46(b)はステップ3’終了時におけるマッピングデータを
用いた場合の合成画像の例、図46(c)はステップ4’終了時におけるマッピ
ングデータを用いた場合の合成画像の例である。 このようにすれば、自車両画像を合成画像に重ね合わせたり、死角領域や注意
喚起領域を特定の色で塗りつぶしたりするような処理を、容易に行うことができ
る。そして、注意喚起領域を設定する場合は、カメラに対するマスクデータを参
照しないで、予め決まった注意喚起領域を合成することによって、より簡易に合
成画像を生成できる。一方、死角領域を設定する場合は、カメラに対するマスク
データを参照することによって、カメラに映っている車両周囲の状況を余すこと
なく合成画像に反映させることが可能になる。 なお、以上の説明では、本発明に係る監視システムや画像処理装置は、車両に
適用するものとしたが、車両以外の移動体、例えば飛行機や船舶などであっても
、同様に適用することができる。また、移動体以外の監視対象、例えば店舗、住
居、ショールームなどにカメラを設置してもよい。 また、複数のカメラの設置位置や台数は、ここで示したものに限られるもので
はない。 また、本発明に係る画像処理装置の機能は、その全部または一部を、専用のハ
ードウェアを用いて実現してもかまわないし、ソフトウェアによって実現しても
かまわない。また、本発明に係る画像処理装置の機能の全部または一部をコンピ
ュータに実行させるためのプログラムを格納した記録媒体や伝送媒体を、利用す
ることも可能である。 <幾何変換> 合成画像のためのマッピングテーブルを作成するためには、仮想視点から見た
合成画像の各画素に対応する各カメラ画像の画素の座標を決める必要がある。 このために、まず、仮想視点からの合成画像の各画素に対応するワールド座標
系(Xw、Yw、Zw)を求め、そのワールド座標系の3次元座標に対応するカ
メラ画像の画素の座標を求める2段階を考えると判りやすい。 最終的に必要な関係は、仮想視点の合成画像の各画素と各カメラ画像の画素と
の関係だけであり、このワールド座標系を経由するマッピングテーブルに限定さ
れるものではない。ただし、このワールド座標系を経由するマッピングテーブル
は、合成画像の実際の世界での座標系であるワールド座標系での意味付けが明確
になるため、周囲の状況を実際の距離、位置関係と対応付けやすい合成画像を生
成する点で重要である。 仮想視点の位置と向きを表すパラメータとして、視点のワールド座標系での座
標を位置ベクトルTv=(Txv、Tyv、Tzv)、視線の向きを、視平面座
標系をワールド座標系の向きへ一致させる回転を表す3行3列の回転行列Rvで
表すとすると、合成画像の視点座標(Vxe,Vye,Vze)の対応するワー
ルド座標(Xw,Yw,Zw)は、式(1)で求められる。 図47は、視点座標系とワールド座標系の関係を説明する模式図である。 図48に示すように、仮想視点の向きを、視線がワールド座標系Y−Z平面に
対して水平回転の角度(方位角)をαv、X−Z平面に対してなす傾きの角度(
仰角)をβvとし、カメラの光軸周りの回転(Twist)をγvとすると、回
転行列Rvは、 となる。 一方、仮想視点の視点座標系(Vxe,Vye,Vze)のVxe、Vyeと
、投影面上の2次元座標Uv、Vvの関係は、透視投影変換より焦点距離fvを
用いて以下の式(3)で表される。 焦点距離の単位としては、投影面をフィルムやCCDとして、その大きさに対
応するmmやインチであらわす場合や、合成画像のサイズに対応して画素であら
わす場合などがあるが、今回は投影面を投影中心を中心として幅2、高さ2の正
規化したものとし、それに対する焦点距離を考える。 よって、投影面上の座標と合成画像の画素の関係は、画像の右上から(Sv、
Tv)の位置にある画素に対応する投影面上の座標(Uv,Vv)は、画像の横
幅をWv画素、縦幅をHv画素とすれば、 Uv = 2×Sv/Wv−1 Vv = 2×Tv/Hv−1 …(4) として求まる。 以上より、合成画像の任意の画素(Sv,Tv)に対応するワールド座標系の
3次元座標(Xw、Yw、Zw)は、式(1)〜(4)より、カメラの位置Tx
v,Tyv,Tzv,カメラの向きαv、βv、γv,焦点距離fvより次の式
(5)で求めることができる。 ただし、式(5)では、合成画像の座標(Sv、Tv)に対応する奥行きVz
eが未定である。言い換えると、合成画像に写る対象物までの各画素からの奥行
き値を定める必要がある。 仮想視点から見える対象物の3次元形状を知ることができれば、各画素の奥行
きを得ることができるが、一般には困難である。そこで、仮想視点から見える対
象物の形状に何らかのモデルを仮定することにより、上記Vzeを求め、合成画
像の座標とワールド座標系の3次元座標との関係を求めることを行う。 ―路面平面モデル― その一例として、対象物を車が接している路面平面に限定した場合について説
明する。 すべての対象物がワールド座標系の平面(路面)に存在すると仮定すると、ワ
ールド座標系の3次元座標(Xw,Yw,Zw)は、以下の平面の方程式を満た
す。 ax+by+cz+d=0 …(6) よって、式(6)を式(5)に代入して、Vzeを求めると、 となる。 よって、式(7)を式(5)に代入することにより、仮想視点の合成画像の画
素の座標(Sv,Tv)から、対応するワールド座標系の平面の3次元座標(X
w,Yw,Zw)を求めることができる。 このワールド座標系での3次元座標(Xw,Yw,Zw)に対応する、各カメ
ラ画像の各画像の座標は式(1)と同様な関係式に、各カメラの位置、向きに対
応するTx、Ty、Tz、α、β、γのパラメータを代入して計算することによ
り求めることができる。 例えば、カメラ1の位置をTx1,Ty1,Tz1,向きをα1,β1,γ1
とすれば、合成画像の画素(Sv,Tv)に対応するカメラ1のカメラ座標系X
e1,Ye1,Ze1が,以下の式(8)より計算できる。 このカメラ座標系とカメラ画像の座標系(U1、V1)との関係は、カメラ1の
焦点距離をf1として、式(3)より U1 = f1/Ze1×Xe1 V1 = f1/Ze1×Ye1 …(9) として計算できる。対応するカメラ画像の画素は、カメラ画像のサイズを縦H1
画素、横W1画素として、アスペクト比1:1、カメラ中心が画像の中心と考え
ると、次の式(10)で計算できる。 S1 = W1/2×(Uv+1) T1 = H1/2×(Vv+1) …(10) 以上の手続きにより、仮想視点画像の画素(Sv,Tv)に対応するカメラ1
の画像の画素(S1,T1)を求めることができた。同様にカメラ1以外の一般
のカメラnに対しても(Sv,Tv)に対応する画素座標(Sn,Tn)が計算
できる。実際にパラメータテーブルには、その中から、(Sn,Tn)が実際の
カメラ画像の範囲内に写っているか、画素の拡大、縮小率が大きくないかなどの
種々の条件により、その最適なものを1つまたは複数選び、カメラ番号nとその
座標(Sn,Tn)を書きこむ。 ―円筒モデル― 前記の路面平面モデルでは、カメラ画像で水平線から上に写っている物体は路
面平面を無限遠に延ばしても路面平面上には載らないので、仮想視点から見るこ
とことはできない。 これらの物体を仮想視点からの合成画像に反映するために、対象の3次元形状
として図49に示すような円筒モデルを考える。このモデルは、仮想視点の向き
が路面に対して平行に近くなった場合などに有効である。 いま簡単のために、X軸、Z軸に軸を持つ円筒モデルを考えると、楕円円筒の
中心を(Xc,Zc)とし、楕円のパラメータ(a,c)を用いて、そのモデル
を次の式(11)としてあらわす。なお、X軸、Z軸以外に軸を持つモデルへも
、XZ平面上での回転を考えることにより、容易に拡張できる。 式(11)を用いて式(5)からVzeを消去することによって、仮想視点の
合成画像の座標(Sv,Tv)に対応するワールド座標系の3次元座標(Xw,
Yw,Zw)を求めることができる。この座標から、前記路面平面モデルと同様
に、各カメラ画像の対応する画素を計算することにより、仮想視点画像の画素(
Sv,Tv)と、カメラ画像の画素(Sn,Tn)の関係を求め、マッピングテ
ーブルを作成する。 また、路面平面モデルと円筒モデルの組合せも可能である。先に路面平面モデ
ルによるワールド座標系の3次元座標を求めて、その3次元座標が、円筒モデル
の外側、もしくは平面との交点を持たずに解を生じない場合は、次に円筒モデル
による3次元座標を求める。これにより路面平面モデルと円筒モデルの複合によ
る合成が可能となる。 ― 疑似円筒モデル ― 路面平面モデルの周辺の遠方の状況を把握しやすくするため、周囲をお椀状の
疑似円筒モデルを導入する。モデルの形状を図50に示す。仮想視点画像の周辺
になる程、遠方の部分が圧縮されて合成され、より広い範囲が表示可能となる。
この疑似円筒の形状を式(12)で表す。 お椀の中心が(Xc,Yc,Zc)、X軸、Y軸、Z軸方向の(a,b,c)
の長さを持つ。前記円筒モデルと同様に、式(12)および式(5)から、仮想
視点からの合成画像の座標に対応するワールド座標系の3次元座標(Xw,Yw
,Zw)を計算し、合成画像の各画素と、各カメラ画像の画素の対応関係を求め
ることが可能となる。 なお、円筒モデルと同様に、路面平面モデルとの組合せによる複合モデルによ
る合成も可能である。 ―レンズ歪み補正の処理― 次に、マッピングテーブルによりレンズ収差を補正する方法について説明する
。実際のカメラ画像にレンズ収差による歪みがある場合、この歪みを上記Uv、
Vvから実際の画素S1,T1を求めるときに、その歪みの分を補正した画素座
標を計算することにより、合成画像からレンズ収差の影響を除くことが可能とな
る。この歪み補正は、マッピングテーブルの合成画像(Sv,Tv)とカメラ画
像(Sn,Tn)の関係に取り込まれるため、最初に歪み補正を行ったマッピン
グテーブルを作れば、実際の合成時には、補正のための計算は不要となる。従来
のレンズ歪み補正に使われるレンズ中心からの距離の関数などのような歪みが定
式化できない場合でも、格子などのパターンを撮影し、レンズ歪みにより各画素
がどのように移動するかの情報さえあれば、歪み補正が可能であるという特徴を
持っている。
【図面の簡単な説明】
図1は本発明に係る監視システムの概念図である。 図2はカメラ配置の例を示す図である。 図3は図2の各カメラの撮像画像の例である。 図4は仮想視点と実カメラとの関係を概念的に示す図である。 図5は生成された合成画像の例である。 図6はマッピングテーブルを用いた画像合成動作を示す図である。 図7は本発明の一実施形態に係る監視システムの構成例である。 図8は図7の画像合成部の動作を示すフローチャートである。 図9はマッピングテーブルの構成の例である。 図10は図8の画素合成ステップS14の詳細を示すフローチャートである。 図11はカメラ画像以外の画素データを記述したマッピングデータの一例であ
る。 図12は8個のカメラ画像を利用した鉛直見下ろし画像の例である。 図13は4個のカメラ画像を利用した鉛直見下ろし画像の例である。 図14は2個のカメラ画像を利用した鉛直見下ろし画像の例である。 図15は斜め見下ろし画像の例である。 図16は前方パノラマモードのパノラマ画像の例である。 図17は後方パノラマモードのパノラマ画像の例である。 図18は斜め見下ろし画像とパノラマ画像とを合わせた画像の例である。 図19は車両の走行状態に応じて仮想視点の高さを変更した場合の合成画像の
例である。 図20は車両の走行状態に応じて仮想視点の視線の向きを変更した場合の合成
画像の例である。 図21は車両の舵角に応じて仮想視点の視線の向きを変更した場合の合成画像
の例である。 図22は物体検出センサの出力信号に応じた画像切替の例を示す図である。 図23は物体検出センサの出力信号に応じた画像切替の例を示す図である。 図24は物体検出センサの出力信号に応じた画像切替の例を示す図である。 図25は本発明の一実施形態に係る監視システムの構成例である。 図26は画像を平行移動する場合のマッピングテーブルの切り出しを示す図で
ある。 図27は画像を拡大・縮小する場合のマッピングテーブルの切り出しを示す図
である。 図28はマッピングテーブルを矩形以外の四辺形で切り出す例を示す図である
。 図29はカメラ画像の例である。 図30は見下ろし画像の左右に斜め後方を撮すカメラ画像を貼り付けた合成画
像の例である。 図31は狭い範囲を示す見下ろし画像と広い範囲を示す見下ろし画像と並べて
表示した例である。 図32は見下ろし画像の周囲に斜め見下ろし画像を貼り付けた例である。 図33は見下ろし画像の周囲に疑似円筒モデルを用いた画像を貼り付けた例で
ある。 図34は見下ろし画像の周囲にパノラマ画像を貼り付けた例である。 図35は見下ろし画像の周囲に斜め見下ろし画像を貼り付け、四隅に空白部を
設けた例である。 図36はカメラ画像とともに仮想視点の位置を示す画像を表示した例である。 図37はカメラ画像と自車両の映り込み領域を示すマスクデータの例を示す図
である。 図38は自車両の画像をスーパーインポーズした例を示す図である。 図39は自車両の映り込みをそのまま変換した場合の合成画像の例を示す図で
ある。 図40はマスクデータの一部を示す図である。 図41は車両領域と死角領域とが示された合成画像の例である。 図42は死角領域を求め、車両の画像を貼り付ける場合のマッピングデータの
生成手順を示す図である。 図43はマスクデータと合成画像の画素との関係を示す図である。 図44は図42の手順の結果得られたマッピングデータを用いた場合の合成画
像の例である。 図45は注意喚起領域を指定する場合のマッピングデータの生成手順を示す図
である。 図46は図45の手順の結果得られたマッピングデータを用いた場合の合成画
像の例である。 図47は幾何変換を説明するための図である。 図48は幾何変換を説明するための図である。 図49は幾何変換を説明するための図である。 図50は幾何変換を説明するための図である。
【手続補正書】
【提出日】平成13年1月25日(2001.1.25)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】全文
【補正方法】変更
【補正内容】
【発明の名称】 画像処理装置および監視システム
【特許請求の範囲】
【発明の詳細な説明】
【0001】 技術分野 本発明は、複数のカメラによって撮像された画像を用いて合成画像を生成する
画像処理技術に関するものであり、特に、車両運転の際の安全確認の補助などに
利用される監視システムに有効な技術に属する。
【0002】 背景技術 従来の一般的な監視システムでは、監視対象となる部分を1台または複数台の
監視カメラで撮影し、その画像をモニタに表示する構成が一般的である。この場
合、通常は、設置されたカメラの台数に応じて、モニタを準備する。
【0003】 また、従来の車両用の安全監視システムとしては、例えば、車両の周囲を撮影
するカメラを設置し、カメラで撮影した画像を運転席近くに設置したモニターに
表示させるものがある。このシステムにより、運転者は、車両後方のような、目
視やミラーでは安全確認が困難な場所を、モニタで確認することができる。
【0004】 さらに、日本国特許公報第2696516号では、ギアや車速に応じて、モニ
タ画面の分割表示を行う構成が開示されている。具体的には、車両が停止・微速
状態にあると判定したときは、モニタ画面を3分割して、車両の左右および下方
に配置された3個のカメラの撮像画像を合成して再生し、車両が前方走行状態に
あると判定したときは、モニタ画面を2分割して、車両の左右に配置された2個
のカメラの撮像画像を合成して再生する。
【0005】 また、日本国特許公開公報 特開平11−78692号では、車両用映像提示
装置として、遭遇した場面毎に的確な映像を合成・表示する構成が開示されてい
る。具体的には、後退車庫入れ状態か、前進車庫入れ状態か、縦列駐車状態か、
あるいは見通しの悪い交差点に進入した状態か等の車両の運転状態に応じて、カ
メラ画像の変形・合成を行う。
【0006】 しかしながら、このような従来の構成は、車両の運転者などのようなユーザに
とって、必ずしも利用しやすいシステムであるとはいえない。
【0007】 発明の開示 本発明は、画像処理装置または監視システムとして、車両の運転者などのユー
ザの利便性を、従来よりもさらに向上させることを目的とする。
【0008】 具体的には、本発明は、画像処理装置として、車両の周囲を撮影する複数のカ
メラの撮像画像を入力とし、これらのカメラ画像から、仮想視点から見た合成画
像を生成する画像処理部を備え、前記画像処理部は、前記仮想視点の位置、視線
の向きおよび焦点距離のうちの少なくともいずれか1つを、前記車両の走行状態
に応じて変更するものである。
【0009】 そして、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離
のうちの少なくともいずれか1つを、前記車両の走行速度に応じて変更するのが
好ましい。
【0010】 また、前記画像処理部は、仮想視点の位置、視線の向き、および焦点距離のう
ちの少なくともいずれか1つの変更とともに、変更後の仮想視点の視野範囲外画
像の取込の制御を行うのが好ましい。さらに、変更後の仮想視点の視野範囲外画
像の取込の制御を、画像合成のためのモデルを変更することによって行うのが好
ましい。
【0011】 また、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離の
うちの少なくともいずれか1つを、前記車両の舵角に応じて変更するのが好まし
い。
【0012】 また、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離の
うちの少なくともいずれか1つを、前記車両が備えている物体検出センサによる
検出結果に応じて変更するのが好ましい。
【0013】 また、前記画像処理部は、原マッピングテーブルを有し、この原マッピングテ
ーブルから切り出したマッピングテーブルを用いて合成画像の生成を行うもので
あり、かつ、前記原マッピングテーブルから切り出すマッピングテーブルを変更
することによって、仮想視点の位置、視線の向き、および焦点距離のうちの少な
くともいずれか1つの変更を行うのが好ましい。
【0014】 また、本発明は、画像処理装置として、車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から、仮想視点から見た合成画像を生
成する画像処理部を備え、前記画像処理部は、前記車両の走行状態に応じて、前
記仮想視点の視野範囲外画像の取込の制御を行うものである。
【0015】 また、本発明は、監視システムとして、車両の周囲を撮影する複数のカメラと
、前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から、仮想視点
から見た合成画像を生成する画像処理部と、前記合成画像を表示する表示部とを
備え、前記画像処理部は、前記仮想視点の位置、視線の向きおよび焦点距離のう
ちの少なくともいずれか1つを、前記車両の走行状態に応じて変更するものであ
る。
【0016】 また、具体的には本発明は、画像処理装置として、車両の周囲を撮影する複数
のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画
像処理部を備え、前記画像処理部は、仮想視点から見た第1の画像と、前記第1
の画像の仮想視点と位置、視線の向きおよび焦点距離のうちの少なくともいずれ
か1つが異なる視点から見た、または前記第1の画像とモデルが異なる第2の画
像とを含む画像を、前記合成画像として生成するものである。
【0017】 そして、前記第2の画像は、前記カメラ画像の少なくとも1つであるのが好ま
しい。
【0018】 また、前記第1の画像は、自車およびその周辺を示す近傍画像であり、前記第
2の画像は、前記近傍画像が示す自車の周辺領域よりも遠方の領域を示す遠方画
像であるのが好ましい。そして、前記画像処理部は、前記合成画像において、前
記近傍画像の周囲に前記遠方画像を配置するのが好ましい。さらには、前記遠方
画像は、前記近傍画像と連続性を有する画像であるのが好ましい。
【0019】 また、前記第1の画像は、自車両の少なくとも一部と自車両の周囲の少なくと
も一部とを示す画像であり、前記第2の画像は、前記第1の画像が示す領域の少
なくとも一部を拡大した画像であるのが好ましい。
【0020】 また、本発明は、監視システムとして、車両の周囲を撮影する複数のカメラと
、前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を
生成する画像処理部と、前記合成画像を表示する表示部とを備え、前記画像処理
部は、仮想視点から見た第1の画像と、前記第1の画像の仮想視点と位置、視線
の向きおよび焦点距離のうちの少なくともいずれか1つが異なる視点から見た、
または前記第1の画像とモデルが異なる第2の画像とを含む画像を、前記合成画
像として生成するものである。
【0021】 また、具体的には本発明は、車両の周囲を撮影する複数のカメラの撮像画像を
入力とし、これらのカメラ画像から合成画像を生成する画像処理部を備え、前記
画像処理部は、前記合成画像において、自車両が存在する車両領域の少なくとも
一部と、自車両の周囲の少なくとも一部を示し注意を喚起するための注意喚起領
域とを表示するものである。
【0022】 そして、前記合成画像は、前記車両の上方に設定された仮想視点から見た画像
であるのが好ましい。
【0023】 また、前記画像処理部は、前記車両領域に、自車両のイラスト画像または実画
像を表示するのが好ましい。
【0024】 また、前記注意喚起領域は、いずれのカメラからも撮影されない車両周囲の死
角領域の少なくとも一部を含むのが好ましい。あるいは、前記注意喚起領域は、
いずれのカメラからも撮影されない車両周囲の死角領域に相当する領域であるの
が好ましい。そして、前記画像処理部は、各カメラ画像における自車両の映り込
み領域を示す領域データを用いて、前記死角領域および車両領域を合わせた領域
の範囲を決定するのが好ましい。
【0025】 また、本発明は、監視システムとして、車両の周囲を撮影する複数のカメラと
、前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を
生成する画像処理部と、前記合成画像を表示する表示部とを備え、前記画像処理
部は、前記合成画像において、自車両が存在する車両領域の少なくとも一部と、
自車両の周囲の少なくとも一部を示し注意を喚起するための注意喚起領域とを表
示するものである。
【0026】 また、具体的には本発明は、画像処理装置として、車両の周囲を撮影する複数
のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画
像処理部を備え、前記画像処理部は、合成画像の画素とカメラ画像の画素との対
応関係を記述する第1のマッピングデータと、合成画像の画素とカメラ画像以外
の画素データとが対応することを示す識別子を記述する第2のマッピングデータ
とを有するマッピングテーブルを用いて、前記合成画像を生成するものである。
【0027】 そして、前記カメラ画像以外の画素データは、前記車両または、前記車両の周
囲の少なくとも一部にある死角領域を示すものであるのが好ましい。
【0028】 また、前記画像処理部はカメラ画像以外の所定の画像を記憶しており、前記第
2のマッピングデータは、合成画像の画素に対し、当該画素に対応する,記憶さ
れた前記所定の画像における座標値を記述するものであるのが好ましい。
【0029】 また、前記第2のマッピングデータは、合成画像の画素に対応する画素データ
を記述するものであるのが好ましい。
【0030】 また、本発明は、画像処理装置として、車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画像処理部を
備え、前記画像処理部は、合成画像の画素と、カメラ画像の画素データおよびカ
メラ画像以外の画素データのうちの一方または両方からなる複数の画素データと
の対応関係を記述し、かつ、各画素データに対してそれぞれ必要度を記述したマ
ッピングデータを用い、各画素データに対して必要度に応じた重み付けを行い、
前記合成画像の画素の画素データを生成するものである。
【0031】 また、本発明は、画像処理装置として、車両の周囲を撮影する複数のカメラの
撮像画像を入力とし、これらのカメラ画像から合成画像を生成する画像処理部を
備え、前記画像処理部は、原マッピングテーブルを有し、この原マッピングテー
ブルから、合成画像の画素とカメラ画像の画素との対応関係を記述するマッピン
グテーブルを切り出し、切り出したマッピングテーブルを用いて、合成画像を生
成するものである。
【0032】 発明を実施するための最良の形態 図1は本発明に係る監視システムの概念図である。図1に示す監視システムに
おいて、画像処理部2は、撮像部1から出力された複数のカメラ画像を入力とし
、これらを合成して、仮想視点から見たときの合成画像を生成する。この合成画
像は、例えば液晶ディスプレイのような表示部3によって表示される。画像処理
部2によって、本発明に係る画像処理装置が構成される。
【0033】 ここでの説明では、本監視システムは、車両に搭載されるものとし、駐車の際
のアシストなどを用途として用いられるものとする。
【0034】 図2はカメラ配置の例、図3は図2のように配置された各カメラの撮像画像の
例である。図2に示すように、ここでは5台のカメラが、車両のドアミラー付近
、後方ピラー付近および後部トランク上に、それぞれ配置されている。画像処理
部2は、図3に示す5枚のカメラ画像から、仮想視点から見たときの合成画像を
生成する。
【0035】 仮想視点は、コンピュータグラフィックスの映像生成におけるカメラ配置の場
合と同様に、3次元空間の任意の位置に、任意の方向に向けて、設定することが
できる。仮想視点を決定するパラメータは、3次元空間での仮想視点の位置を表
す座標(X座標,Y座標,Z座標)と、その向きを表す3つの角度すなわち方位
角(水平回転)、仰角(傾き)およびTwist (光軸周りの回転)と、視野範囲を
決める焦点距離とからなる。焦点距離は、仮想視点と合成画像を生成する投影面
との距離であり、小さいときは広角の画像になり、大きいときは望遠の画像にな
る。実際のカメラなどでは、投影面のフィルムのサイズ(35mm)に換算した
ときの距離(mm)で表すことが多いが、本明細書では、合成画像のサイズを画
素で表しているので、焦点距離も画素で考える。
【0036】 この仮想視点の位置、向きおよび焦点距離を状況に応じて選択することによっ
て、適切な合成画像を生成することが可能になる。
【0037】 図4は仮想視点と実カメラとの関係を概念的に示す図である。図4では、仮想
視点は車両の上方に設定されている。図5は生成された合成画像の例であり、図
4に示す仮想視点から見た、自車およびその近辺を示す画像が生成されている。
【0038】 本実施形態では、画像処理部2は、複数のカメラ画像から合成画像を生成する
ために、マッピングテーブル4を用いる。ここで、「マッピングテーブル」とは
、合成画像の画素と、各カメラ画像の画素データとの対応関係が記述されたテー
ブルのことをいう。なお、後述するように、マッピングテーブルには、合成画像
の画素とカメラ画像以外の画素データとの対応関係も記述可能である。
【0039】 <マッピングテーブルの原理説明> 以下、マッピングテーブルを用いて、複数のカメラ画像から合成画像を生成す
る動作について、説明する。
【0040】 図6はこの動作の概要を説明するための図である。図6(a)〜(c)は、互
いに異なる位置に取り付けられた3台のカメラ(図2におけるカメラ3,カメラ
1およびカメラ2にそれぞれ対応する)の撮像画像である。図6(d)は、図6
(a)〜(c)の各カメラ画像から合成画像を生成するために用いるマッピング
テーブルである。画像処理部2は、図6(a)〜(c)の3枚のカメラ画像から
、図6(d)のマッピングテーブルの情報を基にして、図6(e)に示す1枚の
合成画像を生成するものとする。
【0041】 図6(d)に示すマッピングテーブルは、図6(e)に示す合成画像の各画素
について、それぞれマッピングデータを有している。各マッピングデータは、対
応する合成画像の画素が、どのカメラ画像の画素によって生成されるか、という
情報を記述する。
【0042】 合成画像を生成する、ということは、合成画像の全ての画素の値を決定すると
いうことである。ここでは、画像処理部2は左上から順次、ラスター順に合成画
像の画素の値を決定するものとし、その途中で画素P1の値を決定する場合を例
にとって、その動作を説明する。
【0043】 まず、合成画像の画素P1に対応するマッピングデータMP1を参照する。マ
ッピングデータMP1には、対応するカメラ番号と、そのカメラ画像の対応する
画素の座標とが記述されている。いまマッピングデータMP1には、カメラ番号
として「1」、X座標として「340」、Y座標として「121」が記述されて
いる。
【0044】 画像処理部2は、マッピングデータMP1の記述内容に従って、図6(b)に
示すカメラ1の撮像画像の座標(340,121)の画素データC1を参照し、
画素データC1の値から、合成画像の画素P1の値を決定する。ここでは、最も
簡単な決定方法として、画素データC1の値をそのまま画素P1の値とする。同
様の方法によって、合成画像の各画素について値を決定することによって、図6
(e)に示すような合成画像が生成される。
【0045】 例えば、合成画像の画素P2に対応するマッピングデータMP2は、図6(c
)に示すカメラ2の撮像画像の画素データC2を示しているので、画素P2の値
として画素データC2の値が与えられる。同様に、合成画像の画素P3に対応す
るマッピングデータMP3は、図6(a)に示すカメラ3の撮像画像の画素デー
タC3を示しているので、画素P3の値として画素データC3の値が与えられる
。図6(d)のマッピングテーブルにおいて、領域R1はカメラ1に対応し、領
域R2はカメラ2に対応し、領域R3はカメラ3に対応する。
【0046】 各カメラに対応する3つの領域R1〜R3以外の領域R4は、各カメラの撮影
領域以外であったり、自車両によって隠されている死角であったりすることによ
って、対応するカメラ画像が存在しない領域である。例えば合成画像の画素P4
は、そのような領域R4の画素である。この場合、画素P4に対応するマッピン
グデータMP4のカメラ番号には、対応するカメラ画像が存在しないことを示す
特定のカメラ番号(ここでは「−1」とする)を記述しておく。そして、カメラ
番号「−1」のとき、対応する画素P4には、撮影領域外や死角であることを示
す所定の画素データを設定する。ここでは、所定の画素データとして黒色を設定
する。
【0047】 図6の例では、マッピングテーブルは、車両上方の仮想視点から車両の周囲を
見下ろすような合成画像が生成可能なように構成されている。このようなマッピ
ングテーブルは、後述するように、いわゆる路面平面モデルを前提とした幾何変
換を用いて作成することが可能である。あるいは、合成画像を見ながら、試行錯
誤しながら作成してもかまわない。
【0048】 実際には、マッピングテーブルを用いることによって、合成画像とカメラ画像
の画素データとの対応関係を、用途に応じて、自由に設定することができる。例
えば、カメラ画像の任意の領域を拡大または縮小してカメラ画像の一部に合成し
たり、複数のカメラ画像を並べて合成するなど、任意の合成画像を生成すること
ができる。
【0049】 そして、いかなる合成画像を生成するマッピングテーブルであっても、画像処
理部2は、合成画像各画素について、マッピングデータの参照、指定されたカメ
ラ画像の画素データの参照、合成画像の画素値の設定を行うステップを実行する
だけですむので、その処理量は、画像合成をその都度演算によって実行する場合
に比べて格段に小さくなる。このため、本方式は、合成画像の種類にかかわらず
処理量が一定になり、かつ、高速処理が可能であるので、リアルタイムに一定時
間で処理を終える必要のある監視や運転補助などの用途に対して、特に適してい
る。
【0050】 (合成画像生成動作の第1例) 図7は本実施形態に係る監視システムの構成例を示す図である。図7において
、画像処理部2は、画像合成部200、表示パターン記憶部210および表示パ
ターン設定部220を備えている。表示パターン記憶部210は、上述したよう
なマッピングテーブルを複数個記憶するマッピングテーブル記憶部211を有し
ている。表示パターン設定部220は、マッピングテーブル記憶部211に格納
されたマッピングテーブルから、生成する合成画像の表示パターンに応じて1個
のマッピングテーブルMPTを選択し、画像合成部200のマッピングテーブル
参照部202に設定する。
【0051】 また、表示パターン記憶部210は、様々なイラスト画像を記憶するイラスト
記憶部212を有している。表示パターン設定部220は、合成画像の生成に必
要となるイラスト画像をイラスト画像記憶部212から読み出し、画像合成部2
00のイラスト参照部203に設定する。ここでは、自車両を示すイラスト画像
が設定されるものとする。
【0052】 画像合成部200は、マッピングテーブル参照部202に設定されたマッピン
グテーブルMPTに従って、撮像部1から出力されたカメラ画像を用いて、合成
画像を生成する。タイミング生成部205は、合成画像の動画系列を生成するた
めのタイミング信号を生成する。
【0053】 各カメラ101には、一対のフレームメモリ102a,102bが設けられて
いる。ここでは各カメラ101はCCDタイプであるものとする。カメラがCM
OSタイプの場合には、カメラにフレームメモリの機能を持たせることも可能で
あり、この場合はフレームメモリを省くことができる。
【0054】 図8は合成画像の1フレームを生成するときの画像合成部200の動作を示す
フローチャートである。
【0055】 まず、タイミング生成部205から出力されたフレーム開始のタイミング信号
に応じて、撮像部1は、各カメラ101が撮影した画像を書き込むフレームメモ
リ102aと、画像合成部200から参照されるフレームメモリ102bとを切
り替える(ステップS11)。ここで、各カメラ101に対してフレームメモリ
を2個設けて切り替えを行うようにしたのは、後述するように、画像合成部20
0はカメラ画像の画素データを、カメラ101からの書き込みの順序とは関係無
く、マッピングテーブルMPTに応じて飛び飛びに参照するので、書き込みと参
照とが互いに干渉しないようにするためである。
【0056】 次に、タイミング生成部205は、合成処理を行う画素をマッピングテーブル
参照部202に指定するためのタイミング信号を生成する(ステップS12)。
マッピングテーブル参照部202はマッピングテーブルMPTから、指定された
画素に対応するマッピングデータを読み出し、画素合成部201に出力する(ス
テップS13)。
【0057】 画素合成部201は、入力されたマッピングデータの内容に応じて、フレーム
メモリ102に格納された各カメラ画像の画素データや、イラスト参照部203
に格納されたイラスト画像の画素データなどを用いて、指定された合成画像の画
素の値を生成し、映像信号生成部204に出力する(ステップS14)。このス
テップS14の処理は、後に詳述する。
【0058】 映像信号生成部204は、タイミング生成部205から出力されたタイミング
信号に応じて、入力された合成画像の画素値を映像信号に変換し、表示部3に出
力する(ステップS15)。
【0059】 画像合成部200はフレームの全画素について、ステップS12〜S15の処
理を実行する(ステップS16,S17)。タイミング生成部205は、フレー
ムの最終画素の処理が終わると、次のフレームの処理を開始する。
【0060】 なお、フィールド単位でも、同様の処理を実行することができる。
【0061】 図9はマッピングテーブルの構成の例を示す図である。図9に示すマッピング
テーブルは、4種類のマッピングデータMP11〜MP14を有している。各マ
ッピングデータの構成は基本的には図6に示すマッピングデータと同様であるが
、カメラ番号およびx,y座標に加えて、その画素値の必要度が記述されている
。ここでは、「必要度」は0から1までの値によって表されており、値が大きい
ほど、その画素値の必要度は高いものとする。
【0062】 マッピングデータMP11は、合成画像の画素と、1個のカメラ画像の画素デ
ータとの対応関係を記述したものである。この場合は、必要度は「1」となる。
また、マッピングデータMP12は、合成画像の画素と、複数のカメラ画像の画
素データとの対応関係を記述したものである。この場合は、合成画像の画素値は
、カメラ画像の画素データに対し、その必要度に応じた重み付けを行った上で、
生成する。
【0063】 マッピングデータMP13は、合成画像の画素に、イラスト画像の画素データ
を貼り付けるために用いられるものである。すなわち、イラスト参照部203に
格納されたイラスト画像が認識できるように、イラスト参照部203にカメラ番
号として、いずれの実カメラにも対応しない番号(ここでは「99」)を割り当
てる。
【0064】 マッピングデータMP14は、合成画像の画素が、いわゆる死角領域に当たる
ことを示すものである。すなわち、マッピングテーブルを生成する際に、合成画
像の画素を生成するために参照するカメラ画像の画素の座標値を計算した結果、
その座標値の画素が、例えば車両自体を撮している場合には、その合成画像の画
素は、車両領域と死角領域とを合わせた領域に当たる。この領域から車両領域を
除いたものが、死角領域になる。このため、例えばカメラ番号やx,y座標に実
在しない値を与えることによって、死角領域であることを表す。ここでは、カメ
ラ番号として「−1」を与えるものとする。
【0065】 図10は画素合成ステップS14の詳細な処理の流れを示すフローチャートで
ある。
【0066】 まず、合成する画素の値を「0」に初期化する(ステップS21)。
【0067】 次に、合成する画素に対応するマッピングデータから、カメラ番号、x,y座
標および必要度を読み出す(ステップS22)。
【0068】 ステップS22において、読み出したカメラ番号がイラスト画像を示す識別番
号「99」であるとき(すなわちマッピングデータMP13の場合)、ステップ
S24にすすみ、イラスト参照部203に格納されたイラスト画像の、指定され
たx,y座標の画素データを読み出し、保持する。そして、ステップS28にす
すむ。一方、カメラ番号が「99」でないときは、ステップS25にすすむ。
【0069】 ステップS25において、読み出したカメラ番号が死角領域を示す識別番号「
−1」であるとき(すなわちマッピングデータMP14の場合)、ステップS2
6にすすみ、予め設定された死角領域を表す画素データを保持する。そして、ス
テップS28にすすむ。一方、カメラ番号が「−1」でないときは、ステップS
27にすすむ。
【0070】 ステップS27において、カメラ番号が「99」「−1」以外の場合、すなわ
ちイラスト画像を貼る領域でも死角領域でもないと判断される場合は、このカメ
ラ番号は実際のカメラを示す番号であるとして、対応するカメラ番号のフレーム
メモリ102に格納されたカメラ画像から、指定されたx、y座標の画素データ
を読み出し、保持する。
【0071】 ステップS28において、保持した画素データに、その必要度に応じて重み付
けを行い、合成画像の画素値に加算する。マッピングデータに記述された全ての
カメラ番号について、ステップS22〜S28の処理を繰り返す(ステップS2
9,S30)。全てのカメラ番号について処理が終了すると、画素合成部201
は合成する画素の値を出力する(ステップS31)。
【0072】 例えば図9に示すマッピングデータMP12の場合には、合成画像の画素値は
、次の式によって求められる。
【0073】 合成画像の画素値=(カメラ2の座標(10,10) の画素値×0.3 +カメラ3の座標(56,80) の画素値×0.5)/(0.3+0.5) ここで、必要度の和(0.3+0.5)によって除するのは、画素値を正規化す
るためである。
【0074】 以上のような動作によって、複数のカメラ画像を混合した合成画像や、イラス
ト画像を含む合成画像を、容易に生成することができる。また、カメラ画像とイ
ラスト画像とを必要度に応じて重み付けすることによって、実画像の上にイラス
ト画像を半透明で表示する合成画像も生成することができる。あるいは、カメラ
画像以外の画素データ同士を必要度に応じて重み付けすることによって、イラス
ト画像同士を半透明で表示するような合成画像も生成することができる。
【0075】 また、イラスト画像としては、自車のイラストや画像以外にも、例えば、画像
のスケールや指標などのような画面上で固定の形状を持つものを与えることが可
能である。
【0076】 なお、ここでの説明では、イラスト画像を参照するためのカメラ番号(「99
」)と、死角領域であることを示すカメラ番号(「−1」)とを個別に設定する
ものとしたが、死角領域を表す画像をイラスト参照部203に格納しておけば、
イラスト画像を参照する場合と死角領域を示す場合とで、同じカメラ番号(「9
9」)を用いることが可能になる。この場合には、例えば、車両を表すイラスト
画像と死角領域を表す画像とを合わせて、イラスト参照部203に格納しておく
ことも可能になる。
【0077】 また、表示パターン設定部220は、表示モードの指定に応じて表示パターン
を変更する場合には、新たな表示パターンに応じたマッピングテーブルを、マッ
ピングテーブル記憶部211から読み出して、マッピングテーブル参照部202
に設定すればよい。あるいは、複数のマッピングテーブルを合成し、新たなマッ
ピングテーブルを生成してもよい。
【0078】 またここでは、図9に示すマッピングデータMP13のように、イラスト画像
を表示するためにイラスト参照部203のX,Y座標値を記述するものとしたが
、この代わりに、イラスト画像の画素データ自体をマッピングデータに記述する
ことも可能である。
【0079】 図11はこのような場合のマッピングデータの一例である。図11のマッピン
グデータMP15は、カメラ番号が「99」のとき、すなわちイラスト画像を表
示させるとき、X座標、Y座標を記憶する領域に、イラスト画像の画素データ自
体をそのまま赤(R)、緑(G)、青(B)の値で記憶する。
【0080】 例えば、X座標、Y座標をそれぞれ16ビットで表現するものとすると、その
領域は32ビットのサイズになる。一方、イラスト画像の画像データをR,G,
B各色8ビットで表現するものとすると全部で24ビットになるので、その上位
8ビットに“0”を付加し32ビットのデータとして、座標領域に記憶する。こ
の場合、図10のステップS24では、イラスト参照部203を参照する代わり
に、マッピングデータMP15に記述されたR,G,B値を読み出し保持する。
【0081】 この場合には、マッピングテーブルとイラスト画像とは一体のものとなり、イ
ラスト参照部203は不要になる。また、マッピングデータからX,Y座標値を
読み出して対応するイラスト画像の画素データを読み出すのではなく、マッピン
グデータから直接R,G,B値を読み出すので、処理の手順が1つ省けることに
なる。
【0082】 また、自車両のイラスト画像を表示するなどの場合には、通常は必要度を1.
0にすることが多いが、図11の例のように、イラスト画像の必要度を1.0よ
りも小さい値にして他のカメラ画像と合成することによって、合成画像の上に、
スケールや指標を半透明で表示することが可能になる。
【0083】 <基本的な合成画像の例> マッピングテーブルは、大きく、単独マップと複合マップの2つに分けること
ができる。「単独マップ」とは、所定の空間モデル(詳細は後述する)を用いて
、カメラ画像と仮想視点画像とを画素レベルで対応づけたものである。「複合マ
ップ」については後述する。
【0084】 画像合成部200にどのマッピングテーブルが設定されるかによって、画像処
理部2の表示モードが決定される。この表示モードは、手動によって、または自
動的に切り換えることができる。
【0085】 代表的な単独マップと、それを用いた合成画像例を、以下に示す。
【0086】 ・ 鉛直見下ろし(図12〜図14) 空間モデルとしては、路面平面モデルを用いる。仮想視点の位置は、自車の上
方であり、視線の向きは真下である。距離感が一目で分かることを特徴とし、主
たる用途としては駐車(直角、縦列)等が考えられる。図12は8個のカメラ画
像を利用したもの、図13は4個のカメラ画像を利用したもの、図14は2個の
カメラ画像を利用したものである。
【0087】 ・ 斜め見下ろし(図15) 空間モデルとしては、路面平面モデルを用いる。仮想視点の位置は、自車の上
方であり、視線の向きは斜め後ろ向きである。視線の角度を調整することによっ
て、視野を自由に変換することができる。このモードでは、自車後方が、正しい
位置関係で見渡すように一望できる。主たる用途としては、通常走行時のリアビ
ューモニタとして、あるいは、駐車動作開始時のような低速後退時の確認などが
考えられる。低速走行時には、速度に応じて視野や向きを切り替えるようにして
もよい。
【0088】 ・ パノラマ(図16,図17) 空間モデルとしては、円筒モデルを用いる。図16は前方パノラマモードであ
り、仮想視点の位置は、自車の先端部であり、視線の向きは真正面である。この
モードでは、走行方向前方の様子が分かるので、ブラインドコーナービューモニ
タとしての利用が考えられる。すなわち、狭い路地から広い通りに出るとき、こ
のモードによって広い通りの様子を一目で認識することができる。
【0089】 図17は後方パノラマモードであり、仮想視点の位置は、自車の後端部であり
、視線の向きは真後ろである。このモードでは、自車後方部分がパノラマ180
度画像として見渡すように一望できる。主たる用途としては、走行時(特に高速
走行時)のリアビューモニタとしての利用が考えられる。
【0090】 ・ 斜め見下ろし+パノラマ(図18) 空間モデルとしては、路面平面モデルと円筒モデルとを用いる。すなわち、図
18に示すように、自車後方の直近は、路面平面モデルを用いた斜め見下ろしモ
ードで表示し、自車後方遠方は、円筒モデルを用いたパノラマモードで表示する
。したがって、このモードは、斜め見下ろしモードとパノラマモードの両方の用
途に対応している。
【0091】 <表示自動切替> 本監視システムは、これまで例示したマッピングテーブルを、様々な運転場面
に応じて適宜切り換えることによって、より安全で快適な運転をサポートするこ
とが可能となる。また、一つの運転操作においても、逐次変わりゆく自車周囲状
況に応じてマッピングテーブルを切り換えることは、運転者にとって必要不可欠
な機能となる。
【0092】 すなわち、合成画像の仮想視点の位置、視線の向きおよび焦点距離の少なくと
もいずれか1つを、車両の走行状態に応じて変更することによって、運転者の利
便性を向上させることができる。
【0093】 図19は車両の走行状態に応じて、合成画像の仮想視点の高さを変更した場合
の例を示す図である。図19(a)〜(f)に示す各画像は、下に行くにつれて
仮想視点の高さが徐々に高くなっており、車両を含めた表示領域が次第に広くな
っている。すなわち、仮想視点の高さを下げることによってズームアップが実現
され、仮想視点の高さを上げることによってズームダウンが実現される。なお、
仮想視点の焦点距離を変更した場合でも、図19と同様に合成画像を変化させる
ことができる。
【0094】 仮想視点の高さを切り替えるトリガーとしては、まず、車両の走行速度が考え
られる。例えば、車両の走行速度が上昇するにつれて、広い領域が表示されるよ
う仮想視点を高くする一方、低下するにつれて、狭い領域が表示されるよう仮想
視点を低くすればよい。あるいは、車両が、自車と障害物との距離を測定する物
体検出センサを備えているときは、その物体検出センサの出力信号を切替のトリ
ガーとして用いてもよい。例えば、検出された障害物との距離が、近くなるにつ
れて、狭い領域が表示されるよう仮想視点を低くする一方、遠くなるにつれて、
広い領域が表示されるよう仮想視点を高くすればよい。さらには、切替スイッチ
を設けておいて、運転手または他の乗員がそのスイッチを介して拡大・縮小を指
定できるようにしてもよい。
【0095】 図20は車両の走行状態に応じて、合成画像の仮想視点の視線の向きを変更し
た場合の例を示す図である。図20(a)〜(d)に示す各画像は、下に行くに
つれて、仮想視点の視線の向きが、斜め後方から徐々に鉛直下方に変化している
。また、視線の向きとともに、合成画像を生成するためのモデルも変化している
。すなわち、視線の向きが斜めに傾くほど、疑似円筒モデルの合成画像の領域が
大きくなっており、より遠方が見やすくなっている。
【0096】 図20では、仮想視点の視線の向きの変更とともに、変更後の仮想視点の視野
範囲外画像の取込が制御されている、といえる。すなわち、疑似円筒モデルを用
いることによって、仮想視点の視野範囲外の画像が合成画像に取り込まれている
。そして、車両の走行状態に応じて、仮想視点の視野範囲外画像の取込の有無、
そのサイズ、および、その撮像範囲が制御されている。
【0097】 仮想視点の視線の向きを切り替えるトリガーとしては、仮想視点の高さを切り
替える場合と同様に、車両の走行速度、スイッチ入力などが想定される。例えば
、車両の走行速度が低いときは、視線の向きを真下にしておき、走行速度が上昇
するにつれて、視線の向きを傾けて、より後方が表示されるようにすればよい。
【0098】 図21は車両の舵角に応じて、合成画像の仮想視点の視線の向きを変更した例
を示す図である。図21の例では、舵角に応じて、仮想視点を光軸周りに回転さ
せている。(a)はギアがバックでハンドルが真っ直ぐの場合の合成画像である
。この場合は車両が後方に直進するので、後方の領域が見やすくなるように、合
成画像中の自車両が真っ直ぐになり、自車両の左右の領域が均等に表示されるよ
うに、仮想視点を設定する。一方、(b)はギアがバックでハンドルを左に切っ
た場合の合成画像である。この場合は車両は左後方に進むので、そのときに車が
移動する領域すなわち自車両の右側、右後方および後方が見やすくなるように、
仮想視点を光軸周りに回転させる。これにより、安全性が高まる。
【0099】 図22は物体検出センサの出力信号に応じた画像切替の例を示す図である。同
図中、(a)は物体検出センサが自車両に近接した障害物を検出する前の画面で
ある。物体検出センサが自車両に近接した他の車両を検出したとき、画面は図2
2(b)のように切り替わる。すなわち、検出した障害物との距離がより認識で
きるように、画像を拡大して表示する。
【0100】 このように、物体検出センサが障害物を検出したとき、画像を、障害物との距
離に応じて、段階的または連続的に拡大/縮小/回転などして表示することによ
って、障害物に対して、乗員の注意を喚起することができる。また、障害物が存
在する位置に応じて、仮想視点の位置を変更してもよい。
【0101】 さらに、図23に示すように、障害物が存在する領域を拡大して表示するとと
もに、その領域を枠で囲んで表示してもかまわない。あるいは、枠を点滅させた
り、枠内の色を反転させてもよい。このようにすれば、乗員の注意をさらに確実
に喚起することができる。もちろん、画像を拡大せずに単に枠で囲んで表示する
だけであっても、乗員の注意を喚起することはできることはいうまでもない。ま
た、画面表示の変更とともに、警告音によって、障害物の存在を知らせるように
してもかまわない。
【0102】 図24は物体検出センサの検出結果に応じた画像切替の他の例を示す図である
。図24では、車両後方に障害物を検知したとき、仮想視点の視線の向きを、真
下からやや後ろ向きに変更している。これにより、車両後方の障害物がより見や
すくなっている。また、検出した障害物が合成画像の中心にくるように、仮想視
点を平行移動させてもよい。
【0103】 なお、図19〜図24では、仮想視点が車両の上方にある場合の合成画像を例
にとって示したが、仮想視点が他の位置にある場合であっても、車両の走行状態
に応じて仮想視点の位置、視線の向きおよび焦点距離のうちの少なくとも1つを
変更することによって、運転者の利便性を向上させることができる。仮想視点の
位置の他の例としては、リアトランクの位置や、運転者の頭の位置などが考えら
れる。
【0104】 また、図20では、仮想視点の視線の向きの変更とともに、その視野範囲外画
像の取込を制御しているが、仮想視点の位置や焦点距離の変更とともに、その視
野範囲外画像の取込を制御してもよい。また、モデルを用いないで、仮想視点の
視野範囲外画像を取り込んでもかまわない。さらに、仮想視点を変えないで、仮
想視点の視野範囲外画像の取込の制御のみを、車両の走行状態に応じて、行って
もかまわない。
【0105】 (合成画像生成動作の第2例) 表示画像の切替は、用いるマッピングテーブルを適宜変更することによって、
容易に実現することができる。ところがこの場合、表示画像の切替を連続的に行
うためには、多数のマッピングテーブルを準備しておくことが必要になる。この
ため、装置に膨大な記憶容量を有する記憶部を設けることが必要になるので、好
ましくない。
【0106】 ここでは、合成画像よりも大きい原マッピングテーブルを設けておき、この原
マッピングテーブルから切り出したマッピングテーブルを用いて、合成画像の生
成を行うものとする。この場合には、切り出すマッピングテーブルを適宜変更す
ることによって、表示画像の連続的な切替を容易に実現することができる。
【0107】 図25は本例に係る監視システムの構成を示す図である。図7に示す構成と異
なるのは、マップ領域設定部302が、タイミング生成部205から出力された
合成画像の画素の座標と、表示パターン設定部220Aによって設定されたマッ
ピングテーブルの領域指定情報とに基づいて、対応するマッピングテーブルの要
素を生成し、マッピングテーブル参照部202に出力する点である。マッピング
テーブル参照部202には、表示パターン記憶部210Aが有する原マッピング
テーブル記憶部301に記憶された原マッピングテーブルが、表示パターン設定
部220Aによって設定されている。
【0108】 すなわち、上述した第1例では、図8に示すステップS13において、タイミ
ング生成部205によって設定された現在出力すべき合成画像の画素に対し、こ
の画素と同一位置にあるマッピングデータを読み出すものとしたが、本例では、
原マッピングテーブル上で、利用するマッピングテーブルの領域を設定した後に
、合成画像の画素に対応するマッピングデータの読み出しを行う。
【0109】 本例におけるマッピングデータの読み出し方法について説明する。図26およ
び図27は本例における合成画像と原マッピングテーブルとの関係を模式的に表
したものである。図26の例では、原マッピングテーブルから切り出す領域のサ
イズを合成画像と同一のサイズに固定し、オフセット値を変えることによって、
合成画像の平行移動を実現する。図27の例では、原マッピングテーブルから切
り出す領域のサイズおよび要素の読み出しステップを変えることによって、合成
画像の拡大・縮小を実現する。
【0110】 まず、合成画像の平行移動を行う場合について、図26を参照して説明する。
【0111】 図26(a)に示す合成画像は幅W_DISP,高さH_DISPのサイズを
持ち、図26(b)に示す原マッピングテーブルは幅W_MAP、高さH_DI
SPのサイズを持つものとする。ここでは、原マッピングテーブルとして、車の
上空の仮想視点から車の周囲の広い範囲を見下ろしたような画像を作るものを考
える。これは、前述した第1例において、焦点距離が一定であるとすると、仮想
視点と投影面の距離が一定のまま、投影面のサイズが(W_DISP,H_DI
SP)から(W_MAP,H_MAP)に拡大したと考えて、原マッピングテー
ブルを構成すればよい。投影面の拡大によって、原マッピングテーブルには、よ
り広範囲の領域に関する情報が含まれる。図26(d)はこのようなマッピング
テーブルの各要素を、対応するカメラ画像およびイラスト画像に置き換えた画像
である。
【0112】 次に、表示パターン設定部220Aは、原マッピングテーブル上で、合成画像
生成のためのマッピングテーブルとして用いる領域を、原点(0,0)からのオ
フセット(off_x,off_y)によって指定する。点(off_x,of
f_y)を開始点とした大きさ(W_DISP,H_DISP)の領域MPTが
、画像合成のために用いられるマッピングテーブルとなる。合成画像をラスター
走査して得られた画素のX、Y座標にこのオフセット(off_x,off_y
)を加算した位置のマッピングデータが、マッピングテーブル参照部202から
読み出され、画素合成部201に入力される。画素の合成処理は、第1例と同様
に、図10のフローチャートに従って行われる。図26(c)は、図26(b)
に示すマッピングテーブルMPTを用いて得られた合成画像である。
【0113】 オフセットを加えた座標が原マッピングテーブルの範囲を超えた場合は、画素
合成部201に通知し、予め設定した色(例えば黒)などを画素の値とするなど
領域が判るような表示を行う。
【0114】 本例によると、仮想視点を車両上方から路面を垂直に見下ろすように配置し、
路面平面モデルを用いた場合に、仮想視点を路面と平行に移動させたときの合成
画像を、マッピングテーブルを増やすことなく、生成することが可能になる。す
なわち、上述した第1例では、平行移動した仮想視点のそれぞれに対応するマッ
ピングテーブルが必要であったが、本例では1つの原マッピングテーブルのみで
済む。例えばスムーズな視点移動を行うために1画素ずつ仮想視点を移動するよ
うな場合、上述した第1例では、移動ステップの全部に対応する多数のマッピン
グテーブルが必要になるが、本例では、広範囲の1つの原マッピングテーブルに
おいて、マッピングテーブルを切り出す開始位置(off_x,off_y)を
変化させるだけで実現可能である。また本例では、例えばダイアルなどを回して
仮想視点の位置を変更したり、障害物検出センサの出力の大きさに比例して障害
物の方向へ仮想視点の位置を変更したりする場合に、細かいステップで仮想視点
の位置が変更できるため、状況に応じた合成画像を容易に生成できる。
【0115】 本例では、仮想視点を細かなステップで平行移動するために多数のマッピング
テーブルを用いる必要がないので、マッピングテーブルを記憶するためのメモリ
は1個の原マッピングテーブルを記憶可能な容量があればよい。また、第1例で
は、マッピングテーブルの切換や設定に時間がかかるのに対し、本例ではオフセ
ットの設定のみで済むので、処理の高速化を図ることができる。
【0116】 次に、同様の方法を用いて合成画像の拡大・縮小を行う場合について、図27
を参照して説明する。
【0117】 図27において、タイミング生成部205は(a)に示す合成画像の画素P1
の座標(x,y)を指定したとする。表示パターン設定部220Aは、領域の開
始位置(off_x,off_y)とともに、要素の読み出しステップ(ste
p_x,step_y)を指定する。このとき、画素P1に対応するマッピング
データMDの座標を(u,v)とすると、座標(u,v)は次の式によって求め
られる。
【0118】 u=step_x*x+off_x v=step_y*y+off_y 読み出しステップ(step_x,step_y)の値を変えることによって、
合成画像を滑らかに拡大・縮小することが可能になる。原マッピングテーブルか
ら切り出されるマッピングテーブルの領域が、読み出しステップ(step_x
,step_y)の変化に応じてMPT1,MPT2,MPT3,MPT4と変
化したとき、合成画像は(d),(e),(f),(g)のように変化する。
【0119】 座標(u,v)が原マッピングテーブルの範囲を超えたときは、前述した平行
移動の場合と同様に、指定の色などを出力する。また、読み出しステップ(st
ep_x,step_y)の値は整数以外の値を用いることもでき、この場合は
、計算結果の(u,v)の値を整数に変換する。
【0120】 本例に係る拡大・縮小によると、仮想視点を車両上方から路面を垂直に見下ろ
すように配置し、路面平面モデルを用いた場合、仮想視点の高さまたは焦点距離
の変更によって視野範囲を拡大・縮小した場合と同様の、合成画像を生成できる
【0121】 例えば、運転者などからの指示やセンサ入力に応じて、原画像の一部を拡大表
示する場合、唐突に拡大画像を出力するのではなく、本例に係る方法を用いて滑
らかに拡大して表示することによって、拡大画像が原画像のどの領域を拡大した
ものであるかが把握しやすくなる。
【0122】 さらに、読み出しステップの変更とともに、オフセット値を変えることによっ
て、合成画像の拡大・縮小とともに、平行移動も実現することができる。
【0123】 なお、一般には、マッピングテーブルの領域を矩形に限定する必要はない。す
なわち、表示パターン設定部220Aが、マッピングテーブルの領域を、四辺形
の4頂点の座標で指定するようにしてもよい。
【0124】 図28において、マッピングテーブルの領域を凸形の四辺形とし、4点n1,
n2,n3,n4で指定する。このとき、合成画像の座標(x、y)の画素P1
に対応するマッピングデータMDの座標(u,v)は、次のように求めることが
できる。
【0125】 まず、頂点n1,n2を(y/H_DISP:1−y/H_DISP)に内分
する点naの座標を求める。同様に、頂点n3,n4を(y/H_DISP:1
−y/H_DISP)に内分する点nbを求める。次に、点na,nbを(x/
W_DISP:1−y/W_DISP)に内分する点の座標を求めれば、これが
対応するマッピングデータMDの座標(u,v)となる。
【0126】 このような指定をすれば、平行移動、拡大、縮小、回転を含む、任意のマッピ
ングテーブルの領域指定が可能となる。
【0127】 なお、本方式によると、路面平面モデルを用いて、仮想視点が上方から路面を
垂直に見下ろす場合については、仮想視点の平行移動や、視野範囲の拡大・縮小
または路面に平行な回転のような仮想視点の変化と正確に一致する合成画像を生
成することができる。ただし、モデルや仮想視点の向きが異なる場合には、仮想
視点の変化と正確に一致する合成画像を生成することは、必ずしもできない。し
かしながら、このような場合でも、仮想視点の変化に近似する合成画像を生成す
ることは可能であるので、本方式は極めて有効である。
【0128】 <複数種類の画像表示> 複数種類の合成画像を、併せて1つの画面に表示したり、合成画像とカメラ画
像とを同時に1つの画面に表示することによって、運転手の利便性を高めること
ができる。例えば、自車の近傍と遠方とを同時に表示したり、互いに異なる方向
の画像を同時に表示したり、自車の全体と拡大した自車の一部とを同時に表示し
たりすることによって、運転手は、画面表示を切り替えなくても、車両の周囲の
状況が的確に理解することができる。
【0129】 このような複数種類の画像表示は、複合マップを用いることによって、容易に
実現することができる。「複合マップ」とは、単独マップの必要な部分を切り出
して適当な変形を行い、貼り合わせたり、単独マップにカメラ画像を貼り合わせ
たマッピングテーブルのことをいう。次に説明するような画像表示は、複合マッ
プを用いて容易に実現可能であるが、これ以外の画像表示についても、単独マッ
プ同士や、単独マップとカメラ画像とを組み合わせることによって、様々な運転
場面に応じた複合マップを作ることは可能である。
【0130】 ここでは、車両上方に設定された仮想視点から見た,自車およびその周辺を示
す近傍画像としての、路面平面モデルを用いた見下ろし画像と、この見下ろし画
像を示す自車の周辺領域よりも遠方の領域を示す遠方画像とを含む画像を、表示
する例について、説明する。図29はここでの説明の前提となるカメラ画像を示
す図である。
【0131】 図30は第1の画像としての見下ろし画像の左右に、第2の画像としての斜め
後方を撮すカメラ画像を貼り付けた例である。この例では、第2の画像の視点は
、第1の画像の仮想視点と、位置、視線の向きおよび焦点距離が異なっている、
といえる。図30の画像では、見下ろし画像の右側には、右斜め後方の風景を撮
すカメラ2の画像が左右反転されて配置されており、見下ろし画像の左側には、
左斜め後方の風景を撮すカメラ6の画像が左右反転されて配置されている。すな
わち、左右のドアミラー付近に設置されたカメラ2,6の画像が、実際にドアミ
ラーを介して見えるように、左右反転されて配置されている。したがって、運転
手は、ドアミラーを見るのと同じ感覚で、直感的に車両周囲の状況を理解するこ
とができる。もちろん、左右反転せずに表示してもかまわない。
【0132】 図31は狭い範囲を示す第1の画像としての見下ろし画像と、広い範囲を示す
第2の画像としての見下ろし画像とを並べて表示した例である。この例では、第
2の画像の仮想視点は、第1の画像の仮想視点と、高さまたは焦点距離が異なっ
ている、といえる。図31の画像を見ると、自車の近傍は詳細に、また広い範囲
はサムネイル的に、一度に見ることができる。
【0133】 図32は第1の画像としての見下ろし画像の周囲に、第2の画像としての前後
左右の斜め見下ろし画像を貼り付けた例である。この例では、第2の画像の仮想
視点は、第1の画像の仮想視点と視線の向きが異なっている。図33は第1の画
像としての見下ろし画像の周囲に、第2の画像としての疑似円筒モデルを用いた
魚眼レンズで見たような画像を貼り付けた例である。この例では、第2の画像は
第1の画像とモデルが異なっている。図34は第1の画像としての見下ろし画像
の周囲に、第2の画像としての前後左右のパノラマ画像を貼り付けた例である。
この例では、第2の画像は、第1の画像と、仮想視点の位置およびモデルが異な
っている。図32〜図34の画像を見ると、自車の近傍においては距離感を保つ
ことができ、かつ、自車周囲遠方は見渡すように一望することができる。
【0134】 なお、見下ろし画像の前後左右全てに、遠方画像を貼り付ける必要は必ずしも
なく、見せたい方向のみ、例えば右側のみ、後方のみに遠方画像を表示するよう
にしてもかまわない。
【0135】 なお、図35に示すように、見下ろし画像の周囲の前後左右に斜め見下ろし画
像を貼り付ける場合、表示領域の四隅に空白部を設けて、斜め見下ろし画像は互
いに連続性がないことを強調するようにしてもかまわない。
【0136】 さらに、図32〜図35のような画像表示を行う際には、周囲の遠方画像を、
フィルタ処理を施すことによって、ぼやかせて表示してもかまわない。これによ
り、運転者の注視領域を自車両の周辺に集中させることができる。また、周囲の
遠方画像の歪みを目立たないようにすることができる。
【0137】 このような部分的なぼかし処理は、単独マップを用いた画像表示の場合であっ
ても有効である。例えば、図5に示すような見下ろし画像の場合であっても、自
車両およびその近傍にはぼかし処理を行わず、他の駐車車両が映っているような
周辺領域にぼかし処理を行うことによって、同様の効果を得ることができる。駐
車時などの場合には、ぼかし処理を行わない領域は、自車両から10m以内の領
域に設定すると適切である。また、自車両から距離が離れるにつれてぼかし強度
を増加させてもよい。
【0138】 また、図31の画像は、自車両と、自車両の周囲を示す第1の画像と、この第
1の画像が示す領域の少なくとも一部を拡大した第2の画像とを含む合成画像で
あるともいえる。もちろん、第1の画像が、自車両の全体ではなく自車両の一部
を示していたり、自車両の周囲の一部を示していたりしていても、かまわない。
【0139】 また、表示画面をマルチウィンドウにし、サブウィンドウに、上述したような
合成画像や、カメラ画像、仮想視点の位置を示す画像、文字情報などを表示する
ようにしてもよい。これにより、自車両の周囲状況がさらに容易に把握しやすく
なり、運転手の利便性が向上する。
【0140】 マルチ画面の表示方法としては、いろいろなものが考えられる。例えば、図3
6に示すように、カメラ画像や合成画像とともに、仮想視点の位置を示す画像を
サブウィンドウに表示してもよい。これにより、仮想視点の位置を容易に把握す
ることができる。
【0141】 また例えば、物体検出センサが障害物を検出したときに、各サブウィンドウの
カメラ画像または合成画像上にその障害物の位置を示す警告マークを表示させる
ともに、別のサブウィンドウに、文字によって、その障害物の位置を表示させて
もよい。
【0142】 <死角領域および自車両領域の表示> (その1) 図37はカメラ画像およびそのカメラ画像における自車両の映り込み領域を示
す領域データとしてのマスクデータの例を示す図である。図37に示すように、
各カメラ画像において自車両が映り込んだ部分を認識し、認識した車両の映り込
み領域を示すマスクデータを、予め画像処理部2に記憶させておく。図37に示
すマスクデータにおける黒色の部分が、車両の映り込み領域である。車両の映り
込み領域は、カメラの仕様と向き、および自車両の形状が定まれば、予め一意に
決定することができる。
【0143】 図38(a)は図37のカメラ画像を用いて合成した鉛直見下ろし画像である
。図38(a)に示す合成画像では、画像の中央部に白く自車両が映り込んでお
り、多少見づらくなっている。
【0144】 そこで、各カメラ画像のマスクデータを、仮想視点から見た画像に変換し、合
成画像において、車両の映り込み領域を塗りつぶすことにする。この結果、図3
8(b)に示すような画像が得られ、見やすさが改善される。
【0145】 また、図38(a)では、画像の中央部に自車両が映り込んでいるため見づら
くなっているとともに、自車両が実際にどこにあるのかが分からないので、運転
しづらい。そこで、自車両のイラスト画像または実画像を、自車両が実際に存在
する位置に、スーパーインポーズする。例えば、画像処理部2は、標準の仮想視
点から見たことを前提とする自車両のイラスト画像または実画像を予め記憶して
おき、その画像を、表示する合成画像の仮想視点から見た画像に変換し、スーパ
ーインポーズすればよい。この結果、図38(c)に示すような画像が得られ、
周りの物体に対する自車両の大きさや相対的な位置関係が、一目で分かるように
なった。自車両画像の変換は、前述したマッピングテーブルを用いることによっ
て、容易に実現できる。
【0146】 この場合、標準の仮想視点としては、例えば自車両の上方に設けた仮想視点や
、側面に位置する仮想視点や、自車両の前方または後方などに設けた仮想視点を
、用いることができる。また、標準の仮想視点を複数個設けて、複数の標準の仮
想視点に対してそれぞれ画像を準備してもよい。そして、合成画像を生成するた
めの仮想視点の位置が決まると、その仮想視点と各標準の仮想視点との位置関係
から、画像変換時に画像の歪みが最も小さくなる標準の仮想視点を選択するよう
にしてもかまわない。
【0147】 なお、自車両のイラストまたは実画像を貼り付ける代わりに、CAD/CAM
やCGの分野で公知のサーフェスモデルやソリッドモデルを用いた自車両の3次
元モデルを、合成画像に貼り付けるようにすることも可能である。この場合も、
標準の仮想視点から見た3次元モデルを表す画像を予め準備しておき、この画像
を、表示する合成画像の仮想視点から見た画像に変換し、スーパーインポーズす
ればよい。この変換も、前述したマッピンテーブルを用いることによって、容易
に実現することができる。
【0148】 さらに、自車両が実際に存在する領域を示す画像として、カメラ画像から生成
した合成画像そのものを利用するようにしてもよい。また、自車両の一部、例え
ばバンパー部分のみを合成画像で表示し、これ以外の部分はイラストまたは実画
像を貼り付けるようにしてもかまわない。
【0149】 (その2) 仮想視点から見た合成画像には、いずれのカメラの撮像範囲にも属さない領域
が含まれる場合ある。また、自車両が妨げになって、各カメラからは撮像できな
い領域も含まれる場合がある。
【0150】 この問題を解決するために、上述の(その1)では、車両の映り込み領域に所
定の画素データを与えて塗りつぶすことによって、合成画像をより見やすくした
【0151】 ここで、図39に示すように、自車両が映ったカメラ画像をそのまま仮想視点
画像に変換すると、変換された自車両画像が合成画像に含まれることになり、見
にくくなる(A1)。この場合は、自車両が映る領域を塗りつぶすことによって
、見やすさは改善される。
【0152】 ところが、仮想視点画像において、自車両が本来存在しない部分に、自車両の
一部が映ってしまう場合が起こりうる(A2)。このような場合は、仮想視点画
像において自車両の部分を塗りつぶすと、本来見えるべき部分までが消えてしま
うので、好ましくない。この問題は、原カメラ画像を仮想視点画像に変換する際
に利用する空間モデルが、カメラに映っている実世界と異なる(ほとんどは単純
化される)場合に起こりうるものである。このため、この問題を原理的に解決す
るためには、実世界の奥行き情報を実時間で計算することが必要となり、非常に
高速な演算能力が装置に要求される。したがって、実施は困難である。
【0153】 そこで、次のような方法によって、この問題を解決する。
【0154】 すなわち、合成画像の画素が車両の映り込み領域に含まれるか否かを、原カメ
ラ画像と対になるマスクデータを参照して判断し、この画素の生成を、車両の映
り込み領域に含まれる場合とそうでない場合とにおいて切り換える。すなわち、
マスクデータを仮想視点画像に変換するのではなく、マスクデータを、原カメラ
画像の形態のまま用いる。
【0155】 図40はマスクデータの一例を示す図である。図40に示すように、各カメラ
画像に対して、自車両の映り込み部分など仮想視点画像合成に用いない領域を示
すマスクデータが設けられている。
【0156】 この場合には、例えば、合成画像の生成のためにカメラ画像の画素データを参
照するとき、このカメラ画像に対応するマスクデータも参照し、その画素が車両
の映り込み領域に含まれるときには、画素の生成を行わないで、死角領域である
ことが識別可能な色で塗りつぶすなどの処理を行えばよい。
【0157】 また前述のマッピングデータMP14のように、合成画像の画素が死角領域に
含まれるか否かの情報を、マッピングテーブル自体に持たせてもよい。この場合
には、仮想視点画像合成の際に、フレーム毎にマスクデータを参照する必要が無
くなり、処理の高速化が実現できる。また、マスクデータを蓄える記憶部を設け
る必要がない、という利点がある。
【0158】 図41は画像合成の結果の一例を示す図である。図41に示す合成画像では、
自車両が存在する車両領域と、自車両の周囲の死角領域とが、示されている。車
両領域を示すことによって、自車両と周囲の状況との位置関係や距離などが、運
転者から把握しやすくなる。また、運転席からは直接見えにくい領域も合成画像
によって確認できるようになるが、さらに死角領域を示すことによって、いずれ
のカメラからも撮影されない領域を運転者に認識させることができるので、安全
性が向上する。
【0159】 なお、自車両が存在する車両領域の全てを示す必要は必ずしもなく、車両領域
の一部を示す場合もあり得る。例えば、カメラの設置台数が限られており、車両
およびその周囲の一部しか撮影されない場合には、撮影された車両領域の一部と
、その周囲の死角領域のみが示される。あるいは、車両周囲の特定の一部を拡大
表示させるような場合には、表示する車両領域の一部と、その周囲の死角領域が
示される。
【0160】 また、死角領域の代わりに、車両の乗員などの注意を喚起するための注意喚起
領域を示してもよい。この注意喚起領域は、いずれのカメラからも撮影されない
車両周囲の死角領域を含んだ領域であってもよいし、死角領域そのものに相当す
る領域であってもかまわない。また、注意喚起領域は、車両の周囲の一部を示す
ものであってもよい。
【0161】 注意喚起領域は、カメラの撮影範囲にかかわらず、車両領域との位置関係のみ
によって予め設定可能であるので、簡易な処理で合成することが可能である。ま
た、注意喚起領域が死角領域を含んでいるとき、死角領域ではない、カメラから
撮影された部分も注意喚起領域として隠されてしまう可能性があるが、例えば、
注意喚起領域を半透明表示して、死角領域と併せて表示するようにしてもよい。
【0162】 図42はマスクデータを用いて死角領域を求め、イラスト画像を貼り付ける場
合におけるマッピングデータの生成手順を示す図である。図42において、<P
T1>は1個のカメラ画像から生成される合成画像の画素、<PT2>は2個の
カメラ画像を参照するが、カメラ画像の1つが車両の映り込みのために除去され
、残りの1個のカメラ画像から生成される合成画像の画素、<PT3>は1個の
カメラ画像を参照するが、そのカメラ画像が車両の映り込みのために除去される
合成画像の画素、<PT4>は1個のカメラ画像を参照するが、そのカメラ画像
が車両の映り込みのために除去され、かつ、車両のイラスト画像が貼られる合成
画像の画素である。
【0163】 まず、ステップ1において、参照座標および必要度の計算を行う。合成画像の
画素に対し、全てのカメラ画像について参照座標を計算する。この参照座標の計
算は、後述する幾何演算によって行う。このとき、求めた参照座標がカメラ画像
の撮影範囲外(すなわち死角)にあるときは、座標値として(−1,−1)を記
述する。またここでは、参照するカメラの台数を求め、その逆数を必要度として
与えるものとする。必要度の与え方は、他の方法でもかまわないし、人手による
入力で与えてもよい。このステップ1において、<PT1>が参照するのはカメ
ラ6、<PT2>が参照するのはカメラ4,5、<PT3>が参照するのはカメ
ラ6、<PT4>が参照するのはカメラ2であることを得る。
【0164】 次に、ステップ2において、車両の映り込み領域を示すマスクデータを参照し
て、死角の処理を行う。座標値が(−1,−1)以外のカメラに対応するマスク
データにおいて、その座標値が示す点が、車両の映り込み領域に属するか否かを
判断する。車両の映り込み領域に属するときは、その座標値を(−1,−1)に
変換する。この変換によって、参照するカメラの台数が減ったときは、必要度の
値を再度計算する。
【0165】 <PT1>については、図43(d)に示すように、カメラ6のマスクデータ
において点(450,200)は車両の映り込み領域に属しないので、座標値の
変換は行わない。<PT2>については、図43(b)に示すように、カメラ4
のマスクデータにおいて点(150,280)は車両の映り込み領域に属するの
で、カメラ4の座標値を(−1,−1)に変換する。一方、図43(c)に示す
ように、カメラ5のマスクデータにおいて点(490,280)は車両の映り込
み領域に属しないので、カメラ5の座標値は変換しない。そして、その必要度を
「1」に変換する。<PT3>については、図43(d)に示すように、カメラ
6のマスクデータにおいて点(110,250)は車両の映り込み領域に属する
ので、カメラ6の座標値を(−1,−1)に変換する。<PT4>については、
カメラ2のマスクデータにおいて点(600,290)は車両の映り込み領域に
属するので、カメラ4の座標値を(−1,−1)に変換する。
【0166】 次に、ステップ3において、画像合成に最低限必要なデータにするために、冗
長なデータの整理を行う。まず、座標値が(−1,−1)であるカメラ番号を全
て「−1」に変更する。そして、全てのカメラ番号が「−1」である場合は、こ
れらのデータを1つに統合する(<PT3>,<PT4>)。また、「−1」以
外のカメラ番号がある場合は、カメラ番号が「−1」であるデータを除去する(
<PT1>,<PT2>)。
【0167】 そして、ステップ4において、自車両のイラスト画像の貼り付けを行う。自車
両のイラスト画像を貼り付ける合成画像の画素については、マッピングデータの
カメラ番号を「99」に変換し、イラスト画像の参照座標を設定する。ここでは
、<PT4>がイラスト画像を貼り付ける画素であるので、カメラ番号を「99
」に変換するとともに、座標値をイラスト画像の参照座標値(360,44)に
変換する。
【0168】 図44(a)はステップ1終了時におけるマッピングデータを用いた場合の合
成画像の例、図44(b)はステップ3終了時におけるマッピングデータを用い
た場合の合成画像の例、図44(c)はステップ4終了時におけるマッピングデ
ータを用いた場合の合成画像の例である。
【0169】 図45はマスクデータを用いないで、注意喚起領域を指定する場合におけるマ
ッピングデータの生成手順を示す図である。図45において、<PT5>は1個
のカメラ画像から生成される合成画像の画素、<PT6>は注意喚起領域に指定
される合成画像の画素、<PT7>は注意喚起領域に指定されるが、車両のイラ
スト画像が貼られる合成画像の画素である。
【0170】 まず、ステップ1’において、初期マッピングテーブルの生成を行う。これは
、図42に示すステップ1およびステップ3の処理によって実行される。
【0171】 次に、ステップ2’において、注意喚起領域の指定を行う。ステップ1’で生
成した初期マッピングテーブルを用いて合成画像を作成し、この合成画像におい
て、注意喚起領域を指定する。
【0172】 次に、ステップ3’において、注意喚起領域に該当するマッピングデータの書
き換えを行う。ステップ2’で指定された注意喚起領域に該当するマッピングデ
ータを、カメラ番号「−1」、座標(−1,−1)に変換する。そして、参照す
るカメラの台数が減ったときは、必要度の値を再度計算する。
【0173】 そして、ステップ4’において、自車両のイラスト画像の貼り付けを行う。こ
こでは、<PT7>がイラスト画像を貼り付ける画素であるので、カメラ番号を
「99」に変換するとともに、座標値をイラスト画像の参照座標値(360,4
4)に変換する。
【0174】 図46(a)はステップ1’終了時におけるマッピングデータを用いた場合の
合成画像の例、図46(b)はステップ3’終了時におけるマッピングデータを
用いた場合の合成画像の例、図46(c)はステップ4’終了時におけるマッピ
ングデータを用いた場合の合成画像の例である。
【0175】 このようにすれば、自車両画像を合成画像に重ね合わせたり、死角領域や注意
喚起領域を特定の色で塗りつぶしたりするような処理を、容易に行うことができ
る。そして、注意喚起領域を設定する場合は、カメラに対するマスクデータを参
照しないで、予め決まった注意喚起領域を合成することによって、より簡易に合
成画像を生成できる。一方、死角領域を設定する場合は、カメラに対するマスク
データを参照することによって、カメラに映っている車両周囲の状況を余すこと
なく合成画像に反映させることが可能になる。
【0176】 なお、以上の説明では、本発明に係る監視システムや画像処理装置は、車両に
適用するものとしたが、車両以外の移動体、例えば飛行機や船舶などであっても
、同様に適用することができる。また、移動体以外の監視対象、例えば店舗、住
居、ショールームなどにカメラを設置してもよい。
【0177】 また、複数のカメラの設置位置や台数は、ここで示したものに限られるもので
はない。
【0178】 また、本発明に係る画像処理装置の機能は、その全部または一部を、専用のハ
ードウェアを用いて実現してもかまわないし、ソフトウェアによって実現しても
かまわない。また、本発明に係る画像処理装置の機能の全部または一部をコンピ
ュータに実行させるためのプログラムを格納した記録媒体や伝送媒体を、利用す
ることも可能である。
【0179】 <幾何変換> 合成画像のためのマッピングテーブルを作成するためには、仮想視点から見た
合成画像の各画素に対応する各カメラ画像の画素の座標を決める必要がある。
【0180】 このために、まず、仮想視点からの合成画像の各画素に対応するワールド座標
系(Xw、Yw、Zw)を求め、そのワールド座標系の3次元座標に対応するカメラ
画像の画素の座標を求める2段階を考えると判りやすい。
【0181】 最終的に必要な関係は、仮想視点の合成画像の各画素と各カメラ画像の画素と
の関係だけであり、このワールド座標系を経由するマッピングテーブルに限定さ
れるものではない。ただし、このワールド座標系を経由するマッピングテーブル
は、合成画像の実際の世界での座標系であるワールド座標系での意味付けが明確
になるため、周囲の状況を実際の距離、位置関係と対応付けやすい合成画像を生
成する点で重要である。
【0182】 仮想視点の位置と向きを表すパラメータとして、視点のワールド座標系での座
標を位置ベクトルTv =(Txv、Tyv、Tzv)、視線の向きを、視平面座標系をワー
ルド座標系の向きへ一致させる回転を表す3行3列の回転行列Rvで表すとすると
、合成画像の視点座標(Vxe, Vye, Vze)の対応するワールド座標(Xw, Yw, Zw
)は、式(1)で求められる。
【数1】
【0183】 図47は、視点座標系とワールド座標系の関係を説明する模式図である。
【0184】 図48に示すように、仮想視点の向きを、視線がワールド座標系Y-Z平面に対
して水平回転の角度(方位角)をαv、X-Z平面に対してなす傾きの角度(仰角)
をβvとし、カメラの光軸周りの回転(Twist)をγvとすると、回転行列Rvは、
【数2】 となる。
【0185】 一方、仮想視点の視点座標系(Vxe, Vye, Vze)のVxe、Vyeと、投影面上の2次
元座標Uv、Vvの関係は、透視投影変換より焦点距離fvを用いて以下の式(3)で
表される。
【数3】
【0186】 焦点距離の単位としては、投影面をフィルムやCCDとして、その大きさに対応
するmmやインチであらわす場合や、合成画像のサイズに対応して画素であらわす
場合などがあるが、今回は投影面を投影中心を中心として幅2、高さ2の正規化
したものとし、それに対する焦点距離を考える。
【0187】 よって、投影面上の座標と合成画像の画素の関係は、画像の右上から(Sv、Tv
)の位置にある画素に対応する投影面上の座標(Uv, Vv)は、画像の横幅をWv画
素、縦幅をHv画素とすれば、 Uv = 2×Sv/Wv −1 Vv = 2×Tv/Hv −1 …(4) として求まる。
【0188】 以上より、合成画像の任意の画素(Sv, Tv)に対応するワールド座標系の3次
元座標(Xw、Yw、Zw)は、式(1)〜(4)より、カメラの位置Txv, Tyv, Tzv,
カメラの向きαv、βv、γv, 焦点距離fvより次の式(5)で求めることができ
る。
【数4】
【0189】 ただし、式(5)では、合成画像の座標(Sv、Tv)に対応する奥行きVzeが未
定である。言い換えると、合成画像に写る対象物までの各画素からの奥行き値を
定める必要がある。
【0190】 仮想視点から見える対象物の3次元形状を知ることができれば、各画素の奥行
きを得ることができるが、一般には困難である。そこで、仮想視点から見える対
象物の形状に何らかのモデルを仮定することにより、上記Vzeを求め、合成画像
の座標とワールド座標系の3次元座標との関係を求めることを行う。
【0191】 ―路面平面モデル― その一例として、対象物を車が接している路面平面に限定した場合について説
明する。
【0192】 すべての対象物がワールド座標系の平面(路面)に存在すると仮定すると、ワ
ールド座標系の3次元座標(Xw,Yw,Zw)は、以下の平面の方程式を満たす。
【数5】 よって、式(6)を式(5)に代入して、Vzeを求めると、
【数6】 となる。
【0193】 よって、式(7)を式(5)に代入することにより、仮想視点の合成画像の画
素の座標(Sv, Tv)から、対応するワールド座標系の平面の3次元座標(Xw, Yw,
Zw)を求めることができる。
【0194】 このワールド座標系での3次元座標(Xw, Yw, Zw)に対応する、各カメラ画像
の各画像の座標は式(1)と同様な関係式に、各カメラの位置、向きに対応する
Tx、Ty、Tz、α、β、γのパラメータを代入して計算することにより求めること
ができる。
【0195】 例えば、カメラ1の位置をTx1, Ty1, Tz1, 向きをα1, β1, γ1とすれば、合
成画像の画素(Sv,Tv)に対応するカメラ1のカメラ座標系Xe1, Ye1, Ze1が,以
下の式(8)より計算できる。
【数7】 このカメラ座標系とカメラ画像の座標系(U1、V1)との関係は、カメラ1の焦点
距離をf1として、式(3)より U1 = f1/Ze1×Xe1 V1 = f1/Ze1×Ye1 …(9) として計算できる。対応するカメラ画像の画素は、カメラ画像のサイズを縦H1画
素、横W1画素として、アスペクト比1:1、カメラ中心が画像の中心と考えると
、次の式(10)で計算できる。 S1 = W1/2×(Uv +1) T1 = H1/2×(Vv +1) …(10) 以上の手続きにより、仮想視点画像の画素(Sv, Tv)に対応するカメラ1の画
像の画素(S1, T1)を求めることができた。同様にカメラ1以外の一般のカメラ
nに対しても(Sv, Tv)に対応する画素座標(Sn, Tn)が計算できる。実際にパ
ラメータテーブルには、その中から、(Sn, Tn)が実際のカメラ画像の範囲内に
写っているか、画素の拡大、縮小率が大きくないかなどの種々の条件により、そ
の最適なものを1つまたは複数選び、カメラ番号nとその座標(Sn, Tn)を書き
こむ。
【0196】 ―円筒モデル― 前記の路面平面モデルでは、カメラ画像で水平線から上に写っている物体は路
面平面を無限遠に延ばしても路面平面上には載らないので、仮想視点から見るこ
とことはできない。
【0197】 これらの物体を仮想視点からの合成画像に反映するために、対象の3次元形状
として図49に示すような円筒モデルを考える。このモデルは、仮想視点の向き
が路面に対して平行に近くなった場合などに有効である。
【0198】 いま簡単のために、X軸、Z軸に軸を持つ円筒モデルを考えると、楕円円筒の
中心を(Xc,Zc)とし、楕円のパラメータ(a, c)を用いて、そのモデルを次の式(
11)としてあらわす。なお、X軸、Z軸以外に軸を持つモデルへも、XZ平面
上での回転を考えることにより、容易に拡張できる。
【数8】
【0199】 式(11)を用いて式(5)からVzeを消去することによって、仮想視点の合
成画像の座標(Sv, Tv)に対応するワールド座標系の3次元座標(Xw, Yw, Zw)を
求めることができる。この座標から、前記路面平面モデルと同様に、各カメラ画
像の対応する画素を計算することにより、仮想視点画像の画素(Sv, Tv)と、カメ
ラ画像の画素(Sn, Tn)の関係を求め、マッピングテーブルを作成する。
【0200】 また、路面平面モデルと円筒モデルの組合せも可能である。先に路面平面モデ
ルによるワールド座標系の3次元座標を求めて、その3次元座標が、円筒モデル
の外側、もしくは平面との交点を持たずに解を生じない場合は、次に円筒モデル
による3次元座標を求める。これにより路面平面モデルと円筒モデルの複合によ
る合成が可能となる。
【0201】 ―疑似円筒モデル― 路面平面モデルの周辺の遠方の状況を把握しやすくするため、周囲をお椀状の
疑似円筒モデルを導入する。モデルの形状を図50に示す。仮想視点画像の周辺に
なる程、遠方の部分が圧縮されて合成され、より広い範囲が表示可能となる。こ
の疑似円筒の形状を式(12)で表す。
【数9】
【0202】 お椀の中心が(Xc, Yc, Zc)、X軸、Y軸、Z軸方向の(a, b, c)の長さを持
つ。前記円筒モデルと同様に、式(12)および式(5)から、仮想視点からの
合成画像の座標に対応するワールド座標系の3次元座標(Xw, Yw, Zw)を計算し
、合成画像の各画素と、各カメラ画像の画素の対応関係を求めることが可能とな
る。
【0203】 なお、円筒モデルと同様に、路面平面モデルとの組合せによる複合モデルによ
る合成も可能である。
【0204】 ―レンズ歪み補正の処理― 次に、マッピングテーブルによりレンズ収差を補正する方法について説明する
。実際のカメラ画像にレンズ収差による歪みがある場合、この歪みを上記Uv、Vv
から実際の画素S1,T1を求めるときに、その歪みの分を補正した画素座標を計算
することにより、合成画像からレンズ収差の影響を除くことが可能となる。この
歪み補正は、マッピングテーブルの合成画像(Sv,Tv)とカメラ画像(Sn,Tn)の
関係に取り込まれるため、最初に歪み補正を行ったマッピングテーブルを作れば
、実際の合成時には、補正のための計算は不要となる。従来のレンズ歪み補正に
使われるレンズ中心からの距離の関数などのような歪みが定式化できない場合で
も、格子などのパターンを撮影し、レンズ歪みにより各画素がどのように移動す
るかの情報さえあれば、歪み補正が可能であるという特徴を持っている。
【図面の簡単な説明】
【図1】 本発明に係る監視システムの概念図である。
【図2】 カメラ配置の例を示す図である。
【図3】 図2の各カメラの撮像画像の例である。
【図4】 仮想視点と実カメラとの関係を概念的に示す図である。
【図5】 生成された合成画像の例である。
【図6】 マッピングテーブルを用いた画像合成動作を示す図である。
【図7】 本発明の一実施形態に係る監視システムの構成例である。
【図8】 図7の画像合成部の動作を示すフローチャートである。
【図9】 マッピングテーブルの構成の例である。
【図10】 図8の画素合成ステップS14の詳細を示すフローチャートである。
【図11】 カメラ画像以外の画素データを記述したマッピングデータの一例である。
【図12】 8個のカメラ画像を利用した鉛直見下ろし画像の例である。
【図13】 4個のカメラ画像を利用した鉛直見下ろし画像の例である。
【図14】 2個のカメラ画像を利用した鉛直見下ろし画像の例である。
【図15】 斜め見下ろし画像の例である。
【図16】 前方パノラマモードのパノラマ画像の例である。
【図17】 後方パノラマモードのパノラマ画像の例である。
【図18】 斜め見下ろし画像とパノラマ画像とを合わせた画像の例である。
【図19】 車両の走行状態に応じて仮想視点の高さを変更した場合の合成画像の例である
【図20】 車両の走行状態に応じて仮想視点の視線の向きを変更した場合の合成画像の例
である。
【図21】 車両の舵角に応じて仮想視点の視線の向きを変更した場合の合成画像の例であ
る。
【図22】 物体検出センサの出力信号に応じた画像切替の例を示す図である。
【図23】 物体検出センサの出力信号に応じた画像切替の例を示す図である。
【図24】 物体検出センサの出力信号に応じた画像切替の例を示す図である。
【図25】 本発明の一実施形態に係る監視システムの構成例である。
【図26】 画像を平行移動する場合のマッピングテーブルの切り出しを示す図である。
【図27】 画像を拡大・縮小する場合のマッピングテーブルの切り出しを示す図である。
【図28】 マッピングテーブルを矩形以外の四辺形で切り出す例を示す図である。
【図29】 カメラ画像の例である。
【図30】 見下ろし画像の左右に斜め後方を撮すカメラ画像を貼り付けた合成画像の例で
ある。
【図31】 狭い範囲を示す見下ろし画像と広い範囲を示す見下ろし画像と並べて表示した
例である。
【図32】 見下ろし画像の周囲に斜め見下ろし画像を貼り付けた例である。
【図33】 見下ろし画像の周囲に疑似円筒モデルを用いた画像を貼り付けた例である。
【図34】 見下ろし画像の周囲にパノラマ画像を貼り付けた例である。
【図35】 見下ろし画像の周囲に斜め見下ろし画像を貼り付け、四隅に空白部を設けた例
である。
【図36】 カメラ画像とともに仮想視点の位置を示す画像を表示した例である。
【図37】 カメラ画像と自車両の映り込み領域を示すマスクデータの例を示す図である。
【図38】 自車両の画像をスーパーインポーズした例を示す図である。
【図39】 自車両の映り込みをそのまま変換した場合の合成画像の例を示す図である。
【図40】 マスクデータの一部を示す図である。
【図41】 車両領域と死角領域とが示された合成画像の例である。
【図42】 死角領域を求め、車両の画像を貼り付ける場合のマッピングデータの生成手順
を示す図である。
【図43】 マスクデータと合成画像の画素との関係を示す図である。
【図44】 図42の手順の結果得られたマッピングデータを用いた場合の合成画像の例で
ある。
【図45】 注意喚起領域を指定する場合のマッピングデータの生成手順を示す図である。
【図46】 図45の手順の結果得られたマッピングデータを用いた場合の合成画像の例で
ある。
【図47】 幾何変換を説明するための図である。
【図48】 幾何変換を説明するための図である。
【図49】 幾何変換を説明するための図である。
【図50】 幾何変換を説明するための図である。
【手続補正2】
【補正対象書類名】図面
【補正対象項目名】全図
【補正方法】変更
【補正内容】
【図1】
【図2】
【図3】
【図4】
【図5】
【図6】
【図7】
【図8】
【図9】
【図10】
【図11】
【図12】
【図13】
【図14】
【図15】
【図16】
【図17】
【図18】
【図19】
【図20】
【図21】
【図22】
【図23】
【図24】
【図25】
【図26】
【図27】
【図28】
【図29】
【図30】
【図31】
【図32】
【図33】
【図34】
【図35】
【図36】
【図37】
【図38】
【図39】
【図40】
【図41】
【図42】
【図43】
【図44】
【図45】
【図46】
【図47】
【図48】
【図49】
【図50】
【手続補正書】
【提出日】平成14年2月14日(2002.2.14)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
請求項20請求項17記載の画像処理装置において、 前記画像処理部は、 各カメラ画像における自車両の映り込み領域を示す領域データを用いて、前記
死角領域および車両領域を合わせた領域の範囲を決定する ことを特徴とする画像処理装置。
請求項21】 車両の周囲を撮影する複数のカメラと、 前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から、合成画像
を生成する画像処理部と、 前記合成画像を表示する表示部とを備え、 前記画像処理部は、 前記合成画像において、自車両が存在する車両領域の少なくとも一部と、自車
両の周囲の少なくとも一部を示し、いずれのカメラからも撮影されない車両周囲
の死角領域の少なくとも一部である注意喚起領域とを、表示する ことを特徴とする監視システム。
請求項22】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、
これらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 合成画像の画素と、カメラ画像の画素との対応関係を記述する第1のマッピン
グデータと、合成画像の画素と、カメラ画像以外の画素データとが対応すること
を示す識別子を記述する第2のマッピングデータとを有するマッピングテーブル
を用いて、前記合成画像を生成する ことを特徴とする画像処理装置。
請求項23請求項22記載の画像処理装置において、 前記カメラ画像以外の画素データは、前記車両または、前記車両の周囲の少な
くとも一部にある死角領域を示すものである ことを特徴とする画像処理装置。
請求項24請求項22記載の画像処理装置において、 前記画像処理部は、カメラ画像以外の所定の画像を記憶しており、 前記第2のマッピングデータは、 合成画像の画素に対し、当該画素に対応する,記憶された前記所定の画像にお
ける座標値を記述するものである ことを特徴とする画像処理装置。
請求項25請求項22記載の画像処理装置において、 前記第2のマッピングデータは、 合成画像の画素に対応する画素データを記述するものである ことを特徴とする画像処理装置。
請求項26】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、
これらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 合成画像の画素と、カメラ画像の画素データおよびカメラ画像以外の画素デー
タのうちの一方または両方からなる,複数の画素データとの対応関係を記述し、
かつ、各画素データに対してそれぞれ、必要度を記述したマッピングデータを用
い、 各画素データに対して必要度に応じた重み付けを行い、前記合成画像の画素の
画素データを生成する ことを特徴とする画像処理装置。
請求項27】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、
これらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 原マッピングテーブルを有し、 この原マッピングテーブルから、合成画像の画素とカメラ画像の画素との対応
関係を記述するマッピングテーブルを切り出し、切り出したマッピングテーブル
を用いて、合成画像を生成する ことを特徴とする画像処理装置。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0021
【補正方法】変更
【補正内容】
【0021】 また、具体的には本発明は、車両の周囲を撮影する複数のカメラの撮像画像を
入力とし、これらのカメラ画像から合成画像を生成する画像処理部を備え、前記
画像処理部は、前記合成画像において、自車両が存在する車両領域の少なくとも
一部と、自車両の周囲の少なくとも一部を示し、いずれのカメラからも撮影され
ない車両周囲の死角領域の少なくとも一部である注意喚起領域とを表示するもの
である。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0024
【補正方法】変更
【補正内容】
【0024】 また、前記画像処理部は、各カメラ画像における自車両の映り込み領域を示す
領域データを用いて、前記死角領域および車両領域を合わせた領域の範囲を決定
するのが好ましい。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0025
【補正方法】変更
【補正内容】
【0025】 また、本発明は、監視システムとして、車両の周囲を撮影する複数のカメラと
、前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から合成画像を
生成する画像処理部と、前記合成画像を表示する表示部とを備え、前記画像処理
部は、前記合成画像において、自車両が存在する車両領域の少なくとも一部と、
自車両の周囲の少なくとも一部を示しいずれのカメラからも撮影されない車両周
囲の死角領域の少なくとも一部である注意喚起領域とを表示するものである。
───────────────────────────────────────────────────── (注)この公表は、国際事務局(WIPO)により国際公開された公報を基に作 成したものである。 なおこの公表に係る日本語特許出願(日本語実用新案登録出願)の国際公開の 効果は、特許法第184条の10第1項(実用新案法第48条の13第2項)に より生ずるものであり、本掲載とは関係ありません。

Claims (29)

    【特許請求の範囲】
  1. 【請求項1】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、これ
    らのカメラ画像から、仮想視点から見た合成画像を生成する画像処理部を備え、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のうちの少なくともいずれ
    か1つを、前記車両の走行状態に応じて、変更する ことを特徴とする画像処理装置。
  2. 【請求項2】 請求項1記載の画像処理装置において、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のうちの少なくともいずれ
    か1つを、前記車両の走行速度に応じて、変更する ことを特徴とする画像処理装置。
  3. 【請求項3】 請求項1記載の画像処理装置において、 前記画像処理部は、 仮想視点の位置、視線の向き、および焦点距離のうちの少なくともいずれか1
    つの変更とともに、変更後の仮想視点の視野範囲外画像の取込の制御を行う ことを特徴とする画像処理装置。
  4. 【請求項4】 請求項3記載の画像処理装置において、 前記画像処理部は、 変更後の仮想視点の視野範囲外画像の取込の制御を、画像合成のためのモデル
    を変更することによって、行う ことを特徴とする画像処理装置。
  5. 【請求項5】 請求項1記載の画像処理装置において、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のうちの少なくともいずれ
    か1つを、前記車両の舵角に応じて、変更する ことを特徴とする画像処理装置。
  6. 【請求項6】 請求項1記載の画像処理装置において、 前記車両は、障害物を検出する物体検出センサを備えており、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のうちの少なくともいずれ
    か1つを、前記物体検出センサによる検出結果に応じて、変更する ことを特徴とする画像処理装置。
  7. 【請求項7】 請求項1記載の画像処理装置において、 前記画像処理部は、 原マッピングテーブルを有し、この原マッピングテーブルから切り出したマッ
    ピングテーブルを用いて、合成画像の生成を行うものであり、かつ、 前記原マッピングテーブルから切り出すマッピングテーブルを変更することに
    よって、仮想視点の位置、視線の向き、および焦点距離のうちの少なくともいず
    れか1つの変更を、行う ことを特徴とする画像処理装置。
  8. 【請求項8】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、これ
    らのカメラ画像から、仮想視点から見た合成画像を生成する画像処理部を備え、 前記画像処理部は、 前記車両の走行状態に応じて、前記仮想視点の視野範囲外画像の取込の制御を
    行う ことを特徴とする画像処理装置。
  9. 【請求項9】 車両の周囲を撮影する複数のカメラと、 前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から、仮想視点
    から見た合成画像を生成する画像処理部と、 前記合成画像を表示する表示部とを備え、 前記画像処理部は、 前記仮想視点の位置、視線の向き、および焦点距離のうちの少なくともいずれ
    か1つを、前記車両の走行状態に応じて、変更する ことを特徴とする監視システム。
  10. 【請求項10】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、こ
    れらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 仮想視点から見た第1の画像と、前記第1の画像の仮想視点と位置、視線の向
    き、および焦点距離のうちの少なくともいずれか1つが異なる視点から見た、ま
    たは、前記第1の画像とモデルが異なる、第2の画像とを含む画像を、前記合成
    画像として生成する ことを特徴とする画像処理装置。
  11. 【請求項11】 請求項10記載の画像処理装置において、 前記第2の画像は、前記カメラ画像の少なくとも1つである ことを特徴とする画像処理装置。
  12. 【請求項12】 請求項10記載の画像処理装置において、 前記第1の画像は、自車およびその周辺を示す近傍画像であり、 前記第2の画像は、前記近傍画像が示す自車の周辺領域よりも遠方の領域を示
    す遠方画像である ことを特徴とする画像処理装置。
  13. 【請求項13】 請求項12記載の画像処理装置において、 前記画像処理部は、 前記合成画像において、前記近傍画像の周囲に、前記遠方画像を配置すること
    を特徴とする画像処理装置。
  14. 【請求項14】 請求項13記載の画像処理装置において、 前記遠方画像は、前記近傍画像と連続性を有する画像である ことを特徴とする画像処理装置。
  15. 【請求項15】 請求項10記載の画像処理装置において、 前記第1の画像は、自車両の少なくとも一部と、自車両の周囲の少なくとも一
    部とを示す画像であり、 前記第2の画像は、前記第1の画像が示す領域の少なくとも一部を拡大した画
    像である ことを特徴とする画像処理装置。
  16. 【請求項16】 車両の周囲を撮影する複数のカメラと、 前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から、合成画像
    を生成する画像処理部と、 前記合成画像を表示する表示部とを備え、 前記画像処理部は、 仮想視点から見た第1の画像と、前記第1の画像の仮想視点と位置、視線の向
    き、および焦点距離のうちの少なくともいずれか1つが異なる視点から見た、ま
    たは、前記第1の画像とモデルが異なる、第2の画像とを含む画像を、前記合成
    画像として生成する ことを特徴とする監視システム。
  17. 【請求項17】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、こ
    れらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 前記合成画像において、自車両が存在する車両領域の少なくとも一部と、自車
    両の周囲の少なくとも一部を示し、注意を喚起するための注意喚起領域とを、表
    示する ことを特徴とする画像処理装置。
  18. 【請求項18】 請求項17記載の画像処理装置において、 前記合成画像は、前記車両の上方に設定された仮想視点から見た画像であるこ
    とを特徴とする画像処理装置。
  19. 【請求項19】 請求項17記載の画像処理装置において、 前記画像処理部は、 前記車両領域に、自車両のイラスト画像または実画像を表示する ことを特徴とする画像処理装置。
  20. 【請求項20】 請求項17記載の画像処理装置において、 前記注意喚起領域は、いずれのカメラからも撮影されない車両周囲の死角領域
    の少なくとも一部を、含む ことを特徴とする画像処理装置。
  21. 【請求項21】 請求項17記載の画像処理装置において、 前記注意喚起領域は、いずれのカメラからも撮影されない車両周囲の死角領域
    に相当する領域である ことを特徴とする画像処理装置。
  22. 【請求項22】 請求項20または21記載の画像処理装置において、 前記画像処理部は、 各カメラ画像における自車両の映り込み領域を示す領域データを用いて、前記
    死角領域および車両領域を合わせた領域の範囲を決定する ことを特徴とする画像処理装置。
  23. 【請求項23】 車両の周囲を撮影する複数のカメラと、 前記複数のカメラの撮像画像を入力とし、これらのカメラ画像から、合成画像
    を生成する画像処理部と、 前記合成画像を表示する表示部とを備え、 前記画像処理部は、 前記合成画像において、自車両が存在する車両領域の少なくとも一部と、自車
    両の周囲の少なくとも一部を示し、注意を喚起するための注意喚起領域とを、表
    示する ことを特徴とする監視システム。
  24. 【請求項24】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、こ
    れらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 合成画像の画素と、カメラ画像の画素との対応関係を記述する第1のマッピン
    グデータと、合成画像の画素と、カメラ画像以外の画素データとが対応すること
    を示す識別子を記述する第2のマッピングデータとを有するマッピングテーブル
    を用いて、前記合成画像を生成する ことを特徴とする画像処理装置。
  25. 【請求項25】 請求項24記載の画像処理装置において、 前記カメラ画像以外の画素データは、前記車両または、前記車両の周囲の少な
    くとも一部にある死角領域を示すものである ことを特徴とする画像処理装置。
  26. 【請求項26】 請求項24記載の画像処理装置において、 前記画像処理部は、カメラ画像以外の所定の画像を記憶しており、 前記第2のマッピングデータは、 合成画像の画素に対し、当該画素に対応する,記憶された前記所定の画像にお
    ける座標値を記述するものである ことを特徴とする画像処理装置。
  27. 【請求項27】 請求項24記載の画像処理装置において、 前記第2のマッピングデータは、 合成画像の画素に対応する画素データを記述するものである ことを特徴とする画像処理装置。
  28. 【請求項28】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、こ
    れらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 合成画像の画素と、カメラ画像の画素データおよびカメラ画像以外の画素デー
    タのうちの一方または両方からなる,複数の画素データとの対応関係を記述し、
    かつ、各画素データに対してそれぞれ、必要度を記述したマッピングデータを用
    い、 各画素データに対して必要度に応じた重み付けを行い、前記合成画像の画素の
    画素データを生成する ことを特徴とする画像処理装置。
  29. 【請求項29】 車両の周囲を撮影する複数のカメラの撮像画像を入力とし、こ
    れらのカメラ画像から、合成画像を生成する画像処理部を備え、 前記画像処理部は、 原マッピングテーブルを有し、 この原マッピングテーブルから、合成画像の画素とカメラ画像の画素との対応
    関係を記述するマッピングテーブルを切り出し、切り出したマッピングテーブル
    を用いて、合成画像を生成する ことを特徴とする画像処理装置。
JP2000613188A 1999-04-16 2000-04-17 画像処理装置および監視システム Expired - Lifetime JP3300334B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000613188A JP3300334B2 (ja) 1999-04-16 2000-04-17 画像処理装置および監視システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP10994699 1999-04-16
JP11-109946 1999-04-16
JP2000613188A JP3300334B2 (ja) 1999-04-16 2000-04-17 画像処理装置および監視システム
PCT/JP2000/002474 WO2000064175A1 (en) 1999-04-16 2000-04-17 Image processing device and monitoring system

Publications (2)

Publication Number Publication Date
JP3300334B2 JP3300334B2 (ja) 2002-07-08
JPWO2000064175A1 true JPWO2000064175A1 (ja) 2002-07-30

Family

ID=26449656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000613188A Expired - Lifetime JP3300334B2 (ja) 1999-04-16 2000-04-17 画像処理装置および監視システム

Country Status (1)

Country Link
JP (1) JP3300334B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019071677A (ja) * 2019-01-28 2019-05-09 住友重機械工業株式会社 ショベル

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132349A (ja) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd 描画装置
WO2004008744A1 (ja) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. 道路面等の平面対象物映像の平面展開画像処理方法、同逆展開画像変換処理方法及びその平面展開画像処理装置、逆展開画像変換処理装置
JP4679816B2 (ja) * 2003-11-04 2011-05-11 株式会社デンソー 車両周辺表示制御装置
JP4744823B2 (ja) * 2004-08-05 2011-08-10 株式会社東芝 周辺監視装置および俯瞰画像表示方法
EP1696669B1 (en) 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP2007124609A (ja) * 2005-09-28 2007-05-17 Nissan Motor Co Ltd 車両周囲映像提供装置
JP2007158578A (ja) * 2005-12-02 2007-06-21 National Univ Corp Shizuoka Univ 全周囲情報環状表示システム
JP4889360B2 (ja) * 2006-04-18 2012-03-07 アルパイン株式会社 車載用画像表示装置
JP4193886B2 (ja) 2006-07-26 2008-12-10 トヨタ自動車株式会社 画像表示装置
JP5159070B2 (ja) 2006-08-31 2013-03-06 アルパイン株式会社 車両周辺画像表示装置及び表示方法
JP4916269B2 (ja) * 2006-10-02 2012-04-11 パナソニック株式会社 映像合成装置および集積回路
JP5105880B2 (ja) * 2007-01-10 2012-12-26 アルパイン株式会社 車両状況監視装置及び画像処理装置
JP5045172B2 (ja) * 2007-03-20 2012-10-10 マツダ株式会社 車両用運転支援装置
JP5090126B2 (ja) 2007-10-23 2012-12-05 アルパイン株式会社 車載用撮像装置
JP5057936B2 (ja) * 2007-11-09 2012-10-24 アルパイン株式会社 鳥瞰画像生成装置および方法
JP4975592B2 (ja) 2007-11-19 2012-07-11 アルプス電気株式会社 撮像装置
JP5104397B2 (ja) * 2008-02-27 2012-12-19 富士通株式会社 画像処理装置、画像処理方法
JP4992800B2 (ja) * 2008-04-02 2012-08-08 株式会社デンソー 駐車支援装置
JPWO2009141846A1 (ja) * 2008-05-19 2011-09-22 パナソニック株式会社 車両周囲監視装置および車両周囲監視方法
WO2009144994A1 (ja) 2008-05-29 2009-12-03 富士通株式会社 車両用画像処理装置、車両用画像処理方法
JP5262515B2 (ja) * 2008-09-25 2013-08-14 日産自動車株式会社 車両用表示装置および表示方法
JP5300443B2 (ja) 2008-12-01 2013-09-25 富士通テン株式会社 画像処理装置
JP5627253B2 (ja) 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP5087051B2 (ja) * 2009-07-02 2012-11-28 富士通テン株式会社 画像生成装置及び画像表示システム
JP5226621B2 (ja) * 2009-07-06 2013-07-03 東芝アルパイン・オートモティブテクノロジー株式会社 車両用画像表示装置
JP5209578B2 (ja) * 2009-07-28 2013-06-12 東芝アルパイン・オートモティブテクノロジー株式会社 車両用画像表示装置
JP5031801B2 (ja) 2009-07-28 2012-09-26 日立オートモティブシステムズ株式会社 車載用画像表示装置
JP5518407B2 (ja) * 2009-09-10 2014-06-11 東芝アルパイン・オートモティブテクノロジー株式会社 車両用障害物検出装置
JP5378143B2 (ja) * 2009-10-09 2013-12-25 住友重機械工業株式会社 画像変換装置及び操作支援システム
JP2011091527A (ja) * 2009-10-21 2011-05-06 Panasonic Corp 映像変換装置及び撮像装置
JP2011135253A (ja) 2009-12-24 2011-07-07 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
JP5505061B2 (ja) * 2010-04-26 2014-05-28 日産自動車株式会社 狭路走行支援装置
JP5516992B2 (ja) 2010-11-30 2014-06-11 アイシン精機株式会社 駐車位置調整装置
DE102012200731A1 (de) * 2012-01-19 2013-07-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Visualisieren der Umgebung eines Fahrzeugs
JP5911775B2 (ja) 2012-08-21 2016-04-27 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
DE102015206477A1 (de) 2015-04-10 2016-10-13 Robert Bosch Gmbh Verfahren zur Darstellung einer Fahrzeugumgebung eines Fahrzeuges
DE102015208343B4 (de) 2015-05-06 2023-09-07 Robert Bosch Gmbh Verfahren zum Erzeugen eines Gesamtbildes einer Fahrzeugumgebung eines Fahrzeuges und entsprechende Vorrichtung
EP3337166B1 (en) * 2015-08-10 2020-01-01 JVC Kenwood Corporation Vehicular display apparatus and vehicular display method
JP6330761B2 (ja) * 2015-08-27 2018-05-30 株式会社デンソー 画像生成装置、画像生成方法、及びプログラム
JP6555056B2 (ja) 2015-09-30 2019-08-07 アイシン精機株式会社 周辺監視装置
JP6477562B2 (ja) 2016-03-18 2019-03-06 株式会社デンソー 情報処理装置
JP6760129B2 (ja) * 2017-02-28 2020-09-23 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
EP3537714B1 (en) * 2017-02-28 2021-08-25 JVC Kenwood Corporation Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
JP7080586B2 (ja) * 2017-04-04 2022-06-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7013751B2 (ja) 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置
JP7091624B2 (ja) 2017-09-15 2022-06-28 株式会社アイシン 画像処理装置
JP7106846B2 (ja) 2017-11-24 2022-07-27 株式会社アイシン 周辺監視装置
KR102075686B1 (ko) * 2018-06-11 2020-02-11 세메스 주식회사 카메라 자세 추정 방법 및 기판 처리 장치
JP7151293B2 (ja) 2018-09-06 2022-10-12 株式会社アイシン 車両周辺表示装置
CN109215136B (zh) 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
KR102149455B1 (ko) * 2018-11-26 2020-08-28 국방과학연구소 헬멧 장치 및 그 동작 방법
JP7283059B2 (ja) 2018-11-28 2023-05-30 株式会社アイシン 周辺監視装置
JP7314514B2 (ja) 2019-01-25 2023-07-26 株式会社アイシン 表示制御装置
JP7222254B2 (ja) 2019-01-25 2023-02-15 株式会社アイシン 周辺表示制御装置
JP7654966B2 (ja) 2020-12-04 2025-04-02 株式会社アイシン 周辺監視装置
JP2022149557A (ja) * 2021-03-25 2022-10-07 いすゞ自動車株式会社 表示制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019071677A (ja) * 2019-01-28 2019-05-09 住友重機械工業株式会社 ショベル

Similar Documents

Publication Publication Date Title
JP3300334B2 (ja) 画像処理装置および監視システム
JPWO2000064175A1 (ja) 画像処理装置および監視システム
CN100438623C (zh) 图象处理装置及监视系统
JP3652678B2 (ja) 車両周囲監視装置およびその調整方法
JP3300341B2 (ja) 監視システムおよびカメラ調整方法
JP3286306B2 (ja) 画像生成装置、画像生成方法
US9050931B2 (en) Vehicle periphery monitoring system
CN103770706B (zh) 动态后视镜显示特征
JP5422902B2 (ja) 画像処理装置、画像処理プログラム、画像処理システム及び画像処理方法
JPWO2000007373A1 (ja) 画像表示装置、画像表示方法
JP5209578B2 (ja) 車両用画像表示装置
JP2002316602A (ja) 車載カメラの撮像画像表示方法及びその装置
JP2002019556A (ja) 監視システム
US20080055407A1 (en) Apparatus And Method For Displaying An Image Of Vehicle Surroundings
JP2002135765A (ja) カメラキャリブレーション指示装置及びカメラキャリブレーション装置
KR20030031445A (ko) 차량 주위 감시 장치 및 그 조정 방법
JP2007109166A (ja) 運転支援システム
JP2009524171A (ja) 複数の画像を結合して鳥瞰図画像にする方法
JP3753681B2 (ja) 監視システム
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP4315968B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP2010258691A (ja) 操縦支援装置
JP5271186B2 (ja) 車両用画像表示装置
JP4581294B2 (ja) 車両用表示装置
JP5091882B2 (ja) 画像処理装置並びに視界支援装置及び方法