[go: up one dir, main page]

JP3670647B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP3670647B2
JP3670647B2 JP2003006257A JP2003006257A JP3670647B2 JP 3670647 B2 JP3670647 B2 JP 3670647B2 JP 2003006257 A JP2003006257 A JP 2003006257A JP 2003006257 A JP2003006257 A JP 2003006257A JP 3670647 B2 JP3670647 B2 JP 3670647B2
Authority
JP
Japan
Prior art keywords
image
camera
composite image
message
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003006257A
Other languages
Japanese (ja)
Other versions
JP2003264827A5 (en
JP2003264827A (en
Inventor
修作 岡本
雅通 中川
浩史 石井
一生 登
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2003006257A priority Critical patent/JP3670647B2/en
Publication of JP2003264827A publication Critical patent/JP2003264827A/en
Application granted granted Critical
Publication of JP3670647B2 publication Critical patent/JP3670647B2/en
Publication of JP2003264827A5 publication Critical patent/JP2003264827A5/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車両に設置した複数のカメラの撮像画像を用いて合成画像を生成する画像処理技術に関するものであり、特に、車両運転の際の安全確認の補助などに利用される監視システムに有効な技術に属する。
【0002】
【従来の技術】
従来、車両の周囲をカメラを用いて監視する装置として、特開平11−78692号公報に記載の車両用映像提供装置が知られている。この装置では、車両用映像提供のための複数のカメラを車両の周囲に取り付け、各カメラによって撮影された画像を変形し、境界の連続性を保ちながら合成して新たな画像を作成し、モニタに表示している。
【0003】
【発明が解決しようとする課題】
上述したような車両周囲監視システムでは、一旦設置したカメラは、通常、その設置位置や向きは変化しない、ということを前提にして、画像処理が実行されている、と考えられる。なぜなら、合成画像を生成する画像処理を、カメラの設置位置や向きをその都度考慮しながらリアルタイムで行うことは、処理時間や装置規模の面からみて、実用上極めて困難であるからである。
【0004】
一方、車両の空力面やデザイン面などを考慮すると、このような監視システムに用いられるカメラが、ドアミラー取り付け部付近や、トランク、ボンネットなどのような可動部分に設置される可能性は、十分にあり得る。
【0005】
このとき、次のような問題が生じる。
【0006】
すなわち、カメラが取り付けられた可動部分の状態変化が、カメラの撮像画像に影響を与え、合成画像にずれなどを生じさせる可能性がある。例えば、カメラがドアミラー付近に取り付けらた場合、ドアを開けたとき、カメラの向きが変わるので、合成画像上でそのカメラ画像を用いた部分のみにずれが生じる。この結果、表示画面上、利用者に違和感を与えることになる。
【0007】
また、カメラが固定部分にとりつけられた場合でも、同様の問題が生じる。例えばドアが開いたことによって、特定のカメラの撮像画像にそのドアが映り込んだ場合には、合成画像上でそのカメラ画像を用いた部分のみにずれが生じる。合成画像上のずれは、結果として、利用者に違和感を与えることになり、好ましくない。
【0008】
前記の問題に鑑み、本発明は、車両に設置された複数のカメラの撮像画像を用いて合成画像を生成する画像処理装置として、車両の可動部分の状態変化によってカメラの撮像画像が影響を受けた場合でも、表示画像上、利用者に違和感を与えないようにすることを課題とする。
【0009】
【課題を解決するための手段】
前記の課題を解決するために、請求項1の発明が講じた解決手段は、画像処理装置として、車両に設置され、当該車両の周囲を撮影する複数のカメラの撮像画像を入力とし、これらの撮像画像から、前記車両およびその周囲の状況を示す合成画像を生成し、表示装置に出力する画像処理部を備え、前記画像処理部は、前記車両の可動部分の状態変化に起因して、前記複数のカメラのうちの少なくとも1つの設置位置または向きが変化し、前記合成画像が正常でなくなるとき、前記合成画像の表示態様を通常モードから異常モードに切り替え、異常モードにおいて、合成画像とともに、異常モードの原因となる可動部分の状態変化を利用者に知らせるメッセージを出力するものであり、前記メッセージは、状態変化が生じた可動部分の種類によって異なるものである。
【0010】
請求項1の発明によると、合成画像の表示態様の切替によって、可動部分の状態が、例えば車両の走行に望ましくない状態であることを、利用者に素早く的確に知らしめることが可能になる。
【0011】
そして、請求項2の発明では、前記請求項1の画像処理装置におけるメッセージは、状態変化が生じた可動部分を特定する内容を含むものとする。
【0012】
また、請求項3の発明では、前記請求項1の画像処理装置における画像処理部は、前記メッセージを、合成画像上の、状態変化が生じた可動部分付近に、出力するものとする。
【0013】
【発明の実施の形態】
以下、本発明の一実施形態について、図面を参照して説明する。
【0014】
(第1の実施形態)
図1は本発明の第1の実施形態に係る監視システムの構成を示すブロック図である。図1に示す監視システムにおいて、画像処理部2は、撮像部1から出力された複数のカメラ画像を入力とし、これらを合成して新たな画像を生成する。この合成画像は、表示装置3によって表示される。画像処理部2によって、本発明に係る画像処理装置が構成される。
【0015】
図2は本実施形態におけるカメラ配置の例、図3は各カメラの撮像画像の例を示す図である。ここでは、8台のカメラが、図2および図3のように配置されているものとする。なお、図2および図3のカメラ配置においては、周囲の死角をなるべくなくすために、互いに隣り合うカメラの画像においてオーバーラップする領域ができるように、各カメラの位置・向きを決めるのが好ましい。
【0016】
画像処理部2は、図3に示す8枚のカメラ画像を変形・合成し、例えば、車両上方から鉛直下方に見下ろしたような合成画像を生成する。合成画像の生成のためには、画像変形処理や、変形された部分画像の合成処理(境界処理を含む)が必要になるが、図1の構成では、マッピングテーブル参照部22を備え、撮像画像の加工を一つの工程で行うために、マッピングテーブルMPTを利用する。マッピングテーブルについては後述する。
【0017】
マッピングテーブル選択部41は、合成画像の表示内容を選択し、選択した表示内容に応じたマッピングテーブルMPTを指示する。この選択は、人為的に行ってもよいし、ギア位置、ハンドル舵角またはウィンカーなどの車両の状態に応じて自動的に行うようにしてもよい。マッピングテーブルMPTを選択する信号は、マッピングテーブル参照部22とともに、メッセージ出力部26におくられる。
【0018】
表示切替部23は、車両の可動部分の状態を示す状態信号S1を受けて、合成画像の表示態様を切り替える。例えば、可動部分の状態変化に起因して複数のカメラのいずれかの設置位置または向きが変化し、合成画像が正常でなくなるときは、合成画像の表示態様を、通常モードから異常モードに切り替える。異常モードにおいては、例えば、設置位置または向きが変化したカメラの撮像画像を用いないで、合成画像を生成する。
【0019】
図4は車両の可動部分の状態変化に起因して正常でなくなった合成画像の一例である。図4の合成画像を見ると分かるように、車両の右ドアが開状態になったことに起因してカメラ1およびカメラ2の撮像画像が変化したため、カメラ1およびカメラ2の撮像画像を用いた部分にずれが生じている。
【0020】
そこで、本実施形態では、車両の可動部分の状態として、カメラが設置された右ドア、左ドア、トランクおよびボンネットの開閉状態を用いる。すなわち、表示切替部23には、状態信号S1によって、例えば「右ドアが開いている」「ボンネットが閉じている」などの情報が入力される。表示切替部23は、図5に示すような車両の可動部分とカメラ番号との対応関係を示すデータを予め有しており、この対応関係と状態信号S1が示す情報とを用いて、合成画像の表示態様の切替を行う。
【0021】
図6は本発明に係る合成画像の表示態様の切替の例を示す図である。同図中、(a)は通常モードにおける合成画像である。車両の可動部分が全て閉状態であるときは、合成画像は正常になるので図6(a)のように表示する。図6(b)は異常モードにおける合成画像の例であり、車両の右ドアが開状態になったときを想定している。図6(b)の合成画像では、右ドアに設置されたカメラ1およびカメラ2の撮像画像を画像合成に用いず、代わりに、所定の色で塗りつぶしている。なお、所定の色で塗りつぶす代わりに、他の模様を用いたり、また、適当な時間間隔で色を切り換えたりしてもかまわない。
【0022】
本実施形態では、このような合成画像の表示態様の切替を、マッピングテーブルMPTのマッピングデータを書き換えることによって、実現する。
【0023】
また、異常モードでは、合成画像の出力自体を中止したり、メッセージ出力部26がメッセージを出力したりしてもよい。
【0024】
図6(c)では、異常モードにおいて、合成画像を出力せずに、右ドアが開状態であることを示すメッセージのみを出力している。さらに、図6(d)では、図6(b)に示す合成画像を表示し、かつ、図6(c)と同じメッセージを併せて出力している。図6(d)のように、可動部分の状態変化の影響を受けたカメラ画像を合成画像の生成に用いないだけでなく、その原因となる可動部分の状態変化(例えばドアが開いているなど)を利用者に知らせるメッセージを併せて出力することによって、運転者など自車の状態をより素早く的確に知ることが可能となる。
【0025】
メッセージ出力部26は、表示すべきメッセージを例えば画像の形式で予め蓄えておき、車両の可動部分の状態を示す状態信号S1と、マッピッングテーブル選択部41から出力されたマッピングテーブルMPTを選択する信号とを受けて、合成画像に表示すべきメッセージ画像を選択し、映像信号生成部24に送る。
【0026】
図7はメッセージ出力部26が蓄えているメッセージ画像の例を示す図である。図7の例では、メッセージの部分が白色(RGB各256階調で表現したときは(255,255,255))、それ以外の部分が黒色(0,0,0)で表されている。メッセージ画像のサイズは合成画像のサイズと同一にしておく。
【0027】
メッセージ画像におけるメッセージの内容および表示位置は、合成画像の生成に用いられるマッピングテーブルや、状態変化が生じた可動部分の種類によって、異なる。このため、想定される各条件に対してそれぞれメッセージ画像を準備しておき、状況に応じてメッセージ画像を選択して利用できることが望ましい。
【0028】
図8は合成画像に用いるマッピングテーブルおよび車両の可動部分の状態と、表示すべきメッセージ画像との対応関係を示す図である。例えば、図8の2行目は、現在選択されているマッピングテーブルが「見下ろし」画像生成用のものであり、かつ、車両の可動部分のうち「右ドア」が開いている場合には、メッセージ画像として、1番の画像を選択することを意味している。図7(a)は1番のメッセージ画像の例である。マッピングテーブルが「見下ろし」であり、「右ドア」が開状態のときは、右ドア部に設置されたカメラの撮像画像は画像合成に用いられないので、合成画像上で右ドア部に設置されたカメラ画像が用いられるはずの位置に、「右ドアが開いている」旨のメッセージが表示される。
【0029】
メッセージ出力部26は、図8に示すような情報を予め記憶しておき、車両の可動部分の状態を示す状態信号S1と、マッピングテーブルMPTを選択する信号とを受けて、表示すべきメッセージ画像を選択し、出力する。映像信号生成部24は、メッセージ出力部26から出力されたメッセージ画像を受け取り、画素合成部21から出力された合成画像に重ねて表示する。
【0030】
メッセージ画像の重ね合わせには、例えば、各画素について、合成画像およびメッセージ画像におけるRGB値をそれぞれ取り出し、値の大きい方を出力する、などの方法を用いればよい。例えばこの方法を図7(a)のメッセージ画像に適用すると、メッセージ画像の黒画素の部分については合成画像のRGB値が用いられる一方、メッセージ画像の白画素の部分については必ずメッセージ画像のRGB値が用いられることになり、この結果、メッセージの部分だけが合成画像に重ね合わさった画像を得ることができる。この場合、白色のメッセージが重ね合わせた結果見づらくならないように、合成画像上でカメラ画像を用いない部分は、暗い色で塗りつぶすことが望ましい。
【0031】
また、この重ね合わせ方法を用いて、いずれの可動部分も閉じている状態(すなわち通常モード)の合成画像を表示する場合には、メッセージ画像として、図7(b)に示すような全体を黒(0,0,0)で塗りつぶした画像を準備すればよい。すなわち、図8の最下行に示した7番目のメッセージ画像として、図7(b)に示すような画像を準備すればよい。もちろん、通常モードにおいては、メッセージ出力部26がメッセージ画像を出力しないようにしてもかまわない。
【0032】
さらに、複数箇所の可動部分が開状態である場合には、次のように対応することができる。例えば、マッピングテーブルとして「見下ろし」が選択されており、かつ、右ドアと左ドアの両方が開いている場合には、メッセージ出力部26は、まず、それぞれの条件に対応したメッセージ画像として1番(例えば図7(a))および2番(例えば図7(c))の画像を選択する。そして、各画素について、1番の画像および2番の画像におけるRGB値をそれぞれ取り出し、値の大きい方を選択することによって、新たなメッセージ画像(例えば図7(d))を生成し、これを映像信号生成部24に送ればよい。
【0033】
なおここでは、メッセージとして文字を利用するものとしたが、文字に限らず、例えば簡略図やイラストなどをメッセージとして用いてもかまわない。また、異常モードにおいてメッセージ出力を行わない場合には、メッセージ出力部26を省いて良いことはいうまでもない。
【0034】
以下、マッピングデータの書き換えについて、詳細に説明する。
【0035】
「マッピングテーブル」とは、合成画像の画素と、各カメラ画像の画素データとの対応関係が記述されたテーブルのことをいい、合成画像の生成処理を高速に行うために用いられる。
【0036】
カメラ画像の画素と合成画像の画素とは、1対1に対応する場合もあるし、複数対1に対応する場合もある。1対1に対応するか、または複数対1に対応するかは、カメラの設置位置や、生成する合成画像の種類などに依存する。例えば、カメラ画像の境界部において境界処理が行われる場合には、カメラ画像の画素と合成画像の画素とは複数対1に対応することが多い。
【0037】
図9はマッピングテーブルの一例を示す模式図である。図9に示すマッピングテーブルでは、合成画像の各画素座標(i,j)に対応して、マッピングデータがそれぞれ設けられている。
【0038】
例えば、画素座標(i1,j1)に対応して、マッピングデータMP1が設けられている。このマッピングデータMP1は、合成画像の座標(i1,j1)の画素の生成のために、カメラ1の撮像画像の座標(12,45)の画素データのみが用いられることを表している。また、必要度が「1」であるので、この場合は、合成画像の座標(i1,j1)の画素値として、カメラ1の撮影画像の座標(12,45)の画素データがそのまま用いられる。
【0039】
また、画素座標(i2,j2)に対応して、マッピングデータMP2が設けられている。このマッピングデータMP2は、合成画像の座標(i2,j2)の画素の生成のために、カメラ1の撮影画像の座標(10,10)の画素データと、カメラ0の撮影画像の座標(56,80)の画素データとが用いられることを表している。この場合、合成画像の座標(i2,j2)の画素値は、必要度に応じて、例えば、
画素値={(カメラ1の座標(56,80)の画素値)×0.5
+(カメラ0の座標(10,10)の画素値)×0.3}
/(0.5+0.3)
のように決めることができる。
【0040】
このようなマッピングテーブルを、予め幾何変換等を用いた計算または手作業などによって予め作成しておくことによって、所望の合成画像、例えば車両の周囲の全体や後方または側方を表すような合成画像を、高速に生成することができる。そして、合成画像生成に用いるマッピングテーブルを切り替えることによって、合成画像の表示モードを容易に切り替えることができる。この表示モードの切替は、手動によっても可能であり、また車両の走行状態に応じて自動的に行うことも可能である。
【0041】
マッピングテーブルは具体的には、例えばROM(EEPROM等の書き込み・消去可能なROMを含む)またはRAMに格納されている。マッピングテーブルの格納は、例えば、画像処理部内のプロセッサが計算で求めたマッピングデータをROMまたはRAMに書き込むことによって実現してもよいし、ファームウェアとして提供されるマッピングテーブルデータを、通信回線やディスクドライブ等のデータ転送手段を用いてRAMまたはROMに書き込むようにしてもよい。
【0042】
次に、マッピングテーブルMPTおよび表示切替部23を用いて、合成画像を生成する動作について、説明する。
【0043】
図10は本実施形態に係る画像合成動作の全体の流れを示すフローチャートである。まず、ステップS11において、撮像部1のフレームメモリ12a,12bの切替を行う。タイミング生成部25は、合成画像の動画系列を生成するためのタイミング信号を生成する。タイミング生成部25から出力されたフレーム開始のタイミング信号によって、撮像部1は、各カメラ11の撮像画像を書き込むフレームメモリと、画像処理部2から参照されるフレームメモリとを切り替える。これは、後述するように、画像処理部2から参照されるカメラ画像の画素の位置が、カメラ11からの書き込みの順序とは無関係に飛び飛びになるので、書き込みと参照とが干渉しないようにするためである。
【0044】
次に、ステップS12において、タイミング生成部25は、合成出力のタイミングに合わせて、出力すべき合成画像の画素を設定する。
【0045】
そして、ステップS13において、マッピングテーブル参照部22は、タイミング生成部25によって設定された画素に対応するマッピングデータを、設定されたマッピングテーブルMPTから読み出し、表示切替部23に出力する。ステップS20において、表示切換部23は、状態信号S1を受けて、必要に応じて、マッピングテーブル参照部22から読み出されたマッピングデータを書き換える。そして、画素合成部21に出力する。ステップS20の詳細については後述する。
【0046】
ステップS30において、画素合成部21は、入力されたマッピングデータに応じて、タイミング生成部25によって設定された画素の値を合成し、映像信号生成部24に出力する。そして、ステップS14において、映像信号生成部24は、タイミング生成部25からのタイミング信号に応じて、入力された合成画像の画素の値を映像信号に変換し、表示装置3に出力する。
【0047】
タイミング生成部25は、ステップS12以下の処理を、フレームの全画素について実行し(S15,S16)、フレームの最終画素の処理が終われば、次のフレームの処理を開始する。
【0048】
もちろん、フィールド単位の処理を実行してもかまわない。
【0049】
図11は図10に示すフローのステップS20における表示切替部23の動作を示すフローチャートである。
【0050】
まずステップS21において、入力した状態信号S1から、車両の可動部分のいずれか、すなわち右ドア、左ドア、トランクまたはボンネットのうちのいずれかの開閉状態を読み出す。そして、可動部分が開状態のとき(S22でYES)はステップS23にすすみ、図5に示すような予め有しているデータから、その可動部分に設置されているカメラの番号を得る。一方、閉状態のとき(S22でNO)は、他の可動部分の開閉状態の読み出しを行う(S27,S21)。
【0051】
ステップS25では、ステップS23で得たカメラ番号と、マッピングデータに書かれたカメラ番号とが一致するか否かを調べる。一致するとき(S25でYES)はステップS26にすすみ、マッピングデータにおけるそのカメラ番号に関するデータを、カメラ使用不可状態を表す内容に書き換える。図11の例では、カメラ番号、X座標およびY座標の値を全て「−1」に書き換えている。一方、カメラ番号が一致しないとき(S25でNO)は、他の可動部分の開閉状態の読み出しを行う(S27,S21)。
【0052】
全ての可動部分について、上述の処理が終了したとき(S27でYES)はステップS28にすすみ、マッピングデータの必要度を再計算し、処理を終了する。
【0053】
ステップS20における表示切替部23の動作を、図9に示すマッピングデータMP2が表示切換部23に入力された場合を例にとって、具体的に説明する。なおここでは、説明のために、車両の右ドアのみが、開状態であるものとする。
【0054】
まず、車両の右ドアが開状態であると分かるので(S21,S22)、図5に示す対応関係を参照し、右ドアに設置されたカメラのカメラ番号として「1」および「2」を得る(S23)。
【0055】
次に、カメラ番号「1」および「2」が、マッピングデータMP2に記述されたカメラ番号と一致するか否かを調べる(S25)。カメラ番号「1」はマッピングデータMP2に記述されているので、カメラ1に関するデータをカメラ使用不可状態を表す内容に書き換える(S26)。一方、カメラ番号「2」については、マッピングデータMP2に記述されていないので、書き換えは行わない。
【0056】
他の可動部分については全て閉状態であるので、ステップS28に進み、必要度の再計算を行う。ここでは、使用不可になったカメラ1についてその必要度を「0」にするとともに、カメラ0についての必要度を「1」にする。
【0057】
図12は図10に示すフローにおけるステップS30における画素合成処理の詳細を示すフローチャートである。
【0058】
まず、ステップS31において、合成する画素の値を「0」に初期化する。
【0059】
そしてステップS32において、対応するマッピングデータからカメラ番号、画素のX,Y座標および必要度を読み出す。読み出したカメラ番号が使用可能であるときは、該当するカメラ画像が格納されたフレームメモリから、X,Y座標に対応する画素値を読み出し保持する(S34)。一方、読み出したカメラ番号が使用不可であるときは、カメラ使用不可を示す所定の画素値(例えば黒)を保持し、出力する(S35,S39)。
【0060】
ステップS36において、保持した画素値に必要度で重み付けし、合成する画素の値に加算する。
【0061】
上述した処理を、マッピングデータに記述された全てのカメラ番号について、繰り返し実行し(S37,S38)、処理が終了すると(S37でYES)、合成する画素の値を出力する(S39)。
【0062】
以上のように、合成画像の表示態様を切り替えることによって、車両の可動部分の状態が変化し、合成画像が正常でなくなるときでも、利用者に違和感を与えることを回避することができる。
【0063】
(第2の実施形態)
図13は本発明の第2の実施形態に係る監視システムの構成を示すブロック図である。図13では、図1と共通の構成要素には図1と同一の符号を付しており、ここではその詳細な説明を省略する。
【0064】
図13の構成は、表示切換部23Aが、撮像部1から画素合成部21Aへのカメラ画像の入力の有無を、状態信号S1に応じて切り替えることによって、合成画像の表示態様の切替を実現することを特徴とする。すなわち、画素合成部21Aのカメラ画像入力側にスイッチ31が設けられており、表示切替部23Aは、状態信号S1によって可動部分のいずれかが開状態であることを認識すると、図5に示すような情報から、合成画像生成に使用できないカメラを特定し、そのカメラの撮像画像が画素合成部21Aに入力されないように、スイッチ31を切替制御する。
【0065】
このため、本実施形態では、第1の実施形態と同様にマッピングテーブルを用いて画像合成を行うが、図10に示すフローにおいてマッピングデータを変更する処理S20が省略される点が、第1の実施の形態と異なる。すなわち、カメラの撮像画像の入力を物理的に中止するので、可動部分の状態に応じてマッピングデータを変更する処理S20は、当然のことながら不要になる。そして、これに伴い、図12のフローにおけるステップS33,S35も省略される。
【0066】
なお、この第2の実施形態の構成は、マッピングテーブルを用いない構成の画像処理部についても、容易に適用することができる。
【0067】
なお、上述した各実施形態において、表示装置3は、典型的には液晶ディスプレイであるが、プラズマディスプレイ等の他の表示デバイスを用いてもかまわない。また、車両搭載型のGPS端末ディスプレイ、いわゆるカーナビゲーションシステムのディスプレイと共用してもかまわない。また、撮像部1に用いるカメラ11は、典型的にはCCD,CMOSデバイス等の固体撮像素子を有するカラーまたはモノクロのデジタルカメラであるが、他の撮像デバイスを用いてもかまわない。
【0068】
なお、上述した各実施形態では、ドアやボンネットのような可動部分の状態変化に起因してカメラの設置位置や向きが変化し、これによって合成画像が正常でなくなる場合を想定している。ところがこれ以外でも、可動部分の状態変化に起因してカメラの撮像画像において可動部分が占める領域が変化し、これによって合成画像が正常でなくなるような場合もあり得る。例えば、ドアを開けたときに、その開けたドアがあるカメラの撮像画像内に映り込むような場合である。
【0069】
このような場合でも、図5に示すようなデータの代わりに、可動部分と、その可動部分の状態変化が撮像画像に影響を与えるカメラとの対応関係を示すデータを予め表示切替部に準備しておけば、上述した各実施形態と同様の処理によって同様の効果を得ることができる。
【0070】
なお、開閉状態という二値情報の代わりに、例えば、開き具合のような情報を利用することも可能である。例えば、ドアの開き具合が微小なときは通常モードを保ち、開き具合が所定のしきい値を超えたときに、通常モードから異常モードに切り替えるようにしてもよい。また、可動部分は、ドア、ボンネットおよびトランクに限られるものではなく、タイヤ、アンテナ、可動式ミラーやライトなどが考えられる。例えば、タイヤが合成画像に影響を与える場合には、タイヤの舵角に応じて、表示態様を切り替えるようにしても良い。
【0071】
また、本発明において、車両とは、普通自動車、軽自動車、貨物自動車、バス等を含む。また、本発明の技術思想が適用されうるものであれば、クレーン車、シャベルカー等の特殊車両も本発明の車両とすることができる。
【0072】
なお、以上の説明では、本発明に係る監視システムや画像処理装置は、車両に適用するものとしたが、車両以外の移動体、例えば飛行機や船舶などであっても、同様に適用することができる。また、移動体以外の監視対象、例えば店舗、住居、ショールームなどにカメラを設置してもよい。
【0073】
また、複数のカメラの設置位置や台数は、ここで示したものに限られるものではない。
【0074】
また、本発明に係る画像処理装置の機能は、その全部または一部を、専用のハードウェアを用いて実現してもかまわないし、ソフトウェアによって実現してもかまわない。また、本発明に係る画像処理装置の機能の全部または一部をコンピュータに実行させるためのプログラムを格納した記録媒体や伝送媒体を、利用することも可能である。
【0075】
【発明の効果】
以上のように本発明によると、車両の可動部分の状態変化に起因して合成画像に異常が生じた場合であっても、利用者に違和感を与えるような画像が表示されることを回避することができる。また、合成画像の表示態様の切替によって、可動部分が例えば車両の走行に望ましくない状態であることを、利用者に素早く的確に知らしめることも可能になる。
【図面の簡単な説明】
【図1】 本発明の第1の実施形態に係る監視システムの構成を示すブロック図である。
【図2】 本発明の第1の実施形態におけるカメラ配置の例である。
【図3】 本発明の第1の実施形態におけるカメラ配置と各カメラの撮像画像の例を示す図である。
【図4】 車両可動部分の状態変化に起因して正常でなくなった合成画像の一例である。
【図5】 表示切替部が有する,車両可動部分とカメラとの対応関係を示すデータである。
【図6】 本発明に係る合成画像の表示態様の切替の例を示す図である。
【図7】 メッセージ画像の例を示す図である。
【図8】 マッピングテーブルおよび車両の可動部分の状態と、表示すべきメッセージ画像との対応関係を示す図である。
【図9】 マッピングテーブルの一例を示す模式図である。
【図10】 画像合成動作の全体の流れを示すフローチャートである。
【図11】 図10に示すフローにおけるステップS20の詳細を示すフローチャートである。
【図12】 図10に示すフローにおけるステップS30の詳細を示すフローチャートである。
【図13】 本発明の第2の実施形態に係る監視システムの構成を示すブロック図である。
【符号の説明】
2 画像処理部
3 表示装置
11 カメラ
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an image processing technique for generating a composite image using captured images of a plurality of cameras installed in a vehicle, and is particularly effective for a monitoring system used for assisting safety confirmation when driving a vehicle. Belongs to various technologies.
[0002]
[Prior art]
  Conventionally, as a device for monitoring the surroundings of a vehicle using a camera, a vehicle image providing device described in Japanese Patent Application Laid-Open No. 11-78692 is known. In this device, a plurality of cameras for providing video for vehicles are attached around the vehicle, images taken by each camera are deformed, synthesized while maintaining the continuity of the boundary, and a new image is created. Is displayed.
[0003]
[Problems to be solved by the invention]
  In the vehicle surrounding monitoring system as described above, it is considered that image processing is executed on the assumption that a camera once installed normally does not change its installation position or orientation. This is because it is extremely difficult in practice to perform image processing for generating a composite image in real time in consideration of the installation position and orientation of the camera each time in view of processing time and the scale of the apparatus.
[0004]
  On the other hand, considering the aerodynamic and design aspects of the vehicle, the possibility that the camera used in such a surveillance system will be installed near the door mirror mounting part or in a movable part such as a trunk or bonnet is sufficient. possible.
[0005]
  At this time, the following problems occur.
[0006]
  In other words, a change in the state of the movable part to which the camera is attached may affect the captured image of the camera and cause a shift in the composite image. For example, when the camera is attached in the vicinity of a door mirror, the orientation of the camera changes when the door is opened, so that only a portion using the camera image is shifted on the composite image. As a result, the user feels uncomfortable on the display screen.
[0007]
  The same problem occurs even when the camera is attached to a fixed part. For example, when the door is reflected in a captured image of a specific camera due to the opening of the door, only the portion using the camera image is shifted on the composite image. As a result, the deviation on the composite image gives the user a sense of discomfort and is not preferable.
[0008]
  In view of the above problems, the present invention is an image processing apparatus that generates a composite image using captured images of a plurality of cameras installed in a vehicle, and the captured image of the camera is affected by a change in the state of a movable part of the vehicle. Even in such a case, it is an object to prevent the user from feeling uncomfortable on the display image.
[0009]
[Means for Solving the Problems]
  In order to solve the above-described problem, the solving means taken by the invention of claim 1 is an image processing apparatus, which is installed in a vehicle and receives images taken by a plurality of cameras that photograph the surroundings of the vehicle. From captured images, Showing the situation of the vehicle and its surroundingsAn image processing unit that generates a composite image and outputs the composite image to a display device, wherein the image processing unit is caused by a change in a state of a movable part of the vehicle, so that at least one installation position or orientation of the plurality of cameras When the composite image becomes abnormal, the display mode of the composite image is switched from the normal mode to the abnormal mode., GoA message that informs the user of a change in the state of the movable part that causes the abnormal mode is output together with the adult image, and the message differs depending on the type of the movable part in which the state change has occurred.
[0010]
  According to the first aspect of the present invention, it is possible to quickly and accurately inform the user that the state of the movable part is not desirable for driving the vehicle, for example, by switching the display mode of the composite image.
[0011]
  In the second aspect of the invention, the message in the image processing apparatus of the first aspect includes contents for specifying the movable part in which the state change has occurred.
[0012]
  According to a third aspect of the present invention, the image processing unit in the image processing apparatus according to the first aspect outputs the message to the vicinity of the movable part on the composite image where the state change has occurred.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0014]
  (First embodiment)
  FIG. 1 is a block diagram showing a configuration of a monitoring system according to the first embodiment of the present invention. In the monitoring system illustrated in FIG. 1, the image processing unit 2 receives a plurality of camera images output from the imaging unit 1 and combines them to generate a new image. This composite image is displayed by the display device 3. The image processing unit 2 constitutes an image processing apparatus according to the present invention.
[0015]
  FIG. 2 is a diagram illustrating an example of camera arrangement in the present embodiment, and FIG. 3 is a diagram illustrating an example of captured images of each camera. Here, it is assumed that eight cameras are arranged as shown in FIGS. In the camera arrangements of FIGS. 2 and 3, it is preferable to determine the position and orientation of each camera so that overlapping areas are formed in the images of adjacent cameras in order to eliminate the surrounding blind spots as much as possible.
[0016]
  The image processing unit 2 deforms and synthesizes the eight camera images shown in FIG. 3, and generates a synthesized image that looks down vertically from the upper side of the vehicle, for example. In order to generate a composite image, image deformation processing and composite processing (including boundary processing) of the deformed partial image are required. However, the configuration in FIG. 1 includes a mapping table reference unit 22 and includes a captured image. In order to perform the processing in one step, the mapping table MPT is used. The mapping table will be described later.
[0017]
  The mapping table selection unit 41 selects the display content of the composite image and instructs the mapping table MPT corresponding to the selected display content. This selection may be made artificially or automatically according to the vehicle state such as the gear position, the steering angle or the winker. A signal for selecting the mapping table MPT is sent to the message output unit 26 together with the mapping table reference unit 22.
[0018]
  The display switching unit 23 receives the state signal S1 indicating the state of the movable part of the vehicle and switches the display mode of the composite image. For example, when the installation position or orientation of any of the plurality of cameras changes due to a change in the state of the movable part and the composite image becomes abnormal, the display mode of the composite image is switched from the normal mode to the abnormal mode. In the abnormal mode, for example, a composite image is generated without using a captured image of a camera whose installation position or orientation has changed.
[0019]
  FIG. 4 is an example of a composite image that is no longer normal due to a change in the state of the movable part of the vehicle. As can be seen from the composite image in FIG. 4, the captured images of the camera 1 and the camera 2 have changed because the right door of the vehicle has been opened. There is a shift in the part.
[0020]
  Therefore, in this embodiment, the open / closed states of the right door, the left door, the trunk, and the hood where the camera is installed are used as the state of the movable part of the vehicle. That is, information such as “the right door is open” or “the hood is closed” is input to the display switching unit 23 by the status signal S1. The display switching unit 23 has in advance data indicating the correspondence between the movable part of the vehicle and the camera number as shown in FIG. 5, and using this correspondence and information indicated by the status signal S1, a composite image is displayed. The display mode is switched.
[0021]
  FIG. 6 is a diagram showing an example of switching the display mode of the composite image according to the present invention. In the figure, (a) is a composite image in the normal mode. When all the movable parts of the vehicle are in the closed state, the composite image becomes normal and is displayed as shown in FIG. FIG. 6B is an example of a composite image in the abnormal mode, and it is assumed that the right door of the vehicle is in an open state. In the synthesized image of FIG. 6B, the captured images of the camera 1 and the camera 2 installed on the right door are not used for image synthesis, but are filled with a predetermined color instead. Note that instead of painting with a predetermined color, another pattern may be used, or the color may be switched at an appropriate time interval.
[0022]
  In the present embodiment, such switching of the composite image display mode is realized by rewriting the mapping data of the mapping table MPT.
[0023]
  In the abnormal mode, the output of the composite image itself may be stopped, or the message output unit 26 may output a message.
[0024]
  In FIG. 6C, in the abnormal mode, only a message indicating that the right door is open is output without outputting a composite image. Further, in FIG. 6D, the composite image shown in FIG. 6B is displayed, and the same message as in FIG. 6C is also output. As shown in FIG. 6D, the camera image affected by the change in the state of the movable part is not used for generating the composite image, but the change in the state of the movable part that causes the change (for example, the door is open). ) Is output together with a message that informs the user, it becomes possible to know the state of the vehicle such as the driver more quickly and accurately.
[0025]
  The message output unit 26 stores a message to be displayed in advance, for example, in the form of an image, and selects the state signal S1 indicating the state of the movable part of the vehicle and the mapping table MPT output from the mapping table selection unit 41. In response to the signal to be transmitted, the message image to be displayed on the composite image is selected and sent to the video signal generator 24.
[0026]
  FIG. 7 is a diagram illustrating an example of message images stored in the message output unit 26. In the example of FIG. 7, the message portion is white (when expressed in 256 RGB tones (255, 255, 255)), and the other portions are black (0, 0, 0). The size of the message image is the same as the size of the composite image.
[0027]
  The content and display position of the message in the message image differ depending on the mapping table used for generating the composite image and the type of the movable part in which the state change has occurred. For this reason, it is desirable that a message image is prepared for each assumed condition and the message image can be selected and used according to the situation.
[0028]
  FIG. 8 is a diagram showing the correspondence between the mapping table used for the composite image and the state of the movable part of the vehicle and the message image to be displayed. For example, the second line of FIG. 8 shows a message when the currently selected mapping table is for “looking down” image generation and the “right door” is open among the movable parts of the vehicle. This means that the first image is selected as the image. FIG. 7A shows an example of the first message image. When the mapping table is “looking down” and the “right door” is in the open state, the image taken by the camera installed on the right door is not used for image composition, so it is installed on the right door on the composite image. A message “The right door is open” is displayed at the position where the camera image should be used.
[0029]
  The message output unit 26 stores information as shown in FIG. 8 in advance, receives a state signal S1 indicating the state of the movable part of the vehicle, and a signal for selecting the mapping table MPT, and displays a message image to be displayed. Select and output. The video signal generation unit 24 receives the message image output from the message output unit 26 and displays the message image superimposed on the combined image output from the pixel combining unit 21.
[0030]
  For superimposing the message images, for example, for each pixel, RGB values in the composite image and the message image may be extracted and the larger value may be output. For example, when this method is applied to the message image of FIG. 7A, the RGB value of the composite image is used for the black pixel portion of the message image, while the RGB value of the message image is always used for the white pixel portion of the message image. As a result, an image in which only the message portion is superimposed on the synthesized image can be obtained. In this case, it is desirable to paint a portion where the camera image is not used on the composite image with a dark color so that it is difficult to see the result of the white message being superimposed.
[0031]
  In addition, when using this superposition method to display a composite image in a state where any of the movable parts are closed (that is, in the normal mode), the entire message as shown in FIG. An image filled with (0, 0, 0) may be prepared. That is, an image as shown in FIG. 7B may be prepared as the seventh message image shown in the bottom row of FIG. Of course, in the normal mode, the message output unit 26 may not output the message image.
[0032]
  Furthermore, when a plurality of movable parts are in the open state, the following measures can be taken. For example, when “looking down” is selected as the mapping table and both the right door and the left door are open, the message output unit 26 first sets the message image corresponding to each condition as the first message image. The images of (for example, FIG. 7A) and No. 2 (for example, FIG. 7C) are selected. Then, for each pixel, the RGB values in the first image and the second image are respectively extracted, and a larger message value is selected to generate a new message image (for example, FIG. 7D). What is necessary is just to send to the video signal generation part 24.
[0033]
  Here, characters are used as messages, but not limited to characters, for example, simplified diagrams and illustrations may be used as messages. Needless to say, if the message output is not performed in the abnormal mode, the message output unit 26 may be omitted.
[0034]
  Hereinafter, rewriting of mapping data will be described in detail.
[0035]
  The “mapping table” is a table in which the correspondence between the pixel of the composite image and the pixel data of each camera image is described, and is used to perform the composite image generation process at high speed.
[0036]
  The pixel of the camera image and the pixel of the composite image may correspond one-to-one or may correspond to a plurality of one-to-one. Whether to correspond one-to-one or plural-to-one depends on the installation position of the camera, the type of synthesized image to be generated, and the like. For example, when boundary processing is performed at the boundary portion of a camera image, the pixel of the camera image and the pixel of the composite image often correspond one-to-one.
[0037]
  FIG. 9 is a schematic diagram illustrating an example of a mapping table. In the mapping table shown in FIG. 9, mapping data is provided corresponding to each pixel coordinate (i, j) of the composite image.
[0038]
  For example, mapping data MP1 is provided corresponding to pixel coordinates (i1, j1). This mapping data MP1 indicates that only pixel data of coordinates (12, 45) of the captured image of the camera 1 is used for generating a pixel of coordinates (i1, j1) of the composite image. Further, since the degree of necessity is “1”, in this case, the pixel data of the coordinates (12, 45) of the captured image of the camera 1 is used as it is as the pixel value of the coordinates (i1, j1) of the composite image.
[0039]
  Also, mapping data MP2 is provided corresponding to the pixel coordinates (i2, j2). The mapping data MP2 includes pixel data of the coordinates (10, 10) of the captured image of the camera 1 and coordinates (56, of the captured image of the camera 0) in order to generate a pixel at the coordinates (i2, j2) of the composite image. 80) pixel data is used. In this case, the pixel value of the coordinates (i2, j2) of the composite image is set according to the necessity, for example,
  Pixel value = {(pixel value of coordinates (56, 80) of camera 1) × 0.5
          + (Pixel value of coordinates (10, 10) of camera 0) × 0.3}
          /(0.5+0.3)
Can be determined as follows.
[0040]
  By creating such a mapping table in advance by calculation using geometric transformation or the like in advance, a desired composite image, for example, a composite image that represents the whole, rear, or side of the periphery of the vehicle. Can be generated at high speed. The display mode of the composite image can be easily switched by switching the mapping table used for generating the composite image. The display mode can be switched manually or automatically according to the traveling state of the vehicle.
[0041]
  Specifically, the mapping table is stored in, for example, a ROM (including a writable / erasable ROM such as an EEPROM) or a RAM. The storage of the mapping table may be realized, for example, by writing the mapping data obtained by calculation by the processor in the image processing unit into the ROM or RAM, or the mapping table data provided as firmware may be stored in a communication line or disk drive. The data may be written in the RAM or ROM using a data transfer means such as.
[0042]
  Next, an operation for generating a composite image using the mapping table MPT and the display switching unit 23 will be described.
[0043]
  FIG. 10 is a flowchart showing the overall flow of the image composition operation according to this embodiment. First, in step S11, the frame memories 12a and 12b of the imaging unit 1 are switched. The timing generation unit 25 generates a timing signal for generating a moving image sequence of a composite image. Based on the frame start timing signal output from the timing generation unit 25, the imaging unit 1 switches between a frame memory in which a captured image of each camera 11 is written and a frame memory referred to by the image processing unit 2. As will be described later, the position of the pixel of the camera image referred from the image processing unit 2 is skipped regardless of the order of writing from the camera 11, so that writing and reference do not interfere with each other. Because.
[0044]
  Next, in step S <b> 12, the timing generation unit 25 sets the pixels of the composite image to be output in accordance with the composite output timing.
[0045]
  In step S <b> 13, the mapping table reference unit 22 reads the mapping data corresponding to the pixel set by the timing generation unit 25 from the set mapping table MPT and outputs it to the display switching unit 23. In step S20, the display switching unit 23 receives the status signal S1 and rewrites the mapping data read from the mapping table reference unit 22 as necessary. Then, it is output to the pixel composition unit 21. Details of step S20 will be described later.
[0046]
  In step S <b> 30, the pixel synthesis unit 21 synthesizes the pixel values set by the timing generation unit 25 according to the input mapping data, and outputs the synthesized value to the video signal generation unit 24. In step S <b> 14, the video signal generation unit 24 converts the pixel value of the input composite image into a video signal according to the timing signal from the timing generation unit 25, and outputs the video signal to the display device 3.
[0047]
  The timing generation unit 25 executes the processing from step S12 onward for all the pixels of the frame (S15, S16), and when the processing of the last pixel of the frame is completed, the processing of the next frame is started.
[0048]
  Of course, field unit processing may be executed.
[0049]
  FIG. 11 is a flowchart showing the operation of the display switching unit 23 in step S20 of the flow shown in FIG.
[0050]
  First, in step S21, one of the movable parts of the vehicle, that is, the open / closed state of any of the right door, the left door, the trunk, or the bonnet is read from the input state signal S1. Then, when the movable part is in the open state (YES in S22), the process proceeds to step S23, and the number of the camera installed in the movable part is obtained from the pre-stored data as shown in FIG. On the other hand, when in the closed state (NO in S22), the open / closed state of other movable parts is read (S27, S21).
[0051]
  In step S25, it is checked whether or not the camera number obtained in step S23 matches the camera number written in the mapping data. If they match (YES in S25), the process proceeds to step S26, and the data relating to the camera number in the mapping data is rewritten with the contents representing the camera unusable state. In the example of FIG. 11, the camera number, the X coordinate, and the Y coordinate are all rewritten to “−1”. On the other hand, when the camera numbers do not match (NO in S25), the open / close state of other movable parts is read (S27, S21).
[0052]
  When the above process is completed for all the movable parts (YES in S27), the process proceeds to step S28, the necessity of mapping data is recalculated, and the process is terminated.
[0053]
  The operation of the display switching unit 23 in step S20 will be specifically described taking the case where the mapping data MP2 shown in FIG. 9 is input to the display switching unit 23 as an example. Here, for the sake of explanation, it is assumed that only the right door of the vehicle is open.
[0054]
  First, since it can be seen that the right door of the vehicle is open (S21, S22), "1" and "2" are obtained as the camera numbers of the cameras installed on the right door with reference to the correspondence shown in FIG. (S23).
[0055]
  Next, it is checked whether the camera numbers “1” and “2” match the camera number described in the mapping data MP2 (S25). Since the camera number “1” is described in the mapping data MP2, the data relating to the camera 1 is rewritten to the contents indicating the camera unusable state (S26). On the other hand, since the camera number “2” is not described in the mapping data MP2, it is not rewritten.
[0056]
  Since all the other movable parts are in the closed state, the process proceeds to step S28, and the necessary degree is recalculated. Here, the degree of necessity for the camera 1 that has become unusable is set to “0”, and the degree of necessity for the camera 0 is set to “1”.
[0057]
  FIG. 12 is a flowchart showing details of the pixel composition processing in step S30 in the flow shown in FIG.
[0058]
  First, in step S31, the value of the pixel to be combined is initialized to “0”.
[0059]
  In step S32, the camera number, the X and Y coordinates of the pixel, and the necessary degree are read from the corresponding mapping data. When the read camera number is usable, the pixel values corresponding to the X and Y coordinates are read out and held from the frame memory storing the corresponding camera image (S34). On the other hand, when the read camera number is unusable, a predetermined pixel value (for example, black) indicating that the camera is unusable is held and output (S35, S39).
[0060]
  In step S36, the held pixel value is weighted with necessity and added to the value of the pixel to be synthesized.
[0061]
  The above-described processing is repeatedly executed for all camera numbers described in the mapping data (S37, S38). When the processing is completed (YES in S37), the value of the pixel to be combined is output (S39).
[0062]
  As described above, by switching the display mode of the composite image, it is possible to avoid giving the user an uncomfortable feeling even when the state of the movable part of the vehicle changes and the composite image becomes abnormal.
[0063]
  (Second Embodiment)
  FIG. 13 is a block diagram showing the configuration of the monitoring system according to the second embodiment of the present invention. In FIG. 13, the same reference numerals as those in FIG. 1 are given to the same components as those in FIG. 1, and detailed description thereof is omitted here.
[0064]
  In the configuration of FIG. 13, the display switching unit 23A switches the display mode of the composite image by switching whether or not the camera image is input from the imaging unit 1 to the pixel composition unit 21A according to the state signal S1. It is characterized by that. That is, when the switch 31 is provided on the camera image input side of the pixel composition unit 21A and the display switching unit 23A recognizes that any of the movable parts is in the open state based on the state signal S1, as shown in FIG. From this information, a camera that cannot be used for generating a composite image is specified, and the switch 31 is controlled so that a captured image of the camera is not input to the pixel composition unit 21A.
[0065]
  For this reason, in the present embodiment, the image composition is performed using the mapping table as in the first embodiment, but the processing S20 for changing the mapping data in the flow shown in FIG. 10 is omitted. Different from the embodiment. That is, since the input of the captured image of the camera is physically stopped, the process S20 for changing the mapping data according to the state of the movable part is naturally not necessary. Accordingly, steps S33 and S35 in the flow of FIG. 12 are also omitted.
[0066]
  The configuration of the second embodiment can be easily applied to an image processing unit that does not use a mapping table.
[0067]
  In each embodiment described above, the display device 3 is typically a liquid crystal display, but other display devices such as a plasma display may be used. Further, it may be shared with a vehicle-mounted GPS terminal display, that is, a so-called car navigation system display. The camera 11 used in the imaging unit 1 is typically a color or monochrome digital camera having a solid-state imaging device such as a CCD or CMOS device, but other imaging devices may be used.
[0068]
  In each of the above-described embodiments, it is assumed that the installation position and orientation of the camera change due to a change in the state of a movable part such as a door or a bonnet, thereby causing the composite image to become abnormal. However, other than this, there may be a case where the area occupied by the movable part in the captured image of the camera changes due to a change in the state of the movable part, thereby causing the composite image to become abnormal. For example, when the door is opened, the opened door is reflected in a captured image of a camera.
[0069]
  Even in such a case, instead of the data shown in FIG. 5, data indicating the correspondence between the movable part and the camera whose state change of the movable part affects the captured image is prepared in advance in the display switching unit. In this case, the same effect can be obtained by the same processing as in each of the embodiments described above.
[0070]
  For example, information such as the degree of opening can be used instead of the binary information such as the open / close state. For example, the normal mode may be maintained when the door opening degree is minute, and the normal mode may be switched to the abnormal mode when the opening degree exceeds a predetermined threshold. Further, the movable parts are not limited to doors, bonnets, and trunks, and tires, antennas, movable mirrors, lights, and the like are conceivable. For example, when the tire affects the composite image, the display mode may be switched according to the steering angle of the tire.
[0071]
  In the present invention, the vehicle includes ordinary cars, light cars, trucks, buses, and the like. In addition, special vehicles such as a crane truck and a shovel car can be used as the vehicle of the present invention as long as the technical idea of the present invention can be applied.
[0072]
  In the above description, the monitoring system and the image processing apparatus according to the present invention are applied to a vehicle. However, the present invention can also be applied to a moving body other than a vehicle, such as an airplane or a ship. it can. Moreover, you may install a camera in monitoring objects other than a moving body, for example, a shop, a residence, a showroom, etc.
[0073]
  Further, the installation positions and the number of cameras are not limited to those shown here.
[0074]
  Further, all or part of the functions of the image processing apparatus according to the present invention may be realized by using dedicated hardware, or may be realized by software. It is also possible to use a recording medium or transmission medium storing a program for causing a computer to execute all or part of the functions of the image processing apparatus according to the present invention.
[0075]
【The invention's effect】
  As described above, according to the present invention, even when an abnormality occurs in the composite image due to a change in the state of the movable part of the vehicle, it is avoided that an image that gives a sense of incongruity to the user is displayed. be able to. In addition, by switching the display mode of the composite image, it is possible to quickly and accurately notify the user that the movable part is in an undesired state for driving the vehicle, for example.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a monitoring system according to a first embodiment of the present invention.
FIG. 2 is an example of a camera arrangement in the first embodiment of the present invention.
FIG. 3 is a diagram illustrating an example of camera arrangement and captured images of each camera according to the first embodiment of the present invention.
FIG. 4 is an example of a composite image that is no longer normal due to a change in state of a vehicle movable part.
FIG. 5 is data showing a correspondence relationship between a vehicle movable part and a camera, which the display switching unit has.
FIG. 6 is a diagram showing an example of switching the display mode of a composite image according to the present invention.
FIG. 7 is a diagram illustrating an example of a message image.
FIG. 8 is a diagram illustrating a correspondence relationship between a mapping table and a state of a movable part of a vehicle, and a message image to be displayed.
FIG. 9 is a schematic diagram illustrating an example of a mapping table.
FIG. 10 is a flowchart showing an overall flow of an image composition operation.
FIG. 11 is a flowchart showing details of step S20 in the flow shown in FIG. 10;
12 is a flowchart showing details of step S30 in the flow shown in FIG.
FIG. 13 is a block diagram showing a configuration of a monitoring system according to a second embodiment of the present invention.
[Explanation of symbols]
2 Image processing unit
3 display devices
11 Camera

Claims (3)

車両に設置され、当該車両の周囲を撮影する複数のカメラの撮像画像を入力とし、これらの撮像画像から、前記車両およびその周囲の状況を示す合成画像を生成し、表示装置に出力する画像処理部を備え、
前記画像処理部は、
前記車両の可動部分の状態変化に起因して、前記複数のカメラのうちの少なくとも1つの設置位置または向きが変化し、前記合成画像が正常でなくなるとき、前記合成画像の表示態様を、通常モードから異常モードに切り替え、
異常モードにおいて、合成画像とともに、異常モードの原因となる可動部分の状態変化を利用者に知らせるメッセージを出力するものであり、
前記メッセージは、状態変化が生じた可動部分の種類によって、異なる
ことを特徴とする画像処理装置。
Image processing that is installed in a vehicle and that receives captured images of a plurality of cameras that capture the surroundings of the vehicle , generates a composite image indicating the vehicle and the surroundings from these captured images , and outputs the composite image to a display device Part
The image processing unit
When the installation position or orientation of at least one of the plurality of cameras changes due to a change in the state of the movable part of the vehicle and the composite image is not normal, the display mode of the composite image is changed to the normal mode. Switch to abnormal mode from
In the abnormal mode, the synthetic image, and outputs a message informing the user of the state change of a movable part that causes abnormal mode,
The image processing apparatus according to claim 1, wherein the message varies depending on a type of a movable part in which a state change has occurred.
請求項1記載の画像処理装置において、
前記メッセージは、状態変化が生じた可動部分を特定する内容を含む
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the message includes contents for specifying a movable part in which a state change has occurred.
請求項1記載の画像処理装置において、The image processing apparatus according to claim 1.
前記画像処理部は、前記メッセージを、合成画像上の、状態変化が生じた可動部分付近に、出力する  The image processing unit outputs the message to the vicinity of the movable part where the state change has occurred on the composite image.
ことを特徴とする画像処理装置。An image processing apparatus.
JP2003006257A 2003-01-14 2003-01-14 Image processing device Expired - Lifetime JP3670647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003006257A JP3670647B2 (en) 2003-01-14 2003-01-14 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003006257A JP3670647B2 (en) 2003-01-14 2003-01-14 Image processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000155898A Division JP3599639B2 (en) 2000-05-26 2000-05-26 Image processing device

Publications (3)

Publication Number Publication Date
JP2003264827A JP2003264827A (en) 2003-09-19
JP3670647B2 true JP3670647B2 (en) 2005-07-13
JP2003264827A5 JP2003264827A5 (en) 2005-08-18

Family

ID=29208333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003006257A Expired - Lifetime JP3670647B2 (en) 2003-01-14 2003-01-14 Image processing device

Country Status (1)

Country Link
JP (1) JP3670647B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4823938B2 (en) * 2007-02-14 2011-11-24 アルパイン株式会社 Screen switching determination device, vehicle periphery monitoring device, and screen switching determination method
JP5436086B2 (en) * 2009-08-03 2014-03-05 アルパイン株式会社 Vehicle periphery image display device and vehicle periphery image display method
DE102011112578A1 (en) * 2011-09-08 2013-03-14 Continental Teves Ag & Co. Ohg Method and device for an assistance system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63146710U (en) * 1987-03-17 1988-09-28
JP2696516B2 (en) * 1987-11-09 1998-01-14 三菱自動車工業株式会社 Vehicle safety monitoring device
JP3475507B2 (en) * 1994-08-08 2003-12-08 日産自動車株式会社 Ambient monitoring device for vehicles
EP2309453A3 (en) * 1998-07-31 2012-09-26 Panasonic Corporation Image displaying apparatus and image displaying method

Also Published As

Publication number Publication date
JP2003264827A (en) 2003-09-19

Similar Documents

Publication Publication Date Title
JP3599639B2 (en) Image processing device
JP4254887B2 (en) Image display system for vehicles
US8294563B2 (en) Vehicle-surrounding image display apparatus and vehicle-surrounding image display method
JP4364471B2 (en) Image processing apparatus for vehicle
JP5251947B2 (en) Image display device for vehicle
JP2005110202A (en) Camera device and vehicle periphery monitoring device
JP2011193485A (en) Camera device mounted on vehicle, and apparatus for monitoring vehicle periphery
JP7009637B2 (en) A method for generating an indication of the surrounding environment by shifting the virtual camera towards the rear-view mirror of an automatic vehicle, as well as a camera device.
WO2017122654A1 (en) Drive assist device and drive assist method
JP4552525B2 (en) Image processing apparatus for vehicle
JP3961969B2 (en) Vehicle periphery image processing system
US20180139384A1 (en) Vehicle Display
JP3670647B2 (en) Image processing device
JP2007141098A (en) Image processing apparatus and image processing method
US10821900B2 (en) Image processing device
JP2007302238A (en) Image processing apparatus for vehicle
JP7113348B2 (en) VEHICLE AREA DISPLAY SYSTEM, DISPLAY CONTROL DEVICE AND COMPUTER PROGRAM
JP5195776B2 (en) Vehicle periphery monitoring device
JP2009194938A (en) Vehicle image processing apparatus
JP2021150838A (en) Image processing device
JP4679260B2 (en) Vehicle driving support device
US20250058633A1 (en) Camera monitor system for articulated trailer using image stitching
JP2011008421A (en) Image generation device and image display system
JP6601100B2 (en) Display control device
CN110228415A (en) Vehicle-surroundings display system, display control unit and display control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050201

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20050201

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20050328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050414

R150 Certificate of patent or registration of utility model

Ref document number: 3670647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080422

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110422

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120422

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 9

EXPY Cancellation because of completion of term