JP6232994B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP6232994B2 JP6232994B2 JP2013259593A JP2013259593A JP6232994B2 JP 6232994 B2 JP6232994 B2 JP 6232994B2 JP 2013259593 A JP2013259593 A JP 2013259593A JP 2013259593 A JP2013259593 A JP 2013259593A JP 6232994 B2 JP6232994 B2 JP 6232994B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- area
- strip
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 228
- 238000003672 processing method Methods 0.000 title claims description 11
- 239000002131 composite material Substances 0.000 claims description 140
- 238000000034 method Methods 0.000 claims description 120
- 230000008569 process Effects 0.000 claims description 118
- 238000005304 joining Methods 0.000 claims description 86
- 230000008859 change Effects 0.000 claims description 30
- 230000007704 transition Effects 0.000 claims description 21
- 239000000203 mixture Substances 0.000 claims description 20
- 230000004397 blinking Effects 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 230000001678 irradiating effect Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 description 55
- 239000007787 solid Substances 0.000 description 37
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 34
- 240000004050 Pentaglottis sempervirens Species 0.000 description 33
- 238000012937 correction Methods 0.000 description 28
- 230000015572 biosynthetic process Effects 0.000 description 18
- 238000003786 synthesis reaction Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 238000003702 image correction Methods 0.000 description 13
- 239000000470 constituent Substances 0.000 description 12
- 230000008034 disappearance Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005520 cutting process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 241000905137 Veronica schmidtiana Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000009835 boiling Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/06—Rear-view mirror arrangements mounted on vehicle exterior
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/107—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/303—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
なお、車の上部からの観察画像は「アランウドビュー画像」や、「俯瞰画像」、あるいは「鳥瞰画像」等と呼ばれる。以下、本明細書では、車の上部からの観察画像を「俯瞰画像」として説明する。
なお、俯瞰画像を生成するための画像補正処理は「俯瞰変換」と呼ばれる。
車両の全周囲の画像を含む俯瞰画像を生成するためには、異なる位置の複数のカメラの撮影画像に基づいて生成した俯瞰画像を接合する合成処理を実行することが必要となる。
このような画像Aと、画像Bを俯瞰変換して補正した補正画像(俯瞰画像)を接合して合成画像を生成する場合、画像Aと画像Bの接合領域は、俯瞰変換の基準面である地面の対応位置を接合ラインとして設定した接合処理を行なう。画像A,Bの接合ラインの外側の画像は切り落として、画像A,Bの接合処理が行われる。
この結果、画像A,Bの境界近傍の立体オブジェクトXが合成画像に残らなくなる。すなわち、本来、存在する被写体である立体オブジェクトXが合成画像では確認できなくなってしまう。
異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成し、
生成した複数の俯瞰画像を接合して合成画像を生成する画像処理部を有し、
前記画像処理部は、
接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する画像処理装置にある。
画像処理装置において実行する画像処理方法であり、
画像処理部が、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成する処理と、
生成した複数の俯瞰画像を接合して合成画像を生成する合成画像生成処理を実行し、
前記画像処理部は、前記合成画像生成処理において、
接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
画像処理部に、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成する処理と、
生成した複数の俯瞰画像を接合して合成画像を生成する合成画像生成処理を実行させ、
前記合成画像生成処理において、
接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成させるプログラムにある。
具体的には、車両の前後左右等、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成し、生成した複数の俯瞰画像を接合して合成画像を生成する。画像処理部は、接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する。例えば接合対象となる第1の画像と第2の画像を短冊状に交互に設定し、短冊位置を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する。
本構成により、立体オブジェクトを認識し易くした車両上部からの視点画像を生成して表示することが可能となる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
1.俯瞰変換処理と合成画像の生成処理の概要、および立体オブジェクトの消失例について
2.合成対象画像の接合領域において各画像の表示領域を動的に変更する実施例について
3.画像接合領域における表示制御シーケンスについて
4.接合領域に表示される特定オブジェクトを強調表示する処理例について
5.接合領域における表示態様の変形例について
5−1.湾曲形状の短冊型表示領域を交互に設定した実施例(第2実施例)
5−2.接合領域の画像境界を移動させる実施例(第3実施例)
6.合成画像の生成時に利用する補助情報について
7.画像処理装置のハードウェア構成例について
8.本開示の構成のまとめ
まず、車の前後左右など、複数個所に取り付けられたカメラの撮影画像の各々を俯瞰変換し、生成した複数の俯瞰画像を接合した合成画像を生成する処理の概要と、この処理において発生する立体オブジェクトの消失例について説明する。
図1に示すように、車両10には、前後左右の各位置に4つのカメラが装着される。
車両10の前面にカメラF21、
車両10の左側面にカメラL22、
車両10の右側面にカメラR23、
車両10の背面にカメラB24、
これらの4つのカメラが装着される。
図2(a)は撮影環境を示している。被写体31は格子パターンの描かれた地面である。被写体31の中央上部に広角カメラ30が設定されて撮影が実行される。
カメラ30は、例えば魚眼レンズ等の広角レンズを装着したカメラである。
図2(b)撮影画像に示すように、撮影画像上の地面の格子パターンは湾曲した歪みを有する。
これは、広角レンズを用いた撮影によって発生する画像の歪みである。
この補正処理例について図3を参照して説明する。
図3には、図2(b)と同様の(b)撮影画像と、撮影画像の補正処理(俯瞰変換)によって生成した(c)補正画像(俯瞰画像)を示している。
図3(c)補正画像(俯瞰画像)は、先に説明した図2(a)の撮影環境における被写体31と同様の格子パターンを持つ画像となり、地面を上部から見た正しい俯瞰画像となり、地面の格子パターンは実被写体の形状を復元したものとなっている。
図4(b)に示す画像の魚眼歪を取り除いて、中心射影画像に変換したいわゆる歪補正画像が図4(c)に示す補正画像である。
なお、以下では、斜め方向から見た画像の歪変換と俯瞰変換を合わせた上記の統合変換処理を「俯瞰変換」とまとめて呼ぶこととする。このように俯瞰変換は、斜め上部から見た画像を上部から見た画像に変換を行う処理を含めた処理となるが、以下の説明では斜めから見た処理の説明は省略する。
図5は、先に図2を参照して説明したと同様、(a)撮影環境と(b)撮影画像を示している。
(a)撮影環境は、図2(a)と同様、格子パターンの描かれた地面を含む。ただし、地面から上方に向かって伸びた立体オブジェクト32が設定されている。
広角カメラ30は、地面の上方に有限距離に設置され、地上に向けて設定されている。
(b)撮影画像は、先に図2(b)を参照して説明したと同様、地面の格子パターンに歪みが発生している。さらに、立体オブジェクト32も歪んだ状態として撮像される。
なお、図は模式的な図であり、立体オブジェクト32の歪みは、その位置や高さに応じて様々に変化する。
図6(c)補正画像(俯瞰画像)に示すように、地面の格子パターンはきれいに補正されている。ただし、立体オブジェクト32の歪みは残っており、実際の観察形状とは異なる形に変更されて表示される。
参考画像として示す図6(d)は、理想的に無限遠から観察される俯瞰画像の例である。この画像では、立体オブジェクト32が真上から観察される。
なお、図6は模式的な図であり、俯瞰変換によって立体オブジェクト32に残る歪みは、その位置や高さに応じて様々に変化する。
図7は、図1を参照して説明した車両の前面、背面、右側面、左側面の4つの面に装着した4台のカメラによって撮影される画像領域と、合成画像の生成に適用する合成領域の例を説明する図である。
これらの4枚の撮影画像を俯瞰変換して生成して4枚の補正画像(俯瞰画像)を生成した後、各俯瞰画像を接合して1枚の合成画像を生成する。
(a)前面画像撮影領域51の一部である前面画像合成領域61、
(b)左側面画像撮影領域52の一部である左側面画像合成領域62、
(c)右側面画像撮影領域53の一部である右側面面画像合成領域63、
(d)背面画像撮影領域54の一部である背面画像合成領域64、
これら4つの領域を繋ぎ合せて1枚の合成画像70を完成する。
なお、合成処理の前に各画像は俯瞰変換が施される。すなわち俯瞰変換処理を行なって生成した4枚の俯瞰画像を合成する。
図8は、合成画像70の例を示している。図8に示すように合成画像70は、車両画像71を中心として、車両の周囲の地面を上から観察した画像となる。
なお、車両画像71はカメラ撮影画像ではなく、予め用意された本システム搭載車両の擬似画像である。
運転者は、この画像を観察することで、車の周囲状況を把握して安全な運転を行うことを目的としている。
これは、先に図5、図6を参照して説明した立体オブジェクト32のように、俯瞰変換の基準面(地面)とは異なる位置に被写体(オブジェクト)が存在する場合に発生する。
図9(a)には、左側面画像撮影領域52において撮影された画像の俯瞰変換された画像上の立体オブジェクト32の位置と、左側面画像合成領域62を示している。俯瞰変換画像は、例えば図6(c)を参照して説明した補正画像(俯瞰画像)に相当する。
図9(a)に示すように、立体オブジェクト32は台形状の左側面画像合成領域62からはずれた位置に変換投影された配置となる。
図9(b)に示すように、やはり立体オブジェクト32は台形状の前面画像合成領域61からはずれた位置に変換投影された配置となる。
結果として生成する合成画像には、立体オブジェクト32の画像が含まれず、消失してしまう。
すなわち、図10に示すように、合成画像70の左側面画像と前面画像の接合領域81には、立体オブジェクト32が含まれず、立体オブジェクト32が消失した合成画像70が生成されてしまう。
この結果、運転席の表示部に表示される合成画像には立体オブジェクトが表示されず、運転者は障害物を認識できず、危険な運転をしてしまう可能性がある。
次に、上記の問題点を解決する本開示の一実施例の構成について説明する。
本開示の一実施例は、合成対象画像の接合領域において各画像の表示領域を動的に変更する処理を行なうものである。
図11以下を参照して本実施例について説明する。
なお、図11に示す前面画像101と左側面画像102は、いずれも俯瞰変換処理後の画像である。
前面画像101は、車両の前面に搭載した前面カメラ(図1に示すカメラFに相当)が撮影した画像を俯瞰変換した画像である。
左側面画像102は、車両の左側面に搭載した左側面カメラ(図1に示すカメラLに相当)が撮影した画像を俯瞰変換した画像である。
前面画像101と、左側面画像102の表示領域を、長方形の短冊領域単位で交互に設定し、さらに短冊位置を時間推移に応じて、順次、移動させる。
すなわち、接合領域103内の前面画像101と左側面画像102各画像の表示領域を時間推移に応じて変化させる処理、表示領域動的変更処理を実行する。
図12は、前面画像101と、左側面画像102の接合領域103の時間推移に伴う変更処理例を示す図である。時間は、t1,t2,t3,t4の順に進行し、これらの各時間における接合領域の表示態様の変化の様子を示している。
時間t1〜t5までの1回の表示周期において、接合領域103を構成する矩形領域の全ての領域に前面画像101の表示期間と左側面画像102の表示期間が交互に設定される。すなわち、接合領域103全領域が、前面画像101と左側面画像102の2つの画像を確認可能な領域となる。
すなわち、本方式では、接合領域103全領域が、前面画像101と左側面画像102の2つの画像を確認可能な領域に設定されるため、立体オブジェクトの表示領域が完全に切り落とされることはなく、動的境界線が動く事で何かしらの立体物認知が可能となる。
図13には、図12を参照して説明した時間t1〜t4の接合領域の表示態様中、時間t1と時間t3の2つの表示態様における立体オブジェクトの表示例を示している。すなわち、以下の2つの合成画像の表示例である。
(a)時間t1の合成画像
(b)時間t3の合成画像
これら異なるタイミングにおける合成画像の接合領域の表示例を示している。
前面画像101には、接合領域中の短冊設定の前面画像表示領域に、前面画像内立体オブジェクト111が表示される。一方、左前面側面画像102にも、接合領域中の短冊設定の左側面画像表示領域に、左側面画像内立体オブジェクト112が表示される。
この立体オブジェクトは、先に説明した図9の合成画像では切り落とされて合成画像から消失した被写体(立体オブジェクト)に相当する。
(a)時間t1の合成画像、
(b)時間t3の合成画像、
これらの各時間の合成画像である。これらの各時間の合成画像の接合領域に表示される画像は異なるものとなる。すなわち、時間推移に伴って、前面画像の表示領域と左側面画像の表示領域が異なり、この変化に伴って各画像内の立体オブジェクトの表示領域も異なるものとなる。
次に、図11〜図13を参照して説明した接合領域の表示制御処理のシーケンスについて説明する。
以下に説明する処理シーケンスは、2つの俯瞰画像を短冊状に交互に配置した画像接合領域を設定し、この画像接合領域に配置した各画像の短冊領域を時間経過に伴って順次移動させる表示制御を実行する表示制御処理シーケンスである。
図14にパラメータの一覧を示す。図15と図16は、前面画像101と、左側面画像102の接合領域103の構成例と各パラメータの設定を説明する図である。
図15、図16に示す前面画像101と、左側面画像102はいずれも補正処理としての俯瞰変換を行った後の俯瞰画像である。
i:短冊識別子であり、接合領域のいずれか一方の画像(本例では前面(フロント[f])画像)の短冊識別子、ただし、最初の短冊識別子i=0、
j:画像形成画素の行(ライン)識別子であり、接合領域のいずれか一方の画像
(本例では前面(フロント[f])画像)の各短冊開始位置からの行(ライン)識別子、
ただし、各短冊開始位置の行(ライン)j=0、
ZN:短冊数規定値であり、短冊識別子iを設定した画像(本例では前面(フロント[f])画像)の接合領域に設定可能な短冊識別子(i)の最大値、
Wf: 短冊幅規定値であり、短冊識別子iを設定した画像(本例では前面(フロント[f])画像)の1つの短冊の幅に相当する行(ライン)識別子(j)の最大値、
Ws:短冊幅規定値であり、短冊識別子iの設定画像(本例では前面(フロント[f]画像)でないもう一方の画像(本例では左側面(サイド[s])画像)の短冊幅に相当する行(ライン)数、
Wf+Ws:接合領域における交互表示短冊間隔規定値であり、短冊識別子iの設定画像(本例では前面(フロント[f])画像)の短冊間隔に相当する行(ライン)数、
SW:シフト幅規定値であり、短冊識別子号iを設定した画像(本例では前面(フロント[f])画像)の単位フレームあたりの短冊シフト行(ライン)数、
f:表示フレーム識別子、
接合領域103の表示制御は、これらのパラメータを利用して実行する。
図16に示す例では、前面画像101の短冊幅を3行、左側面画像102の短冊幅(=前面画像の短冊間幅)を5行としている。このような設定とすることで、観察者は、接合領域103内で短冊幅を大きく設定した左側面画像102を優先的に確認することが可能となり、立体オブジェクトをより確認しやすくなる。
図15に示す例では、ZN=4である。
図16に示す例では、行(ライン)識別子:j=0〜2の幅の短冊を設定可能な構成であり、Wf=2である。
図16に示す例では、Ws=5である。
図16に示す例では、Wf+Ws=7である。
図16に示す例では、SW=2である。
図16に示すように、フレームf、フレームf+1、フレームf+2、フレームf+3と、順次、各フレーム単位で接合領域の短冊のシフト処理を実行し、短冊は上方向または下方向、いずれか一方の方向に移動する。
なお、シフト処理を実行する間隔は、本例では1フレーム単位としているが、1フレーム単位に限らず、例えば10フレーム単位等の設定としてもよい。このような設定とすれば、短冊の移動速度が遅く設定されることになる。
接合領域103の表示制御は、これらのパラメータを利用して実行する。
図17に示す処理フローは、複数の俯瞰画像から生成する合成画像の一部領域の表示制御処理シーケンスを説明するフローである。
具体的には、例えば、図15に示す接合領域103とその下部の左側面画像102の画像領域の表示処理の制御シーケンスに相当する。なお、その他の領域においても、同様のシーケンスで表示制御が実行される。
データ処理部(制御部)は、例えばプログラム実行機能を持つCPUを備え、図16に示すフローに従った処理シーケンスを記録したプログラムに従って処理の制御を行う。プログラムは、データ処理部(制御部)のアクセス可能な記憶手段であるメモリや記憶媒体等に格納されている。あるいは、通信手段を介して外部のサーバ等から取得する構成としてもよい。
なお、このフロー開始前の処理として、以下の各パラメータの初期設定を行う。
短冊識別子i=0、
行(ライン)識別子j=0、
これらの初期設定の後、ステップS101以下の処理を実行する。
まず、ステップS101において、合成画像の接合領域の構成ライン(行)として、前面画像の第j行を出力する。
このステップS101の処理は、例えば図15、図16に示す前面画像101によって構成される短冊領域の生成処理に相当する。
なお、初期設定は前述のようにj=0であり、最初は、前面画像の第0行を出力する。例えば図16に示すフレームfで、前面画像101の最上行のj=0の行を出力する処理に相当する。すなわち最初の短冊(短冊識別子:i=0)の最上行(行(ライン)識別子:j=0)を、前面画像101から取得して出力する処理に相当する。
次に、ステップS102において、行(ライン)識別子jと、短冊幅規定値Wfとの比較処理を実行する。短冊幅規定値Wfは、前述したように、短冊識別子iを設定した画像(本例では前面(フロント[f])画像)の1つの短冊の幅に相当する行(ライン)識別子(j)の最大値である。例えば図16の例では、Wf=2としている。
j≧Wf
上記判定式が成立するか否かを判定する。
この判定式は、ステップS101で出力する前面画像の行(ライン)数、すなわち、前面画像101の短冊の構成行が、短冊幅規定値Wfに達したか否かを判定する処理である。
例えばWf=2の場合、j=2になれば、ステップS102の判定はYesとなり、ステップS104に進む。
j=0、またはj=1の場合は、ステップS102の判定はNoとなり、ステップS103に進む。
最初の段階では、j=0であるので、ステップS102の判定はNoとなり、ステップS103に進む。
ステップS103では、行(ライン)識別子jの更新処理を実行する。すなわち、
j=j+1
上記更新式に従ってjの値を1つインクリメントする。
初期段階では、j=0であるので、この更新処理によってj=1に設定される。
ステップS103におけるパラメータ更新の後、更新した行(ライン)識別子jに対応する処理をステップS101において実行する。
すなわち、j=1に設定された場合、合成画像の接合領域の構成ライン(行)として、前面画像の第1行を出力する。
j≧Wf
上記判定式が成立するまで繰り返される。すなわち、行(ライン)識別子jが、短冊幅規定値Wfに達するまで、前面画像101の構成行が接合領域103に出力される。
例えば図16に示す例のように、短冊幅規定値Wf=2の場合、
j=2になれば、ステップS102の判定はYesとなり、ステップS104に進む。
これで、接合領域の1つの短冊(例えば、i=0の短冊)が完成したことになる。
次に、ステップS104において、行(ライン)識別子jを1つインクリメントする。すなわち、
j=j+1
上記更新式に従って、行(ライン)識別子jの値を更新する。
なお、短冊幅規定値Wf=2の場合、まず、行(ライン)識別子j=2において、ステップS102の判定がYesとなり、ステップS104が実行され、行(ライン)識別子j=3の設定がなされた後、ステップS105に進む。
次に、ステップS105において、合成画像の接合領域の構成ライン(行)として、左側面画像の第j行を出力する。
このステップS105の処理は、例えば図15、図16に示す左側面画像102によって構成される短冊領域(=前面画像101の短冊間領域)の生成処理に相当する。
短冊幅規定値Wf=2の場合、行(ライン)識別子j=3において、ステップS105が実行される。図16のフレームfの例では、j=3の行として左側面画像102の行データを出力する処理が行われることになる。すなわち、前面画像101の短冊間の構成行として、左側面画像102の行データの出力を実行する。
次に、ステップS106において、行(ライン)識別子:jと、前面(フロント[f])画像の短冊幅規定値Wfと左側面(サイド[s])画像の短冊幅規定値Wsとの加算値(Wf+Ws:交互表示短冊間隔規定値)との比較処理を行なう。
短冊幅規定値Wfは、前述したように、短冊識別子iを設定した画像(本例では前面(フロント[f])画像)の1つの短冊の幅に相当する行(ライン)識別子(j)の最大値である。例えば図16の例では、Wf=2としている。
また、短冊幅規定値Wsは、短冊識別子iの設定画像(本例では前面(フロント[f]画像)でないもう一方の画像(本例では左側面(サイド[s])画像)の短冊幅に相当する行(ライン)数である。
なお、図16に示す例では、Ws=5である。
j≧(Wf+Ws)
上記判定式が成立するか否かを判定する。
この判定式は、ステップS101の無繰り返し処理で生成済みの短冊の構成行と、ステップS105で生成中の短冊間の構成行との総和が、接合領域における2つの画像の短冊幅規定値WfとWsとの総和(Wf+Ws:交互表示短冊間隔規定値)に達したか否かを判定する処理である。
例えば前面(フロント[f])画像対応の短冊幅規定値Wf=2、左側面(サイド[s])画像対応の短冊幅規定値Ws=5の場合、j=7になれば、ステップS106の判定はYesとなり、ステップS107に進む。
j=3〜6の場合は、ステップS106の判定はNoとなり、ステップS104に戻る。
すなわち、j=3〜7の間、ステップS105の処理を繰り返し実行する。この処理は、例えば図16に示すフレームfのj=3〜7の各行に左側面画像102の画像を出力する処理である。すなわち、短冊間のスペースを左側面画像102の画像で埋める処理に相当する。
j≧(Wf+Ws)
上記判定式が成立するまで繰り返される。すなわち、例えば図16に示すように、行(ライン)識別子jが、短冊幅規定値Wf+短冊幅規定値Wsの総和値(Wf+Ws:交互表示短冊間隔規定値)に達するまで、左側面画像102の構成行が接合領域103に出力される。
例えば図16に示す例のように、短冊幅規定値Wf=2、短冊幅規定値Ws=5の場合、
j=7になれば、ステップS106の判定はYesとなり、ステップS107に進む。
ステップS104〜S106の繰り返しループが終了すると、接合領域の1つの短冊間領域が完成したことになる。
次に、ステップS107において、短冊識別子iと、短冊数規定値ZNとの比較処理を実行する。
短冊識別子iは、図15に示すように、接合領域のいずれか一方の画像(本例では前面(フロント[f])画像)の短冊識別子であり、例えば上から順に、i,i+1,i+2の識別子を設定する。なお、短冊識別子iは0,1,2,3・・・のように、0を最初の短冊識別子として設定する。
短冊数規定値ZNは、短冊識別子iを設定した画像(本例では前面(フロント[f])画像)の接合領域に設定可能な短冊識別子(i)の最大値である。
図15に示す例では、ZN=4である。
i≧ZN
上記判定式が成立するか否かを判定する。
これは、ステップS101〜S106の処理において生成した短冊の数が規定上限値に達したか否かを判定する処理である。
すなわち、i=0〜3の場合は、ステップS107の判定は、Noとなり、ステップS108に進み、短冊識別子iを1つ増加させ、行(ライン)識別子jを0にリセットするパラメータ更新を実行して、ステップS101〜S106の処理を繰り返す。
図15、図16に示す例では、前面画像101を3行(ライン)、出力して1つの短冊領域を生成し、左側面画像102を5行(ライン)出力して短冊間領域を生成する。
この処理を規定回数、すなわちステップS107における判定式、
i≧ZN
上記判定式を満たすまで繰り返す。
この繰り返し処理によって、例えば図15に示す接合領域103内の画像出力構成が完成する。すなわち、前面画像101の3行分の短冊画像と、左側面画像の5行分の短冊間画像の繰り返し構成から構成される接合領域の画像が完成する。
次に、ステップS109において、合成画像の接合領域の連続領域に、左側面画像の行を順次、張り付ける処理を実行する。
この処理は、例えば図15に示す接合領域103の下部の左側面画像102の出力処理に相当する。
ステップS110では、1フレーム分の画像出力が終了したか否かを判定する。
すなわち、左側面画像102の出力が完了したか否かを判定する。
終了していない場合は、ステップS109に戻り、順次、左側面画像102の構成行の出力を実行する。
ステップS110において、1フレーム分の画像出力が終了したと判定した場合は、ステップS111に進む。
合成画像中の他の領域についても、図17に示すフロー中の「前面画像」と「左側面画像」の設定を変更するのみで、同様の処理シーケンスによって出力制御が可能となる。
ステップS111では、フレーム識別子fを更新する。すなわち、
f=f+1
上記更新式に従って、フレーム識別子fを1つインクリメントする。
この処理は、例えば図16に示すフレームfからフレームf+1への移行処理に相当する。
ステップS112では、表示開始のj行を所定行(SW)シフトする処理を行なう。
SWは、短冊シフト幅規定値であり、短冊識別番号iを設定した画像(本例では前面(フロント[f])画像)の単位フレームあたりの短冊シフト行(ライン)数である。
図16に示す例では、SW=2である。
例えば図15に示す例では、フレームfでは、前面画像101の最初の短冊の第1行(ライン)の位置を示すj=0の位置が前面画像101の最上行の位置に対応づけられている。これをすフレームf+1の設定のように、j=0の位置を2行む、下側に移動する処理を行なう。
この処理によって、前面画像101によって構成される短冊の出力位置が短冊シフト行(ライン)数分シフト、すなわち、ずれして設定されることになる。
この処理によって、例えば図15に示すフレームf+1の設定を持つ短冊構成を有する接合領域の画像が生成されて出力される。
この処理によって、例えば図15に示すフレームf+2の設定を持つ短冊構成を有する接合領域の画像が生成されて出力される。
この処理によって、例えば図15に示すフレームf+3の設定を持つ短冊構成を有する接合領域の画像が生成されて出力される。
なお、フレーム当たりのシフト量(SW)は様々な設定が可能であり、シフト量(SW)の設定によって、短冊の移動スピードを様々に変化させることが可能となる。
短冊幅規定値Ws、
短冊間隔規定値Wf、
短冊数規定値ZN、
これらのパラメータについても、様々な設定が可能であり、これらのパラメータを調整することで、接合領域に表示する短冊の態様を変更することが可能である。
更新処理間隔を長くするためには、nの値を大きくすればよく、n=10、あるいは20といった設定とすればよい。このような設定とすれば、短冊の移動速度が遅く設定されることになる。
上述した実施例において説明したように、上述の実施例では2つの俯瞰変換画像の接合領域において、各俯瞰画像の表示領域を時間推移に併せて変更する構成としている。
このように表示情報の動的変更により、観察者である運転者の注意を喚起することが可能となる。
さらに、接合領域に表示される立体オブジェクトに対して、より強く注意を向けさせるため、接合領域に表示される立体オブジェクトを強調表示する処理例について説明する。
立体オブジェクトは、前面画像101の表示領域である短冊領域において前面画像内立体オブジェクト111として表示され、さらに左側面画像の表示領域である短冊間領域において、左側面画像内立体オブジェクト112として表示される。
なお、接合領域における強調表示の度合いは、以下のような設定のいずれかとする。
(a)立体オブジェクト領域全てに対して均一な強調表示を行う。
(b)立体オブジェクト領域中、接合画像境界に近い部分の強調度合を高くし、接合画像境界から離間するほど強調度合を低くする。
上述の実施例では、2つの俯瞰画像の接合領域に各俯瞰画像を長方形の短冊型表示領域を交互に設定して、これらの長方形型の短冊型表示領域を時間推移に伴って移動させる構成例を説明した。
以下、上述した実施例と異なる表示構成を有する実施例について説明する。
第2実施例として、図19以下を参照して、湾曲形状の短冊型表示領域を交互に設定した実施例について説明する。
なお、図19に示す前面画像101、左側面画像102のいずれも俯瞰変換処理後の画像である。
すなわち、前面画像101は、車両の前面に搭載した前面カメラ(図1に示すカメラFに相当)が撮影した画像を俯瞰変換した画像である。
左側面画像102は、車両の左側面に搭載した左側面カメラ(図1に示すカメラLに相当)が撮影した画像を俯瞰変換した画像である。
すなわち、接合領域103における前面画像101と左側面画像102各画像の表示領域は時間推移に応じて変化する設定となっている。
この表示領域の動的変更処理について図20を参照して説明する。
時間t1〜t4までの1回の表示周期において、接合領域103の全ての領域に前面画像101の表示期間と左側面画像102の表示期間が交互に設定され、観察者は、接合領域103全領域で、前面画像101と左側面画像102の2つの画像を確認可能となる。
すなわち、本実施例においても、接合領域103全領域が、前面画像101と左側面画像102の2つの画像を確認可能な領域に設定されるため、立体オブジェクトの表示領域が切り落とされることなく、確認可能となる。
図に示す前面画像内立体オブジェクト151は前面画像表示領域に表示される立体オブジェクトである。
左側面画像内立体オブジェクト152は左側面画像表示領域に表示される立体オブジェクトである。
本処理例では、各俯瞰画像の端部を切り落とすことなく、各俯瞰画像の接合領域を接合対象となる2つの俯瞰画像のいずれも観察可能とした構成としているので、各俯瞰画像に含まれるすべての被写体を観察することが可能となる。
図22は、前面画像101と左側面画像102の接合領域103に表示される立体オブジェクトを強調表示した表示例を示している。
立体オブジェクトは、前面画像101の表示領域である短冊領域において前面画像内立体オブジェクト151として表示され、さらに左側面画像の表示領域である短冊間領域において、左側面画像内立体オブジェクト152として表示される。
具体的には、各画像の所定単位領域の複数の画素を単位として算出する差分絶対値和(SAD:Sum of Absolute Difference)を適用可能である。
このような立体オブジェクトの協調表示処理により、観察者である運転者の注意を、さらに強く喚起することが可能となる。
次に、第3実施例として、図23以下を参照して、接合領域の画像境界を移動させる実施例について説明する。
なお、図23に示す前面画像101、左側面画像102のいずれも俯瞰変換処理後の画像である。
すなわち、前面画像101は、車両の前面に搭載した前面カメラ(図1に示すカメラFに相当)が撮影した画像を俯瞰変換した画像である。
左側面画像102は、車両の左側面に搭載した左側面カメラ(図1に示すカメラLに相当)が撮影した画像を俯瞰変換した画像である。
この画像境界161の移動処理例について図24を参照して説明する。
時間t1では、接合領域103は、すべて前面画像101の表示領域に設定されている。その後、時間t1〜t4まで、画像境界161が右回りに回転し、接合領域103の前面画像101の表示領域は、左下側から、順次、左側面画像102の表示領域に切り替えられる。
時間t7において、接合領域103は、時間t1と同様、すべて前面画像101の表示領域に設定される。
以降、同様に、画像境界161は、同様の動き、すなわち右回転と左回転を繰り返す。すなわち、車のワイパーと同様の往復運動を行う。
なお、右回転の速度と左回転の速度は、同一ではなく、いずれか一方向の回転速度を他方向の回転速度より遅く設定する構成が好ましい。例えば回転速度比を1:2以上、異なる設定とする。
このような設定とすることで、観察者はゆっくり回転する場合の画像を優先的に観察可能となり、その際に立体オブジェクトの全体像を確認しやすくなる。
すなわち、本実施例においても、接合領域103全領域が、前面画像101と左側面画像102の2つの画像を確認可能な領域に設定されるため、立体オブジェクトの表示領域が切り落とされることなく、確認可能となる。
図に示す左側面画像内立体オブジェクト172は左側面画像表示領域に表示される立体オブジェクトである。前面画像内立体オブジェクト171は前面画像表示領域に表示される立体オブジェクトである。
本処理例では、各俯瞰画像の端部を切り落とすことなく、各俯瞰画像の接合領域を接合対象となる2つの俯瞰画像のいずれも観察可能とした構成としているので、各俯瞰画像に含まれるすべての被写体を観察することが可能となる。
立体オブジェクトは、前面画像101の表示領域において前面画像内立体オブジェクト171として表示され、さらに左側面画像の表示領域である短冊間領域において、左側面画像内立体オブジェクト172として表示される。
具体的には、各画像の所定単位領域の複数の画素を単位として算出する差分絶対値和(SAD:Sum of Absolute Difference)が適用可能である。
このような立体オブジェクトの協調表示処理により、観察者である運転者の注意を、さらに強く喚起することが可能となる。
上述した実施例は、いずれも異なる位置に取り付けられた複数のカメラの撮影画像を合成して1枚の合成画像を生成する処理が必要となる。
合成画像の生成時には、各カメラの撮影画像を正確に位置合わせすることが必要である。
図27に示すレーザ校正基準パターン照射部180は、図に示すような、ある画像パターンを持つ校正基準パターン181を地面に向けて照射する。
校正基準パターン181は、車両10の前面のカメラF21と、左側面のカメラL22のいずれもが撮影可能な位置に照射される。
校正基準パターン181は、図に示すように、例えば十文字や、格子状パターンなど、特定のパターンを持つ。
なお、レーザ校正基準パターン照射部180は、例えば固体レーザ光源とパターン生成ホログラッフィクフィルタにより構成される。
カメラF21の撮影画像から生成した俯瞰画像と、カメラL22の撮影画像から生成した俯瞰画像の合成処理に際して、各撮影画像に含まれる照射パターン画像を用いる。
また、画像処理装置は、校正基準パターンを含む撮影画像を適用したカメラ調整処理としてのキャリブレーションを定期的または合成画像の生成時に実行する構成としてもよい。
次に、上述した実施例に従った画像表示処理を実行する画像処理装置のハードウェア構成例について説明する。
カメラF,202Fは、図1に示す車両10の前面に備えられたカメラF21相当する。
カメラL,202Lは、図1に示す車両10の左側面に備えられたカメラL22に相当する。
カメラR,202Rは、図1に示す車両10の右側面に備えられたカメラR23に相当する。
カメラB,202Bは、図1に示す車両10の背面に備えられたカメラB24に相当する。
これらのカメラは、いずれも例えば魚眼レンズ等の広角レンズを備えたカメラであり、所定のフレームレートで動画撮影を実行し、撮影画像を画像処理部201に出力する。
画像処理部201は、入力部203からの入力情報に応じて表示部205に対する表示情報の切り替えや制御を実行する。
制御部210は、各構成部に対する処理の実行制御、各構成部間のデータ入出力制御などを実行する。
なお、制御部210は、プログラム実行機能を有するプロセッサを有し、図示しないメモリに格納されたプログラムに従って処理制御を実行する。
図29に示すように、画像処理部201には、車両の4つの異なる位置に装着したカメラから4つの画像が入力される。すなわち、
車両の前面に備えられたカメラF,202Fの撮影画像である入力画像F,210F、
車両の左側面に備えられたカメラL,202Lの撮影画像である入力画像L,210L、
車両の右側面に備えられたカメラR,202Rの撮影画像である入力画像R,210R、
車両の背面に備えられたカメラB,202Bの撮影画像である入力画像B,210B、
これらの各画像が入力される。
なお、これらの画像は、魚眼レンズ等の広角レンズによって撮影された動画像である。
各補正画像生成部F,220F〜補正画像生成部B,220Bの構成と処理は同様である。図には、車両の前面のカメラF202Fの撮影画像である入力画像F210Fに対する処理を実行する補正画像生成部F,220Fの構成を示し、その他の補正画像生成部L,220L〜補正画像生成部B,220Bについては内部構成を省略して示している。
なお、パラメータにはカメラ内部パラメータとカメラ外部パラメータとがある。
カメラの内部パラメータとは、カメラレンズの焦点距離やレンズの歪特性、レンズ取りつけて位置誤差等の車輛のステータスに依存しないで定まる固有情報である。
カメラの外部パラメータとは、カメラの取り付け位置・向き変動、車体の路面に対する車高変動、運転情況に応じて変動することが想定される固有情報である。
画像補正部222は、補正パラメータ算出゛221の算出したパラメータを適用した画像補正処理を実行して、俯瞰画像を生成する。なお、画像補正部222の実行する画像補正処理には、入力画像F210Fに含まれる歪みを除去する歪み補正処理、画像の拡大縮小処理であるスケーリング処理、さらに、想定視点である車両上部から見た画像に変換する視点補正を伴う俯瞰変換処理が含まれる。
なお、補正パラメータ算出部221と、画像補正部222には、入力部203からの入力情報、車両ステータス情報取得部204から入力する車両ステータス情報が入力され、必要に応じてこれらの入力情報を適用したパラメータ算出、および画像補正を実行する。
また、補正画像生成部L,220Lは、車両の左側面のカメラL,202Lの撮影画像である入力画像L,210Lに基づいて車両左側面領域の俯瞰画像を生成して、画像合成部251に出力する。
さらに、補正画像生成部B,220Bは、車両の背面のカメラB,202Bの撮影画像である入力画像B,210Bに基づいて車両背面領域の俯瞰画像を生成して、画像合成部251に出力する。
画像合成部251は、先の各実施例において説明したように、各俯瞰画像の接合領域を時間推移に伴って表示画像を変更する移動する境界領域を有する構成とした合成画像を生成して表示部205に出力する。
(a)図12等を参照して説明した矩形型の短冊領域を有し、矩形型短冊領域が時間推移に伴って移動する構成を有する接合領域を有する合成画像、
(b)図20等を参照して説明した湾曲型の短冊領域を有し、湾曲型短冊領域が時間推移に伴って移動する構成を有する接合領域を有する合成画像、
(c)図24等を参照して説明した画像の境界領域が時間推移に伴って右回転および左回転の交互の回転移動を繰り返す接合領域を有する合成画像、
これらのいずれかの構成を有する接合領域を含む合成画像を生成する。
立体オブジェクトの検出には、先に説明したように接合する各画像の対応画素位置の画素値差分、例えば各画像の所定単位領域の複数の画素を単位として算出する差分絶対値和(SAD:Sum of Absolute Difference)が適用可能である。
表示部205に表示される合成画像は、以下のいずれかの設定の接合領域を有する合成画像となる。
(a)図12等を参照して説明した矩形型の短冊領域を有し、矩形型短冊領域が時間推移に伴って移動する構成を有する接合領域を有する合成画像、
(b)図20等を参照して説明した湾曲型の短冊領域を有し、湾曲型短冊領域が時間推移に伴って移動する構成を有する接合領域を有する合成画像、
(c)図24等を参照して説明した画像の境界領域が時間推移に伴って右回転および左回転の交互の回転移動を繰り返す接合領域を有する合成画像、
表示部205には上記(a)〜(c)いずれかの接合領域を有する合成画像が表示され。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成し、
生成した複数の俯瞰画像を接合して合成画像を生成する画像処理部を有し、
前記画像処理部は、
接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する画像処理装置。
画像処理部が、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成する処理と、
生成した複数の俯瞰画像を接合して合成画像を生成する合成画像生成処理を実行し、
前記画像処理部は、前記合成画像生成処理において、
接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する画像処理方法。
画像処理部に、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成する処理と、
生成した複数の俯瞰画像を接合して合成画像を生成する合成画像生成処理を実行させ、
前記合成画像生成処理において、
接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成させるプログラム。
具体的には、車両の前後左右等、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成し、生成した複数の俯瞰画像を接合して合成画像を生成する。画像処理部は、接合対象となる複数の俯瞰画像の表示領域を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する。例えば接合対象となる第1の画像と第2の画像を短冊状に交互に設定し、短冊位置を時間推移に伴って変化する設定とした接合領域を有する合成画像を生成する。
本構成により、立体オブジェクトが隣接画像合成範囲にある場合、表示画像として動体境界部を持つ画像が表示される結果、人の動体知覚神経を刺激する事で認識し易くした車両上部からの視点画像を生成して表示することが可能となる。
21〜24 カメラ
30 広角カメラ
31 被写体
32 立体オブジェクト
70 合成画像
101 前面画像
102 左側面画像
103 接合領域
111 前面画像内立体オブジェクト
112 左側面画像内立体オブジェクト
161 画像境界
171 前面画像内立体オブジェクト
172 左側面画像内立体オブジェクト
180 レーザ校正基準パターン照射部
181 校正基準パターン
201 画像処理部
202 カメラ
203 入力部
204 車両ステータス情報取得部
205 表示部
210 制御部
211 レーザ校正基準パターン照射部
210 入力画像
220 補正画像生成部
221 補正パラメータ算出部
222 画像補正部
251 画像合成部
Claims (14)
- 異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成し、
生成した複数の俯瞰画像を接合して合成画像を生成する画像処理部を有し、
前記画像処理部は、
接合対象となる第1の画像と第2の画像が短冊状に交互に配置されるとともに、短冊状領域の位置が時間推移に伴って一定方向に順次移動される接合領域を有する合成画像を生成する画像処理装置。 - 前記画像処理部は、
接合対象となる第1の画像と第2の画像を矩形型、または湾曲型の短冊状に交互に設定する請求項1に記載の画像処理装置。 - 前記画像処理部は、
接合対象となる第1の画像と第2の画像の短冊幅を異なる幅に設定する請求項1に記載の画像処理装置。 - 前記画像処理部は、
前記接合領域の表示情報中に立体オブジェクトが含まれる場合、該立体オブジェクトの一部または全体を強調表示した合成画像を生成する請求項1に記載の画像処理装置。 - 前記強調表示は、点滅表示、または、輝度、色彩の少なくともいずれかの変更表示処理である請求項4に記載の画像処理装置。
- 前記画像処理部は、
前記接合領域において接合する複数画像の所定領域単位の画素値の差分絶対値和(SAD:Sum of Absolute Difference)を適用して、立体オブジェクト検出を行う請求項5に記載の画像処理装置。 - 前記画像処理装置は、
前記カメラの撮影領域に特定パターンの校正基準パターンを照射する校正基準パターン照射部を有し、
前記複数のカメラは、校正基準パターン照射領域を含む撮影画像を生成し、
前記画像処理部は、
前記合成画像の生成に際して、前記校正基準パターン照射領域を画像の位置合わせに適用した画像合成処理を実行する請求項1に記載の画像処理装置。 - 前記画像処理部の校正基準パターン照射部は、固体レーザ光源とパターン生成ホログラッフィクフィルタにより構成された請求項7に記載の画像処理装置。
- 前記画像処理装置は、
前記カメラの撮影する各撮影フレームの撮影タイミングに応じて、撮影領域に校正基準パターンの照射を行う校正基準パターン照射部を有し、
前記複数のカメラは、前記校正基準パターンの照射タイミングに連動して画像撮影を行い、
前記画像処理部は、
撮影された複数の連続する画像フレームの差分から前記校正基準パターンの検出を実行し、前記合成画像の生成に際して、前記校正基準パターンの照射領域を画像の位置合わせに適用した画像合成処理を実行する請求項1に記載の画像処理装置。 - 前記画像処理装置は、
前記校正基準パターンを含む撮影画像を適用したカメラ調整処理としてのキャリブレーションを定期的または前記合成画像の生成時に実行する請求項7の画像処理装置。 - 前記カメラは、車両の前後左右の各側面に配置されたカメラであり、
前記画像処理部は、
前記合成画像として、車両の周囲領域を車両上部から観察した俯瞰画像を生成する請求項1に記載の画像処理装置。 - 前記カメラは、広角レンズを有するカメラである請求項1に記載の画像処理装置。
- 画像処理装置において実行する画像処理方法であり、
画像処理部が、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成する処理と、
生成した複数の俯瞰画像を接合して合成画像を生成する合成画像生成処理を実行し、
前記画像処理部は、前記合成画像生成処理において、
接合対象となる第1の画像と第2の画像が短冊状に交互に配置されるとともに、短冊状領域の位置が時間推移に伴って一定方向に順次移動される合成画像を生成する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
画像処理部に、異なる位置に配置した複数のカメラの撮影画像を個別に補正して複数の俯瞰画像を生成する処理と、
生成した複数の俯瞰画像を接合して合成画像を生成する合成画像生成処理を実行させ、
前記合成画像生成処理において、
接合対象となる第1の画像と第2の画像が短冊状に交互に配置されるとともに、短冊状領域の位置が時間推移に伴って一定方向に順次移動される接合領域を有する合成画像を生成させるプログラム。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013259593A JP6232994B2 (ja) | 2013-12-16 | 2013-12-16 | 画像処理装置、および画像処理方法、並びにプログラム |
PCT/JP2014/005932 WO2015092981A1 (en) | 2013-12-16 | 2014-11-27 | Image processing apparatus, image processing method, and program |
BR112016013307A BR112016013307A2 (pt) | 2013-12-16 | 2014-11-27 | Aparelho de processamento de imagem, e, sistemas de processamento de imagem em automóvel e de monitoramento de veículo |
EP14812308.6A EP3039644B1 (en) | 2013-12-16 | 2014-11-27 | Image processing apparatus, image processing method, and program |
RU2016122956A RU2679987C2 (ru) | 2013-12-16 | 2014-11-27 | Устройство обработки изображений, способ обработки изображений и программа |
CN201480067077.9A CN105814886B (zh) | 2013-12-16 | 2014-11-27 | 图像处理设备、图像处理方法和程序 |
US14/917,711 US10140775B2 (en) | 2013-12-16 | 2014-11-27 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013259593A JP6232994B2 (ja) | 2013-12-16 | 2013-12-16 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015119225A JP2015119225A (ja) | 2015-06-25 |
JP2015119225A5 JP2015119225A5 (ja) | 2016-02-12 |
JP6232994B2 true JP6232994B2 (ja) | 2017-11-22 |
Family
ID=52101553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013259593A Expired - Fee Related JP6232994B2 (ja) | 2013-12-16 | 2013-12-16 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US10140775B2 (ja) |
EP (1) | EP3039644B1 (ja) |
JP (1) | JP6232994B2 (ja) |
CN (1) | CN105814886B (ja) |
BR (1) | BR112016013307A2 (ja) |
RU (1) | RU2679987C2 (ja) |
WO (1) | WO2015092981A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112020004944T5 (de) | 2019-11-29 | 2022-08-11 | Hitachi Astemo, Ltd. | Hinderniserkennungsvorrichtung |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015129280A1 (ja) * | 2014-02-26 | 2015-09-03 | 京セラ株式会社 | 画像処理装置および画像処理方法 |
US10891736B1 (en) * | 2015-06-23 | 2021-01-12 | Amazon Technologies, Inc. | Associating an agent with an event using motion analysis |
JP6413974B2 (ja) * | 2015-08-05 | 2018-10-31 | 株式会社デンソー | キャリブレーション装置、キャリブレーション方法、及びプログラム |
US10157452B1 (en) * | 2015-09-28 | 2018-12-18 | Amazon Technologies, Inc. | Image processing system for image rectification |
JP6493143B2 (ja) * | 2015-10-15 | 2019-04-03 | 株式会社デンソー | 表示制御装置及び表示制御プログラム |
JP6512449B2 (ja) * | 2016-01-20 | 2019-05-15 | パナソニックIpマネジメント株式会社 | 表示装置 |
KR102371588B1 (ko) * | 2016-05-02 | 2022-03-07 | 현대자동차주식회사 | 영상기반 장애물 인식 시스템 및 방법 |
US10636110B2 (en) * | 2016-06-28 | 2020-04-28 | Intel Corporation | Architecture for interleaved rasterization and pixel shading for virtual reality and multi-view systems |
KR101844885B1 (ko) * | 2016-07-11 | 2018-05-18 | 엘지전자 주식회사 | 차량 운전 보조장치 및 이를 포함하는 차량 |
CN109691088B (zh) | 2016-08-22 | 2022-04-15 | 索尼公司 | 图像处理设备、图像处理方法、以及程序 |
JP2018085008A (ja) | 2016-11-25 | 2018-05-31 | 株式会社ジャパンディスプレイ | 画像処理装置および画像処理装置の画像処理方法 |
KR102466305B1 (ko) * | 2017-01-12 | 2022-11-10 | 현대모비스 주식회사 | Avm 자동 공차 보정 시스템 및 그 방법 |
KR102433824B1 (ko) * | 2017-01-12 | 2022-08-17 | 현대모비스 주식회사 | Avm 자동 공차 보정 시스템 및 그 방법 |
DE102017214545A1 (de) * | 2017-08-21 | 2019-02-21 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit, mit der sich ein Objekt in einem Sichtfeld eines Fahrers eines Fahrzeugs befindet |
WO2019049709A1 (ja) * | 2017-09-07 | 2019-03-14 | ソニー株式会社 | 画像処理装置、画像処理方法、および画像表示システム |
JP6897442B2 (ja) * | 2017-09-12 | 2021-06-30 | 株式会社Jvcケンウッド | 車両用装置、キャリブレーション結果判定システム、および、キャリブレーション結果判定方法、ならびに、プログラム |
JP7013751B2 (ja) * | 2017-09-15 | 2022-02-01 | 株式会社アイシン | 画像処理装置 |
DE102017216822A1 (de) * | 2017-09-22 | 2019-03-28 | Continental Automotive Gmbh | Vorrichtung und Verfahren zum Anpassen einer Bildverarbeitung basierend auf einer Form einer Anzeigeneinrichtung für ein Kraftfahrzeug |
JP6472864B1 (ja) * | 2017-11-29 | 2019-02-20 | 株式会社近江デジタルファブリケーションズ | 画像配信システム、及び配信画像生成方法 |
CN112154647B (zh) * | 2018-04-26 | 2022-03-18 | 十以及二株式会社 | 广角影像提供系统 |
US11024012B2 (en) * | 2018-08-02 | 2021-06-01 | Apple Inc. | Directional scaling systems and methods |
CN108995592B (zh) * | 2018-08-02 | 2021-06-15 | 张士文 | 汽车影像系统 |
WO2020100835A1 (ja) * | 2018-11-15 | 2020-05-22 | パナソニックIpマネジメント株式会社 | カメラシステム及び車両 |
KR20210100610A (ko) * | 2018-12-11 | 2021-08-17 | 소니그룹주식회사 | 화상 처리 장치, 화상 처리 방법 및 화상 처리 시스템 |
DE102019205440A1 (de) * | 2019-04-16 | 2020-10-22 | Zf Friedrichshafen Ag | Lern-Verfahren zur winkelunabhängigen Objekterkennung für bewegliche und orts-feste Systeme |
CN112565730B (zh) * | 2020-12-03 | 2023-07-25 | 阿波罗智联(北京)科技有限公司 | 路侧感知方法、装置、电子设备、存储介质及路侧设备 |
US20240193958A1 (en) * | 2022-12-09 | 2024-06-13 | Lite-On Technology Corporation | Processing method for vehicle surround view, vehicle surround view system and in-vehicle processing device |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4508319B2 (ja) * | 1999-09-16 | 2010-07-21 | 大日本印刷株式会社 | モニタのコントラスト調整方法 |
JP2003030833A (ja) | 2001-07-13 | 2003-01-31 | Matsushita Electric Ind Co Ltd | 光記録媒体、光記録媒体の記録方法及び光記録媒体の記録装置 |
EP1291668B1 (en) | 2001-09-07 | 2005-11-30 | Matsushita Electric Industrial Co., Ltd. | Vehicle surroundings display device and image providing system |
JP4744823B2 (ja) * | 2004-08-05 | 2011-08-10 | 株式会社東芝 | 周辺監視装置および俯瞰画像表示方法 |
JP4950054B2 (ja) * | 2004-10-25 | 2012-06-13 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ディスプレイ素子 |
JP4639753B2 (ja) * | 2004-10-25 | 2011-02-23 | 日産自動車株式会社 | 運転支援装置 |
US7512262B2 (en) * | 2005-02-25 | 2009-03-31 | Microsoft Corporation | Stereo-based image processing |
JP4934308B2 (ja) | 2005-10-17 | 2012-05-16 | 三洋電機株式会社 | 運転支援システム |
JP4861034B2 (ja) * | 2006-03-29 | 2012-01-25 | クラリオン株式会社 | 車載カメラのキャリブレーションシステム |
JP4956799B2 (ja) * | 2006-05-09 | 2012-06-20 | 日産自動車株式会社 | 車両周辺画像提供装置及び車両周辺画像提供方法 |
JP2009077022A (ja) * | 2007-09-19 | 2009-04-09 | Sanyo Electric Co Ltd | 運転支援システム及び車両 |
JP5068779B2 (ja) * | 2009-02-27 | 2012-11-07 | 現代自動車株式会社 | 車両周囲俯瞰画像表示装置及び方法 |
JP5165631B2 (ja) * | 2009-04-14 | 2013-03-21 | 現代自動車株式会社 | 車両周囲画像表示システム |
JP2012147149A (ja) * | 2011-01-11 | 2012-08-02 | Aisin Seiki Co Ltd | 画像生成装置 |
TWM407861U (en) * | 2011-03-17 | 2011-07-21 | Acard Technology Corp | Panorama motor vehicle auxiliary recorder |
JP5483120B2 (ja) * | 2011-07-26 | 2014-05-07 | アイシン精機株式会社 | 車両周辺監視システム |
JP5870608B2 (ja) * | 2011-10-13 | 2016-03-01 | アイシン精機株式会社 | 画像生成装置 |
WO2013074604A2 (en) * | 2011-11-15 | 2013-05-23 | Magna Electronics, Inc. | Calibration system and method for vehicular surround vision system |
US9139133B2 (en) * | 2012-05-31 | 2015-09-22 | GM Global Technology Operations LLC | Vehicle collision warning system and method |
CN103338325A (zh) * | 2013-06-14 | 2013-10-02 | 杭州普维光电技术有限公司 | 基于全景摄像机的车底盘图像采集方法 |
-
2013
- 2013-12-16 JP JP2013259593A patent/JP6232994B2/ja not_active Expired - Fee Related
-
2014
- 2014-11-27 US US14/917,711 patent/US10140775B2/en active Active
- 2014-11-27 WO PCT/JP2014/005932 patent/WO2015092981A1/en active Application Filing
- 2014-11-27 RU RU2016122956A patent/RU2679987C2/ru not_active IP Right Cessation
- 2014-11-27 BR BR112016013307A patent/BR112016013307A2/pt not_active IP Right Cessation
- 2014-11-27 CN CN201480067077.9A patent/CN105814886B/zh not_active Expired - Fee Related
- 2014-11-27 EP EP14812308.6A patent/EP3039644B1/en not_active Not-in-force
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112020004944T5 (de) | 2019-11-29 | 2022-08-11 | Hitachi Astemo, Ltd. | Hinderniserkennungsvorrichtung |
Also Published As
Publication number | Publication date |
---|---|
US10140775B2 (en) | 2018-11-27 |
WO2015092981A1 (en) | 2015-06-25 |
EP3039644B1 (en) | 2019-11-27 |
JP2015119225A (ja) | 2015-06-25 |
EP3039644A1 (en) | 2016-07-06 |
RU2016122956A (ru) | 2017-12-12 |
CN105814886A (zh) | 2016-07-27 |
US20160217625A1 (en) | 2016-07-28 |
RU2016122956A3 (ja) | 2018-07-16 |
CN105814886B (zh) | 2020-09-15 |
BR112016013307A2 (pt) | 2022-07-19 |
RU2679987C2 (ru) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6232994B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5342036B2 (ja) | 3d表面形状をキャプチャーするための方法 | |
JP3886769B2 (ja) | 補正画像生成装置および補正画像生成プログラム | |
JP5971223B2 (ja) | 合成画像生成装置 | |
JP5222205B2 (ja) | 画像処理装置、方法及びプログラム | |
CN109948398B (zh) | 全景泊车的图像处理方法及全景泊车装置 | |
KR102563750B1 (ko) | 영상 블러링 제거 방법 및 장치 | |
KR101339121B1 (ko) | 다중 룩업 테이블을 이용한 차량 어라운드 뷰 영상 생성장치 | |
EP2629506A1 (en) | Two-step brightness adjustment in around-view systems | |
KR20110067437A (ko) | 복수개의 카메라로부터 획득한 영상을 정합하는 영상 처리 장치 및 방법 | |
TW201622403A (zh) | 數位重對焦方法 | |
JP5178454B2 (ja) | 車両周囲監視装置及び車両周囲監視方法 | |
JP5173552B2 (ja) | 車両周辺監視装置およびこれに適用される歪み補正値の設定修正方法 | |
US20200035013A1 (en) | Method for repairing incomplete 3d depth image using 2d image information | |
JP6293089B2 (ja) | 後方モニタ | |
JP6139141B2 (ja) | 外観画像生成方法及び外観画像生成装置 | |
JP6190119B2 (ja) | 画像処理装置、撮像装置、制御方法、及びプログラム | |
KR20130134086A (ko) | 광각 카메라를 이용한 영상 시스템 및 그 방법 | |
JP5978866B2 (ja) | 撮影装置及び撮影装置の画像処理方法 | |
JP2009211254A (ja) | 画像処理ユニット、複眼撮像装置、画像処理方法、および画像処理プログラム | |
KR101613682B1 (ko) | 광 필드 데이터를 이용한 영상 처리 장치 및 방법 | |
KR20110082873A (ko) | 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법 | |
KR101926498B1 (ko) | 스테레오 영상 정합 장치 및 이의 정합 방법 | |
KR20110088680A (ko) | 복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치 | |
JP5478366B2 (ja) | 映像監視装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171009 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6232994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |