JP4682664B2 - Perimeter monitoring system - Google Patents
Perimeter monitoring system Download PDFInfo
- Publication number
- JP4682664B2 JP4682664B2 JP2005095348A JP2005095348A JP4682664B2 JP 4682664 B2 JP4682664 B2 JP 4682664B2 JP 2005095348 A JP2005095348 A JP 2005095348A JP 2005095348 A JP2005095348 A JP 2005095348A JP 4682664 B2 JP4682664 B2 JP 4682664B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- monitoring system
- captured image
- vehicle
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
本発明は、車両に設置されたカメラによって撮影される車両周辺の撮影画像を車室内の表示装置に表示する周辺監視システムに関する。 The present invention relates to a periphery monitoring system that displays a captured image of a periphery of a vehicle captured by a camera installed in the vehicle on a display device in a vehicle interior.
近年、ナビゲーションシステムの普及にともなって、車両の周辺の状況を車室内の表示装置に表示するモニタシステムを搭載する車両が増加している。車両の周辺の状況としては、例えば、他車の位置、障害物の状況、センターラインや停止線等の道路標示等がある。そして、これらの周辺の状況は、車両をバックさせる場合、後方を監視するバックモニタや、前方のバンパー下やコーナー部の死角等が表示装置に表示される。このようなモニタシステムは、車両運転時に運転者の負担の軽減を図るものであり、運転中に運転者が取得することが必要な情報の多さに鑑みると、視認性に優れ、違和感なく一見して運転者が必要な情報を取得できる画像を取得できる画像を表示することが望ましい。そして、当然にその画像の視野は広いことが望ましい。一般的に人間の静体視野は、両目で一点を注視している状態で約200度である。この内、赤、青、黄色等の色彩を含めて確認できるのは70度くらいまでと言われている。さらに、動きながら物を見る場合の動体視野は、動体速度に応じて狭くなり、車両速度が時速40km程度で、静体視野の半分の約100度まで低下する。これを補うため、運転者は通常、一点を注視しないようにして視野角を広く保つように努めているが、上記のようなモニタシステムは、このような人間の生理的限界や努力を好適に保管するものであることが望まれる。 In recent years, with the widespread use of navigation systems, the number of vehicles equipped with a monitor system that displays the situation around the vehicle on a display device in the passenger compartment is increasing. Examples of the situation around the vehicle include the position of other vehicles, the situation of obstacles, and road markings such as a center line and a stop line. When the vehicle is to be turned back, the surroundings are displayed on the display device such as a back monitor for monitoring the rear, a bumper under the front bumper, and a blind spot at the corner. Such a monitor system is intended to reduce the burden on the driver when driving the vehicle. In view of the large amount of information that the driver needs to acquire during driving, the monitor system is excellent in visibility and looks comfortable. Then, it is desirable to display an image from which the driver can acquire an image from which necessary information can be acquired. Of course, it is desirable that the field of view of the image is wide. In general, the human static field of view is about 200 degrees with one eye gazing at one point. Of these, it is said that it can be confirmed up to about 70 degrees including colors such as red, blue and yellow. Further, the moving object visual field when the object is viewed while moving is narrowed according to the moving object speed, and the vehicle speed is about 40 km / h, which is about 100 degrees, which is half of the static object visual field. To compensate for this, the driver usually tries to keep a wide viewing angle without gazing at a single point. However, the monitoring system as described above favors such human physiological limits and efforts. It is desired that it be stored.
しかしながら、一般的にカメラ等によって撮影される画像の視野角は、50〜65度程度と狭く、単にカメラを車両に設置しただけでは十分な視野角を得ることができない。そこで、これを補うための様々な方法が提案されている。例えば、図15〜図16のように運転席からの死角となり得る場所を重点的に撮影し、これを表示装置のそれぞれ別の表示枠の中に表示する方法がある。 However, in general, the viewing angle of an image taken by a camera or the like is as narrow as about 50 to 65 degrees, and a sufficient viewing angle cannot be obtained simply by installing the camera in a vehicle. Various methods have been proposed to compensate for this. For example, as shown in FIGS. 15 to 16, there is a method in which a place that can be a blind spot from the driver's seat is photographed with priority, and this is displayed in different display frames of the display device.
また、特許文献1には、一台又は数台のカメラと、前記カメラより入力された画像を透視変換により他の座標に変換する手段と、この変換画像を自車の画像との関連において一枚の画像に合成する手段と、この画像を乗員(運転者)に表示するディスプレイ(表示装置)とを有するものが提案されている。本文献中で実施される透視変換とは、カメラのスクリーン画像から、車両中央を原点、車両進行方向に対して左右側をX軸、車両進行方向をY軸とする路面(平面)座標に変換するものである。そして、合成された画像は、イラストで示された自車両と、透視変換された他車両や道路標示、物体等が平面座標で示されたものとなり、これが表示装置に表示される。
透視変換は視点変換とも呼ばれるものであるが、特許文献1の技術を例にすると、X軸及びY軸で構成されるXY平面に対して平行する方向から見たスクリーン座標をXY平面に対して直交する方向から見た平面座標へ変換するものである。従って、ポールや壁等、XY平面に対して垂直に立っている物体は、スクリーン座標においては、はっきりと視認できる状態となるが、平面座標においては、点や線等に集約されてしまい、視認できなくなるか、あるいは運転者にとって極めて違和感を覚える画像となって表示されてしまう。この例ほど極端ではないとも、立体空間をある視点から撮影した画像を、平面画像に視点変換すると、変換対象となる平面上にない立体物等は正しく変換されずに、運転者が違和感を覚える画像となってしまう。
Perspective transformation is also called viewpoint transformation, but taking the technique of
また、平面座標に変換することなく、図15〜図16のように運転席から死角となり得る場所を重点的に撮影し、これを表示装置のそれぞれ別の表示枠の中に表示する方法を採った場合、通常の視点からの画像であるので、各画像に対する違和感は少ない。しかし、図16に示す如く分割表示すると、運転者は各撮影画像の相互関係位置を意識しなければ充分な環境把握ができないので、一見して車両の周辺情報を得にくいという課題がある。 In addition, a method of focusing on a place where a blind spot can be formed from the driver's seat as shown in FIGS. 15 to 16 without converting to plane coordinates, and displaying this in a separate display frame of the display device is employed. In this case, since the image is from a normal viewpoint, there is little discomfort with respect to each image. However, when divided and displayed as shown in FIG. 16, the driver cannot fully grasp the environment unless he / she is aware of the position of the correlation between the captured images.
この課題を解決するために、本出願人らは、特願2004−281910号において、車両に複数設置されたカメラが撮像した撮像画像を合成して表示装置に1枚の画像として表示するときに、隣り合う画像の境界の間で生じる水平方向又は垂直方向のずれを補正することにより、運転者が車両の周辺の状況を表示装置において広範囲で一見して把握することができる技術を提案した。 In order to solve this problem, the present applicants, in Japanese Patent Application No. 2004-281910, synthesize a captured image captured by a plurality of cameras installed in a vehicle and display it as a single image on a display device. In addition, a technique has been proposed in which a driver can grasp the situation around the vehicle at a glance in a wide range on a display device by correcting a horizontal or vertical shift that occurs between the boundaries of adjacent images.
本出願人らが提案した上記周辺監視システムについて、図13に示すように、車両100が路地から本通りに出る場合を例に挙げて具体的に説明する。図13に示す交差点では、路地に引かれた停止線111の右側に街路樹112がある。路地の本通りを挟んで向かい側には建物113がある。停止線111の左側には横断歩道114があり、人115が横断歩道114を渡っている。交差点の中央部には設置物116がある。運転者は、停止線111の位置で車両100を停止させて左右を確認するときに、運転席が前バンパーより後方の位置に設けられているため、本通りの左右方向を確認しにくい。周辺監視システムを搭載しない車両100では、運転者は、車両100を路地から本通りに少しずつ前進させながら、本通りを走行する車両、自転車、バイクなどに注意を喚起し、本通りの状況を見える位置まで前進してから左右を確認して本通りに合流する。図13に示す交差点では、街路樹112が運転者の図中右方向の視界を遮るため、運転者は、左右方向を確認するために車両100を本通りに前進させる前進量が多くなる。
The above-described periphery monitoring system proposed by the present applicants will be specifically described with reference to an example in which the
この点、本出願人らが提案した周辺監視システムを搭載する車両100であれば、車両100の前バンパーに視野角が一部重複するように設置した2台のカメラで、車両前方の左方向と右方向の状況を撮像し、2枚の撮像画像を水平方向と垂直方向のずれを調整してから合成した合成画像を表示装置に表示するので、車両100を本通りの方に前進させなくても、本通りの左右方向の状況を1枚の画像として把握することができる。このとき、表示装置の画像は、図13に示す設置物116や建物113などが表示された合成画像の合成境界位置がずれずに表示され、運転者に違和感を与えにくい。
In this regard, in the case of the
このとき、レンズや撮像デバイス等の歪みによって生じた撮像画像の変形を補正せずに合成すると、図13に示す状況を撮像して表示装置に表示したときに、図17に示すように、撮影画像の端に映っている人115や道幅などが極端に小さく表示されてしまう。この場合、本通りを自車両に向かって走ってくる車両、自転車、バイクなどを判別しにくい。
At this time, if the deformation of the captured image caused by the distortion of the lens or the imaging device is combined without correction, the situation shown in FIG. 13 is captured and displayed on the display device as shown in FIG. The
これに対して、例えば、図18に示す投影図のように、カメラの光軸Lを対象面に対してθ5度左に向けて撮像した画像を、θ5度右に向けて対象面方向を正面とするような画像に視点変換すると、図19に示すように、撮像画像の端に映っていた撮像対象物の側面を拡大して表示することができる。この視点変換を本出願人らが提案した周辺監視システムに採用した場合、図13に示す状況を2台のカメラで撮像して合成画像を表示装置に表示すると、図20に示すように表示装置の端に映る人115や本通りなどを拡大して表示しうる。
On the other hand, for example, as shown in the projection view of FIG. 18, an image captured with the optical axis L of the camera directed to the left by θ5 degrees with respect to the target surface is directed frontward with the direction of the target surface facing right by θ5 If the viewpoint is converted into an image such as that shown in FIG. 19, the side surface of the imaging object that was shown at the end of the captured image can be enlarged and displayed, as shown in FIG. When this viewpoint conversion is adopted in the periphery monitoring system proposed by the present applicants, when the situation shown in FIG. 13 is captured by two cameras and a composite image is displayed on the display device, the display device is shown in FIG. The
ところが、実際には、撮影画像の端に映っている人115や本通りの画像データが拡散して異常に大きく伸びた画像になり、画像がぼやけて何が映っているか分かりにくかったり、映り込んだ物体が大きく表示されすぎて運転者にとって違和感を生じる。これは、例えば、図21に示すように、光軸Lを車両100の正面から左方向にθ5度移動させたカメラの撮像画像P1は、二次元であるので、車両100の正面を向くように視点変換した画像P2では、撮像画像の端に映っている物体が、画像上で立体物と取り扱われずに正面にある物体と同じ平面上に書かれた絵の如く、カメラが実際より撮像画像の端に映る物体に近づいて撮像したかのような画像になるためと考えられる。周辺監視システムでは、上述したように車両100に対して左右方向から走ってくる自動車、自転車、バイクなどを確認する上で、左右方向の画像を違和感なく表示することが重要であり、左右方向の画像を拡大しすぎて分解能が低下するのは好ましくない。
However, in actuality, the image of the
そこで、本発明は、上記問題点を解決するためになされたものであり、車両の周辺の状況を違和感なく表示手段に表示することができる周辺監視システムを提供することを目的とする。 Therefore, the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a periphery monitoring system that can display a situation around a vehicle on a display unit without a sense of incongruity.
本発明に係る周辺監視システムは、次のような構成を有している。
(1)車両に設置した撮像手段によって車両の周辺の状況を撮像し、その撮像画像を画像処理して表示手段に表示する周辺監視システムにおいて、前記撮像画像を複数の領域に分割し、領域毎に前記撮像手段の仮想視点方向を前記撮像手段の光軸と異なる方向に連続的に移動させて視点変換を行う視点変換手段を有することを特徴とする。
The periphery monitoring system according to the present invention has the following configuration.
(1) In a periphery monitoring system that captures an image of a situation around a vehicle by an image capturing unit installed in the vehicle, performs image processing on the captured image and displays the image on a display unit, the captured image is divided into a plurality of regions, And a viewpoint conversion unit that performs viewpoint conversion by continuously moving the virtual viewpoint direction of the imaging unit in a direction different from the optical axis of the imaging unit.
(2)(1)に記載の発明において、前記撮像画像と前記仮想視点方向との対応関係を記憶する記憶手段を有し、前記視点変換手段は、前記記憶手段に記憶されている前記撮像画像と前記仮想視点方向との対応関係に基づいて視点変換を行うことを特徴とする。
(3)(1)又は(2)に記載の発明において、前記視点変換手段は、前記仮想視点方向を撮像画像の一方から他方に向かって連続的に移動させることを特徴とする。
(4)(1)又は(2)に記載の発明において、前記視点変換手段は、前記撮像画像を視点変換マップに基づき前記仮想視点方向を変化させることを特徴とする。
(2) In the invention described in (1), the camera includes a storage unit that stores a correspondence relationship between the captured image and the virtual viewpoint direction, and the viewpoint conversion unit stores the captured image stored in the storage unit. And viewpoint conversion based on the correspondence between the virtual viewpoint direction and the virtual viewpoint direction.
(3) In the invention described in (1) or (2), the viewpoint conversion unit continuously moves the virtual viewpoint direction from one side of the captured image to the other side.
(4) In the invention described in (1) or (2), the viewpoint conversion unit changes the virtual viewpoint direction of the captured image based on a viewpoint conversion map.
(5)(1)乃至(4)の何れか一つに記載の発明において、前記撮像手段が複数からなり、撮像画像が重複する重複範囲を有する場合、前記重複範囲内で合成境界位置を決定して撮像画像を合成する合成手段を有することを特徴とする。 (5) In the invention according to any one of (1) to (4), when the imaging unit includes a plurality and there are overlapping ranges where the captured images overlap, a composite boundary position is determined within the overlapping range. And combining means for combining the captured images.
上記構成を有する本発明の周辺監視システムは、撮像手段が撮像した撮像画像を複数の領域に分割し、領域毎に撮像手段の仮想視点方向を撮像手段の光軸と複数の異なる方向に連続的に移動させて視点変換を行うことにより、運転者が車両の周辺の状況をそれぞれの方向に正対して見たかのように車両の周辺の状況を表示手段に表示するので、例えば、撮像手段の視点から離れた場所に写っている被写体の画像データが、レンズや撮像デバイスの歪みなどによって表示手段に小さく表示されたり、或いは、視点変換時に拡散してぼやけけたり、むやみに拡大されることがなく、車両の周辺の状況を表示手段に違和感なく表示することができる。 The periphery monitoring system of the present invention having the above configuration divides a captured image captured by the imaging unit into a plurality of regions, and continuously sets the virtual viewpoint direction of the imaging unit in a plurality of different directions from the optical axis of the imaging unit for each region. The viewpoint of the imaging means is displayed on the display means as if the driver saw the situation of the surroundings of the vehicle facing each direction in the display means. The image data of the subject in the place away from the camera will not be displayed small on the display means due to distortion of the lens or imaging device, or will not be diffused and blurred during viewpoint conversion, or will not be enlarged unnecessarily The situation around the vehicle can be displayed on the display means without a sense of incongruity.
また、本発明の周辺監視システムは、撮像画像と仮想視点方向との対応関係を記憶手段に記憶し、分割された領域に映っている画像データの仮想視点方向を撮像画像と仮想視点方向との対応関係にあてはめて移動させるため、視点変換の処理時間を短くすることができる。
また、本発明の周辺監視システムは、仮想視点方向を撮像画像の一方から他方に向かって連続的に移動させることにより、運転者が車両の周囲の状況を一方から他方に向かって視線を移して見たかのような画像として表示手段に表示するので、車両の周辺の状況を1枚の画像として表示手段に違和感なく表示することができる。
また、本発明の周辺監視システムは、撮像画像を視点変換マップに基づき仮想視点方向を変化させるので、少ない計算回数で視点変換することができる。
Further, the periphery monitoring system of the present invention stores a correspondence relationship between the captured image and the virtual viewpoint direction in the storage unit, and determines the virtual viewpoint direction of the image data reflected in the divided area between the captured image and the virtual viewpoint direction. Since the movement is performed in accordance with the correspondence relationship, the processing time for viewpoint conversion can be shortened.
Further, the periphery monitoring system of the present invention continuously moves the virtual viewpoint direction from one side of the captured image to the other side, so that the driver shifts his / her line of sight from one side to the other. Since it is displayed on the display means as an image as if it has been seen, the situation around the vehicle can be displayed as a single image on the display means without any discomfort.
In addition, since the periphery monitoring system of the present invention changes the virtual viewpoint direction based on the viewpoint conversion map, the viewpoint can be converted with a small number of calculations.
また、本発明の周辺監視システムは、撮像手段が複数からなり、撮像画像が重複する重複範囲を有する場合、その重複範囲内で合成境界位置を決定して撮像画像を合成するので、車両の周辺の状況を切れ目なく表示手段に表示することができる。 Further, in the periphery monitoring system according to the present invention, when there are a plurality of imaging units and the overlapped images are overlapped, the combined boundary position is determined within the overlapped range, and the captured images are combined. Can be displayed on the display means without interruption.
次に、本発明に係る周辺監視システムの一実施の形態について図面を参照して説明する。図1は、周辺監視システム1の概略構成図である。
周辺監視システム1は、車両2、第1カメラ(撮像手段)3、第2カメラ(撮像手段)4、ディスプレイ(表示手段)5、周辺監視制御装置(周辺監視ECU)6などで構成されている。
Next, an embodiment of the periphery monitoring system according to the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of the
The
周辺監視システム1は、第1カメラ3と第2カメラ4を用いて車両前方の画像を取得し、第1,第2カメラ3,4が撮像した撮像画像を1つの画像として合成してディスプレイ5に表示する。合成画像の視野角は、人間の静体視野角程度の120〜200度程度であることが望ましい。本実施形態では、視野角120度程度の広角撮影が可能な第1カメラ3と第2カメラ4を、互いの視野角が図1に示す如く重なるように車両前方に装着されたナンバープレートの上中央付近に配置し、広角撮影を行うようにしている。また、第1,第2カメラ3,4は、水平に取り付けると、撮影画像の半分程度が空を撮影したものとなってしまうため、水平からやや下方に向けて、例えば15〜30度程度の俯角をもって配置されている。
The
ディスプレイ5は、車両2の室内のセンターコンソール又はパネル面に備え付けられ、例えば、第1,第2カメラ3,4の撮像画像を合成した合成画像を表示する。ディスプレイ5は、ナビゲーションシステムのものと兼用してもよい。
周辺監視ECU6は、第1,第2カメラ3,4の撮像画像を視点変換して合成し、その合成画像をディスプレイ5に表示させるものである。
The
The
図2は、周辺監視ECU6のブロック図である。
周辺監視ECU6は、映像切替処理手段11、キャプチャ処理手段12、第1キャプチャバッファ13、第2キャプチャバッファ14、座標変換処理手段(視点変換手段)15、表示座標変換テーブル記憶手段(記憶手段)16、表示バッファ17、表示処理手段18を備える。
FIG. 2 is a block diagram of the
The
周辺監視ECU6は、第1,第2カメラ3,4で撮像した画像を映像切替手段11によって所定時間毎に交互に切り替えて、キャプチャ処理手段12に入力する。キャプチャ処理手段12は、第1カメラ3が撮像した画像を第1キャプチャバッファ13に格納する一方、第2カメラ4が撮像した画像を第2キャプチャバッファ14に格納している。つまり、第1,第2カメラ3,4が撮像した画像を区別して認識できるように、別々に格納している。座標変換処理手段15は、第1キャプチャバッファ13と第2キャプチャバッファ14から画像データを読み出して、座標変換テーブル記憶手段16に記憶されている座標変換テーブルの情報に従って視点変換を行い、視点変換後の撮像画像を合成して合成画像を作成する。作成された合成画像は表示バッファ17に入力される。表示処理手段18は、表示バッファ17から合成画像を入力してディスプレイ5に出力し、車両2の周辺の状況を1枚の画像としてディスプレイ5に表示させる。
The
本発明の特徴をなす座標変換処理について具体的に説明する。図2に示す座標変換処理は、第1,第2カメラ3,4の撮像画像について同様の手順で行われる。よって、ここでは、第2カメラ4の撮像画像の座標変換を中心に説明し、第1カメラ3の撮像画像の座標変換については説明を省略する。図3は、図2に示す座標変換処理のイメージ図である。
第2キャプチャバッファ14は、縦方向にm個の画素を配列され、横方向にn個の画素を配列されている。第2キャプチャバッファ14は、車両中央の第2カメラ位置を原点、車両進行方向に対して左右側をX軸、車両進行方向をY軸とする座標系を備える。つまり、第2カメラ4は、車両中央側から右側に向かってX値が増加し、下方(路面)に向かってY値が増加するように座標系を設けられている。第2キャプチャバッファ14に入力された撮像画像は、座標値によって複数の画像データ群に分割される。
The coordinate conversion process that characterizes the present invention will be specifically described. The coordinate conversion process shown in FIG. 2 is performed in the same procedure for the captured images of the first and
The
座標変換テーブルは、座標変換テーブル記憶手段16に記憶されている。座標変換テーブルは、表示バッファ17と同じ幅Wと高さHを有し、撮像画像の画素と表示画像の画素との対応関係を規定している。座標変換処理手段15は、合成画像の値をゼロにして初期化すると、座標変換テーブル上の全座標について、座標変換処理を行う。一例として、座標変換テーブル上の(x2,y2)について説明する。座標変換テーブル(x2,y2)から第2キャプチャバッファX=100,Y=80という情報を取得する。この情報に基づき第2キャプチャバッファのX=100,Y=80の画素を取得し、表示バッファ(x2,y2)にコピーして保持する。この座標変換時に、座標変換処理手段15は、座標変換テーブル記憶手段16に記憶されている撮像画像と第2カメラ4の仮想視点方向との対応関係に基づいて、撮像画像の分割された領域毎に第2カメラ4の仮想視点方向を第2カメラ4の光軸L2と異なる方向に連続的に移動させて視点変換を行う。ここで、「仮想視点方向」とは、カメラの現実の視点方向をカメラの光軸に対して仮想的に移動させる方向をいう。
The coordinate conversion table is stored in the coordinate conversion
図4は、座標変換処理において撮像画像と第2カメラ4の仮想視点方向との対応関係を規定する視点変換マップを示すグラフである。図5は、座標変換テーブルを作成する際の仮想視点方向の一例である。
図4の視点変換マップに示すように、撮像画像と第2カメラ4の仮想視点方向との対応関係は、座標変換テーブル記憶手段16にマップ化され、記憶されている。視点変換マップは、縦軸に仮想視点方向が設定される一方、横軸に撮像画像の左端を原点とする第2バッファ14の画素が設定されている。例えば、図9に示すように、第2カメラ4の視野角R2のうち、合成境界位置Pから第2カメラ4のカメラ光軸L2までの視野角がθ5であり、合成境界位置Pから撮像範囲右端nまでの視野角がαであるとすると、視点変換マップは、図4に示すように、第2カメラ4の撮像画像について、車両中央側になる画像左端から合成境界位置Pまでは仮想視点方向を変換せず、合成境界位置Pから撮像範囲右端nまでの範囲にある画像データについてX座標(又はY座標もしくはXY座標)で分割された領域毎に仮想視点方向を連続的に移動させていく。撮像画像と第2カメラ4の仮想視点方向との対応関係は、グラフ上の直線G1や曲線G2,G3によって規定され、撮像画像をXY座標に基づいて分割した領域ごとにカメラ光軸Lから仮想視点方向を移動させる角度を規定している。これらの直線G1及び曲線G2,G3は、撮像画像上重視する映像の部分によって座標変換処理手段15に適宜選択して利用される。
FIG. 4 is a graph showing a viewpoint conversion map that defines the correspondence between the captured image and the virtual viewpoint direction of the
As shown in the viewpoint conversion map of FIG. 4, the correspondence between the captured image and the virtual viewpoint direction of the
例えば、直線G1は、撮像画像の仮想視点方向を撮像画像の一方から他方に向かって一定の角度変化率をもって連続的に移動させるように、撮像画像と第2カメラ4の仮想視点方向との対応関係を規定している。この対応関係は、第2カメラ4の撮像画像全体を重視する場合に適している。なお、直線G1を撮像画像にあてはめると、図5に示すようになり、第2カメラ4の撮像画像に含まれる画像データ群が撮像画像の画像左端から合成境界位置Pまでは仮想視点方向を変換されず、合成境界位置Pから画像右端に向かってX座標値が1増加する毎に仮想視点方向を0.5度移動させる。
For example, the straight line G1 corresponds to the virtual viewpoint direction of the
また、例えば、図4に示す曲線G2,G3は、撮像画像の仮想視点方向を一方から他方に向かってX座標(又はY座標もしくはXY座標)で分割された領域毎に移動させるときに、角度変化率を変化させるように撮像画像と第2カメラ4の仮想視点方向との対応関係を規定している。すなわち、曲線G2は、合成境界位置P付近においては仮想視点方向の角度変化率が小さく、右カメラ4の撮像範囲右端n付近においては仮想視点方向の角度変化率が大きくなるように、撮像画像と第2カメラ4の仮想視点方向との対応関係を規定している。この対応関係は、第2カメラ4の撮像画像のうち合成境界位置P付近の部分を撮像範囲右端n付近より重視する場合に適している。一方、曲線G3は、合成境界位置P付近においては仮想視点方向の角度変化率が大きく、第2カメラ4の撮像範囲右端n付近においては仮想視点方向の角度変化率が小さくなるように、撮像画像と第2カメラ4の仮想視点方向との対応関係を規定している。この対応関係は、第2カメラ4の撮像画像のうち右端部分を合成境界位置P付近より重視する場合に適している。
Also, for example, the curves G2 and G3 shown in FIG. 4 indicate the angles when moving the virtual viewpoint direction of the captured image from one side to the other for each region divided by the X coordinate (or Y coordinate or XY coordinate). The correspondence relationship between the captured image and the virtual viewpoint direction of the
このように撮像画像中で重視する点を想定して撮像画像と第2カメラ4の仮想視点方向との対応関係をマップ化しておけば、座標変換テーブルを予め複数記憶しておく場合と比べて記憶容量を小さくできる。撮像画像と第2カメラ4の仮想視点方向との対応関係は、周辺監視システム1の起動時に選択して設定される。なお、撮像画像と第2カメラ4の仮想視点方向との対応関係は、例えば、運転者が、ディスプレイ5のタッチパネルなどの操作手段を用いて、車両2の周辺を監視する上で重視する部分を指定するモードを切り替えることにより、任意に選択できるようにしてもよい。また、例えば、方向指示器やステアリングホイールの操蛇角、制動力などを検出し、車両2の走行状態をもとに撮像画像と第2カメラ4の仮想視点方向との対応関係を自動的に選択するようにしてもよい。さらに、予め、重視する部分を決めている場合には、撮像画像と第2カメラ4の仮想視点方向との対応関係を1種類だけ記憶し、記憶容量を小さくしてもよい。
In this way, if the correspondence relationship between the captured image and the virtual viewpoint direction of the
ところで、撮像画像の仮想視点方向は、θ5−α〜θ5度まで段階的にもしくは連続的に変化するように設定される。θ5は、車両進行方向に対してカメラ光軸Lのなす角度であり、左右カメラ映像を合成する境界部となる水平座標Pの仮想視点方向をθ5に設定する。これにより、合成境界位置Pの仮想視点方向が車両の進行方向となり、自然な映像を得ることができる。また、αは、運転者が左右の安全確認をする際に首を振る角度に相当する。本実施形態では、一例として、θ5を45度、αを60度に設定している。 By the way, the virtual viewpoint direction of the captured image is set to change stepwise or continuously from θ5-α to θ5 degrees. θ5 is an angle formed by the camera optical axis L with respect to the vehicle traveling direction, and the virtual viewpoint direction of the horizontal coordinate P serving as a boundary portion for combining the left and right camera images is set to θ5. Thereby, the virtual viewpoint direction of the synthetic | combination boundary position P becomes the advancing direction of a vehicle, and a natural image | video can be obtained. Further, α corresponds to an angle at which the driver swings his / her head when checking the left and right safety. In the present embodiment, as an example, θ5 is set to 45 degrees and α is set to 60 degrees.
次に、周辺監視システム1の動作について具体的に説明する。第1,第2カメラ3,4の撮像画像の処理は、同様である。ここでは、日本国内の道路が右側通行であることを鑑みて、車両右方向の状況を撮像する第2カメラ4の撮像画像の処理を中心に説明し、第1カメラ3の撮像画像の処理については適宜説明を省略する。
Next, the operation of the
図6は、第1カメラ3と第2カメラ4の撮像範囲を示す説明図である。
図6に示す交差点は、本通り21に路地22が接続するT字路である。壁23は、本通り21に沿って建設されている。路地22の両側には、歩道24,25が設けられ、歩道24に電柱26が立っている。路地22から本通り21に出ようとしている車両2は、第1,第2カメラ3,4が光軸L1,L2を異なる方向に向けて設置されており、第1カメラ3が車両左方向を撮像し、第2カメラ4が車両右方向を撮像する。
FIG. 6 is an explanatory diagram showing the imaging range of the
The intersection shown in FIG. 6 is a T-junction where the
図7は、図6に示す第1カメラ3の撮像画像を示す図であり、図8は、図6に示す第2カメラ4の撮像画像を示す図である。
図7に示すように、第1カメラ3の撮像画像には、本通り21と壁23の略左半分、及び、車両2の左側にある歩道24、電柱26が映っている。一方、図8に示すように、第2カメラ4の撮像画像には、本通り21と壁23の略右半分、及び、路地22の右側にある歩道25が映っている。第2カメラ4の撮像画像では、本通り21が右方向に行くに従って狭くなり、画像右端の道幅がw1になっている。道幅の縮小に伴って、歩道25がθ2度右上がりに映っている。この状態では、画像右端において本通り21が小さく表示され、右方向から自車両2に向かって走行してくる車両、自転車、バイクなどを判別しにくい。
FIG. 7 is a diagram illustrating a captured image of the
As shown in FIG. 7, the captured image of the
図9は、視点変換のイメージ図である。
そこで、第2カメラ4の視点を、車両2の正面A(0)から所定角度ずつ右方向に移動させて車両2の前方右方向を撮像したと仮想した画像処理を行う。
FIG. 9 is an image diagram of viewpoint conversion.
Therefore, the virtual camera performs image processing assuming that the viewpoint of the
図10は、第1カメラ3と第2カメラ4の視点を車両2の正面(A(0))だけにむけるように視点変換したときのイメージ図である。
第2カメラ4の視点を車両2の正面A(0)だけに向けるように視点変換すると、発明が解決しようとする課題の欄で説明したのと同様の原理により、図8に示す撮像画像の右端に映っていた本通り21の道幅w1が、図10に示すように道幅w2に拡大して表示される。このとき同時に、歩道25も画像右端に行くほど拡大表示される。そのため、本通り21と歩道25の境界が、θ3度右上がりに傾く。θ3度は、θ2度より角度が大きい。従って、図10に示す画像は、運転者が車両2の正面A(0)を向いたままの視点で、図8に示す画像の右端に映っている本通り21や歩道25をそのまま拡大したに過ぎず、現実味に乏しい。
FIG. 10 is an image diagram when the viewpoints of the
When the viewpoint is changed so that the viewpoint of the
すなわち、運転者は、一般的に、本通り21の左右方向に顔を向けて車両2の左右方向から自車両2に向かって車両、自転車、バイクなどが走ってこないか確認するが、このとき、本通り21の道幅が遠近差によって右方向に縮小する縮小率は、運転者の顔が正面A(0)に向いている場合より、運転者の顔が右方向に向いている場合の方が小さくなるはずである。従って、本通り21と歩道25の境界が右上がりに傾く角度θ3は、図8に示す角度θ2より小さくなるべきである。それにもかかわらず、図10に示す画像では、本通り21と歩道25の境界が右上がりに傾く角度θ3が図8に示す角度θ2より大きくなり、運転者が現実に左右方向を確認する際に見える状況とディスプレイ5に表示される画像との間に違和感が生じる。しかも、図10に示す画像は、右端の本通り21や歩道25が大きく表示されすぎてぼやけ、この点からも、右方向から自車両2に近づいてくる車両、自転車、バイクなどを確認しにくい。周辺監視システム1が運転者の左右確認を補助するということを鑑みると、運転者が左右方向を確認するときに見える状況に近い画像をディスプレイ5に表示するのが望ましい。
That is, the driver generally checks whether a vehicle, a bicycle, a motorcycle, or the like is running from the left-right direction of the
そこで、図9に示すように、例えば第2カメラ4の撮像画像に含まれる画像データを、図4に示す直線G1が規定する撮像画像と第2カメラ4の仮想視点方向との対応関係に従って撮像画像のXY座標で分割された領域毎に仮想視点方向を移動させていくと、運転者が正面A(0)から右方向に顔の向きを変えて被写体を見たかのように、画像データの向きが連続的に変えられる。そのため、ディスプレイ5の右端に表示される画像は、あたかも運転者が顔を右に向けて見たかのような画像になる。
Therefore, as shown in FIG. 9, for example, image data included in the captured image of the
図11は、視点変換した第1カメラ3と第2カメラ4の画像を示す図である。
第2カメラ4の撮像画像は、視点変換された結果、右端に映っている本通り21の道幅w3が、図8の道幅w1より大きく、図10に示す道幅w2より小さく表示される。そして、本通り21と歩道25の境界は、θ4度右上がりに表示される。本通り21と歩道25の境界が右上がりに傾く角度θ4は、図8に示す角度θ2より小さく、道幅w3は、単に図8に示す道幅w1を拡大したものではなく、視点を右方向に向けることにより拡大されたことが分かる。
FIG. 11 is a diagram showing images of the
As a result of the viewpoint conversion, the captured image of the
なお、第1カメラ3も、第2カメラ4と同じタイミングで撮像した画像に対して同様の処理が施される。そのため、第2カメラ3の画像も、本通り21の左端が、図7に比べて大きく表示される。図11に示す電柱26は、図8及び図10に示す電柱26と比べて図中斜め左下方向に傾いており、第2カメラ3の撮像画像が、運転者が正面A(0)から左方向に顔を向けて見たかのように視点変換され、左端部分を拡大されていることが分かる。
Note that the
このように画像処理された第1,第2カメラ3,4の画像は、図6に示すように、第1,第2カメラ3,4の撮像範囲の重複範囲S1内で合成境界位置Pを決定される。死角を生じることなく、第1,第2カメラ3,4の画像をつなげて表示するためである。本実施形態では、車両2の正面A(0)を合成境界位置Pに決定している。合成境界位置Pの仮想視点方向を車両進行方向に合わせるとともに、表示画像の左右均一な領域で第1,第2カメラ3,4の撮像画像を使用し、撮像画像と第2カメラ4の仮想視点方向との対応関係を規定する視点変換マップを共用して第1,第2カメラ3,4の画像処理を行うためである。このように、視点変換マップを共用するようにすれば、記憶容量を小さくできる利点がある。
As shown in FIG. 6, the images of the first and
図12は、第1カメラと第2カメラの画像を合成した合成画像を示す図である。
画像処理した第1,第2カメラ3,4の画像を合成境界位置Pで合成すると、車両2の前方左右方向の画像が1枚で表示される。この表示画像は、運転者が左右方向を視線を向けて左右を確認する際に見える状況に近いため、運転者は違和感なく本通り21の左右方向の状況を確認することができる。また、表示画像右端部分の本通り21は、図8に示す場合より大きく表示されるものの、図10に示す場合のように画像データが拡散してぼやけたり、むやみに大きく表示されることがない。よって、運転者は、路地22から本通り21に出るときに左右方向を直接見て確認しにくい場合であっても、ディスプレイ5の表示内容を見れば、左右方向から車両、自転車、バイクなどが自車両2に向かって走ってくるか否かを認識しやすい。
FIG. 12 is a diagram illustrating a combined image obtained by combining the images of the first camera and the second camera.
When the images of the first and
従って、本実施形態の周辺監視システム1によれば、第1,第2カメラ3,4が撮像した撮像画像を複数の領域に分割し、領域毎に第1,第2カメラ3,4の仮想視点方向を異なる方向に連続的に移動させて視点変換を行うことにより、運転者が車両2の前方左右方向をそれぞれ正対して見たかのように車両2の前方左右方向をディスプレイ5に表示するので(図9、図11、図12参照)、例えば、第1,第2カメラ3,4の視点から離れた場所に写っている被写体の画像データが、レンズや撮像デバイスの歪みなどによってディスプレイ5に小さく表示されたり、或いは、視点変換時に拡散してぼやけけたり、むやみに拡大されることがなく、車両2の前方左右方向をディスプレイ5に違和感なく表示することができる。すなわち、周辺監視システム1を用いて図13に示す車両2の周辺の状況を監視した場合には、図14に示すように、表示画像の端部分に映り込んだ横断歩道114を渡る人115や街路樹112を、運転者が正面から右方向に顔を向けて見たかのような大きさや形、方向で一画面に適切に表示することが可能である。特に、街路樹112が、図17及び図20に示すように本通りの右方向を隠さないため、運転者は、本通り右方向の状況を広い範囲で確認し、自車両100に近づいてくる車両、自転車、バイク等の存在を違和感なく把握することができる。
Therefore, according to the
また、本実施形態の周辺監視システム1は、予め、図4に示す撮像画像と第2カメラ4の仮想視点方向との対応関係を座標変換テーブル記憶手段16に記憶しておき、XY座標で分割された領域に含まれる画像データの仮想視点方向を撮像画像と第2カメラ4の仮想視点方向との対応関係に当てはめて移動させるため(図9、図11参照)、視点変換の処理時間を短くすることができる。
また、本実施形態の周辺監視システム1は、例えば、第2カメラ4の画像データの仮想視点方向を第1カメラ3が撮像した撮像画像との合成境界位置Pから右端nに向かって連続的に移動させることにより(図4の直線G1,G2,G3参照)、運転者が車両2の前方右方向の状況を車両2の正面A(0)から右方向に向かって連続的に視線を移して見たかのような画像としてディスプレイ5に表示するので(図9、図11参照)、車両2の前方左右方向の状況を1枚の画像としてディスプレイ5に違和感なく表示できる。
また、本実施形態の周辺監視システム1は、撮像画像を視点変換マップ(図4参照)に基づき仮想視点方向を変化させるので、少ない計算回数で視点変換することができる。
In addition, the
In addition, the
Moreover, since the
また、本実施形態の周辺監視システム1は、第1カメラ3と第2カメラ4が撮像した撮像画像の重複範囲S1内で合成境界位置Pを決定して撮像画像を合成するので、車両前方状況を切れ目なくディスプレイ5に表示することができる(図12参照)。
Moreover, since the
尚、本発明の実施の形態について説明したが、本発明は、上記実施の形態に限定されことなく、色々な応用が可能である。 Although the embodiments of the present invention have been described, the present invention is not limited to the above-described embodiments, and various applications are possible.
(1)例えば、上記実施の形態では、周辺監視システム1が車両2の前側バンパーに第1,第2カメラ3,4を設置しているが、1個又は複数のカメラを設置してもよい。すなわち、例えば、前側バンパーに1個だけ広角カメラを設置したり、前側バンパーに第1,第2カメラ3,4の他にバンパー下方を映す第3のカメラを設置したり、後側バンパーに1個又は複数のカメラを設置したり、車両2の片側に1台又は複数のカメラを設置する場合でも、撮像画像の仮想視点方向を連続的に移動させることにより、車両2の前方や後方、側方の状況をディスプレイ5に違和感なく表示することが可能である。そして、車両2の前後左右に設けたカメラの撮像画像をそれぞれ仮想視点方向を移動させて合成画像を作成し、ディスプレイ5上に1枚で表示するようにすれば、運転者が車両2の周辺の状況を広範囲で確認することができ、縦列駐車時や並列駐車時等における利便性が向上する。
(1) For example, in the above-described embodiment, the
(2)例えば、上記実施の形態では、第1,第2カメラ3,4の撮像画像を重複範囲S1を除いて使用したが、表示処理手段18が表示バッファ17に保持される合成画像の中から必要な部分の画像データを切り出してディスプレイ5に出力するようにしてもよい。この場合、例えば、運転者がディスプレイ5のタッチパネルなどの操作手段で見たい領域を移動させたときに、表示処理手段18が移動した領域に該当する画像データを表示バッファ17から適宜入力してディスプレイ5に出力するようにすれば、運転者の要求に応じて車両2の周辺の状況を違和感なくディスプレイ5に表示することが可能である。
(2) For example, in the above-described embodiment, the captured images of the first and
1 周辺監視システム
2 車両
3 第1カメラ(撮像手段)
4 第2カメラ(撮像手段)
5 ディスプレイ(表示手段)
15 座標変換処理手段(視点変換手段)
16 座標変換テーブル記憶手段(記憶手段)
DESCRIPTION OF
4 Second camera (imaging means)
5 Display (display means)
15 Coordinate conversion processing means (viewpoint conversion means)
16 Coordinate conversion table storage means (storage means)
Claims (7)
前記撮像画像を複数の領域に分割し、領域毎に前記撮像手段の仮想視点方向を前記撮像手段の光軸と異なる方向に連続的に移動させて視点変換を行うことにより、運転者が前記車両の周辺の状況をそれぞれの方向に正対して見られる視点変換手段を有すること、
視点変換した前記領域を、左右方向に並べて合成画像を作成する領域合成手段を有すること、
前記視点変換手段は、前記仮想視点方向を前記撮像画像の一方から他方に向かって、変化する角度変化率をもって連続的に移動させること、
前記撮像画像と前記撮像手段の前記仮想視点方向との対応関係を規定する視点変換マップを有すること、
前記視点変換マップは、縦軸に前記仮想視点方向が設定され、横軸に処理された前記撮影画像のデータの画素が設定されること、
前記変化する角度変化率は、前記視点変換マップにおいて規定されるものであること、
を特徴とする周辺監視システム。 In a periphery monitoring system that captures an image of a situation around a vehicle by an image capturing unit installed in the vehicle, displays the captured image on a display unit after image processing,
The driver divides the captured image into a plurality of regions and performs viewpoint conversion by continuously moving the virtual viewpoint direction of the imaging unit in a direction different from the optical axis of the imaging unit for each region , thereby allowing the driver to perform the viewpoint conversion. to have a viewpoint conversion unit seen directly opposite in each direction around the situation of,
Having an area composition means for creating a composite image by arranging the areas subjected to viewpoint conversion in the horizontal direction;
The viewpoint conversion means continuously moves the virtual viewpoint direction from one of the captured images to the other with a changing rate of angle change;
Having a viewpoint conversion map that defines the correspondence between the captured image and the virtual viewpoint direction of the imaging means;
In the viewpoint conversion map, the virtual viewpoint direction is set on the vertical axis, and the processed image data pixels are set on the horizontal axis.
The changing angle change rate is defined in the viewpoint conversion map;
Perimeter monitoring system characterized by
前記撮像画像の一方は、前記車両の進行方向であることを特徴とする周辺監視システム。 In the periphery monitoring system according to claim 1,
One of the captured images is a traveling direction of the vehicle .
前記撮像画像の他方は、前記車両の進行方向に対して、運転者が左右の安全確認をする際に首を振る角度に相当することを特徴とする周辺監視システム。 In surroundings monitoring system according to 請 Motomeko 2,
The other of the captured images corresponds to an angle at which the driver swings his / her head when checking the left and right safety with respect to the traveling direction of the vehicle .
前記変化する角度変化率は、前記撮像画像の一方付近においては前記仮想視点方向の前記角度変化率が小さく、前記撮像画像の他方付近においては前記仮想視点方向の前記角度変化率が大きくなるように変化すること、または、前記撮像画像の一方付近においては前記仮想視点方向の前記角度変化率が大きく、前記撮像画像の他方付近においては前記仮想視点方向の前記角度変化率が小さくなるように変化することを特徴とする周辺監視システム。 In surroundings monitoring system according to any one of claims 1 to 3,
The changing angle change rate is such that the angle change rate in the virtual viewpoint direction is small near one side of the captured image, and the angle change rate in the virtual viewpoint direction is large near the other side of the captured image. Or the angle change rate in the virtual viewpoint direction is large near one side of the captured image, and the angle change rate in the virtual viewpoint direction is small near the other side of the captured image. Perimeter monitoring system characterized by that.
前記撮像画像と前記仮想視点方向との対応関係を記憶する記憶手段を有し、
前記視点変換手段は、前記記憶手段に記憶されている前記撮像画像と前記仮想視点方向との対応関係に基づいて視点変換を行うことを特徴とする周辺監視システム。 In the periphery monitoring system according to any one of claims 1 to 4 ,
Storage means for storing a correspondence relationship between the captured image and the virtual viewpoint direction;
The periphery monitoring system, wherein the viewpoint conversion unit performs viewpoint conversion based on a correspondence relationship between the captured image stored in the storage unit and the virtual viewpoint direction.
前記視点変換手段は、
前記撮像画像を前記視点変換マップに基づき前記仮想視点方向を変化させることを特徴とする周辺監視システム。 In the periphery monitoring system according to any one of claims 1 to 5 ,
The viewpoint conversion means includes
Environment monitoring system characterized by varying the virtual viewpoint direction based the captured image to the viewpoint conversion map.
前記撮像手段が複数からなり、撮像画像が重複する重複範囲を有する場合、前記重複範囲内で合成境界位置を決定して撮像画像を合成する合成手段を有することを特徴とする周辺監視システム。 In the periphery monitoring system according to any one of claims 1 to 6 ,
A peripheral monitoring system, comprising: a plurality of imaging means, and a synthesis means for determining a synthesis boundary position within the overlapping range and synthesizing the captured images when the imaging images have overlapping ranges.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095348A JP4682664B2 (en) | 2005-03-29 | 2005-03-29 | Perimeter monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095348A JP4682664B2 (en) | 2005-03-29 | 2005-03-29 | Perimeter monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006279511A JP2006279511A (en) | 2006-10-12 |
JP4682664B2 true JP4682664B2 (en) | 2011-05-11 |
Family
ID=37213790
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005095348A Expired - Fee Related JP4682664B2 (en) | 2005-03-29 | 2005-03-29 | Perimeter monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4682664B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2285109B1 (en) | 2008-05-29 | 2018-11-28 | Fujitsu Limited | Vehicle image processor, and vehicle image processing system |
JP2010274813A (en) | 2009-05-29 | 2010-12-09 | Fujitsu Ten Ltd | Image generation device and image display system |
US8988525B2 (en) * | 2009-08-27 | 2015-03-24 | Robert Bosch Gmbh | System and method for providing guidance information to a driver of a vehicle |
JP5251804B2 (en) * | 2009-09-18 | 2013-07-31 | 三菱自動車工業株式会社 | Driving assistance device |
JP5451497B2 (en) * | 2010-04-08 | 2014-03-26 | パナソニック株式会社 | Driving support display device |
JP2020160334A (en) * | 2019-03-27 | 2020-10-01 | 株式会社コムテック | Imaging apparatus and imaging system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056683A (en) * | 2002-07-23 | 2004-02-19 | Sumitomo Electric Ind Ltd | Image conversion system, image processing apparatus, and image conversion method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0399952A (en) * | 1989-09-12 | 1991-04-25 | Nissan Motor Co Ltd | Surrounding situation monitor for vehicle |
JP3446277B2 (en) * | 1993-12-24 | 2003-09-16 | 日産自動車株式会社 | Ambient situation display device for vehicles |
-
2005
- 2005-03-29 JP JP2005095348A patent/JP4682664B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004056683A (en) * | 2002-07-23 | 2004-02-19 | Sumitomo Electric Ind Ltd | Image conversion system, image processing apparatus, and image conversion method |
Also Published As
Publication number | Publication date |
---|---|
JP2006279511A (en) | 2006-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4786076B2 (en) | Driving support display device | |
JP5320970B2 (en) | Vehicle display device and display method | |
JP5035643B2 (en) | Image display device | |
JP5715778B2 (en) | Image display device for vehicle | |
JP4560716B2 (en) | Vehicle periphery monitoring system | |
WO2011118125A1 (en) | Device for supporting driving of a vehicle | |
JP5669791B2 (en) | Moving object peripheral image display device | |
JP4248570B2 (en) | Image processing apparatus and visibility support apparatus and method | |
JP5209578B2 (en) | Image display device for vehicle | |
KR20020033816A (en) | Monitoring system | |
JP2005223524A (en) | Supervisory apparatus for surrounding of vehicle | |
JP2012147149A (en) | Image generating apparatus | |
JP2014041398A (en) | Image generation device, image display system, and image generation method | |
JP5760999B2 (en) | Image processing apparatus and image processing method | |
US11601621B2 (en) | Vehicular display system | |
JP5020621B2 (en) | Driving assistance device | |
JP2007237785A (en) | In-vehicle information presentation system | |
JP5213578B2 (en) | Driving assistance device | |
JP2010208359A (en) | Display device for vehicle | |
JP2018144554A (en) | Head-up display device for vehicle | |
JP4682664B2 (en) | Perimeter monitoring system | |
JP6258000B2 (en) | Image display system, image display method, and program | |
JP4860835B2 (en) | Panorama image display method and panorama image display apparatus | |
JP5226621B2 (en) | Image display device for vehicle | |
JP7429865B2 (en) | Display control device, vehicle and display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110124 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4682664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |