[go: up one dir, main page]

JP2010250640A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2010250640A
JP2010250640A JP2009100552A JP2009100552A JP2010250640A JP 2010250640 A JP2010250640 A JP 2010250640A JP 2009100552 A JP2009100552 A JP 2009100552A JP 2009100552 A JP2009100552 A JP 2009100552A JP 2010250640 A JP2010250640 A JP 2010250640A
Authority
JP
Japan
Prior art keywords
image
bird
images
bev
obj
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009100552A
Other languages
Japanese (ja)
Inventor
Ryohei Yamamoto
亮平 山本
Nagateru Yo
長輝 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009100552A priority Critical patent/JP2010250640A/en
Priority to PCT/JP2010/053389 priority patent/WO2010119734A1/en
Publication of JP2010250640A publication Critical patent/JP2010250640A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device capable of improving visibility of a three-dimensional object. <P>SOLUTION: When cameras C_3 and C_4 out of cameras C_1 to C_4 are noticed, the cameras C_3 and C_4 capture a road surface from diagonally upward so as to partially have a common visual field VW_34. A CPU loads field images P_3 and P_4 output from the cameras C_3 and C_4 respectively, converts the loaded field images P_3 and P_4 into bird's eye view images BEV_3 and BEV_4 respectively, and combines the converted bird's eye view images BEV_3 and BEV_4 together while referring to a border line allocated to the common visual field VW_34. When a three-dimensional object is present in the common visual field VW_34, the CPU detects a size difference between three-dimensional images respectively appearing in the respective bird's eye view images BEV_3 and BEV_4 and adjusts the setting of the border line by referring to the detected difference. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、画像処理装置に関し、特に、共通視野を部分的に有するように基準面を斜め方向から捉える複数のカメラの各々から出力された被写界像を鳥瞰画像に変換する、画像処理装置に関する。   The present invention relates to an image processing apparatus, and in particular, an image processing apparatus that converts a scene image output from each of a plurality of cameras that capture a reference plane from an oblique direction so as to partially have a common visual field into a bird's-eye view image. About.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、4つのカメラは、隣り合う2つのカメラの視野が部分的に重複するように車両に搭載される。車両の周囲はこのようなカメラによって捉えられ、各々のカメラから出力された被写界像は鳥瞰画像に変換される。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the four cameras are mounted on the vehicle so that the fields of view of the two adjacent cameras partially overlap. The surroundings of the vehicle are captured by such a camera, and the object scene image output from each camera is converted into a bird's-eye view image.

変換された鳥瞰画像のうち重複視野に対応する部分画像上には、境界線が割り当てられる。4つのカメラにそれぞれ対応する4つの鳥瞰画像は、このような境界線を参照したトリミング処理を経て、互いに合成される。ただし、重複視野から障害物つまり立体物が検出された場合、境界線の位置は立体物画像を回避するように変更される。これによって、立体物画像の品質が維持される。   A boundary line is assigned to the partial image corresponding to the overlapping visual field in the converted bird's-eye view image. The four bird's-eye images respectively corresponding to the four cameras are combined with each other through the trimming process referring to such a boundary line. However, when an obstacle, that is, a three-dimensional object is detected from the overlapping visual field, the position of the boundary line is changed so as to avoid the three-dimensional object image. Thereby, the quality of the three-dimensional object image is maintained.

特開2007−104373号公報JP 2007-104373 A

しかし、鳥瞰画像は路面を基準に作成されるため、鳥瞰画像における立体物の再現性は、カメラと立体物との間の高さの相違やカメラから立体物までの距離などに起因して変動する。背景技術では、このような特性を考慮して境界線の位置が制御されることはなく、立体物の視認性に限界がある。   However, since the bird's-eye view image is created based on the road surface, the reproducibility of the three-dimensional object in the bird's-eye view image varies due to the difference in height between the camera and the three-dimensional object, the distance from the camera to the three-dimensional object, etc. To do. In the background art, the position of the boundary line is not controlled in consideration of such characteristics, and the visibility of the three-dimensional object is limited.

それゆえに、この発明の主たる目的は、立体物の視認性を向上させることができる、画像処理装置を提供することである。   Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving the visibility of a three-dimensional object.

この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、共通視野を部分的に有するように基準面を斜め上から捉える複数のカメラ(C_3, C_4)からそれぞれ出力された複数の被写界像を取り込む取り込み手段(S1)、取り込み手段によって取り込まれた複数の被写界像を基準面を真上から捉えた状態を表す複数の鳥瞰画像にそれぞれ変換する変換手段(S3)、変換手段によって変換された複数の鳥瞰画像を共通視野に割り当てられた重みを参照して合成する合成手段(S7)、共通視野に立体物が存在するとき変換手段によって変換された複数の鳥瞰画像にそれぞれ現れた複数の立体物画像の間の大きさの相違を検出する第1検出手段(S35)、および第1検出手段によって検出された相違を参照して重みを調整する第1調整手段(S41, S43, S61)を備える。   The image processing apparatus according to the present invention (10: reference numerals corresponding to the embodiments; the same applies hereinafter) is respectively output from a plurality of cameras (C_3, C_4) that capture the reference plane obliquely from above so as to partially have a common visual field. Capture means (S1) for capturing a plurality of object scene images, and conversion means for converting the plurality of object scene images captured by the capture means into a plurality of bird's-eye images representing a state where the reference plane is captured from directly above ( S3), a combining means (S7) for combining a plurality of bird's-eye images converted by the converting means with reference to the weight assigned to the common visual field, and a plurality of images converted by the converting means when a three-dimensional object exists in the common visual field. First detection means (S35) for detecting a difference in size between a plurality of three-dimensional object images respectively appearing in the bird's-eye view image, and a first adjustment for adjusting the weight with reference to the difference detected by the first detection means Provide means (S41, S43, S61) Yeah.

好ましくは、第1調整手段はより大きな立体物画像が再現されるように重みを調整する。   Preferably, the first adjustment unit adjusts the weight so that a larger three-dimensional object image is reproduced.

好ましくは、第1検出手段の検出処理に関連して立体物の動き量を検出する第2検出手段(S45)、第2検出手段によって検出された動き量を参照して重みを調整する第2調整手段(S47~S55, S61)、および第1検出手段によって検出された相違が基準を下回るとき第1調整手段に代えて第2調整手段を起動する制御手段(S37, S39)がさらに備えられる。   Preferably, second detection means (S45) for detecting the movement amount of the three-dimensional object in relation to the detection processing of the first detection means, and second adjustment for adjusting the weight with reference to the movement amount detected by the second detection means. The adjusting means (S47 to S55, S61) and control means (S37, S39) for starting the second adjusting means instead of the first adjusting means when the difference detected by the first detecting means falls below the reference are further provided. .

さらに好ましくは、第2調整手段は立体物の移動方向に存在するカメラの立体物画像が再現されるように重みを調整する。   More preferably, the second adjusting means adjusts the weight so that the three-dimensional object image of the camera existing in the moving direction of the three-dimensional object is reproduced.

好ましくは、重みは共通視野に定義される境界線をパラメータとして含み、合成手段は、境界線よりも外方の部分画像を複数の鳥瞰画像の各々から削除する削除手段(S73)、および削除手段の削除処理の後に残った複数の部分鳥瞰画像を互いに結合する結合手段(S79)を含む。   Preferably, the weight includes a boundary line defined in the common visual field as a parameter, and the synthesis unit deletes the partial image outside the boundary line from each of the plurality of bird's-eye images (S73), and the deletion unit A combination unit (S79) for combining the plurality of partial bird's-eye images remaining after the deletion process.

好ましくは、複数のカメラは移動体に設けられ、合成手段によって作成された合成鳥瞰画像を移動体の操縦者に向けて表示する表示手段(16)がさらに備えられる。   Preferably, the plurality of cameras are provided on the moving body, and further include display means (16) for displaying the synthesized bird's-eye view image created by the synthesizing means toward the operator of the moving body.

この発明によれば、複数の鳥瞰画像を合成するときに参照される重みは、立体物画像の大きさのカメラ間での相違に注目して調整される。これによって、立体物の視認性を向上させることができる。   According to the present invention, the weight referred to when combining a plurality of bird's-eye images is adjusted by paying attention to the difference between the cameras in the size of the three-dimensional object image. Thereby, the visibility of a three-dimensional object can be improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 車両に取り付けられた複数のカメラによって捉えられる視野を示す図解図である。It is an illustration figure which shows the visual field captured by the some camera attached to the vehicle. (A)は前カメラの出力に基づく鳥瞰図画像の一例を示す図解図であり、(B)は右カメラの出力に基づく鳥瞰図画像の一例を示す図解図であり、(C)は左カメラの出力に基づく鳥瞰図画像の一例を示す図解図であり、(D)は後カメラの出力に基づく鳥瞰図画像の一例を示す図解図である。(A) is an illustrative view showing an example of a bird's eye view image based on the output of the previous camera, (B) is an illustrative view showing an example of a bird's eye view image based on the output of the right camera, and (C) is an output of the left camera. It is an illustration figure which shows an example of the bird's-eye view image based on (D), and (D) is an illustration figure which shows an example of the bird's-eye view image based on the output of a back camera. 全周鳥瞰図画像の作成動作の一部を示す図解図である。It is an illustration figure which shows a part of creation operation of an all-around bird's-eye view image. 作成された全周鳥瞰図画像の一例を示す図解図である。It is an illustration figure which shows an example of the created all-around bird's-eye view image. 表示装置によって表示される運転支援画像の一例を示す図解図である。It is an illustration figure which shows an example of the driving assistance image displayed by a display apparatus. 車両に取り付けられたカメラの角度を示す図解図である。It is an illustration figure which shows the angle of the camera attached to the vehicle. カメラ座標系と撮像面の座標系と世界座標系との関係を示す図解図である。It is an illustration figure which shows the relationship between a camera coordinate system, the coordinate system of an imaging surface, and a world coordinate system. 車両とその周辺に存在する障害物の一例を示す図解図である。It is an illustration figure which shows an example of the obstruction which exists in a vehicle and its periphery. 運転支援画像の作成動作の他の一部を示す図解図である。FIG. 10 is an illustrative view showing another portion of the operation of creating the driving assistance image. 障害物画像を再現する動作の一例を示す図解図である。It is an illustration figure which shows an example of the operation | movement which reproduces an obstacle image. 障害物画像の再現する動作の他の一例を示す図解図である。It is an illustration figure which shows another example of the operation | movement which reproduces an obstacle image. 障害物画像の再現する動作のその他の一例を示す図解図である。It is an illustration figure which shows another example of the operation | movement which reproduces an obstacle image. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2;

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この発明の画像処理装置は、基本的に次のように構成される。取り込み手段2は、共通視野を部分的に有するように基準面を斜め上から捉える複数のカメラ1,1,…からそれぞれ出力された複数の被写界像を取り込む。変換手段3は、取り込み手段2によって取り込まれた複数の被写界像を、基準面を真上から捉えた状態を表す複数の鳥瞰画像にそれぞれ変換する。合成手段4は、変換手段3によって変換された複数の鳥瞰画像を、共通視野に割り当てられた重みを参照して合成する。第1検出手段5は、共通視野に立体物が存在するとき、変換手段3によって変換された複数の鳥瞰画像にそれぞれ現れた複数の立体物画像の間の大きさの相違を検出する。第1調整手段6は、第1検出手段によって検出された相違を参照して重みを調整する。   Referring to FIG. 1, the image processing apparatus of the present invention is basically configured as follows. The capturing means 2 captures a plurality of object scene images respectively output from a plurality of cameras 1, 1,... Capturing the reference plane obliquely from above so as to partially have a common visual field. The converting unit 3 converts the plurality of scene images captured by the capturing unit 2 into a plurality of bird's-eye images representing a state where the reference plane is captured from directly above. The synthesizing unit 4 synthesizes the plurality of bird's-eye images converted by the converting unit 3 with reference to the weight assigned to the common visual field. The first detection unit 5 detects a difference in size between the plurality of three-dimensional object images respectively appearing in the plurality of bird's-eye images converted by the conversion unit 3 when a three-dimensional object exists in the common visual field. The first adjusting unit 6 adjusts the weight with reference to the difference detected by the first detecting unit.

鳥瞰画像に現れる立体物画像の大きさは、基準面からの立体物の高さやカメラ1と立体物との間の高さの差分に応じて異なる。複数の鳥瞰画像を合成するときに参照される重みは、このような立体物画像の大きさのカメラ1間での相違に注目して調整される。これによって、立体物の視認性を向上させることができる。
[実施例]
The size of the three-dimensional object image that appears in the bird's-eye view image differs depending on the height of the three-dimensional object from the reference plane and the height difference between the camera 1 and the three-dimensional object. The weight referred to when combining a plurality of bird's-eye images is adjusted by paying attention to the difference between the cameras 1 in the size of such a three-dimensional object image. Thereby, the visibility of a three-dimensional object can be improved.
[Example]

図2に示すこの実施例の操縦支援装置10は、4個のカメラC_1〜C_4を含む。カメラC_1〜C_4はそれぞれ、共通のタイミング信号に同期して被写界像P_1〜P_4を1/30秒毎に出力する。出力された被写界像P_1〜P_4は、画像処理回路12に与えられる。   The steering assistance device 10 of this embodiment shown in FIG. 2 includes four cameras C_1 to C_4. The cameras C_1 to C_4 output the scene images P_1 to P_4 every 1/30 seconds in synchronization with the common timing signal. The output scene images P_1 to P_4 are given to the image processing circuit 12.

図3を参照して、カメラC_1は、カメラC_1の光軸が車両100の前方斜め下向きに延びる姿勢で、車両100の前部中央に設置される。カメラC_2は、カメラC_2の光軸が車両100の右方斜め下向きに延びる姿勢で、車両100の右側上部に設置される。カメラC_3は、カメラC_3の光軸が車両100の後方斜め下向きに延びる姿勢で、車両100の後部中央に設置される。カメラC_4は、カメラC_4の光軸が車両100の左方斜め下向きに延びる姿勢で、車両100の左側上部に設置される。車両100の周辺の被写界は、このようなカメラC_1〜C_4によって路面に斜め方向に交差する方向から捉えられる。   Referring to FIG. 3, camera C_1 is installed at the center of the front portion of vehicle 100 with the optical axis of camera C_1 extending obliquely downward in front of vehicle 100. The camera C_2 is installed on the upper right side of the vehicle 100 in a posture in which the optical axis of the camera C_2 extends obliquely downward to the right of the vehicle 100. The camera C_3 is installed at the center of the rear part of the vehicle 100 in a posture in which the optical axis of the camera C_3 extends obliquely downward rearward of the vehicle 100. The camera C_4 is installed on the upper left side of the vehicle 100 such that the optical axis of the camera C_4 extends obliquely downward to the left of the vehicle 100. The object scene around the vehicle 100 is captured from such a direction that intersects the road surface in an oblique direction by the cameras C_1 to C_4.

カメラC_1は車両100の前方を捉える視野VW_1を有し、カメラC_2は車両100の右方向を捉える視野VW_2を有し、カメラC_3は車両100の後方を捉える視野VW_3を有し、そしてカメラC_4は車両100の左方向を捉える視野VW_4を有する。また、視野VW_1およびVW_2は共通視野VW_12を有し、視野VW_2およびVW_3は共通視野VW_23を有し、視野VW_3およびVW_4は共通視野VW_34を有し、そして視野VW_4およびVW_1は共通視野VW_41を有する。   Camera C_1 has a field of view VW_1 that captures the front of the vehicle 100, camera C_2 has a field of view VW_2 that captures the right direction of the vehicle 100, camera C_3 has a field of view VW_3 that captures the rear of the vehicle 100, and camera C_4 It has a visual field VW_4 that captures the left direction of the vehicle 100. Also, the visual fields VW_1 and VW_2 have a common visual field VW_12, the visual fields VW_2 and VW_3 have a common visual field VW_23, the visual fields VW_3 and VW_4 have a common visual field VW_34, and the visual fields VW_4 and VW_1 have a common visual field VW_41.

図2に戻って、画像処理回路12に設けられたCPU12pは、カメラC_1から出力された被写界像P_1に基づいて図4(A)に示す鳥瞰画像BEV_1を生成し、カメラC_2から出力された被写界像P_2に基づいて図4(B)に示す鳥瞰画像BEV_2を生成する。CPU12pはまた、カメラC_3から出力された被写界像P_3に基づいて図4(C)に示す鳥瞰画像BEV_3を生成し、カメラC_4から出力された被写界像P_4に基づいて図4(D)に示す鳥瞰画像BEV_4を生成する。   Returning to FIG. 2, the CPU 12p provided in the image processing circuit 12 generates the bird's-eye view image BEV_1 shown in FIG. 4A based on the object scene image P_1 output from the camera C_1, and is output from the camera C_2. The bird's-eye view image BEV_2 shown in FIG. 4B is generated based on the object scene image P_2. The CPU 12p also generates the bird's-eye view image BEV_3 shown in FIG. 4C based on the object scene image P_3 output from the camera C_3, and based on the object scene image P_4 output from the camera C_4, FIG. The bird's-eye view image BEV_4 shown in FIG.

鳥瞰画像BEV_1は視野VW_1を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_2は視野VW_2を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。また、鳥瞰画像BEV_3は視野VW_3を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_4は視野VW_4を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。   The bird's-eye view image BEV_1 corresponds to an image captured by the virtual camera looking down the visual field VW_1 in the vertical direction, and the bird's-eye view image BEV_2 corresponds to an image captured by the virtual camera looking down the visual field VW_2 in the vertical direction. The bird's-eye view image BEV_3 corresponds to an image captured by a virtual camera looking down the visual field VW_3 in the vertical direction, and the bird's-eye view image BEV_4 corresponds to an image captured by a virtual camera looking down the visual field VW_4 in the vertical direction.

図4(A)〜図4(D)によれば、鳥瞰画像BEV_1は鳥瞰座標系X1・Y1を有し、鳥瞰画像BEV_2は鳥瞰座標系X2・Y2を有し、鳥瞰画像BEV_3は鳥瞰座標系X3・Y3を有し、そして鳥瞰画像BEV_4は鳥瞰座標系X4・Y4を有する。このような鳥瞰画像BEV_1〜BEV_4は、メモリ12mのワークエリアW1に保持される。   According to FIGS. 4A to 4D, the bird's-eye image BEV_1 has a bird's-eye coordinate system X1 and Y1, the bird's-eye image BEV_2 has a bird's-eye coordinate system X2 and Y2, and the bird's-eye image BEV_3 has a bird's-eye coordinate system. The bird's-eye view image BEV_4 has a bird's-eye coordinate system X4 / Y4. Such bird's-eye images BEV_1 to BEV_4 are held in the work area W1 of the memory 12m.

CPU12pは続いて、鳥瞰画像BEV_1〜BEV_4の各々から境界線BLよりも外方の一部の画像を削除し、削除の後に残った鳥瞰画像BEV_1〜BEV_4の一部(図5参照)を回転/移動処理によって互いに結合する。この結果、図6に示す全周鳥瞰画像がメモリ12mのワークエリアW2内に得られる。   Subsequently, the CPU 12p deletes a part of the images outside the boundary line BL from each of the bird's-eye images BEV_1 to BEV_4, and rotates / removes a part of the bird's-eye images BEV_1 to BEV_4 remaining after the deletion (see FIG. 5). Combine with each other by moving process. As a result, the all-around bird's-eye view image shown in FIG. 6 is obtained in the work area W2 of the memory 12m.

図6において、斜線で示す重複エリアOL_12が共通視野VW_12に相当し、斜線で示す重複エリアOL_23が共通視野VW_23に相当する。また、斜線で示す重複エリアOL_34が共通視野VW_34に相当し、斜線で示す重複エリアOL_41が共通視野VW_41に相当する。   In FIG. 6, the overlapping area OL_12 indicated by diagonal lines corresponds to the common visual field VW_12, and the overlapping area OL_23 indicated by diagonal lines corresponds to the common visual field VW_23. Further, the overlapping area OL_34 indicated by hatching corresponds to the common visual field VW_34, and the overlapping area OL_41 indicated by hatching corresponds to the common visual field VW_41.

運転席に設置された表示装置16は、重複エリアOL_12〜OL_41が四隅に位置する一部の画像D1をワークエリアW2上の全周鳥瞰画像から抽出し、車両100の上部を模した車両画像D2を抽出された画像D1の中央に貼り付ける。この結果、図7に示す運転支援画像がモニタ画面に表示される。   The display device 16 installed in the driver's seat extracts a part of the image D1 in which the overlapping areas OL_12 to OL_41 are located at the four corners from the all-around bird's-eye view image on the work area W2, and the vehicle image D2 simulating the upper part of the vehicle 100 Is pasted in the center of the extracted image D1. As a result, the driving assistance image shown in FIG. 7 is displayed on the monitor screen.

なお、重複エリアOL_12のうち画像D1を形成する一部のエリアを“再現重複エリアOLD_12”と定義し、重複エリアOL_23のうち画像D1を形成する一部のエリアを“再現重複エリアOLD_23”と定義する。同様に、重複エリアOL_34うち画像D1を形成する一部のエリアを“再現重複エリアOLD_34”と定義し、重複エリアOL_41のうち画像D1を形成する一部のエリアを“再現重複エリアOLD_41”と定義する。   Note that a part of the overlapping area OL_12 that forms the image D1 is defined as “reproduction overlapping area OLD_12”, and a part of the overlapping area OL_23 that forms the image D1 is defined as “reproduction overlapping area OLD_23”. To do. Similarly, a part of the overlapping area OL_34 that forms the image D1 is defined as “reproduction overlapping area OLD_34”, and a part of the overlapping area OL_41 that forms the image D1 is defined as “reproduction overlapping area OLD_41”. To do.

次に、鳥瞰画像BEV_1〜BEV_4の作成要領について説明する。ただし、鳥瞰画像BEV_1〜BEV_4はいずれも同じ要領で作成されるため、鳥瞰画像BEV_1〜BEV_4を代表して鳥瞰画像BEV3の作成要領を説明する。   Next, how to create the bird's-eye view images BEV_1 to BEV_4 will be described. However, since the bird's-eye images BEV_1 to BEV_4 are all created in the same manner, the creation procedure of the bird's-eye image BEV3 will be described as a representative of the bird's-eye images BEV_1 to BEV_4.

図8を参照して、カメラC_3は車両100の後部に後方斜め下向きに配置される。カメラC_3の俯角を“θd”とすると、図7に示す角度θは“180°−θd”に相当する。また、角度θは、90°<θ<180°の範囲で定義される。   Referring to FIG. 8, camera C_3 is disposed rearward and obliquely downward at the rear of vehicle 100. If the depression angle of the camera C_3 is “θd”, the angle θ shown in FIG. 7 corresponds to “180 ° −θd”. The angle θ is defined in the range of 90 ° <θ <180 °.

図9は、カメラ座標系X・Y・Zと、カメラC_3の撮像面Sの座標系Xp・Ypと、世界座標系Xw・Yw・Zwとの関係を示す。カメラ座標系X・Y・Zは、X軸,Y軸およびZ軸を座標軸とする三次元の座標系である。座標系Xp・Ypは、Xp軸およびYp軸を座標軸とする二次元の座標系である。世界座標系Xw・Yw・Zwは、Xw軸,Yw軸およびZw軸を座標軸とする三次元の座標系である。   FIG. 9 shows the relationship between the camera coordinate system X · Y · Z, the coordinate system Xp · Yp of the imaging surface S of the camera C_3, and the world coordinate system Xw · Yw · Zw. The camera coordinate system X, Y, Z is a three-dimensional coordinate system with the X, Y, and Z axes as coordinate axes. The coordinate system Xp · Yp is a two-dimensional coordinate system having the Xp axis and the Yp axis as coordinate axes. The world coordinate system Xw · Yw · Zw is a three-dimensional coordinate system having the Xw axis, the Yw axis, and the Zw axis as coordinate axes.

カメラ座標系X・Y・Zでは、カメラC3の光学的中心を原点Oとして、光軸方向にZ軸が定義され、Z軸に直交しかつ路面に平行な方向にX軸が定義され、そしてZ軸およびX軸に直交する方向にY軸が定義される。撮像面Sの座標系Xp・Ypでは、撮像面Sの中心を原点として、撮像面Sの横方向にXp軸が定義され、撮像面Sの縦方向にYp軸が定義される。   In the camera coordinate system X, Y, Z, the optical center of the camera C3 is defined as the origin O, the Z axis is defined in the optical axis direction, the X axis is defined in the direction perpendicular to the Z axis and parallel to the road surface, and A Y axis is defined in a direction orthogonal to the Z axis and the X axis. In the coordinate system Xp / Yp of the imaging surface S, with the center of the imaging surface S as the origin, the Xp axis is defined in the horizontal direction of the imaging surface S, and the Yp axis is defined in the vertical direction of the imaging surface S.

世界座標系Xw・Yw・Zwでは、カメラ座標系XYZの原点Oを通る鉛直線と路面との交点を原点Owとして、路面と垂直な方向にYw軸が定義され、カメラ座標系X・Y・ZのX軸と平行な方向にXw軸が定義され、そしてXw軸およびYw軸に直交する方向にZw軸が定義される。また、Xw軸からX軸までの距離は“h”であり、Zw軸およびZ軸によって形成される鈍角が上述の角度θに相当する。   In the world coordinate system Xw / Yw / Zw, the intersection of the vertical line passing through the origin O of the camera coordinate system XYZ and the road surface is defined as the origin Ow, and the Yw axis is defined in the direction perpendicular to the road surface. An Xw axis is defined in a direction parallel to the X axis of Z, and a Zw axis is defined in a direction orthogonal to the Xw axis and the Yw axis. The distance from the Xw axis to the X axis is “h”, and the obtuse angle formed by the Zw axis and the Z axis corresponds to the angle θ described above.

カメラ座標系X・Y・Zにおける座標を(x,y,z)と表記した場合、“x”,“y”および“z”はそれぞれ、カメラ座標系X・Y・ZにおけるX軸成分,Y軸成分およびZ軸成分を示す。撮像面Sの座標系Xp・Ypにおける座標を(xp,yp)と表記した場合、“xp”および“yp”はそれぞれ、撮像面Sの座標系Xp・YpにおけるXp軸成分およびYp軸成分を示す。世界座標系Xw・Yw・Zwにおける座標を(xw,yw,zw)と表記した場合、“xw”,“yw”および“zw”はそれぞれ、世界座標系Xw・Yw・ZwにおけるXw軸成分,Yw軸成分およびZw軸成分を示す。   When coordinates in the camera coordinate system X, Y, and Z are expressed as (x, y, z), “x”, “y”, and “z” are X-axis components in the camera coordinate system X, Y, and Z, respectively. A Y-axis component and a Z-axis component are shown. When the coordinates in the coordinate system Xp / Yp of the imaging surface S are expressed as (xp, yp), “xp” and “yp” respectively represent the Xp-axis component and the Yp-axis component in the coordinate system Xp / Yp of the imaging surface S. Show. When coordinates in the world coordinate system Xw · Yw · Zw are expressed as (xw, yw, zw), “xw”, “yw”, and “zw” are Xw axis components in the world coordinate system Xw · Yw · Zw, The Yw axis component and the Zw axis component are shown.

カメラ座標系X・Y・Zの座標(x,y,z)と世界座標系Xw・Yw・Zwの座標(xw,yw,zw)との間の変換式は、数1で表される。

Figure 2010250640
A conversion formula between the coordinates (x, y, z) of the camera coordinate system X, Y, Z and the coordinates (xw, yw, zw) of the world coordinate system Xw, Yw, Zw is expressed by Formula 1.
Figure 2010250640

ここで、カメラC_3の焦点距離を“f”とすると、撮像面Sの座標系Xp・Ypの座標(xp,yp)とカメラ座標系X・Y・Zの座標(x,y,z)との間の変換式は、数2で表される。

Figure 2010250640
Here, assuming that the focal length of the camera C_3 is “f”, the coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S and the coordinates (x, y, z) of the camera coordinate system X / Y / Z are The conversion formula between is expressed by Equation 2.
Figure 2010250640

また、数1および数2に基づいて数3が得られる。数3は、撮像面Sの座標系Xp・Ypの座標(xp,yp)と二次元路面座標系Xw・Zwの座標(xw,zw)との間の変換式を示す。

Figure 2010250640
Also, Equation 3 is obtained based on Equation 1 and Equation 2. Equation 3 shows a conversion formula between the coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S and the coordinates (xw, zw) of the two-dimensional road surface coordinate system Xw / Zw.
Figure 2010250640

また、図4(C)に示す鳥瞰画像BEV_3の座標系である鳥瞰座標系X3・Y3が定義される。鳥瞰座標系X3・Y3は、X3軸及びY3軸を座標軸とする二次元の座標系である。鳥瞰座標系X3・Y3における座標を(x3,y3)と表記した場合、鳥瞰画像BEV_3を形成する各画素の位置は座標(x3,y3)によって表される。“x3”および“y3”はそれぞれ、鳥瞰座標系X3・Y3におけるX3軸成分およびY3軸成分を示す。   Also, a bird's-eye coordinate system X3 / Y3, which is a coordinate system of the bird's-eye image BEV_3 shown in FIG. 4C, is defined. The bird's-eye coordinate system X3 / Y3 is a two-dimensional coordinate system having the X3 axis and the Y3 axis as coordinate axes. When the coordinates in the bird's-eye view coordinate system X3 / Y3 are expressed as (x3, y3), the position of each pixel forming the bird's-eye view image BEV_3 is represented by the coordinates (x3, y3). “X3” and “y3” respectively indicate an X3 axis component and a Y3 axis component in the bird's eye view coordinate system X3 · Y3.

路面を表す二次元座標系Xw・Zwから鳥瞰座標系X3・Y3への投影は、いわゆる平行投影に相当する。仮想カメラつまり仮想視点の高さを“H”とすると、二次元座標系Xw・Zwの座標(xw,zw)と鳥瞰座標系X3・Y3の座標(x3,y3)との間の変換式は、数4で表される。仮想カメラの高さHは予め決められている。

Figure 2010250640
The projection from the two-dimensional coordinate system Xw / Zw representing the road surface to the bird's eye coordinate system X3 / Y3 corresponds to a so-called parallel projection. If the height of the virtual camera, that is, the virtual viewpoint is “H”, the conversion formula between the coordinates (xw, zw) of the two-dimensional coordinate system Xw · Zw and the coordinates (x3, y3) of the bird's-eye coordinate system X3 · Y3 is , Represented by Equation (4). The height H of the virtual camera is determined in advance.
Figure 2010250640

さらに、数4に基づいて数5が得られ、数5および数3に基づいて数6が得られ、そして数6に基づいて数7が得られる。数7は、撮像面Sの座標系Xp・Ypの座標(xp,yp)を鳥瞰座標系X3・Y3の座標(x3,y3)に変換するための変換式に相当する。

Figure 2010250640
Figure 2010250640
Figure 2010250640
Further, based on Equation 4, Equation 5 is obtained, Equation 5 is obtained based on Equation 5 and Equation 3, and Equation 7 is obtained based on Equation 6. Equation 7 corresponds to a conversion formula for converting the coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S into the coordinates (x3, y3) of the bird's eye coordinate system X3 / Y3.
Figure 2010250640
Figure 2010250640
Figure 2010250640

撮像面Sの座標系Xp・Ypの座標(xp,yp)は、カメラC_3によって捉えられた被写界像P_3の座標を表す。したがって、カメラC3からの被写界像P_3は、数7を用いることによって鳥瞰画像BEV_3に変換される。実際には、被写界像P_3はまずレンズ歪み補正などの画像処理を施され、その後に数7によって鳥瞰画像BEV_3に変換される。   The coordinates (xp, yp) of the coordinate system Xp / Yp of the imaging surface S represent the coordinates of the object scene image P_3 captured by the camera C_3. Accordingly, the object scene image P_3 from the camera C3 is converted into the bird's-eye view image BEV_3 by using Equation 7. Actually, the object scene image P_3 is first subjected to image processing such as lens distortion correction, and then converted into a bird's-eye view image BEV_3 by Equation 7.

図10および図11を参照して、車両100の左後方の共通視野VW_34に障害物(立体物)201および202が存在する場合、カメラC_3で捉えられた障害物201および202は、障害物画像OBJ_3_1およびOBJ_3_2として鳥瞰画像BEV_3に現れる。同様に、カメラC_4で捉えられた障害物201および202は、障害物画像OBJ_4_1およびOBJ_4_2として鳥瞰画像BEV_4に現れる。   Referring to FIG. 10 and FIG. 11, when obstacles (three-dimensional objects) 201 and 202 exist in the common left view VW_34 of the vehicle 100, the obstacles 201 and 202 captured by the camera C_3 are obstruction images. Appear in the bird's-eye view image BEV_3 as OBJ_3_1 and OBJ_3_2. Similarly, the obstacles 201 and 202 captured by the camera C_4 appear in the bird's-eye view image BEV_4 as the obstacle images OBJ_4_1 and OBJ_4_2.

障害物画像OBJ_3_1およびOBJ_4_1の姿勢は、カメラC_3の視点とカメラC_4の視点との相違に起因して互いに相違する。同様に、障害物画像OBJ_3_2およびOBJ_4_2の姿勢も、カメラC_3の視点とカメラC_4の視点との相違に起因して互いに相違する。   The postures of the obstacle images OBJ_3_1 and OBJ_4_1 are different from each other due to the difference between the viewpoint of the camera C_3 and the viewpoint of the camera C_4. Similarly, the postures of the obstacle images OBJ_3_2 and OBJ_4_2 are also different from each other due to the difference between the viewpoint of the camera C_3 and the viewpoint of the camera C_4.

つまり、障害物画像OBJ_3_1はカメラC_3と障害物201の底部とを結ぶ直線に沿って倒れ込むように再現され、障害物画像OBJ_4_1はカメラC_4と障害物201の底部とを結ぶ直線に沿って倒れ込むように再現される。同様に、障害物画像OBJ_3_2はカメラC_3と障害物202の底部とを結ぶ直線に沿って倒れ込むように再現され、障害物画像OBJ_4_2はカメラC_4と障害物202の底部とを結ぶ直線に沿って倒れ込むように再現される。   That is, the obstacle image OBJ_3_1 is reproduced so as to fall down along a straight line connecting the camera C_3 and the bottom of the obstacle 201, and the obstacle image OBJ_4_1 falls down along a straight line connecting the camera C_4 and the bottom of the obstacle 201. Is reproduced. Similarly, the obstacle image OBJ_3_2 is reproduced so as to fall down along a straight line connecting the camera C_3 and the bottom of the obstacle 202, and the obstacle image OBJ_4_2 falls down along a straight line connecting the camera C_4 and the bottom of the obstacle 202. Is reproduced as follows.

また、鳥瞰画像BEV_1〜BEV_4は路面を基準に作成されることから、障害物画像OBJ_3_1およびOBJ_4_1の大きさは、カメラC_3の高さとカメラC_4の高さとの相違や、カメラC_3から障害物201までの距離とカメラC_4から障害物201までの距離との相違などに起因して、互いに相違する。同様に、障害物画像OBJ_3_2およびOBJ_4_2の大きさも、カメラC_3の高さとカメラC_4の高さとの相違や、カメラC_3から障害物202までの距離とカメラC_4から障害物202までの距離との相違などに起因して、互いに相違する。   Since the bird's-eye images BEV_1 to BEV_4 are created based on the road surface, the size of the obstacle images OBJ_3_1 and OBJ_4_1 is different from the height of the camera C_3 and the height of the camera C_4, or from the camera C_3 to the obstacle 201. And the distance from the camera C_4 to the obstacle 201 are different from each other. Similarly, the sizes of the obstacle images OBJ_3_2 and OBJ_4_2 also differ between the height of the camera C_3 and the height of the camera C_4, the difference between the distance from the camera C_3 to the obstacle 202 and the distance from the camera C_4 to the obstacle 202, and the like. Are different from each other.

このような障害物201および202を全周鳥瞰画像上で再現するとき、CPU12pは、次のような処理を実行する。   When reproducing such obstacles 201 and 202 on the all-around bird's-eye view image, the CPU 12p executes the following processing.

まず、何らかの障害物が存在するか否かが共通視野VW_12〜VW_41の各々について判別される。図10によれば、障害物は共通視野VW_12,VW_23およびVW_41には存在しない。このため、境界線BLは、共通視野VW_12,VW_23およびVW_41の各々において初期状態で設定される。つまり、境界線BLは、再現重複エリアOLD_12,OLD_23およびOLD_41の各々の対角を結ぶように設定される(図11参照)。   First, it is determined for each of the common visual fields VW_12 to VW_41 whether any obstacle exists. According to FIG. 10, no obstacle exists in the common visual fields VW_12, VW_23 and VW_41. Therefore, the boundary line BL is set in the initial state in each of the common visual fields VW_12, VW_23, and VW_41. That is, the boundary line BL is set so as to connect the diagonals of the reproduction overlap areas OLD_12, OLD_23, and OLD_41 (see FIG. 11).

これに対して、共通視野VW_34には障害物201および202が存在し、障害物画像OBJ_3_1およびOBJ_3_2が鳥瞰画像BEV_3に再現される一方、障害物画像OBJ_4_1およびOBJ_4_2が鳥瞰画像BEV_4に再現される。このため、境界線BLは次の要領で修正される。   On the other hand, obstacles 201 and 202 exist in the common visual field VW_34, and the obstacle images OBJ_3_1 and OBJ_3_2 are reproduced as the bird's-eye image BEV_3, while the obstacle images OBJ_4_1 and OBJ_4_2 are reproduced as the bird's-eye image BEV_4. For this reason, the boundary line BL is corrected in the following manner.

まず、障害物画像OBJ_3_1およびOBJ_4_1のサイズ差が“ΔSZ_1”として算出され、障害物画像OBJ_3_2およびOBJ_4_2のサイズ差が“ΔSZ_2”として算出される。サイズ差ΔSZ_1は、障害物画像OBJ_3_1のサイズから障害物画像OBJ_4_1のサイズを減算することによって得られる。同様に、サイズ差ΔSZ_2は、障害物画像OBJ_3_2のサイズから障害物画像OBJ_4_2のサイズを減算することによって得られる。   First, the size difference between the obstacle images OBJ — 3 — 1 and OBJ — 4 — 1 is calculated as “ΔSZ — 1”, and the size difference between the obstacle images OBJ — 3 — 2 and OBJ — 4 — 2 is calculated as “ΔSZ — 2”. The size difference ΔSZ_1 is obtained by subtracting the size of the obstacle image OBJ_4_1 from the size of the obstacle image OBJ_3_1. Similarly, the size difference ΔSZ_2 is obtained by subtracting the size of the obstacle image OBJ_4_2 from the size of the obstacle image OBJ_3_2.

サイズ差ΔSZ_1が基準値REFを上回れば、障害物画像OBJ_3_1が選択画像OBJ_1_SELとして設定される。一方、サイズ差ΔSZ_1が基準値“−REF”を下回れば、障害物画像OBJ_4_1が選択画像OBJ_1_SELとして設定される。つまり、障害物画像OBJ_3_1および障害物画像OBJ_4_1の間のサイズ差が十分に大きければ、より大きい方の障害物画像が選択される。   If the size difference ΔSZ_1 exceeds the reference value REF, the obstacle image OBJ_3_1 is set as the selected image OBJ_1_SEL. On the other hand, when the size difference ΔSZ_1 falls below the reference value “−REF”, the obstacle image OBJ — 4_1 is set as the selected image OBJ — 1_SEL. That is, if the size difference between the obstacle image OBJ — 3_1 and the obstacle image OBJ — 4_1 is sufficiently large, the larger obstacle image is selected.

サイズ差ΔSZ_1が基準値“−REF”〜基準値REFの範囲内であれば、つまり障害物画像OBJ_3_1および障害物画像OBJ_4_1の間のサイズ差が小さければ、障害物画像OBJ_3_1およびOBJ_4_1に基づいて障害物201の動きベクトルが検出される。   If the size difference ΔSZ_1 is within the range of the reference value “−REF” to the reference value REF, that is, if the size difference between the obstacle image OBJ — 3_1 and the obstacle image OBJ — 4_1 is small, the obstacle is based on the obstacle images OBJ — 3_1 and OBJ — 4_1. A motion vector of the object 201 is detected.

検出された動きベクトルの量が閾値THmvを上回りかつ検出された動きベクトルの方向がカメラC_3側であれば、障害物画像OBJ_3_1が選択画像OBJ_1_SELとして設定される。検出された動きベクトルの量が閾値THmvを上回りかつ動きベクトルの方向がカメラC_4側であれば、障害物画像OBJ_4_1が選択画像OBJ_1_SELとして設定される。つまり、障害物201の動きが大きければ、障害物201が移動する方向のカメラに対応する障害物画像が選択される。   If the amount of the detected motion vector exceeds the threshold value THmv and the direction of the detected motion vector is the camera C_3 side, the obstacle image OBJ_3_1 is set as the selected image OBJ_1_SEL. If the amount of the detected motion vector exceeds the threshold value THmv and the direction of the motion vector is the camera C_4 side, the obstacle image OBJ_4_1 is set as the selected image OBJ_1_SEL. That is, if the movement of the obstacle 201 is large, an obstacle image corresponding to the camera in the direction in which the obstacle 201 moves is selected.

なお、検出された動きベクトルの量が閾値THmv以下であれば、前回の選択画像OBJ_K_SELの設定が維持される。   If the detected motion vector amount is equal to or smaller than the threshold value THmv, the previous setting of the selected image OBJ_K_SEL is maintained.

このような処理は障害物202についても実行され、これによって、障害物画像OBJ_3_2およびOBJ_4_2のいずれか一方が選択画像OBJ_2_SELとして設定される。境界線BLは、こうして設定された選択画像OBJ_1_SEL〜OBJ_2_SELが再現されるように、共通視野VW_34に設定される。   Such processing is also executed for the obstacle 202, whereby one of the obstacle images OBJ_3_2 and OBJ_4_2 is set as the selected image OBJ_2_SEL. The boundary line BL is set to the common visual field VW_34 so that the selection images OBJ_1_SEL to OBJ_2_SEL set in this way are reproduced.

したがって、図12の上段に示すように、障害物201および202のいずれもがカメラC_4に向かって移動する場合において、障害物画像OBJ_3_1のサイズが障害物画像OBJ_4_1のサイズよりも十分に大きく、障害物画像OBJ_3_2サイズが障害物画像OBJ_4_2のサイズとほぼ同じであれば、境界線BLは、図12の下段に示すように設定される。この結果、障害物画像OBJ_3_1およびOBJ_4_2が表示装置12に再現される。   Therefore, as shown in the upper part of FIG. 12, when both of the obstacles 201 and 202 move toward the camera C_4, the size of the obstacle image OBJ_3_1 is sufficiently larger than the size of the obstacle image OBJ_4_1. If the size of the object image OBJ — 3_2 is substantially the same as the size of the obstacle image OBJ — 4_2, the boundary line BL is set as shown in the lower part of FIG. As a result, the obstacle images OBJ_3_1 and OBJ_4_2 are reproduced on the display device 12.

また、図13の上段に示すように、障害物201および202が互いに近接し、障害物201がカメラC_3に向かって移動する一方、障害物202がカメラC_4に向かって移動する場合において、障害物画像OBJ_3_1のサイズが障害物画像OBJ_4_1のサイズとほぼ同じで、障害物画像OBJ_3_2サイズも障害物画像OBJ_4_2のサイズとほぼ同じであれば、境界線BLは図13の下段に示すように設定される。この結果、障害物画像OBJ_3_1およびOBJ_4_2が表示装置12に再現される。   Also, as shown in the upper part of FIG. 13, when the obstacles 201 and 202 are close to each other and the obstacle 201 moves toward the camera C_3, while the obstacle 202 moves toward the camera C_4, the obstacle If the size of the image OBJ_3_1 is substantially the same as the size of the obstacle image OBJ_4_1 and the size of the obstacle image OBJ_3_2 is substantially the same as the size of the obstacle image OBJ_4_2, the boundary line BL is set as shown in the lower part of FIG. . As a result, the obstacle images OBJ_3_1 and OBJ_4_2 are reproduced on the display device 12.

さらに、図14の上段に示すように、障害物201および202が互いに近接し、障害物201および202のいずれもがカメラC_3に向かって移動する場合において、障害物画像OBJ_3_1のサイズが障害物画像OBJ_4_1のサイズとほぼ同じで、障害物画像OBJ_3_2サイズも障害物画像OBJ_4_2のサイズとほぼ同じであれば、境界線BLは図14の下段に示すように設定される。この結果、障害物画像OBJ_3_1およびOBJ_3_2が表示装置12に再現される。   Furthermore, as shown in the upper part of FIG. 14, when the obstacles 201 and 202 are close to each other and both the obstacles 201 and 202 move toward the camera C_3, the size of the obstacle image OBJ_3_1 is the obstacle image. If the size of the obstacle image OBJ_3_2 is substantially the same as the size of the obstacle image OBJ_4_2, the boundary line BL is set as shown in the lower part of FIG. As a result, the obstacle images OBJ — 3_1 and OBJ — 3_2 are reproduced on the display device 12.

CPU12pは、具体的には図15〜図20に示すフロー図に従う処理を実行する。なお、これらのフロー図に対応する制御プログラムは、フラッシュメモリ14(図1参照)に記憶される。   Specifically, the CPU 12p executes processing according to the flowcharts shown in FIGS. The control program corresponding to these flowcharts is stored in the flash memory 14 (see FIG. 1).

図15に示すステップS1では、カメラC_1〜C_4から被写界像P_1〜P_4を取り込む。ステップS3では、取り込まれた被写界像P_1〜P_4に基づいて鳥瞰画像BEV_1〜BEV_4を作成する。作成された鳥瞰画像BEV_1〜BEV_4は、ワークエリアW1に確保される。ステップS5では、障害物検知処理を実行する。ステップS7では、ステップS3で作成された鳥瞰画像BEV_1〜BEV_4に基づいて全周鳥瞰画像を作成する。作成された全周鳥瞰画像は、ワークエリアW2に確保される。表示装置16のモニタ画面には、ワークエリアW2に確保された全周鳥瞰画像に基づく運転支援画像が表示される。ステップS7の処理が完了すると、ステップS1に戻る。   In step S1 shown in FIG. 15, the scene images P_1 to P_4 are captured from the cameras C_1 to C_4. In step S3, bird's-eye view images BEV_1 to BEV_4 are created based on the captured object scene images P_1 to P_4. The created bird's-eye view images BEV_1 to BEV_4 are secured in the work area W1. In step S5, an obstacle detection process is executed. In step S7, an all-around bird's-eye view image is created based on the bird's-eye view images BEV_1 to BEV_4 created in step S3. The created all-around bird's-eye view image is secured in the work area W2. On the monitor screen of the display device 16, a driving support image based on the all-around bird's-eye view image secured in the work area W2 is displayed. When the process of step S7 is completed, the process returns to step S1.

ステップS5に示す障害物検知処理は、図16〜図19に示すサブルーチンに従う。まずステップS11で変数MおよびNをそれぞれ“1”および“2”に設定する。ここで、変数Mは“1”→“2”→“3”→“4”の順で更新される変数であり、変数Nは
“2”→“3”→“4”→“1”の順で更新される変数である。
The obstacle detection process shown in step S5 follows a subroutine shown in FIGS. First, in step S11, variables M and N are set to “1” and “2”, respectively. Here, the variable M is a variable that is updated in the order of “1” → “2” → “3” → “4”, and the variable N is “2” → “3” → “4” → “1”. It is a variable that is updated in order.

ステップS13では、カメラC_Mの出力に基づく鳥瞰画像BEV_MとカメラC_Nの出力に基づく鳥瞰画像BEV_Nとに基づいて、共通視野VW_MNにおける差分画像を作成する。ステップS15では、共通視野VW_MNに障害物が存在するか否かを、ステップS13で作成された差分画像に基づいて判別する。   In step S13, a difference image in the common visual field VW_MN is created based on the bird's-eye view image BEV_M based on the output of the camera C_M and the bird's-eye view image BEV_N based on the output of the camera C_N. In step S15, it is determined based on the difference image created in step S13 whether an obstacle exists in the common visual field VW_MN.

共通視野VW_MNから障害物が検出されなければ、ステップS17で境界線を初期設定する。一方、共通視野VW_MNから障害物が検出されれば、ステップS19で境界線修正処理を実行する。ステップS17またはS19の処理が完了すると、変数Mが“4”を示すか否かをステップS21で判別する。変数Mが“4”に満たなければ、変数MおよびNをステップS23で更新してからステップS13に戻る。これに対して、変数Mが“4”であれば、上階層のルーチンに復帰する。   If no obstacle is detected from the common visual field VW_MN, a boundary line is initialized in step S17. On the other hand, if an obstacle is detected from the common visual field VW_MN, boundary correction processing is executed in step S19. When the process of step S17 or S19 is completed, it is determined in step S21 whether or not the variable M indicates “4”. If the variable M is less than “4”, the variables M and N are updated in step S23, and then the process returns to step S13. On the other hand, if the variable M is “4”, the process returns to the upper layer routine.

図16に示すステップS19の境界線修正処理は、図17〜図19に示すサブルーチンに従って実行される。   The boundary line correction process in step S19 shown in FIG. 16 is executed according to a subroutine shown in FIGS.

まずステップS31で、共通視野VW_MNに存在する障害物の数を“Kmax”として特定する。ステップS33では変数Kを“1”に設定し、ステップS35では障害物画像OBJ_M_KおよびOBJ_N_Kのサイズ差を“ΔSZ_K”として算出する。サイズ差ΔSZ_Kは、障害物画像OBJ_M_Kのサイズから障害物画像OBJ_N_Kのサイズを減算することによって得られる。   First, in step S31, the number of obstacles existing in the common visual field VW_MN is specified as “Kmax”. In step S33, the variable K is set to “1”, and in step S35, the size difference between the obstacle images OBJ_M_K and OBJ_N_K is calculated as “ΔSZ_K”. The size difference ΔSZ_K is obtained by subtracting the size of the obstacle image OBJ_N_K from the size of the obstacle image OBJ_M_K.

ステップS37ではサイズ差ΔSZ_Kが基準値REFを上回るか否かを判別し、ステップS39ではサイズ差ΔSZ_Kが基準値“−REF”を下回るか否かを判別する。ステップS37でYESであればステップS41に進み、障害物画像OBJ_M_Kを選択画像OBJ_K_SELとして設定する。ステップS39でYESであればステップS43に進み、障害物画像OBJ_N_Kを選択画像OBJ_K_SELとして設定する。   In step S37, it is determined whether or not the size difference ΔSZ_K exceeds the reference value REF. In step S39, it is determined whether or not the size difference ΔSZ_K is less than the reference value “−REF”. If “YES” in the step S37, the process proceeds to a step S41 to set the obstacle image OBJ_M_K as the selected image OBJ_K_SEL. If “YES” in the step S39, the process proceeds to a step S43 to set the obstacle image OBJ_N_K as the selected image OBJ_K_SEL.

ステップS37およびS39のいずれもNOであればステップS45に進み、障害物画像OBJ_M_KおよびOBJ_N_Kに基づいて障害物20Kの動きベクトルを検出する。ステップS47では検出された動きベクトルの量が閾値THmvを上回るか否かを判別し、ステップS49では検出された動きベクトルの方向がカメラC_M側であるか否かを判別する。   If NO in both steps S37 and S39, the process proceeds to step S45, and the motion vector of the obstacle 20K is detected based on the obstacle images OBJ_M_K and OBJ_N_K. In step S47, it is determined whether or not the amount of the detected motion vector exceeds a threshold value THmv. In step S49, it is determined whether or not the direction of the detected motion vector is on the camera C_M side.

ステップS47でNOであれば、選択画像OBJ_K_SELの設定を前回と同じ設定とする。ステップS47およびS51のいずれもYESであればステップS53に進み、障害物画像OBJ_M_Kを選択画像OBJ_K_SELとして設定する。ステップS47でYESである一方、ステップS51でNOであれば、ステップS55に進み、障害物画像OBJ_N_Kを選択画像OBJ_K_SELとして設定する。   If NO in step S47, the selected image OBJ_K_SEL is set to the same setting as the previous time. If both step S47 and S51 are YES, it will progress to step S53 and will set the obstruction image OBJ_M_K as selection image OBJ_K_SEL. If “YES” in the step S47, if “NO” in the step S51, the process proceeds to a step S55 to set the obstacle image OBJ_N_K as the selected image OBJ_K_SEL.

選択画像OBJ_K_SELの設定が完了すると、変数KをステップS57でインクリメントし、インクリメントされた変数Kが変数Kmaxを上回るか否かをステップS59で判別する。ステップS59でNOであればステップS35に戻り、ステップS59でYESであればステップS61に進む。ステップS61では、選択画像OBJ_1_SEL〜OBJ_Kmax_SELが再現されるように境界線BLを共通視野VW_MNに設定する。境界線BLの設定が完了すると、上階層のルーチンに復帰する。   When the setting of the selected image OBJ_K_SEL is completed, the variable K is incremented in step S57, and it is determined in step S59 whether or not the incremented variable K exceeds the variable Kmax. If NO in step S59, the process returns to step S35, and if YES in step S59, the process proceeds to step S61. In step S61, the boundary line BL is set to the common visual field VW_MN so that the selected images OBJ_1_SEL to OBJ_Kmax_SEL are reproduced. When the setting of the boundary line BL is completed, the process returns to the upper hierarchy routine.

図15に示すステップS7の全周鳥瞰作成処理は、図20に示すサブルーチンに従う。まずステップS71で変数Mを“1”に設定する。上述と同様、変数Mは“1”→“2”→“3”→“4”の順で更新される変数である。ステップS73では、境界線よりも外方の画像を鳥瞰画像BEV_Mから削除し、ステップS75では変数Mが“4”に達したか否かを判別する。変数Mが“4”に満たなければ、ステップS77で変数Mを更新してからステップS73に戻る。一方、変数Mが“4”を示していればステップS79に進み、ステップS73の削除処理の後に残った鳥瞰画像BEV_1〜BEV_4の一部を座標変換によって互いに結合する。結合処理が完了すると、上階層のルーチンに復帰する。   The all-around bird's-eye view creation process in step S7 shown in FIG. 15 follows a subroutine shown in FIG. First, in step S71, the variable M is set to “1”. As described above, the variable M is a variable that is updated in the order of “1” → “2” → “3” → “4”. In step S73, an image outside the boundary line is deleted from the bird's-eye view image BEV_M, and in step S75, it is determined whether or not the variable M has reached “4”. If the variable M is less than “4”, the variable M is updated in step S77, and the process returns to step S73. On the other hand, if the variable M indicates “4”, the process proceeds to step S79, and part of the bird's-eye view images BEV_1 to BEV_4 remaining after the deletion process in step S73 is coupled to each other by coordinate transformation. When the joining process is completed, the routine returns to the upper layer routine.

以上の説明から分かるように、カメラC_1〜C_4のうちカメラC_3およびC_4に注目したとき、カメラC_3およびC_4は、共通視野VW_34を部分的に有するように路面を斜め上から捉える。CPU12pは、このようなカメラC_3およびC_4からそれぞれ出力された被写界像P_3およびP_4を取り込み(S1)、取り込まれた被写界像P_3およびP_4を鳥瞰画像BEV_3およびBEV_4にそれぞれ変換し(S3)、そして変換された鳥瞰画像BEV_3およびBEV_4を共通視野VW_34に割り当てられた境界線BL(=重み)を参照して合成する(S7)。   As can be seen from the above description, when attention is paid to the cameras C_3 and C_4 among the cameras C_1 to C_4, the cameras C_3 and C_4 grasp the road surface obliquely from above so as to partially have the common visual field VW_34. The CPU 12p captures the scene images P_3 and P_4 output from the cameras C_3 and C_4, respectively (S1), and converts the captured scene images P_3 and P_4 into the bird's-eye images BEV_3 and BEV_4, respectively (S3). Then, the converted bird's-eye images BEV_3 and BEV_4 are combined with reference to the boundary line BL (= weight) assigned to the common visual field VW_34 (S7).

共通視野VW_34に立体物が存在するとき、CPU12pは、鳥瞰画像BEV_3およびBEV_4の各々に現れた立体物画像の間の大きさの相違を検出し(S35)、検出された相違を参照して境界線BLの設定を調整する(S41, S43, S61)。境界線BLは、より大きな立体物画像が再現されるように設定される。   When a three-dimensional object exists in the common visual field VW_34, the CPU 12p detects a difference in size between the three-dimensional object images that appear in each of the bird's-eye images BEV_3 and BEV_4 (S35), and refers to the detected difference as a boundary. The setting of the line BL is adjusted (S41, S43, S61). The boundary line BL is set so that a larger three-dimensional object image is reproduced.

鳥瞰画像BEV_3およびBEV_4の各々に現れる立体物画像の大きさは、路面からの立体物の高さやカメラC_3およびC_4の各々と立体物との間の高さの差分に応じて異なる。鳥瞰画像BEV_3およびBEV_4を合成するときに参照される境界線BLは、このような立体物画像の大きさのカメラC_3およびC_4の間での相違に注目して調整される。これによって、立体物の視認性を向上させることができる。   The size of the three-dimensional object image appearing in each of the bird's-eye images BEV_3 and BEV_4 varies depending on the height of the three-dimensional object from the road surface and the height difference between each of the cameras C_3 and C_4 and the three-dimensional object. The boundary line BL that is referred to when the bird's-eye view images BEV_3 and BEV_4 are combined is adjusted by paying attention to the difference between the cameras C_3 and C_4 having such a three-dimensional object image size. Thereby, the visibility of a three-dimensional object can be improved.

なお、この実施例では、鳥瞰画像BEV_1〜BEV_4を結合するにあたって、境界線BLよりも外方の一部の画像を削除するようにしている(図5参照)。しかし、共通視野を表す2つの部分画像を加重加算によって合成し、加重加算の際に参照される重み付け量を立体物画像の大きさの相違に基づいて調整するようにしてもよい。   In this embodiment, when combining the bird's-eye view images BEV_1 to BEV_4, a part of the image outside the boundary line BL is deleted (see FIG. 5). However, two partial images representing the common visual field may be synthesized by weighted addition, and the weighting amount referred to at the time of weighted addition may be adjusted based on the difference in the size of the three-dimensional object image.

また、この実施例では、共通視野VW_MNについて作成した差分画像に基づいて共通視野VW_MNから障害物を検出するようにしている(図17のステップS13〜S15参照)。しかし、障害物の検出にあたっては、ステレオ視手法またはオプティカルフロー手法を用いてもよく、さらには超音波センサ,ミリ波センサまたはマイクロ波センサを用いるようにしてもよい。   In this embodiment, an obstacle is detected from the common visual field VW_MN based on the difference image created for the common visual field VW_MN (see steps S13 to S15 in FIG. 17). However, when detecting an obstacle, a stereo vision method or an optical flow method may be used, and an ultrasonic sensor, a millimeter wave sensor, or a microwave sensor may be used.

上述の実施例に関する注釈事項を以下に示す。この注釈事項は、矛盾がない限り、上述の実施例に任意に組み合わせることが可能である。   The following are notes on the above-described embodiment. This annotation can be arbitrarily combined with the above-described embodiment as long as there is no contradiction.

実施例で述べたような撮影画像から鳥瞰図画像を生成する座標変換は、一般に透視投影変換と呼ばれる。この透視投影変換を用いるのではなく、公知の平面射影変換によって撮影画像から鳥瞰図画像を生成するようにしてもよい。平面射影変換を用いる場合、撮影画像上の各画素の座標値を鳥瞰図画像上の各画素の座標値に変換するためのホモグラフィ行列(座標変換行列)をカメラ校正処理の段階で予め求めておく。ホモグラフィ行列の求め方は公知である。そして、画像変換を行う際に、ホモグラフィ行列に基づいて撮影画像を鳥瞰図画像に変換すればよい。いずれにせよ、撮影画像を鳥瞰図画像上に投影することによって撮影画像が鳥瞰図画像に変換される。   The coordinate transformation for generating a bird's eye view image from a captured image as described in the embodiment is generally called a perspective projection transformation. Instead of using the perspective projection conversion, a bird's eye view image may be generated from the captured image by a known plane projective conversion. When using planar projective transformation, a homography matrix (coordinate transformation matrix) for converting the coordinate value of each pixel on the captured image into the coordinate value of each pixel on the bird's eye view image is obtained in advance at the stage of camera calibration processing. . A method for obtaining a homography matrix is known. And when performing image conversion, what is necessary is just to convert a picked-up image into a bird's-eye view image based on a homography matrix. In any case, the captured image is converted into the bird's-eye view image by projecting the captured image onto the bird's-eye view image.

10 …操縦支援装置
C1〜C4 …カメラ
12 …画像処理回路
12p …CPU
12m …メモリ
14 …フラシュメモリ
16 …表示装置
100 …車両
200 …障害物
DESCRIPTION OF SYMBOLS 10 ... Steering assistance apparatus C1-C4 ... Camera 12 ... Image processing circuit 12p ... CPU
12m ... Memory 14 ... Flash memory 16 ... Display device 100 ... Vehicle 200 ... Obstacle

Claims (6)

共通視野を部分的に有するように基準面を斜め上から捉える複数のカメラからそれぞれ出力された複数の被写界像を取り込む取り込み手段、
前記取り込み手段によって取り込まれた複数の被写界像を前記基準面を真上から捉えた状態を表す複数の鳥瞰画像にそれぞれ変換する変換手段、
前記変換手段によって変換された複数の鳥瞰画像を前記共通視野に割り当てられた重みを参照して合成する合成手段、
前記共通視野に立体物が存在するとき前記変換手段によって変換された複数の鳥瞰画像にそれぞれ現れた複数の立体物画像の間の大きさの相違を検出する第1検出手段、および
前記第1検出手段によって検出された相違を参照して前記重みを調整する第1調整手段を備える、画像処理装置。
Capture means for capturing a plurality of object scene images respectively output from a plurality of cameras capturing the reference plane obliquely from above so as to partially have a common visual field,
Conversion means for respectively converting a plurality of object scene images captured by the capturing means into a plurality of bird's-eye images representing a state in which the reference plane is captured from directly above;
Combining means for combining a plurality of bird's-eye images converted by the converting means with reference to weights assigned to the common visual field;
First detection means for detecting a difference in size between a plurality of three-dimensional object images respectively appearing in a plurality of bird's-eye images converted by the conversion means when a three-dimensional object exists in the common visual field; and the first detection An image processing apparatus comprising first adjusting means for adjusting the weight with reference to a difference detected by the means.
前記第1調整手段はより大きな立体物画像が再現されるように前記重みを調整する、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first adjustment unit adjusts the weight so that a larger three-dimensional object image is reproduced. 前記第1検出手段の検出処理に関連して前記立体物の動き量を検出する第2検出手段、
前記第2検出手段によって検出された動き量を参照して前記重みを調整する第2調整手段、および
前記第1検出手段によって検出された相違が基準を下回るとき前記第1調整手段に代えて前記第2調整手段を起動する制御手段をさらに備える、請求項1または2記載の画像処理装置。
Second detection means for detecting the amount of movement of the three-dimensional object in relation to the detection processing of the first detection means;
Second adjustment means for adjusting the weight with reference to the amount of motion detected by the second detection means; and when the difference detected by the first detection means falls below a reference, the first adjustment means instead of the first adjustment means The image processing apparatus according to claim 1, further comprising a control unit that activates the second adjustment unit.
前記第2調整手段は前記立体物の移動方向に存在するカメラの立体物画像が再現されるように前記重みを調整する、請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the second adjustment unit adjusts the weight so that a three-dimensional object image of a camera existing in a moving direction of the three-dimensional object is reproduced. 前記重みは前記共通視野に定義される境界線をパラメータとして含み、
前記合成手段は、前記境界線よりも外方の部分画像を前記複数の鳥瞰画像の各々から削除する削除手段、および前記削除手段の削除処理の後に残った複数の部分鳥瞰画像を互いに結合する結合手段を含む、請求項1ないし4のいずれかに記載の画像処理装置。
The weight includes a boundary defined in the common field of view as a parameter,
The synthesizing unit is configured to delete a partial image outside the boundary line from each of the plurality of bird's-eye images, and to combine the plurality of partial bird's-eye images remaining after the deletion process of the deleting unit. The image processing apparatus according to claim 1, further comprising means.
前記複数のカメラは移動体に設けられ、
前記合成手段によって作成された合成鳥瞰画像を前記移動体の操縦者に向けて表示する表示手段をさらに備える、請求項1ないし5のいずれかに記載の画像処理装置。
The plurality of cameras are provided on a moving body,
The image processing apparatus according to claim 1, further comprising display means for displaying a synthesized bird's-eye image created by the synthesizing means toward a driver of the moving body.
JP2009100552A 2009-04-17 2009-04-17 Image processing device Withdrawn JP2010250640A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009100552A JP2010250640A (en) 2009-04-17 2009-04-17 Image processing device
PCT/JP2010/053389 WO2010119734A1 (en) 2009-04-17 2010-03-03 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009100552A JP2010250640A (en) 2009-04-17 2009-04-17 Image processing device

Publications (1)

Publication Number Publication Date
JP2010250640A true JP2010250640A (en) 2010-11-04

Family

ID=42982402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009100552A Withdrawn JP2010250640A (en) 2009-04-17 2009-04-17 Image processing device

Country Status (2)

Country Link
JP (1) JP2010250640A (en)
WO (1) WO2010119734A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011036892A1 (en) * 2009-09-24 2011-03-31 パナソニック株式会社 Driving support display device
JP2012113605A (en) * 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp Driving support apparatus and driving support method
JP2012174152A (en) * 2011-02-24 2012-09-10 Fujitsu Semiconductor Ltd Image processing device, image processing system and image processing method
WO2015146230A1 (en) * 2014-03-27 2015-10-01 クラリオン株式会社 Image display device and image display system
CN103782591B (en) * 2011-08-26 2017-02-15 松下知识产权经营株式会社 Driving assistance apparatus
JP2019016308A (en) * 2017-07-10 2019-01-31 株式会社Zmp Object detection device and method
JP2019073051A (en) * 2017-10-12 2019-05-16 トヨタ自動車株式会社 Display device for vehicle
WO2024142361A1 (en) * 2022-12-28 2024-07-04 三菱電機株式会社 Video synthesizing device, video synthesizing method, and video synthesizing program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6084434B2 (en) * 2012-10-31 2017-02-22 クラリオン株式会社 Image processing system and image processing method
JP6295026B2 (en) * 2013-03-19 2018-03-14 住友重機械工業株式会社 Excavator
DE102014001496A1 (en) * 2014-01-29 2015-07-30 Man Truck & Bus Ag A method of imaging a surrounding area of a motor vehicle with a birdview system
DE102015204213B4 (en) * 2015-03-10 2023-07-06 Robert Bosch Gmbh Method for combining two images of a vehicle environment of a vehicle and corresponding device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625059B2 (en) * 2000-06-30 2005-03-02 松下電器産業株式会社 Drawing device
JP4907883B2 (en) * 2005-03-09 2012-04-04 株式会社東芝 Vehicle periphery image display device and vehicle periphery image display method
JP4830380B2 (en) * 2005-07-13 2011-12-07 日産自動車株式会社 Vehicle periphery monitoring device and vehicle periphery monitoring method
JP4883977B2 (en) * 2005-10-05 2012-02-22 アルパイン株式会社 Image display device for vehicle
DE102006003538B3 (en) * 2006-01-24 2007-07-19 Daimlerchrysler Ag Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section
JP4315968B2 (en) * 2006-08-21 2009-08-19 三洋電機株式会社 Image processing apparatus and visibility support apparatus and method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011036892A1 (en) * 2009-09-24 2011-03-31 パナソニック株式会社 Driving support display device
US8655019B2 (en) 2009-09-24 2014-02-18 Panasonic Corporation Driving support display device
JP2012113605A (en) * 2010-11-26 2012-06-14 Toshiba Alpine Automotive Technology Corp Driving support apparatus and driving support method
JP2012174152A (en) * 2011-02-24 2012-09-10 Fujitsu Semiconductor Ltd Image processing device, image processing system and image processing method
CN103782591B (en) * 2011-08-26 2017-02-15 松下知识产权经营株式会社 Driving assistance apparatus
WO2015146230A1 (en) * 2014-03-27 2015-10-01 クラリオン株式会社 Image display device and image display system
JP2015192198A (en) * 2014-03-27 2015-11-02 クラリオン株式会社 Video display device and video display system
JP2019016308A (en) * 2017-07-10 2019-01-31 株式会社Zmp Object detection device and method
JP2019073051A (en) * 2017-10-12 2019-05-16 トヨタ自動車株式会社 Display device for vehicle
WO2024142361A1 (en) * 2022-12-28 2024-07-04 三菱電機株式会社 Video synthesizing device, video synthesizing method, and video synthesizing program
JP7584723B1 (en) 2022-12-28 2024-11-15 三菱電機株式会社 Image synthesis device, image synthesis method, and image synthesis program

Also Published As

Publication number Publication date
WO2010119734A1 (en) 2010-10-21

Similar Documents

Publication Publication Date Title
WO2010119734A1 (en) Image processing device
US9098928B2 (en) Image-processing system and image-processing method
JP2022095776A (en) Rear-stitched view panorama for rear-view visualization
WO2010016340A1 (en) Maneuver support apparatus
JP5835383B2 (en) Information processing method, information processing apparatus, and program
JP5422902B2 (en) Image processing apparatus, image processing program, image processing system, and image processing method
US10897600B1 (en) Sensor fusion based perceptually enhanced surround view
JP2010093605A (en) Maneuvering assisting apparatus
WO2010137265A1 (en) Device for monitoring area around vehicle
JP2010141836A (en) Obstacle detecting apparatus
JP2008187564A (en) Camera calibration apparatus and method, and vehicle
JP2010258691A (en) Maneuver assisting apparatus
CN111986270B (en) A panoramic parking calibration method, device and storage medium
JP2012040883A (en) Device for generating image of surroundings of vehicle
JP5178454B2 (en) Vehicle perimeter monitoring apparatus and vehicle perimeter monitoring method
JP5183152B2 (en) Image processing device
WO2010035628A1 (en) Steering assistance device
WO2010116801A1 (en) Image processing device
JP4972036B2 (en) Image processing device
JP6293089B2 (en) Rear monitor
JP5271186B2 (en) Image display device for vehicle
JP2017084422A (en) Device, method, and program
JP6583486B2 (en) Information processing method, information processing program, and information processing apparatus
JP2009077022A (en) Driving support system and vehicle
JP6128185B2 (en) Apparatus, method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703