[go: up one dir, main page]

JP6724821B2 - Overhead video generation device, overhead video generation system, overhead video generation method and program - Google Patents

Overhead video generation device, overhead video generation system, overhead video generation method and program Download PDF

Info

Publication number
JP6724821B2
JP6724821B2 JP2017036657A JP2017036657A JP6724821B2 JP 6724821 B2 JP6724821 B2 JP 6724821B2 JP 2017036657 A JP2017036657 A JP 2017036657A JP 2017036657 A JP2017036657 A JP 2017036657A JP 6724821 B2 JP6724821 B2 JP 6724821B2
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
bird
eye view
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017036657A
Other languages
Japanese (ja)
Other versions
JP2018142883A (en
JP2018142883A5 (en
Inventor
勝彦 久保
勝彦 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017036657A priority Critical patent/JP6724821B2/en
Priority to PCT/JP2017/039953 priority patent/WO2018159019A1/en
Priority to EP17898960.4A priority patent/EP3537714B1/en
Publication of JP2018142883A publication Critical patent/JP2018142883A/en
Priority to US16/357,473 priority patent/US10855934B2/en
Publication of JP2018142883A5 publication Critical patent/JP2018142883A5/ja
Application granted granted Critical
Publication of JP6724821B2 publication Critical patent/JP6724821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラムに関する。 The present invention relates to a bird's-eye view video generation device, a bird's-eye view video generation system, a bird's-eye view video generation method, and a program.

車両の周囲に設置された複数のカメラで車両周辺を撮影し、撮影した複数の映像に視点変換処理を行い合成した俯瞰映像をモニタに表示させる技術が知られている(例えば、特許文献1参照)。この技術では、車速及び障害物に関する所定の条件が満たされた時に、表示部に表示された周辺画像を、表示範囲が異なる他の周辺画像に切り替える。 A technique is known in which a plurality of cameras installed around the vehicle captures an image of the vehicle periphery, and a plurality of captured images are subjected to viewpoint conversion processing to display a combined bird's-eye view image on a monitor (see, for example, Patent Document 1). ). In this technique, when a predetermined condition regarding the vehicle speed and the obstacle is satisfied, the peripheral image displayed on the display unit is switched to another peripheral image having a different display range.

特開2012−227699号公報JP2012-227699A

表示部に表示された周辺画像の表示範囲が切り替わって拡大されると、相対的に障害物が小さく表示される。表示される障害物が小さくなることで、障害物を正しく認識することが難しくなるおそれがある。表示される障害物が小さくなることで、障害物と車両との位置関係を正しく把握することが難しくなるおそれがある。このように、検出した障害物を俯瞰映像で表示することには改善の余地がある。 When the display range of the peripheral image displayed on the display unit is switched and enlarged, the obstacle is displayed relatively small. As the displayed obstacle becomes smaller, it may be difficult to correctly recognize the obstacle. Since the displayed obstacle becomes smaller, it may be difficult to correctly grasp the positional relationship between the obstacle and the vehicle. Thus, there is room for improvement in displaying the detected obstacle in a bird's-eye view image.

本発明は、上記に鑑みてなされたものであって、検出した障害物と車両との位置関係を直感的に把握できるようにに表示することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to display the detected positional relationship between an obstacle and a vehicle so that the positional relationship can be intuitively grasped.

上述した課題を解決し、目的を達成するために、本発明に係る俯瞰映像生成装置は、車両の周辺を撮影した周辺映像データを取得する映像データ取得部と、前記車両の周辺において検出した障害物の位置情報を取得する障害物情報取得部と、前記障害物情報取得部が取得した前記障害物の位置情報に基づいて、前記映像データ取得部が取得した周辺映像を、前記車両および前記障害物が俯瞰できるように、前記車両から前記障害物への延長線上に仮想視点が位置するように視点変換処理を行って合成した俯瞰映像を生成する俯瞰映像生成部と、前記俯瞰映像生成部が生成した俯瞰映像を表示部に表示させる表示制御部とを有することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, a bird's-eye view video generation device according to the present invention includes a video data acquisition unit that acquires peripheral video data of a periphery of a vehicle and a failure detected in the periphery of the vehicle. An obstacle information acquisition unit that acquires position information of an object, and the peripheral image acquired by the image data acquisition unit based on the position information of the obstacle acquired by the obstacle information acquisition unit, the vehicle and the obstacle. The bird's-eye view image generation unit and the bird's-eye view image generation unit generate a bird's-eye view image by performing viewpoint conversion processing so that a virtual viewpoint is located on an extension line from the vehicle to the obstacle so that the object can be viewed from above. And a display control unit for displaying the generated bird's-eye view image on the display unit.

本発明に係る俯瞰映像生成システムは、上記の俯瞰映像生成装置と、前記車両の周辺を撮影する複数のカメラ、前記表示部、障害物を検出し障害物情報を出力する検出部の少なくともいずれかとを備える。 A bird's-eye view image generation system according to the present invention includes at least one of the above-mentioned bird's-eye view image generation device, a plurality of cameras that photograph the periphery of the vehicle, the display unit, and a detection unit that detects obstacles and outputs obstacle information. Equipped with.

本発明に係る俯瞰映像生成方法は、車両の周辺を撮影した周辺映像データを取得する映像データ取得ステップと、前記車両の周辺において検出した障害物の位置情報を取得する障害物情報取得ステップと、前記障害物情報取得ステップで取得した前記障害物の位置情報に基づいて、前記映像データ取得ステップで取得した周辺映像を、前記車両および前記障害物が俯瞰できるように、前記車両から前記障害物への延長線上に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する俯瞰映像生成ステップと、前記俯瞰映像生成ステップで生成した俯瞰映像を表示部に表示させる表示制御ステップとを含む。 A bird's-eye view video generation method according to the present invention includes a video data acquisition step of acquiring peripheral video data of the surroundings of a vehicle, an obstacle information acquisition step of acquiring positional information of an obstacle detected in the vicinity of the vehicle, Based on the position information of the obstacle acquired in the obstacle information acquisition step, the peripheral image acquired in the image data acquisition step can be viewed from the vehicle to the obstacle so that the vehicle and the obstacle can be overlooked. Including an overhead-view video generation step of generating an overhead-view video subjected to viewpoint conversion processing so that a virtual viewpoint is located on an extension line of the above, and a display control step of displaying the overhead-view video generated in the overhead-view video generation step on a display unit. ..

本発明に係るプログラムは、車両の周辺を撮影した周辺映像データを取得する映像データ取得ステップと、前記車両の周辺において検出した障害物の位置情報を取得する障害物情報取得ステップと、前記障害物情報取得ステップで取得した前記障害物の位置情報に基づいて、前記映像データ取得ステップで取得した周辺映像を、前記車両および前記障害物が俯瞰できるように、前記車両から前記障害物への延長線上に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する俯瞰映像生成ステップと、前記俯瞰映像生成ステップで生成した俯瞰映像を表示部に表示させる表示制御ステップとを俯瞰映像生成装置として動作するコンピュータに実行させる。 A program according to the present invention includes a video data acquisition step of acquiring peripheral video data of a surrounding area of a vehicle, an obstacle information acquisition step of acquiring positional information of an obstacle detected around the vehicle, and the obstacle. Based on the position information of the obstacle acquired in the information acquisition step, the peripheral image acquired in the image data acquisition step is an extension line from the vehicle to the obstacle so that the vehicle and the obstacle can be overlooked. A bird's-eye view image generation step that generates a bird's-eye view image that has been subjected to viewpoint conversion processing so that a virtual viewpoint is located in Let the computer run as.

本発明によれば、検出した障害物と車両との位置関係を直感的に把握できるように表示することができるという効果を奏する。 According to the present invention, the positional relationship between the detected obstacle and the vehicle can be displayed so that the user can intuitively understand the positional relationship.

図1は、第一実施形態に係る俯瞰映像生成システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of an overhead view video generation system according to the first embodiment. 図2は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。FIG. 2 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view image generation system according to the first embodiment. 図3は、第一実施形態に係る俯瞰映像生成システムで生成した俯瞰映像の一例を示す図である。FIG. 3 is a diagram showing an example of an overhead view image generated by the overhead view image generation system according to the first embodiment. 図4は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置を説明する概略図である。FIG. 4 is a schematic diagram illustrating the position of the virtual viewpoint in the bird's-eye view image generation system according to the first embodiment. 図5は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置を説明する概略図である。FIG. 5 is a schematic diagram illustrating the position of the virtual viewpoint in the overhead view image generation system according to the first embodiment. 図6は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。FIG. 6 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the first embodiment. 図7は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。FIG. 7 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the first embodiment. 図8は、第一実施形態に係る俯瞰映像生成システムにおける処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing the flow of processing in the bird's eye view video generation system according to the first embodiment. 図9は、第二実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。FIG. 9 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view image generation system according to the second embodiment. 図10は、第三実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。FIG. 10 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view image generation system according to the third embodiment. 図11は、第三実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の他の例を説明する概略図である。FIG. 11 is a schematic diagram illustrating another example of the position of the virtual viewpoint in the overhead view video generation system according to the third embodiment. 図12は、第三実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。FIG. 12 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the third embodiment. 図13は、第四実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。FIG. 13 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the fourth embodiment.

以下に添付図面を参照して、本発明に係る俯瞰映像生成装置40、俯瞰映像生成システム1、俯瞰映像生成方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Embodiments of an overhead view video generation device 40, an overhead view video generation system 1, an overhead view video generation method, and a program according to the present invention will be described in detail below with reference to the accompanying drawings. The present invention is not limited to the embodiments described below.

以下の説明においては、前後方向とは、車両直進時の進行方向と平行な方向であり、運転席からウインドシールドに向かう側を前後方向の「前」、ウインドシールドから運転席に向かう側を前後方向の「後」とする。前後方向を、X軸方向とする。左右方向とは、前後方向に対して水平に直交する方向である。ウインドシールドへ向かって、左手側が「左」、右手側が「右」である。左右方向を、Y軸方向とする。上下方向とは、前後方向および左右方向に対して直交する方向である。上下方向を、Z軸方向とする。したがって、前後方向、左右方向および鉛直方向は、3次元で直交する。以下の説明における前後、左右、上下は、俯瞰映像生成システム1を車両に搭載した状態での前後、左右、上下である。 In the following description, the front-rear direction is a direction parallel to the traveling direction when the vehicle goes straight, and the side from the driver's seat to the windshield is the front side in the front-rear direction, and the side from the windshield to the driver's seat is the front-rear direction. The direction is “after”. The front-back direction is the X-axis direction. The left-right direction is a direction that is horizontally orthogonal to the front-rear direction. Towards the windshield, the left hand side is "left" and the right hand side is "right". The left-right direction is the Y-axis direction. The up-down direction is a direction orthogonal to the front-rear direction and the left-right direction. The vertical direction is the Z-axis direction. Therefore, the front-back direction, the left-right direction, and the vertical direction are three-dimensionally orthogonal. Front-rear, left-right, and top-bottom in the following description are front-rear, left-right, and top-bottom when the bird's-eye view image generation system 1 is mounted on a vehicle.

[第一実施形態]
図1は、第一実施形態に係る俯瞰映像生成システムの構成例を示すブロック図である。俯瞰映像生成システム1は、車両Vに搭載されている。俯瞰映像生成システム1は、車両Vに載置されているものに加えて、可搬型で車両Vにおいて利用可能な装置であってもよい。
[First embodiment]
FIG. 1 is a block diagram showing a configuration example of an overhead view video generation system according to the first embodiment. The bird's-eye view image generation system 1 is mounted on a vehicle V. The bird's-eye view image generation system 1 may be a device that is portable and usable in the vehicle V, in addition to the device mounted on the vehicle V.

図1を用いて、俯瞰映像生成システム1について説明する。俯瞰映像生成システム1は、前方カメラ11と、後方カメラ12と、左側方カメラ13と、右側方カメラ14と、センサ群(障害物センサ)20と、表示パネル(表示部)30と、俯瞰映像生成装置40とを有する。 The overhead view video generation system 1 will be described with reference to FIG. The overhead view image generation system 1 includes a front camera 11, a rear camera 12, a left side camera 13, a right side camera 14, a sensor group (obstacle sensor) 20, a display panel (display unit) 30, and an overhead view image. And a generator 40.

図2を用いて、前方カメラ11と後方カメラ12と左側方カメラ13と右側方カメラ14とについて説明する。図2は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。前方カメラ11は、車両Vの前方に配置され、車両Vの前方を中心とした周辺を撮影する。前方カメラ11は、例えば、180°程度の撮影範囲A1を撮影する。前方カメラ11は、撮影した映像を俯瞰映像生成装置40の映像データ取得部42へ出力する。 The front camera 11, the rear camera 12, the left side camera 13, and the right side camera 14 will be described with reference to FIG. FIG. 2 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view image generation system according to the first embodiment. The front camera 11 is arranged in front of the vehicle V and takes an image of the periphery around the front of the vehicle V. The front camera 11 shoots a shooting range A1 of about 180°, for example. The front camera 11 outputs the captured video to the video data acquisition unit 42 of the overhead video generation device 40.

後方カメラ12は、車両Vの後方に配置され、車両Vの後方を中心とした周辺を撮影する。後方カメラ12は、例えば、180°程度の撮影範囲A2を撮影する。後方カメラ12は、撮影した映像を俯瞰映像生成装置40の映像データ取得部42へ出力する。 The rear camera 12 is arranged behind the vehicle V and photographs the periphery of the rear of the vehicle V as a center. The rear camera 12 shoots a shooting range A2 of about 180°, for example. The rear camera 12 outputs the captured video to the video data acquisition unit 42 of the overhead view video generation device 40.

左側方カメラ13は、車両Vの左側方に配置され、車両Vの左側方を中心とした周辺を撮影する。左側方カメラ13は、例えば、180°程度の撮影範囲A3を撮影する。左側方カメラ13は、撮影した映像を俯瞰映像生成装置40の映像データ取得部42へ出力する。 The left side camera 13 is arranged on the left side of the vehicle V, and photographs the periphery of the left side of the vehicle V as a center. The left camera 13 shoots a shooting range A3 of about 180°, for example. The left camera 13 outputs the captured video to the video data acquisition unit 42 of the overhead view video generation device 40.

右側方カメラ14は、車両Vの右側方に配置され、車両Vの右側方を中心とした周辺を撮影する。右側方カメラ14は、例えば、180°程度の図示しない撮影範囲A4を撮影する。右側方カメラ14は、撮影した映像を俯瞰映像生成装置40の映像データ取得部42へ出力する。 The right side camera 14 is arranged on the right side of the vehicle V and takes an image of the periphery around the right side of the vehicle V. The right camera 14 shoots a shooting range A4 (not shown) of about 180°, for example. The right camera 14 outputs the captured video to the video data acquisition unit 42 of the overhead view video generation device 40.

このような前方カメラ11と後方カメラ12と左側方カメラ13と右側方カメラ14とで、車両Vの全方位を撮影する。 The front camera 11, the rear camera 12, the left-side camera 13, and the right-side camera 14 capture images in all directions of the vehicle V.

図1に戻って、センサ群20は、車両Vの周辺の障害物Qを検出する検出部である。センサ群20は、俯瞰映像の表示範囲Aを含む範囲の障害物Qを検出可能である。本実施形態では、センサ群20は、前方センサと、後方センサと、左側方センサと、右側方センサとを含む。センサ群20は、センシング方式によっては数十mから数百mの距離までのセンシングが可能であるが、本目的に用いる場合は車両Vから5m程度までの距離の障害物Qを検出する。センサ群20は、例えば、赤外線センサ、超音波センサ、ミリ波センサ、画像認識によるセンサ等、複数方式のセンサの組合せなど様々な方式が適用可能である。 Returning to FIG. 1, the sensor group 20 is a detection unit that detects an obstacle Q around the vehicle V. The sensor group 20 can detect an obstacle Q in a range including the display range A of the overhead view image. In the present embodiment, the sensor group 20 includes a front sensor, a rear sensor, a left side sensor, and a right side sensor. Depending on the sensing method, the sensor group 20 is capable of sensing from a distance of several tens to several hundreds of meters, but when used for this purpose, it detects an obstacle Q at a distance of approximately 5 m from the vehicle V. For the sensor group 20, for example, various methods such as a combination of a plurality of methods of sensors such as an infrared sensor, an ultrasonic sensor, a millimeter wave sensor, and a sensor based on image recognition can be applied.

前方センサは、車両Vの前方に配置され、車両Vの前方を中心とした範囲に存在する障害物Qを検出する。前方センサは、車両Vが前進しているときに車両Vと接触するおそれがある、地上から高さを有するものを検出する。前方センサは、例えば、車両Vから5m程度までの距離の障害物Qを検出する。前方センサの検出範囲は、前方カメラ11の撮影範囲A1と重複する。前方センサの検出範囲は、左側方センサおよび右側方センサの検出範囲の一部と重複していてもよい。前方センサは、複数のセンサの組み合わせで構成されている。これにより、障害物Qの方向を細分化して検出する。前方センサは、検出した障害物Qの障害物情報を俯瞰映像生成装置40の障害物情報取得部43へ出力する。 The front sensor is arranged in front of the vehicle V and detects an obstacle Q existing in a range centered on the front of the vehicle V. The front sensor detects an object having a height from the ground that may come into contact with the vehicle V when the vehicle V is moving forward. The front sensor detects an obstacle Q at a distance of about 5 m from the vehicle V, for example. The detection range of the front sensor overlaps the shooting range A1 of the front camera 11. The detection range of the front sensor may overlap a part of the detection range of the left side sensor and the right side sensor. The front sensor is composed of a combination of a plurality of sensors. As a result, the direction of the obstacle Q is subdivided and detected. The front sensor outputs the detected obstacle information of the obstacle Q to the obstacle information acquisition unit 43 of the overhead view image generation device 40.

後方センサは、車両Vの後方に配置され、車両Vの後方を中心とした範囲に存在する障害物Qを検出する。後方センサは、車両Vが後退しているときに車両Vと接触するおそれがある、地上から高さを有するものを検出する。後方センサは、例えば、車両Vから5m程度までの距離の障害物Qを検出する。後方センサの検出範囲は、後方カメラ12の撮影範囲A2と重複する。後方センサの検出範囲は、左側方センサおよび右側方センサの検出範囲の一部と重複していてもよい。後方センサは、複数のセンサの組み合わせで構成されている。これにより、障害物Qの方向を細分化して検出する。後方センサは、検出した障害物Qの障害物情報を俯瞰映像生成装置40の障害物情報取得部43へ出力する。 The rear sensor is arranged behind the vehicle V and detects an obstacle Q existing in a range centered on the rear of the vehicle V. The rear sensor detects an object having a height from the ground that may come into contact with the vehicle V when the vehicle V is moving backward. The rear sensor detects an obstacle Q at a distance of, for example, about 5 m from the vehicle V. The detection range of the rear sensor overlaps the shooting range A2 of the rear camera 12. The detection range of the rear sensor may overlap a part of the detection range of the left side sensor and the right side sensor. The rear sensor is composed of a combination of a plurality of sensors. As a result, the direction of the obstacle Q is subdivided and detected. The rear sensor outputs the obstacle information of the detected obstacle Q to the obstacle information acquisition unit 43 of the overhead view image generation device 40.

左側方センサは、車両Vの左側方に配置され、車両Vの左側方を中心とした範囲に存在する障害物Qを検出する。左側方センサは、車両Vが操舵しながら前進または後退しているときに車両Vと接触するおそれがある、地上から高さを有するものを検出する。左側方センサは、例えば、車両Vから5m程度までの距離の障害物Qを検出する。左側方センサの検出範囲は、左側方カメラ13の撮影範囲A3と重複する。左側方センサの検出範囲は、前方センサおよび後方センサの検出範囲の一部と重複していてもよい。左側方センサは、複数のセンサの組み合わせで構成されている。これにより、障害物Qの方向を細分化して検出する。左側方センサは、検出した障害物Qの障害物情報を俯瞰映像生成装置40の障害物情報取得部43へ出力する。 The left side sensor is arranged on the left side of the vehicle V and detects an obstacle Q existing in a range centered on the left side of the vehicle V. The left side sensor detects an object having a height from the ground that may come into contact with the vehicle V when the vehicle V is moving forward or backward while steering. The left side sensor detects, for example, an obstacle Q at a distance of about 5 m from the vehicle V. The detection range of the left side sensor overlaps with the shooting range A3 of the left side camera 13. The detection range of the left side sensor may overlap a part of the detection range of the front sensor and the rear sensor. The left side sensor is composed of a combination of a plurality of sensors. As a result, the direction of the obstacle Q is subdivided and detected. The left side sensor outputs the obstacle information of the detected obstacle Q to the obstacle information acquisition unit 43 of the overhead view image generation device 40.

右側方センサは、車両Vの右側方に配置され、車両Vの右側方を中心とした範囲に存在する障害物Qを検出する。右側方センサは、車両Vが操舵しながら前進または後退しているときに車両Vと接触するおそれがある、地上から高さを有するものを検出する。右側方センサは、例えば、車両Vから5m程度までの距離の障害物Qを検出する。右側方センサの検出範囲は、右側方カメラ14の撮影範囲A4と重複する。右側方センサの検出範囲は、前方センサおよび後方センサの検出範囲の一部と重複していてもよい。右側方センサは、複数のセンサの組み合わせで構成されている。これにより、障害物Qの方向を細分化して検出する。右側方センサは、検出した障害物Qの障害物情報を俯瞰映像生成装置40の障害物情報取得部43へ出力する。 The right side sensor is arranged on the right side of the vehicle V and detects an obstacle Q existing in a range centered on the right side of the vehicle V. The right side sensor detects an object having a height from the ground that may come into contact with the vehicle V when the vehicle V is moving forward or backward while steering. The right side sensor detects an obstacle Q at a distance of about 5 m from the vehicle V, for example. The detection range of the right side sensor overlaps the shooting range A4 of the right side camera 14. The detection range of the right side sensor may overlap a part of the detection range of the front sensor and the rear sensor. The right side sensor is composed of a combination of a plurality of sensors. As a result, the direction of the obstacle Q is subdivided and detected. The right side sensor outputs the obstacle information of the detected obstacle Q to the obstacle information acquisition unit 43 of the overhead view image generation device 40.

表示パネル30は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro−Luminescence)ディスプレイを含むディスプレイである。表示パネル30は、俯瞰映像生成システム1の俯瞰映像生成装置40から出力された映像信号に基づいて、俯瞰映像100(図3参照)を表示する。表示パネル30は、俯瞰映像生成システム1に専用のものであっても、例えば、ナビゲーションシステムを含む他のシステムと共同で使用するものであってもよい。表示パネル30は、運転者から視認容易な位置に配置されている。 The display panel 30 is a display including, for example, a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL (Organic Electro-Luminescence) display. The display panel 30 displays the overhead view image 100 (see FIG. 3) based on the video signal output from the overhead view video generation device 40 of the overhead view video generation system 1. The display panel 30 may be dedicated to the bird's-eye view image generation system 1 or may be used together with another system including a navigation system, for example. The display panel 30 is arranged at a position where it can be easily viewed by the driver.

表示パネル30は、表示パネル30の形状が横長の矩形である場合、複数の表示範囲に分割されていてもよい。例えば、表示パネル30は、俯瞰映像100を表示する表示範囲と、俯瞰映像100の表示範囲の側方に配置された、ナビゲーション画面やオーディオ画面を表示する表示範囲とを有する。俯瞰映像100を表示する表示範囲は、縦長の矩形状である。 When the shape of the display panel 30 is a horizontally long rectangle, the display panel 30 may be divided into a plurality of display ranges. For example, the display panel 30 has a display range for displaying the bird's-eye view image 100 and a display range for displaying a navigation screen or an audio screen, which is arranged beside the display range of the bird's-eye view image 100. The display range in which the overhead view image 100 is displayed is a vertically long rectangular shape.

俯瞰映像生成装置40は、制御部41と、記憶部49とを有する。 The overhead view video generation device 40 includes a control unit 41 and a storage unit 49.

制御部41は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。制御部41は、記憶部49に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部41は、映像データ取得部42と、障害物情報取得部43と、車両情報取得部44と、俯瞰映像生成部45と、表示制御部48とを有する。 The control unit 41 is, for example, an arithmetic processing unit including a CPU (Central Processing Unit) and the like. The control unit 41 loads the program stored in the storage unit 49 into the memory and executes the instructions included in the program. The control unit 41 includes a video data acquisition unit 42, an obstacle information acquisition unit 43, a vehicle information acquisition unit 44, an overhead view video generation unit 45, and a display control unit 48.

映像データ取得部42は、車両Vの周辺を撮影した周辺映像データを取得する。より詳しくは、映像データ取得部42は、前方カメラ11と後方カメラ12と左側方カメラ13と右側方カメラ14とが出力した周辺映像データを取得する。映像データ取得部42は、取得した周辺映像データを俯瞰映像生成部45に出力する。 The video data acquisition unit 42 acquires peripheral video data of the surroundings of the vehicle V. More specifically, the video data acquisition unit 42 acquires peripheral video data output by the front camera 11, the rear camera 12, the left side camera 13, and the right side camera 14. The video data acquisition unit 42 outputs the acquired peripheral video data to the overhead view video generation unit 45.

障害物情報取得部43は、車両Vの周辺において検出した障害物Qの障害物情報を取得し、検出した障害物Qの俯瞰映像上の位置を特定する。より詳しくは、障害物情報取得部43は、センサ群20が出力した障害物情報を取得する。障害物情報取得部43は、障害物情報を出力したセンサの取付位置と当該センサによる障害物の検出範囲とに基づいて、障害物Qの方向を細分化して取得する。障害物情報取得部43は、検出した障害物Qまでの距離を含む障害物情報を取得する。障害物情報取得部43は、取得した障害物Qの方向と距離とに基づいて、障害物Qの俯瞰映像上の位置を特定する。 The obstacle information acquisition unit 43 acquires the obstacle information of the obstacle Q detected around the vehicle V and specifies the position of the detected obstacle Q on the bird's-eye view image. More specifically, the obstacle information acquisition unit 43 acquires the obstacle information output by the sensor group 20. The obstacle information acquisition unit 43 subdivides and acquires the direction of the obstacle Q based on the mounting position of the sensor that outputs the obstacle information and the detection range of the obstacle by the sensor. The obstacle information acquisition unit 43 acquires obstacle information including the detected distance to the obstacle Q. The obstacle information acquisition unit 43 specifies the position of the obstacle Q on the overhead view image based on the acquired direction and distance of the obstacle Q.

車両情報取得部44は、車両Vのギア操作情報など、俯瞰映像100を表示させるためのトリガとなる車両情報を、CAN(Controller Area Network)や車両Vの状態をセンシングする各種センサなどから取得する。本実施形態では、車両情報は、車両Vの進行方向を示す情報を含む。車両情報取得部44は、取得した車両情報を俯瞰映像生成部45に出力する。 The vehicle information acquisition unit 44 acquires vehicle information that is a trigger for displaying the bird's-eye view image 100, such as gear operation information of the vehicle V, from a CAN (Controller Area Network) or various sensors that sense the state of the vehicle V. .. In the present embodiment, the vehicle information includes information indicating the traveling direction of the vehicle V. The vehicle information acquisition unit 44 outputs the acquired vehicle information to the overhead view video generation unit 45.

俯瞰映像生成部45は、映像データ取得部42が取得した周辺映像データに視点変換処理を行い合成することで、車両Vの上方を仮想視点Pとした俯瞰映像100を生成する。 The bird's-eye view video generation unit 45 generates the bird's-eye view video 100 with the virtual viewpoint P above the vehicle V by performing viewpoint conversion processing and combining the peripheral video data acquired by the video data acquisition unit 42.

図2を用いて、仮想視点Pについて説明する。仮想視点Pは、車両Vの中央の上方に位置している。仮想視点Pは、車両Vの中央の真上から見下すような視点である。車両Vの中央とは、車両Vの車幅方向の中央、かつ、前後方向の中央である。車両Vの真上とは、車両Vの基準面の垂線上の位置である。基準面とは、車両Vが水平かつ平坦な路面上に位置しているときに路面と水平な平面である。仮想視点Pの位置を、(x,y,z)とする。 The virtual viewpoint P will be described with reference to FIG. The virtual viewpoint P is located above the center of the vehicle V. The virtual viewpoint P is a viewpoint looking down from directly above the center of the vehicle V. The center of the vehicle V is the center of the vehicle V in the vehicle width direction and the center of the vehicle V in the front-rear direction. The position directly above the vehicle V is a position on the normal line of the reference plane of the vehicle V. The reference surface is a plane that is horizontal to the road surface when the vehicle V is located on a horizontal and flat road surface. The position of the virtual viewpoint P is (x, y, z).

図3を用いて、生成された俯瞰映像100について説明する。図3は、第一実施形態に係る俯瞰映像生成システムで生成した俯瞰映像の一例を示す図である。俯瞰映像100は、表示範囲Aの周辺映像を、仮想視点Pとして視点変換処理をした映像を合成して表示する。俯瞰映像100は、前方映像101と後方映像102と左側方映像103と右側方映像104とを含む。前方映像101の表示面積と後方映像102の表示面積とは同じ広さである。左側方映像103の表示面積と右側方映像104の表示面積とは同じ広さである。俯瞰映像100の中央部は、車両Vを示す自車両アイコン200が表示されている。自車両アイコン200は、車両Vを真上から見下した形態を示す。 The generated bird's-eye view image 100 will be described with reference to FIG. FIG. 3 is a diagram showing an example of an overhead view image generated by the overhead view image generation system according to the first embodiment. The bird's-eye view image 100 synthesizes and displays the peripheral image of the display range A as the virtual viewpoint P and the image obtained by the viewpoint conversion processing. The overhead view image 100 includes a front image 101, a rear image 102, a left side image 103, and a right side image 104. The display area of the front image 101 and the display area of the rear image 102 are the same size. The display area of the left side image 103 and the display area of the right side image 104 are the same size. At the center of the bird's-eye view image 100, a vehicle icon 200 indicating the vehicle V is displayed. The host vehicle icon 200 shows a form in which the vehicle V is viewed from directly above.

図3においては、前方映像101と左側方映像103との合成境界B1と、前方映像101と右側方映像104との合成境界B2と、後方映像102と左側方映像103との合成境界B3と、後方映像102と右側方映像104との合成境界B4とを示す斜めの破線を説明のために図示しているが、実際に表示パネル30に表示される俯瞰映像100には当該破線は表示されても表示されなくてもよい。他の図も同様である。以下の説明において、合成境界B1と合成境界B2と合成境界B3と合成境界B4とを特に区別する必要がないときは、合成境界Bとして説明する。 In FIG. 3, a combination boundary B1 between the front image 101 and the left side image 103, a combination boundary B2 between the front image 101 and the right side image 104, a combination boundary B3 between the rear image 102 and the left side image 103, and Although an oblique broken line showing the composite boundary B4 of the rear image 102 and the right side image 104 is shown for explanation, the broken line is not displayed in the overhead view image 100 actually displayed on the display panel 30. May not be displayed. The same applies to the other figures. In the following description, when there is no particular need to distinguish between the composite boundary B1, the composite boundary B2, the composite boundary B3, and the composite boundary B4, the composite boundary B will be described.

俯瞰映像生成部45は、障害物情報取得部43が取得した障害物Qの位置情報に基づいて、所定条件を満たす障害物が存在するとき、映像データ取得部42が取得した周辺映像を、車両Vおよび障害物Qが俯瞰できるように、車両Vの真上に位置する仮想視点Pから、車幅方向または前後方向の少なくともいずれかに離間して仮想視点PFが位置するように視点変換処理を行って合成した俯瞰映像を生成する。 The bird's-eye view image generation unit 45, based on the position information of the obstacle Q acquired by the obstacle information acquisition unit 43, when there is an obstacle satisfying a predetermined condition, sets the surrounding image acquired by the image data acquisition unit 42 to the vehicle. The viewpoint conversion process is performed so that the virtual viewpoint PF is located apart from at least one of the vehicle width direction and the front-rear direction from the virtual viewpoint P located directly above the vehicle V so that the V and the obstacle Q can be overlooked. Generate a bird's-eye view image that is synthesized by going.

所定条件とは、障害物Qとして検出する条件である。本実施形態では、所定条件は、障害物Qが車両Vの進行方向に位置すること、である。障害物Qが車両Vの進行方向に位置する場合、所定条件を満たすと判定し、障害物Qとして検出する。例えば、車両Vが後退しているとき、障害物Qが車両Vの前端より後方に位置する場合、所定条件を満たすと判定し、障害物Qとして検出する。より詳しくは、制御部41は、車両Vが後退しているとき、センサ群20のうち、車両Vの前端より後方の障害物Qを検出するセンサが障害物Qを検出した場合、所定条件を満たすと判定し、障害物Qとして検出する。本実施形態では、車両Vが後退している場合について説明する。 The predetermined condition is a condition for detecting the obstacle Q. In the present embodiment, the predetermined condition is that the obstacle Q is located in the traveling direction of the vehicle V. When the obstacle Q is located in the traveling direction of the vehicle V, it is determined that the predetermined condition is satisfied, and the obstacle Q is detected. For example, when the vehicle V is moving backward and the obstacle Q is located behind the front end of the vehicle V, it is determined that the predetermined condition is satisfied, and the obstacle Q is detected. More specifically, when the vehicle V is moving backward, the control unit 41 sets a predetermined condition when a sensor in the sensor group 20 that detects an obstacle Q behind the front end of the vehicle V detects the obstacle Q. It is determined that the condition is satisfied, and the obstacle Q is detected. In this embodiment, a case where the vehicle V is moving backward will be described.

俯瞰映像生成部45は、視点変換処理部451と、切出処理部452と、合成処理部453とを有する。 The bird's-eye view video generation unit 45 includes a viewpoint conversion processing unit 451, a cutout processing unit 452, and a synthesis processing unit 453.

視点変換処理部451は、映像データ取得部42で取得した周辺映像データに対して、車両Vを上方の仮想視点Pから見下ろすように視点変換処理を行う。より詳しくは、視点変換処理部451は、前方カメラ11と後方カメラ12と左側方カメラ13と右側方カメラ14とで撮影した周辺映像データに基づいて、視点変換処理を行った映像を生成する。視点変換処理の方法は、公知のいずれの方法でもよく、限定されない。視点変換処理部451は、視点変換処理を行った周辺映像データを切出処理部452に出力する。 The viewpoint conversion processing unit 451 performs viewpoint conversion processing on the peripheral video data acquired by the video data acquisition unit 42 so as to look down the vehicle V from the upper virtual viewpoint P. More specifically, the viewpoint conversion processing unit 451 generates a viewpoint-converted image based on the peripheral image data captured by the front camera 11, the rear camera 12, the left side camera 13, and the right side camera 14. The viewpoint conversion processing method may be any known method and is not limited. The viewpoint conversion processing unit 451 outputs the peripheral video data subjected to the viewpoint conversion processing to the cutout processing unit 452.

視点変換処理部451は、障害物情報取得部43が取得した障害物Qの位置情報に基づいて、所定条件を満たす障害物が存在するとき、車両Vおよび障害物Qが俯瞰できるように、車両Vの真上に位置する仮想視点Pから、車幅方向または前後方向の少なくともいずれかに離間して仮想視点PFが位置するように視点変換処理を行って映像を生成する。より詳しくは、視点変換処理部451は、車両Vの進行方向に位置する障害物Qが存在するとき、車両Vおよび障害物Qの相対的な位置関係が認識できるように、仮想視点の位置を仮想視点Pから離間した仮想視点PFとして視点変換処理をした映像を生成する。視点変換処理部451は、視点変換処理を行った周辺映像データを切出処理部452に出力する。 Based on the position information of the obstacle Q acquired by the obstacle information acquisition unit 43, the viewpoint conversion processing unit 451 provides a bird's-eye view of the vehicle V and the obstacle Q when an obstacle satisfying a predetermined condition exists. From the virtual viewpoint P located directly above V, viewpoint conversion processing is performed so that the virtual viewpoint PF is located at a distance in at least either the vehicle width direction or the front-rear direction, and an image is generated. More specifically, the viewpoint conversion processing unit 451 determines the position of the virtual viewpoint so that the relative positional relationship between the vehicle V and the obstacle Q can be recognized when the obstacle Q located in the traveling direction of the vehicle V exists. An image that has undergone the viewpoint conversion processing is generated as a virtual viewpoint PF separated from the virtual viewpoint P. The viewpoint conversion processing unit 451 outputs the peripheral video data subjected to the viewpoint conversion processing to the cutout processing unit 452.

車両Vおよび障害物Qの相対的な位置関係を認識できるとは、俯瞰映像において、車両Vと障害物Qとが重なることなく表されていることをいう。さらに、車両Vおよび障害物Qの相対的な位置関係を認識できるとは、車両Vまたは障害物Qが移動するときに、車両Vと障害物Qとの相対的な距離の変化に応じて、俯瞰映像における車両Vと障害物Qとの相対的な位置関係が変化することをいう。 To be able to recognize the relative positional relationship between the vehicle V and the obstacle Q means that the vehicle V and the obstacle Q are represented without overlapping in the overhead view image. Furthermore, that the relative positional relationship between the vehicle V and the obstacle Q can be recognized means that when the vehicle V or the obstacle Q moves, the relative distance between the vehicle V and the obstacle Q changes. It means that the relative positional relationship between the vehicle V and the obstacle Q in the overhead view image changes.

仮想視点PFは、障害物が検出された方向における俯瞰映像の画角が、仮想視点Pの俯瞰映像100の画角と同程度になる位置とすることが好ましい。仮想視点Pの俯瞰映像100と仮想視点を仮想視点PAに移動した俯瞰映像とは、用いる映像は同一であるが、仮想視点の位置に対応して適切な仮想投影面における領域を俯瞰映像に用いる。このため、障害物が検出された方向における俯瞰映像の画角の変化が大きい場合、仮想視点位置が変更されたときに、俯瞰映像上の障害物の位置を把握しやすい。具体的には、仮想視点PAを車両Vの後方とした場合、仮想視点PAが位置する方向である後方映像は仮想視点Pとした後方映像102の切出画角と同程度とし、仮想視点PAとは車両Vを挟んで反対方向である前方映像は仮想視点Pとした前方映像101より車両前方に広い切出画角とする。このようにすることで、仮想視点PAから見下ろしたような俯瞰映像を生成することができる。 The virtual viewpoint PF is preferably located at a position where the angle of view of the bird's-eye view image in the direction in which the obstacle is detected is approximately the same as the angle of view of the bird's-eye view image 100 of the virtual viewpoint P. The bird's-eye view image 100 of the virtual viewpoint P and the bird's-eye view image in which the virtual viewpoint is moved to the virtual viewpoint PA use the same image, but use an area on the appropriate virtual projection plane corresponding to the position of the virtual viewpoint as the bird's-eye view image. .. Therefore, when there is a large change in the angle of view of the bird's-eye view image in the direction in which the obstacle is detected, it is easy to grasp the position of the obstacle on the bird's-eye view image when the virtual viewpoint position is changed. Specifically, when the virtual viewpoint PA is behind the vehicle V, the rear image in the direction in which the virtual viewpoint PA is located has the same angle as the cut-out angle of view of the rear image 102 that is the virtual viewpoint P. The front image, which is in the opposite direction across the vehicle V, has a wider angle of view in front of the vehicle than the front image 101 which is the virtual viewpoint P. By doing so, it is possible to generate a bird's-eye view image that looks down from the virtual viewpoint PA.

仮想視点Pから車幅方向または前後方向に離間した仮想視点PFの位置は、図4、図5に示すような、車両Vを中心とした曲面に位置する。図4は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置を説明する概略図である。図5は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置を説明する概略図である。このような曲面上を仮想視点PFとした俯瞰映像の画角は、仮想視点Pとした俯瞰映像100の画角と変わらないので、俯瞰映像に表示される障害物Qの大きさが変わらない。このため、仮想視点の位置が変更されても、障害物Qと車両Vとの相対的な位置関係を直感的に把握しやすい俯瞰映像が生成される。 The position of the virtual viewpoint PF separated from the virtual viewpoint P in the vehicle width direction or the front-rear direction is located on a curved surface centered on the vehicle V as shown in FIGS. 4 and 5. FIG. 4 is a schematic diagram illustrating the position of the virtual viewpoint in the bird's-eye view image generation system according to the first embodiment. FIG. 5 is a schematic diagram illustrating the position of the virtual viewpoint in the overhead view image generation system according to the first embodiment. Since the angle of view of the bird's-eye view image having the virtual viewpoint PF on such a curved surface does not change from the angle of view of the bird's-eye view image 100 having the virtual viewpoint P, the size of the obstacle Q displayed in the bird's-eye view image does not change. Therefore, even if the position of the virtual viewpoint is changed, a bird's-eye view image is generated that makes it easy to intuitively grasp the relative positional relationship between the obstacle Q and the vehicle V.

仮想視点PFは、車両Vの中央と障害物Qとの距離より車両Vの中央から離れた位置とすることが好ましい。これにより、障害物Qと車両Vとの相対的な位置関係が認識しやすい俯瞰映像が生成される。 The virtual viewpoint PF is preferably located farther from the center of the vehicle V than the distance between the center of the vehicle V and the obstacle Q. Thereby, a bird's-eye view image in which the relative positional relationship between the obstacle Q and the vehicle V is easily recognized is generated.

本実施形態では、図6、図7に示すように、視点変換処理部451は、車両Vの左後方に位置する障害物Qが検出されたとき、車両Vから障害物Qへの延長線L61上に位置する仮想視点PFとして視点変換処理を行った映像を生成する。図6は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。図7は、第一実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。仮想視点PFの位置は、(xF,yF,zF)で表される。 In the present embodiment, as shown in FIGS. 6 and 7, when the obstacle Q located to the left rear of the vehicle V is detected, the viewpoint conversion processing unit 451 extends an extension line L61 from the vehicle V to the obstacle Q. An image subjected to the viewpoint conversion processing is generated as the virtual viewpoint PF located above. FIG. 6 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the first embodiment. FIG. 7 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the first embodiment. The position of the virtual viewpoint PF is represented by (xF, yF, zF).

仮想視点PFについて説明する。本実施形態では、仮想視点PFは、車両Vの左後方に位置している。仮想視点PFは、Z軸方向視において、障害物Qより左後方に位置している。仮想視点PFは、Z軸方向視において、仮想視点Pより左後方に位置している。仮想視点PFは、車両Vの中央と障害物Qとの距離より車両Vの中央から離れている。仮想視点PFは、車両Vを左後方から斜めに見下すような視点である。 The virtual viewpoint PF will be described. In the present embodiment, the virtual viewpoint PF is located on the left rear of the vehicle V. The virtual viewpoint PF is located to the left rear of the obstacle Q when viewed in the Z-axis direction. The virtual viewpoint PF is located to the left rear of the virtual viewpoint P when viewed in the Z-axis direction. The virtual viewpoint PF is farther from the center of the vehicle V than the distance between the center of the vehicle V and the obstacle Q. The virtual viewpoint PF is a viewpoint that looks down the vehicle V obliquely from the left rear.

切出処理部452は、視点変換処理を行った周辺映像データから所定の範囲の映像を切出す切出処理を行う。切出処理部452は、視点変換処理を行った前方カメラ11からの周辺映像データから、前方切出範囲を切出す。切出処理部452は、視点変換処理を行った後方カメラ12からの周辺映像データから、後方切出範囲を切出す。切出処理部452は、視点変換処理を行った左側方カメラ13からの周辺映像データから、左側方切出範囲を切出す。切出処理部452は、視点変換処理を行った右側方カメラ14からの周辺映像データから、右側方切出範囲を切出す。切出処理部452は、切出処理を行った映像の映像データを合成処理部453に出力する。 The cutout processing unit 452 performs a cutout process of cutting out a predetermined range of video from the peripheral video data subjected to the viewpoint conversion processing. The cutout processing unit 452 cuts out the front cutout range from the peripheral image data from the front camera 11 that has undergone the viewpoint conversion processing. The cutout processing unit 452 cuts out the rear cutout range from the peripheral image data from the rear camera 12 that has undergone the viewpoint conversion processing. The cutout processing unit 452 cuts out the left-side cutout range from the peripheral image data from the left-sided camera 13 that has undergone the viewpoint conversion processing. The cutout processing unit 452 cuts out the right-side cutout range from the peripheral image data from the right-sided camera 14 that has been subjected to the viewpoint conversion processing. The cutout processing unit 452 outputs the video data of the video subjected to the cutout processing to the synthesis processing unit 453.

前方切出範囲は、視点変換処理を行った周辺映像データから前方映像101を切出す範囲である。前方切出範囲は、車両Vの前端部から前方の範囲である。後方切出範囲は、視点変換処理を行った周辺映像データから後方映像102を切出す範囲である。後方切出範囲は、車両Vの後端部から後方の範囲である。左側方切出範囲は、視点変換処理を行った周辺映像データから左側方映像103を切出す範囲である。左側方切出範囲は、車両Vの左側部から左方の範囲である。右側方切出範囲は、視点変換処理を行った周辺映像データから右側方映像104を切出す範囲である。右側方切出範囲は、車両Vの右側部から右方の範囲である。 The front cutout range is a range in which the front image 101 is cut out from the peripheral image data that has undergone the viewpoint conversion process. The front cut-out range is a range from the front end of the vehicle V to the front. The rear cutout range is a range in which the rear image 102 is cut out from the peripheral image data that has undergone the viewpoint conversion process. The rear cutout range is a range behind the rear end of the vehicle V. The left side cutout range is a range in which the left side image 103 is cut out from the peripheral image data that has undergone the viewpoint conversion processing. The left side cut-out range is a range from the left side portion of the vehicle V to the left side. The right side cutout range is a range in which the right side image 104 is cut out from the peripheral image data that has undergone the viewpoint conversion processing. The right side cutout range is a range from the right side of the vehicle V to the right side.

合成処理部453は、切出処理部452で切出した複数の映像を合成し俯瞰映像を生成する。合成処理部453は、生成した俯瞰映像を表示制御部48に出力する。 The combining processing unit 453 combines the plurality of videos cut out by the cutting processing unit 452 to generate an overhead view video. The synthesis processing unit 453 outputs the generated bird's-eye view video to the display control unit 48.

合成処理部453は、視点変換処理を行った映像を合成する場合、合成した俯瞰映像の中央部に、仮想視点から見た自車両の形態を模した自車両アイコンを合成する。仮想視点位置を車両Vの真上から見下した場合の仮想視点Pとした場合の自車両アイコンは、図3に示す自車両アイコン200のように自車両を真上から見たような形態である。これに対して仮想視点位置を仮想視点Pから離間した位置に設定した場合は、自車両を仮想視点から斜めに見下した形態とすることが好ましい。このような形態とした場合、仮想視点から自車両を挟んで反対側の俯瞰映像は自車両に近い範囲が自車両アイコンの陰となる表示とすることが自然な表示となる。このような場合であっても、自車両アイコンは、自車両アイコンによる死角が生じないような表示形態とすることが好ましい。例えば、自車両アイコンは、半透過としてもよい。例えば、自車両アイコンは、外形を示す枠状としてもよい。 When synthesizing the images on which the viewpoint conversion processing has been performed, the synthesizing processing unit 453 synthesizes the own vehicle icon imitating the form of the own vehicle viewed from the virtual viewpoint in the central portion of the synthesized bird's-eye view image. The own vehicle icon when the virtual viewpoint position is the virtual viewpoint P when looking down from directly above the vehicle V has a form as if the own vehicle was viewed from directly above like the own vehicle icon 200 shown in FIG. .. On the other hand, when the virtual viewpoint position is set to a position separated from the virtual viewpoint P, it is preferable that the host vehicle be viewed obliquely from the virtual viewpoint. In such a form, it is natural that the bird's-eye view image on the opposite side of the own vehicle from the virtual viewpoint is displayed such that a range near the own vehicle is shaded by the own vehicle icon. Even in such a case, it is preferable that the host vehicle icon has a display form in which a blind spot due to the host vehicle icon does not occur. For example, the own vehicle icon may be semi-transparent. For example, the own vehicle icon may have a frame shape indicating the outer shape.

図1に戻って、表示制御部48は、俯瞰映像を表示パネル30に表示させる。 Returning to FIG. 1, the display control unit 48 causes the display panel 30 to display the overhead view image.

記憶部49は、俯瞰映像生成装置40における各種処理に要するデータおよび各種処理結果を記憶する。記憶部49は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。 The storage unit 49 stores data required for various processes in the bird's-eye view video generation device 40 and various process results. The storage unit 49 is a semiconductor memory device such as a RAM (Random Access Memory), a ROM (Read Only Memory), or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk.

次に、図8を用いて、俯瞰映像生成システム1の俯瞰映像生成装置40における処理の流れについて説明する。図8は、第一実施形態に係る俯瞰映像生成システムにおける処理の流れを示すフローチャートである。 Next, the flow of processing in the bird's-eye view video generation device 40 of the bird's-eye view video generation system 1 will be described with reference to FIG. FIG. 8 is a flowchart showing the flow of processing in the bird's eye view video generation system according to the first embodiment.

俯瞰映像生成システム1が起動されると、制御部41は、映像データ取得部42で周辺映像データを取得させる。制御部41は、障害物情報取得部43で障害物情報を取得させる。 When the bird's-eye view video generation system 1 is activated, the control unit 41 causes the video data acquisition unit 42 to acquire peripheral video data. The control unit 41 causes the obstacle information acquisition unit 43 to acquire obstacle information.

制御部41は、俯瞰映像表示を開始するか否かを判定する(ステップS11)。本実施形態では、制御部41は、後退トリガの有無に基づいて、俯瞰映像表示を開始するか否かを判定する。後退トリガとは、例えば、シフトポジションが「リバース」とされたことをいう。または、後退トリガとは、車両Vの進行方向が車両Vの後方となったことをいう。制御部41は、後退トリガがない場合、俯瞰映像表示を開始しないと判定し(ステップS11でNo)、ステップS11の処理を再度実行する。制御部41は、後退トリガがある場合、俯瞰映像表示を開始すると判定し(ステップS11でYes)、ステップS12に進む。俯瞰映像表示を開始させるトリガは、後退トリガに限らず、ユーザ操作、障害物検出結果、停止時など任意のトリガが適用される。 The control unit 41 determines whether or not to start the overhead view image display (step S11). In the present embodiment, the control unit 41 determines whether or not to start the bird's-eye view image display based on the presence/absence of the backward trigger. The backward trigger means that the shift position is set to "reverse", for example. Alternatively, the backward trigger means that the traveling direction of the vehicle V is behind the vehicle V. When there is no backward trigger, the control unit 41 determines not to start the bird's eye view image display (No in step S11), and executes the process of step S11 again. When there is a backward trigger, the control unit 41 determines to start the bird's-eye view image display (Yes in step S11), and proceeds to step S12. The trigger for starting the overhead image display is not limited to the backward trigger, and any trigger such as user operation, obstacle detection result, and stop may be applied.

制御部41は、障害物Qを検出したか否かを判定する(ステップS12)。より詳しくは、制御部41は、障害物情報取得部43で所定条件を満たす障害物Qの障害物情報を取得したか否かを判定する。制御部41は、所定条件を満たす障害物Qの障害物情報が取得されたと判定した場合(ステップS12でYes)、ステップS13に進む。制御部41は、所定条件を満たす障害物Qの障害物情報が取得されていないと判定した場合(ステップS12でNo)、ステップS17に進む。 The control unit 41 determines whether or not the obstacle Q is detected (step S12). More specifically, the control unit 41 determines whether or not the obstacle information acquisition unit 43 has acquired the obstacle information of the obstacle Q satisfying a predetermined condition. When determining that the obstacle information of the obstacle Q satisfying the predetermined condition is acquired (Yes in step S12), the control unit 41 proceeds to step S13. When determining that the obstacle information of the obstacle Q satisfying the predetermined condition is not acquired (No in step S12), the control unit 41 proceeds to step S17.

制御部41は、車両Vに対する障害物Qの位置情報を取得する(ステップS13)。より詳しくは、制御部41は、障害物情報取得部43で、取得した障害物情報に基づいて、障害物Qの俯瞰映像上の位置を取得させる。制御部41は、ステップS14に進む。 The control unit 41 acquires the position information of the obstacle Q with respect to the vehicle V (step S13). More specifically, the control unit 41 causes the obstacle information acquisition unit 43 to acquire the position of the obstacle Q on the bird's-eye view image based on the acquired obstacle information. The control unit 41 proceeds to step S14.

制御部41は、障害物Qは俯瞰映像の表示範囲A内に位置しているか否かを判定する(ステップS14)。より詳しくは、制御部41は、ステップS13で取得した障害物Qの位置情報に基づいて、障害物Qが俯瞰映像の表示範囲A内であるか否かを判定する。制御部41は、障害物Qが俯瞰映像の表示範囲A内であると判定した場合(ステップS14でYes)、ステップS16に進む。制御部41は、障害物Qが俯瞰映像の表示範囲A内ではないと判定した場合(ステップS14でNo)、ステップS15に進む。 The control unit 41 determines whether or not the obstacle Q is located within the display range A of the overhead view image (step S14). More specifically, the control unit 41 determines whether or not the obstacle Q is within the display range A of the overhead view image based on the position information of the obstacle Q acquired in step S13. When the control unit 41 determines that the obstacle Q is within the display range A of the overhead view image (Yes in step S14), the process proceeds to step S16. When the control unit 41 determines that the obstacle Q is not within the display range A of the overhead view image (No in step S14), the process proceeds to step S15.

制御部41は、俯瞰映像100を生成し表示する(ステップS15)。より詳しくは、制御部41は、俯瞰映像生成部45で、映像データ取得部42で取得した周辺映像データから車両Vを仮想視点Pで上方から見下ろすように視点変換処理を行い俯瞰映像100を生成させ、表示パネル30に表示させる。制御部41は、ステップS13に進む。 The control unit 41 generates and displays the overhead view image 100 (step S15). More specifically, the control unit 41 generates a bird's-eye view image 100 by the bird's-eye view image generation unit 45 by performing viewpoint conversion processing so that the vehicle V is looked down from above with the virtual viewpoint P from the peripheral image data acquired by the image data acquisition unit 42. Then, it is displayed on the display panel 30. The control unit 41 proceeds to step S13.

制御部41は、仮想視点位置を変更する(ステップS16)。より詳しくは、制御部41は、俯瞰映像生成部45で、俯瞰映像100の仮想視点Pの位置を変更して仮想視点PFとした俯瞰映像を生成させ、表示パネル30に表示させる。制御部41は、ステップS18に進む。 The control unit 41 changes the virtual viewpoint position (step S16). More specifically, the control unit 41 causes the bird's-eye view image generation unit 45 to change the position of the virtual viewpoint P of the bird's-eye view image 100 to generate the bird's-eye view image as the virtual viewpoint PF, and display it on the display panel 30. The control unit 41 proceeds to step S18.

本実施形態では、制御部41は、俯瞰映像生成部45で、車両Vから障害物Qへの延長線L61上に位置する仮想視点PFとして視点変換処理を行った映像を生成させ、表示パネル30に表示させる。 In the present embodiment, the control unit 41 causes the overhead image generation unit 45 to generate an image that has undergone the viewpoint conversion processing as the virtual viewpoint PF located on the extension line L61 from the vehicle V to the obstacle Q, and the display panel 30. To display.

制御部41は、俯瞰映像100を生成し表示する(ステップS17)。制御部41は、ステップS15と同様の処理を行う。 The control unit 41 generates and displays the overhead view image 100 (step S17). The control unit 41 performs the same process as step S15.

制御部41は、俯瞰映像表示を終了するか否かを判定する(ステップS18)。より詳しくは、制御部41は、後退終了トリガの有無に基づいて、俯瞰映像表示を終了するか否かを判定する。後退終了トリガとは、例えば、シフトポジションが「リバース」から他のポジションとなったことをいう。制御部41は、後退終了トリガがある場合、俯瞰映像表示を終了すると判定し(ステップS18でYes)、処理を終了する。制御部41は、後退終了トリガがない場合、俯瞰映像表示を終了しないと判定し(ステップS18でNo)、ステップS12に戻って処理を継続する。 The control unit 41 determines whether or not to end the overhead view image display (step S18). More specifically, the control unit 41 determines whether to end the bird's-eye view image display based on the presence/absence of the backward movement end trigger. The reverse end trigger means, for example, that the shift position has changed from "reverse" to another position. When there is the backward movement end trigger, the control unit 41 determines to end the bird's-eye view video display (Yes in step S18), and ends the process. If there is no backward end trigger, the control unit 41 determines not to end the overhead view image display (No in step S18), and returns to step S12 to continue the process.

このようにして、俯瞰映像生成システム1は、障害物Qが進行方向に検出された場合、仮想視点の位置を車両Vから障害物Qへの延長線L61上に位置する仮想視点PFに変更した俯瞰映像を生成する。 In this way, the overhead view image generation system 1 changes the position of the virtual viewpoint to the virtual viewpoint PF located on the extension line L61 from the vehicle V to the obstacle Q when the obstacle Q is detected in the traveling direction. Generate a bird's eye view video.

上述したように、本実施形態は、障害物Qが進行方向に検出された場合、仮想視点の位置を仮想視点PFに変更した俯瞰映像を生成する。これにより、本実施形態は、障害物Qが進行方向に検出された場合、仮想視点の位置を車両Vから障害物Qへの延長線L61上の位置に変更して、障害物Qと車両Vの相対的な位置関係が表わされた俯瞰映像を表示することができる。本実施形態によれば、障害物Qが車両Vに接触するか否かを俯瞰映像によって直感的に認識することができる。このように、本実施形態は、俯瞰映像において障害物Qを適切に表示することができる。本実施形態は、俯瞰映像における障害物Qの視認性を向上することができる。本実施形態は、車両周辺の障害物Qを適切に確認可能に表示することができる。 As described above, in the present embodiment, when the obstacle Q is detected in the traveling direction, the overhead view video in which the position of the virtual viewpoint is changed to the virtual viewpoint PF is generated. Accordingly, in the present embodiment, when the obstacle Q is detected in the traveling direction, the position of the virtual viewpoint is changed to the position on the extension line L61 from the vehicle V to the obstacle Q, and the obstacle Q and the vehicle V are changed. It is possible to display a bird's-eye view image showing the relative positional relationship of the. According to the present embodiment, whether or not the obstacle Q contacts the vehicle V can be intuitively recognized by the overhead view image. As described above, the present embodiment can properly display the obstacle Q in the overhead view image. The present embodiment can improve the visibility of the obstacle Q in the overhead image. In the present embodiment, the obstacle Q around the vehicle can be displayed so that it can be appropriately confirmed.

本実施形態では、例えば、障害物Qの後方に立って、近づく車両Vを誘導するような仮想視点PFとした俯瞰映像を表示することができる。これにより、車両Vの真上に位置する仮想視点Pとした俯瞰映像100に比べて、障害物Qが車両Vに接触するか否かかを俯瞰映像によって容易に認識することができる。 In this embodiment, for example, it is possible to display a bird's-eye view image as a virtual viewpoint PF that guides the approaching vehicle V while standing behind the obstacle Q. As a result, it is possible to easily recognize whether or not the obstacle Q comes into contact with the vehicle V by the bird's-eye view image as compared with the bird's-eye view image 100 with the virtual viewpoint P located right above the vehicle V.

本実施形態によれば、生成される俯瞰映像の画角が、仮想視点Pの俯瞰映像100の画角と同程度になる位置を仮想視点PFとしている。これにより、仮想視点PFとした俯瞰映像に表示される障害物Qの大きさが、俯瞰映像100に表示された障害物Qの大きさと変わらない。本実施形態によれば、仮想視点の位置が変更されても、障害物Qと車両Vとの相対的な距離を認識しやすい俯瞰映像を生成することができる。 According to the present embodiment, the position where the angle of view of the generated bird's-eye view image is approximately the same as the angle of view of the bird's-eye view image 100 of the virtual viewpoint P is the virtual viewpoint PF. As a result, the size of the obstacle Q displayed in the bird's-eye view image as the virtual viewpoint PF is the same as the size of the obstacle Q displayed in the bird's-eye view image 100. According to this embodiment, even if the position of the virtual viewpoint is changed, it is possible to generate a bird's-eye view image in which the relative distance between the obstacle Q and the vehicle V can be easily recognized.

[第二実施形態]
図9を参照しながら、本実施形態に係る俯瞰映像生成システム1について説明する。図9は、第二実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。俯瞰映像生成システム1は、基本的な構成は第一実施形態の俯瞰映像生成システム1と同様である。以下の説明においては、俯瞰映像生成システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の俯瞰映像生成システム1は、俯瞰映像生成部45の視点変換処理部451における処理が、第一実施形態の俯瞰映像生成システム1と異なる。
[Second embodiment]
The overhead view image generation system 1 according to the present embodiment will be described with reference to FIG. 9. FIG. 9 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view image generation system according to the second embodiment. The bird's-eye view video generation system 1 has the same basic configuration as the bird's-eye view video generation system 1 of the first embodiment. In the following description, the same components as those of the bird's-eye view video generation system 1 are designated by the same or corresponding symbols, and detailed description thereof is omitted. In the bird's-eye view video generation system 1 of this embodiment, the processing in the viewpoint conversion processing unit 451 of the bird's-eye view video generation unit 45 is different from that of the bird's-eye view video generation system 1 of the first embodiment.

視点変換処理部451は、障害物情報取得部43が取得した障害物Qの位置が車両Vの進行方向に位置するとき、車両Vから障害物Qへの延長線L62上で、障害物Qの真上に位置する仮想視点PGとして視点変換処理を行った映像を生成する。 When the position of the obstacle Q acquired by the obstacle information acquisition unit 43 is located in the traveling direction of the vehicle V, the viewpoint conversion processing unit 451 detects the obstacle Q on the extension line L62 from the vehicle V to the obstacle Q. An image subjected to the viewpoint conversion processing is generated as the virtual viewpoint PG located right above.

本実施形態では、視点変換処理部451は、後方に位置する障害物Qが検出されたとき、障害物Qの真上に位置する仮想視点PGとして視点変換処理を行った映像を生成する。仮想視点PGの位置は、(xG,yG,zG)で表される。 In this embodiment, when the obstacle Q located behind is detected, the viewpoint conversion processing unit 451 generates an image subjected to the viewpoint conversion processing as the virtual viewpoint PG positioned directly above the obstacle Q. The position of the virtual viewpoint PG is represented by (xG, yG, zG).

仮想視点PGについて説明する。本実施形態では、仮想視点PGは、車両Vの左後方に位置している。仮想視点PGは、Z軸方向視において、障害物Qに重なって位置している。仮想視点PGは、Z軸方向視において、仮想視点Pより左後方に位置している。仮想視点PGは、車両Vを障害物Qの真上から斜めに見下すような視点である。 The virtual viewpoint PG will be described. In the present embodiment, the virtual viewpoint PG is located on the left rear of the vehicle V. The virtual viewpoint PG is located so as to overlap the obstacle Q when viewed in the Z-axis direction. The virtual viewpoint PG is located to the left rear of the virtual viewpoint P when viewed in the Z-axis direction. The virtual viewpoint PG is a viewpoint that looks down at the vehicle V obliquely from directly above the obstacle Q.

次に、俯瞰映像生成システム1の俯瞰映像生成装置40における処理の流れについて説明する。俯瞰映像生成装置40は、図8に示すフローチャートに沿った処理を行う。本実施形態は、ステップS16における処理が第一実施形態と異なり、ステップS11〜ステップS15、ステップS17、ステップS18の処理は第一実施形態と同様の処理を行う。 Next, the flow of processing in the bird's-eye view video generation device 40 of the bird's-eye view video generation system 1 will be described. The bird's-eye view video generation device 40 performs processing according to the flowchart shown in FIG. In this embodiment, the processing in step S16 is different from that in the first embodiment, and the processing in steps S11 to S15, step S17, and step S18 is the same as that in the first embodiment.

制御部41は、仮想視点位置を変更する(ステップS16)。より詳しくは、制御部41は、俯瞰映像生成部45で、車両Vから障害物Qへの延長線L62上に位置する仮想視点PGとして俯瞰映像を生成させ、表示パネル30に表示させる。制御部41は、ステップS18に進む。 The control unit 41 changes the virtual viewpoint position (step S16). More specifically, the control unit 41 causes the bird's-eye view image generation unit 45 to generate the bird's-eye view image as the virtual viewpoint PG located on the extension line L62 from the vehicle V to the obstacle Q, and displays it on the display panel 30. The control unit 41 proceeds to step S18.

上述したように、本実施形態は、進行方向の障害物Qが検出された場合、車両Vから障害物Qへの延長線L62上で障害物Qの真上に位置する仮想視点PGの俯瞰映像を生成する。本実施形態は、進行方向の障害物Qが検出された場合、仮想視点の位置を障害物Qの真上に変更して、障害物Qと車両Vの相対的な位置関係がより正確に表わされた俯瞰映像を表示することができる。本実施形態によれば、障害物Qが車両Vに接触するか否かを俯瞰映像によって容易かつ正確に認識することができる。このように、本実施形態は、俯瞰映像において障害物Qを適切に表示することができる。本実施形態は、俯瞰映像における障害物Qの視認性を向上することができる。本実施形態は、車両周辺の障害物Qを適切に確認可能に表示することができる。 As described above, in the present embodiment, when the obstacle Q in the traveling direction is detected, the bird's-eye view image of the virtual viewpoint PG located right above the obstacle Q on the extension line L62 from the vehicle V to the obstacle Q. To generate. In the present embodiment, when an obstacle Q in the traveling direction is detected, the position of the virtual viewpoint is changed to a position directly above the obstacle Q so that the relative positional relationship between the obstacle Q and the vehicle V can be displayed more accurately. It is possible to display a bird's eye view video that was passed. According to the present embodiment, whether or not the obstacle Q contacts the vehicle V can be easily and accurately recognized from the overhead view image. As described above, the present embodiment can properly display the obstacle Q in the overhead view image. The present embodiment can improve the visibility of the obstacle Q in the overhead image. In the present embodiment, the obstacle Q around the vehicle can be displayed so that it can be appropriately confirmed.

本実施形態では、例えば、障害物Qと同じ位置に立って、近づく車両Vを誘導するような仮想視点PGとした俯瞰映像を表示することができる。これにより、車両Vの真上に位置する仮想視点Pとした俯瞰映像100に比べて、障害物Qが車両Vに接触するか否かを俯瞰映像によって直感的に認識することができる。 In the present embodiment, for example, it is possible to display a bird's-eye view image as a virtual viewpoint PG that guides the approaching vehicle V while standing at the same position as the obstacle Q. This makes it possible to intuitively recognize whether or not the obstacle Q contacts the vehicle V by the overhead view image, compared to the overhead view image 100 with the virtual viewpoint P located directly above the vehicle V.

[第三実施形態]
図10、図11を参照しながら、本実施形態に係る俯瞰映像生成システム1について説明する。図10は、第三実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。図11は、第三実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の他の例を説明する概略図である。本実施形態の俯瞰映像生成システム1は、俯瞰映像生成部45の視点変換処理部451における処理が、第一実施形態の俯瞰映像生成システム1と異なる。本実施形態は、障害物Q1と障害物Q2が存在する。
[Third embodiment]
The overhead view image generation system 1 according to the present embodiment will be described with reference to FIGS. 10 and 11. FIG. 10 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the third embodiment. FIG. 11 is a schematic diagram illustrating another example of the position of the virtual viewpoint in the overhead view video generation system according to the third embodiment. In the bird's-eye view video generation system 1 of this embodiment, the processing in the viewpoint conversion processing unit 451 of the bird's-eye view video generation unit 45 differs from that of the bird's-eye view video generation system 1 of the first embodiment. In this embodiment, an obstacle Q1 and an obstacle Q2 exist.

視点変換処理部451は、所定条件を満たす障害物が存在するとき、映像データ取得部42が取得した周辺映像を、車両Vから複数の障害物のそれぞれへの延長線に基づいて決めた位置に仮想視点が位置するようにして視点変換処理を行う。本実施形態では、視点変換処理部451は、所定条件を満たす障害物が存在するとき、周辺映像を、車両Vから複数の障害物Qのそれぞれへの延長線の中のいずれか二本の間の角の二等分線上に位置する仮想視点PHとして視点変換処理を行った映像を生成する。 When there is an obstacle satisfying a predetermined condition, the viewpoint conversion processing unit 451 places the peripheral image acquired by the image data acquisition unit 42 at a position determined based on the extension line from the vehicle V to each of the plurality of obstacles. The viewpoint conversion processing is performed so that the virtual viewpoint is located. In the present embodiment, when there is an obstacle that satisfies a predetermined condition, the viewpoint conversion processing unit 451 displays the peripheral image between any two of the extension lines from the vehicle V to each of the plurality of obstacles Q. An image that has undergone the viewpoint conversion processing is generated as the virtual viewpoint PH located on the bisector of the corner.

二本の延長線は、例えば、二本の延長線の間の角度が最も大きくなるものとしてもよい。または、二本の延長線は、例えば、車両Vからの距離が近い順に二つの障害物Qへの延長線としてもよい。 The two extension lines may have the largest angle between the two extension lines, for example. Alternatively, the two extension lines may be, for example, extension lines to the two obstacles Q in the order of decreasing distance from the vehicle V.

本実施形態では、図10に示すように、視点変換処理部451は、車両Vの左後方に位置する複数の障害物Qが検出されたとき、車両Vから障害物Q1への延長線L63と、車両Vから障害物Q2への延長線L64との間の角の二等分線L65上に位置する仮想視点PH1として視点変換処理を行った映像を生成する。仮想視点PH1の位置は、(xH1,yH1,zH1)で表される。 In the present embodiment, as shown in FIG. 10, when a plurality of obstacles Q located on the left rear side of the vehicle V are detected, the viewpoint conversion processing unit 451 determines an extension line L63 from the vehicle V to the obstacle Q1. , An image that has undergone the viewpoint conversion processing is generated as the virtual viewpoint PH1 located on the bisector L65 at the corner between the extension line L64 extending from the vehicle V to the obstacle Q2. The position of the virtual viewpoint PH1 is represented by (xH1, yH1, zH1).

仮想視点PH1について説明する。本実施形態では、仮想視点PH1は、車両Vの左後方に位置している。仮想視点PH1は、Z軸方向視において、障害物Q1より後方に、障害物Q2より左後方に位置している。仮想視点PH1は、Z軸方向視において、仮想視点Pより左後方に位置している。仮想視点PH1は、車両Vの中央と障害物Q1との距離、および、車両Vの中央と障害物Q2との距離より車両Vの中央から離れている。仮想視点PH1は、車両Vを左後方から斜めに見下すような視点である。 The virtual viewpoint PH1 will be described. In the present embodiment, the virtual viewpoint PH1 is located on the left rear of the vehicle V. The virtual viewpoint PH1 is located rearward of the obstacle Q1 and rearward left of the obstacle Q2 when viewed in the Z-axis direction. The virtual viewpoint PH1 is located to the left rear of the virtual viewpoint P when viewed in the Z-axis direction. The virtual viewpoint PH1 is farther from the center of the vehicle V than the distance between the center of the vehicle V and the obstacle Q1 and the distance between the center of the vehicle V and the obstacle Q2. The virtual viewpoint PH1 is a viewpoint that looks down the vehicle V diagonally from the left rear.

または、図11に示すように、視点変換処理部451は、車両Vの左後方に位置する障害物Q1と、車両Vの右側方に位置する障害物Q2とが検出されたとき、車両Vの中央から障害物Q1への延長線L66と、車両Vの中央から障害物Q2への延長線L67との間の角の二等分線L68上に位置する仮想視点PH2として俯瞰映像を生成してもよい。仮想視点PH2の位置は、(xH2,yH2,zH2)で表される。 Alternatively, as shown in FIG. 11, when the viewpoint conversion processing unit 451 detects an obstacle Q1 located on the left rear side of the vehicle V and an obstacle Q2 located on the right side of the vehicle V, A bird's-eye view image is generated as a virtual viewpoint PH2 located on the bisector L68 at the corner between the extension line L66 extending from the center to the obstacle Q1 and the extension line L67 extending from the center of the vehicle V to the obstacle Q2. Good. The position of the virtual viewpoint PH2 is represented by (xH2, yH2, zH2).

仮想視点PH2について説明する。本実施形態では、仮想視点PH2は、車両Vの右後方に位置している。仮想視点PH2は、Z軸方向視において、障害物Q1より右後方、障害物Q2より後方に位置している。仮想視点PH2は、Z軸方向視において、仮想視点Pより右後方に位置している。仮想視点PH2は、車両Vの中央と障害物Q1との距離、および、車両Vの中央と障害物Q2との距離より車両Vの中央から離れている。仮想視点PH2は、車両Vを右後方から斜めに見下すような視点である。 The virtual viewpoint PH2 will be described. In the present embodiment, the virtual viewpoint PH2 is located on the right rear side of the vehicle V. The virtual viewpoint PH2 is located right behind the obstacle Q1 and behind the obstacle Q2 when viewed in the Z-axis direction. The virtual viewpoint PH2 is located to the right rear of the virtual viewpoint P when viewed in the Z-axis direction. The virtual viewpoint PH2 is farther from the center of the vehicle V than the distance between the center of the vehicle V and the obstacle Q1 and the distance between the center of the vehicle V and the obstacle Q2. The virtual viewpoint PH2 is a viewpoint that looks down at the vehicle V diagonally from the right rear.

または、図12に示すように、視点変換処理部451は、車両Vの左後方に位置する、車幅方向に並んだ障害物Q1、障害物Q2が検出されたとき、車両Vの中央から障害物Q1への延長線L69と、車両Vの中央から障害物Q2への延長線L70との間の角度の二等分線L71上に位置する仮想視点PH3として俯瞰映像を生成してもよい。仮想視点PH3の位置は、(xH3,yH3,zH3)で表される。 Alternatively, as illustrated in FIG. 12, when the viewpoint conversion processing unit 451 detects an obstacle Q1 and an obstacle Q2 located in the left rear of the vehicle V and arranged in the vehicle width direction, the viewpoint conversion processing unit 451 causes an obstacle from the center of the vehicle V. The bird's-eye view image may be generated as the virtual viewpoint PH3 located on the bisector L71 of the angle between the extension line L69 extending to the object Q1 and the extension line L70 extending from the center of the vehicle V to the obstacle Q2. The position of the virtual viewpoint PH3 is represented by (xH3, yH3, zH3).

仮想視点PH3について説明する。本実施形態では、仮想視点PH3は、車両Vの左後方に位置している。仮想視点PH3は、Z軸方向視において、障害物Q1より左後方に、障害物Q2より右後方に位置している。仮想視点PH3は、Z軸方向視において、仮想視点Pより左後方に位置している。仮想視点PH3は、車両Vの中央と障害物Q1との距離、および、車両Vの中央と障害物Q2との距離より車両Vの中央から離れている。仮想視点PH3は、車両Vを左後方から斜めに見下すような視点である。 The virtual viewpoint PH3 will be described. In the present embodiment, the virtual viewpoint PH3 is located on the left rear of the vehicle V. The virtual viewpoint PH3 is located to the left rear of the obstacle Q1 and to the right rear of the obstacle Q2 when viewed in the Z-axis direction. The virtual viewpoint PH3 is located to the left rear of the virtual viewpoint P when viewed in the Z-axis direction. The virtual viewpoint PH3 is farther from the center of the vehicle V than the distance between the center of the vehicle V and the obstacle Q1 and the distance between the center of the vehicle V and the obstacle Q2. The virtual viewpoint PH3 is a viewpoint that looks down the vehicle V diagonally from the left rear.

次に、俯瞰映像生成システム1の俯瞰映像生成装置40における処理の流れについて説明する。俯瞰映像生成装置40は、図8に示すフローチャートに沿った処理を行う。本実施形態は、ステップS16における処理が第一実施形態と異なり、ステップS11〜ステップS15、ステップS17、ステップS18の処理は第一実施形態と同様の処理を行う。 Next, the flow of processing in the bird's-eye view video generation device 40 of the bird's-eye view video generation system 1 will be described. The bird's-eye view video generation device 40 performs processing according to the flowchart shown in FIG. In this embodiment, the processing in step S16 is different from that in the first embodiment, and the processing in steps S11 to S15, step S17, and step S18 is the same as that in the first embodiment.

制御部41は、仮想視点位置を変更する(ステップS16)。より詳しくは、制御部41は、俯瞰映像生成部45で、車両Vから複数の障害物Qのそれぞれへの延長線の中のいずれか二本の間の角の二等分線上に位置する仮想視点PHとした俯瞰映像を生成させ、表示パネル30に表示させる。制御部41は、ステップS18に進む。 The control unit 41 changes the virtual viewpoint position (step S16). More specifically, the control unit 41 is a bird's-eye view image generation unit 45, and is located on a bisector of a corner between any two of the extension lines from the vehicle V to each of the plurality of obstacles Q. An overhead image as the viewpoint PH is generated and displayed on the display panel 30. The control unit 41 proceeds to step S18.

上述したように、本実施形態は、進行方向の複数の障害物Qが検出された場合、車両Vから複数の障害物Qのそれぞれへの延長線の中のいずれか二本の間の角の二等分線上に位置する仮想視点PHの俯瞰映像を生成する。これにより、本実施形態は、進行方向の複数の障害物Qが検出された場合、仮想視点の位置を変更して、複数の障害物Qが重ならず、複数の障害物Qと車両Vの相対的な位置関係が表わされた俯瞰映像を表示することができる。本実施形態によれば、複数の障害物Qが車両Vに接触するか否かを俯瞰映像によって容易に認識することができる。このように、本実施形態は、俯瞰映像において複数の障害物Qを適切に表示することができる。本実施形態は、俯瞰映像における複数の障害物Qの視認性を向上することができる。本実施形態は、車両周辺の複数の障害物Qを適切に確認可能に表示することができる。 As described above, in the present embodiment, when a plurality of obstacles Q in the traveling direction are detected, the corners between any two of the extension lines from the vehicle V to each of the plurality of obstacles Q are detected. An overhead image of the virtual viewpoint PH located on the bisector is generated. As a result, in the present embodiment, when a plurality of obstacles Q in the traveling direction are detected, the position of the virtual viewpoint is changed so that the plurality of obstacles Q do not overlap, and the plurality of obstacles Q and the vehicle V are not overlapped. A bird's-eye view image showing a relative positional relationship can be displayed. According to the present embodiment, it is possible to easily recognize whether or not a plurality of obstacles Q come into contact with the vehicle V from the overhead view image. As described above, the present embodiment can appropriately display the plurality of obstacles Q in the overhead view image. The present embodiment can improve the visibility of the plurality of obstacles Q in the overhead image. In the present embodiment, a plurality of obstacles Q around the vehicle can be displayed so that they can be appropriately confirmed.

本実施形態では、例えば、複数の障害物Qの間に立って、近づく車両Vを誘導するような仮想視点PHとした俯瞰映像を表示することができる。これにより、車両Vの真上に位置する仮想視点Pとした俯瞰映像100に比べて、複数の障害物Qが車両Vに接触するか否かを俯瞰映像によって容易に認識することができる。 In the present embodiment, for example, it is possible to display a bird's-eye view image with a virtual viewpoint PH that guides the approaching vehicle V while standing between a plurality of obstacles Q. As a result, it is possible to easily recognize whether or not a plurality of obstacles Q are in contact with the vehicle V by the bird's-eye view image, as compared with the bird's-eye view image 100 having the virtual viewpoint P located right above the vehicle V.

[第四実施形態]
図13を参照しながら、本実施形態に係る俯瞰映像生成システム1について説明する。図13は、第四実施形態に係る俯瞰映像生成システムにおける仮想視点の位置の一例を説明する概略図である。本実施形態の俯瞰映像生成システム1は、俯瞰映像生成部45における処理が、第一実施形態の俯瞰映像生成システム1と異なる。本実施形態では、障害物Q1が車両Vの左後方に位置し、障害物Q2が車両Vの右後方に位置する。
[Fourth Embodiment]
The overhead view image generation system 1 according to the present embodiment will be described with reference to FIG. FIG. 13 is a schematic diagram illustrating an example of the position of the virtual viewpoint in the overhead view video generation system according to the fourth embodiment. The bird's-eye view video generation system 1 of this embodiment is different from the bird's-eye view video generation system 1 of the first embodiment in the processing in the bird's-eye view video generation unit 45. In this embodiment, the obstacle Q1 is located on the left rear of the vehicle V, and the obstacle Q2 is located on the right rear of the vehicle V.

俯瞰映像生成部45は、障害物情報取得部43が取得した複数の障害物Qの位置情報に基づいて、映像データ取得部42が取得した周辺映像を、車両Vおよび少なくとも一部の障害物Qが俯瞰できるように、仮想視点Pと異なる仮想視点PI1として視点変換処理を行った映像を生成する。さらに、俯瞰映像生成部45は、複数の障害物Qの位置情報に基づいて、周辺映像を、車両Vおよび少なくとも残りの一部の障害物Qが俯瞰できるように、仮想視点PI1と異なる仮想視点PI2として視点変換処理を行った映像を生成する。そして、俯瞰映像生成部45は、視点変換処理を行った二つの映像を合成して俯瞰映像を生成する。 The bird's-eye view video generation unit 45 uses the vehicle V and at least some of the obstacles Q as the peripheral image acquired by the video data acquisition unit 42 based on the position information of the plurality of obstacles Q acquired by the obstacle information acquisition unit 43. In order to allow a bird's eye view, a video that has undergone the viewpoint conversion processing is generated as a virtual viewpoint PI1 different from the virtual viewpoint P. Further, the bird's-eye view image generation unit 45, based on the position information of the plurality of obstacles Q, allows the vehicle V and at least a part of the remaining obstacles Q to be looked down on the surrounding image, and is different from the virtual viewpoint PI1. As the PI2, an image subjected to the viewpoint conversion processing is generated. Then, the bird's-eye view video generation unit 45 synthesizes the two videos subjected to the viewpoint conversion processing to generate the bird's-eye view video.

視点変換処理部451は、車両Vの左後方に位置する障害物Q1、車両Vの右後方に位置する障害物Q2が検出されたとき、仮想視点の位置を車両Vから障害物Q1への延長線L72上の位置に変更して仮想視点PI1として視点変換処理を行った映像と、仮想視点の位置を車両Vから障害物Q2への延長線L73上の位置に変更して仮想視点PI2として視点変換処理を行った映像とを生成する。仮想視点PI1の位置は、(xI1,yI1,zI1)で表される。仮想視点PI2の位置は、(xI2,yI2,zI2)で表される。 The viewpoint conversion processing unit 451 extends the position of the virtual viewpoint from the vehicle V to the obstacle Q1 when the obstacle Q1 located on the left rear of the vehicle V and the obstacle Q2 located on the right rear of the vehicle V are detected. An image that has been changed to a position on the line L72 and subjected to the viewpoint conversion processing as the virtual viewpoint PI1, and a position of the virtual viewpoint is changed to a position on the extension line L73 from the vehicle V to the obstacle Q2 and the viewpoint as the virtual viewpoint PI2. The converted video is generated. The position of the virtual viewpoint PI1 is represented by (xI1, yI1, zI1). The position of the virtual viewpoint PI2 is represented by (xI2, yI2, zI2).

仮想視点PI1について説明する。本実施形態では、仮想視点PI1は、車両Vの左後方に位置している。仮想視点PI1は、Z軸方向視において、障害物Q1より左後方に位置している。仮想視点PI1は、Z軸方向視において、仮想視点Pより左後方に位置している。仮想視点PI1は、車両Vの中央と障害物Q1との距離より車両Vの中央から離れている。仮想視点PI1は、車両Vを左後方から斜めに見下すような視点である。 The virtual viewpoint PI1 will be described. In the present embodiment, the virtual viewpoint PI1 is located on the left rear of the vehicle V. The virtual viewpoint PI1 is located to the left rear of the obstacle Q1 when viewed in the Z-axis direction. The virtual viewpoint PI1 is located to the left rear of the virtual viewpoint P when viewed in the Z-axis direction. The virtual viewpoint PI1 is farther from the center of the vehicle V than the distance between the center of the vehicle V and the obstacle Q1. The virtual viewpoint PI1 is a viewpoint that looks down the vehicle V obliquely from the left rear.

仮想視点PI2について説明する。本実施形態では、仮想視点PI2は、車両Vの右後方に位置している。仮想視点PI2は、Z軸方向視において、障害物Q2より右後方に位置している。仮想視点PI2は、Z軸方向視において、仮想視点Pより右後方に位置している。仮想視点PI2は、車両Vの中央と障害物Q2との距離より車両Vの中央から離れている。仮想視点PI2は、車両Vを右後方から斜めに見下すような視点である。 The virtual viewpoint PI2 will be described. In the present embodiment, the virtual viewpoint PI2 is located on the right rear side of the vehicle V. The virtual viewpoint PI2 is located to the right rear of the obstacle Q2 when viewed in the Z-axis direction. The virtual viewpoint PI2 is located to the right rear of the virtual viewpoint P when viewed in the Z-axis direction. The virtual viewpoint PI2 is farther from the center of the vehicle V than the distance between the center of the vehicle V and the obstacle Q2. The virtual viewpoint PI2 is a viewpoint that looks down the vehicle V obliquely from the right rear.

合成処理部453は、仮想視点PI1として視点変換処理した映像と、仮想視点PI2として視点変換処理した映像とを合成し俯瞰映像を生成する。例えば、合成処理部453は、左側に仮想視点PI1として視点変換処理した映像を表示し、右側に仮想視点PI2として視点変換処理した映像を表示するように合成して俯瞰映像を生成する。 The synthesis processing unit 453 synthesizes the video that has undergone the viewpoint conversion processing as the virtual viewpoint PI1 and the video that has undergone the viewpoint conversion processing as the virtual viewpoint PI2 to generate a bird's-eye view video. For example, the synthesis processing unit 453 synthesizes the viewpoint-converted video as the virtual viewpoint PI1 on the left side and the viewpoint-converted video as the virtual viewpoint PI2 on the right side to generate the overhead view video.

次に、俯瞰映像生成システム1の俯瞰映像生成装置40における処理の流れについて説明する。俯瞰映像生成装置40は、図8に示すフローチャートに沿った処理を行う。本実施形態は、ステップS16における処理が第一実施形態と異なり、ステップS11〜ステップS15、ステップS17、ステップS18の処理は第一実施形態と同様の処理を行う。 Next, the flow of processing in the bird's-eye view video generation device 40 of the bird's-eye view video generation system 1 will be described. The bird's-eye view video generation device 40 performs processing according to the flowchart shown in FIG. In this embodiment, the processing in step S16 is different from that in the first embodiment, and the processing in steps S11 to S15, step S17, and step S18 is the same as that in the first embodiment.

制御部41は、仮想視点位置を変更する(ステップS16)。より詳しくは、制御部41は、俯瞰映像生成部45で、障害物情報取得部43が取得した複数の障害物Qの位置情報に基づいて、映像データ取得部42が取得した周辺映像を、車両Vおよび少なくとも障害物Q1が俯瞰できるように、仮想視点Pと異なる仮想視点PI1として視点変換処理を行った映像を生成させる。制御部41は、俯瞰映像生成部45で、複数の障害物Qの位置情報に基づいて、周辺映像を、車両Vおよび少なくとも障害物Q2が俯瞰できるように、仮想視点PI1と異なる仮想視点PI2として視点変換処理を行った映像を生成させる。そして、制御部41は、俯瞰映像生成部45で、二つの映像を合成して俯瞰映像を生成し、表示パネル30に表示させる。制御部41は、ステップS18に進む。 The control unit 41 changes the virtual viewpoint position (step S16). More specifically, the control unit 41 causes the bird's-eye view image generation unit 45 to display the peripheral image acquired by the image data acquisition unit 42 on the basis of the position information of the plurality of obstacles Q acquired by the obstacle information acquisition unit 43. An image that has undergone the viewpoint conversion processing is generated as a virtual viewpoint PI1 different from the virtual viewpoint P so that the V and at least the obstacle Q1 can be overlooked. The control unit 41 uses the bird's-eye view image generation unit 45 as a virtual viewpoint PI2 different from the virtual viewpoint PI1 so that the peripheral image can be viewed from the vehicle V and at least the obstacle Q2 based on the position information of the plurality of obstacles Q. Generates an image that has undergone viewpoint conversion processing. Then, the control unit 41 causes the overhead image generation unit 45 to combine the two images to generate an overhead image and display it on the display panel 30. The control unit 41 proceeds to step S18.

上述したように、本実施形態は、進行方向の左側および右側に障害物Qが検出された場合、複数の仮想視点で視点変換処理を行った映像を生成する。そして、視点変換処理を行った複数の映像を合成して俯瞰映像を生成する。本実施形態は、進行方向の左側および右側に障害物Qが検出された場合、複数の仮想視点として視点変換処理を行った映像を合成することで、複数の障害物Qと車両Vの相対的な位置関係が表わされた俯瞰映像を表示することができる。 As described above, in the present embodiment, when the obstacle Q is detected on the left side and the right side in the traveling direction, the image in which the viewpoint conversion processing is performed with a plurality of virtual viewpoints is generated. Then, a plurality of images that have undergone the viewpoint conversion processing are combined to generate an overhead view image. In the present embodiment, when obstacles Q are detected on the left and right sides in the traveling direction, the images that have been subjected to the viewpoint conversion processing as a plurality of virtual viewpoints are combined to make a relative movement between the plurality of obstacles Q and the vehicle V. A bird's-eye view image showing various positional relationships can be displayed.

進行方向の左側および右側に障害物Qが検出された場合に、左側または右側のどちらかの仮想視点で視点変換処理を行って俯瞰映像を生成すると、仮想視点と反対側の障害物Qと車両Vの相対的な位置関係を表すことができないおそれがある。 When obstacles Q are detected on the left and right sides in the traveling direction, if viewpoint conversion processing is performed from either the left or right virtual viewpoint to generate an overhead view image, the obstacle Q and the vehicle on the opposite side of the virtual viewpoint are detected. It may not be possible to represent the relative positional relationship of V.

これに対して、本実施形態によれば、進行方向の左側および右側に障害物Qが検出された場合も、例えば、それぞれの障害物Qの後方に立って、近づく車両Vを誘導するような仮想視点PI1とした映像と、仮想視点PI2とした映像とを合成した俯瞰映像を表示することができる。複数の障害物Qが車両Vに接触するか否かを俯瞰映像によってより適切に認識することができる。このように、本実施形態は、俯瞰映像において複数の障害物Qを適切に表示することができる。本実施形態は、俯瞰映像における複数の障害物Qの視認性を向上することができる。本実施形態は、車両周辺の障害物Qを適切に確認可能に表示することができる。 On the other hand, according to the present embodiment, even when the obstacles Q are detected on the left and right sides in the traveling direction, for example, standing behind each of the obstacles Q to guide the approaching vehicle V. It is possible to display a bird's-eye view image that is a combination of the image of the virtual viewpoint PI1 and the image of the virtual viewpoint PI2. Whether or not the plurality of obstacles Q contact the vehicle V can be more appropriately recognized by the overhead view image. As described above, the present embodiment can appropriately display the plurality of obstacles Q in the overhead view image. The present embodiment can improve the visibility of the plurality of obstacles Q in the overhead image. In the present embodiment, the obstacle Q around the vehicle can be displayed so that it can be appropriately confirmed.

さて、これまで本発明に係る俯瞰映像生成システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。 Now, the bird's-eye view image generation system 1 according to the present invention has been described so far, but it may be implemented in various different forms other than the above-described embodiment.

図示した俯瞰映像生成システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated bird's-eye view image generation system 1 is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of the device may be functionally or physically dispersed or integrated in arbitrary units according to the processing load or usage condition of each device. May be.

俯瞰映像生成システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the bird's-eye view video generation system 1 is realized by, for example, a program loaded in a memory as software. In the above-described embodiment, the functional blocks have been described as those realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by only hardware, only software, or a combination thereof.

上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The components described above include those that can be easily conceived by those skilled in the art and those that are substantially the same. Furthermore, the configurations described above can be appropriately combined. In addition, various omissions, substitutions, or changes in the configuration are possible without departing from the scope of the present invention.

所定条件は、障害物Qが車両Vの進行方向に位置すること、として説明したが、これに限定されない。所定条件は、例えば、車両Vに干渉するおそれがあること、としてもよい。車両Vに干渉するおそれがあるとは、例えば、車両Vの進行方向に位置し、かつ、車両Vと接触するおそれのある地面からの高さを有することである。 Although the predetermined condition is described as the obstacle Q being located in the traveling direction of the vehicle V, the predetermined condition is not limited to this. The predetermined condition may be, for example, that the vehicle V may be interfered with. The possibility of interfering with the vehicle V means, for example, being located in the traveling direction of the vehicle V and having a height above the ground that may contact the vehicle V.

所定条件は、車両Vが後退しているとき、障害物Qが車両Vの前端より後方に位置する場合、所定条件を満たすと判定するとしたが、これに限定されるものではない。例えば、所定条件は、車両Vが後退しているとき、障害物Qが車両Vの後端より後方に位置する場合、または、障害物Qが車両Vの駆動輪の車軸位置より後方に位置する場合、所定条件を満たすと判定してもよい。 The predetermined condition is that it is determined that the predetermined condition is satisfied when the obstacle Q is located behind the front end of the vehicle V when the vehicle V is moving backward, but the predetermined condition is not limited to this. For example, the predetermined condition is that when the vehicle V is moving backward, the obstacle Q is located behind the rear end of the vehicle V, or the obstacle Q is located behind the axle position of the drive wheels of the vehicle V. In this case, it may be determined that the predetermined condition is satisfied.

制御部41は、ステップS11において、例えば、操作部に対する、俯瞰映像表示開始の操作の検出の有無で、俯瞰映像表示を開始するか否かを判定してもよい。 In step S11, the control unit 41 may determine whether or not to start the bird's-eye image display, for example, based on whether or not the operation to start the bird's-eye image display on the operation unit is detected.

仮想視点の位置を変更した俯瞰映像は、障害物Qを検出した方向の表示面積が広くなるように、自車両アイコンの中央を俯瞰映像の中央からずらした俯瞰映像を生成してもよい。 The bird's-eye view image in which the position of the virtual viewpoint is changed may generate a bird's-eye view image in which the center of the own vehicle icon is shifted from the center of the bird's-eye view image so that the display area in the direction in which the obstacle Q is detected becomes large.

仮想視点Pは、Z方向の位置を、例えば、運転席に座った運転者の視線の高さ、運転者が立ったときの視線の高さ、車両Vのルーフの高さ、などとしてもよい。 The position in the Z direction of the virtual viewpoint P may be, for example, the height of the line of sight of the driver sitting in the driver's seat, the height of the line of sight when the driver stands, the height of the roof of the vehicle V, or the like. ..

1 俯瞰映像生成システム
11 前方カメラ
12 後方カメラ
13 左側方カメラ
14 右側方カメラ
20 センサ群(障害物センサ)
30 表示パネル(表示部)
40 俯瞰映像生成装置
41 制御部
42 映像データ取得部
43 障害物情報取得部
44 車両情報取得部
45 俯瞰映像生成部
451 視点変換処理部
452 切出処理部
453 合成処理部
48 表示制御部
49 記憶部
P 仮想視点
Q 障害物
V 車両
1 Overhead image generation system 11 Front camera 12 Rear camera 13 Left side camera 14 Right side camera 20 Sensor group (obstacle sensor)
30 Display panel (display section)
40 overhead view image generation device 41 control unit 42 image data acquisition unit 43 obstacle information acquisition unit 44 vehicle information acquisition unit 45 overhead view image generation unit 451 viewpoint conversion processing unit 452 cutout processing unit 453 synthesis processing unit 48 display control unit 49 storage unit P Virtual viewpoint Q Obstacle V Vehicle

Claims (5)

車両の周辺を撮影した周辺映像データを取得する映像データ取得部と、
前記車両の周辺において検出した障害物の位置情報を取得する障害物情報取得部と、
前記障害物情報取得部が取得した前記障害物の位置情報に基づいて、前記映像データ取得部が取得した周辺映像を、前記車両および前記障害物が俯瞰できるように、前記車両から前記障害物への延長線上で規定された位置に仮想視点が位置するように視点変換処理を行って合成した俯瞰映像を生成する俯瞰映像生成部と、
前記俯瞰映像生成部が生成した俯瞰映像を表示部に表示させる表示制御部と
を有し、
前記俯瞰映像生成部は、前記障害物が複数存在する場合、前記車両から複数の前記障害物のそれぞれへの延長線に基づいて決めた位置に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する、
瞰映像生成装置。
A video data acquisition unit that acquires peripheral video data of the surroundings of the vehicle,
An obstacle information acquisition unit that acquires position information of an obstacle detected in the vicinity of the vehicle,
Based on the position information of the obstacle acquired by the obstacle information acquisition unit, from the vehicle to the obstacle, the peripheral image acquired by the image data acquisition unit can be viewed from the vehicle and the obstacle. A bird's-eye view image generating unit that generates a bird's-eye view image by performing viewpoint conversion processing so that the virtual viewpoint is located at a position defined on the extension line of
A display control unit that causes the display unit to display the overhead image generated by the overhead image generation unit ;
Have a,
When there are a plurality of obstacles, the bird's-eye view image generation unit performs viewpoint conversion processing so that the virtual viewpoint is located at a position determined based on an extension line from the vehicle to each of the plurality of obstacles. Generate an overhead view video,
瞰映image generation apparatus.
前記俯瞰映像生成部は、前記障害物が複数存在する場合、前記車両から複数の前記障害物のそれぞれへの延長線のいずれか二本の間の角の二等分線上に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する、
請求項に記載の俯瞰映像生成装置。
In the case where there are a plurality of obstacles, the bird's-eye view image generation unit positions the virtual viewpoint on the bisector of the corner between any two extended lines from the vehicle to each of the plurality of obstacles. To generate a bird's-eye view image that has undergone the viewpoint conversion process,
The bird's-eye view video generation device according to claim 1 .
請求項1または2に記載の俯瞰映像生成装置と、
前記車両の周辺を撮影する複数のカメラ、前記表示部、障害物を検出し障害物情報を出力する検出部の少なくともいずれかと
を備える、俯瞰映像生成システム。
An overhead view image generation apparatus according to claim 1 or 2 ,
A bird's-eye view image generation system, comprising: a plurality of cameras that photograph the surroundings of the vehicle; the display unit; and a detection unit that detects an obstacle and outputs obstacle information.
車両の周辺を撮影した周辺映像データを取得する映像データ取得ステップと、
前記車両の周辺において検出した障害物の位置情報を取得する障害物情報取得ステップと、
前記障害物情報取得ステップで取得した前記障害物の位置情報に基づいて、前記映像データ取得ステップで取得した周辺映像を、前記車両および前記障害物が俯瞰できるように、前記車両から前記障害物への延長線上に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する俯瞰映像生成ステップと、
前記俯瞰映像生成ステップで生成した俯瞰映像を表示部に表示させる表示制御ステップと
を含み、
前記俯瞰映像生成ステップは、前記障害物が複数存在する場合、前記車両から複数の前記障害物のそれぞれへの延長線に基づいて決めた位置に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する、
俯瞰映像生成装置が実行する俯瞰映像生成方法。
A video data acquisition step of acquiring peripheral video data of the surroundings of the vehicle,
An obstacle information acquisition step of acquiring position information of the obstacle detected in the vicinity of the vehicle,
Based on the position information of the obstacle acquired in the obstacle information acquisition step, the surrounding image acquired in the image data acquisition step can be viewed from the vehicle to the obstacle so that the vehicle and the obstacle can be overlooked. A bird's-eye view video generation step of generating a bird's-eye view video that has been subjected to viewpoint conversion processing so that the virtual viewpoint is located on the extension line of
A display control step of displaying the bird's-eye view image generated in the bird's-eye view image generating step on a display unit ;
Only including,
In the bird's-eye view image generation step, when there are a plurality of obstacles, the viewpoint conversion processing is performed so that the virtual viewpoint is located at a position determined based on an extension line from the vehicle to each of the plurality of obstacles. Generate an overhead view video,
瞰映image generating method overhead image generating device executes.
車両の周辺を撮影した周辺映像データを取得する映像データ取得ステップと、
前記車両の周辺において検出した障害物の位置情報を取得する障害物情報取得ステップと、
前記障害物情報取得ステップで取得した前記障害物の位置情報に基づいて、前記映像データ取得ステップで取得した周辺映像を、前記車両および前記障害物が俯瞰できるように、前記車両から前記障害物への延長線上に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する俯瞰映像生成ステップと、
前記俯瞰映像生成ステップで生成した俯瞰映像を表示部に表示させる表示制御ステップと
を含み、
前記俯瞰映像生成ステップは、前記障害物が複数存在する場合、前記車両から複数の前記障害物のそれぞれへの延長線に基づいて決めた位置に仮想視点が位置するように視点変換処理を行った俯瞰映像を生成する、
俯瞰映像生成装置として動作するコンピュータに実行させるためのプログラム。
A video data acquisition step of acquiring peripheral video data of the surroundings of the vehicle,
An obstacle information acquisition step of acquiring position information of the obstacle detected in the vicinity of the vehicle,
Based on the position information of the obstacle acquired in the obstacle information acquisition step, the surrounding image acquired in the image data acquisition step can be viewed from the vehicle to the obstacle so that the vehicle and the obstacle can be overlooked. A bird's-eye view video generation step of generating a bird's-eye view video that has been subjected to viewpoint conversion processing so that the virtual viewpoint is located on the extension line of
A display control step of displaying the bird's-eye view image generated in the bird's-eye view image generating step on a display unit ;
Including
In the bird's-eye view image generation step, when there are a plurality of obstacles, the viewpoint conversion processing is performed so that the virtual viewpoint is located at a position determined based on an extension line from the vehicle to each of the plurality of obstacles. Generate an overhead view video,
A program to be executed by a computer that operates as an overhead image generation device.
JP2017036657A 2017-02-28 2017-02-28 Overhead video generation device, overhead video generation system, overhead video generation method and program Active JP6724821B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017036657A JP6724821B2 (en) 2017-02-28 2017-02-28 Overhead video generation device, overhead video generation system, overhead video generation method and program
PCT/JP2017/039953 WO2018159019A1 (en) 2017-02-28 2017-11-06 Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
EP17898960.4A EP3537714B1 (en) 2017-02-28 2017-11-06 Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
US16/357,473 US10855934B2 (en) 2017-02-28 2019-03-19 Generating bird's-eye view images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017036657A JP6724821B2 (en) 2017-02-28 2017-02-28 Overhead video generation device, overhead video generation system, overhead video generation method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020107656A Division JP2020182217A (en) 2020-06-23 2020-06-23 Bird's-eye video creation device, bird's-eye video creation method, and program

Publications (3)

Publication Number Publication Date
JP2018142883A JP2018142883A (en) 2018-09-13
JP2018142883A5 JP2018142883A5 (en) 2019-12-19
JP6724821B2 true JP6724821B2 (en) 2020-07-15

Family

ID=63526862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017036657A Active JP6724821B2 (en) 2017-02-28 2017-02-28 Overhead video generation device, overhead video generation system, overhead video generation method and program

Country Status (1)

Country Link
JP (1) JP6724821B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11926263B2 (en) 2019-04-18 2024-03-12 Mitsubishi Electric Corporation Vehicle surrounding area image generation device, vehicle surrounding area display system, and vehicle surrounding area display method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100438623C (en) * 1999-04-16 2008-11-26 松下电器产业株式会社 Image processing device and monitoring system
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP5439890B2 (en) * 2009-03-25 2014-03-12 富士通株式会社 Image processing method, image processing apparatus, and program

Also Published As

Publication number Publication date
JP2018142883A (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6730613B2 (en) Overhead video generation device, overhead video generation system, overhead video generation method and program
JP5810773B2 (en) Rear video display device for motorcycles
US20190174060A1 (en) Image processing apparatus, image processing method, and program
WO2018159019A1 (en) Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
JP5962927B2 (en) Overhead image generation apparatus, overhead image generation method, and overhead image generation program
WO2017122294A1 (en) Surroundings monitoring apparatus, image processing method, and image processing program
JP6730614B2 (en) Vehicle display control device, vehicle display system, vehicle display control method and program
US9162621B2 (en) Parking support apparatus
TWI533694B (en) Obstacle detection and display system for vehicle
JP5548069B2 (en) Image processing apparatus and image processing method
JP2020068515A (en) Image processing apparatus
JP6398675B2 (en) Image generation device
JP6724821B2 (en) Overhead video generation device, overhead video generation system, overhead video generation method and program
JP2013132976A (en) Obstacle alarm device
JP5660395B2 (en) Obstacle alarm device
JP5704416B2 (en) Obstacle alarm device
JP2006238131A (en) Vehicle periphery monitoring apparatus
JP6760129B2 (en) Bird's-eye view image generation device, bird's-eye view image generation system, bird's-eye view image generation method and program
JP5943207B2 (en) Video display device for vehicle parking operation support
JP2020182217A (en) Bird's-eye video creation device, bird's-eye video creation method, and program
JP2009020647A (en) Three-dimensional object detection method and solid object detection device
GB2540527A (en) Perspective shifting parking camera system
JP6644264B2 (en) Overhead video generation device, overhead video generation system, overhead video generation method and program
JP2018197687A (en) Overhead video generation device, overhead video generation system, overhead video generation method and program
JP2012206534A (en) Vehicle rear support apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6724821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150