[go: up one dir, main page]

JP6635428B2 - Car peripheral information display system - Google Patents

Car peripheral information display system Download PDF

Info

Publication number
JP6635428B2
JP6635428B2 JP2015102831A JP2015102831A JP6635428B2 JP 6635428 B2 JP6635428 B2 JP 6635428B2 JP 2015102831 A JP2015102831 A JP 2015102831A JP 2015102831 A JP2015102831 A JP 2015102831A JP 6635428 B2 JP6635428 B2 JP 6635428B2
Authority
JP
Japan
Prior art keywords
vehicle
information
image
detection target
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015102831A
Other languages
Japanese (ja)
Other versions
JP2016218732A5 (en
JP2016218732A (en
Inventor
修一 田山
修一 田山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Image Co Ltd
Original Assignee
Image Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Image Co Ltd filed Critical Image Co Ltd
Priority to JP2015102831A priority Critical patent/JP6635428B2/en
Priority to CN201680028947.0A priority patent/CN107615353A/en
Priority to EP16796432.9A priority patent/EP3300054A4/en
Priority to PCT/JP2016/064331 priority patent/WO2016186039A1/en
Priority to US15/574,715 priority patent/US10302448B2/en
Publication of JP2016218732A publication Critical patent/JP2016218732A/en
Publication of JP2016218732A5 publication Critical patent/JP2016218732A5/ja
Application granted granted Critical
Publication of JP6635428B2 publication Critical patent/JP6635428B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • G01C21/3694Output thereof on a road map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Signal Processing (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Description

本発明は、特に自動車等の車輌において乗員に自車両の周囲の状況を表示する自動車周辺情報表示システムに関する。   The present invention relates to a vehicle periphery information display system that displays a situation around the vehicle in a vehicle such as an automobile.

従来、自動車周辺情報表示システムとしては、自動車等の車両に搭載されて、運転者に地図情報を表示して目的地までの案内するナビゲーション装置2が知られている。ナビゲーション装置2は、地図データベースに地図情報を格納しており、GPS衛星から受信したGPS情報を用いて車両の現在位置を特定し、目的地に至るまでの地図を読み出して自車両の走行に伴って刻々と表示している。   2. Description of the Related Art Conventionally, as an automobile peripheral information display system, a navigation device 2 mounted on a vehicle such as an automobile and displaying map information to a driver to guide the driver to a destination is known. The navigation device 2 stores map information in a map database, specifies the current position of the vehicle using GPS information received from GPS satellites, reads a map up to the destination, and accompanies the travel of the vehicle. Is displayed every moment.

しかし、地図情報は道路を主体とした情報であり、画面においては情報量が極めて少ない部分が多々存在していると不効率な画面となる。そのため、道路情報に加えて、地図の表示画面上に追加の情報を画面に重ねて表示するナビゲーション装置が知られている(例えば、特許文献1及び特許文献2を参照)。   However, the map information is information mainly based on roads, and an inefficient screen is obtained if there are many portions having a very small amount of information on the screen. Therefore, a navigation device that displays additional information on a map display screen in addition to road information in a superimposed manner is known (for example, see Patent Literatures 1 and 2).

特開2001−99666号公報JP 2001-99666 A 特開2001−42026号公報JP 2001-42026 A

しかし、上記の特許文献による従来技術は、地図を表示する上で情報の少ない領域に、アニメーション若しくは一般的な動画像、又は静止画やテキストデータ等の情報を表示することで、地図の表示画面に変化を持たせて、ユーザーが倦厭感を抱き難い車載用ナビゲーション装置を提供するものである。   However, the prior art according to the above-mentioned patent document displays a map display screen by displaying information such as an animation or a general moving image, or a still image or text data in an area where information is small in displaying a map. The present invention provides an in-vehicle navigation device in which the user is less likely to feel bored by making changes.

したがって、このようなナビゲーション装置が表示する情報は、表示可能な領域があれば表示するという付加的な情報であるために、ユーザーが車両を運転する上で、又は自動運転の車両にあってはユーザーが自動運転状況を確認する上で必ずしも必要な情報とは限らない。   Therefore, since the information displayed by such a navigation device is additional information indicating that there is a displayable area if the user can drive the vehicle or in an autonomous vehicle, the information is displayed. The information is not always necessary for the user to check the automatic driving status.

また、近年、道路交通の安全をより一層向上させるための自動運転システムの研究開発が進められているが、このシステムは、自動車が周囲の環境を認識して自動走行するものである。我が国では、自動車等の車輌の自動走行システムについて、その自動化レベルがレベル1からレベル4まで4段階に分けて定義されている。レベル1は、加速・操舵・制動のいずれかを自動車が行い、安全運転支援システムと呼ばれる。レベル2は、加速・操舵・制動の内複数の操作を同時に自動車が行い、準自動走行システム(半自動運転)と呼ばれる。レベル3は、加速・操舵・制動を全て自動車が行い、緊急時のみドライバーが対応する状態で、これも準自動走行システムと呼ばれる。レベル4は、加速・操舵・制動を全てドライバー以外が行い、ドライバーが全く関与しない状態で完全自動走行システムと呼ばれる。また、レベル2からレベル4までを自動走行システムとも呼んでいる(「ステップSIP(戦略的イノベーション創造プログラム)自動走行システム研究開発計画」、2014年11月13日、内閣府、政策統括官(科学技術・イノベーション担当))。尚、本明細書においての「自動運転」とは、基本的に上記レベル1からレベル4までの全自動化レベルの自動走行を言うものとする。   In recent years, research and development of an automatic driving system for further improving the safety of road traffic have been promoted. In this system, an automobile recognizes a surrounding environment and runs automatically. In Japan, an automatic driving system for a vehicle such as an automobile is defined in four levels from level 1 to level 4. In Level 1, the vehicle performs any of acceleration, steering, and braking, and is called a safe driving support system. Level 2 is called a semi-automatic driving system (semi-automatic driving), in which the vehicle performs a plurality of operations of acceleration, steering, and braking simultaneously. Level 3 is a state in which the vehicle performs all acceleration, steering, and braking, and the driver responds only in an emergency. This is also called a semi-automatic driving system. Level 4 is called a fully automatic driving system in a state where all of the acceleration, steering and braking are performed by a person other than the driver, and the driver is not involved at all. In addition, Level 2 to Level 4 are also referred to as an autonomous driving system (“Step SIP (Strategic Innovation Creation Program) Automated Driving System R & D Plan”, November 13, 2014, Cabinet Office, Policy Supervisor (Science) Technology and Innovation))). It should be noted that "automatic driving" in the present specification basically refers to automatic driving at the fully automated level from level 1 to level 4 described above.

このような自動走行システムでは、自動車の搭乗者は、自車両が認識している周囲の状況を把握しておくことで、自動運転状態の信頼性を確認したい要望がある。   In such an automatic driving system, there is a demand for a passenger of an automobile to confirm the reliability of the automatic driving state by grasping the surrounding situation recognized by the own vehicle.

本発明は、上記点に鑑み為されたもので、その目的は、自車両の周辺のリアルな状況を地図上に重ねて表示することができる自動車周辺情報表示システムを提供することにある。   The present invention has been made in view of the above points, and an object of the present invention is to provide an automobile peripheral information display system capable of displaying a real situation around an own vehicle in a superimposed manner on a map.

本発明の自動車周辺情報表示システムは、自車両から外部の状況を検出するセンサー装置と、前記自車両の現在位置及び進行方向を特定して前記現在位置を含む周辺地域の地図データを地図データベースから読み出すナビゲーション装置と、前記センサー装置が検出するセンサー情報から検知対象物の存在を検出すると共にその種別を判別する対象判別部と、前記センサー情報から前記自車両を基準とする前記検知対象物の位置情報を求める位置検出部と、前記対象判別部が検出した検知対象物に関する前記位置情報が示す前記地図データ上の位置に、当該検知対象物に対応するアイコンを重ねた地図画像を生成する画像生成部と、前記地図画像を表示する表示装置と、を備えることを特徴としている。   The vehicle surrounding information display system of the present invention includes a sensor device for detecting an external situation from the own vehicle, and a current position and a traveling direction of the own vehicle, and map data of a surrounding area including the current position from a map database. A navigation device to be read, a target determination unit that detects the presence of the detection target object from the sensor information detected by the sensor device and determines the type of the detection target object, and a position of the detection target object based on the own vehicle from the sensor information. Image generation for generating a map image in which an icon corresponding to the detection target is superimposed on a position on the map data indicated by the position information on the detection target detected by the target determination unit, and a position detection unit for obtaining information. And a display device for displaying the map image.

そして、前記センサー装置は、前記自車両の外部の画像を撮像するカメラを含む構成の場合には、前記対象判別部は、前記カメラの撮像画像からパターンマッチング処理により前記検知対象物の存在を検出する。さらに、前記カメラをステレオカメラによって構成すれば、前記位置検出部は、前記ステレオカメラの画像から前記検知対象物の位置情報を算出するとよい。   When the sensor device includes a camera that captures an image outside the host vehicle, the target determination unit detects the presence of the detection target by pattern matching from the captured image of the camera. I do. Further, if the camera is constituted by a stereo camera, the position detection unit may calculate position information of the detection target from an image of the stereo camera.

また、前記対象判別部は、前記画像の輝度情報を基にして、白線又は黄線による車線ラインを検出するとよい。そうすることで、前記対象判別部が、前記検知対象物として前記自車両に先行する先行他車両と対向してくる対向他車両とを検出したとき、前記画像生成部は、前記地図データにおける自車両が走行する道路に模式的に前記車線ラインを表示し、車線を区別して前記先行他車両と前記対向他車両との各前記アイコンを表示する前記地図画像を生成することができる。   In addition, the target determination unit may detect a lane line including a white line or a yellow line based on luminance information of the image. By doing so, when the object discriminating unit detects, as the detection target, an oncoming other vehicle that is in front of the own vehicle and an oncoming other vehicle that is opposed to the own vehicle, the image generation unit performs an autonomous search on the map data. The map image that displays the lane line schematically on a road on which the vehicle travels and displays the icons of the preceding other vehicle and the oncoming other vehicle while distinguishing the lane can be generated.

前記対象判別部は、前記画像から検出した前記検知対象部以外のオブジェクトを除去すれば、前記位置検出部は、前記検知対象物の位置情報だけを短時間で求めることができる。   If the object discriminating unit removes an object other than the detection target part detected from the image, the position detection unit can obtain only the position information of the detection target in a short time.

一方、前記センサー装置は、ミリ波レーダー、マイクロ波レーダー、レーザーレーダー、赤外線センサー、超音波センサーの何れか一つ又はその組み合わせで成るレーダーセンサーを含む構成の場合には、前記位置検出部は、前記レーダーセンサーが検知する前記自車両と前記検知対象物との間の距離情報に基づいて、当該検知対象物の位置情報を求めることができる。   On the other hand, if the sensor device has a configuration including a radar sensor composed of any one of or a combination of a millimeter-wave radar, a microwave radar, a laser radar, an infrared sensor, and an ultrasonic sensor, the position detection unit includes: Position information of the detection target can be obtained based on distance information between the host vehicle and the detection target detected by the radar sensor.

さらに、他車両との間で車両間通信を行って、当該他車両に関する位置情報と車両属性情報とを入手する通信装置を備えるとよい。そうすることで、前記画像生成部は、前記地図データ上の前記位置情報に対応する箇所に前記車両属性情報に対応するアイコンを重ねた地図画像を生成することができる。この車両間通信は、自車両と他車両との間で直接又は通信回線を通して、中継センターを経由して間接的に行ういずれの場合も考えられる。   Further, a communication device that performs inter-vehicle communication with another vehicle and obtains position information and vehicle attribute information on the other vehicle may be provided. By doing so, the image generation unit can generate a map image in which an icon corresponding to the vehicle attribute information is superimposed on a location corresponding to the position information on the map data. This inter-vehicle communication is conceivable in any case in which communication is performed indirectly between the own vehicle and another vehicle directly or through a communication line via a relay center.

本発明の自動車周辺情報表示システムによれば、ナビゲーション装置が出力する自車両の現在位置周辺の地図データ上に自車両のセンサー装置が認識している周囲の状況を重ねて表示することで、自動車の搭乗員は周囲の状況を鳥瞰的に判断することができる。   According to the vehicle surrounding information display system of the present invention, the surrounding state recognized by the sensor device of the own vehicle is superimposed on the map data around the current position of the own vehicle output by the navigation device, thereby displaying the vehicle. Crew members can judge the surrounding situation from a bird's-eye view.

本発明の好適な実施形態による自動車周辺情報表示システムの構成全体のブロック図を示す。1 shows a block diagram of the entire configuration of a vehicle periphery information display system according to a preferred embodiment of the present invention. センサー装置の配置構成の一例を説明する平面図を示す。FIG. 2 is a plan view illustrating an example of an arrangement configuration of a sensor device. 本発明に係る自動車周辺情報表示システムの動作を説明するフローチャートを示す。3 is a flowchart illustrating the operation of the vehicle periphery information display system according to the present invention. (a)はナビゲーション装置が示す地図データによる画像の模式的な説明図を示し、(b)はこの画像に周囲の状況をアイコンで重ねて表示する画像の説明図を示す。(A) is a schematic explanatory diagram of an image based on the map data shown by the navigation device, and (b) is an explanatory diagram of an image in which a surrounding situation is superimposed on the image by icons. 自車両の前方の周囲状況を例示的に示す。The surrounding situation in front of the own vehicle is illustratively shown. 車両間通信の動作を説明するシステム構成図を示す。FIG. 2 is a system configuration diagram illustrating an operation of inter-vehicle communication. 車両間通信で伝達するメッセージのデータフレームの構成を模式的な説明図を示す。FIG. 3 is a schematic explanatory diagram showing a configuration of a data frame of a message transmitted by inter-vehicle communication. 車両間通信で入手した他車両の状況を地図データ上に表示する動作を説明するフローチャートを示す。4 is a flowchart illustrating an operation of displaying the status of another vehicle obtained through inter-vehicle communication on map data.

以下、本発明の自動車周辺情報表示システムの実施の形態を図面に基づき説明する。   Hereinafter, an embodiment of a vehicle periphery information display system according to the present invention will be described with reference to the drawings.

図1は、自動車周辺情報表示システム1の構成全体を概念的にブロック図で示している。車輌用画像表示システム1は、ナビゲーション装置2、センサー装置3、通信装置4、表示装置5、コントロールユニット6を備えている。   FIG. 1 is a block diagram conceptually showing the entire configuration of the vehicle periphery information display system 1. The vehicle image display system 1 includes a navigation device 2, a sensor device 3, a communication device 4, a display device 5, and a control unit 6.

ナビゲーション装置2は、GPS(グローバル・ポジショニング・システム)11から受け取るGPS情報に基づいて、搭載される自車両の位置及び進行方向を特定する。そして、ナビゲーション装置2は、地図データベース2Aを備えており、地図データベース2Aから特定した自車両の位置を含む地域の地図データを読み出す。   The navigation device 2 specifies the position and traveling direction of the own vehicle mounted on the basis of GPS information received from a GPS (global positioning system) 11. The navigation device 2 includes a map database 2A, and reads map data of an area including the position of the identified vehicle from the map database 2A.

センサー装置3は、自車両の周囲の状況を検知するもので、本例では図2に示すように、自動車14の進行方向の前方の視界を捉えるために、フロントウインドシールド15に配置されている一対のフロントカメラ16,17から成るステレオカメラ13と、自動車14の後続車を検知するためにリアウインドシールド19に配置されているミリ波によるレーダーセンサー18とを備えている。   The sensor device 3 detects a situation around the own vehicle, and in this example, as shown in FIG. 2, is disposed on the front windshield 15 in order to capture a view ahead of the vehicle 14 in the traveling direction. The stereo camera 13 includes a pair of front cameras 16 and 17, and a millimeter-wave radar sensor 18 disposed on a rear windshield 19 for detecting a vehicle following the automobile 14.

センサー装置3にステレオカメラ13を用いることで、自動車14の前方の検知対象物を立体的に認識でき、そしてカメラ16,17の画角を広角化することで、前方の側方から飛び出してくる検知対象物も確実に検知できるようにしている。また、レーダーセンサー18に代えて又は追加してリアカメラを配置してもよい。   By using the stereo camera 13 as the sensor device 3, the object to be detected in front of the automobile 14 can be recognized three-dimensionally, and by widening the angle of view of the cameras 16 and 17, the camera 16 jumps out from the front side. The object to be detected can be reliably detected. Further, a rear camera may be arranged instead of or in addition to the radar sensor 18.

通信装置4は、自車輌の周囲を走行又は駐停車している他車両との通信により、当該他車両の位置や進路、走行状態情報を受信する。また、通信装置4は、信号機や道路際に設置された通信機器(路側機)から信号機情報、規制情報、歩行者情報、事故車情報などのインフラのデータも受信可能に構成している。このような、インフラからの情報は、図示しないが、インターネットや公共放送を通じた交通情報センターとの間の無線通信によっても入手することができる。   The communication device 4 receives the position, course, and traveling state information of the other vehicle by communicating with the other vehicle traveling or parked around the own vehicle. In addition, the communication device 4 is configured to be able to receive infrastructure data such as traffic signal information, regulation information, pedestrian information, and accident vehicle information from a traffic signal or a communication device (roadside device) installed along the road. Although not shown, such information from the infrastructure can also be obtained by wireless communication with a traffic information center through the Internet or public broadcasting.

コントロールユニット6は、CPU、ROM、RAMを含むコンピュータで構成されており、CPUは、ROMに格納されている制御プログラムを実行することで、上記の各装置を制御するのに加えて、対象判別部7、位置検出部8、画像生成部9としてそれぞれ機能する。   The control unit 6 is configured by a computer including a CPU, a ROM, and a RAM. The CPU executes a control program stored in the ROM to control each of the above-described devices and to determine an object. It functions as the unit 7, the position detection unit 8, and the image generation unit 9, respectively.

対象判別部7は、ステレオカメラ13の各カメラ16,17からそれぞれ送られてくる画像を解析して、車両(各種の自動車・自動二輪・自転車等)や人等(以下、検知対象物と称す)の存在及び車線を検知する。   The object discriminating unit 7 analyzes the images sent from the cameras 16 and 17 of the stereo camera 13, respectively, and analyzes a vehicle (various automobiles, motorcycles, bicycles, etc.), a person, etc. (hereinafter, referred to as a detection target). ) And the lane are detected.

この場合、対象判別部7は、検知対象物の検知については、パターンマッチング処理を行うことで、画像の中から検知対象物の輪郭を検出してその存在を判断する。よって、前記ROMには、各種車両や人等の検知対象物の画像特徴が予め登録されているパターンデータファイルが設定されており、画像にこの画像特徴が含まれているかを判別することで、各カメラ16,17のそれぞれの撮像画像から検知対象物の存在とその種別を判別する。さらに、対象判別部7は、検知した対象物以外のオブジェクトを除去する処理を行う。   In this case, for the detection of the detection target, the target determination unit 7 performs a pattern matching process to detect the outline of the detection target from the image and determine the presence of the detection target. Therefore, in the ROM, a pattern data file in which image features of detection targets such as various vehicles and people are registered in advance, and by determining whether the image includes the image features, The presence and type of the detection target are determined from the captured images of the cameras 16 and 17. Further, the target determining unit 7 performs a process of removing an object other than the detected target.

また、対象判別部7は、車線の検知については、各カメラ16,17によって撮像されたそれぞれの画像の輝度情報を基にして、白線又は黄線による車線ライン24を検出することで車線を検出する。   Further, the target discriminating unit 7 detects the lane by detecting the lane line 24 of a white line or a yellow line based on the luminance information of each image captured by each of the cameras 16 and 17 for the detection of the lane. I do.

位置検出部8は、対象判別部7によって不要なオブジェクトが除かれたカメラ16,17のそれぞれの画像から検知対象物の位置を算出する。加えて、位置検出部8は、レーダーセンサー18により測定した後続車との間の距離情報から後続車両の位置を判別する。   The position detection unit 8 calculates the position of the detection target from each of the images of the cameras 16 and 17 from which unnecessary objects have been removed by the target determination unit 7. In addition, the position detection unit 8 determines the position of the following vehicle from the distance information between the vehicle and the following vehicle measured by the radar sensor 18.

画像生成部9は、ナビゲーション装置2からの地図データ、位置検出部8からの検知対象物の位置情報に基づいて、自車両の周辺状況を表示する画像を生成する。このとき画像生成部9は、ナビゲーション装置2からの地図データの画像の上に、対象判別部7が識別した人や車両をシンボル化した絵柄であるアイコンを重畳して自車両を中心とする周辺状況を示す画像を作成する。したがって、画像生成部9には、予め検知対象物の種類に応じた複数のアイコンが設定されている。   The image generation unit 9 generates an image that displays the surrounding situation of the vehicle based on the map data from the navigation device 2 and the position information of the detection target from the position detection unit 8. At this time, the image generation unit 9 superimposes an icon which is a symbolized picture of the person or the vehicle identified by the object identification unit 7 on the image of the map data from the navigation device 2 and surrounds the vehicle around the own vehicle. Create an image showing the situation. Therefore, a plurality of icons according to the type of the detection target are set in the image generation unit 9 in advance.

表示装置5は、搭乗者による目視が容易なように自動車14のダッシュボードに搭載されて、画像生成部8が生成した画像を表示する。   The display device 5 is mounted on the dashboard of the automobile 14 so that the passenger can easily view the image, and displays the image generated by the image generation unit 8.

上記構成による自動車周辺情報表示システム1の動作について、図3に示すフローチャートにより説明する。   The operation of the vehicle periphery information display system 1 having the above configuration will be described with reference to the flowchart shown in FIG.

ナビゲーション装置2は、GPS11からのGPS情報を受け取り、自車両の現在の位置を算出すると共に、受け取ったGPS情報の履歴を格納することで、自車両の進行方向を特定する(ステップS01)。そして、ナビゲーション装置2が自車両の現在位置を含む地図データを地図データベース2Aから読み出して、地図データを対象判別部7に出力する(ステップS02)。図4(a)は、このときの地図データが表す地図画像を例示しており、自車両の位置と進行方向とが矢印で示されている。この地図画像は、ナビゲーション装置により表示される一般的な画像である。   The navigation device 2 receives the GPS information from the GPS 11, calculates the current position of the own vehicle, and stores the history of the received GPS information to specify the traveling direction of the own vehicle (step S01). Then, the navigation device 2 reads out the map data including the current position of the own vehicle from the map database 2A and outputs the map data to the target determination unit 7 (Step S02). FIG. 4A illustrates a map image represented by the map data at this time, and the position and the traveling direction of the own vehicle are indicated by arrows. This map image is a general image displayed by the navigation device.

そして、各カメラ16,17は自車両の前方及び後方の外部の状況を撮像しており、対象判別部7は、画像認識処理により自車両の周囲に人や車両等の検知対象物が存在しているかを判別する。   Then, each of the cameras 16 and 17 captures an image of an external situation in front of and behind the own vehicle, and the object determination unit 7 determines that a detection target such as a person or a vehicle exists around the own vehicle by image recognition processing. Is determined.

図5は、自車両の前方の光景の画像を例示するもので、対象判別部7は、カメラ16,17が捉えたそれぞれの画像にパターンマッチング処理を行って検知対象物の存在を判別すると共に車線ライン24を検出する(ステップS03)。これにより、自車両と同一の車線L1を走行する先行自動車20と、右隣の車線L2を走行する対向自動車21と、左側方からの自動車22と、右側方からの自転車23がそれぞれ検知される。   FIG. 5 exemplifies an image of a sight in front of the host vehicle. The target determination unit 7 performs pattern matching processing on each image captured by the cameras 16 and 17 to determine the presence of a detection target object. The lane line 24 is detected (step S03). Thereby, the preceding vehicle 20 traveling in the same lane L1 as the own vehicle, the oncoming vehicle 21 traveling in the right lane L2, the automobile 22 from the left side, and the bicycle 23 from the right side are respectively detected. .

そして、対象判別部7は、検知対象物である自動車20,21,22及び自転車23以外の建物25,26や信号機27,28等のオブジェクトを除去する処理を行う(ステップS04)。そして、位置検出部8は、対象判別部7が除去処理を行ったステレオカメラ16,17の画像に基づき、自車両から各自動車20,21,22及び自転車23までのX−Y座標軸での位置情報を計算によって求める(ステップS05)。   Then, the target determination unit 7 performs a process of removing objects such as the buildings 25 and 26 and the traffic signals 27 and 28 other than the automobiles 20, 21, 22 and the bicycle 23, which are detection targets (step S04). Then, the position detection unit 8 determines the position on the XY coordinate axis from the own vehicle to each of the automobiles 20, 21, 22, and the bicycle 23 based on the images of the stereo cameras 16 and 17 from which the object determination unit 7 has performed the removal processing. Information is obtained by calculation (step S05).

一方、位置検出部8は、センサー装置3からはレーダーセンサー18により測定した後続車との間の距離情報を入手している。よって、位置検出部8は、後方の検知対象物である後続車両の自車両を基準とする検知対象物までの相対位置をX−Y座標軸での位置情報を算出する(ステップS06)。この場合、レーダーセンサー18による検知対象物は後続車両としているが、レーダーセンサー18と共にリアカメラを配置して後方の撮影画像を対象判別部7に送るようにすれば、後方の検知対象物の種別ごとに検出することができる。   On the other hand, the position detection unit 8 obtains, from the sensor device 3, information on the distance to the following vehicle measured by the radar sensor 18. Therefore, the position detection unit 8 calculates the position information on the XY coordinate axes of the relative position of the succeeding vehicle, which is the rear detection target object, with respect to the own vehicle based on the own vehicle (step S06). In this case, the object detected by the radar sensor 18 is a following vehicle, but if a rear camera is arranged together with the radar sensor 18 and an image captured behind is sent to the object determination unit 7, the type of the object detected behind is determined. Can be detected every time.

画像生成部9は、対象判別部7からの各検知対象物の種別情報が示されると、その種別に応じたアイコンを選択し、選択したアイコン20i,21i,22i,23iを位置検出部8から示される各検知対象物の位置情報に沿って、ナビゲーション装置2から示される地図データ上に重ねた地図画像を生成して表示する(ステップS07)。このとき、画像生成部9が生成する画像は、対象判別部7からの車線ライン24が検出されていることから、図4(b)に示すように、自車両が走行する道路には車線ライン24を表示して車線L1,L2を区分けし、先行車両20iと対向車両21iのアイコンを区別して表示している。また、この場合、レーダーセンサー18は後続車両を検知しており、画像生成部9は、後続車両の位置情報に沿ってアイコン24iを地図データ上に重ねて表示している。   When the type information of each detection target is indicated from the target determination unit 7, the image generation unit 9 selects an icon corresponding to the type and detects the selected icon 20 i, 21 i, 22 i, or 23 i from the position detection unit 8. A map image superimposed on the map data indicated by the navigation device 2 is generated and displayed according to the indicated position information of each detection target (step S07). At this time, in the image generated by the image generation unit 9, since the lane line 24 from the object determination unit 7 is detected, as shown in FIG. 24 are displayed to divide the lanes L1 and L2, and the icons of the preceding vehicle 20i and the oncoming vehicle 21i are distinguished and displayed. In this case, the radar sensor 18 detects the following vehicle, and the image generation unit 9 displays the icon 24i on the map data in accordance with the position information of the following vehicle.

自動車を表示するアイコンは、対象判別部7のパターンマッチング処理によりバスやトラックが認識されたときには、乗用車と区別してこれらのアイコンが表示される。或いは、全ての種類の自動車を代表する共通のアイコンでもよい。また、歩行者が認識されたときには、人をシンボル化したアイコンを表示することになる。   When a bus or a truck is recognized by the pattern matching processing of the target determination unit 7, these icons are displayed so as to distinguish them from passenger cars. Alternatively, a common icon representing all types of automobiles may be used. When a pedestrian is recognized, an icon that symbolizes a person is displayed.

そして、ナビゲーション装置2から出力される地図データには周囲の建物等を含めた三次元画像で表示するタイプのものもあるが、この場合には、カメラ16,17が捉えた実際の画像を地図データに重ねて表示することもできる。   Some types of map data output from the navigation device 2 are displayed as three-dimensional images including surrounding buildings and the like. In this case, actual images captured by the cameras 16 and 17 are displayed on a map. It can also be displayed over the data.

上記構成の車輌用画像表示システム1によれば、自動車14の搭乗者は、センサー装置3が把握している自車両の周囲の状況を表示装置5の画面上で確認することができる。したがって、特に、自動車14が自動運転車である場合には、搭乗者が目視した周囲の状況とセンサー装置3が把握している周囲の状況とを見比べることができるため、自動運転システムへの信頼性を確認可能な補助システムとして機能する。   According to the vehicle image display system 1 having the above-described configuration, the occupant of the automobile 14 can check the situation around the own vehicle, which is detected by the sensor device 3, on the screen of the display device 5. Therefore, in particular, when the automobile 14 is an autonomous vehicle, it is possible to compare the surrounding situation observed by the occupant with the surrounding situation recognized by the sensor device 3, so that the reliability of the autonomous driving system can be reduced. It functions as an auxiliary system that can confirm the performance.

車輌用画像表示システム1は、センサー装置3からの情報に限らず、通信装置4による車両間通信で入手した周囲の情報も表示装置5に表示させることもできる。   The vehicle image display system 1 can display not only the information from the sensor device 3 but also the surrounding information obtained by the inter-vehicle communication by the communication device 4 on the display device 5.

ここで車両間通信について説明すると、図6に示すように、車両31,32のそれぞれの通信装置4の間で、自車両の位置や車両状態を示すメッセージデータを単向同報通信により授受するものである。この場合、車両31,32は直接通信が行われてもよいし、又は道路際に設置されたアンテナ33や通信チップ(図示せず)からインターネットなどによる通信回線36を通して、中継センター34を経由して間接的に通信されてもよい。図6で示すケースでは、同じ交差点に向かって進行する車両31、32は建物35が互いの視界を遮るために目視では確認できないが、両方の車両31、32が通信によって、自らの位置と車速等を伝達し合うことで衝突事故を未然に防ぐ安全運転支援となる。   Here, the inter-vehicle communication will be described. As shown in FIG. 6, message data indicating the position of the own vehicle and the vehicle state is transmitted and received between the communication devices 4 of the vehicles 31 and 32 by unidirectional broadcast communication. Things. In this case, the vehicles 31 and 32 may directly communicate with each other, or may pass through a relay center 34 via a communication line 36 such as the Internet from an antenna 33 or a communication chip (not shown) installed along the road. And may be indirectly communicated. In the case shown in FIG. 6, vehicles 31 and 32 traveling toward the same intersection cannot be visually confirmed because the building 35 blocks each other's view, but both vehicles 31 and 32 communicate with each other by their positions and vehicle speeds. By transmitting the information, etc., it becomes safe driving support to prevent collision accidents.

図7は、車両間通信で授受するメッセージのデータフレームDFの構成例を模式的に示しており、時・分・秒のデータエレメントが書き込まれる時刻情報データフレームDF1と、GPS等により取得した緯度・経度の各データエレメントが書き込まれる位置情報データフレームDF2と、車速情報・車両方位角情報・自動運転情報・シフトポジション情報・ステアリング角度情報の各データエレメントが書き込まれる車両状態情報データフレームDF3及び車両サイズ別(大型,普通,自動二輪車等)情報・車幅情報・車長情報の各データエレメントが書き込まれる車両属性情報データフレームDF4で構成されている。   FIG. 7 schematically shows a configuration example of a data frame DF of a message exchanged between vehicles, a time information data frame DF1 in which hour, minute, and second data elements are written, and a latitude acquired by GPS or the like. A position information data frame DF2 in which each longitude data element is written, and a vehicle state information data frame DF3 and a vehicle in which vehicle speed information, vehicle azimuth information, automatic driving information, shift position information, and steering angle information are written. It is composed of a vehicle attribute information data frame DF4 in which each data element of size-specific (large, normal, motorcycle, etc.) information, vehicle width information and vehicle length information is written.

車両間通信で入手した情報を表示する動作を図8のフローチャートを用いて説明する。まず、通信装置4は、ナビゲーション装置2が取得した自車両の位置及び車速を入力し(ステップS11)、通信装置4を通じて他車両の位置及び車速を取得する(ステップS12)。この場合、通信装置4と同一又は互換性のある通信装置を搭載する他車両からは、前述したように、当該他車両の位置情報、車両属性情報、速度や方位角の種別等の車両状態情報をデータフレームに含むメッセージが出力されている。   The operation of displaying the information obtained by the inter-vehicle communication will be described with reference to the flowchart of FIG. First, the communication device 4 inputs the position and the vehicle speed of the own vehicle acquired by the navigation device 2 (Step S11), and acquires the position and the vehicle speed of another vehicle through the communication device 4 (Step S12). In this case, from another vehicle equipped with a communication device that is the same as or compatible with the communication device 4, vehicle status information such as position information, vehicle attribute information, speed and azimuth type of the other vehicle is provided as described above. Is output in the data frame.

よって、画像生成部8は、ナビゲーション装置2から示されている地図データと照合し(ステップS13)、照合結果から自車両の周囲に他車両が存在しているかを判別する(ステップS14)。そして、画像生成部8は、通信が可能な他車両が周囲に存在している場合(ステップS14の「YES」)、車両属性情報によるその他車両の種別に応じたアイコンを選択して、選択したアイコンを受信したメッセージの位置情報に沿って、地図データ上に重ねた地図画像を生成して表示する(ステップS15)。一方、通信装置4は、自車両に関する時刻情報・位置情報・車両状態情報・車両属性情報を含むメッセージを送信する(ステップS16)。   Therefore, the image generation unit 8 collates with the map data indicated by the navigation device 2 (step S13), and determines whether there is another vehicle around the own vehicle from the collation result (step S14). Then, when another vehicle with which communication is possible is present in the vicinity (“YES” in step S14), the image generation unit 8 selects and selects an icon according to the type of the other vehicle based on the vehicle attribute information. A map image superimposed on the map data is generated and displayed according to the position information of the message having received the icon (step S15). On the other hand, the communication device 4 transmits a message including time information, position information, vehicle state information, and vehicle attribute information relating to the own vehicle (step S16).

このような車両間通信を行なうことで、図5に示されている自動車22が建物の陰で目視できない状況であっても、車両間通信が可能であると、画像生成部8は自動車22の存在を検知して地図データ上にアイコンを表示することができる。また、通信装置4は、車両間通信以外にも、インターネットや公共放送を通じた交通情報センターとの間の無線通信によって事故車や工事情報等を入手して、これらの状況を表すアイコンを地図データ上に表示することもできる。   By performing such vehicle-to-vehicle communication, even when the vehicle 22 shown in FIG. The presence can be detected and an icon can be displayed on the map data. In addition to the inter-vehicle communication, the communication device 4 obtains an accident vehicle, construction information, and the like by wireless communication with a traffic information center through the Internet or public broadcasting, and displays an icon representing these conditions in map data. It can also be displayed above.

以上、本発明の好適な実施形態について詳細に説明したが、本発明は上記実施形態に限定されるものでなく、その技術的範囲内において、様々な変形又は変更を加えて実施することができる。例えば、自動車の後方の検出視野を拡げるために、リアウインドシールド19の両側に一対のカメラ(ステレオカメラ)やレーダーセンサーを配置してもよい。また、リアウインドシールド19に限らず、一対のドアミラーのそれぞれに左右のカメラやレーダーセンサーを配置してもよい。   As described above, the preferred embodiments of the present invention have been described in detail. However, the present invention is not limited to the above embodiments, and can be implemented with various modifications or changes within the technical scope thereof. . For example, a pair of cameras (stereo camera) or a radar sensor may be arranged on both sides of the rear windshield 19 in order to widen the detection field of view behind the automobile. The left and right cameras and radar sensors may be arranged on each of the pair of door mirrors without being limited to the rear windshield 19.

1 自動車周辺情報表示システム
2 ナビゲーション装置
3 センサー装置
4 通信装置
5 表示装置
7 対象判別部
8 位置検出部
9 画像生成部
13 ステレオカメラ
18 レーダーセンサー
20i,21i,22i,23i,24i アイコン
24 車線ライン
34 中継センター
36 通信回線
DESCRIPTION OF SYMBOLS 1 Car periphery information display system 2 Navigation device 3 Sensor device 4 Communication device 5 Display device 7 Target discriminating unit 8 Position detecting unit 9 Image generating unit 13 Stereo camera 18 Radar sensors 20i, 21i, 22i, 23i, 24i Icon 24 Lane line 34 Relay center 36 Communication line

Claims (8)

自車輌の周囲の状況を検出するセンサー装置と、
前記自車輌の現在位置及び進行方向を特定して前記現在位置を含む周辺地域の地図データを地図データベースから読み出すナビゲーション装置と、
前記センサー装置が検出するセンサー情報から検知対象物の存在を検出すると共にその種別を判別する対象判別部と、
前記センサー情報から前記自車輌を基準とする前記検知対象物の位置情報を求める位置検出部と、
前記対象判別部が検出した検知対象物に関する前記位置情報が示す前記地図データ上の位置に、当該検知対象物に対応するアイコンを重ねた地図画像を生成する画像生成部と、
前記地図画像を表示する表示装置と、
他車輌との間で直接または間接的に通信する車輌間通信を行って、当該他車輌に関する位置情報と車輌属性情報とを入手する通信装置と、
を備え、
前記画像生成部は、前記通信装置が前記車輌間通信によって他車輌からその位置情報と車輌属性情報とを受信すると、受信した前記他車輌の位置情報と前記ナビゲーション装置からの前記地図データとを照合し、その結果自車輌の周囲に前記他車輌が存在する場合、前記地図データ上の前記他車輌の位置情報に対応する箇所に前記他車輌の車輌属性情報に対応する前記アイコンを重ねた地図画像を生成することを特徴とする自動車周辺情報表示システム。
A sensor device for detecting a situation around the vehicle,
A navigation device that specifies a current position and a traveling direction of the vehicle and reads map data of a surrounding area including the current position from a map database;
A target determining unit that detects the presence of the detection target from the sensor information detected by the sensor device and determines the type of the detection target;
A position detection unit that obtains position information of the detection target based on the vehicle from the sensor information;
An image generation unit that generates a map image in which an icon corresponding to the detection target is superimposed on a position on the map data indicated by the position information regarding the detection target detected by the target determination unit;
A display device for displaying the map image;
A communication device that performs inter-vehicle communication for directly or indirectly communicating with another vehicle to obtain position information and vehicle attribute information on the other vehicle;
With
The image generation unit, the communication apparatus receives a result of its location information and car輌属of information from other vehicles by communication between the vehicle and the position information of the other vehicle received and the map data from the navigation device Collation, as a result, when the other vehicle is present around the own vehicle, a map in which the icon corresponding to the vehicle attribute information of the other vehicle is superimposed on a location corresponding to the position information of the other vehicle on the map data. An automobile peripheral information display system for generating an image.
前記センサー装置は、前記自車両の外部の画像を撮像するカメラを含み、前記対象判別部は、前記カメラの撮像画像からパターンマッチング処理により前記検知対象物の存在を検出することを特徴とする請求項1に記載の自動車周辺情報表示システム。   The sensor device includes a camera that captures an image outside the host vehicle, and the target determination unit detects the presence of the detection target from a captured image of the camera by pattern matching processing. Item 4. An automobile peripheral information display system according to item 1. 前記カメラはステレオカメラであって、前記位置検出部は、前記ステレオカメラの画像から前記検知対象物の位置情報を算出することを特徴とする請求項2に記載の自動車周辺情報表示システム。   The vehicle surrounding information display system according to claim 2, wherein the camera is a stereo camera, and the position detection unit calculates position information of the detection target from an image of the stereo camera. 前記対象判別部は、前記画像の輝度情報を基にして、車線ラインを検出することを特徴とする請求項2又は3に記載の自動車周辺情報表示システム。   The vehicle surrounding information display system according to claim 2, wherein the target determination unit detects a lane line based on luminance information of the image. 前記対象判別部は、前記検知対象物として前記自車両に先行する先行他車両と対向してくる対向他車両とを検出し、前記画像生成部は、前記地図データにおける自車両が走行する道路に模式的に前記車線ラインを表示し、車線を区別して前記先行他車両と前記対向他車両との各前記アイコンを表示する前記地図画像を生成することを特徴とする請求項4に記載の自動車周辺情報表示システム。   The target determination unit detects, as the detection target object, an oncoming other vehicle that is ahead of the own vehicle and an oncoming other vehicle that faces the own vehicle, and the image generation unit determines whether or not a road on which the own vehicle travels in the map data. 5. The vehicle periphery according to claim 4, wherein the lane line is schematically displayed, and the map image is displayed to display the respective icons of the preceding vehicle and the oncoming vehicle while distinguishing the lanes. 6. Information display system. 前記対象判別部は、前記画像から検出した前記検知対象部以外のオブジェクトを除去し、前記位置検出部は、前記位置検出部は、当該除去した画像から前記検知対象物の位置情報を求めることを特徴とする請求項2又は3に記載の自動車周辺情報表示システム。   The target determination unit removes an object other than the detection target unit detected from the image, and the position detection unit determines that the position detection unit obtains position information of the detection target object from the removed image. The vehicle periphery information display system according to claim 2 or 3, wherein: 前記センサー装置は、ミリ波レーダー、マイクロ波レーダー、レーザーレーダー、赤外線センサー、超音波センサーの何れか一つ又はその組み合わせで成るレーダーセンサーを含み、前記位置検出部は、前記レーダーセンサーが検知する前記自車両と前記検知対象物との間の距離情報に基づいて、当該検知対象物の位置情報を求めることを特徴とする請求項1に記載の自動車周辺情報表示システム。   The sensor device includes a millimeter-wave radar, a microwave radar, a laser radar, an infrared sensor, a radar sensor composed of any one of an ultrasonic sensor or a combination thereof, and the position detection unit detects the radar sensor. The vehicle surrounding information display system according to claim 1, wherein position information of the detection target is obtained based on distance information between the vehicle and the detection target. 前記通信装置は、前記車輌間通信以外の外部との無線通信によって事故車及び工事の情報を入手することができ、前記画像生成部は、前記通信装置が入手する前記事故車及び工事の情報を表わす前記アイコンを前記地図データ上に重ねた地図画像を生成することを特徴とする請求項1乃至7のいずれかに記載の自動車周辺情報表示システム。
The communication device, the information of the accident vehicle and construction can be obtained by the vehicle between wireless communication with an external non-communication, the image generation unit, the information of the accident vehicle and construction wherein the communication device is obtained The vehicle peripheral information display system according to any one of claims 1 to 7 , wherein a map image in which the icon to be displayed is superimposed on the map data is generated.
JP2015102831A 2015-05-20 2015-05-20 Car peripheral information display system Active JP6635428B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015102831A JP6635428B2 (en) 2015-05-20 2015-05-20 Car peripheral information display system
CN201680028947.0A CN107615353A (en) 2015-05-20 2016-05-13 Automobile Peripheral Information Display System
EP16796432.9A EP3300054A4 (en) 2015-05-20 2016-05-13 AUTOMOBILE PERIPHERAL INFORMATION DISPLAY SYSTEM
PCT/JP2016/064331 WO2016186039A1 (en) 2015-05-20 2016-05-13 Automobile periphery information display system
US15/574,715 US10302448B2 (en) 2015-05-20 2016-05-13 Automobile periphery information display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015102831A JP6635428B2 (en) 2015-05-20 2015-05-20 Car peripheral information display system

Publications (3)

Publication Number Publication Date
JP2016218732A JP2016218732A (en) 2016-12-22
JP2016218732A5 JP2016218732A5 (en) 2018-06-28
JP6635428B2 true JP6635428B2 (en) 2020-01-22

Family

ID=57320102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015102831A Active JP6635428B2 (en) 2015-05-20 2015-05-20 Car peripheral information display system

Country Status (5)

Country Link
US (1) US10302448B2 (en)
EP (1) EP3300054A4 (en)
JP (1) JP6635428B2 (en)
CN (1) CN107615353A (en)
WO (1) WO2016186039A1 (en)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016225746B4 (en) 2016-12-21 2020-12-24 Audi Ag Establishing a direct communication link with a third-party vehicle in the vicinity of a motor vehicle
US20190012625A1 (en) * 2017-07-05 2019-01-10 Panasonic Intellectual Property Management Co., Lt d. Autonomous vehicle/drive-through synchronization system and synchronization method
KR102567973B1 (en) * 2017-12-14 2023-08-17 삼성전자주식회사 Autonomous driving vehicle providing driving information and method thereof
CN108363985B (en) * 2018-03-06 2023-06-06 深圳市易成自动驾驶技术有限公司 Target object perception system testing method and device and computer readable storage medium
JP2019159380A (en) * 2018-03-07 2019-09-19 株式会社デンソー Object detection device, object detection method, and program
US11244175B2 (en) * 2018-06-01 2022-02-08 Qualcomm Incorporated Techniques for sharing of sensor information
US11011922B2 (en) 2018-06-09 2021-05-18 Nxp Aeronautics Research, Llc Monitoring tower with device powered using differentials in electric field strengths within vicinity of powerlines
US10391867B1 (en) 2018-06-09 2019-08-27 Nxp Aeronautics Research, Llc Apparatus having electric-field actuated generator for powering electrical load within vicinity of powerlines
EP3588371A3 (en) * 2018-06-25 2020-03-11 Panasonic Intellectual Property Corporation of America Information processing device, information processing method, and program
US10957190B2 (en) * 2018-06-28 2021-03-23 Intel Corporation Traffic management system, components of a distributed traffic management system, prioritization/load-distribution system, and methods thereof
US10942030B2 (en) 2018-08-17 2021-03-09 Lyft, Inc. Road segment similarity determination
US10479356B1 (en) 2018-08-17 2019-11-19 Lyft, Inc. Road segment similarity determination
JP7147712B2 (en) * 2018-08-31 2022-10-05 株式会社デンソー VEHICLE-SIDE DEVICE, METHOD AND STORAGE MEDIUM
JP7136035B2 (en) * 2018-08-31 2022-09-13 株式会社デンソー Map generation device and map generation method
CN110197587A (en) * 2019-05-31 2019-09-03 京东方科技集团股份有限公司 A driving processing method, as well as a vehicle, a server and a driving system
US11928557B2 (en) 2019-06-13 2024-03-12 Lyft, Inc. Systems and methods for routing vehicles to capture and evaluate targeted scenarios
US11157007B2 (en) 2019-06-28 2021-10-26 Lyft, Inc. Approaches for encoding environmental information
US11449475B2 (en) 2019-06-28 2022-09-20 Lyft, Inc. Approaches for encoding environmental information
US10625748B1 (en) 2019-06-28 2020-04-21 Lyft, Inc. Approaches for encoding environmental information
JP7238670B2 (en) * 2019-07-23 2023-03-14 トヨタ自動車株式会社 image display device
US11431168B2 (en) 2019-08-26 2022-08-30 Nxp Aeronautics Research, Llc UAV airways systems and apparatus
JP6656459B1 (en) * 2019-09-20 2020-03-04 ソフトバンク株式会社 Moving object, system, program, and control method
US11788846B2 (en) 2019-09-30 2023-10-17 Lyft, Inc. Mapping and determining scenarios for geographic regions
US12039785B2 (en) 2019-10-23 2024-07-16 Lyft, Inc. Approaches for encoding environmental information
US11816900B2 (en) * 2019-10-23 2023-11-14 Lyft, Inc. Approaches for encoding environmental information
CN111210661A (en) * 2020-01-16 2020-05-29 北京汽车集团有限公司 Intersection vehicle anti-collision method and device
WO2021145032A1 (en) * 2020-01-17 2021-07-22 アイシン・エィ・ダブリュ株式会社 Nearby vehicle position estimation system, and nearby vehicle position estimation program
JP7357284B2 (en) * 2020-02-12 2023-10-06 パナソニックIpマネジメント株式会社 Drawing system, display system, moving object, drawing method and program
CN113257021B (en) * 2020-02-13 2022-12-23 宁波吉利汽车研究开发有限公司 A vehicle safety early warning method and system
US20230160700A1 (en) * 2020-03-25 2023-05-25 Robert Bosch Gmbh Vehicle locating system and vehicle locating device
CN112344956B (en) * 2020-11-05 2022-02-25 腾讯科技(深圳)有限公司 Map display method and device
KR102311718B1 (en) * 2020-11-16 2021-10-13 (주)에바 Method, apparatus and computer program for saving and managing marker information to control automatic driving vehicle
CN113147399A (en) * 2021-06-09 2021-07-23 深圳朗道智通科技有限公司 Interactive display terminal for intelligent driving automobile
CN113928312B (en) * 2021-09-16 2024-03-26 联想(北京)有限公司 Data processing method and device
KR20230056856A (en) * 2021-10-20 2023-04-28 삼성전자주식회사 The electronic device mounted on vehicle and the method operating the same
CN118139775A (en) * 2021-10-20 2024-06-04 三星电子株式会社 Electronic device installed in vehicle and method of operating the same
CN114792470A (en) * 2022-04-08 2022-07-26 广州小鹏汽车科技有限公司 Road condition display method, device, wearable device and storage medium
CN116170694A (en) * 2023-01-03 2023-05-26 奇瑞汽车股份有限公司 Method, device and storage medium for displaying content

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1073441A (en) * 1996-07-03 1998-03-17 Fujitsu Ltd Car navigation device and program storage medium
JP2001042026A (en) 1999-07-27 2001-02-16 Japan Radio Co Ltd Navigator
JP2001099666A (en) 1999-10-01 2001-04-13 Kenwood Corp On-vehicle navigation apparatus
US6985089B2 (en) * 2003-10-24 2006-01-10 Palo Alto Reserach Center Inc. Vehicle-to-vehicle communication protocol
JP2005215964A (en) * 2004-01-29 2005-08-11 Alpine Electronics Inc Other vehicle detection device and other vehicle detection method
JP2005301581A (en) * 2004-04-09 2005-10-27 Denso Corp Inter-vehicle communication system, inter-vehicle communication equipment and controller
JP3867727B2 (en) * 2005-04-07 2007-01-10 オムロン株式会社 COMMUNICATION METHOD AND SYSTEM, AND VEHICLE CONTROL METHOD AND DEVICE
JP4716815B2 (en) * 2005-08-11 2011-07-06 アルパイン株式会社 Inter-vehicle communication device, inter-vehicle communication system, and moving image information application applicability determination method
JP4802686B2 (en) * 2005-12-02 2011-10-26 アイシン・エィ・ダブリュ株式会社 Inter-vehicle communication system
JP4923647B2 (en) * 2006-03-17 2012-04-25 株式会社デンソー Driving support image display device and program
JP2007292713A (en) * 2006-03-30 2007-11-08 Denso Corp Navigation device
JP4772622B2 (en) * 2006-08-18 2011-09-14 アルパイン株式会社 Perimeter monitoring system
US7840331B2 (en) * 2006-11-02 2010-11-23 Panasonic Corporation Travel support system and travel support method
US8332142B2 (en) * 2006-12-26 2012-12-11 Rohm Co., Ltd. Position display apparatus
US20090024317A1 (en) * 2007-07-18 2009-01-22 Gm Global Technology Operations, Inc. System for gathering and distributing location information of vehicles
JP2009223845A (en) * 2008-03-19 2009-10-01 Hitachi Ltd In-vehicle communication equipment
JP4883242B2 (en) * 2009-02-19 2012-02-22 トヨタ自動車株式会社 Moving body position detection device
JP4939564B2 (en) * 2009-03-23 2012-05-30 本田技研工業株式会社 Vehicle information providing device
US9280919B2 (en) * 2012-06-18 2016-03-08 GM Global Technology Operations LLC Method of generating anthropomophic vehicle images
US9470543B2 (en) * 2012-08-30 2016-10-18 Mitsubishi Electric Corporation Navigation apparatus
KR101957943B1 (en) * 2012-08-31 2019-07-04 삼성전자주식회사 Method and vehicle for providing information
SE539053C2 (en) * 2013-07-18 2017-03-28 Scania Cv Ab Procedure and sensor for information transfer between vehicles
KR20150049723A (en) * 2013-10-30 2015-05-08 현대모비스 주식회사 Apparatus for tracking position of vehicle
US20150256506A1 (en) * 2014-03-06 2015-09-10 Honda Motor Co., Ltd. Method and electronic device for performing message exchange
JP2016024557A (en) * 2014-07-17 2016-02-08 本田技研工業株式会社 Program and method for exchanging messages, and electronic apparatus
US9726514B2 (en) * 2015-06-19 2017-08-08 Delphi Technologies, Inc. Navigation system that displays other-vehicle information
EP3352154A4 (en) * 2015-09-18 2019-08-07 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
KR101942527B1 (en) * 2015-11-09 2019-01-25 엘지전자 주식회사 Apparatus for providing around view and Vehicle

Also Published As

Publication number Publication date
EP3300054A4 (en) 2019-02-06
EP3300054A1 (en) 2018-03-28
JP2016218732A (en) 2016-12-22
US10302448B2 (en) 2019-05-28
CN107615353A (en) 2018-01-19
WO2016186039A1 (en) 2016-11-24
US20180149491A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
JP6635428B2 (en) Car peripheral information display system
JP5160564B2 (en) Vehicle information display device
JP6662828B2 (en) Driving support system, driving support device, and driving support method
US9896094B2 (en) Collision avoidance control system and control method
CN109427213B (en) Collision avoidance apparatus, method and non-transitory storage medium for vehicle
JP6269606B2 (en) Vehicle control device
JP6398957B2 (en) Vehicle control device
US20190088137A1 (en) Vehicle control device, vehicle control method, and recording medium
CN107054218B (en) Identification information display device and method
US11794645B2 (en) Apparatus and method for giving warning about vehicle in violation of traffic signal at intersection
WO2019038903A1 (en) Surrounding vehicle display method and surrounding vehicle display apparatus
JP6168025B2 (en) Intersection-related warning device for vehicles
JP2019049774A (en) Vehicle control device, vehicle control method, and program
CN106415693A (en) Cognitive notification device for vehicles, Cognitive notification system for vehicles
WO2015190212A1 (en) Lane selecting device, vehicle control system and lane selecting method
CN109720343B (en) Vehicle control apparatus
US20190244515A1 (en) Augmented reality dsrc data visualization
JP2013033324A (en) Surrounding vehicle information notifying device
US20220281482A1 (en) Vehicle control device, vehicle control method, and computer-readable storage medium storing program
JP2019197303A (en) Vehicle outside notification device
EP2797027A1 (en) A vehicle driver alert arrangement, a vehicle and a method for alerting a vehicle driver
WO2017138343A1 (en) Driving teaching device
JP2009151566A (en) Vehicle display device
JP2016224553A (en) Vehicle traffic information display system
JP7432198B2 (en) Situation awareness estimation system and driving support system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191210

R150 Certificate of patent or registration of utility model

Ref document number: 6635428

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250