[go: up one dir, main page]

KR102309316B1 - 차량용 디스플레이 장치 및 이를 구비한 차량 - Google Patents

차량용 디스플레이 장치 및 이를 구비한 차량 Download PDF

Info

Publication number
KR102309316B1
KR102309316B1 KR1020150078167A KR20150078167A KR102309316B1 KR 102309316 B1 KR102309316 B1 KR 102309316B1 KR 1020150078167 A KR1020150078167 A KR 1020150078167A KR 20150078167 A KR20150078167 A KR 20150078167A KR 102309316 B1 KR102309316 B1 KR 102309316B1
Authority
KR
South Korea
Prior art keywords
vehicle
display
image
information
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020150078167A
Other languages
English (en)
Other versions
KR20160142167A (ko
Inventor
김민구
조동준
김정희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150078167A priority Critical patent/KR102309316B1/ko
Priority to EP16172437.2A priority patent/EP3100913B1/en
Priority to CN201610388373.XA priority patent/CN106218506B/zh
Priority to US15/171,076 priority patent/US20160355133A1/en
Publication of KR20160142167A publication Critical patent/KR20160142167A/ko
Application granted granted Critical
Publication of KR102309316B1 publication Critical patent/KR102309316B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • B60R2016/02
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명은 차량용 디스플레이 장치 및 이를 구비한 차량에 관한 것이다. 본 발명의 차량용 디스플레이 장치는, 차량 전방을 촬영하는 전방 카메라와, 차량 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이와, 차량 주행 중, 디스플레이의 영역 중 운전석에 대응하는 제1 영역에, 전방 카메라로부터의 차량 전방 이미지를 표시하도록 제어하고, 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어하는 프로세서를 포함한다. 이에 의해, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이를 통해, 차량 전방 이미지 표시 및 주행 관련 정보의 표시가 가능하게 된다.

Description

차량용 디스플레이 장치 및 이를 구비한 차량 {Display apparatus for vhhicle and vehicle including the same}
본 발명은 차량용 디스플레이 장치 및 이를 구비한 차량에 관한 것이며, 더욱 상세하게는, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이를 통해, 차량 전방 이미지 표시 및 주행 관련 정보의 표시가 가능한 차량용 디스플레이 장치 및 이를 구비한 차량에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있다.
본 발명의 목적은, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이를 통해, 차량 전방 이미지 표시 및 주행 관련 정보의 표시가 가능한 차량용 디스플레이 장치 및 이를 구비한 차량을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 차량용 디스플레이 장치는, 차량 전방을 촬영하는 전방 카메라와, 차량 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이와, 차량 주행 중, 디스플레이의 영역 중 운전석에 대응하는 제1 영역에, 전방 카메라로부터의 차량 전방 이미지를 표시하도록 제어하고, 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어하는 프로세서를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명의 차량은, 차량 전방을 촬영하는 전방 카메라와, 차량 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이와, 차량 주행 중, 디스플레이의 영역 중 운전석에 대응하는 제1 영역에, 전방 카메라로부터의 차량 전방 이미지를 표시하도록 제어하고, 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어하는 프로세서를 포함한다.
본 발명의 실시예에 따른 차량용 디스플레이 장치는, 차량 전방을 촬영하는 전방 카메라와, 차량 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이와, 차량 주행 중, 디스플레이의 영역 중 운전석에 대응하는 제1 영역에, 전방 카메라로부터의 차량 전방 이미지를 표시하도록 제어하고, 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어하는 프로세서를 포함함으로써, 차량 전방 이미지 표시 및 주행 관련 정보의 표시가 가능하게되어, 이용 편의성이 증대될 수 있게 된다.
특히, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이를 통해, 차량 전방 이미지를 표시함으로써, 윈드 쉴드 상에 육안으로 확인 가능한 전면 상황과, 심리스한 표시가 가능하게 된다.
한편, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이를 통해, 차량 전방 이미지 외에, 차량 상태 정보 또는 컨텐츠 영상 중 적어도 하나를 디스플레이에 더 표시함으로써, 다양한 정보를 제공할 수 있게 된다.
한편, 내부 카메라를 통해, 운전자의 눈 높이를 고려하여, 차량 전방 이미지로 표시되도록 제어함으로써, 증강 현실(argumented realilty) 기능이 더욱 부각될 수 있게 된다.
한편, 차량 후진 중, 후방 카메라에서 촬영된 이미지를, 디스플레이 영역 중 운전석에 대응하는 제1 영역에, 표시함으로써, 운전자를 위한 이용 편의성이 증대될 수 있게 된다.
한편, 디스플레이 영역 중 조수석에 대응하는 제2 영역에, 재생되는 컨텐츠 영상을 표시함으로써, 조수석 탑승자를 위한 이용 편의성이 증대될 수 있게 된다.
한편, 다양한 입력 방법을 통해, 디스플레이에 표시되는 이미지, 정보 등의 배열 순서, 크기 등을 변경하거나, 차량 내의 다른 디스플레이로 전송할 수 있으며, 이에 따라, 이용 편의성이 증대될 수 있게 된다.
한편, 차량 주행 중 도로 주변의 상점 등으로부터 위치 기반 광고 정보를 수신하고, 이를 표시함으로써, 운전자 또는 조수석 탑승자의 이용 편의성이 증대될 수 있게 된다.
도 1은 본 발명의 실시예에 따른 차량용 디스플레이 장치를 구비하는 차량 통신 시스템의 개념도이다.
도 2a는 도 1의 차량의 외관의 일예를 도시한 도면이다.
도 2b는 도 2a의 차량에 부착되는 복수의 카메라의 위치를 개략적으로 도시한 도면이다.
도 2c는 도 2b의 복수의 카메라에서 촬영된 이미지에 기반한 어라운드 뷰 이미지를 예시한다.
도 3a 내지 도 3b는 도 1의 차량용 디스플레이 장치와 외부 장치와의 통신 방법을 예시하는 도면이다.
도 4a 내지 도 4b는 본 발명의 일실시예에 따른 차량용 디스플레이 장치의 내부 블록도의 다양한 예를 예시한다.
도 5는 도 1의 차량 내부의 블록도의 일예이다.
도 6a 내지 도 15c는 본 발명의 일실시예에 따른 차량용 디스플레이 장치의 다양한 동작 방법의 설명에 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
한편, 본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
도 1은 본 발명의 실시예에 따른 차량용 디스플레이 장치를 구비하는 차량 통신 시스템의 개념도이다.
도면을 참조하면, 차량 통신 시스템(10)은, 차량(200), 단말기(600a,600b), 서버(500)를 구비할 수 있다.
차량(200)은, 차량 내부에 차량용 디스플레이 장치(100)를 구비할 수 있으며, 차량용 디스플레이 장치(100)의 내부 통신부(미도시)를 통해, 단말기(600a,600b) 또는 서버(500)와 데이터를 교환할 수 있다. 특히, 네트워크(570)를 통해, 단말기(600b) 또는 서버(500)와 데이터를 교환할 수 있다.
단말기(600a,600b)는, TV와 같은 고정 단말기, 또는, 태블릿 PC, 웨어러블 기기, 스마트 폰과 같은 이동 단말기 등이 가능하나, 이하에서는, 이동 단말기를 중심으로 기술한다.
한편, 차량 내의 탑승자, 특히 운전자의 단말기(600a)는, 서버(500) 또는 차량(200)과 통신 가능하며, 특히, 차량 내에 장착되는 차량용 디스플레이 장치(100)와 데이터를 교환할 수 있다.
한편, 서버(500)는, 차량 제조사가 제공하는 서버 또는, 차량 관련 서비스를 제공하는 제공자가 운영하는 서버일 수 있다. 예를 들어, 도로 교통 상황 등에 대한 정보를 제공하는 제공자가 운영하는 서버일 수 있다.
한편, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 차량 주행 중, 디스플레이(180)의 영역 중 운전석(Std)에 대응하는 제1 영역에, 전방 카메라(195d)로부터의 차량 전방 이미지(810)를 표시하고, 차량 전방 이미지(810) 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시한다. 차량 전방 이미지 표시 및 주행 관련 정보의 표시가 가능하게 되어, 이용 편의성이 증대될 수 있게 된다.
특히, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이(180)를 통해, 차량 전방 이미지를 표시함으로써, 윈드 쉴드 상에 육안으로 확인 가능한 전면 상황과, 심리스(seamless)한 표시가 가능하게 된다.
한편, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이(180)를 통해, 차량 전방 이미지 외에, 차량 상태 정보 또는 컨텐츠 영상 중 적어도 하나를 디스플레이에 더 표시함으로써, 다양한 정보를 제공할 수 있게 된다.
한편, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 내부 카메라를 통해, 운전자의 눈 높이를 고려하여, 차량 전방 이미지로 표시되도록 제어함으로써, 증강 현실(argumented reality) 기능이 더욱 부각될 수 있게 된다.
한편, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 후방 카메라에서 촬영된 이미지를, 디스플레이 영역 중 운전석에 대응하는 제1 영역에, 표시함으로써, 운전자를 위한 이용 편의성이 증대될 수 있게 된다.
한편, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 한편, 디스플레이 영역 중 조수석에 대응하는 제2 영역에, 재생되는 컨텐츠 영상을 표시함으로써, 조수석 탑승자를 위한 이용 편의성이 증대될 수 있게 된다.
한편, 본 발명의 다양한 실시예에 대해서는, 이하의 도 6a 이하를 참조하여 보다 상세히 기술한다.
도 2a는 도 1의 차량의 외관의 일예를 도시한 도면이다.
도면을 참조하면, 차량(200)은, 동력원에 의해 회전하는 바퀴(103FR,103FL,103RL,..), 차량(200)의 진행 방향을 조절하기 위한 핸들(150), 및 차량(200)에 장착되는 복수의 카메라(195a,195b,195c,195d)를 구비할 수 있다. 한편, 도면에서는, 편의상 좌측 카메라(195a)와, 전방 카메라(195d)만 도시된다.
한편, 복수의 카메라(195a,195b,195c,195d)는, 어라운드 뷰 이미지를 제공하기 위한 어라운드 뷰 카메라일 수 있다.
예를 들어, 복수의 카메라(195a,195b,195c,195d)는, 차량의 속도가 소정 속도 이하인 경우, 또는 차량이 후진하는 경우, 활성화되어, 각각 촬영 이미지를 획득할 수 있다. 복수의 카메라에 의해 획득되는, 이미지는, 차량용 디스플레이 장치(도 4a 또는 도 4b의 100) 내에서 신호 처리될 수 있다.
도 2b는 도 2a의 차량에 부착되는 복수의 카메라의 위치를 개략적으로 도시한 도면이고, 도 2c는 도 2b의 복수의 카메라에서 촬영된 이미지에 기반한 어라운드 뷰 이미지를 예시한다.
먼저, 도 2b를 참조하면, 복수의 카메라(195a,195b,195c,195d)는, 각각 차량의 좌측, 후방, 우측, 및 전방에 배치될 수 있다.
특히, 좌측 카메라(195a)와 우측 카메라(195c)는, 각각 좌측 사이드 미러를 둘러싸는 케이스와 우측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다.
한편, 후방 카메라(195b)와 전방 카메라(195d)는, 각각 트렁크 스위치 부근 및 앰블럼 또는 앰블럼 부근에 배치될 수 있다.
한편, 복수의 카메라(195a,195b,195c,195d) 중 전방 카메라(195d)는, 차량 주행 중 항상 활성화될 수 있다. 이에 따라, 차량 전방 이미지를 캡쳐할 수 있다.
한편, 차량 주행 중, 좌측 카메라(195a)와 우측 카메라(195c)도 활성화될 수 있다. 이에 따라, 차량 좌측, 우측 후방 이미지를 캡쳐할 수 있다.
한편, 차량 주행 중 후방 카메라(195b)도 활성화될 수 있다. 이에 따라, 차량 후방 이미지를 캡쳐할 수 있다.
한편, 차량의 주행 속도가 소정 속도 이하인 경우, 또는 차량이 후진하는 경우에, 어라운드 뷰 모드로 진입할 수 있다.
어라운드 뷰 모드 하에서, 복수의 카메라(195a,195b,195c,195d)에서 촬영된 각각의 복수의 이미지는, 차량(200) 내의 프로세서(도 4a 또는 도 4b의 170) 등에 전달되고, 프로세서(도 4a 또는 도 4b의 170)는, 복수의 이미지를 조합하여, 어라운드뷰 이미지를 생성할 수 있다.
도 2c는 어라운드뷰 이미지(210)의 일예를 예시한다. 어라운드뷰 이미지(210)는, 좌측 카메라로부터(195a)의 제1 이미지 영역(195ai), 후방 카메라(195b)로부터의 제2 이미지 영역(195bi), 우측 카메라(195c)로부터의 제3 이미지 영역(195ci), 전방 카메라(195d)로부터의 제4 이미지 영역(195di)을 구비할 수 있다.
도 3a 내지 도 3b는 도 1의 차량용 디스플레이 장치와 외부 장치와의 통신 방법을 예시하는 도면이다.
도 3a 내지 도 3b는, 차량(200) 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석(Std)과 조수석(Stp)에 대응하는 영역에 배치되는 디스플레이(180)를 구비하는 디스플레이 장치(100)를 예시한다.
먼저, 도 3a를 참조하여 설명하면, 디스플레이 장치(100)는, 인터페이스부(도 4a, 도 4b의 130)는 외부 장치와 유선 또는 무선으로 접속할 수 있다.
예를 들어, 도면과 같이, 휴대용 저장장치(400)와 유선으로 접속할 수 있다.
휴대용 저장장치(400)는, 다양한 컨텐츠 데이터를 저장할 수 있으며, 나아가, 외부의 다른 장치와 무선으로 데이터 통신을 수행할 수도 있다.
도면과 같이, 휴대용 저장장치(400)는, 글래스(600c), 스마트 워치(600d)와 같은 웨어러블 기기, 이동 단말기(600a), 스티어링 휠(150)에 부착된 입력장치(300), 또는 외부 서버(500)와 데이터를 무선으로 교환할 수 있다.
이러한 휴대 저장장치(400)의 무선 데이터 통신 기능에 의해, 디스플레이 장치(100)는, 글래스(600c), 스마트 워치(600d)와 같은 웨어러블 기기, 이동 단말기(600a), 스티어링 휠(150)에 부착된 입력장치(300), 또는 외부 서버(500)와 데이터를 무선으로 교환할 수 있다.
다음, 도 3b는, 도 3a와 유사하나, 데이터 통신 기능이, 휴대용 저장장치(400)가 아닌, 디스플레이 장치(100)의 통신부(도 4a, 도 4b의 120)를 통해 수행되는 것에 그 차이가 있다.
도 4a 내지 도 4b는 본 발명의 일실시예에 따른 차량용 디스플레이 장치의 내부 블록도의 다양한 예를 예시한다.
도 4a 내지 도 4b의 차량용 디스플레이 장치(100)는, 차량 주행 중, 디스플레이(180)의 영역 중 운전석(Std)에 대응하는 제1 영역에, 전방 카메라(195d)로부터의 차량 전방 이미지(810)를 표시하고, 차량 전방 이미지(810) 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시한다.
한편, 도 4a 내지 도 4b의 차량용 디스플레이 장치(100)는, 복수의 카메라(195a,...,195d)로부터 수신되는 복수의 이미지를, 조합하여, 어라운드 뷰 이미지를 생성할 수도 있다.
한편, 차량용 디스플레이 장치(100)는, 복수의 카메라(195a,...,195d)로부터 수신되는 복수의 이미지에 기초하여, 차량 부근에 위치한 물체에 대한 오브젝트 검출, 확인, 및 트래킹을 수행할 수 있다.
먼저, 도 4a를 참조하면, 도 4a의 차량용 디스플레이 장치(100)는, 통신부(120), 인터페이스부(130), 메모리(140), 프로세서(170), 디스플레이(180), 전원 공급부(190), 및 복수의 카메라(195a,...,195d, 195e)를 구비할 수 있다.
통신부(120)는, 이동 단말기(600) 또는 서버(500)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(120)는, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.
통신부(120)는, 이동 단말기(600) 또는 서버(500)로부터, 차량 운전자의 스케쥴 시간, 또는 이동 위치와 관련한 스케줄 정보, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. 한편, 차량용 디스플레이 장치(100)에서, 이미지를 기반으로 파악한, 실시간 교통 정보를, 이동 단말기(600) 또는 서버(500)로 전송할 수도 있다.
한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(600)와 차량용 디스플레이 장치(100)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링(pairing)을 수행할 수 있다.
인터페이스부(130)는, 차량 관련 데이터를 수신하거나, 프로세서(170)에서 처리 또는 생성된 신호를 외부로 전송할 수 있다. 이를 위해, 인터페이스부(130)는, 유선 통신 또는 무선 통신 방식에 의해, 차량 내부의 ECU(770), , 센서부(760), 입력장치(300) 등과 데이터 통신을 수행할 수 있다.
한편, 인터페이스부(130)는, ECU(770) 또는 센서부(760)로부터, 센서 정보를 수신할 수 있다.
여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
한편, 센서 정보 중, 차량 주행과 관련한, 차량 방향 정보, 차량 위치 정보, 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보 등을 차량 주행 정보라 명명할 수 있다.
메모리(140)는, 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 차량용 디스플레이 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
한편, 메모리(140)는, 차량 주행과 관련한, 맵(map) 정보를 저장할 수도 있다.
프로세서(170)는, 차량용 디스플레이 장치(100) 내의 각 유닛의 전반적인 동작을 제어한다.
프로세서(170)는, 차량 주행 중, 디스플레이(180)의 영역 중 운전석(Std)에 대응하는 제1 영역에, 전방 카메라(195d)로부터의 차량 전방 이미지(810)를 표시하도록 제어하고, 차량 전방 이미지(810) 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어한다.
한편, 프로세서(170)는, 복수의 카메라(195a,...,195d)로부터 복수의 이미지를 획득하고, 복수의 이미지를 조합하여, 어라운드 뷰 이미지를 생성할 수 있다.
한편, 프로세서(170)는, 컴퓨터 비젼(computer vision) 기반의 신호 처리를 수행하는 것도 가능하다. 예를 들어, 복수의 이미지 또는 생성된 어라운드 뷰 이미지에 기초하여, 차량 주변에 대한 디스패러티 연산을 수행하고, 연산된 디스패러티 정보에 기초하여, 이미지 내에서, 오브젝트 검출을 수행하며, 오브젝트 검출 이후, 계속적으로, 오브젝트의 움직임을 트래킹할 수 있다.
특히, 프로세서(170)는, 오브젝트 검출시, 차선 검출(Lane Detection), 주변 차량 검출(vehicle Detection), 보행자 검출(Pedestrian Detection), 도로면 검출 등을 수행할 수 있다.
그리고, 프로세서(170)는, 검출된 주변 차량 또는 보행자에 대한 거리 연산 등을 수행할 수 있다.
한편, 프로세서(170)는, 인터페이스부(130)를 통해, ECU(770) 또는 센서부(760)로부터, 센서 정보를 수신할 수 있다. 여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
디스플레이(180)는, 프로세서(170)에서 생성된 어라운드 뷰 이미지를 표시할 수 있다. 한편, 어라운드 뷰 이미지 표시시, 다양한 사용자 유저 인터페이스를 제공하는 것도 가능하며, 제공되는 유저 인터페이스에 대한 터치 입력이 가능한 터치 센서를 구비하는 것도 가능하다.
한편, 디스플레이(180)는, 차량 내부 전면의 클러스터(cluster) 또는 HUD(Head Up Display)를 포함할 수 있다. 한편, 디스플레이(180)가 HUD 인 경우, 차량(200)의 전면 유리에 이미지를 투사하는 투사 모듈을 포함할 수 있다.
전원 공급부(190)는, 프로세서(170)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
복수의 카메라(195a,...,195d, 195e) 중 복수의 카메라(195a,...,195d)는, 도 2b의 카메라일 수 있다.
한편, 복수의 카메라(195a,...,195d, 195e) 중 카메라(195e)는, 차량 내부를 촬영하기 위한 내부 카메라(105e)일 수 있다.
다음, 도 4b를 참조하면, 도 4b의 차량용 디스플레이 장치(100)는, 도 4a의 차량용 디스플레이 장치(100)와 유사하나, 입력부(110), 오디오 출력부(185), 및 오디오 입력부(186), 제스쳐 인식부(112)를 더 구비하는 것에 그 차이가 있다. 이하에서는 입력부(110), 오디오 출력부(185), 및 오디오 입력부(186), 제스쳐 인식부(112)에 대한 설명만을 기술한다.
입력부(110)는, 디스플레이(180) 주변에 부착되는 복수의 버튼 또는 디스플레이(180) 상에 배치되는 터치 스크린을 구비할 수 있다. 복수의 버튼 또는 터치 스크린을 통해, 차량용 디스플레이 장치(100)의 전원을 온 시켜, 동작시키는 것이 가능하다. 그 외, 다양한 입력 동작을 수행하는 것도 가능하다.
오디오 출력부(185)는, 프로세서(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 오디오 출력부(185)는, 입력부(110), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
오디오 입력부(186)는, 사용자 음성을 입력받을 수 있다. 이를 위해, 마이크를 구비할 수 있다. 수신되는 음성은, 전기 신호로 변환하여, 프로세서(170)로 전달될 수 있다.
제스쳐 인식부(112)는, 차량 내부 탑승자의 제스쳐를 인식할 수 있다.
예를 들어, 내부 카메라(195e)를 통해, 촬영된 차량 내부 이미지가, 제스쳐 인식부(112)로 전달되는 경우, 제스쳐 인식부(112)는 이미지 분석을 통해, 운전자의 제스쳐를 인식할 수 있다.
다른 예로, 제스쳐 인식부(112)가, 근접 터치 감지부(미도시)를 구비하는 경우, 제스쳐 인식부(112)는, 근접 터치 인식을 통해, 운전자의 제스쳐를 인식할 수 있다.
또 다른 예로, 제스쳐 인식부(112)가, 디스플레이(180) 주변에 배치되는 광 송신부(미도시), 광 수신부(미도시)를 구비하는 경우, 광 수신부(미도시)에서 수신되는 광 신호에 기초하여, 운전자의 제스쳐를 인식할 수 있다.
한편, 도 4a 또는 도 4b의 차량용 디스플레이 장치(100)는, AVN(Audio Video Navigation) 장치일 수도 있다.
도 4a 내지 도 4b는 도 4의 프로세서의 내부 블록도의 다양한 예를 예시하고, 도 5는 도 4a 내지 도 4b의 프로세서에서의 오브젝트 검출을 예시하는 도면이다.
먼저, 도 4a를 참조하면, 도 4a는, 프로세서(170)의 내부 블록도의 일예로서, 차량용 디스플레이 장치(100) 내의 프로세서(170)는, 영상 전처리부(410), 디스패러티 연산부(420), 오브젝트 검출부(434), 오브젝트 트래킹부(440), 및 어플리케이션부(450)를 구비할 수 있다.
영상 전처리부(image preprocessor)(410)는, 복수의 카메라(195a,...,195d)로부터의 복수의 이미지 또는 생성된 어라운드 뷰 이미지를 수신하여, 전처리(preprocessing)를 수행할 수 있다.
구체적으로, 영상 전처리부(410)는, 복수의 이미지 또는 생성된 어라운드 뷰 이미지에 대한, 노이즈 리덕션(noise reduction), 렉티피케이션(rectification), 캘리브레이션(calibration), 색상 강화(color enhancement), 색상 공간 변환(color space conversion;CSC), 인터폴레이션(interpolation), 카메라 게인 컨트롤(camera gain control) 등을 수행할 수 있다. 이에 따라, 복수의 카메라(195a,...,195d)에서 촬영된 복수의 이미지 또는 생성된 어라운드 뷰 이미지보다 선명한 이미지를 획득할 수 있다.
디스패러티 연산부(disparity calculator)(420)는, 영상 전처리부(410)에서 신호 처리된, 복수의 이미지 또는 생성된 어라운드 뷰 이미지를 수신하고, 소정 시간 동안 순차적으로 수신된 복수의 이미지 또는 생성된 어라운드 뷰 이미지에 대한 스테레오 매칭(stereo matching)을 수행하며, 스테레오 매칭에 따른, 디스패러티 맵(dispartiy map)을 획득한다. 즉, 차량 주변에 대한, 디스패러티 정보를 획득할 수 있다.
이때, 스테레오 매칭은, 이미지들의 픽셀 단위로 또는 소정 블록 단위로 수행될 수 있다. 한편, 디스패러티 맵은, 이미지, 즉 좌,우 이미지의 시차(時差) 정보(binocular parallax information)를 수치로 나타낸 맵을 의미할 수 있다.
세그멘테이션부(segmentation unit)(432)는, 디스패러티 연산부(420)로부터의 디스페러티 정보에 기초하여, 이미지 내의 세그먼트(segment) 및 클러스터링(clustering)을 수행할 수 있다.
구체적으로, 세그멘테이션부(432)는, 디스페러티 정보에 기초하여, 이미지 중 적어도 하나에 대해, 배경(background)과 전경(foreground)을 분리할 수 있다.
예를 들어, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이하인 영역을, 배경으로 연산하고, 해당 부분을 제외시킬 수 있다. 이에 의해, 상대적으로 전경이 분리될 수 있다.
다른 예로, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이상인 영역을, 전경으로 연산하고, 해당 부분을 추출할 수 있다. 이에 의해, 전경이 분리될 수 있다.
이와 같이, 이미지에 기반하여 추출된 디스페러티 정보 정보에 기초하여, 전경과 배경을 분리함으로써, 이후의, 오브젝트 검출시, 신호 처리 속도, 신호 처리 양 등을 단축할 수 있게 된다.
다음, 오브젝트 검출부(object detector)(434)는, 세그멘테이션부(432)로부터의 이미지 세그먼트에 기초하여, 오브젝트를 검출할 수 있다.
즉, 오브젝트 검출부(434)는, 디스페러티 정보 정보에 기초하여, 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다.
구체적으로, 오브젝트 검출부(434)는, 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다. 예를 들어, 이미지 세그먼트에 의해 분리된 전경으로부터 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(436)는, 분리된 오브젝트를 분류하고(classify), 확인한다(verify).
이를 위해, 오브젝트 확인부(436)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
한편, 오브젝트 확인부(436)는, 메모리(140)에 저장된 오브젝트들과, 검출된 오브젝트를 비교하여, 오브젝트를 확인할 수 있다.
예를 들어, 오브젝트 확인부(436)는, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 터널 등을 확인할 수 있다.
오브젝트 트래킹부(object tracking unit)(440)는, 확인된 오브젝트에 대한 트래킹을 수행한다. 예를 들어, 순차적으로, 획득되는 이미지들에 내의, 오브젝트를 확인하고, 확인된 오브젝트의 움직임 또는 움직임 벡터를 연산하며, 연산된 움직임 또는 움직임 벡터에 기초하여, 해당 오브젝트의 이동 등을 트래킹할 수 있다. 이에 따라, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 등을 트래킹할 수 있게 된다.
도 4b는 프로세서의 내부 블록도의 다른 예이다.
도면을 참조하면, 도 4b의 프로세서(170)는, 도 4a의 프로세서(170)와 내부 구성 유닛이 동일하나, 신호 처리 순서가 다른 것에 그 차이가 있다. 이하에서는 그 차이만을 기술한다.
오브젝트 검출부(434)는, 복수의 이미지 또는 생성된 어라운드 뷰 이미지를 수신하고, 복수의 이미지 또는 생성된 어라운드 뷰 이미지 내의 오브젝트를 검출할 수 있다. 도 4a와 달리, 디스패러티 정보에 기초하여, 세그먼트된 이미지에 대해, 오브젝트를 검출하는 것이 아닌, 복수의 이미지 또는 생성된 어라운드 뷰 이미지로부터 바로 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(436)는, 세그멘테이션부(432)로부터의 이미지 세그먼트, 및 오브젝트 검출부(434)에서 검출된 오브젝트에 기초하여, 검출 및 분리된 오브젝트를 분류하고(classify), 확인한다(verify).
이를 위해, 오브젝트 확인부(436)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
도 5는, 제1 및 제2 프레임 구간에서 각각 획득된 이미지를 기반으로 하여, 도 5의 프로세서(170)의 동작 방법 설명을 위해 참조되는 도면이다.
도 5를 참조하면, 제1 및 제2 프레임 구간 동안, 복수의 카메라(195a,...,195d)는, 각각 이미지(FR1a,FR1b)를 순차적으로 획득한다.
프로세서(170) 내의 디스패러티 연산부(420)는, 영상 전처리부(410)에서 신호 처리된, 이미지(FR1a,FR1b)를 수신하고, 수신된 이미지(FR1a,FR1b)에 대한 스테레오 매칭을 수행하여, 디스패러티 맵(dispartiy map)(520)을 획득한다.
디스패러티 맵(dispartiy map)(520)은, 이미지(FR1a,FR1b) 사이의 시차를 레벨화한 것으로서, 디스패러티 레벨이 클수록, 차량과의 거리가 가깝고, 디스패러티 레벨이 작을수록, 차량과의 거리가 먼 것으로 연산할 수 있다.
한편, 이러한 디스패러티 맵을 디스플레이 하는 경우, 디스패러티 레벨이 클수록, 높은 휘도를 가지고, 디스패러티 레벨이 작을수록 낮은 휘도를 가지도록 표시할 수도 있다.
도면에서는, 디스패러티 맵(520) 내에, 제1 차선 내지 제4 차선(528a,528b,528c,528d) 등이 각각 해당하는 디스패러티 레벨을 가지며, 장애물(522), 제1 전방 차량(524), 제2 전방 차량(526)이 각각 해당하는 디스패러티 레벨을 가지는 것을 예시한다.
세그멘테이션부(432)와, 오브젝트 검출부(434), 오브젝트 확인부(436)는, 디스패러티 맵(520)에 기초하여, 이미지(FR1a,FR1b) 중 적어도 하나에 대한, 세그먼트, 오브젝트 검출, 및 오브젝트 확인을 수행한다.
도면에서는, 디스패러티 맵(520)을 사용하여, 제2 이미지(FR1b)에 대한, 오브젝트 검출, 및 확인이 수행되는 것을 예시한다.
즉, 이미지(530) 내에, 제1 차선 내지 제4 차선(538a,538b,538c,538d), 공사 지역(532), 제1 전방 차량(534), 제2 전방 차량(536)이, 오브젝트 검출 및 확인이수행될 수 있다.
한편, 계속적으로, 이미지를 획득함으로써, 한편, 오브젝트 트래킹부(440)는, 확인된 오브젝트에 대한 트래킹을 수행할 수 있다.
도 5은 도 1의 차량 내부의 블록도의 일예이다.
도면을 참조하면, 차량(200)은 차량 제어를 위한 전자 제어 장치(700)를 구비할 수 있다.
전자 제어 장치(700)는, 입력부(710), 통신부(720), 메모리(740), 램프 구동부(751), 조향 구동부(752), 브레이크 구동부(753), 동력원 구동부(754), 썬루프 구동부(755), 서스펜션 구동부(756), 공조 구동부(757), 윈도우 구동부(758), 에어백 구동부(759), 센서부(760), ECU(770), 디스플레이(780), 오디오 출력부(785), 오디오 입력부(786), 전원 공급부(790), 복수의 카메라(795)를 구비할 수 있다.
한편, ECU(770)는 도 4a 또는 도 4b에서 기술한 프로세서(170)를 포함하는 개념일 수 있다. 또는, ECU(770) 외에, 카메라로부터의 이미지를 신호 처리하기 위한 별도의 프로세서가 구비되는 것도 가능하다.
입력부(710)는, 차량(200) 내부에 배치되는 복수의 버튼 또는 터치 스크린을 구비할 수 있다. 복수의 버튼 또는 터치 스크린을 통해, 다양한 입력 동작을 수행하는 것이 가능하다.
통신부(720)는, 이동 단말기(600) 또는 서버(500)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(720)는, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.
통신부(720)는, 이동 단말기(600) 또는 서버(500)로부터, 차량 운전자의 스케쥴 시간, 또는 이동 위치와 관련한 스케줄 정보, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.
한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(600)와 전자 제어 장치(700)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
메모리(740)는, ECU(770)의 처리 또는 제어를 위한 프로그램 등, 전자 제어 장치(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
한편, 메모리(740)는, 차량 주행과 관련한, 맵(map) 정보를 저장할 수도 있다.
램프 구동부(751)는, 차량 내,외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들어, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
조향 구동부(752)는, 차량(200) 내의 조향 장치(steering apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(753)는, 차량(200) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(200)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(200)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
동력원 구동부(754)는, 차량(200) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들어, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(754)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(754)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
썬루프 구동부(755)는, 차량(200) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(756)는, 차량(200) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(200)의 진동이 저감되도록 제어할 수 있다.
공조 구동부(757)는, 차량(200) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(758)는, 차량(200) 내의 서스펜션 장치(window apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(759)는, 차량(200) 내의 서스펜션 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 위험시, 에어백이 터지도록 제어할 수 있다.
센서부(760)는, 차량(200)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센서부(760)는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등을 구비할 수 있다.
이에 의해, 센서부(760)는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 등에 대한 센싱 신호를 획득할 수 있다.
한편, 센서부(760)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 구비할 수 있다.
ECU(770)는, 전자 제어 장치(700) 내의 각 유닛의 전반적인 동작을 제어할 수 있다.
입력부(710)에 의한 입력에 의해, 특정 동작을 수행하거나, 센서부(760)에서 센싱된 신호를 수신하여, 차량용 디스플레이 장치(100)로 전송할 수 있으며, 메모리(740)로부터 맵 정보를 수신할 수 있으며, 각 종 구동부(751,752, 753,754,756)의 동작을 제어할 수 있다.
또한, ECU(770)는, 통신부(720)로부터 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.
ECU(770)는, 차량 주행 중, 전방 카메라(195d)로부터의 차량 전방 이미지(810) 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩시킬 수 있다.
한편, 디스플레이(780)는, 차량 주행 중, 디스플레이(180)의 영역 중 운전석(Std)에 대응하는 제1 영역에, 전방 카메라(195d)로부터의 차량 전방 이미지를 표시하고, 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시한다.
이러한 차량 전방 이미지 등의 표시를 위해, 디스플레이(780)는, 차량 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이를 구비할 수 있다.
한편, ECU(770)는, 복수의 카메라(795)로부터 수신한 복수의 이미지를 조합하여, 어라운드 뷰 이미지를 생성할 수 있다. 특히, 차량이 소정 속도 이하이거나, 차량이 후진하는 경우, 어라운드 뷰 이미지를 생성할 수 있다.
디스플레이(780)는, 생성되는 어라운드 뷰 이미지를 표시할 수 있다. 특히, 어라운드 뷰 이미지 외에 다양한 유저 인터페이스를 제공하는 것도 가능하다.
오디오 출력부(785)는, ECU(770)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 오디오 출력부(785)는, 입력부(710), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
오디오 입력부(786)는, 사용자 음성을 입력받을 수 있다. 이를 위해, 마이크를 구비할 수 있다. 수신되는 음성은, 전기 신호로 변환하여, ECU(770)로 전달될 수 있다.
전원 공급부(790)는, ECU(770)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(790)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
복수의 카메라(795)는, 도 2b와 같이, 4 개의 카메라(195a,195b,195c,195d), 및 차량 내부 카메라(195e)를 구비할 수 있다. 복수의 카메라(795)에서 촬영된 복수의 이미지는, ECU(770) 또는 별도의 프로세서(미도시)로 전달될 수 있다.
도 6a 내지 도 15c는 본 발명의 일실시예에 따른 차량용 디스플레이 장치의 다양한 동작 방법의 설명에 참조되는 도면이다.
도 6a는, 차량 내부의 대쉬 보드(220) 상에 차량용 디스플레이 장치(100)의 디스플레이(180)가 배치되는 것을 예시한다.
디스플레이(180)는, 운전석(Std)과 조수석(Stp)에 대응하는 영역에 배치될 수 있다. 예를 들어, 대략, 가로 길이가, 1.2m일 수 있다.
디스플레이(180)는, 액정 표시 패널(LCD 패널), 유기 발광 패널(OLED 패널) 등 다양한 디스플레이 패널을 구비할 수 있다.
한편, 디스플레이(180)에는, 차량 주행과 관련된 다양한 정보, 및 컨텐츠 등이 표시될 수 있다.
특히, 디스플레이(180)는, 차량 주행시, 디스플레이(180)의 영역 중 운전석(Std)에 대응하는 제1 영역에, 전방 카메라로부터의 차량 전방 이미지를 표시하고, 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시할 수 있다. 이에 따라, 차량 전방 이미지 표시 및 주행 관련 정보의 표시가 가능하게되어, 이용 편의성이 증대될 수 있게 된다.
특히, 운전석(Std)과 조수석(Stp)에 대응하는 영역에 배치되는 디스플레이(180)를 통해, 차량 전방 이미지를 표시함으로써, 윈드 쉴드(WS) 상에 육안으로 확인 가능한 전면 상황과, 심리스(seamless)한 표시가 가능하게 된다.
한편, 디스플레이(180)는, 차량 전방 이미지 외에, 차량 상태 정보 또는 컨텐츠 영상 중 적어도 하나를 더 표시함으로써, 다양한 정보를 제공할 수 있게 된다.
한편, 디스플레이(180)는, 차량 내부의 대쉬 보드(220) 면과 수직하게 배치될 수 있으나, 다양한 변형이 가능하다.
예를 들어, 운전석(Std)에 착석하는 운전자를 위해, 디스플레이(180)는, 운전자 방향으로 기울어지게 배치될 수 있다.
한편, 프로세서(170)는, 운전석(Std)에 착석하는 운전자의 눈 높이, 즉 시선에 기초하여, 디스플레이(180)의 각도를 조정하도록 제어하는 것도 가능하다. 이를 위해, 디스플레이(180)의 각도를 조정하는 각도 조정부(미도시)가 더 구비될 수 있다. 각도 조정부(미도시)는 액츄에이터로 구현될 수 있다.
한편, 디스플레이(180)는, 적어도 하나의 곡률을 가지는 곡면 디스플레이일 수도 있다. 특히, 운전석(Std)에 대응하는 제1 영역에서의 곡률이 가장 작을 수 있다. 즉, 디스플레이의 양측면이 가장 많이 휘어지고, 디스플레이의 중앙 영역이 가장 덜 휘어질 수도 있다.
한편, 디스플레이(180)의 곡률 형상은, 차량의 대시 보드(222)의 형상에 대응하여 가변될 수도 있다.
한편, 도 6a와 달리, 디스플레이(180)는, 대시 보드(222)가 아닌, 윈드 쉴드(WS)의 하단에 배치될 수도 있다. 특히, 투명 디스플레이로서, 윈드 쉴드(WS)의 하단에 배치될 수도 있다.
윈드 쉴드(WS)의 하단에 투명 디스플레이로서 배치되는 경우에도, 전방 카메라(195d)로부터의 차량 전방 이미지를 표시하고, 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시할 수 있다.
특히, 투명 디스플레이로 구현되는 경우, 증강 현실(Argumented reality) 기능이 더욱 향상될 수 있게 된다.
이하에서는, 설명 편의상, 디스플레이 장치(100)의 디스플레이(180)가, 대시 보드(222) 상에 배치되는 것을 전제로 기술한다.
도 6b는, 차량의 측면도로서, 디스플레이(180), 전방 카메라(195d), 내부 카메라(195e)를 포함하는 디스플레이 장치를 예시한다.
도면을 참조하면, 전방 카메라(195d)는, 차량의 전방의 일측에 부착되어, 차량 전방 상황에 대한 이미지를 캡쳐할 수 있다.
한편, 프로세서(170)는, 차량 전방 상황에 대한 이미지를 전방 카메라(195d)로부터 수신하고, 신호 처리를 수행하여, 대쉬 보드 상에 배치되며, 운전석(Std)과 조수석(Stp)에 대응하는 영역에 배치되는 디스플레이(180)의 제1 영역에 표시되도록 제어할 수 있다.
프로세서(170)는, 내부 카메라(195e)로부터의 운전자 이미지에 기초하여, 운전자(Pd)의 자세 정보를 연산하며, 자세 정보에 기초하여, 전방 카메라(195d)로부터의 차량 전방 이미지 중 적어도 일부 영역에 대한 스케일링을 수행할 수 있다.
구체적으로, 프로세서(170)는, 내부 카메라(195e)로부터의 운전자 이미지에 기초하여, 운전자(Pd)의 눈의 위치, 디스플레이(180)와의 거리 등을 연산하고, 연산된 운전자(Pd)의 눈의 위치, 디스플레이(180)와의 거리에 기초하여, 스케일링을 가변할 수 있다.
한편, 윈드 쉴드(WS) 상에 육안으로 확인 가능한 전면 상황과의 심리스한 이미지 표시를 위해, 프로세서(170)는, 전방 카메라(195d)로부터의 차량 전방 상황에 대한 이미지 중 상부 영역의 스케일링 비율이 하부 영역의 스케일링 비율 보다 더 작도록 제어할 수 있다.
즉, 전방 카메라(195d)로부터의 차량 전방 상황에 대한 이미지 중 상부 영역이 더 작아지도록 스케일링할 수 있다. 예를 들어, 상부 영역의 길이가 더 작은 사다리콜 형상의 이미지가 되도록 신호 처리할 수 있다.
예를 들어, 프로세서(170)는, 운전자(Pd)와 디스플레이(180) 사이의 거리가 멀수록, 차량 전방 이미지 중 상부 영역의 스케일링 비율이, 하부 영역의 스케일링 비율 보다 더 작아지도록 제어할 수 있다.
프로세서(170)는, 스케일링된 차량 전방 상황에 대한 이미지를, 디스플레이(180)의 제1 영역에 표시되도록 제어할 수 있다.
한편, 프로세서(170)는, 차량 전방 상황에 대한 이미지 내에 도로 상의 장애물(홀, 방지턱, 이물질 등)(522)이 위치하는 경우, 이에 대한 오브젝트 확인 기법 등을 통해, 오브젝트를 확인하고, 이에 대한 정보를, 디스플레이(180)에 표시되는 차량 전방 상황에 대한 이미지 내에 중첩되어 표시되도록 제어할 수 있다.
도 6c는, 도 6b의 전방 카메라(195d)로부터의 차량 전방과 관련된 차량 전방 이미지가 디스플레이(180)에 표시되는 것을 예시한다.
도면에서는, 디스플레이(180)의 영역 중 운전석(Std)에 대응하는 제1 영역(Ar1)에, 차량 전방 이미지(810)가 표시되는 것을 예시한다.
차량 전방 이미지(810)는, 도로 영역, 차선 영역을 포함할 수 있다.
한편, 프로세서(170)는, 운전석(Std)과 조수석(Stp)에 대응하는 영역에 배치되는 디스플레이(180)에, 차량 전방 이미지(810) 외에, 차량 관련 정보 등과 같은 부가 정보, 컨텐츠 정보 등 중 적어도 하나가 표시되도록 제어할 수 있다.
차량 관련 정보는, 현재 시간 정보, 날씨 정보, 차량 실내 온도 정보, 송풍 바람 세기 정보, 습도 정보, 차량 외부 실내 정보, 차량 주행 거리 정보, 차량 현재 속도 정보, 차량 rpm 정보, 차량 연료량 정보, 차량 윈도우 개폐 정보, 차량 도어 걔페 정보, 차량 실내등 점멸 정보, 차량 썬루프 개폐 정보 등을 포함할 수 있다.
한편, 컨텐츠 정보는, 차량에서 수신되어 출력되는 라디오 채널 정보, 차량 오디오 볼륨 크기 정보, 컨텐츠 재생 시의 재생 시간, 타이틀 정보 등을 포함할 수 있다.
또한, 컨텐츠 정보는, 외부 입력 소스 정보, 외부 입력 단자 정보 등을 더 포함하는 개념일 수도 있다.
도면에서는, 디스플레이(180)의 영역 중 운전석(Std)에 대응하는 제2 역(Ar2)에, 부가 정보로서, 현재 시간 정보(830), 날씨 정보(835)가 표시되는 것을 예시한다.
프로세서(170)는, 가로로 긴 디스플레이(180)에, 다양한 정보, 이미지 등을 표시하도록 제어할 수 있으며, 도 6c와 같이, 차량 전방 이미지(810), 부가 정보 등을 함께 표시하도록 제어할 수 있다.
한편, 프로세서(170)는, 차량 전방 이미지(810) 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어할 수 있다.
도 6c에서는, 차량 주행 중의, 차선과 도로를 포함하는 차량 전방 이미지(810) 상에, 각 차선에 대한 주행 방향 가이드를 나타내는, 주행 가이드 인디케이터(812,814,816)이 중첩되어 표시되는 것을 예시한다. 이에 따라, 운전자는, 별도로 시선을 돌리지 않고, 전방만을 주시하는 것만으로도, 각 차선에 대한 주행 방향을 직관적으로 인식할 수 있게 된다. 따라서, 차량 주행 중의, 안정성 확보는 물론, 이용 편의성이 증대될 수 있다.
한편, 도 6c에서 표시되는 차량 전방 이미지(810)는, 운전자가 육안으로 확인 불가능한 영역을 포함할 수 있다.
예를 들어, 프로세서(170)는, 프로세서(170)는, 내부 카메라(195e)를 통해, 운전자의 눈 높이를 인식하고, 사용자 눈 높이를 고려하여, 차량 전방 이미지(810) 내에 운전자가 육안으로 확인 불가능한 영역을 포함되도록 제어할 수 있다.
한편, 프로세서(170)는, 차량 이미지(810) 내의 확인 불가능한 영역 내에, 장애물(도 6b의 522)이 있는 경우, 도 6c와 같이, 장애물 정보(813)를 표시하도록 제어할 수 있다.
한편, 프로세서(170)는, 내부 카메라(195e)를 통해, 운전자의 눈 높이를 인식하고, 사용자 눈 높이를 고려하여, 전방 카메라(195d)의 촬영 각도를 조절하거나, 전방 카메라(195d)의 촬영 영역 중 일부 영역만 추출하여, 차량 전방 이미지(810)로 표시되도록 제어할 수 있다. 이에 대해서는, 도 6d를 참조하여 기술한다.
도 6d는 차량 운전자의 눈 위치에 따라, 전방 카메라(195d)에서 촬영된 차량 전방 이미지에서 활용되는 영역을 가변하는 것을 예시한다.
도 6d의 (a)는, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 거리가, d1인 것을 예시한다. 한편, 프로세서(170)는, 전방 카메라(195d)로부터 수신되는 이미지(800a) 중 도면과 같은 영역(810a)을 추출하여, 디스플레이(180)에 표시되도록 제어할 수 있다.
도 6d의 (b)는, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 거리가, d1 보다 짧은 d2인 것을 예시한다. 한편, 프로세서(170)는, 전방 카메라(195d)로부터 수신되는 이미지(800a) 중 도면과 같은 영역(810b)을 추출하여, 디스플레이(180)에 표시되도록 제어할 수 있다. 도 6d의 (a)에 비해, 추출된 영역(810b)은, 하단으로 이동될 수 있다.
도 6d의 (c)는, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 거리가, d1이며, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 높이차가, h1인 것을 예시한다. 한편, 프로세서(170)는, 전방 카메라(195d)로부터 수신되는 이미지(800a) 중 도면과 같은 영역(810c)을 추출하여, 디스플레이(180)에 표시되도록 제어할 수 있다. 도 6d의 (a)에 비해, 추출된 영역(810c)은, 하단으로 이동되며, 폭은 더 넓을 수 있다.
이와 같이, 사용자 눈 높이를 고려하여, 전방 카메라(195d)의 촬영 영역 중 일부 영역만 추출함으로써, 전방 환경에 대해, 심리스한 인식이 가능하게 된다.
한편, 도 6d와 달리, 사용자 눈 높이를 고려하여, 전방 카메라(195d)의 촬영 각도를 조절하는 것도 가능하다.
예를 들어, 프로세서(170)는, 도 6d의 (a) 경우 보다 도 6d의 (b)의 경우, 전방 카메라(195d)의 촬영 각도가, 더 낮아지도록, 즉, 더 지면을 향하도록 제어할 수 있다.
도 7a는 디스플레이(180)에 표시되는 유저 인터페이스의 일예를 예시한다.
프로세서(170)는, 도 7a와 같이, 디스플레이(180) 영역 중 운전석(Std)에 대응하는 제1 영역(Ar1)에, 운전석(Std)에 대응하는 차량 전방 이미지(810)를 표시하도록 제어하고, 특히, 차량 전방 이미지(810) 상에, 차량 주행 방향 가이드 정보ㄹ로로서, 차량 진행 방향 인디케이터(812,814,816)를 중첩하여 표시하도록 제어할 수 있다.
이때, 차량 진행 방향 인디케이터(812,814,816)는, 도면과 달리, 차량이 주행 중인, 차선에 대해서만 표시하는 것도 가능하다.
한편, 프로세서(170)는, 도 7a와 같이, 디스플레이(180) 영역 중 조수석(Stp)에 대응하는 제2 영역(Ar1)에, 부가 정보(830,835)가 표시되도록 제어할 수 있다.
도면에서는 부가 정보(830,835)로, 현재 시간 정보(835), 날씨 정보, 구체적으로 현재 온도 정보(835)를 예시한다.
도 7b는 디스플레이(180)에 표시되는 유저 인터페이스의 다른 예를 예시한다.
프로세서(170)는, 도 7b와 같이, 디스플레이(180) 영역 중 운전석(Std)에 대응하는 제1 영역(Ar1)에, 운전석(Std)에 대응하는 차량 전방 이미지(810)를 표시하도록 제어하고, 특히, 차량 전방 이미지(810) 상에, 차량 주행 방향 가이드 정보ㄹ로로서, 차량 진행 방향 인디케이터(822,824,826)를 중첩하여 표시하도록 제어할 수 있다.
특히, 프로세서(170)는, 현재 주행 중인 차선에서의 차량 진행 방향 인디케이터(824)를, 다른 차량 진행 방향 인디케이터와 구별되도록, 하이라이트 표시하도록 제어할 수 있다. 도면에서는, 좌측으로의 진입을 나타내는 차량 진행 방향 인디케이터(824)를, 예시한다.
한편, 프로세서(170)는, 도 7b와 같이, 차량 전방 이미지(810) 상에 차량 주행 정보가 더 표시되도록 제어할 수 있다.
차량 주행 정보는, 차량 속도 정보, 차량 주행 거리 정보, 목적지까지의 거리 정보, 또는 목적지까지의 시간 정보, 출발지로부터의 주행 시간 정보, 출발지로부터의 주행 거리 정보, 현재 주행 중인 도로의 속도 제한 정보 등을 포함할 수 있다.
도면에서는, 현재 주행 중인 도로의 속도 제한 인디케이터(827)가 차량 전방 이미지(810) 상에, 표시되는 것을 예시한다. 이러한 속도 제한 인디케이터(827) 표시에 의해, 운전자가 전방을 주시하면서, 속도 제한 정보를 직관적으로 인식할 수 있게 된다.
도 7c는 디스플레이(180)에 표시되는 유저 인터페이스의 또 다른 예를 예시한다.
도면에서는, 현재 주행 중인 차선에서, 우측 방향으로의 이동을 나타내는 가이드 정보(842)가, 차량 전방 이미지(810) 상에, 중첩되어 표시되는 것을 예시한다.
도 8a 내지 도 8d는, 디스플레이(180)에 표시되는 유저 인터페이스의 다양한 예를 예시한다.
프로세서(170)는, 도 8a와 같이, 디스플레이(180)에, 주행 가이드 정보로서, 차량 진행 방향 인디케이터(812,814,816), 주행 거리 인디케이터(817, 819), 차량 주행 정보(850), 현재 시간 정보(830), 날씨 정보(835)가 표시되도록 제어할 수 있다.
또는, 프로세서(170)는, 도 8b와 같이, 디스플레이(180)에, 주행 가이드 정보로서, 차량 진행 방향 인디케이터(812,814,816), 주행 거리 인디케이터(817, 819), 차선 변경 주의 정보(861), 측면 이미지(870), 현재 시간 정보(830), 날씨 정보(835)가 표시되도록 제어할 수 있다.
이에 의하면, 측면 이미지(870)를 통해, 사이드 미러를 통해 확인 불가능한 영역까지, 운전자가 인식할 수 있게 된다.
또는, 프로세서(170)는, 도 8c와 같이, 디스플레이(180)에, 주행 가이드 정보로서, 차량 진행 방향 인디케이터(812,814,816), 주행 거리 인디케이터(817, 819), 차선 변경 가능 정보(862), 후방 이미지(872), 현재 시간 정보(830), 날씨 정보(835)가 표시되도록 제어할 수 있다.
또는, 프로세서(170)는, 도 8d와 같이, 디스플레이(180)에, 주행 가이드 정보로서, 차량 진행 방향 인디케이터(812,814,816), 주행 거리 인디케이터(817, 819), 네비게이션 맵 이미지(880), 현재 시간 정보(830), 날씨 정보(835)가 표시되도록 제어할 수 있다.
또는, 프로세서(170)는, 도 8e와 같이, 디스플레이(180)에, 주행 가이드 정보로서, 차량 진행 방향 인디케이터(812,814,816), 주행 거리 인디케이터(817, 819), 네비게이션 맵 이미지(880), 재생 컨텐츠 영상(890)이 표시되도록 제어할 수 있다.
도 9a 내지 도 9c는, 디스플레이(180)에 표시되는 각종 정보 또는 이미지에 대한 이동 방법의 일예를 예시한다.
먼저, 도 9a는, 디스플레이(180)에, 차량 전방 이미지(810), 차량 주행 정보, 부가 정보 등이 표시되는 것을 예시한다.
프로세서(170)는, 디스플레이(180)에, 차량 전방 이미지(810), 차량 주행 정보, 부가 정보 등이 표시된 상태에서, 도 9b와 같이, 운전자의 오른손(Pdh)에 의한 제스쳐가 있는 경우, 이를 인식할 수 있다.
예를 들어, 내부 카메라(195e)를 통해, 촬영된 차량 내부 이미지가, 제스쳐 인식부(112)로 전달되며, 제스쳐 인식부(112)에서 운전자의 오른손 제스쳐를 인식할 수 있다. 예를 들어, 차량 전방 이미지(810)를 우측으로 이동하는 제스쳐로 인식할 수 있다.
다른 예로, 디스플레이 장치(100)가, 디스플레이(180) 상에, 배치되는 근접 터치 감지부(미도시)를 구비하는 경우, 근접 터치 감지부(미도시)에서, 운전자의 오른손 제스쳐를 인식할 수 있다.
이때, 제스쳐 인식부(112)는, 근접 터치 감지부(미도시)를 구비할 수 있다.
또 다른 예로, 디스플레이 장치(100)가, 디스플레이(180) 주변에 배치되는 광 송신부(미도시), 광 수신부(미도시)를 구비하는 경우, 광 수신부(미도시)에서 수신되는 광 신호에 기초하여, 운전자의 오른손 제스쳐를 인식할 수 있다.
이때, 제스쳐 인식부(112)는, 광 송신부(미도시), 광 수신부(미도시)를 구비를 구비할 수 있다.
프로세서(170)는, 디스플레이(180)에, 차량 전방 이미지(810), 차량 주행 정보, 부가 정보 등이 표시된 상태에서, 운전자의 오른손(Pdh)에 의한 제스쳐를 인식하는 경우, 도 9b, 및 도 9c와 같이, 차량 전방 이미지(810)가 우측으로 이동되어 표시되도록 제어할 수 있다.
보다 구체적으로, 프로세서(170)는, 도 9b와 같이, 운전자의 오른손(Pdh)에 의한 제스쳐를 인식시, 차량 전방 이미지(810)가 플로팅(floating) 되도록 제어하고, 운전자의 오른손(Pdh)에 의한 제스쳐 인식 이후, 도 9c와 같이, 차량 전방 이미지(810)가 우측으로 이동되어 표시되도록 제어할 수 있다.
도 9c는, 운전석(Std)에 대응하는 디스플레이 영역에, 차량 주행 정보(850)가 표시되는 것을 예시한다.
한편, 이동 입력은, 제스쳐 입력, 버튼 입력 외에, 음성 인식 기반의 음성 입력 등도 가능하다.
이와 같이, 프로세서(170)는, 차량 전방 이미지(810), 차량 관련 정보, 및 컨텐츠 영상이 디스플레이(180)에 표시된 상태에서, 차량 전방 이미지(810), 차량 관련 정보, 및 컨텐츠 영상 중 적어도 하나에 대한, 이동 입력이 있는 경우, 디스플레이(180) 내에, 표시되는 배열 순서를 가변하거나, 표시되는 배열 순서와 크기를 가변하도록 제어할 수 있다.
도 10a 내지 도 10e는, 디스플레이(180)에 표시되는 각종 정보 또는 이미지에 대한 이동 방법의 다른 예를 예시한다.
도 10a는, 도 9a와 동일하게, 디스플레이(180)에, 차량 전방 이미지(810), 차량 주행 정보, 부가 정보 등이 표시되는 것을 예시한다.
한편, 차량용 디스플레이 장치(100)는, 스티어링 휠(150) 내에 배치되는 입력장치(300)로부터의 입력 신호를, 인터페이스부(130)를 통해 수신할 수 있다.
도 10b와 같이, 입력장치(300)내의 우측 버튼(801R)이 눌려지는 경우, 차량용 디스플레이 장치(100)는, 우측 이동 신호를, 입력장치(300)로부터 수신할 수 있다.
이에 따라, 프로세서(170)는, 도 10c와 같이, 차량 전방 이미지(810)가 우측으로 이동되어 표시되도록 제어할 수 있다.
한편, 프로세서(170)는, 조수석(Stp)에 탑승자(Pp)가 있는 경우, 디스플레이(180) 영역 중 조수석(Stp)에 대응하는 제2 영역(Ar2)에 소정 영상이 표시되도록 제어할 수 있다.
예를 들어, 프로세서(170)는, 탑승자(Pp)의 이동 단말기로부터 전송되는 컨텐츠 영상이, 조수석(Stp)에 대응하는 제2 영역(Ar2)에, 표시되도록 제어할 수 있다.
다른 예로, 프로세서(170)는, 차량에 수신되는 방송 신호를 신호 처리하여, 방송 영상이, 조수석(Stp)에 대응하는 제2 영역(Ar2)에, 표시되도록 제어할 수 있다.
또는, 프로세서(170)는, 차량 주행 중, 도로 주변의 상점으로부터, 광고 정보를 수신하는 경우, 광고 정보를, 조수석(Stp)에 대응하는 제2 영역(Ar2)에, 표시되도록 제어할 수 있다.
특히, 프로세서(170)는, 탑승자(Pp)가 관심있어하는 광고 정보만이, 조수석(Stp)에 대응하는 제2 영역(Ar2)에, 표시되도록 제어할 수 있다.
한편, 프로세서(170)는, 도 10d와 같이, 조수석(Stp)에 대응하는 제2 영역(Ar2)에, 소정 컨텐츠 영상(890)이 표시되도록 제어할 수 있다.
이때, 소정 컨텐츠 영상(890)에 대한 외부 전송 입력이 있는 경우, 프로세서(170)는, 내부 인터페이스부(130) 또는 통신부(120)를 통해, 인접하는 단말기, 또는 별도의 디스플레이 장치에 전송되도록 제어할 수 있다.
예를 들어, 프로세서(170)는, 차량 전방 이미지(810), 차량 관련 정보, 및 컨텐츠 영상이 디스플레이(180)에 표시된 상태에서, 차량 전방 이미지(810), 차량 관련 정보, 및 컨텐츠 영상 중 적어도 하나에 대한, 다른 디스플레이(180) 장치로의 이동 표시 입력이 있는 경우, 다른 디스플레이(180) 장치로, 차량 전방 이미지(810), 차량 관련 정보, 및 컨텐츠 영상 중 적어도 하나에 대한 데이터를 전송하도록 제어할 수 있다.
도 10e는, 조수석(Stp)에 뒤에 배치되는 별도의 디스플레이 장치(100bs)에 컨텐츠 데이터가 전송되어, 별도의 디스플레이 장치(100bs)에 컨텐츠 영상(100bs)이 표시되는 것을 예시한다. 이에 따라, 조수석(Stp) 탑승자(Pp)는 물론, 조수석(Stp)에 뒤의 탑승자도 동일한 컨텐츠를 감상할 수 있게 된다.
이때, 차량(100) 내의 오디오 출력부(185 또는 785)는, 컨텐츠 영상(890,890bs)에 대응하는 사운드를 출력하는 것이 바람직하다.
한편, 도 11a는 차량이 후진 중인 것을 예시한다.
프로세서(170)는, 차량 후진 중인 경우, 후방 카메라(195b)에서 촬영된 이미지(872)를, 도 11b와 같이, 디스플레이(180) 영역 중 운전석(Std)에 대응하는 제1 영역에, 표시하도록 제어할 수 있다.
또는, 프로세서(170)는, 차량 후진 중이거나, 소정 속도 이하로 차량이 진행 중인 경우, 어라운드 뷰 모드로 진입하도록 제어하며, 어라운드 뷰 모드 진입에 따라, 전방 카메라(195d), 좌측 카메라(195a), 우측 카메라(195c), 후방 카메라(195b)로부터 획득된 복수의 이미지를, 이용하여 어라운드 뷰 이미지를 생성하고, 어라운드 뷰 이미지(210)를 디스플레이(180)에 표시하도록 제어할 수 있다.
특히, 도 11c와 같이, 어라운드 뷰 이미지(210)를, 디스플레이(180) 영역 중 운전석(Std)에 대응하는 제1 영역(Ar1)에, 표시하도록 제어할 수 있다.
도면에서는, 어라운드 뷰 이미지(210)가 좌측으로 90도 회전되어 표시되는 것을 예시하나, 이와 달리, 차의 진행 방향에 맞추어, 표시되는 것이 바람직하다.
한편, 프로세서(170)는, 전방 카메라(195d)로부터의 차량 전방 이미지(810)와, 좌측 카메라(195a), 우측 카메라(195c), 후방 카메라(195b)로부터 획득된 복수의 이미지 중 적어도 하나를, 디스플레이(180)에, 표시하도록 제어할 수 있다.
예를 들어, 프로세서(170)는, 차량 후진 중이거나, 소정 속도 이하로 차량이 진행 중인 경우, 또는 차선 변경을 위해, 측면 진입 램프가 동작하는 경우, 도 11d와 같이, 차량 전방 이미지(810s), 후방 이미지(872), 좌측 이미지(874), 우측 이미지(870)이 함께 제1 영역(Ar1)에, 표시하도록 제어할 수도 있다.
한편, 프로세서(170)는, 각 이미지의 구별을 위해, 전, 후, 좌, 우를 나타내는 인디케이터가 더 표시되도록 제어할 수도 있다.
한편, 프로세서(170)는, 차량 전방 이미지(810), 차량 관련 정보, 및 컨텐츠 영상이 디스플레이(180)에 표시된 상태에서, 차량 전방 이미지(810), 차량 관련 정보, 및 컨텐츠 영상 중 적어도 하나에 대한, 이동 입력이 있는 경우, 디스플레이(180) 내에, 표시되는 배열 순서를 가변하거나, 표시되는 배열 순서와 크기를 가변하도록 제어할 수 있다.
한편, 프로세서(170)는, 차량 전방 이미지(810s), 후방 이미지(872), 좌측 이미지(874), 우측 이미지(870)이 표시된 상태에서, 확대 입력, 또는 이동 입력이 있는 경우, 특정 이미지에 대한 확대 또는 이동이 수행되도록 제어할 수 있다.
도 11e는, 후방 이미지(872)의 이동 입력에 따라, 디스플레이(180)의 가장 좌측 영역으로 이동 표시되는 것을 예시한다.
도 11f는, 후방 이미지(872)의 선택 입력에 따라, 디스플레이(180)의 제1 영역에, 확대된 후방 이미지(872b)가 표시되는 것을 예시한다.
한편, 프로세서(170)는, 차량 주행 중, 긴급 경고할 필요가 있는 상황에서, 긴급 경고 정보를 최우선 순위로하여, 디스플레이(180)에 표시되도록 제어할 수 있다.
도 11g는, 긴급 경고 상황 발생에 따라, 긴급 경고 메세지(1111)가, 디스플레이(180)의 제1 영역 중 가장 좌측으로 표시되고, 그 외의 다른 이미지들이 이동 표시되거나, 일부 삭제되어 표시되는 것을 예시한다.
도 12a는, 도 6c와 같이, 차량 주행 중의, 차선과 도로를 포함하는 차량 전방 이미지(810) 상에, 각 차선에 대한 주행 방향 가이드를 나타내는, 주행 가이드 인디케이터(812,814,816)이 중첩되어 표시되는 것을 예시한다. 이에 따라, 운전자는, 별도로 시선을 돌리지 않고, 전방만을 주시하는 것만으로도, 각 차선에 대한 주행 방향을 직관적으로 인식할 수 있게 된다. 따라서, 차량 주행 중의, 안정성 확보는 물론, 이용 편의성이 증대될 수 있다.
한편, 프로세서(170)는, 차량 주행 속도가 커질수록, 차량 전방 이미지(810)의 크기가 작아지도록 제어하거나, 주행 가이드 정보, 차량 주행 정보가 더 하이라이트되도록 제어할 수 있다.
도 12b는, 도 12a의 차량 속도인 V1 보다 더 빠른 V2로 주행 중인 경우를 예시한다. 이에 따라, 프로세서(170)는, 주행 가이드 정보인, 주행 가이드 인디케이터(812x,814x,816x)가 하이라이트되도록 제어하고, 도면과 같이 하이라이트된 주행 가이드 인디케이터(812x,814x,816x)가 표시되도록 제어할 수 있다.
하이라이트의 예로, 크기 가변, 색상 가변, 휘도 가변, 형상 가변 등이 예시될 수 있다.
도면에서는, 주행 가이드 인디케이터(812x,814x,816x)의 시인성 향상을 위해, 색상 가변이 된 것을 예시한다.
한편, 도 13a는, 조수석(Stp)에 대응하는 제2 영역(Ar2)에, 소정 컨텐츠 영상(890)이 표시는 것을 예시한다.
프로세서(170)는, 내부 카메라(195e)에서 캡쳐된 차량 내부 이미지를 통해, 조수석(Stp)에 탑승자가 없거나, 자고 있는 경우를 인식할 수 있다.
프로세서(170)는, 조수석(Stp)에 탑승자가 없거나, 자고 있는 경우, 디스플레이(180)의 영역 중 조수석(Stp)에 대응하는 제2 영역(Ar2) 중 적어도 일부를, 도 13b와 같이, 오프시키도록 제어할 수 있다.
도 13b에서는, 제2 영역(Ar2) 중 오프된 영역(1310)이 음영으로 표시되는 것이 예시된다. 이에 의해, 불필요한 소비전력 소비를 저감할 수 있게 된다.
한편, 디스플레이 장치(100)는, 통신부(120)를 통해, 외부 서버(500), 외부 단말기 등과 데이터를 교환할 수 있다.
예를 들어, 디스플레이 장치(100)는, 통신부(120)를 통해,차량 주행 중에, 주행하고 있는 도로 주변의, 상점의 서버 또는 송신 장치로부터, 광고 정보를 수신할 수 있다.
도 14a는 차량(200) 주행 중, 편의점(Pcvs)의 송신 장치(미도시)로부터 광고 정보를 수신하는 것을 예시한다.
프로세서(170)는, 차량 주행 중, 외부로부터 위치 기반 광고 정보를 수신하는 경우, 디스플레이(180)의 일부 영역에, 광고 정보에 대응하는 영상을 표시하도록 제어할 수 있다.
예를 들어, 프로세서(170)는, 조수석(Stp)에 탑승자가 없는 경우, 운전석(Std)에 대응하는 제1 영역에, 광고 정보에 대응하는 영상을 표시하도록 제어할 수 있다.
또는, 프로세서(170)는, 조수석(Stp)에 탑승자가 존재하는 경우, 도 14b와 같이, 조수석(Stp)에 대응하는 제2 영역에, 광고 정보에 대응하는 영상(1410)을 표시하도록 제어할 수 있다.
특히, 프로세서(170)는, 탑승자의 성향, 취미 등에 대한 정보를 이용하여, 탑승자의 성향, 취미에 대응하는 광고 정보만이 디스플레이(180)에 표시되도록 제어할 수 있다.
도 15는, 차량 운전자의 눈 위치에 따라, 전방 카메라(195d)에서 촬영된 차량 전방 이미지에 대한 스케일링을 가변하는 것을 예시한다.
프로세서(170)는, 내부 카메라(195e)로부터의 운전자 이미지에 기초하여, 운전자의 자세 정보를 연산하며, 자세 정보에 기초하여, 전방 카메라(195d)로부터의 차량 전방 이미지(810) 중 적어도 일부 영역에 대한 스케일링을 수행할 수 있다.
보다 구체적으로, 프로세서(170)는, 운전자와 디스플레이(180) 사이의 거리가 멀수록, 차량 전방 이미지(810) 중 상부 영역의 스케일링 비율이, 하부 영역의 스케일링 비율 보다 더 작아지도록 제어할 수 있다.
도 15의 (a)는, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 거리가, d1인 것을 예시한다.
한편, 프로세서(170)는, 전방 카메라(195d)로부터 수신되는 이미지(800a) 중 상부 영역의 스케일링 비율이, 하부 영역의 스케일링 비율 보다 더 작아지도록 제어할 수 있다.
도 15의 (b)는, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 거리가, d1 보다 짧은 d2인 것을 예시한다.
한편, 프로세서(170)는, 운전자(Pd)의 눈(Pde)과 디스플레이(180) 사이의 거리가 멀수록, 도 15의 (b)와 같이, 전방 카메라(195d)로부터 수신되는 이미지(800a) 중 차량 전방 이미지(810) 중 상부 영역의 스케일링 비율이, 하부 영역의 스케일링 비율 보다 더 작아지도록 제어할 수 있다.
즉, 도 15의 (a)에 비해, 도 15의 (b)의 경우가, 상부 영역이 더 작아지도록 스케일링될 수 있다.
도 15의 (c)는, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 거리가, d1이며, 전방 카메라(195d)와 운전자(Pd)의 눈(Pde) 사이의 높이차가, h1인 것을 예시한다.
한편, 프로세서(170)는, 운전자(Pd)의 눈(Pde)과 디스플레이(180) 사이의 높이 차가 클수록, 도 15의 (c)와 같이, 전방 카메라(195d)로부터 수신되는 이미지(800a) 중 차량 전방 이미지(810)에 대해 업 스케일링의 비율이 커지도록 제어할 수 있다. 특히, 도면과 같이, 세로 방향의 업 스케일링 비율이 커지도록 제어할 수도 있다.
이에 따라, 운전자의 위치에 따라, 증강현실 기능이 제공된 차량 전방 이미지를 제공할 수 있게 된다.
한편, 본 발명의 차량용 디스플레이 장치의 동작방법은 차량용 디스플레이 장치 또는 차량에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (20)

  1. 차량 전방을 촬영하는 전방 카메라;
    차량 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이;
    차량 주행 중, 상기 디스플레이의 영역 중 상기 운전석에 대응하는 제1 영역에, 상기 전방 카메라로부터의 상기 차량 전방 이미지를 표시하도록 제어하고, 상기 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어하는 프로세서;를 포함하며,
    상기 차량 전방 이미지는,
    운전자가 육안으로 확인 불가능한 영역을 포함하며,
    상기 프로세서는,
    상기 육안으로 확인 불가능한 영역 내에, 장애물이 있는 경우, 상기 전방 차량 이미지 내에 장애물 정보를 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  2. 제1항에 있어서,
    상기 차량 전방 이미지는,
    도로 영역, 차선 영역을 포함하고,
    상기 프로세서는,
    상기 차량 전방 이미지 상에 주행 가이드 정보가 표시되는 경우, 상기 차선 영역을 제외한 상기 도로 영역에, 차량 진행 방향 인디케이터 또는 속도 제한 인디케이터가 중첩되어 표시되도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  3. 제1항에 있어서,
    상기 차량 전방 이미지는,
    운전자가 육안으로 확인 불가능한 영역을 포함하는 것을 특징으로 하는 차량용 디스플레이 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    내부 카메라를 통해, 운전자의 눈 높이를 인식하고, 사용자 눈 높이를 고려하여, 상기 전방 카메라의 촬영 각도를 조절하거나, 상기 전방 카메라의 촬영 영역 중 일부 영역만 추출하여, 상기 차량 전방 이미지로 표시되도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  5. 삭제
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 차량 전방 이미지 내에, 또는 상기 차량 전방 이미지 부근에, 맵 이미지를 더 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  7. 제1항에 있어서,
    후방 카메라;를 더 포함하고,
    상기 프로세서는,
    차량 후진 중, 상기 후방 카메라에서 촬영된 이미지를, 상기 디스플레이 영역 중 상기 운전석에 대응하는 제1 영역에, 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  8. 제1항에 있어서,
    좌측 카메라;
    우측 카메라;
    후방 카메라;를 더 포함하고,
    상기 프로세서는,
    상기 전방 카메라로부터의 상기 차량 전방 이미지와, 상기 좌측 카메라, 우측 카메라, 후방 카메라로부터 획득된 복수의 이미지 중 적어도 하나를, 상기 디스플레이에, 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  9. 제1항에 있어서,
    좌측 카메라;
    우측 카메라;
    후방 카메라;를 더 포함하고,
    상기 프로세서는,
    차량 후진 중이거나, 소정 속도 이하로 차량이 진행 중인 경우, 상기 전방 카메라, 좌측 카메라, 우측 카메라, 후방 카메라로부터 획득된 복수의 이미지를, 이용하여 어라운드 뷰 이미지를 생성하고, 상기 어라운드 뷰 이미지를 상기 디스플레이에 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 차량 전방 이미지 외에, 차량 상태 정보 또는 컨텐츠 영상 중 적어도 하나를 상기 디스플레이에 더 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  11. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이 영역 중 상기 조수석에 대응하는 제2 영역에, 재생되는 컨텐츠 영상을 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  12. 제1항에 있어서,
    외부 장치로부터 데이터를 수신하는 인터페이스부;를 더 포함하고,
    상기 프로세서는, 상기 인터페이스부를 통해 수신되는 컨텐츠 데이터와 관련된 컨텐츠 영상을 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  13. 제1항에 있어서,
    상기 프로세서는,
    상기 차량 전방 이미지, 차량 관련 정보, 및 컨텐츠 영상이 상기 디스플레이에 표시된 상태에서, 상기 차량 전방 이미지, 차량 관련 정보, 및 컨텐츠 영상 중 적어도 하나에 대한, 이동 입력이 있는 경우, 상기 디스플레이 내에, 표시되는 배열 순서를 가변하거나, 표시되는 배열 순서와 크기를 가변하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  14. 제1항에 있어서,
    상기 프로세서는,
    상기 차량 전방 이미지, 차량 관련 정보, 및 컨텐츠 영상이 상기 디스플레이에 표시된 상태에서, 상기 차량 전방 이미지, 차량 관련 정보, 및 컨텐츠 영상 중 적어도 하나에 대한, 다른 디스플레이 장치로의 이동 표시 입력이 있는 경우, 다른 디스플레이 장치로, 상기 차량 전방 이미지, 차량 관련 정보, 및 컨텐츠 영상 중 적어도 하나에 대한 데이터를 전송하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  15. 제1항에 있어서,
    상기 프로세서는,
    차량 주행 속도가 커질수록, 상기 차량 전방 이미지의 크기가 작아지도록 제어하거나, 상기 주행 가이드 정보, 상기 차량 주행 정보가 더 하이라이트되도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  16. 제1항에 있어서,
    상기 프로세서는,
    상기 조수석에 탑승자가 없거나, 자고 있는 경우, 상기 디스플레이의 영역 중 상기 조수석에 대응하는 제2 영역을 오프시키도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  17. 제1항에 있어서,
    외부 장치로부터 데이터를 수신하는 통신부;를 더 포함하고
    상기 프로세서는,
    상기 차량 주행 중, 외부로부터 위치 기반 광고 정보룰 수신하는 경우, 상기 디스플레이의 영역 중 상기 조수석에 대응하는 제2 영역에, 상기 광고 정보에 대응하는 영상을 표시하도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  18. 차량 전방을 촬영하는 전방 카메라;
    차량 내부의 윈드 쉴드 상에 또는 대쉬 보드 상에 배치되며, 운전석과 조수석에 대응하는 영역에 배치되는 디스플레이;
    차량 주행 중, 상기 디스플레이의 영역 중 상기 운전석에 대응하는 제1 영역에, 상기 전방 카메라로부터의 상기 차량 전방 이미지를 표시하도록 제어하고, 상기 차량 전방 이미지 상에, 주행 가이드 정보, 차량 주행 정보 중 적어도 하나를 중첩하여 표시하도록 제어하는 프로세서;를 포함하며,
    운전자를 촬영하는 내부 카메라;를 더 구비하고,
    상기 프로세서는,
    상기 내부 카메라로부터의 운전자 이미지에 기초하여, 상기 운전자의 자세 정보를 연산하며, 상기 자세 정보에 기초하여, 상기 전방 카메라로부터의 상기 차량 전방 이미지 중 적어도 일부 영역에 대한 스케일링을 수행하는 것을 특징으로 하는 차량용 디스플레이 장치.
  19. 제18항에 있어서,
    상기 프로세서는,
    상기 운전자와 상기 디스플레이 사이의 거리가 멀수록, 상기 차량 전방 이미지 중 상부 영역의 스케일링 비율이, 하부 영역의 스케일링 비율 보다 더 작아지도록 제어하는 것을 특징으로 하는 차량용 디스플레이 장치.
  20. 제1항 내지 제4항, 제6항 내지 제19항 중 어느 한 항의 차량용 디스플레이 장치를 구비하는 차량.
KR1020150078167A 2015-06-02 2015-06-02 차량용 디스플레이 장치 및 이를 구비한 차량 Active KR102309316B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020150078167A KR102309316B1 (ko) 2015-06-02 2015-06-02 차량용 디스플레이 장치 및 이를 구비한 차량
EP16172437.2A EP3100913B1 (en) 2015-06-02 2016-06-01 Vehicle display apparatus and vehicle including the same
CN201610388373.XA CN106218506B (zh) 2015-06-02 2016-06-02 车辆显示装置和包括该车辆显示装置的车辆
US15/171,076 US20160355133A1 (en) 2015-06-02 2016-06-02 Vehicle Display Apparatus And Vehicle Including The Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150078167A KR102309316B1 (ko) 2015-06-02 2015-06-02 차량용 디스플레이 장치 및 이를 구비한 차량

Publications (2)

Publication Number Publication Date
KR20160142167A KR20160142167A (ko) 2016-12-12
KR102309316B1 true KR102309316B1 (ko) 2021-10-05

Family

ID=56096578

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150078167A Active KR102309316B1 (ko) 2015-06-02 2015-06-02 차량용 디스플레이 장치 및 이를 구비한 차량

Country Status (4)

Country Link
US (1) US20160355133A1 (ko)
EP (1) EP3100913B1 (ko)
KR (1) KR102309316B1 (ko)
CN (1) CN106218506B (ko)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180051842A (ko) * 2016-11-09 2018-05-17 엘지전자 주식회사 디스플레이 장치 및 디스플레이 제어 방법
KR102578517B1 (ko) * 2017-01-13 2023-09-14 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102685268B1 (ko) * 2017-01-17 2024-07-16 엘지전자 주식회사 차량 및 차량의 디스플레이 제어 방법
US10082869B2 (en) * 2017-02-03 2018-09-25 Qualcomm Incorporated Maintaining occupant awareness in vehicles
KR200487391Y1 (ko) * 2017-04-10 2018-09-10 주식회사 와이즈오토모티브 차량의 파노라마뷰 시스템
KR102339522B1 (ko) * 2017-04-12 2021-12-16 현대모비스 주식회사 차량/운행정보 통합 디스플레이 방법 및 장치
US10421399B2 (en) * 2017-05-26 2019-09-24 GM Global Technology Operations LLC Driver alert systems and methods based on the presence of cyclists
KR102310379B1 (ko) 2017-06-09 2021-10-12 현대자동차주식회사 주행 정보 안내 장치 및 방법, 그리고 차량 시스템
US20200104881A1 (en) * 2017-06-16 2020-04-02 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, program, and vehicle management system
JPWO2018230678A1 (ja) 2017-06-16 2020-06-25 本田技研工業株式会社 車内演出装置、車内演出システム、車内演出方法、プログラムおよび指示計測装置
JP7223283B2 (ja) * 2017-06-28 2023-02-16 日本精機株式会社 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置
KR102371608B1 (ko) * 2017-06-29 2022-03-07 현대자동차주식회사 디스플레이 시스템이 구비된 차량 및 그 제어방법
KR101979277B1 (ko) 2017-07-25 2019-05-16 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
JP2019048577A (ja) * 2017-09-11 2019-03-28 本田技研工業株式会社 車両用外板パネル、車両用表示カーテン、車両用表示幌及び車両用表示システム
JP6806650B2 (ja) * 2017-09-11 2021-01-06 本田技研工業株式会社 車両用表示システム
DE102017216774B4 (de) 2017-09-21 2019-07-04 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung, computerlesbares Speichermedium und Kraftfahrzeug mit Instruktionen zur Steuerung einer Anzeige einer Augmented-Reality-Head-up-Display-Vorrichtung für ein Kraftfahrzeug
KR101978965B1 (ko) * 2017-11-13 2019-05-16 엘지전자 주식회사 디스플레이 장치 및 그것을 포함하는 차량
KR101973995B1 (ko) * 2017-11-29 2019-08-23 엘지전자 주식회사 디스플레이 장치 및 그것을 포함하는 차량
KR102451910B1 (ko) * 2017-12-14 2022-10-06 현대자동차 주식회사 차량 버튼 디스플레이 시스템 및 그 방법
KR102479540B1 (ko) 2017-12-21 2022-12-21 삼성전자주식회사 주행 컨텍스트에 기반한 디스플레이 제어 방법 및 장치
KR102479072B1 (ko) * 2017-12-22 2022-12-19 삼성전자주식회사 탑승자 단말 및 디스트랙션 확인을 통한 컨텐츠 표시 방법
US11900672B2 (en) * 2018-04-23 2024-02-13 Alpine Electronics of Silicon Valley, Inc. Integrated internal and external camera system in vehicles
JP7022213B2 (ja) * 2018-06-27 2022-02-17 本田技研工業株式会社 周辺情報取得装置および車両
US10528132B1 (en) * 2018-07-09 2020-01-07 Ford Global Technologies, Llc Gaze detection of occupants for vehicle displays
CN109274942A (zh) * 2018-10-30 2019-01-25 郑州海威光电科技有限公司 一种基于监控的高清捕捉系统及方法
JP2020080503A (ja) * 2018-11-14 2020-05-28 本田技研工業株式会社 エージェント装置、エージェント提示方法、およびプログラム
CN111208898A (zh) * 2018-11-21 2020-05-29 上海博泰悦臻网络技术服务有限公司 乘客座位显示器控制方法、系统、电子装置及存储介质
EP3680883A1 (en) * 2019-01-11 2020-07-15 Audi Ag A display device and a vehicle comrising the display device
JP2020140487A (ja) * 2019-02-28 2020-09-03 トヨタ自動車株式会社 処理装置、処理方法およびプログラム
GB2582262B (en) * 2019-03-02 2022-09-28 Jaguar Land Rover Ltd Imaging system and method
KR102650436B1 (ko) * 2019-07-01 2024-03-26 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
US11491872B2 (en) * 2019-08-02 2022-11-08 Hyundai Motor Company Vehicle and method for displaying an image onto a windshield
KR20210023174A (ko) * 2019-08-22 2021-03-04 주식회사 이에스피 Avm 화면 및 차량주행정보를 제공하는 디지털 클러스터 및 디지털 클러스터의 통합주행정보 디스플레이 방법
CN110723070B (zh) * 2019-09-06 2020-12-15 成都长迪传感技术有限公司 一种汽车盲区传感系统
KR102391613B1 (ko) 2019-10-18 2022-04-29 주식회사 엔디오에스 차량의 편의 서비스 제공 시스템
CN110764505B (zh) * 2019-11-03 2022-10-04 华中师范大学 一种无人驾驶汽车控制系统
CN112118558B (zh) * 2020-06-30 2023-05-16 上汽通用五菱汽车股份有限公司 车机屏幕显示方法、车辆及计算机可读存储介质
KR20220010656A (ko) 2020-07-17 2022-01-26 주식회사 엔디오에스 사용자 경험 기반의 차량 연동 디스플레이 시스템 및 그 운영 방법
KR102374234B1 (ko) 2020-07-17 2022-03-16 주식회사 엔디오에스 딥러닝 학습을 이용한 사용자 경험 기반의 차량 연동 디스플레이 시스템 및 그 운영 방법
DE102020005880A1 (de) 2020-09-25 2022-03-31 Alumis GmbH & Co. KG Anzeigesystem und verfahren zum anzeigen der vor einem kraftfahrzeug gegebenen verkehrssituation auf einer im kraftfahrzeug angebrachten anzeigevorrichtung
CN112703128B (zh) * 2020-11-24 2022-03-08 华为技术有限公司 显示控制方法及终端设备
JP7476845B2 (ja) * 2021-04-27 2024-05-01 トヨタ自動車株式会社 情報処理装置、情報処理方法及びプログラム
JP2022184350A (ja) * 2021-06-01 2022-12-13 マツダ株式会社 ヘッドアップディスプレイ装置
JP7556344B2 (ja) * 2021-11-22 2024-09-26 トヨタ自動車株式会社 画像表示システム
KR102713291B1 (ko) * 2022-04-11 2024-10-04 연세대학교 산학협력단 자율 주행 상황에서 전방 시야 확보를 위한 디스플레이 장치 및 방법
CN115019747B (zh) * 2022-05-23 2023-07-18 惠科股份有限公司 显示控制方法及车载显示设备
US12330660B2 (en) 2022-06-08 2025-06-17 Reveal Innovations, Llc Vehicle sensing and control systems
KR102706597B1 (ko) * 2022-12-16 2024-09-13 현대오토에버 주식회사 헤드업 디스플레이의 증강현실 그래픽 콘텐츠 표시 장치 및 방법
KR20250065590A (ko) * 2023-10-30 2025-05-13 엘지전자 주식회사 차량용 디스플레이 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013029855A (ja) * 2012-10-03 2013-02-07 Denso Corp 車両用表示装置
US20140139669A1 (en) 2012-01-30 2014-05-22 Steven Petrillo System and method for providing front-oriented visual information to vehicle driver
JP2015080994A (ja) 2013-10-22 2015-04-27 三菱電機株式会社 車両用情報処理装置
WO2015072013A1 (ja) * 2013-11-15 2015-05-21 三菱電機株式会社 表示制御装置、情報表示方法および情報表示システム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8230019B2 (en) * 2003-07-17 2012-07-24 International Business Machines Corporation Alerting electronic mail users of undeliverable recipients
DE10339314B3 (de) * 2003-08-27 2005-04-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Anzeigesteuerung von unterschiedlichen Informationen in einem Fahrzeug und optoakustische Informationseinheit
US7561966B2 (en) * 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
JP2008309529A (ja) * 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
JP2009008014A (ja) * 2007-06-28 2009-01-15 Mitsubishi Electric Corp 軸流ファン
KR101542408B1 (ko) * 2009-03-23 2015-08-06 엘지전자 주식회사 Home (e)NodeB에 대한 단말의 접속을 제어하는 방법
KR101782647B1 (ko) * 2010-01-28 2017-09-28 엘지전자 주식회사 무선 통신 시스템에서 상향링크 제어 정보 인코딩 방법 및 장치
JP2011205513A (ja) * 2010-03-26 2011-10-13 Aisin Seiki Co Ltd 車両周辺監視装置
US20130029358A1 (en) * 2010-04-01 2013-01-31 Ludwig Institute For Cancer Research Ltd. Immunodominant mhc dr52b restricted ny-eso-1 epitopes, mhc class ii monomers and multimers, and uses thereof
WO2011155878A1 (en) * 2010-06-10 2011-12-15 Volvo Lastavagnar Ab A vehicle based display system and a method for operating the same
KR101641513B1 (ko) * 2010-10-22 2016-07-21 엘지전자 주식회사 이동 단말기의 영상 촬영 장치 및 그 방법
US20130001011A1 (en) * 2011-01-12 2013-01-03 John Charles Panosh Sound muffling apparatus and method of using same
ES1074566Y (es) * 2011-04-11 2011-08-25 Soler Jordi Olucha Dispositivo para la obtencion de zumo directamente de la fruta
EP2705475A4 (en) * 2011-05-02 2014-09-24 Omnicell Inc SYSTEM COMPREHENSIVE MEDICAL ADMINISTRATION SYSTEMS
CN102582515A (zh) * 2011-05-15 2012-07-18 李晓根 全角驾驶系统
WO2013169601A2 (en) * 2012-05-07 2013-11-14 Honda Motor Co., Ltd. Method to generate virtual display surfaces from video imagery of road based scenery
KR20140059478A (ko) * 2012-11-08 2014-05-16 인포뱅크 주식회사 차량용 멀티미디어 장치 및 그의 제어 방법
EP2817170A4 (en) * 2013-04-15 2015-11-04 ACCESS TO USER PROFILES STORED IN THE FORM OF MODELS AND PORTABILITY OF THESE USER PROFILES
EP3061642B1 (en) * 2013-10-22 2019-10-02 Nippon Seiki Co., Ltd. Vehicle information projection system, and projection device
KR101648017B1 (ko) * 2015-03-23 2016-08-12 현대자동차주식회사 디스플레이 장치, 차량 및 디스플레이 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140139669A1 (en) 2012-01-30 2014-05-22 Steven Petrillo System and method for providing front-oriented visual information to vehicle driver
JP2013029855A (ja) * 2012-10-03 2013-02-07 Denso Corp 車両用表示装置
JP2015080994A (ja) 2013-10-22 2015-04-27 三菱電機株式会社 車両用情報処理装置
WO2015072013A1 (ja) * 2013-11-15 2015-05-21 三菱電機株式会社 表示制御装置、情報表示方法および情報表示システム

Also Published As

Publication number Publication date
EP3100913A3 (en) 2017-04-05
EP3100913A2 (en) 2016-12-07
KR20160142167A (ko) 2016-12-12
EP3100913B1 (en) 2021-01-06
CN106218506A (zh) 2016-12-14
US20160355133A1 (en) 2016-12-08
CN106218506B (zh) 2018-12-04

Similar Documents

Publication Publication Date Title
KR102309316B1 (ko) 차량용 디스플레이 장치 및 이를 구비한 차량
KR101741433B1 (ko) 운전자 보조 장치 및 그 제어방법
KR101844885B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR101916993B1 (ko) 차량용 디스플레이 장치 및 그 제어방법
KR101942527B1 (ko) 차량용 어라운드 뷰 제공 장치 및 차량
KR101565006B1 (ko) 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
KR102043060B1 (ko) 자율 주행 장치 및 이를 구비한 차량
EP3708962B1 (en) Display apparatus for vehicle and vehicle
KR101618551B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR101838967B1 (ko) 차량용 편의 장치 및 차량
KR101622622B1 (ko) 차량 하부 이미지 제공 장치 및 이를 구비한 차량
KR101582572B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR101855940B1 (ko) 차량용 증강현실 제공 장치 및 그 제어방법
KR20150141805A (ko) 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
KR20150139368A (ko) 차량 충전 보조장치 및 이를 구비한 차량
KR101632179B1 (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20170043212A (ko) 차량용 어라운드 뷰 제공 장치 및 차량
KR20160148394A (ko) 자율 주행 차량
KR101980547B1 (ko) 차량 운전 보조 장치 및 차량
KR20150072942A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR101822896B1 (ko) 운전자 보조 장치 및 그 제어방법
KR20160148395A (ko) 자율 주행 차량
KR20160064762A (ko) 차량용 디스플레이 장치 및 이를 구비한 차량
KR101816570B1 (ko) 차량용 디스플레이 장치
KR20150074751A (ko) 차량 운전 보조 장치 및 이를 구비한 차량

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150602

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20200304

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20150602

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210428

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210831

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210929

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210929

End annual number: 3

Start annual number: 1

PG1601 Publication of registration