[go: up one dir, main page]

KR20230045663A - Automotive Pillar Display System - Google Patents

Automotive Pillar Display System Download PDF

Info

Publication number
KR20230045663A
KR20230045663A KR1020210127094A KR20210127094A KR20230045663A KR 20230045663 A KR20230045663 A KR 20230045663A KR 1020210127094 A KR1020210127094 A KR 1020210127094A KR 20210127094 A KR20210127094 A KR 20210127094A KR 20230045663 A KR20230045663 A KR 20230045663A
Authority
KR
South Korea
Prior art keywords
vehicle
information
display
pillar
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020210127094A
Other languages
Korean (ko)
Other versions
KR102697323B1 (en
Inventor
장민
Original Assignee
장민
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장민 filed Critical 장민
Priority to KR1020210127094A priority Critical patent/KR102697323B1/en
Publication of KR20230045663A publication Critical patent/KR20230045663A/en
Application granted granted Critical
Publication of KR102697323B1 publication Critical patent/KR102697323B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0019Side or rear panels
    • B60R2011/0022Pillars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0063Manual parameter input, manual setting means, manual initialising or calibrating means
    • B60W2050/0064Manual parameter input, manual setting means, manual initialising or calibrating means using a remote, e.g. cordless, transmitter or receiver unit, e.g. remote keypad or mobile phone
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 실시예는 차량용 필러 디스플레이 시스템에 관한 것으로, 해결하고자 하는 기술적 과제는 차량의 차체를 구성하는 필러의 실내측면에 장착된 디스플레이를 통해 차량과 관련된 각종 정보를 표시함으로써, 종래 단순히 기둥 역할만을 담당하던 필러를 정보 표시 용도로 활용하는 차량용 필러 디스플레이 시스템을 제공하는데 있다. 이를 위해 본 발명은 제1차량의 A-필러의 실내측면에 제공되는 제1디스플레이; 상기 제1차량의 실외측면에 구비되어, 상기 A-필러에 의한 사각지대의 영상을 획득하는 카메라; 및 상기 제1디스플레이에 연결되어, 상기 제1디스플레이의 동작을 제어하는 프로세서를 포함하고, 상기 프로세서는, 사각지대 모드 및 교통정보 모드를 수행하여 미리 정해진 유형의 정보를 상기 제1디스플레이에 표시하되, 상기 프로세서는, 상기 사각지대 모드에 진입 시, 상기 사각지대의 영상을 상기 제1 디스플레이에 표시하는 동시에 상기 사각지대의 영상에 대한 영상 처리를 통해, 상기 사각지대 내의 객체를 검출하고, 상기 검출된 객체의 위험 지수를 산출하고, 상기 검출된 객체를 안내하는 인디케이터를 상기 제1디스플레이에 표시하며, 상기 위험 지수를 기초로, 상기 인디케이터의 크기, 위치, 형상 및 색상을 설정하고, 상기 교통정보 모드에 진입 시, 상기 제1차량이 외부의 제2차량 및 제3차량과 무선 링크를 설정하여 사이드링크 유니캐스트 통신을 수행하도록 하되, 상기 제2차량 및 상기 제3차량과 사이드링크 유니캐스트 통신을 수행하는 도중 상기 제2차량과 연관된 무선 링크의 실패를 검출하면, 상기 무선 링크의 실패에 응답하여 상기 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋을 수행하고 상기 제3차량과 연관된 사이드링크 매체 액세스 제어 리셋은 수행하지 않는 동시에 상기 교통정보의 데이터에 대한 데이터 처리를 통해, 상기 교통정보 내의 임계정보를 검출하고, 상기 검출된 임계정보의 위험 지수를 산출하고, 상기 검출된 위험 지수를 안내하는 인디케이터를 상기 제1디스플레이에 표시하는, 차량용 필러 디스플레이 시스템을 제공한다.Embodiments of the present invention relate to a vehicle pillar display system, and the technical problem to be solved is to display various information related to the vehicle through a display mounted on the interior side of a pillar constituting the body of the vehicle, thereby simply serving as a pillar. It is to provide a vehicle pillar display system that utilizes the pillar in charge for information display. To this end, the present invention provides a first display provided on the interior side of an A-pillar of a first vehicle; a camera provided on an outdoor side surface of the first vehicle to obtain an image of a blind spot caused by the A-pillar; and a processor connected to the first display and controlling an operation of the first display, wherein the processor displays information of a predetermined type on the first display by performing a blind spot mode and a traffic information mode; , When entering the blind spot mode, the processor displays an image of the blind spot on the first display and simultaneously detects an object in the blind spot through image processing of the image of the blind spot, and the detection A risk index of the detected object is calculated, an indicator for guiding the detected object is displayed on the first display, the size, position, shape and color of the indicator are set based on the risk index, and the traffic information is displayed. When entering the mode, the first vehicle establishes a wireless link with the second vehicle and the third vehicle outside to perform sidelink unicast communication, but sidelink unicast communication with the second vehicle and the third vehicle If a failure of the radio link associated with the second vehicle is detected while performing the sidelink medium access control reset associated with the second vehicle in response to the failure of the radio link, and the sidelink medium associated with the third vehicle Access control reset is not performed, but at the same time, critical information in the traffic information is detected through data processing of the traffic information data, a risk index of the detected critical information is calculated, and the detected risk index is guided. Provided is a vehicle pillar display system that displays an indicator on the first display.

Description

차량용 필러 디스플레이 시스템{Automotive Pillar Display System}Vehicle pillar display system {Automotive Pillar Display System}

본 발명의 실시예는 차량용 필러 디스플레이 시스템에 관한 것이다.An embodiment of the present invention relates to a pillar display system for a vehicle.

종래의 자동차에는 운전자가 주행시 전방을 제외한 주위를 관찰하기 위한 장치로 사이드뷰미러와 룸미러가 장착되어 있으며, 일부 차량의 경우 주차와 후진을 위한 사이드뷰미러 또는 후방 감시카메라와 차체가 가리는 전방 일부분을 보기 위한 볼록거울이 장착되어 있다. 그러나 거울을 이용한 주위관찰 장치는 운전자가 유리창 밖의 제한된 범위를 비추는 거울을 보면서 상황을 판단하는 구조인데, 우천시에 유리창은 관찰하는데 장애가 되고, 거울은 물방울이 묻어 운전자가 상황을 정확히 파악하기엔 어려움이 따르며 또한 거울이 가진 고유의 성질로 인하여 사각등 여러 가지 문제점이 있다.Conventional automobiles are equipped with a side view mirror and a room mirror as devices for the driver to observe the surroundings except for the front while driving. In some vehicles, a side view mirror or rear surveillance camera for parking and reversing and a front part covered by the body It is equipped with a convex mirror for viewing. However, the surrounding observation device using a mirror is a structure in which the driver judges the situation by looking at a mirror that reflects a limited range outside the window. In addition, there are various problems such as blind spots due to the inherent properties of mirrors.

한편, 최근의 어라운드 뷰 모니터링 시스템은, 차량에 탑승한 사용자에게 차량 주변의 360도 방향에 대한 탑뷰 이미지를 제공함으로써, 주차 시와 같은 저속 상황에서 주변 장애물과의 충돌을 방지하는 데에 큰 도움을 주고 있다. 하지만, 사용자는 어라운드 뷰 모니터링 시스템을 통해 제공되는 탑뷰 이미지를 통해, 매우 제한된 범위 내의 주변 상황에 대한 정보만을 인지할 수 있다는 한계가 있다.On the other hand, the recent around-view monitoring system is of great help in preventing collisions with nearby obstacles in low-speed situations such as parking by providing a top-view image of the 360-degree direction around the vehicle to the user riding in the vehicle. are giving However, there is a limitation in that a user can recognize only information about a surrounding situation within a very limited range through a top-view image provided through the around-view monitoring system.

한편, 차량의 필러는 차량의 지붕을 지탱하는 기둥을 지칭하는 차체 구조물로서, 그 위치에 따라, A-필러, B-필러 및 C-필러 등으로 구분될 수 있다. 이러한 필러는 일반적으로 차체 지지 역할만을 담당하며, 필연적으로 탑승자의 시야를 가려 사각지대를 유발하게 된다.Meanwhile, a pillar of a vehicle is a vehicle body structure that refers to a pillar supporting a roof of a vehicle, and may be classified into an A-pillar, a B-pillar, a C-pillar, and the like, depending on its location. These pillars generally play only a role of supporting the vehicle body, and inevitably obscure the occupant's view and cause blind spots.

이러한 발명의 배경이 되는 기술에 개시된 상술한 정보는 본 발명의 배경에 대한 이해도를 향상시키기 위한 것뿐이며, 따라서 종래 기술을 구성하지 않는 정보를 포함할 수도 있다.The above-described information disclosed in the background art of the present invention is only for improving the understanding of the background of the present invention, and thus may include information that does not constitute prior art.

본 발명의 실시예에 따른 해결하고자 하는 과제는 차량의 차체를 구성하는 필러의 실내측면에 장착된 디스플레이를 통해 차량과 관련된 각종 정보를 표시함으로써, 종래 단순히 기둥 역할만을 담당하던 필러를 정보 표시 용도로 활용하는 차량용 필러 디스플레이 시스템을 제공하는데 있다.The problem to be solved according to the embodiment of the present invention is to display various information related to the vehicle through a display mounted on the interior side of the pillar constituting the body of the vehicle, so that the pillar, which conventionally only serves as a pillar, can be used for information display. It is to provide a vehicle pillar display system that is utilized.

본 발명의 실시예에 따른 차량용 필러 디스플레이 시스템은 제1차량의 A-필러의 실내측면에 제공되는 제1디스플레이; 상기 제1차량의 실외측면에 구비되어, 상기 A-필러에 의한 사각지대의 영상을 획득하는 카메라; 및 상기 제1디스플레이에 연결되어, 상기 제1디스플레이의 동작을 제어하는 프로세서를 포함하고, 상기 프로세서는, 사각지대 모드 및 교통정보 모드를 수행하여 미리 정해진 유형의 정보를 상기 제1디스플레이에 표시하되, 상기 프로세서는, 상기 사각지대 모드에 진입 시, 상기 사각지대의 영상을 상기 제1 디스플레이에 표시하는 동시에 상기 사각지대의 영상에 대한 영상 처리를 통해, 상기 사각지대 내의 객체를 검출하고, 상기 검출된 객체의 위험 지수를 산출하고, 상기 검출된 객체를 안내하는 인디케이터를 상기 제1디스플레이에 표시하며, 상기 위험 지수를 기초로, 상기 인디케이터의 크기, 위치, 형상 및 색상을 설정하고, 상기 교통정보 모드에 진입 시, 상기 제1차량이 외부의 제2차량 및 제3차량과 무선 링크를 설정하여 사이드링크 유니캐스트 통신을 수행하도록 하되, 상기 제2차량 및 상기 제3차량과 사이드링크 유니캐스트 통신을 수행하는 도중 상기 제2차량과 연관된 무선 링크의 실패를 검출하면, 상기 무선 링크의 실패에 응답하여 상기 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋을 수행하고 상기 제3차량과 연관된 사이드링크 매체 액세스 제어 리셋은 수행하지 않는 동시에 상기 교통정보의 데이터에 대한 데이터 처리를 통해, 상기 교통정보 내의 임계정보를 검출하고, 상기 검출된 임계정보의 위험 지수를 산출하고, 상기 검출된 위험 지수를 안내하는 인디케이터를 상기 제1디스플레이에 표시한다.A vehicle pillar display system according to an embodiment of the present invention includes a first display provided on an interior side of an A-pillar of a first vehicle; a camera provided on an outdoor side surface of the first vehicle to obtain an image of a blind spot caused by the A-pillar; and a processor connected to the first display and controlling an operation of the first display, wherein the processor displays information of a predetermined type on the first display by performing a blind spot mode and a traffic information mode; , When entering the blind spot mode, the processor displays an image of the blind spot on the first display and simultaneously detects an object in the blind spot through image processing of the image of the blind spot, and the detection A risk index of the detected object is calculated, an indicator for guiding the detected object is displayed on the first display, the size, position, shape and color of the indicator are set based on the risk index, and the traffic information is displayed. When entering the mode, the first vehicle establishes a wireless link with the second vehicle and the third vehicle outside to perform sidelink unicast communication, but sidelink unicast communication with the second vehicle and the third vehicle If a failure of the radio link associated with the second vehicle is detected while performing the sidelink medium access control reset associated with the second vehicle in response to the failure of the radio link, and the sidelink medium associated with the third vehicle Access control reset is not performed, but at the same time, critical information in the traffic information is detected through data processing of the traffic information data, a risk index of the detected critical information is calculated, and the detected risk index is guided. An indicator is displayed on the first display.

상기 프로세서는, 상기 제1차량에 대한 상기 검출된 객체 및 임계정보의 종류, 거리, 방향 및 속도에 기초로, 상기 위험 지수를 산출한다.The processor calculates the risk index based on the type, distance, direction, and speed of the detected object and critical information for the first vehicle.

상기 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 상기 제1차량이 상기 제2차량과 연관된 사이드링크 송신 및 수신을 중지시킨다.The sidelink medium access control reset associated with the second vehicle causes the first vehicle to stop transmitting and receiving sidelinks associated with the second vehicle.

상기 사이드링크 송신 및/또는 수신은 물리적 사이드링크 공유 채널, 물리적 사이드링크 제어 채널 및 물리적 사이드링크 피드백 채널 송신 및 수신을 포함한다.The sidelink transmission and/or reception includes transmission and reception of a physical sidelink shared channel, a physical sidelink control channel, and a physical sidelink feedback channel.

상기 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 상기 제3차량과 연관된 사이드링크 송신 및 수신을 중지시킨다.The sidelink medium access control reset associated with the second vehicle stops sidelink transmission and reception associated with the third vehicle.

본 발명의 실시예는 차량의 차체를 구성하는 필러의 실내측면에 장착된 디스플레이를 통해 차량과 관련된 각종 정보를 표시함으로써, 종래 단순히 기둥 역할만을 담당하던 필러를 정보 표시 용도로 활용하는 차량용 필러 디스플레이 시스템을 제공한다.An embodiment of the present invention displays various vehicle-related information through a display mounted on the interior side of a pillar constituting a vehicle body, thereby utilizing a pillar, which conventionally simply serves as a pillar, for displaying information. provides

도 1은 본 발명의 일 실시예에 따른 차량의 블록 다이어그램을 보여준다.
도 2는 도 1에 도시된 차량의 예시적인 외관을 보여준다.
도 3은 도 2에 도시된 복수의 카메라들에 의해 생성되는 영상들의 일 예를 보여준다.
도 4는 도 1을 참조하여 전술한 차량의 일 예를 보여준다. 설명의 편의를 위해, 차량은 4륜 자동차인 것으로 가정한다.
도 5는 본 발명의 일 실시예에 따른 디스플레이 장치의 개략적인 구성에 대한 블록 다이어그램을 보여준다.
도 6a 및 도 6b는 본 발명의 일 실시예에 따른 디스플레이 장치에 포함되는 디스플레이부와 실외 카메라가 차량에 장착되는 일 예를 보여준다.
도 7은 본 발명의 일 실시예에 따른 디스플레이 장치에 의해 수행되는 프로세스의 플로우 챠트를 예시한다.
도 8은 본 발명의 일 실시예에 따른 디스플레이 장치가 사각지대 모드에 진입한 경우에 수행하는 프로세스의 플로우 챠트를 예시한다.
도 9는 본 발명의 일 실시예에 따른 디스플레이 장치가 사각지대 모드에 진입한 경우의 동작을 설명하는 데에 참조되는 도면이다.
도 10은 본 발명의 일 실시예에 따른 디스플레이 장치가 교통정보 모드에 진입한 경우에 수행하는 프로세스의 플로우 챠트를 예시한다.
도 11은 본 발명의 일 실시예에 따른 디스플레이 장치가 교통정보 모드에 진입시 C-V2X 모듈에서 멀티 사이드링크 통신을 처리하는 프로세스의 플로우 챠트를 예시한다.
1 shows a block diagram of a vehicle according to one embodiment of the present invention.
FIG. 2 shows an exemplary appearance of the vehicle shown in FIG. 1 .
FIG. 3 shows an example of images generated by a plurality of cameras shown in FIG. 2 .
FIG. 4 shows an example of the vehicle described above with reference to FIG. 1 . For convenience of description, it is assumed that the vehicle is a four-wheeled vehicle.
5 shows a block diagram of a schematic configuration of a display device according to an embodiment of the present invention.
6A and 6B show an example in which a display unit and an outdoor camera included in a display device according to an embodiment of the present invention are mounted on a vehicle.
7 illustrates a flow chart of a process performed by a display device according to one embodiment of the present invention.
8 illustrates a flowchart of a process performed when a display device enters a blind spot mode according to an embodiment of the present invention.
9 is a diagram referenced to explain an operation when a display device according to an embodiment of the present invention enters a blind spot mode.
10 illustrates a flowchart of a process performed when a display device enters a traffic information mode according to an embodiment of the present invention.
11 illustrates a flowchart of a process of processing multi-sidelink communication in a C-V2X module when a display device enters a traffic information mode according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 하기 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시예에 한정되는 것은 아니다. 오히려, 이들 실시예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.The embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art, and the following examples may be modified in many different forms, and the scope of the present invention is as follows It is not limited to the examples. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the spirit of the invention to those skilled in the art.

또한, 이하의 도면에서 각 층의 두께나 크기는 설명의 편의 및 명확성을 위하여 과장된 것이며, 도면상에서 동일 부호는 동일한 요소를 지칭한다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다. 또한, 본 명세서에서 "연결된다"라는 의미는 A 부재와 B 부재가 직접 연결되는 경우뿐만 아니라, A 부재와 B 부재의 사이에 C 부재가 개재되어 A 부재와 B 부재가 간접 연결되는 경우도 의미한다.In addition, in the following drawings, the thickness or size of each layer is exaggerated for convenience and clarity of explanation, and the same reference numerals refer to the same elements in the drawings. As used herein, the term "and/or" includes any one and all combinations of one or more of the listed items. In addition, the meaning of "connected" in the present specification means not only when member A and member B are directly connected, but also when member A and member B are indirectly connected by interposing member C between member A and member B. do.

본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise, include)" 및/또는 "포함하는(comprising, including)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및 /또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.Terms used in this specification are used to describe specific embodiments and are not intended to limit the present invention. As used herein, the singular form may include the plural form unless the context clearly indicates otherwise. Also, when used herein, “comprise, include” and/or “comprising, including” refers to a referenced form, number, step, operation, member, element, and/or group thereof. presence, but does not preclude the presence or addition of one or more other shapes, numbers, operations, elements, elements and/or groups.

본 명세서에서 제1, 제2등의 용어가 다양한 부재, 부품, 영역, 층들 및/또는 부분들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부분들은 이들 용어에 의해 한정되어서는 안 됨은 자명하다. 이들 용어는 하나의 부재, 부품, 영역, 층 또는 부분을 다른 영역, 층 또는 부분과 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1부재, 부품, 영역, 층 또는 부분은 본 발명의 가르침으로부터 벗어나지 않고서도 제2부재, 부품, 영역, 층 또는 부분을 지칭할 수 있다.In this specification, terms such as first and second are used to describe various members, components, regions, layers and/or portions, but these members, components, regions, layers and/or portions are limited by these terms. It is self-evident that These terms are only used to distinguish one element, component, region, layer or section from another region, layer or section. Thus, a first member, component, region, layer or section described in detail below may refer to a second member, component, region, layer or section without departing from the teachings of the present invention.

또한, 본 발명에 따른 제어부(컨트롤러) 및/또는 다른 관련 기기 또는 부품은 임의의 적절한 하드웨어, 펌웨어(예를 들어, 주문형 반도체), 소프트웨어, 또는 소프트웨어, 펌웨어 및 하드웨어의 적절한 조합을 이용하여 구현될 수 있다. 예를 들어, 본 발명에 따른 제어부(컨트롤러) 및/또는 다른 관련 기기 또는 부품의 다양한 구성 요소들은 하나의 집적회로 칩 상에, 또는 별개의 집적회로 칩 상에 형성될 수 있다. 또한, 제어부(컨트롤러)의 다양한 구성 요소는 가요성 인쇄 회로 필름 상에 구현 될 수 있고, 테이프 캐리어 패키지, 인쇄 회로 기판, 또는 제어부(컨트롤러)와 동일한 서브스트레이트 상에 형성될 수 있다. 또한, 제어부(컨트롤러)의 다양한 구성 요소는, 하나 이상의 컴퓨팅 장치에서, 하나 이상의 프로세서에서 실행되는 프로세스 또는 쓰레드(thread)일 수 있고, 이는 이하에서 언급되는 다양한 기능들을 수행하기 위해 컴퓨터 프로그램 명령들을 실행하고 다른 구성 요소들과 상호 작용할 수 있다. 컴퓨터 프로그램 명령은, 예를 들어, 랜덤 액세스 메모리와 같은 표준 메모리차량를 이용한 컴퓨팅 장치에서 실행될 수 있는 메모리에 저장된다. 컴퓨터 프로그램 명령은 또한 예를 들어, CD-ROM, 플래시 드라이브 등과 같은 다른 비-일시적 컴퓨터 판독 가능 매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 본 발명에 관련된 당업자는 다양한 컴퓨팅 장치의 기능이 상호간 결합되거나, 하나의 컴퓨팅 장치로 통합되거나, 또는 특정 컴퓨팅 장치의 기능이, 본 발명의 예시적인 실시예를 벗어나지 않고, 하나 이상의 다른 컴퓨팅 장치들에 분산될 수 될 수 있다는 것을 인식해야 한다.In addition, the control unit (controller) and/or other related devices or components according to the present invention may be implemented using any suitable hardware, firmware (eg, application specific semiconductor), software, or a suitable combination of software, firmware, and hardware. can For example, various components of a control unit (controller) and/or other related devices or parts according to the present invention may be formed on one integrated circuit chip or on separate integrated circuit chips. In addition, various components of the control unit (controller) may be implemented on a flexible printed circuit film, and may be formed on a tape carrier package, a printed circuit board, or the same substrate as the control unit (controller). In addition, various components of the control unit (controller) may be processes or threads executed in one or more processors in one or more computing devices, which execute computer program instructions to perform various functions mentioned below. and can interact with other components. Computer program instructions are stored in memory that can be executed in a computing device using standard memory vehicles, such as, for example, random access memory. Computer program instructions may also be stored on other non-transitory computer readable media, such as, for example, a CD-ROM, flash drive, or the like. In addition, those skilled in the art related to the present invention will understand that the functions of various computing devices can be combined with each other, integrated into one computing device, or the functions of a particular computing device can be incorporated into one or more other computing devices without departing from the exemplary embodiments of the present invention. It should be recognized that it can be dispersed in the field.

도 1은 본 발명의 일 실시예에 따른 차량(100)의 블록 다이어그램을 보여준다.1 shows a block diagram of a vehicle 100 according to one embodiment of the present invention.

차량(100)은 통신부(110), 입력부(120), 메모리(130), 출력부(140), 차량 구동부(150), 센싱부(160), 제어부(170), 인터페이스부(180) 및 전원부(190)를 포함할 수 있다.The vehicle 100 includes a communication unit 110, an input unit 120, a memory 130, an output unit 140, a vehicle driving unit 150, a sensing unit 160, a control unit 170, an interface unit 180, and a power supply unit. (190) may be included.

통신부(110)는 차량(100)과 외부 기기(예, 타차량, 보행자(모바일 단말기), 인프라(신호등), 기지국, 외부 서버등 무선 통신 가능한 모든 기기)과의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(110)는 차량(100)을 하나 이상의 망(network)에 연결하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 110 includes one or more devices that enable wireless communication between the vehicle 100 and external devices (eg, other vehicles, pedestrians (mobile terminals), infrastructure (traffic lights), base stations, external servers, and other devices capable of wireless communication). modules may be included. Also, the communication unit 110 may include one or more modules that connect the vehicle 100 to one or more networks.

통신부(110)는 방송 수신 모듈(111), 무선 인터넷 모듈(112), 근거리 통신 모듈(113), 위치 정보 모듈(114) 및 C-V2X(Cellular Vehicle-to-Everything) 모듈(115)을 포함할 수 있다.The communication unit 110 includes a broadcast reception module 111, a wireless Internet module 112, a short-range communication module 113, a location information module 114, and a Cellular Vehicle-to-Everything (C-V2X) module 115. can do.

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.The broadcast reception module 111 receives a broadcast signal or broadcast-related information from an external broadcast management server through a broadcast channel. Here, broadcasting includes radio broadcasting or TV broadcasting.

무선 인터넷 모듈(112)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 차량(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(112)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 112 refers to a module for wireless Internet access, and may be built into or external to the vehicle 100 . The wireless Internet module 112 is configured to transmit and receive radio signals in a communication network according to wireless Internet technologies.

무선 인터넷 기술로는 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G, 6G 등이 있으며, 상기 무선 인터넷 모듈(112)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷 모듈(112)은 외부 서버와 무선으로 데이터를 교환할 수 있다. 무선 인터넷 모듈(112)은 외부 서버로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), 5G, 6G, etc. The wireless Internet module 112 transmits and receives data according to at least one wireless Internet technology within a range including Internet technologies not listed above. For example, the wireless Internet module 112 may wirelessly exchange data with an external server. The wireless Internet module 112 may receive weather information and road traffic condition information (eg, Transport Protocol Expert Group (TPEG)) information from an external server.

근거리 통신 모듈(113)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.The short-range communication module 113 is for short-range communication, and includes Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. Near Field Communication (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and wireless USB (Wireless Universal Serial Bus) technology may be used to support short-distance communication.

이러한, 근거리 통신 모듈(113)은 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부차량 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(113)은 탑승자의 모바일 단말기와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(113)은 모바일 단말기나 외부 서버로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(100)에 탑승한 경우, 사용자의 모바일 단말기와 차량(100)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.The short-range communication module 113 may perform short-range communication between the vehicle 100 and at least one external vehicle by forming wireless area networks. For example, the short-distance communication module 113 may wirelessly exchange data with a mobile terminal of a passenger. The short-distance communication module 113 may receive weather information and road traffic condition information (eg, Transport Protocol Expert Group (TPEG)) from a mobile terminal or an external server. For example, when a user gets on the vehicle 100, the user's mobile terminal and the vehicle 100 may perform pairing with each other automatically or by the user executing an application.

위치 정보 모듈(114)은 차량(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다.The location information module 114 is a module for acquiring the location of the vehicle 100, and a representative example thereof is a Global Positioning System (GPS) module. For example, if a vehicle utilizes a GPS module, the location of the vehicle may be obtained using a signal transmitted from a GPS satellite.

C-V2X 모듈(115)은 차량과 차량(V2V), 보행자(V2P), 인프라(V2I) 간에 교통 및 도로 상황 등의 정보를 공유하도록 하며, 이는 3GPP가 규정한 LTE C-V2X 직접통신 표준을 따를 수 있다.The C-V2X module 115 allows information such as traffic and road conditions to be shared between vehicles (V2V), pedestrians (V2P), and infrastructure (V2I), which complies with the LTE C-V2X direct communication standard prescribed by 3GPP. can follow

C-V2X 모듈(115)은 360도 비가시선(NLOS, 비직선) 경로를 인지할 수 있는 단거리 직접통신 모드를 수행할 수 있으며, 하기할 카메라, 레이더, 라이더, 초음파 센서 등의 내장된 가시선(LOS, 직선) 센서 등이 이를 보완하도록 한다. C-V2X 모듈(115)과 내장 센서를 함께 활용해 차량은 교차로의 사각지대나 악조건의 기상 환경에서도 주행 중 잠재적인 위험 요소를 보고, 듣고, 예측하도록 한다. 더불어 C-V2X 모듈(115)은 다른 C-V2X 차량이나 도로변 인프라(예를 들면, 신호등), 그리고 모바일 기기에서 보내는 경고를 수신하도록 한다. 단거리 C-V2X 직접통신을 광범위한 모바일 셀룰러 네트워크와 통합하여 장거리 통신 및 클라우드 접속에 활용함으로써 안정성은 크게 향상되고 교통 효율성 면에서도 도움이 되도록 한다.The C-V2X module 115 can perform a short-range direct communication mode capable of recognizing a 360-degree non-line-of-sight (NLOS, non-linear) path, and a built-in line-of-sight (such as a camera, radar, lidar, ultrasonic sensor, etc. to be described below) LOS, linear) sensors, etc. compensate for this. By using the C-V2X module 115 and built-in sensors together, the vehicle can see, hear, and predict potential risk factors while driving even in blind spots at intersections or in adverse weather conditions. In addition, the C-V2X module 115 allows to receive alerts from other C-V2X vehicles, roadside infrastructure (eg, traffic lights), and mobile devices. By integrating short-range C-V2X direct communications with extensive mobile cellular networks to leverage long-distance communications and cloud access, reliability is greatly improved and traffic efficiency is also beneficial.

3GPP 릴리즈14는 차량이 셀룰러망에 의존하지 않고 근거리의 타차량(V2V), 보행자(V2P), 인프라 시설물(V2I) 등 사실상 거의 모든 것과 통신하는 방식을 표준화한 직접통신 모드를 규정하고 있다. 이에 따라 도로 안전 및 교통 효율성 제고를 위해 전송되는, 지연 시간이 매우 중요한 기본 안전 메시지는 전 세계적으로 합의되어 있는 5.9GHz ITS 스펙트럼을 활용한 직접통신 모드를 사용해 전달된다. 그리고 C-V2X 기술이 지속적으로 발전하면서 3GPP 릴리즈16 NR C-V2X 직접통신 모드(혹은 사이드링크) 사양2 역시 셀룰러망을 사용하지 않고도 자율주행 기술을 강화할 수 있는 고급 사용 사례를 지원한다.3GPP Release 14 defines a direct communication mode that standardizes a method for vehicles to communicate with virtually everything, such as other vehicles (V2V), pedestrians (V2P), and infrastructure facilities (V2I) in a short distance without depending on the cellular network. As a result, basic, latency-critical safety messages transmitted to improve road safety and traffic efficiency are delivered using a direct communication mode utilizing the globally agreed upon 5.9 GHz ITS spectrum. And as C-V2X technology continues to evolve, the 3GPP Release 16 NR C-V2X direct mode (or sidelink) specification2 also supports advanced use cases that can enhance autonomous driving technology without using a cellular network.

사이드링크를 사용하는 V2V 혹은 V2I 기술은 C-V2X 모듈(115)을 통한 차량-네트워크(V2N) 통신으로 보완될 수 있다. 여기에는 셀룰러망을 통해 정보를 전달할 수 있도록 모바일 네트워크 통신사의 도움이 필요하다. V2N은 약 20년 간 텔레매틱스, 자동차 충돌 경보, 인포테인먼트, 지도 및 기타 소프트웨어 업데이트 등의 클라우드 서비스, 교통 정보 및 경로 안내, 그리고 최근에는 원격 감시 제어(원격조종) 등의 기능에 활용되어 왔다.V2V or V2I technology using sidelinks can be supplemented with vehicle-to-network (V2N) communication through the C-V2X module 115. This requires the help of the mobile network operator to deliver the information over the cellular network. V2N has been used for about 20 years for functions such as telematics, car collision alert, infotainment, cloud services such as maps and other software updates, traffic information and route guidance, and more recently, remote monitoring and control (remote control).

자동차 업계는 릴리즈14/15 NR C-V2X 사이드링크가 제공하는 기본 안전 메시지의 이점을 이미 확인했으며 SAE J2945/1 표준에 명시된 가장 일반적인 V2V 적용사례는 아래와 같다.The automotive industry has already seen the benefits of basic safety messages provided by Release 14/15 NR C-V2X sidelinks, and the most common V2V use cases specified in the SAE J2945/1 standard are:

- 전방 추돌 경보(FCW)- Forward Collision Warning (FCW)

- 교차로 이동 보조장치(IMA)- Intersection Mobility Assist (IMA)

- 사각 지대 경고/차선 변경 경고(BSW/LCW)- Blind Spot Warning/Lane Change Warning (BSW/LCW)

도로변 장치(RSU)와의 V2I 적용사례의 경우, 아래와 같은 일반적인 교통신호 안내 및 타이밍 시스템(SpaT)이 가능하다.For V2I use cases with roadside units (RSUs), generic traffic signal guidance and timing systems (SpaT) such as:

- 대중교통 우선신호 체계(TSP, Transit Signal Priority)- Transit Signal Priority (TSP)

- 최적화 속도 경고(OSA, Optimal Speed Advisory)- Optimal Speed Advisory (OSA)

- 급커브 감속 경고 (CSW, Curve Speed Warning)- Sharp curve deceleration warning (CSW, Curve Speed Warning)

- 긴급 차량 우선(PREEMPT, Emergency Vehicle Preempt)- PREEMPT (Emergency Vehicle Preempt)

- 횡단보도 보행자 경보(PED-X, Pedestrian in Signalized Crosswalk Warning)- Pedestrian in Signalized Crosswalk Warning (PED-X)

3GPP 릴리즈15에서는 릴리즈14에서 소개된 직접통신 모드가 발전해, 송신 다이버시티(순환지연 다이버시티)가 추가되고 그 기능도 향상되었다. 릴리즈15에 추가된 기능들은 릴리즈14와도 완벽히 호환된다.In 3GPP Release 15, the direct communication mode introduced in Release 14 has evolved, and transmit diversity (cyclic delay diversity) has been added and its functions have been improved. The features added in Release 15 are also fully compatible with Release 14.

NR C-V2X 사이드링크는 높은 처리량, 낮은 지연시간, 신뢰성 및 포지셔닝 향상 등 보다 개선된 성능을 보여주며, 이 모든 것이 종합적으로 작용해 자율주행 능력까지 향상시킬 수 있다. 이러한 기술 향상은 광대역 반송파(carrier) 지원 및 확장 가능한 부반송파(sub-carrier) 간격을 동반한 OFDM 기반 무선 인터페이스, 유연한 슬롯 기반 프레임워크와 같은 5G NR의 기능을 활용하거나, DMRS(Demodulation Reference Signals)를 속도 및 고급 채널 코딩 기능으로 만드는 방법을 활용하여 가능하다. 더불어 NR C-V2X 사이드링크는 사이드링크 시간 동기화를 지원해, GPS 커버리지 없이도 C-V2X 모듈(115)이 작동하도록 한다.The NR C-V2X sidelink shows improved performance, such as higher throughput, lower latency, improved reliability and positioning, all of which can work collectively to improve autonomous driving capabilities. These technology enhancements take advantage of features of 5G NR such as OFDM-based air interfaces with wideband carrier support and scalable sub-carrier spacing, flexible slot-based frameworks, or use of Demodulation Reference Signals (DMRS). This is possible by utilizing methods that make it faster and with advanced channel coding capabilities. In addition, the NR C-V2X sidelink supports sidelink time synchronization, allowing the C-V2X module 115 to operate without GPS coverage.

게다가 NR C-V2X 사이드링크는 운영 기본 모드를 브로드캐스트에서 신뢰가능한 멀티캐스트 통신으로 전환 가능하다. NR C-V2X 사이드링크는 물리적 계층에서 거리를 차원으로서 도입한 최초의 무선 시스템인데 이는 가시선 혹은 비가시선 시나리오 모두를 포함, 다양한 범위의 무선 환경에서 균일한 통신 범위를 얻는 데 도움이 된다. 거리를 하나의 차원으로서 도입하면, 거리와 어플리케이션을 기반으로 ‘즉각적인’ 멀티캐스트 그룹을 형성할 수 있다. 이렇게 형성된 멀티캐스트 그룹은 그룹 형성 및 해체에 오버헤드가 거의 필요 없다.Moreover, NR C-V2X sidelinks can switch the default mode of operation from broadcast to reliable multicast communication. NR C-V2X sidelink is the first wireless system to introduce distance as a dimension at the physical layer, which helps achieve uniform coverage in a wide range of radio environments, including both line-of-sight and line-of-sight scenarios. Introducing distance as a dimension allows for the formation of 'instant' multicast groups based on distance and application. Multicast groups formed in this way require little overhead for group formation and dismantling.

고급 사용 사례가 진화함에 따라, 원활한 무선 연결성의 중요성도 커지고 있다. NR C-V2X 사이드링크를 통해 차량은 다른 차량과의 의도를 공유, 보다 정교한 협력 주행이 가능해지도록 한다. NR C-V2X는 (의도 공유를 통해 교차로에서 발생할 수 있는 불확실성을 해소하여 교통 효율성을 높이는) 절충식 교차로 통화, 저지연 통신을 활용한 협력 차선 변경, 포지셔닝 정확도 향상, 거리 기반 즉각적 그룹 형성 등을 가능케 하도록 설계된다.As advanced use cases evolve, so does the importance of seamless wireless connectivity. Through NR C-V2X sidelinks, vehicles can share their intentions with other vehicles, enabling more sophisticated cooperative driving. NR C-V2X is a cross-sectional intersection call (which improves traffic efficiency by resolving uncertainty that may occur at intersections through intention sharing), cooperative lane change using low-latency communication, improved positioning accuracy, and immediate group formation based on distance. designed to enable

카메라, 레이더, 라이더, 초음파 센서부터로의 고 처리량 센서 데이터 공유, 3D 고화질 지도 정보 실시간 업데이트, 그리고 차량에 의해 가로막히거나 코너의 사각지내를 ‘볼 수 있는’ 능력 덕분에 차량은 상황 인지 및 집단 인식 능력이 향상되어, 도로 상황을 보다 잘 파악할 수 있게 된다. NR C-V2X 사이드링크는 또한 저지연성과 높은 처리량 덕분에 차량이 밀집한 지역에서도 차량 간 의도 공유를 가능케 한다.Thanks to the sharing of high-throughput sensor data from cameras, radar, lidar, and ultrasonic sensors, real-time updates of 3D high-definition map information, and the ability to 'see' within the blind spot of a corner or blocked by a vehicle, vehicles can achieve situational awareness and collective The cognitive ability is improved, so you can better understand the road conditions. NR C-V2X Sidelink also enables intent sharing between vehicles, even in densely populated areas thanks to its low latency and high throughput.

입력부(120)는 운전 조작 수단(121), 마이크로 폰(123) 및 사용자 입력부(124)를 포함할 수 있다.The input unit 120 may include a driving control unit 121, a microphone 123, and a user input unit 124.

운전 조작 수단(121)은 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단(121)은 조향 입력 수단(121a), 쉬프트 입력 수단(121b), 가속 입력 수단(121c), 브레이크 입력 수단(121d)을 포함할 수 있다.The driving control means 121 receives a user input for driving the vehicle 100 . The driving control unit 121 may include a steering input unit 121a, a shift input unit 121b, an acceleration input unit 121c, and a brake input unit 121d.

조향 입력 수단(121a)은 사용자로부터 차량(100)의 진행 방향 입력을 수신한다. 조향 입력 수단(121a)은 스티어링 휠을 포함할수 있다. 실시예에 따라, 조향 입력 수단(121a)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.The steering input means 121a receives an input of the driving direction of the vehicle 100 from the user. The steering input unit 121a may include a steering wheel. Depending on the embodiment, the steering input unit 121a may be formed as a touch screen, touch pad, or button.

쉬프트 입력 수단(121b)은 사용자로부터 차량(100)의 주차(P), 전진(D), 중립(N), 후진(R)의 입력을 수신한다. 쉬프트 입력 수단(121b)은 레버 형태로 형성되는 것이 바람직하다. 실시예에 따라, 쉬프트 입력 수단(121b)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.The shift input unit 121b receives inputs of parking (P), forward (D), neutral (N), and reverse (R) of the vehicle 100 from the user. The shift input unit 121b is preferably formed in a lever shape. Depending on the embodiment, the shift input unit 121b may be formed as a touch screen, touch pad, or button.

가속 입력 수단(121c)은 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단(121d)은 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다. 가속 입력 수단(121c) 및 브레이크 입력 수단(121d)은 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 수단(121c) 또는 브레이크 입력 수단(121d)은 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.The acceleration input unit 121c receives an input for acceleration of the vehicle 100 from a user. The brake input unit 121d receives an input for decelerating the vehicle 100 from the user. The acceleration input means 121c and the brake input means 121d are preferably formed in the form of pedals. Depending on the embodiment, the acceleration input unit 121c or the brake input unit 121d may be formed as a touch screen, touch pad, or button.

마이크로 폰(123)은 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(123)은 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 제어부(170)에 전달될 수 있다.The microphone 123 may process an external sound signal into electrical data. The processed data may be utilized in various ways depending on the function being performed in the vehicle 100 . The microphone 123 may convert a user's voice command into electrical data. The converted electrical data may be transmitted to the controller 170 .

한편, 실시예에 따라, 마이크로폰(123)는 입력부(120)에 포함되는 구성요소가 아닌, 센싱부(160)에 포함되는 구성요소일 수도 있다.Meanwhile, according to embodiments, the microphone 123 may be a component included in the sensing unit 160 rather than a component included in the input unit 120 .

사용자 입력부(124)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(124)를 통해, 정보가 입력되면, 제어부(170)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(124)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(124)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(124)를 조작할 수 있다.The user input unit 124 is for receiving information from a user. When information is input through the user input unit 124, the control unit 170 may control the operation of the vehicle 100 to correspond to the input information. The user input unit 124 may include a touch input means or a mechanical input means. Depending on the embodiment, the user input unit 124 may be disposed in one area of the steering wheel. In this case, the driver may manipulate the user input unit 124 with his/her fingers while holding the steering wheel.

입력부(120)는 복수의 버튼 또는 터치 센서를 구비할 수 있다. 복수의 버튼 또는 터치 센서를 통해, 다양한 입력 동작을 수행하는 것도 가능하다.The input unit 120 may include a plurality of buttons or touch sensors. It is also possible to perform various input operations through a plurality of buttons or touch sensors.

센싱부(160)는 차량(100)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센싱부(160)는 충돌 센서, 스티어링 센서(steering sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 적외선 센서, 레이더(162), 라이다(163), 초음파 센서(164) 등을 포함할 수 있다.The sensing unit 160 senses a signal related to driving of the vehicle 100 . To this end, the sensing unit 160 includes a collision sensor, a steering sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a yaw sensor, a gyro sensor, Position module, vehicle forward/backward sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle internal temperature sensor, vehicle internal humidity sensor, infrared sensor, radar 162, lidar ( 163), an ultrasonic sensor 164, and the like.

이에 의해, 센싱부(160)는 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도 등에 대한 센싱 신호를 획득할 수 있다. 또한, 제어부(170)는 차량(100)에 구비된 카메라, 초음파 센서, 적외선 센서, 레이더 및 라이다 중 적어도 어느 하나에 의해 획득된 외부 환경 정보를 기초로, 차량(100)의 가속, 감속, 방향 전환 등을 위한 제어신호를 생성할 수 있다. 여기서, 외부 환경 정보란, 주행 중인 차량(100)으로부터 소정 거리 범위 내에 위치하는 각종 객체와 관련된 정보일 수 있다. 예를 들어, 외부 환경 정보에는, 차량(100)으로부터 100m 내의 거리에 위치하는 장애물의 수, 장애물까지의 거리, 장애물의 크기, 장애물의 유형 등에 관한 정보가 포함될 수 있다.Accordingly, the sensing unit 160 provides vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/backward information, battery information, Sensing signals for fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, and the like may be acquired. In addition, the controller 170 accelerates, decelerates, decelerates, and A control signal for direction change, etc. may be generated. Here, the external environment information may be information related to various objects located within a predetermined distance range from the driving vehicle 100 . For example, the external environment information may include information about the number of obstacles located within a distance of 100 m from the vehicle 100, the distance to the obstacle, the size of the obstacle, and the type of the obstacle.

한편, 센싱부(160)는 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS) 등을 더 포함할 수 있다.Meanwhile, the sensing unit 160 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position. A sensor (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.

센싱부(160)는 생체 인식 정보 감지부를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 감지하여 획득한다. 생체 인식 정보는 지문 인식(Fingerprint) 정보, 홍채 인식(Iris-scan) 정보, 망막 인식(Retina-scan) 정보, 손모양(Hand geo-metry) 정보, 안면 인식(Facial recognition) 정보, 음성 인식(Voice recognition) 정보를 포함할 수 있다. 생체 인식 정보 감지부는 탑승자의 생체 인식 정보를 센싱하는 센서를 포함할 수 있다. 여기서, 마이크로 폰(123)이 센서로 동작할 수 있다.The sensing unit 160 may include a biometric information sensing unit. The biometric information detection unit detects and obtains the biometric information of the occupant. Biometric information includes fingerprint recognition information, iris-scan information, retina-scan information, hand geo-metry information, facial recognition information, voice recognition ( Voice recognition) information may be included. The biometric information detection unit may include a sensor that senses the biometric information of the occupant. Here, the microphone 123 may operate as a sensor.

센싱부(160)는 차량(100)의 외부를 촬영하는 적어도 하나 이상의 카메라(161)를 포함할 수 있다. 카메라(161)는 외부 카메라로 명명될 수 있다. 예를 들어, 센싱부(160)는 차량 외관의 서로 다른 위치에 배치되는 복수의 카메라(161)들을 포함할 수 있다. 이러한 카메라(161)는 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라(161)는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The sensing unit 160 may include at least one camera 161 that photographs the exterior of the vehicle 100 . The camera 161 may be referred to as an external camera. For example, the sensing unit 160 may include a plurality of cameras 161 disposed at different locations on the exterior of the vehicle. The camera 161 may include an image sensor and an image processing module. The camera 161 may process still images or moving images obtained by an image sensor (eg, CMOS or CCD). The image processing module may process a still image or video obtained through an image sensor, extract necessary information, and deliver the extracted information to the controller 170 .

카메라(161)는 이미지 센서(예를 들면, CMOS 또는 CCD)와 영상 처리 모듈을 포함할 수 있다. 또한, 카메라(161)는 이미지 센서에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공할 수 있다. 또한, 카메라(161)는 신호등, 교통 표지판, 보행자, 타차량 및 노면 중 적어도 하나를 포함하는 영상을 획득할 수 있다.The camera 161 may include an image sensor (eg, CMOS or CCD) and an image processing module. Also, the camera 161 may process a still image or moving image obtained by an image sensor. The image processing module may process a still image or video obtained through an image sensor. Also, the camera 161 may obtain an image including at least one of traffic lights, traffic signs, pedestrians, other vehicles, and road surfaces.

출력부(140)는 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부(141), 음향 출력부(142) 및 햅틱 출력부(143)를 포함할 수 있다.The output unit 140 is for outputting information processed by the controller 170 and may include a display unit 141 , a sound output unit 142 and a haptic output unit 143 .

디스플레이부(141)는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(141)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.The display unit 141 may display information processed by the controller 170 . For example, the display unit 141 may display vehicle-related information. Here, the vehicle-related information may include vehicle control information for direct control of the vehicle or vehicle driving assistance information for driving guidance to the vehicle driver. In addition, the vehicle-related information may include vehicle state information indicating a current state of the vehicle or vehicle driving information related to driving of the vehicle.

디스플레이부(141)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 141 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. display), a 3D display, and an e-ink display.

디스플레이부(141)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은 차량(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(124)로써 기능함과 동시에, 차량(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(141)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(141)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(141)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(170)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display unit 141 may implement a touch screen by forming a mutual layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 124 providing an input interface between the vehicle 100 and the user, and may provide an output interface between the vehicle 100 and the user. In this case, the display unit 141 may include a touch sensor that detects a touch on the display unit 141 so that a control command can be input by a touch method. Using this, when a touch is made to the display unit 141, the touch sensor can sense the touch, and the controller 170 can generate a control command corresponding to the touch based on this. Contents input by the touch method may be letters or numbers, or menu items that can be instructed or designated in various modes.

한편, 디스플레이부(141)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는 시선을 차량 전방에 유지한채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit 141 may include a cluster so that the driver can check vehicle condition information or vehicle driving information while driving. Clusters can be located above the dashboard. In this case, the driver can check the information displayed on the cluster while keeping his/her gaze in front of the vehicle.

한편, 실시예에 따라, 디스플레이부(141)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(141)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(141)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.Meanwhile, according to embodiments, the display unit 141 may be implemented as a Head Up Display (HUD). When the display unit 141 is implemented as a HUD, information may be output through a transparent display provided on the windshield. Alternatively, the display unit 141 may include a projection module to output information through an image projected on the windshield.

음향 출력부(142)는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(142)는 스피커 등을 구비할 수 있다. 음향 출력부(142)는, 사용자 입력부(124) 동작에 대응하는 사운드를 출력하는 것도 가능하다.The audio output unit 142 converts the electrical signal from the control unit 170 into an audio signal and outputs it. To this end, the sound output unit 142 may include a speaker or the like. The sound output unit 142 may also output a sound corresponding to an operation of the user input unit 124 .

햅틱 출력부(143)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(143)는 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.The haptic output unit 143 generates a tactile output. For example, the haptic output unit 143 may vibrate a steering wheel, a safety belt, and a seat so that the user can recognize the output.

차량 구동부(150)는 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부(151), 조향 구동부(152), 브레이크 구동부(153), 램프 구동부(154), 공조 구동부(155), 윈도우 구동부(156), 에어백 구동부(157), 썬루프 구동부(158) 및 와이퍼 구동부(159) 중 적어도 하나 이상을 포함할 수 있다.The vehicle driving unit 150 may control the operation of various vehicle devices. The vehicle driving unit 150 includes a power source driving unit 151, a steering driving unit 152, a brake driving unit 153, a lamp driving unit 154, an air conditioning driving unit 155, a window driving unit 156, an airbag driving unit 157, a sunroof At least one of the driving unit 158 and the wiper driving unit 159 may be included.

동력원 구동부(151)는 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 동력원 구동부(151)는 차량(100)의 속도를 증가시키는 가속 장치 및 차량(100)의 속도를 감소시키는 감속 장치를 포함할 수 있다.The power source driver 151 may perform electronic control of the power source in the vehicle 100 . The power source driver 151 may include an accelerator that increases the speed of the vehicle 100 and a deceleration device that reduces the speed of the vehicle 100 .

예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(151)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(151)가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.For example, when a fossil fuel-based engine (not shown) is the power source, the power source driver 151 may perform electronic control of the engine. This makes it possible to control the output torque of the engine and the like. When the power source driving unit 151 is an engine, the speed of the vehicle may be limited by limiting engine output torque under the control of the control unit 170 .

다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(151)는 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.As another example, when an electric motor (not shown) is a power source, the power source driver 151 may control the motor. This makes it possible to control the rotational speed and torque of the motor.

조향 구동부(152)는 조향 장치(steering apparatus)를 포함할 수 있다. 이에, 조향 구동부(152)는 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 조향 구동부(152)에는 조향토크센서, 조향각센서 및 조향모터가 구비될 수 있고, 운전자가 스티어링 휠에 가하는 조향토크는 조향토크센서에 의해 감지될 수 있다. 조향 구동부(152)는 차량(100)의 속도 및 조향토크 등을 기초로, 조향모터에 인가되는 전류의 크기와 방향을 변경함으로써, 조향력과 조향각을 제어할 수 있다. 또한, 조향 구동부(152)는 조향각센서에 의해 획득된 조향각 정보를 기초로, 차량(100)의 주행방향이 제대로 조절되고 있는 상태인지 판단할 수 있다. 이에 의해, 차량의 주행 방향을 변경할 수 있다. 또한, 조향 구동부(152)는 차량(100)이 저속 주행 시에는 조향모터의 조향력을 증가시켜 스티어링 휠의 무게감을 낮추고, 차량(100)이 고속 주행 시에는 조향모터의 조향력을 감소시켜 스티어링 휠의 무게감을 높일 수 있다. 또한, 차량(100)의 자율 주행 기능이 실행된 경우, 조향 구동부(152)는 운전자가 스티어링 휠을 조작하는 상황(예, 조향토크가 감지되지 않는 상황)에서도, 센싱부(160)가 출력하는 센싱 신호 또는 제어부(170)가 제공하는 제어신호 등을 기초로, 조향모터가 적절한 조향력을 발생시키도록 제어할 수도 있다.The steering driver 152 may include a steering apparatus. Accordingly, the steering driving unit 152 may perform electronic control of a steering apparatus in the vehicle 100 . For example, the steering driver 152 may include a steering torque sensor, a steering angle sensor, and a steering motor, and steering torque applied to a steering wheel by a driver may be detected by the steering torque sensor. The steering driver 152 may control the steering force and steering angle by changing the magnitude and direction of the current applied to the steering motor based on the speed and steering torque of the vehicle 100 . Also, the steering driver 152 may determine whether the driving direction of the vehicle 100 is properly adjusted based on the steering angle information acquired by the steering angle sensor. This makes it possible to change the driving direction of the vehicle. In addition, the steering drive unit 152 reduces the weight of the steering wheel by increasing the steering force of the steering motor when the vehicle 100 travels at a low speed, and reduces the steering force of the steering motor when the vehicle 100 travels at a high speed so as to reduce the weight of the steering wheel. weight can be increased. In addition, when the autonomous driving function of the vehicle 100 is executed, the steering driving unit 152 outputs the sensing unit 160 even in a situation where the driver operates the steering wheel (eg, a situation in which steering torque is not detected). Based on a sensing signal or a control signal provided by the controller 170, the steering motor may be controlled to generate an appropriate steering force.

브레이크 구동부(153)는 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driver 153 may perform electronic control of a brake apparatus (not shown) in the vehicle 100 . For example, the speed of the vehicle 100 may be reduced by controlling the operation of brakes disposed on wheels. As another example, the driving direction of the vehicle 100 may be adjusted to the left or right by differentiating the operation of the brakes respectively disposed on the left and right wheels.

램프 구동부(154)는 차량 내, 외부에 배치되는 적어도 하나 이상의 램프의 턴 온/턴 오프를 제어할 수 있다. 램프 구동부(154)는 조명 장치를 포함할 수 있다. 또한, 램프 구동부(154)는 조명 장치에 포함된 램프 각각이 출력하는 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 헤드램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit 154 may control turning on/off of at least one or more lamps disposed inside or outside the vehicle. The lamp driver 154 may include a lighting device. In addition, the lamp driver 154 may control the intensity and direction of light output from each lamp included in the lighting device. For example, control of direction indicator lamps, head lamps, and brake lamps may be performed.

공조 구동부(155)는 차량(100) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.The air conditioning driver 155 may perform electronic control of an air cinditioner (not shown) in the vehicle 100 . For example, when the temperature inside the vehicle is high, the air conditioner may be operated to supply cool air to the inside of the vehicle.

윈도우 구동부(156)는 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.The window driver 156 may perform electronic control of a window apparatus in the vehicle 100 . For example, it is possible to control the opening or closing of left and right windows on the side of the vehicle.

에어백 구동부(157)는 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.The airbag driving unit 157 may perform electronic control of an airbag apparatus in the vehicle 100 . For example, in case of danger, the airbag can be controlled to explode.

썬루프 구동부(158)는 차량(100) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.The sunroof driving unit 158 may perform electronic control of a sunroof apparatus (not shown) in the vehicle 100 . For example, the opening or closing of the sunroof can be controlled.

와이퍼 구동부(159)는 차량(100)에 구비된 와이퍼(14a, 14b)에 대한 제어를 수행할 수 있다. 예를 들어, 와이퍼 구동부(159)는 사용자 입력부(124)를 통해 와이퍼를 구동할 것을 명령하는 사용자 입력을 수신 시, 사용자 입력에 따라 와이퍼(14a, 14b)의 구동 횟수, 구동 속도 등에 대한 전자식 제어를 수행할 수 있다. 다른 예를 들어, 와이퍼 구동부(159)는 센싱부(160)에 포함된 레인센서(rain sensor)의 센싱 신호를 기초로, 빗물의 양 또는 세기를 판단하여, 사용자 입력없이도 와이퍼(14a, 14b)를 자동적으로 구동할 수 있다.The wiper driver 159 may control the wipers 14a and 14b provided in the vehicle 100 . For example, when receiving a user input commanding to drive the wipers through the user input unit 124, the wiper drive unit 159 performs electronic control of the driving frequency and driving speed of the wipers 14a and 14b according to the user input. can be performed. For another example, the wiper driving unit 159 determines the amount or strength of rainwater based on the sensing signal of the rain sensor included in the sensing unit 160, and wipers 14a and 14b without user input. can run automatically.

한편, 차량 구동부(150)는 서스펜션 구동부(미도시)를 더 포함할 수 있다. 서스펜션 구동부는 차량(100) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.Meanwhile, the vehicle driving unit 150 may further include a suspension driving unit (not shown). The suspension driving unit may perform electronic control of a suspension apparatus (not shown) in the vehicle 100 . For example, when there is a curve on the road surface, the vibration of the vehicle 100 may be reduced by controlling the suspension device.

메모리(130)는 제어부(170)와 전기적으로 연결된다. 메모리(170)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(190)는 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 130 is electrically connected to the control unit 170 . The memory 170 may store basic data for the unit, control data for controlling the operation of the unit, and input/output data. In terms of hardware, the memory 190 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, and the like. The memory 130 may store various data for overall operation of the vehicle 100, such as a program for processing or control by the control unit 170.

인터페이스부(180)는 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 외부 기기와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 외부 기기와 통신 연결할 수 있다. 이경우, 인터페이스부(180)는 외부 기기와 데이터를 교환할 수 있다.The interface unit 180 may serve as a passage for various types of external devices connected to the vehicle 100 . For example, the interface unit 180 may have a port connectable to an external device, and communicate with the external device through the port. In this case, the interface unit 180 may exchange data with an external device.

인터페이스부(180)는 턴 시그널 정보를 수신할 수 있다. 여기서, 턴 시그널 정보는 사용자에 의해 입력된 좌회전 또는 우회전을 위한 방향 지시등의 턴 온(turn on) 시그널일 수 있다. 차량(100)의 사용자 입력부(도 1의 124)를 통해, 좌측 또는 우측 방향 지시등 턴 온 입력이 수신되는 경우, 인터페이스부(180)는 좌측 또는 우측 방향 턴 시그널 정보를 수신할 수 있다.The interface unit 180 may receive turn signal information. Here, the turn signal information may be a turn on signal of a direction indicator lamp for left turn or right turn input by the user. When a left or right direction indicator turn on input is received through the user input unit ( 124 in FIG. 1 ) of the vehicle 100 , the interface unit 180 may receive left or right turn signal information.

인터페이스부(180)는 차량 속도 정보, 스티어링 휠의 회전 각도 정보 또는 기어 쉬프트 정보를 수신할 수 있다. 인터페이스부(180)는 차량의 센싱부(160)를 통해 센싱된 차량 속도 정보, 스티어링 휠 회전 각도 정보, 또는 기어 쉬프트 정보를 수신할 수 있다. 또는, 인터페이스부(180)는 차량의 제어부(170)로부터 차량 속도 정보, 스티어링 휠 회전 각도 정보 또는 기어 쉬프트 정보를 수신할 수 있다. 한편, 여기서, 기어 쉬프트 정보는, 차량의 변속 레버가 어느 상태에 있는지에 대한 정보일 수 있다. 예를 들면, 기어 쉬프트 정보는 변속 레버가 주차(P), 후진(R), 중립(N), 주행(D), 1 내지 다단 기어 상태 중 어느 하나 중 어느 상태에 있는지에 대한 정보일 수 있다.The interface unit 180 may receive vehicle speed information, steering wheel rotation angle information, or gear shift information. The interface unit 180 may receive vehicle speed information, steering wheel rotation angle information, or gear shift information sensed through the sensing unit 160 of the vehicle. Alternatively, the interface unit 180 may receive vehicle speed information, steering wheel rotation angle information, or gear shift information from the vehicle control unit 170 . Meanwhile, here, the gear shift information may be information about the state of the shift lever of the vehicle. For example, the gear shift information may be information on which one of the parking (P), reverse (R), neutral (N), driving (D), and first to multi-level gear states the shift lever is in. .

인터페이스부(180)는 차량(100)의 사용자 입력부(124)를 통해 수신되는 사용자 입력을 수신할 수 있다. 인터페이스부(180)는 사용자 입력을 차량(100)의 입력부(120)로부터 수신하거나, 제어부(170)를 거쳐 수신할 수 있다.The interface unit 180 may receive a user input received through the user input unit 124 of the vehicle 100 . The interface unit 180 may receive user input from the input unit 120 of the vehicle 100 or through the control unit 170 .

인터페이스부(180)는 외부 기기로부터 획득된 정보를 수신할 수 있다. 예를 들면, 차량(100)의 통신부(110)를 통해 외부 서버로부터 신호등 변경 정보가 수신되는 경우, 인터페이스부(180)는 상기 신호등 변경 정보를 제어부(170)로부터 수신할 수 있다.The interface unit 180 may receive information obtained from an external device. For example, when traffic light change information is received from an external server through the communication unit 110 of the vehicle 100, the interface unit 180 may receive the traffic light change information from the control unit 170.

제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.The controller 170 may control overall operations of each unit in the vehicle 100 . The controller 170 may be referred to as an Electronic Control Unit (ECU).

제어부(170)는 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어부(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 제어부(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The controller 170 may be configured in terms of hardware, such as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors ), controllers, micro-controllers, microprocessors, and other electrical units for performing functions.

전원부(190)는 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원부(170)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 190 may supply power required for operation of each component under the control of the control unit 170 . In particular, the power supply unit 170 may receive power from a battery (not shown) inside the vehicle.

AVN(Audio Video Navigation) 장치(200)는 제어부(170)와 데이터를 교환할 수 있다. 제어부(170)는 AVN 장치(200)로부터 내비게이션 정보를 수신할 수 있다. 여기서, 여기서, 내비게이션 정보는 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 차량 주행과 관련한, 맵(map) 정보 또는 차량 위치 정보를 포함할 수 있다.The AVN (Audio Video Navigation) device 200 may exchange data with the controller 170 . The controller 170 may receive navigation information from the AVN device 200 . Here, the navigation information may include set destination information, route information according to the destination, map information related to vehicle driving, or vehicle location information.

한편, 도 1에 도시된 구성요소들 중 일부는 차량(100)를 구현하는데 있어서 필수적인 것이 아닐 수 있다. 따라서, 본 명세서 상에서 설명되는 차량(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Meanwhile, some of the components shown in FIG. 1 may not be essential to implement the vehicle 100 . Accordingly, the vehicle 100 described herein may have more or fewer components than those listed above.

도 2는 도 1에 도시된 차량(100)의 예시적인 외관을 보여준다.FIG. 2 shows an exemplary appearance of the vehicle 100 shown in FIG. 1 .

도 2를 참조하면, 차량(100) 외관의 서로 다른 위치에는 4개의 카메라들(161a, 161b, 161c, 161d)이 장착될 수 있다. 4개의 카메라들(161a, 161b, 161c, 161d) 각각은 전술한 카메라(161)와 동일할 수 있다. 복수의 카메라들(161a, 161b, 161c, 161d)는 각각 차량(100)의 전방, 좌측, 우측 및 후방에 배치될 수 있다. 복수의 카메라들(161a, 161b, 161c, 161d) 각각은 도 1에 도시된 카메라(161)에 포함되는 것일 수 있다.Referring to FIG. 2 , four cameras 161a, 161b, 161c, and 161d may be mounted at different locations on the exterior of the vehicle 100. Each of the four cameras 161a, 161b, 161c, and 161d may be the same as the camera 161 described above. The plurality of cameras 161a, 161b, 161c, and 161d may be disposed on the front, left, right, and rear sides of the vehicle 100, respectively. Each of the plurality of cameras 161a, 161b, 161c, and 161d may be included in the camera 161 shown in FIG. 1 .

전방 카메라(161a)는 윈드 쉴드 부근, 앰블럼 부근 또는 라디에이터 그릴 부근에 배치될 수 있다.The front camera 161a may be placed near the windshield, emblem, or radiator grill.

좌측 카메라(161b)는 좌측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 또는, 좌측 카메라(161b)는 좌측 사이드 미러를 둘러싸는 케이스 외부에 배치될 수 있다. 또는, 좌측 카메라(161b)는 좌측 프런트 도어, 좌측 리어 도어 또는 좌측 휀더(fender) 외측 일 영역에 배치될 수 있다.The left camera 161b may be disposed in a case surrounding a left side mirror. Alternatively, the left camera 161b may be disposed outside the case surrounding the left side mirror. Alternatively, the left camera 161b may be disposed in an area outside the left front door, the left rear door, or the left fender.

우측 카메라(161c)는 우측 사이드 미러를 둘러싸는 케이스 내에 배치될 수 있다. 또는 우측 카메라(161c)는, 우측 사이드 미러를 둘러싸는 케이스 외부에 배치될 수 있다. 또는, 우측 카메라(161c)는 우측 프런트 도어, 우측 리어 도어 또는 우측 펜더(fender) 외측 일 영역에 배치될 수 있다.The right camera 161c may be disposed in a case surrounding a right side mirror. Alternatively, the right camera 161c may be disposed outside the case surrounding the right side mirror. Alternatively, the right camera 161c may be disposed in an area outside a right front door, a right rear door, or a right fender.

한편, 후방 카메라(161d)는 후방 번호판 또는 트렁크 스위치 부근에 배치될 수 있다.Meanwhile, the rear camera 161d may be disposed near a rear license plate or a trunk switch.

복수의 카메라(161a, 161b, 161c, 161d)에서 촬영된 각각의 이미지는 제어부(170)에 전달되고, 제어부(170)는 각각의 이미지를 합성하여, 차량의 방향별 외부 영상을 생성할 수 있다. 또는, 복수의 카메라(161a, 161b, 161c, 161d)에서 촬영된 각각의 이미지는 후술할 증강현실 제공 장치(400)의 프로세서(470)에 전달되고, 프로세서(470)는 각각의 이미지를 합성하여, 차량의 방향별 외부 영상을 생성할 수도 있다.Each image captured by the plurality of cameras 161a, 161b, 161c, and 161d is transmitted to the controller 170, and the controller 170 synthesizes the respective images to generate an external image for each direction of the vehicle. . Alternatively, each image captured by the plurality of cameras 161a, 161b, 161c, and 161d is transmitted to the processor 470 of the augmented reality providing device 400 to be described later, and the processor 470 synthesizes the respective images , external images for each direction of the vehicle may be generated.

도 3은 도 2에 도시된 복수의 카메라들(161a, 161b, 161c, 161d)에 의해 생성되는 영상들의 일 예를 보여준다.FIG. 3 shows an example of images generated by the plurality of cameras 161a, 161b, 161c, and 161d shown in FIG. 2 .

도 3을 참조하면, 차량(100)은 합성 영상(300)을 생성할 수 있다. 합성 영상(300)은 전방 카메라(161a)에 의해 촬영된 외부 영상에 대응하는 제1이미지 영역(301), 좌측 카메라(161b)에 의해 촬영된 외부 영상에 대응하는 제2이미지 영역(302), 우측 카메라(161c)에 의해 촬영된 외부 영상에 대응하는 제3 이미지 영역(303) 및 후방 카메라(161d)에 의해 촬영된 외부 영상에 대응하는 제4 이미지 영역(304)을 포함할 수 있다. 합성 영상(300)은 어라운드 뷰 모니터링(AVM, Around View Monitoring) 영상으로 명명될 수 있다.Referring to FIG. 3 , the vehicle 100 may generate a synthesized image 300 . The synthesized image 300 includes a first image area 301 corresponding to an external image captured by the front camera 161a, a second image area 302 corresponding to an external image captured by the left camera 161b, A third image area 303 corresponding to an external image captured by the right camera 161c and a fourth image area 304 corresponding to an external image captured by the rear camera 161d may be included. The synthesized image 300 may be named an Around View Monitoring (AVM) image.

합성 영상(300) 생성 시, 합성 영상(300)에 포함된 어느 두 외부 영상 간에는 경계선(311, 312, 313, 314)이 발생한다. 차량(100)은 경계선(311, 312, 313, 314)을 이미지 블렌딩(blending) 처리하여 자연스럽게 표시될 수 있다.When the synthesized image 300 is generated, boundaries 311 , 312 , 313 , and 314 are generated between any two external images included in the synthesized image 300 . The vehicle 100 may be naturally displayed by image blending of the boundary lines 311 , 312 , 313 , and 314 .

또한, 합성 영상(300)의 중앙에는 차량(100)을 가리키는 것으로 기 설정된 이미지가 포함될 수 있다. 또한, 합성 영상(300)은 차량(100)에 장착된 증강현실 제공 장치(400) 상에 표시될 수 있다.In addition, a preset image pointing to the vehicle 100 may be included in the center of the synthesized image 300 . In addition, the synthesized image 300 may be displayed on the augmented reality providing device 400 mounted on the vehicle 100 .

도 4는 도 1을 참조하여 전술한 차량(100)의 일 예를 보여준다. 설명의 편의를 위해, 차량(100)은 4륜 자동차인 것으로 가정한다.FIG. 4 shows an example of the vehicle 100 described above with reference to FIG. 1 . For convenience of explanation, it is assumed that the vehicle 100 is a four-wheeled vehicle.

도 4를 참조하면, 차량(100)은 적어도 하나 이상의 레이더(162), 라이다(163) 및 초음파 센서(164)를 포함할 수 있다.Referring to FIG. 4 , the vehicle 100 may include one or more of a radar 162 , a lidar 163 , and an ultrasonic sensor 164 .

레이더(162)는 차량(100)의 일측에 장착되어, 차량(100)의 주변을 향하여 전자기파를 발사하고, 차량(100)의 주변에 존재하는 각종 객체에서 반사되는 전자기파를 수신할 수 있다. 예를 들어, 레이더(162)는 어느 한 객체에 의해 반사되어 돌아온 전자기파의 시간을 측정하여, 해당 객체의 거리, 방향, 고도 등과 관련된 정보를 획득할 수 있다.The radar 162 may be mounted on one side of the vehicle 100, emit electromagnetic waves toward the periphery of the vehicle 100, and receive electromagnetic waves reflected from various objects existing around the vehicle 100. For example, the radar 162 may obtain information related to the distance, direction, altitude, and the like of the object by measuring the time of the electromagnetic wave reflected and returned by an object.

라이다(163)는 차량(100)의 일측에 장착되어, 차량(100)의 주변을 향하여 레이저를 발사할 수 있다. 라이다(163)에 의해 발사된 레이저는 산란되거나 반사되어 차량(100)으로 되돌아올 수 있고, 라이다(163)는 레이저가 되돌아오는 시간, 강도, 주파수의 변화, 편광 상태의 변화를 기초로, 차량(100)의 주변에 위치하는 타겟의 거리, 속도, 형상 등의 물리적 특성에 대한 정보를 획득할 수 있다.The lidar 163 may be mounted on one side of the vehicle 100 and emit a laser toward the periphery of the vehicle 100 . The laser emitted by the LIDAR 163 may be scattered or reflected and returned to the vehicle 100, and the LIDAR 163 may determine the return time, intensity, frequency change, and polarization state change based on the laser beam 163. , Information on physical characteristics such as distance, speed, and shape of a target located around the vehicle 100 may be obtained.

초음파 센서(164)는 차량(100)의 일측에 장착되어, 차량(100)의 주변을 향하여 초음파를 발생시킨다. 초음파 센서(164)에 의해 발생되는 초음파는 주파수(약, 20KHz 이상)가 높고 파장이 짧은 특성을 가진다. 이러한 초음파 센서(164)는 주로 차량(100)과 근접한 장애물 등을 인식하는 데에 이용될 수 있다.The ultrasonic sensor 164 is mounted on one side of the vehicle 100 and generates ultrasonic waves toward the periphery of the vehicle 100 . The ultrasonic wave generated by the ultrasonic sensor 164 has a high frequency (about 20 KHz or more) and a short wavelength. The ultrasonic sensor 164 may be mainly used to recognize an obstacle or the like close to the vehicle 100 .

도 4에 도시된 레이더(162), 라이다(163) 및 초음파 센서(164)은 도 1에 도시된 센싱부(160)에 포함되는 센서들일 수 있다. 또한, 실시예에 따라, 레이더(162), 라이다(163) 및 초음파 센서(164)는 도 4에 도시된 것과는 다른 위치에 다른 개수로 장착될 수 있다는 것은 당업자에게 자명하다.The radar 162 , lidar 163 , and ultrasonic sensor 164 shown in FIG. 4 may be sensors included in the sensing unit 160 shown in FIG. 1 . In addition, it is obvious to those skilled in the art that the radar 162, the lidar 163, and the ultrasonic sensor 164 may be mounted in a different number at a location different from that shown in FIG. 4, depending on the embodiment.

도 5는 본 발명의 일 실시예에 따른 디스플레이 장치(500)의 개략적인 구성에 대한 블록 다이어그램을 보여준다.5 shows a block diagram of a schematic configuration of a display device 500 according to an embodiment of the present invention.

디스플레이 장치(500)는 도 1에 도시된 카메라(161)로부터 수신되는 이미지를, 컴퓨터 비젼(computer vision) 기반의 신호 처리를 통해, 차량 관련 정보를 생성할 수 있다. 여기서 차량 관련 정보는 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다.The display device 500 may generate vehicle-related information from an image received from the camera 161 shown in FIG. 1 through computer vision-based signal processing. Here, the vehicle-related information may include vehicle control information for direct control of the vehicle or vehicle driving assistance information for driving guidance to the driver of the vehicle.

도 5를 참조하면, 디스플레이 장치(500)는 입력부(510), 통신부(520), 인터페이스부(530), 메모리(540), 프로세서(570), 디스플레이부(580) 및 전원 공급부(590)를 포함할 수 있다. 다만, 실시예에 따라, 도 5에 도시된 구성 요소 중 일부가 생략되거나, 새로운 구성 요소가 더 포함될 수 있다. 예를 들어, 도 1에 도시된 센싱부(160)에 포함된 일부 구성 요소는 차량(100)이 아닌 디스플레이 장치(500)에 포함될 수 있다.Referring to FIG. 5 , the display device 500 includes an input unit 510, a communication unit 520, an interface unit 530, a memory 540, a processor 570, a display unit 580, and a power supply unit 590. can include However, according to embodiments, some of the components shown in FIG. 5 may be omitted or new components may be further included. For example, some components included in the sensing unit 160 shown in FIG. 1 may be included in the display device 500 instead of the vehicle 100 .

입력부(510)는 복수의 버튼, 스위치 또는 터치 스크린 등 차량(100)의 탑승자로부터 디스플레이 장치(500)에 대한 각종 명령을 수신하기 위한 물리적인 입력 수단을 구비할 수 있다. 복수의 버튼, 스위치 또는 터치 스크린을 통해, 디스플레이 장치(500)의 전원을 온 시켜, 동작시키는 것이 가능하다. 그 외, 다양한 입력 동작을 수행하는 것도 가능하다.The input unit 510 may include a plurality of buttons, switches, or a physical input means for receiving various commands for the display device 500 from a passenger of the vehicle 100 such as a touch screen. It is possible to turn on and operate the power of the display device 500 through a plurality of buttons, switches, or a touch screen. In addition, it is also possible to perform various input operations.

통신부(520)는 적어도 하나의 신호 수신기가 구비되어, 차량(100)의 탑승자의 모바일 단말기, 외부 서버, 타차량 등의 외부 기기와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 이때, 신호 수신기는 하드웨어 기반의 물리적인 신호 수신 장치일 수 있다. 예컨대, 신호 수신기는 적어도 하나의 주파수 대역의 신호를 수신하도록 설계된 안테나를 포함할 수 있다.The communication unit 520 is provided with at least one signal receiver, and can exchange data with external devices such as a mobile terminal of a passenger of the vehicle 100, an external server, or another vehicle in a wireless manner. In this case, the signal receiver may be a hardware-based physical signal receiving device. For example, the signal receiver may include an antenna designed to receive signals of at least one frequency band.

통신부(520)는 차량 운전자의 모바일 단말기와 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX, NFC 등 다양한 데이터 통신 방식이 가능하다.The communication unit 520 may wirelessly exchange data with the vehicle driver's mobile terminal. As a wireless data communication method, various data communication methods such as Bluetooth, WiFi Direct, WiFi, APiX, and NFC are possible.

통신부(520)는 외부 서버로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들면, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. 한편, 디스플레이 장치(500)에서, 파악한 실시간 정보를, 외부 기기로 전송할 수도 있다.The communication unit 520 may receive weather information and road traffic condition information, eg, Transport Protocol Expert Group (TPEG) information, from an external server. Meanwhile, the display device 500 may transmit the identified real-time information to an external device.

한편, 사용자가 차량에 탑승한 경우, 사용자의 모바일 단말기와 디스플레이 장치(500)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링(pairing)을 수행할 수 있다.Meanwhile, when a user gets into a vehicle, the user's mobile terminal and the display device 500 may perform pairing with each other automatically or by the user's application execution.

통신부(520)는 외부 서버로부터 신호등 변경 정보를 수신할 수 있다. 여기서, 외부 서버는 교통을 관제하는 교통 관제소에 위치하는 서버일 수 있다.The communication unit 520 may receive traffic light change information from an external server. Here, the external server may be a server located in a traffic control center that controls traffic.

인터페이스부(530)는 차량 관련 데이터를 수신하거나, 프로세서(570)에서 처리 또는 생성된 신호를 외부로 전송할 수 있다. 인터페이스부(530)는 차량(100) 또는 차량(100) 내의 외부 기기와 유무선 네트워크를 형성하여, 차량(100) 및/또는 외부 기기(600)와 데이터 통신을 수행할 수 있다. 일 예로, 인터페이스부(530)는 제어부(170), AVN(Audio Video Navigation) 장치(200), 센싱부(160) 등과 데이터 통신을 수행할 수 있다. 다른 예로, 인터페이스부(530)는 차량(100)의 실내에 위치하는 모바일 단말기, USB 메모리, SD 카드, 등과 같은 외부 장치(600)로부터 내비게이션 정보나 콘텐츠 데이터 등을 수신하고, 이를 프로세서(570)에 제공할 수 있다. 이를 위해, 인터페이스부(530)는 외부 장치(600)와의 통신을 위한 적어도 하나의 물리적 포트를 구비할 수 있다.The interface unit 530 may receive vehicle-related data or transmit a signal processed or generated by the processor 570 to the outside. The interface unit 530 may perform data communication with the vehicle 100 and/or the external device 600 by forming a wired/wireless network with the vehicle 100 or an external device within the vehicle 100 . For example, the interface unit 530 may perform data communication with the control unit 170 , the audio video navigation (AVN) device 200 , and the sensing unit 160 . As another example, the interface unit 530 receives navigation information or content data from an external device 600 such as a mobile terminal, a USB memory, an SD card, etc. located inside the vehicle 100, and transmits the navigation information or content data to the processor 570. can be provided to To this end, the interface unit 530 may include at least one physical port for communication with the external device 600 .

내비게이션 정보는 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 차량 주행과 관련한, 맵(map) 정보, 차량의 현재 위치 정보를 포함할 수 있다. 한편, 내비게이션 정보는 도로상에서 차량의 위치 정보를 포함할 수 있다.Navigation information may include set destination information, route information according to the destination, map information related to vehicle driving, and current location information of the vehicle. Meanwhile, the navigation information may include vehicle location information on the road.

한편, 인터페이스부(530)는 제어부(170) 또는 센싱부(160)로부터, 센서 정보를 수신할 수 있다.Meanwhile, the interface unit 530 may receive sensor information from the controller 170 or the sensing unit 160 .

여기서, 센서 정보는 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 객체 정보 중 적어도 하나를 포함할 수 있다.Here, the sensor information includes vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, fuel information, tire information, and vehicle lamp information. , vehicle internal temperature information, vehicle internal humidity information, and object information.

이러한 센서 정보는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 객체 센서(예, 레이더, 라이다, 초음파 센서 등) 등으로부터 획득될 수 있다. 한편, 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈을 포함할 수 있다.Such sensor information includes heading sensor, yaw sensor, gyro sensor, position module, vehicle forward/backward sensor, wheel sensor, vehicle speed sensor, It can be obtained from a vehicle body tilt sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle internal temperature sensor, vehicle internal humidity sensor, object sensor (e.g., radar, lidar, ultrasonic sensor, etc.) there is. Meanwhile, the position module may include a GPS module for receiving GPS information.

한편, 센서 정보 중, 차량 주행과 관련한, 차량 방향 정보, 차량 위치 정보, 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보 등을 차량 주행 정보라 명명할 수 있다.Meanwhile, among sensor information, vehicle direction information, vehicle location information, vehicle angle information, vehicle speed information, and vehicle tilt information related to vehicle driving may be referred to as vehicle driving information.

인터페이스부(530)는 턴 시그널 정보를 수신할 수 있다. 여기서, 턴 시그널 정보는 사용자에 의해 입력된 좌회전 또는 우회전을 위한 방향 지시등의 턴 온(turn on) 시그널일 수 있다. 차량(100)의 사용자 입력부(도 1의 124)를 통해, 좌측 또는 우측 방향 지시등 턴 온 입력이 수신되는 경우, 인터페이스부(530)는 좌측 또는 우측 방향 턴 시그널 정보를 수신할 수 있다.The interface unit 530 may receive turn signal information. Here, the turn signal information may be a turn on signal of a direction indicator lamp for left turn or right turn input by the user. When a left or right direction indicator turn on input is received through the user input unit ( 124 in FIG. 1 ) of the vehicle 100 , the interface unit 530 may receive left or right turn signal information.

인터페이스부(530)는 차량 속도 정보, 스티어링 휠의 회전 각도 정보 또는 기어 쉬프트 정보를 수신할 수 있다. 인터페이스부(530)는 차량의 센싱부(160)를 통해 센싱된 차량 속도 정보, 스티어링 휠 회전 각도 정보, 또는 기어 쉬프트 정보를 수신할 수 있다. 또는, 인터페이스부(530)는 차량의 제어부(170)로부터 차량 속도 정보, 스티어링 휠 회전 각도 정보 또는 기어 쉬프트 정보를 수신할 수 있다. 한편, 여기서, 기어 쉬프트 정보는, 차량의 변속 레버가 어느 상태에 있는지에 대한 정보일 수 있다. 예를 들면, 기어 쉬프트 정보는 변속 레버가 주차(P), 후진(R), 중립(N), 주행(D), 1 내지 다단 기어 상태 중 어느 하나 중 어느 상태에 있는지에 대한 정보일 수 있다.The interface unit 530 may receive vehicle speed information, steering wheel rotation angle information, or gear shift information. The interface unit 530 may receive vehicle speed information, steering wheel rotation angle information, or gear shift information sensed through the sensing unit 160 of the vehicle. Alternatively, the interface unit 530 may receive vehicle speed information, steering wheel rotation angle information, or gear shift information from the vehicle control unit 170 . Meanwhile, here, the gear shift information may be information about the state of the shift lever of the vehicle. For example, the gear shift information may be information on which one of the parking (P), reverse (R), neutral (N), driving (D), and first to multi-level gear states the shift lever is in. .

인터페이스부(530)는 차량(100)의 사용자 입력부(124)를 통해 수신되는 사용자 입력을 수신할 수 있다. 인터페이스부(530)는 사용자 입력을 차량(100)의 입력부(120)로부터 수신하거나, 제어부(170)를 거쳐 수신할 수 있다.The interface unit 530 may receive a user input received through the user input unit 124 of the vehicle 100 . The interface unit 530 may receive user input from the input unit 120 of the vehicle 100 or through the control unit 170 .

인터페이스부(530)는 외부 기기로부터 획득된 정보를 수신할 수 있다. 예를 들면, 차량(100)의 통신부(110)를 통해 외부 서버로부터 신호등 변경 정보가 수신되는 경우, 인터페이스부(530)는 상기 신호등 변경 정보를 제어부(170)로부터 수신할 수 있다.The interface unit 530 may receive information acquired from an external device. For example, when traffic light change information is received from an external server through the communication unit 110 of the vehicle 100, the interface unit 530 may receive the traffic light change information from the control unit 170.

메모리(540)는 프로세서(570)에 의해 실행 가능한 적어도 하나 이상의 프로그램 및/또는 명령어를 저장할 수 있다. 또한, 메모리(540)는 프로세서(570)에 의해 검색, 조작, 변경 또는 저장되는 다양한 데이터를 저장할 수 있다. 메모리(540)에 저장되는 데이터는 디스플레이 장치(500)의 전반적인 동작을 처리하거나 제어하기 위한 각종 정보를 포함할 수 있다.The memory 540 may store one or more programs and/or instructions executable by the processor 570 . In addition, the memory 540 may store various data that is searched for, manipulated, changed, or stored by the processor 570 . Data stored in the memory 540 may include various types of information for processing or controlling overall operations of the display device 500 .

메모리(540)는 객체/임계정보 확인을 위한 데이터를 저장할 수 있다. 예를 들면, 메모리(540)는 카메라(161)에 의해 촬영된 영상에서/C-V2X 모듈(115)에서 얻은 교통 정보에서, 소정 객체/임계정보가 검출되는 경우, 소정 알고리즘에 의해, 상기 객체/임계정보가 무엇에 해당하는지 확인하기 위한 데이터를 저장할 수 있다.The memory 540 may store data for checking object/critical information. For example, the memory 540, when a predetermined object/critical information is detected from an image captured by the camera 161/from traffic information obtained from the C-V2X module 115, by a predetermined algorithm, the object / Data to check what the critical information corresponds to can be saved.

메모리(540)는 교통 정보에 대한 데이터를 저장할 수 있다. 예를 들면, 메모리(540)는 카메라(161)/C-V2X 모듈(115)을 통해 획득된 차량(100)의 외부 영상/정보에서, 소정의 교통 정보가 검출되는 경우, 소정 알고리즘에 의해, 상기 교통 정보가 무엇에 해당하는지 확인하기 위한 데이터를 저장할 수 있다.The memory 540 may store data about traffic information. For example, the memory 540, when predetermined traffic information is detected from the external image/information of the vehicle 100 acquired through the camera 161/C-V2X module 115, by a predetermined algorithm, Data for confirming what the traffic information corresponds to may be stored.

메모리(540)는 차량(100)의 운전자의 시선 및 제스처 중 적어도 하나의 방향이 가리키는 영역을 결정하기 위한 데이터를 저장할 수 있다. 가령, 차량(100)의 실내가 복수의 미리 정해진 영역으로 구획되는 경우, 메모리(540)에는 구획된 각 영역에 대응하는 복수의 3차원 좌표들로 이루어진 집합을 저장할 수 있다. 즉, 각 영역은 복수의 3차원 좌표들로 정의될 수 있다. 또한, 어느 한 영역에 대하여 정의된 3차원 좌표들은 다른 영역에 대하여 정의된 3차원 좌표들과 다를 수 있다. 만약, 프로세서(570)에 의해 임의의 시점에서 검출되는 운전자의 시선의 방향이 하나의 3차원 좌표로 표현된다고 하면, 프로세서(570)는 메모리(540)로부터 운전자의 시선의 방향에 대응하는 3차원 좌표와 연관된 단 하나의 영역만을 결정할 수 있다.The memory 540 may store data for determining an area indicated by at least one direction of the driver's line of sight and gesture of the vehicle 100 . For example, when the interior of the vehicle 100 is divided into a plurality of predetermined regions, a set of a plurality of 3D coordinates corresponding to each region may be stored in the memory 540 . That is, each area may be defined with a plurality of 3D coordinates. Also, 3D coordinates defined for one region may be different from 3D coordinates defined for another region. If the direction of the driver's gaze detected by the processor 570 at an arbitrary point in time is expressed as one 3D coordinate, the processor 570 calculates the 3D coordinates corresponding to the direction of the driver's gaze from the memory 540. Only one area associated with coordinates can be determined.

한편, 메모리(540)는 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다.Meanwhile, in terms of hardware, the memory 540 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, and the like.

카메라(550)는 차량(100)의 실외 및/또는 실내를 촬영하도록 구성될 수 있다. 일 실시예에서, 카메라(550)는 실외 카메라(551) 및 실내 카메라(552)를 각각 하나 이상씩 포함할 수 있다.Camera 550 may be configured to photograph the exterior and/or interior of vehicle 100 . In one embodiment, the camera 550 may include at least one outdoor camera 551 and at least one indoor camera 552, respectively.

실외 카메라(551)는 차량(100)의 실외측면(예, A-필러의 외측면)에 구비되어, 차량(100)의 A-필러에 의해 형성되는 사각지대의 영상을 획득할 수 있다. 예컨대, 실외 카메라(551)는 차량(100)의 좌우측 A-필러에 각각 하나씩 장착될 수 있다.The outdoor camera 551 may be provided on an outdoor surface of the vehicle 100 (eg, an outer surface of the A-pillar) to obtain an image of a blind spot formed by the A-pillar of the vehicle 100 . For example, one outdoor camera 551 may be mounted on each of the left and right A-pillars of the vehicle 100 .

실내 카메라(552)는 차량(100)의 실내 일측에 배치되어, 차량(100)의 실내 영상을 생성한다. 예컨대, 실내 카메라(552)는 대쉬보드 표면, 루프의 실내측면, 리어 뷰 미러 등 차량(100) 실내의 다양한 위치에 배치되어, 차량(100)의 탑승자를 촬영할 수 있다. 이 경우, 실내 카메라(552)는 차량(100)의 운전석을 포함하는 영역에 대한 실내 영상을 생성할 수 있다. 또한, 실내 카메라(552)는 차량(100)의 운전석 및 보조석을 포함하는 영역에 대한 실내 영상을 생성할 수 있다. 실내 카메라(552)에 의해 생성되는 실내 영상은 2차원 영상 및/또는 3차원 영상일 수 있다. 3차원 영상을 생성하기 위해, 실내 카메라(552)는 스테레오 카메라, 깊이 카메라 및 3차원 레이저 스캐너 중 적어도 하나를 포함할 수 있다. 실내 카메라(552)는 자신이 생성한 실내 영상을, 프로세서(570)로 제공할 수 있다.The indoor camera 552 is disposed on one side of the interior of the vehicle 100 to generate an indoor image of the vehicle 100 . For example, the indoor camera 552 may be disposed in various locations inside the vehicle 100, such as a dashboard surface, an indoor side surface of a roof, and a rear-view mirror, to photograph occupants of the vehicle 100. In this case, the indoor camera 552 may generate an indoor image of an area including the driver's seat of the vehicle 100 . Also, the indoor camera 552 may generate an indoor image of an area including a driver's seat and a passenger seat of the vehicle 100 . The indoor image generated by the indoor camera 552 may be a 2D image and/or a 3D image. To generate a 3D image, the indoor camera 552 may include at least one of a stereo camera, a depth camera, and a 3D laser scanner. The indoor camera 552 may provide the indoor image generated by the indoor camera 552 to the processor 570 .

프로세서(570)는 실내 카메라(552)로부터 제공되는 실내 영상을 분석하여, 각종 객체나 탑승자의 제스처를 검출할 수 있다. 예컨대, 프로세서(570)는 실내 영상 내의 운전석 영역에 대응하는 부분으로부터 운전자의 시선 및/또는 제스처를 검출할 수 있다. 다른 예로, 프로세서(570)는 실내 영상 중 운전석 영역을 제외한 나머지 영역에 대응하는 부분으로부터 동승자의 시선 및/또는 제스처를 검출할 수 있다. 물론, 운전자와 동승자 각각의 시선 및/또는 제스처는 동시에 검출될 수도 있다.The processor 570 may analyze the indoor image provided from the indoor camera 552 to detect various objects or gestures of passengers. For example, the processor 570 may detect the driver's gaze and/or gesture from a portion corresponding to the driver's seat area in the indoor image. As another example, the processor 570 may detect a passenger's gaze and/or gesture from a portion corresponding to an area other than the driver's seat area of the indoor image. Of course, gazes and/or gestures of the driver and passenger may be simultaneously detected.

프로세서(570)는 디스플레이 장치(500) 내의 각 유닛의 전반적인 동작을 제어한다.The processor 570 controls the overall operation of each unit in the display device 500.

프로세서(570)는 카메라(161)로부터 제공되는 차량 전방 영상, 좌측 영상, 우측 영상 및/또는 후방 영상을 처리할 수 있다.The processor 570 may process a front image, a left image, a right image, and/or a rear image of the vehicle provided from the camera 161 .

이와는 별개로, 프로세서(570)는 카메라(550)/C-V2X 모듈(115)을 이용하여 획득한 사각지대의 영상들/교통정보들을 처리할 수 있다. 일 예로, 프로세서(570)는 사각지대의 영상에 대한 컴퓨터 비전(computer vision) 기반의 신호 처리를 수행할 수 있다. 일 예로, 프로세서(570)는 C-V2X 모듈(115)로 획득한 다양한 교통 정보에 대한 신호 처리를 수행할 수 있다. 이에 따라, 프로세서(570)는 카메라(550)/C-V2X 모듈(115)로부터 제공되는 사각지대의 영상/임계 정보로부터, 사각지대 내에 존재하는 객체/임계 정보를 검출하고, 검출된 객체/임계 정보에 대한 트래킹을 수행할 수 있다. 특히, 프로세서(570)는, 객체/임계 정보 검출시, 차선 검출(Lane Detection, LD), 주변 차량 검출(Vehicle Detection, VD), 보행자 검출(Pedestrian Detection,PD), 불빛 검출(Brightspot Detection, BD), 교통 신호 검출(Traffic Sign Recognition, TSR), 도로면 검출 등을 수행할 수 있다.Separately, the processor 570 may process images/traffic information of blind spots acquired using the camera 550/C-V2X module 115. For example, the processor 570 may perform computer vision-based signal processing on images of blind spots. For example, the processor 570 may perform signal processing on various traffic information acquired by the C-V2X module 115. Accordingly, the processor 570 detects object/threshold information existing in the blind spot from the image/threshold information of the blind spot provided from the camera 550/C-V2X module 115, and the detected object/threshold information. Information can be tracked. In particular, when detecting object/critical information, the processor 570 performs lane detection (LD), vehicle detection (VD), pedestrian detection (PD), and brightspot detection (BD). ), traffic sign recognition (TSR), and road surface detection.

한편, 교통 신호(Traffic Sign)는 차량(100)의 운전자에게 전달 될 수 있는 소정의 정보를 의미할 수 있다. 교통 신호는 신호등, 교통 표지판 또는 노면을 통해 운전자에게 전달 될 수 있다. 예를 들면, 교통 신호는 신호등에서 출력되는 차량 또는 보행자의 고(Go) 또는 스탑(Stop) 신호일 수 있다. 예를 들면, 교통 신호는 교통 표지판에 표시된 각종 도안 또는 텍스트일 수 있다. 예를 들면, 교통 신호는 노면에 표시된 각종 도안 또는 텍스트일 수 있다.Meanwhile, a traffic sign may mean predetermined information that can be delivered to the driver of the vehicle 100 . Traffic signals can be communicated to drivers through traffic lights, traffic signs, or road surfaces. For example, the traffic signal may be a vehicle or pedestrian Go or Stop signal output from a traffic light. For example, traffic signals may be various designs or texts displayed on traffic signs. For example, traffic signals may be various designs or texts displayed on a road surface.

프로세서(570)는 카메라(161)/C-V2X 모듈(115)에 의해 생성된 차량(100)의 외부 영상/외부 교통정보에서 정보를 검출할 수 있다.The processor 570 may detect information from an external image/external traffic information of the vehicle 100 generated by the camera 161/C-V2X module 115.

교통 정보는 차량 주행 상황에 대한 정보일 수 있다. 예를 들면, 정보는 차량이 주행하는 도로 정보, 교통 법규 정보, 주변 차량 정보, 차량 또는 보행자 신호등 정보, 공사 정보, 교통 상황 정보, 주차장 정보, 차선 정보 등을 포함하는 개념일 수 있다.Traffic information may be information about vehicle driving conditions. For example, the information may be a concept including road information on which the vehicle is traveling, traffic law information, surrounding vehicle information, vehicle or pedestrian traffic light information, construction information, traffic condition information, parking lot information, lane information, and the like.

프로세서(570)는 카메라(161)/C-V2X 모듈(115)에 의해 획득된 외부 영상/교통정보에 포함된, 신호등, 교통 표지판 및 노면 중 어느 하나로부터 교통 정보를 검출할 수 있다. 예를 들면, 프로세서(570)는 영상/교통정보에 포함된 신호등으로부터 차량 또는 보행자의 고(Go) 또는 스탑(Stop) 신호를 검출할 수 있다. 예를 들면, 프로세서(570)는 영상/교통정보에 포함된 교통 표지판으로부터 각종 도안 또는 텍스트를 검출할 수 있다. 예를 들면, 프로세서(570)는 영상/교통정보에 포함된 노면으로부터 각종 도안 또는 텍스트를 검출할 수 있다.The processor 570 may detect traffic information from any one of traffic lights, traffic signs, and road surfaces included in the external image/traffic information acquired by the camera 161/C-V2X module 115. For example, the processor 570 may detect a Go or Stop signal of a vehicle or pedestrian from a traffic light included in video/traffic information. For example, the processor 570 may detect various designs or texts from traffic signs included in image/traffic information. For example, the processor 570 may detect various designs or texts from the road included in the image/traffic information.

프로세서(570)는 검출된 정보를 메모리(540)에 저장된 정보와 비교하여, 정보를 확인할 수 있다.The processor 570 may check the information by comparing the detected information with the information stored in the memory 540 .

예를 들면, 프로세서(570)는 획득된 영상/교통정보에 포함된 객체에서 램프웨이를 표시하는 도안 또는 텍스트를 검출한다. 여기서, 객체 정보는 교통 표지판 또는 노면일 수 있다. 도안 또는 텍스트를 검출한다. 프로세서(570)는 메모리(540)에 저장된 교통 정보와 검출된 도안 또는 텍스트를 비교하여, 램프웨이 정보를 확인할 수 있다.For example, the processor 570 detects a pattern or text indicating a rampway from an object included in the acquired image/traffic information. Here, the object information may be a traffic sign or a road surface. Detect drawings or text. The processor 570 may check the rampway information by comparing the traffic information stored in the memory 540 with the detected design or text.

예를 들면, 프로세서(570)는 획득된 영상/교통정보에 포함된 객체에서 차량 또는 보행자 스탑(stop)을 표시하는 도안 또는 텍스트를 검출한다. 여기서, 객체는 교통 표지판 또는 노면일 수 있다. 프로세서(570)는 메모리(540)에 저장된 교통 정보와 검출된 도안 또는 텍스트를 비교하여, 스탑 정보를 확인할 수 있다. 또는, 프로세서(570)는 획득된 영상/교통정보에 포함된 노면으로부터 정지선을 검출한다. 프로세서(570)는 메모리(540)에 저장된 교통 정보와 정지선을 비교하여, 스탑 정보를 확인할 수 있다.For example, the processor 570 detects a design or text indicating a vehicle or pedestrian stop from an object included in the acquired image/traffic information. Here, the object may be a traffic sign or a road surface. The processor 570 may check the stop information by comparing the traffic information stored in the memory 540 with the detected design or text. Alternatively, the processor 570 detects a stop line from a road included in the obtained image/traffic information. The processor 570 may check the stop information by comparing the traffic information stored in the memory 540 with the stop line.

예를 들면, 프로세서(570)는 획득된 영상/교통정보에 포함된 객체에서 차선 유무를 검출할 수 있다. 여기서, 객체는 노면일 수 있다. 프로세서(570)는 검출된 차선의 색을 확인할 수 있다. 프로세서(570)는 검출된 차선이 주행 차선인지 대기 차선인지 확인할 수 있다.For example, the processor 570 may detect whether there is a lane in an object included in the acquired image/traffic information. Here, the object may be a road surface. The processor 570 may check the color of the detected lane. The processor 570 may determine whether the detected lane is a driving lane or a waiting lane.

예를 들면, 프로세서(570)는 획득된 영상/교통정보에 포함된 객체에서 차량의 고(Go) 또는 스탑(Stop) 정보를 검출할 수 있다. 여기서, 객체는 차량 신호등일 수 있다. 여기서, 차량의 고(Go) 정보는 차량이 직진, 좌회전 또는 우회전하도록 지시하는 신호일 수 있다. 차량의 스탑(Stop) 정보는 차량이 정지하도록 지시하는 신호일 수 있다. 차량의 고(Go) 정보는 초록색으로 표시될 수 있고, 차량의 스탑(Stop) 정보는 빨간색으로 표시될 수 있다.For example, the processor 570 may detect vehicle Go or Stop information from an object included in the acquired image/traffic information. Here, the object may be a vehicle traffic light. Here, the Go information of the vehicle may be a signal instructing the vehicle to go straight, turn left, or turn right. The vehicle stop information may be a signal instructing the vehicle to stop. Vehicle Go information may be displayed in green, and vehicle Stop information may be displayed in red.

예를 들면, 프로세서(570)는 획득된 영상/교통정보에 포함된 객체에서 보행자의 고(Go) 또는 스탑(Stop) 정보를 검출할 수 있다. 여기서, 객체는 보행자 신호등일 수 있다. 여기서, 보행자의 고(Go) 정보는 횡단보도에서 보행자가 차로를 횡단하도록 지시하는 신호일 수 있다. 보행자의 스탑(Stop) 정보는 횡단보도에서 보행자가 정지하도록 지시하는 신호일 수 있다.For example, the processor 570 may detect a pedestrian's Go or Stop information from an object included in the obtained image/traffic information. Here, the object may be a pedestrian traffic light. Here, the pedestrian's Go information may be a signal instructing the pedestrian to cross the road at a crosswalk. Pedestrian stop information may be a signal instructing a pedestrian to stop at a crosswalk.

한편, 프로세서(570)는, 카메라(161, 550)의 줌(Zoom)을 제어할 수 있다. 예를 들면, 프로세서(570)는 객체 검출 결과에 따라 카메라(161, 550)의 줌을 제어할 수 있다. 가령, 교통 표지판은 검출되지만, 교통 표지판에 표시된 내용이 검출되지 않는 경우, 프로세서(570)는 카메라(161)가 줌인(Zoom-in)되도록 제어할 수 있다. 다른 예로, 차량(100)의 실내 영상들에 포함된 동승자의 얼굴이 임계값 미만의 크기를 가지는 경우, 프로세서(570)는 카메라(550)가 줌인(Zoom-in)되도록 제어할 수 있다.Meanwhile, the processor 570 may control zoom of the cameras 161 and 550 . For example, the processor 570 may control the zoom of the cameras 161 and 550 according to an object detection result. For example, when a traffic sign is detected but content displayed on the traffic sign is not detected, the processor 570 may control the camera 161 to zoom-in. As another example, when a face of a passenger included in indoor images of the vehicle 100 has a size smaller than a threshold value, the processor 570 may control the camera 550 to zoom in.

한편, 프로세서(570)는 통신부(520)를 통해, 타차량(101), 보행자(모바일 단말기)(102), 인프라(103) 등 모든 통신 가능 기기(104)로부터 날씨 정보, 도로의 교통 상황 정보, 예를 들면, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.Meanwhile, the processor 570 transmits weather information and road traffic condition information from all communication capable devices 104 such as other vehicles 101, pedestrians (mobile terminals) 102, and infrastructure 103 through the communication unit 520. , for example, TPEG (Transport Protocol Expert Group) information may be received.

한편, 프로세서(570)는 디스플레이 장치(500)에서, 스테레오 이미지를 기반으로 파악한, 차량 주변 교통 상황 정보를, 실시간으로 파악할 수도 있다.Meanwhile, the processor 570 may determine traffic condition information around the vehicle, determined based on the stereo image, on the display device 500 in real time.

한편, 프로세서(570)는 인터페이스부(530)를 통해, AVN 장치(200)로부터 내비게이션 정보 등을 수신할 수 있다.Meanwhile, the processor 570 may receive navigation information and the like from the AVN device 200 through the interface unit 530 .

한편, 프로세서(570)는 인터페이스부(530)를 통해, 제어부(170) 또는 센싱부(160)로부터, 센서 정보를 수신할 수 있다. 여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 정보 중 적어도 하나를 포함할 수 있다.Meanwhile, the processor 570 may receive sensor information from the control unit 170 or the sensing unit 160 through the interface unit 530 . Here, the sensor information includes vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, fuel information, tire information, vehicle It may include at least one of lamp information, vehicle internal temperature information, vehicle internal humidity information, and steering wheel rotation information.

한편, 프로세서(570)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Meanwhile, the processor 570 may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, It may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.

프로세서(570)는 제어부(170)의 제어를 받을 수 있다.The processor 570 may be controlled by the control unit 170 .

디스플레이부(580)는 프로세서(570)에서 처리된 이미지를 표시하는 적어도 하나의 디스플레이를 포함할 수 있다. 예컨대, 디스플레이부(580)는 디스플레이 장치(500)나 차량(100)의 동작과 관련한 다양한 이미지를 표시하는, 클러스터(cluster), HUD(Head Up Display) 및 투명 디스플레이 중 적어도 하나를 포함할 수 있다.The display unit 580 may include at least one display displaying images processed by the processor 570 . For example, the display unit 580 may include at least one of a cluster, a Head Up Display (HUD), and a transparent display that displays various images related to the operation of the display device 500 or the vehicle 100. .

구체적으로, 디스플레이부(580)는 적어도 제1디스플레이(581)를 포함할 수 있다. 제1디스플레이(581)는 차량(100)의 양측 A-필러(A-pillar) 중 적어도 하나의 실내측면에 구비될 수 있다.Specifically, the display unit 580 may include at least a first display 581 . The first display 581 may be provided on the interior side of at least one of A-pillars on both sides of the vehicle 100 .

일 실시예에서, 디스플레이부(580)는 제2디스플레이(582)를 더 포함할 수 있다. 예컨대, 제2디스플레이(582)는 차량(100)의 대쉬보드 또는 윈드쉴드에 구비되어, 윈드쉴드에 이미지를 표시하는 HUD(Head Up Display)일 수 있다. HUD가 차량(100)의 대쉬보드에 구비되는 경우, HUD는 윈드 쉴드(11)에 이미지를 형상하기 위한 표시광을 출력하는 투사 모듈을 포함할 수 있다. 또는, HUD는 별도의 투사 모듈없이, 윈드쉴드의 일부분을 형성하거나 윈드쉴드에 직접 부착되는 투명디스플레이일 수 있다. 제2디스플레이(582)가 투명 디스플레이인 경우, 오프 상태에서는 소정의 투과도를 가지고, 소정의 전기 신호에 응답하여, 투과도, 색상 등이 변경되거나, 전기 신호에 대응하는 그래픽 객체를 표시할 수 있다. 이에 따라, 사용자는 전방을 주시하면서 제2디스플레이(582)를 통해 각종 정보를 확인할 수 있다.In one embodiment, the display unit 580 may further include a second display 582 . For example, the second display 582 may be a Head Up Display (HUD) provided on the dashboard or windshield of the vehicle 100 to display an image on the windshield. When the HUD is provided on the dashboard of the vehicle 100 , the HUD may include a projection module that outputs display light for forming an image on the windshield 11 . Alternatively, the HUD may be a transparent display that forms a part of the windshield or is directly attached to the windshield without a separate projection module. When the second display 582 is a transparent display, it has a predetermined transmittance in an off state, and may change transmittance, color, or the like in response to a predetermined electric signal, or display a graphic object corresponding to the electric signal. Accordingly, the user can check various types of information through the second display 582 while looking forward.

전원 공급부(590)는 프로세서(570)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(590)는, 차량(100) 내부의 배터리 등으로부터 전원을 공급받을 수 있다.The power supply 590 may supply power required for operation of each component under the control of the processor 570 . In particular, the power supply 590 may receive power from a battery inside the vehicle 100 .

도 6a 및 도 6b는 본 발명의 일 실시예에 따른 디스플레이 장치(500)에 포함되는 디스플레이부(580)와 실외 카메라(551)가 차량(100)에 장착되는 일 예를 보여준다.6A and 6B show an example in which the display unit 580 and the outdoor camera 551 included in the display device 500 according to an embodiment of the present invention are mounted on the vehicle 100.

우선 도 6a는 차량(100)의 실외에 대한 실외 카메라(551)의 배치 상태를 보여준다. 전술한 바와 같이, 차량(100)의 윈드쉴드를 기준으로 좌측와 우측에는 각각 좌측 A-필러(10a)와 우측 A-필러(10b)가 구비될 수 있다. 이 경우, 탑승자가 전방을 주시하고 있더라도, 좌측 A-필러(10a)와 우측 A-필러(10b) 각각에 의해 탑승자의 시야 일부가 필연적으로 제한된다. 즉, 좌측 A-필러(10a)에 의한 사각지대와 우측 A-필러(10b)에 의한 사각지대가 형성된다. 이하에서는, 좌측 A-필러(10a)에 의한 사각지대를 '좌측 사각지대'라고 칭하고, 우측 A-필러(10b)에 의한 사각지대를 '우측 사각지대'라고 칭하기로 한다.First, FIG. 6A shows the arrangement of the outdoor camera 551 for the exterior of the vehicle 100 . As described above, the left A-pillar 10a and the right A-pillar 10b may be provided on the left and right sides of the windshield of the vehicle 100, respectively. In this case, even if the occupant looks forward, a portion of the occupant's visual field is inevitably limited by the left A-pillar 10a and the right A-pillar 10b, respectively. That is, a blind spot by the left A-pillar 10a and a blind spot by the right A-pillar 10b are formed. Hereinafter, the blind spot caused by the left A-pillar 10a will be referred to as a 'left blind spot', and the blind spot caused by the right A-pillar 10b will be referred to as a 'right blind spot'.

일 실시예에서, 디스플레이 장치(500)는 좌측 A-필러(10a)의 실외측면에 장착되는 실외 카메라(551a)와 우측 A-필러(10b)의 실외측면에 장착되는 실외 카메라(551b)를 포함할 수 있다.In one embodiment, the display device 500 includes an outdoor camera 551a mounted on the outdoor side of the left A-pillar 10a and an outdoor camera 551b mounted on the outdoor side of the right A-pillar 10b. can do.

실외 카메라(551a)는 적어도 좌측 A-필러(10a)에 의한 사각지대를 촬영하여, 좌측 사각지대의 영상을 획득한다. 또한, 실외 카메라(551b)는 적어도 좌측 A-필러(10b)에 의한 사각지대를 촬영하여, 우측 사각지대의 영상을 획득한다.The outdoor camera 551a captures a blind spot caused by at least the left A-pillar 10a and acquires an image of the left blind spot. In addition, the outdoor camera 551b captures a blind spot caused by at least the left A-pillar 10b and acquires an image of a right blind spot.

도 6b는 차량(100)의 실내에 대한 실내 카메라(552), 제1디스플레이(581) 및 제2디스플레이(582)의 배치 상태를 보여준다. 이하에서는, 설명의 편의를 위해, 제1디스플레이(581)는 '필러 디스플레이'라고 칭하고, 제2디스플레이(582)는 '윈드쉴드 디스플레이'라고 칭하기로 한다.6B shows the arrangement of the indoor camera 552, the first display 581, and the second display 582 in the interior of the vehicle 100. Hereinafter, for convenience of explanation, the first display 581 will be referred to as a 'pillar display' and the second display 582 will be referred to as a 'windshield display'.

먼저 실내 카메라(552)는 적어도 운전자의 신체 일부를 촬영할 수 있는 차량(100) 실내의 일 위치에 장착될 수 있다. 실내 카메라(552)에 의해 촬영되는 실내 영상은 프로세서(570)로 제공될 수 있다. 프로세서(570)는 실내 영상에 대한 영상 처리를 통해, 실내 영상으로부터 탑승자의 신체(예, 얼굴, 눈, 손, 팔)를 검출하고, 검출된 신체의 특징을 기초로, 소정의 동작이나 기능을 수행할 수 있다. 일 예로, 프로세서(570)는 실내 영상으로부터 운전자의 제스처를 식별할 수 있다. 이어, 프로세서(570)는 메모리에 저장된 명령어들 중, 식별된 제스처에 연관된 특정 명령어를 실행할 수 있다. 특정 명령어가 실행됨에 따라, 식별된 제스처에 대응하는 특정 기능이 활성화될 수 있다.First, the indoor camera 552 may be mounted at a location inside the vehicle 100 capable of capturing at least a part of the driver's body. An indoor image captured by the indoor camera 552 may be provided to the processor 570 . The processor 570 detects the occupant's body (eg, face, eyes, hands, arms) from the indoor image through image processing on the indoor image, and performs a predetermined operation or function based on the detected body characteristics. can be done For example, the processor 570 may identify a driver's gesture from an indoor image. Next, the processor 570 may execute a specific command related to the identified gesture among commands stored in the memory. As a specific command is executed, a specific function corresponding to the identified gesture may be activated.

필러 디스플레이(581)는 좌측 A-필러(10a)와 우측 A-필러(10b)의 실내측면에 각각 하나 이상씩 구비될 수 있다. 좌측 A-필러(10a)에 구비되는 필러 디스플레이(581a)는 항상 또는 특정 상황에서 좌측 사각지대의 영상을 표시할 수 있다. 또한, 우측 A-필러(10b)에 구비되는 필러 디스플레이(581b)는 항상 또는 특정 상황에서 우측 사각지대의 영상을 표시할 수 있다.One or more pillar displays 581 may be provided on the interior surfaces of the left A-pillar 10a and the right A-pillar 10b, respectively. The pillar display 581a provided on the left A-pillar 10a may display an image of a left blind spot at all times or in a specific situation. In addition, the pillar display 581b provided on the right A-pillar 10b may display an image of a right blind spot at all times or in a specific situation.

필러 디스플레이(581)는 좌우측 사각지대의 영상 외에 차량(100), 주변 환경 또는 탑승자 등과 관련된 각종 그래픽 객체를 표시할 수도 있다.In addition to images of left and right blind spots, the pillar display 581 may display various graphic objects related to the vehicle 100, the surrounding environment, or passengers.

한편, 도 6a에는 실외 카메라(551a, 551b)가 각각 좌측 A-필러(10a)와 우측 A-필러(10b)의 실외측면에 배치되는 것으로 도시되어 있으나, 이는 예시적인 것에 불과하다. 예컨대, 실외 카메라(551a, 551b)는, 좌측 사각지대와 우측 사각지대를 촬영할 수 있는 위치라면, 좌측 A-필러(10a)와 우측 A-필러(10b)의 실외측면 대신 다른 위치에 배치될 수 있는 것으로 이해되어야 할 것이다.Meanwhile, in FIG. 6A , the outdoor cameras 551a and 551b are illustrated as being disposed on the outdoor side of the left A-pillar 10a and the right A-pillar 10b, respectively, but this is merely exemplary. For example, the outdoor cameras 551a and 551b may be disposed at other positions instead of the outdoor sides of the left A-pillar 10a and the right A-pillar 10b, provided that they are positioned to take pictures of the left blind spot and the right blind spot. It should be understood that there is

도 7은 본 발명의 일 실시예에 따른 디스플레이 장치(500)에 의해 수행되는 프로세스(S700)의 플로우 챠트를 예시한다.7 illustrates a flow chart of a process S700 performed by the display device 500 according to an embodiment of the present invention.

도 7에 도시된 프로세스(S700)에 대한 구체적인 설명에 앞서, 프로세스(S700)에 포함된 복수의 단계들은 순차적으로 도시되어 있으나, 실시예에 따라서는 도 7에 도시된 것과는 다른 순서로 수행될 수 있음을 미리 밝혀둔다. 예컨대, 어느 한 단계는 다른 한 단계와 병렬적으로 수행될 수 있다. 또한, 부가적인 단계가 프로세스(S700)에 더 포함될 수도 있다.Prior to a detailed description of the process S700 shown in FIG. 7, a plurality of steps included in the process S700 are shown sequentially, but may be performed in a different order from that shown in FIG. 7 depending on embodiments. make it clear in advance that For example, one step may be performed in parallel with another step. Also, additional steps may be further included in process S700.

단계 S710에서 프로세서(570)는 A-필러(10a, 10b)에 구비된 디스플레이(581)를 활성화할 수 있다.In step S710, the processor 570 may activate the displays 581 provided on the A-pillars 10a and 10b.

일 실시예에서, 프로세서(570)는 입력부에 의해 수신된 명령에 대응하는 입력 신호를 기초로, 필러 디스플레이(581)를 활성화할 수 있다. 이 경우, 프로세서(570)는 좌측의 필러 디스플레이(581a)와 우측의 필러 디스플레이(581b)를 동시에 활성화하거나, 어느 하나만을 선택적으로 활성화할 수 있음은 물론이다.In one embodiment, the processor 570 may activate the pillar display 581 based on an input signal corresponding to a command received by the input unit. In this case, the processor 570 can simultaneously activate the left pillar display 581a and the right pillar display 581b or selectively activate either one.

또는, 프로세서(570)는 미리 정해진 조건이 만족되는 경우, 필러 디스플레이(581)를 자동 활성화하는 것도 가능하다. 예를 들어, 차량(100)이 특정 유형의 지역(예, 터널, 드라이브 스루, 경사로, 주차장, 커브길)에 위치하는 경우, 필러 디스플레이(581)를 자동 활성화할 수 있다.Alternatively, the processor 570 may automatically activate the pillar display 581 when a predetermined condition is satisfied. For example, when the vehicle 100 is located in a specific type of area (eg, a tunnel, a drive-thru, a ramp, a parking lot, or a curve), the pillar display 581 may be automatically activated.

또는, 프로세서(570)는 실내 영상으로부터 검출한 사용자의 제스처를 기초로, 필러 디스플레이(581)를 자동 활성화하는 것도 가능하다.Alternatively, the processor 570 may automatically activate the pillar display 581 based on the user's gesture detected from the indoor image.

단계 S720에서 프로세서(570)는 사각지대 모드, 교통정보 모드 및 경로안내 모드를 포함하는 복수의 표시 모드들 중 적어도 하나에 진입할 수 있다. 본 발명에서,In step S720, the processor 570 may enter at least one of a plurality of display modes including a blind spot mode, a traffic information mode, and a route guidance mode. In the present invention,

사각지대 모드는 실외 카메라(551)에 의해 획득된 사각지대의 영상을 필러 디스플레이에 표시하도록 하는 모드일 수 있다.The blind spot mode may be a mode in which an image of a blind spot acquired by the outdoor camera 551 is displayed on a pillar display.

또한, 교통정보 모드는 인터페이스부(530)를 통해 수신되는 교통정보 데이터에 대응하는 그래픽 객체를 필러 디스플레이(581)에 표시하도록 하는 모드일 수 있다. 이때, 교통정보 데이터는, 날씨 데이터, 멀티미디어 데이터, 타차량 상태 데이터, 보행자 상태 데이터, 인프라 상태 데이터 중 적어도 하나를 포함할 수 있다.Also, the traffic information mode may be a mode in which a graphic object corresponding to traffic information data received through the interface unit 530 is displayed on the pillar display 581 . In this case, the traffic information data may include at least one of weather data, multimedia data, other vehicle condition data, pedestrian condition data, and infrastructure condition data.

또한, 경로안내 모드는 차량(100)의 계획된 경로의 적어도 일부에 대한 경로안내 데이터에 대응하는 그래픽 객체를 필러 디스플레이에 표시하도록 하는 모드일 수 있다.Also, the route guidance mode may be a mode in which a graphic object corresponding to route guidance data for at least a part of a planned route of the vehicle 100 is displayed on the pillar display.

프로세서(570)는 복수의 표시 모드들 중 어느 하나에 진입하거나, 둘 이상의 표시 모드에 동시에 진입할 수 있다. 예컨대, 입력부는 필러 디스플레이의 표시 모드를 선택받기 위한 물리적 스위치를 포함할 수 있고, 사용자에 의한 스위치 조작에 따라, 프로세서(570)는 사용자에 의해 선택된 특정 표시 모드로 진입할 수 있다.The processor 570 may enter one of a plurality of display modes or simultaneously enter two or more display modes. For example, the input unit may include a physical switch for selecting a display mode of the pillar display, and the processor 570 may enter a specific display mode selected by the user according to a user's operation of the switch.

또는, 프로세서(570)는 차량(100)으로부터 제공되는 센싱 신호를 기초로, 복수의 표시 모드들 중 적어도 하나에 진입할 수 있다. 일 예로, 차량(100)의 변속기가 D단에 위치하는 경우, 적어도 사각지대 모드에 진입할 수 있다. 이는, 변속기가 D단인 경우, 차량(100)이 전진함에 따른 사각지대의 영상을 사용자에게 제공하기 위함이다.Alternatively, the processor 570 may enter at least one of a plurality of display modes based on a sensing signal provided from the vehicle 100 . For example, when the transmission of the vehicle 100 is located in the D range, at least the blind spot mode may be entered. This is to provide the user with an image of a blind spot as the vehicle 100 moves forward when the transmission is in the D range.

단계 S730에서 프로세서(570)는 단계 S730을 통해 진입된 적어도 하나의 모드 각각에 대하여 미리 정해진 유형의 정보를 안내하는 인디케이터를 표시할 수 있다. 여기서, 인디케이터는, 그래픽 객체의 일 유형으로서, 기호, 숫자, 문자 또는 영상의 형태를 가질 수 있다.In step S730, the processor 570 may display an indicator guiding information of a predetermined type for each of at least one mode entered through step S730. Here, the indicator is a type of graphic object and may have a form of a symbol, number, character, or image.

예컨대, 사각지대 모드에서, 프로세서(570)는 사각지대의 영상과 함께, 사각지대 내에 존재하는 객체(예, 보행자, 타차량(100), 신호등, 차선)를 안내하는 인디케이터를 필러 디스플레이(581)에 표시할 수 있다.For example, in the blind spot mode, the processor 570 displays an indicator for guiding an object (eg, a pedestrian, another vehicle 100, a traffic light, a lane) existing in the blind spot along with an image of the blind spot on the pillar display 581. can be displayed on

다른 예로, 교통정보 모드에서, 프로세서(570)는 차량(100)이나 외부 기기(600)로부터 제공되는 타차량 상태, 보행자 상태, 인프라 상태, 날씨, 음악, 영화, 사진, 게임, 방송, SNS, 채팅, 쇼핑 등과 관련된 각종 교통정보 데이터를 수신하고, 수신된 교통정보 데이터에 대응하는 그래픽 객체를 필러 디스플레이(581)에 표시할 수 있다.As another example, in the traffic information mode, the processor 570 may perform other vehicle conditions, pedestrian conditions, infrastructure conditions, weather, music, movies, photos, games, broadcasting, SNS, Various traffic information data related to chatting, shopping, etc. may be received, and a graphic object corresponding to the received traffic information data may be displayed on the pillar display 581 .

또 다른 예로, 경로안내 모드에서, 프로세서(570)는 목적지까지의 경로 데이터, 기 등록된 관심지역 데이터(예, 경유지, 관광지) 및 주변시설 데이터(예, 주유소, 드라이브 스루) 중 적어도 하나에 대응하는 그래픽 객체를 필러 디스플레이(581)에 표시할 수 있다.As another example, in the route guidance mode, the processor 570 corresponds to at least one of route data to a destination, pre-registered area of interest data (eg, waypoint, tourist destination), and peripheral facility data (eg, gas station, drive-thru). A graphic object may be displayed on the pillar display 581.

도 8은 본 발명의 일 실시예에 따른 디스플레이 장치(500)가 사각지대 모드에 진입한 경우에 수행하는 프로세스(S800)의 플로우 챠트를 예시한다.8 illustrates a flowchart of a process (S800) performed when the display device 500 enters the blind spot mode according to an embodiment of the present invention.

단계 S810에서, 프로세서(570)는 실외 카메라(581)로부터 제공되는 사각지대의 영상을 필러 디스플레이(581)에 표시한다. 이 경우, 프로세서(570)는 차량(100)의 조향각에 따라, 좌측 필러 디스플레이(581a)와 우측 필러 디스플레이(581b) 중 적어도 하나를 선택적으로 활성화하여, 사각지대의 영상을 표시할 수 있다. 예를 들어, 차량(100)이 좌회전 중인 경우 좌측 필러 디스플레이(581a)만을 활성화하여 좌측 사각지대의 영상을 표시하고, 차량(100)이 우회전 중인 경우 우측 필러 디스플레이(581b)만을 활성화하여 우측 사각지대의 영상을 표시하며, 차량(100)이 직진 중인 경우 좌측 필러 디스플레이(581a)와 우측 필러 디스플레이(581b)를 모두 활성화할 수 있다.In step S810, the processor 570 displays the image of the blind spot provided from the outdoor camera 581 on the pillar display 581. In this case, the processor 570 may display an image of a blind spot by selectively activating at least one of the left pillar display 581a and the right pillar display 581b according to the steering angle of the vehicle 100 . For example, when the vehicle 100 is turning left, only the left pillar display 581a is activated to display an image of the left blind spot, and when the vehicle 100 is turning right, only the right pillar display 581b is activated to display the right blind spot. , and when the vehicle 100 is traveling straight, both the left pillar display 581a and the right pillar display 581b may be activated.

단계 S820에서, 프로세서(570)는 사각지대의 영상으로부터 객체를 검출할 수 있다. 이때, 프로세서(570)는 좌측 사각지대의 영상과 우측 사각지대의 영상 각각으로부터 객체를 개별적으로 검출할 수 있다.In step S820, the processor 570 may detect an object from the blind spot image. In this case, the processor 570 may individually detect the object from the image of the left blind spot and the image of the right blind spot.

사각지대의 영상으로부터 객체가 검출되는 경우, 프로세서(570)는 검출된 객체의 종류, 크기, 형상, 위치, 속도 및 방향 중 적어도 하나를 연산할 수 있다.When an object is detected from the blind spot image, the processor 570 may calculate at least one of the type, size, shape, position, speed, and direction of the detected object.

단계 S830에서, 프로세서(570)는 검출된 객체의 위험 지수를 산출할 수 있다. 여기서, 위험 지수란, 차량(100)과 객체 간의 충돌 위험성을 수치적으로 표현한 값일 수 있다. 예컨대, 차량(100)과 객체 간의 거리가 가까울수록, 객체의 크기가 클수록, 객체가 차량(100)을 향하여 빠르게 다가올수록, 프로세서(570)는 위험 지수를 증가시킬 수 있다.In step S830, the processor 570 may calculate a risk index of the detected object. Here, the risk index may be a value numerically expressing the risk of collision between the vehicle 100 and an object. For example, the closer the distance between the vehicle 100 and the object, the larger the size of the object, and the faster the object approaches the vehicle 100, the processor 570 may increase the risk index.

단계 S840에서, 프로세서(570)는 산출된 위험 지수를 안내하는 인디케이터를 필러 디스플레이(581)에 표시할 수 있다. 구체적으로, 필러 디스플레이(581)에는 사각지대 영상 상에, 위험 지수를 안내하는 인디케이터가 겹쳐지는 방식으로 표시될 수 있다. 이때, 인디케이터는 사각지대 영상의 전체 영역 중, 인디케이터에 의해 지시되는 객체에 인접한 위치에 표시될 수 있다.In step S840, the processor 570 may display an indicator for guiding the calculated risk index on the pillar display 581. Specifically, an indicator for guiding a risk index may be displayed in an overlapping manner on a blind spot image on the pillar display 581 . In this case, the indicator may be displayed at a position adjacent to the object indicated by the indicator in the entire area of the blind spot image.

한편, 프로세서(570)는 위험 지수를 안내하는 인디케이터를 표시하는 경우, 위험 지수를 기초로, 인디케이터의 크기, 위치, 형상 및 색상 중 적어도 하나를 설정할 수 있다. 예를 들어, 시간의 경과에 따라, 사각지대 내의 특정 객체에 대한 위험 지수가 높아지는 경우, 프로세서(570)는 위험 지수에 비례하게 인디케이터의 크기를 확대할 수 있다. 다른 예를 들어, 특정 객체에 대한 위험 지수가 임계값 미만인 경우 제1색상의 인디케이터를 표시하고, 동일 객체에 대한 위험 지수가 임계값 이상으로 증가하는 경우 제2색상의 인디케이터를 표시할 수 있다.Meanwhile, when displaying an indicator for guiding a risk index, the processor 570 may set at least one of a size, position, shape, and color of the indicator based on the risk index. For example, when a risk index for a specific object within a blind spot increases over time, the processor 570 may increase the size of the indicator in proportion to the risk index. For another example, a first color indicator may be displayed when the risk index for a specific object is less than the threshold value, and a second color indicator may be displayed when the risk index for the same object increases to more than the threshold value.

도 9는 본 발명의 일 실시예에 따른 디스플레이 장치(500)가 사각지대 모드에 진입한 경우의 동작을 설명하는 데에 참조되는 도면이다.FIG. 9 is a diagram referenced to describe an operation when the display apparatus 500 according to an embodiment of the present invention enters a blind spot mode.

도 9의 (a)를 참조하면, 좌측의 도면은 좌측 필러 디스플레이(581a)가 비활성화된 상태를 예시한다. 이 경우, 도시된 바와 같이, 좌측 A-필러(10a)에 의해 전방의 객체(901)의 일부분이 가려져, 사용자가 객체(901)를 정확히 인지하는 데에 어려움이 있을 수 있다.Referring to (a) of FIG. 9 , the drawing on the left illustrates a state in which the left pillar display 581a is deactivated. In this case, as illustrated, a part of the object 901 in the front is covered by the left A-pillar 10a, and thus, it may be difficult for the user to accurately recognize the object 901.

이러한 문제를 해소하기 위해, 프로세서(570)는 사각지대 모드에 진입하여, 도 9의 (b)에 도시된 바와 같이, 좌측 사각지대의 영상(910)을 좌측 필러 디스플레이(581a)에 표시할 수 있다. 이에 따라, 좌측 A-필러(10a)에 의해 가려졌던 객체(901)의 일부분이 좌측 필러 디스플레이(581a)에 표시되므로, 사용자는 객체(901)를 용이하게 인지하고, 위험에 대비하여 차량(100)의 제동장치를 조작하는 등의 적절한 대처를 취할 수 있다.To solve this problem, the processor 570 may enter the blind spot mode and display the image 910 of the left blind spot on the left pillar display 581a, as shown in (b) of FIG. there is. Accordingly, since a part of the object 901 covered by the left A-pillar 10a is displayed on the left pillar display 581a, the user can easily recognize the object 901 and prepare for danger by moving the vehicle 100 ) can take appropriate measures, such as operating the brake system.

한편, 프로세서(570)는 사각지대 모드에 진입한 경우 항상 사각지대의 영상(910)을 좌측 필러 디스플레이(581a)에 표시하는 대신, 사각지대 내에 존재하는 객체의 위험 지수가 임계값 이상인 경우에 한하여, 사각지대의 영상(910)을 좌측 필러 디스플레이(581a)에 표시할 수도 있다. 예컨대, 프로세서(570)는 사각지대 모드에 진입 시, 사각지대 내의 객체(901)의 위험 지수가 임계값보다 작은 경우에는 좌측 필러 디스플레이(581a)를 비활성화 상태로 유지하다가, 동일 객체의 위험 지수가 임계값 이상인 경우에 좌측 필러 디스플레이(581a)를 활성화하여 사각지대의 영상(910)을 표시할 수 있다.Meanwhile, when the processor 570 enters the blind spot mode, instead of always displaying the image 910 of the blind spot on the left pillar display 581a, only when the risk index of the object present in the blind spot is greater than or equal to the threshold value. , the blind spot image 910 may be displayed on the left pillar display 581a. For example, when the processor 570 enters the blind spot mode, when the risk index of the object 901 within the blind spot is smaller than the threshold value, the processor 570 maintains the left pillar display 581a in an inactive state, and then increases the risk index of the same object. When the value is greater than or equal to the threshold value, the left pillar display 581a may be activated to display the image 910 of the blind spot.

도 9의 (c)는 객체(901)의 위험 지수를 안내하는 인디케이터(911)가 좌측 필러 디스플레이(581a)에 표시되는 것을 예시한다. 예컨대, 프로세서(570)는 객체(901)의 위험 지수가 임계값 이상인 경우, 차량(100)과 객체(901) 간의 충돌 위험성을 경고하고 운전자의 대처를 독렬하기 위한 소정의 인디케이터(911)를 좌측 필러 디스플레이(581a)에 표시할 수 있다. 예를 들어, 프로세서(570)는 위험 지수가 제1값인 경우, 도시된 바와 같이 제1사이즈의 인디케이터(911)를 좌측 필러 디스플레이(581a)에 표시할 수 있다. 이때, 인디케이터(911)는 사각지대의 영상(910)에 겹쳐지는 형식으로 표시될 수 있다.(c) of FIG. 9 illustrates that the indicator 911 for guiding the risk index of the object 901 is displayed on the left pillar display 581a. For example, when the risk index of the object 901 is greater than or equal to a threshold value, the processor 570 warns of a risk of collision between the vehicle 100 and the object 901 and sets a predetermined indicator 911 to the left to dictate the driver's response. It can be displayed on the pillar display 581a. For example, when the risk index is the first value, the processor 570 may display the indicator 911 of the first size on the left pillar display 581a as shown. At this time, the indicator 911 may be displayed in a form overlapping the image 910 of the blind spot.

도 9의 (d)는 객체(901)의 위험 지수가 도 9의 (c)보다 높아진 경우에 표시되는 인디케이터(912)를 예시한다. 도 9의 (c)의 인디케이터(911)와 비교할 때, 인디케이터(912)는 그 사이즈가 확대된 것일 수 있다. 물론, 사이즈 외에 색상, 투명도, 점멸 주기 등이 변경되는 것도 가능하다.(d) of FIG. 9 illustrates an indicator 912 displayed when the risk index of the object 901 is higher than that of (c) of FIG. 9 . Compared to the indicator 911 of FIG. 9(c), the indicator 912 may have an enlarged size. Of course, it is also possible to change the color, transparency, flashing cycle, etc. in addition to the size.

한편, 도 9에서는 좌측 필러 디스플레이(581a)의 표시 동작을 기준으로 설명하였으나, 우측 필러 디스플레이(581b) 역시 동일한 방식으로 동작할 수 있음은 물론이다.Meanwhile, although the display operation of the left pillar display 581a has been described in FIG. 9 as a standard, it goes without saying that the right pillar display 581b may also operate in the same manner.

또한, 도 9의 (c) 및 (d)에는 인디케이터(911, 912)가 기호 형태인 것으로 도시되어 있으나, 이는 예시적인 것이며, 기호 외의 숫자, 문자, 영상 등이 조합된 형태를 가질 수 있다.In addition, although the indicators 911 and 912 are illustrated in (c) and (d) of FIG. 9 as symbols, this is exemplary and may have a combination of numbers, characters, images, etc. other than symbols.

도 10은 본 발명의 일 실시예에 따른 디스플레이 장치가 교통정보 모드에 진입한 경우에 수행하는 프로세스의 플로우 챠트를 예시한다.10 illustrates a flowchart of a process performed when a display device enters a traffic information mode according to an embodiment of the present invention.

단계 S1010에서, 프로세서(570)는 C-V2X 모듈(115)로부터 제공되는 다양한 교통정보를 필러 디스플레이(581)에 표시한다. 이 경우, 프로세서(570)는 차량(100)의 조향각에 따라, 좌측 필러 디스플레이(581a)와 우측 필러 디스플레이(581b) 중 적어도 하나를 선택적으로 활성화하여, 교통정보에 관련된 영상을 표시할 수 있다. 예를 들어, 차량(100)이 좌회전 중인 경우 좌측 필러 디스플레이(581a)만을 활성화하여 좌측 교통정보에 관련된 영상을 표시하고, 차량(100)이 우회전 중인 경우 우측 필러 디스플레이(581b)만을 활성화하여 우측 교통정보에 관련된 영상을 표시하며, 차량(100)이 직진 중인 경우 좌측 필러 디스플레이(581a)와 우측 필러 디스플레이(581b)를 모두 활성화할 수 있다.In step S1010, the processor 570 displays various traffic information provided from the C-V2X module 115 on the pillar display 581. In this case, the processor 570 may display an image related to traffic information by selectively activating at least one of the left pillar display 581a and the right pillar display 581b according to the steering angle of the vehicle 100 . For example, when the vehicle 100 is turning left, only the left pillar display 581a is activated to display an image related to left traffic information, and when the vehicle 100 is turning right, only the right pillar display 581b is activated to display right traffic information. An image related to information is displayed, and both the left pillar display 581a and the right pillar display 581b may be activated when the vehicle 100 is traveling straight.

단계 S1020에서, 프로세서(570)는 교통정보의 데이터로부터 임계정보를 검출할 수 있다. 이때, 프로세서(570)는 좌측 교통정보의 데이터와 우측 교통정보의 데이터 각각으로부터 임계정보를 개별적으로 검출할 수 있다.In step S1020, the processor 570 may detect critical information from traffic information data. In this case, the processor 570 may separately detect critical information from left traffic information data and right traffic information data.

교통정보의 데이터로부터 임계정보가 검출되는 경우, 프로세서(570)는 검출된 임계정보 종류, 크기, 형상, 위치, 속도 및 방향 중 적어도 하나를 연산할 수 있다.When critical information is detected from traffic information data, the processor 570 may calculate at least one of the type, size, shape, position, speed, and direction of the detected critical information.

단계 S1030에서, 프로세서(570)는 검출된 임계정보의 위험 지수를 산출할 수 있다. 여기서, 위험 지수란, 차량(100)이 임계 정보에 의한 특정 객체에 충돌 위험성을 수치적으로 표현한 값일 수 있다. 예컨대, 차량(100)과 객체 간의 거리가 가까울수록, 객체의 크기가 클수록, 객체가 차량(100)을 향하여 빠르게 다가올수록, 프로세서(570)는 위험 지수를 증가시킬 수 있다.In step S1030, the processor 570 may calculate a risk index of the detected critical information. Here, the risk index may be a value numerically expressing the risk of the vehicle 100 colliding with a specific object based on critical information. For example, the closer the distance between the vehicle 100 and the object, the larger the size of the object, and the faster the object approaches the vehicle 100, the processor 570 may increase the risk index.

단계 S840에서, 프로세서(570)는 산출된 위험 지수를 안내하는 인디케이터를 필러 디스플레이(581)에 표시할 수 있다. 구체적으로, 필러 디스플레이(581)에는 임계정보 관련 영상 상에, 위험 지수를 안내하는 인디케이터가 겹쳐지는 방식으로 표시될 수 있다. 이때, 인디케이터는 임계정보 영상의 전체 영역 중, 인디케이터에 의해 지시되는 객체에 인접한 위치에 표시될 수 있다.In step S840, the processor 570 may display an indicator for guiding the calculated risk index on the pillar display 581. Specifically, an indicator for guiding a risk index may be displayed in an overlapping manner on an image related to critical information on the pillar display 581 . In this case, the indicator may be displayed at a position adjacent to the object indicated by the indicator in the entire area of the critical information image.

한편, 프로세서(570)는 위험 지수를 안내하는 인디케이터를 표시하는 경우, 위험 지수를 기초로, 인디케이터의 크기, 위치, 형상 및 색상 중 적어도 하나를 설정할 수 있다. 예를 들어, 시간의 경과에 따라, 임계정보 내의 특정 객체에 대한 위험 지수가 높아지는 경우, 프로세서(570)는 위험 지수에 비례하게 인디케이터의 크기를 확대할 수 있다. 다른 예를 들어, 특정 객체에 대한 위험 지수가 임계값 미만인 경우 제1색상의 인디케이터를 표시하고, 동일 객체에 대한 위험 지수가 임계값 이상으로 증가하는 경우 제2색상의 인디케이터를 표시할 수 있다.Meanwhile, when displaying an indicator for guiding a risk index, the processor 570 may set at least one of a size, position, shape, and color of the indicator based on the risk index. For example, when the risk index of a specific object within the critical information increases over time, the processor 570 may increase the size of the indicator in proportion to the risk index. For another example, a first color indicator may be displayed when the risk index for a specific object is less than the threshold value, and a second color indicator may be displayed when the risk index for the same object increases to more than the threshold value.

한편, C-V2X 모듈(115)은 차량(100)이 타차량(101), 보행자(102), 인프라(103) 등과의 무선 링크가 실패하는 경우가 있다. 여기서, 무선 링크 실패라함은 무선 통신중 RRC_CONNECTED 모드에서, 차량(100)이 네트워크에서 설정된 기준 신호 (SSB/CSI-RS) 및 신호 품질 임계 값을 기반으로 활성 BWP에서 무선 링크 모니터링(Radio Link Monitoring)을 수행하는데, SSB-기반 RLM은 초기 DL BWP에 연관된 SSB를 기반으로 하고, 초기 DL BWP 및 초기 DL BWP에 연관된 SSB를 포함하는 DL BWP에 대해서만 설명될 수 있으며, 다른 DL BWP에 대하여, RLM은 CSI-RS를 기반으로만 수행될 수 있는데, 다음의 기준들의 하나가 만족될 때 차량(100)은 무선 링크 실패(RLF)를 선언해야 한다.On the other hand, in the C-V2X module 115, the vehicle 100 may fail in a wireless link with other vehicles 101, pedestrians 102, infrastructure 103, and the like. Here, the radio link failure means that in the RRC_CONNECTED mode during wireless communication, the vehicle 100 monitors the radio link in the active BWP based on the reference signal (SSB/CSI-RS) and signal quality threshold set in the network (Radio Link Monitoring). The SSB-based RLM is based on the SSB associated with the initial DL BWP and can be described only for the DL BWP including the initial DL BWP and the SSB associated with the initial DL BWP, and for other DL BWPs, the RLM This can be performed only based on the CSI-RS. When one of the following criteria is satisfied, the vehicle 100 must declare a radio link failure (RLF).

- 물리적 계층에서 무선 문제의 표시 후 시작된 타이머 만료(타이머가 만료되기 전에 무선 문제가 회복되면, UE는 타이머를 중지시킨다); 또는- Timer expiration started after indication of radio problem at physical layer (if radio problem recovers before timer expires, UE stops timer); or

- 랜덤 액세스 절차 실패; 또는- random access procedure failure; or

- RLC 실패.- RLC failure.

RLF가 선언된 후, 차량(100)은:After the RLF is declared, the vehicle 100:

- RRC_CONNECTED 모드에서 유지하며;- stay in RRC_CONNECTED mode;

- 적절한 셀을 선택하고 그 후 RRC 재-설정을 시작하고;- select an appropriate cell and then initiate RRC re-configuration;

- RLF가 선언된 후 일정 시간 내에 적합한 셀을 찾지 못하면 RRC_IDLE로 들어간다.- If no suitable cell is found within a certain period of time after RLF is declared, RRC_IDLE is entered.

3GPP TS 23.287에서, NR V2X 통신을 위한 식별자가 다음과 같이 소개된다:In 3GPP TS 23.287, identifiers for NR V2X communication are introduced as follows:

V2X 통신이 PC5 유니캐스트 링크를 통해서 전달되는 경우, 다음의 원칙이 적용된다:When V2X communication is carried over a PC5 unicast link, the following principles apply:

- PC5 유니캐스트 링크의 세분성은 양 차량의 응용 계층 ID의 쌍과 동일하다. 따라서 V2X 서비스가 동일한 응용 계층 ID 쌍과 연관되어 있다면, 하나의 PC5 유니캐스트 링크는 하나 이상의 V2X 서비스(예를 들어, PSID 또는 ITS-AID)를 지원한다. 예를 들어, 제1차량는 응용 계층 ID 2에 의해 식별되는 피어(peer) 차량을 갖는 하나의 PC5 유니캐스트 링크 및 응용 계층 ID 4에 의해 식별되는 피어 차량을 갖는 또 다른 PC5 유니캐스트 링크를 가지고 있다.- The granularity of the PC5 unicast link is equal to the pair of application layer IDs of both vehicles. Therefore, if the V2X service is associated with the same application layer ID pair, one PC5 unicast link supports one or more V2X services (eg, PSID or ITS-AID). For example, vehicle 1 has one PC5 unicast link with a peer vehicle identified by application layer ID 2 and another PC5 unicast link with a peer vehicle identified by application layer ID 4 .

성공적인 PC5 유니캐스트 링크 설정 후, 제1차량과 제2차량은 후속 PC5-S 시그널링 메시지 교환 및 V2X 서비스 데이터 송신을 위해 동일한 계층-2 ID 쌍을 이용한다. 메시지를 설정된 PC5 링크를 통하여 전송할 때 송신 차량의 V2X 계층은 메시지가 PC5-S 시그널링 메시지(즉, 다이렉트 통신 요청/수락, 링크 식별자 업데이트 요청/응답, 연결 분리 요청/응답) 또는 서비스 데이터 송신을 위한 것인지 여부를 AS 계층에 나타낸다. 수신 차량의 V2X 계층은 메시지가 PC5-S 시그널링 메시지이면 처리하는 반면에, 수신 차량의 V2X 계층은 메시지가 응용 데이터 메시지이면 메시지를 상위 계층으로 전달한다.After successful PC5 unicast link establishment, the first vehicle and the second vehicle use the same layer-2 ID pair for subsequent PC5-S signaling message exchange and V2X service data transmission. When transmitting a message through the established PC5 link, the V2X layer of the transmitting vehicle determines whether the message is a PC5-S signaling message (i.e., direct communication request/acceptance, link identifier update request/response, connection disconnection request/response) or service data transmission. It indicates to the AS layer whether or not While the V2X layer of the receiving vehicle processes the message if it is a PC5-S signaling message, the V2X layer of the receiving vehicle delivers the message to the upper layer if the message is an application data message.

유니캐스트 모드는 흐름 별(per-flow) QoS 모델을 지원한다. 유니캐스트 링크 설정 동안, 각 차량은 PC5 링크 식별자를 자체 할당하고 PC5 링크 식별자를 설정된 유니캐스트 링크에 대한 유니캐스트 링크 프로파일과 연관시킨다. PC5 링크 식별자는 차량 내에서 고유한 값이다. PC5 링크 식별자에 의하여 식별되는 유니캐스트 링크 프로파일은 서비스 유형(들) (예를 들어, PSID 또는 ITS-AID), 제1차량의 응용 계층 ID 및 계층-2 ID, 제2차량의 응용 계층 ID 및 계층-2 ID 및 PC5 QoS 흐름 식별자(들)(PFI(들))의 세트를 포함한다. 각 PFI는 QoS 매개 변수 (즉, PQI 그리고 선택적으로 범위)와 연관되어 있다. PC5 링크 식별자 및 PFI(들)는 응용 계층 ID 및 계층-2 ID의 변경에 관계없이 설정된 유니캐스트 링크에 대해 변경되지 않은 값이다. 차량은 PFI를 사용하여 AS 계층에 대한 PC5 QoS 흐름을 나타내며, 따라서 소스 및/또는 목적지 계층-2 ID가 예를 들어 프라이버시 지원(privacy support)으로 인하여 변경된 경우에도 AS 계층은 대응 PC5 QoS 흐름을 식별한다. 차량은 PC5 링크 식별자를 사용하여 V2X 응용 계층에 대한 PC5 유니캐스트 링크를 나타내며, 따라서 하나의 서비스 유형과 연관된 하나 이상의 유니캐스트 링크가 있을지라도 V2X 응용 계층은 대응하는 PC5 유니캐스트 링크를 식별한다 (예를 들어, 차량은 동일한 서비스 유형에 대한 다수의 차량으로 다수의 유니캐스트 링크를 설정한다).Unicast mode supports a per-flow QoS model. During unicast link establishment, each vehicle assigns itself a PC5 link identifier and associates the PC5 link identifier with the unicast link profile for the established unicast link. The PC5 link identifier is a unique value within the vehicle. The unicast link profile identified by the PC5 link identifier includes the service type(s) (e.g. PSID or ITS-AID), the application layer ID and layer-2 ID of the first vehicle, the application layer ID of the second vehicle and Layer-2 ID and a set of PC5 QoS flow identifier(s) (PFI(s)). Each PFI is associated with a QoS parameter (ie PQI and optionally a range). The PC5 Link Identifier and PFI(s) are unchanged values for established unicast links regardless of changes in Application Layer ID and Layer-2 ID. The vehicle uses PFI to indicate the PC5 QoS flow to the AS layer, so that the AS layer identifies the corresponding PC5 QoS flow even if the source and/or destination layer-2 IDs have changed, for example due to privacy support. do. A vehicle uses a PC5 link identifier to indicate a PC5 unicast link to a V2X application layer, so even if there is more than one unicast link associated with one service type, the V2X application layer identifies the corresponding PC5 unicast link (e.g. For example, a vehicle establishes multiple unicast links to multiple vehicles for the same service type).

3GPP RAN2#106 미팅에서, 사이드링크(SL) 유니캐스트 통신을 위한 송신 차량 및 수신 차량 모두에 대한 무선 링크 실패 모니터링이 합의되었으나, NR SL RLF 선언과 연관된 세부 절차는 아직 불분명하며, Uu에서 RLF 절차를 직접적으로 적용하는 것은 적합하지 않을 수 있다.At the 3GPP RAN2#106 meeting, radio link failure monitoring for both transmitting and receiving vehicles for sidelink (SL) unicast communication was agreed, but detailed procedures related to NR SL RLF declaration are still unclear, and RLF procedure in Uu It may not be suitable to apply directly.

한편, 3GPP TS 38.331에서 논의된 바와 같이 NR Uu 링크에 관한 무선 링크 모니터링 및 무선 링크 실패 선언에 대한 현재 사양에 따르면, 차량이 네트워크와의 무선 링크 실패를 검출하면, 차량은 다른 조치를 수행할 수 있으며 RRC_IDLE로 이동할 수 있거나 네트워크와의 연결 재설정 절차를 시작할 수 있다. 차량이 네트워크와의 연결 문제를 갖지 않을 수 있으며 따라서 Uu에 대해 RRC_CONNECTED 모드를 벗어날 필요가 없기 때문에 일부 동작은 SL RLF에 적용 가능하지 않을 수 있다. 또한, 제1차량이 제2차량과 SL RLF를 선언하는 경우, 제1차량은 제2차량과의 연결 회복에 영향을 미치지 않기 때문에 연결 재-설정과 연관된 셀 재선택 (또는 차량 재선택)을 수행할 필요가 없을 수 있다.On the other hand, according to the current specifications for radio link monitoring and radio link failure declaration for NR Uu links as discussed in 3GPP TS 38.331, if the vehicle detects a radio link failure with the network, the vehicle can perform other actions. and can jump to RRC_IDLE or initiate a connection reset procedure with the network. Some actions may not be applicable to SL RLF since the vehicle may not have connectivity issues with the network and therefore does not need to leave RRC_CONNECTED mode for Uu. In addition, when the first vehicle declares an SL RLF with the second vehicle, the cell reselection (or vehicle reselection) associated with the connection re-establishment is performed because the first vehicle does not affect the recovery of the connection with the second vehicle. You may not need to do it.

도 11은 본 발명의 일 실시예에 따른 디스플레이 장치가 교통정보 모드에 진입시 C-V2X 모듈(115)에서 멀티 사이드링크 통신을 처리하는 프로세스의 플로우 챠트를 예시한다. 여기서, 플로우는 제1차량의 관점이다.11 illustrates a flowchart of a process of processing multi-sidelink communication in the C-V2X module 115 when the display device enters the traffic information mode according to an embodiment of the present invention. Here, the flow is from the perspective of the first vehicle.

단계 1110에서, 제1차량은 제2차량과의 사이드링크 유니캐스트 통신을 수행하거나 설정한다. 단계 1120에서, 제1차량은 제3차량과의 사이드링크 유니캐스트 통신을 수행하거나 설정한다. 단계 1130에서, 제1차량은 제2차량과 연관된 무선 링크 실패를 검출한다. 단계 1140에서, 제1차량은 무선 링크 실패에 응답하여 제2차량와 연관된 사이드링크 매체 액세스 제어 리셋을 수행하며, 제3차량과 연관된 사이드링크 매체 액세스 제어 리셋은 수행하지 않는다.In step 1110, the first vehicle performs or establishes sidelink unicast communication with the second vehicle. In step 1120, the first vehicle performs or establishes sidelink unicast communication with the third vehicle. In step 1130, the first vehicle detects a radio link failure associated with the second vehicle. In step 1140, the first vehicle performs a sidelink medium access control reset associated with the second vehicle in response to the radio link failure and does not perform a sidelink medium access control reset associated with the third vehicle.

일 실시예에서, 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 제2차량과 연관된 모든 사이드링크 송신 및/또는 수신을 중지시키는 제1차량을 포함할 수 있거나 이러한 제1차량으로 구성될 수 있다. 바람직하게는 또는 대안적으로, 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 제3차량과 연관된 모든 사이드링크 송신 및/또는 수신을 중지시키는 것을 포함하지 않을 수 있다. 사이드링크 송신 또는 수신은 물리적 사이드링크 공유 채널, 물리적 사이드링크 제어 채널 및/또는 물리적 사이드링크 피드백 채널 송신 또는 수신을 포함할 수 있거나 이들로 구성될 수 있다.In one embodiment, the sidelink medium access control reset associated with the second vehicle may include or consist of the first vehicle stopping all sidelink transmissions and/or receptions associated with the second vehicle. . Preferably or alternatively, resetting the sidelink medium access control associated with the second vehicle may not include stopping all sidelink transmissions and/or receptions associated with the third vehicle. A sidelink transmission or reception may include or consist of a physical sidelink shared channel, a physical sidelink control channel, and/or a physical sidelink feedback channel transmission or reception.

일 실시예에서, 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 만료될 제2차량과 연관된 하나 이상의 타이머를 고려하는 제1차량을 포함할 수 있거나 이 제1차량으로 구성될 수 있다. 부가적으로 또는 대안적으로, 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 만료될 제3차량과 연관된 하나 이상의 타이머를 고려하지 않는 제1차량을 포함할 수 있거나 이러한 제1차량으로 구성될 수 있다. 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 또한 제2차량과 연관된 모든 보류 중인 스케줄링 요청(SR) 및/또는 버퍼 상태 리포트(BSR)를 취소하는 것을 포함할 수 있거나 이로 구성될 수 있다 바람직하게는 또는 대안적으로, 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 제3차량과 연관된 모든 보류 중인 스케줄링 요청(SR) 및/또는 버퍼 상태 리포트(BSR)를 취소하는 것을 포함하지 않을 수 있다.In one embodiment, the sidelink medium access control reset associated with the second vehicle may include or consist of the first vehicle considering one or more timers associated with the second vehicle to expire. Additionally or alternatively, the sidelink medium access control reset associated with the second vehicle may include or consist of the first vehicle not taking into account one or more timers associated with the third vehicle to expire. there is. The sidelink medium access control reset associated with the second vehicle may also include or consist of canceling all pending Scheduling Requests (SRs) and/or Buffer Status Reports (BSRs) associated with the second vehicle. Alternatively, the sidelink medium access control reset associated with the second vehicle may not include canceling all pending scheduling requests (SRs) and/or buffer status reports (BSRs) associated with the third vehicle.

일 실시예에서, 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 제2차량과의 사이드링크 유니캐스트 통신과 연관된 모든 소프트 버퍼를 플러싱하는 것을 포함할 수 있거나 이로 구성될 수 있다. 바람직하게는 또는 대안적으로, 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 제3차량과의 사이드링크 유니캐스트 통신과 관련된 모든 소프트 버퍼를 플러싱하는 것을 포함하지 않을 수 있다.In one embodiment, the sidelink medium access control reset associated with the second vehicle may include or consist of flushing all soft buffers associated with the sidelink unicast communication with the second vehicle. Preferably or alternatively, the sidelink medium access control reset associated with the second vehicle may not include flushing all soft buffers associated with the sidelink unicast communication with the third vehicle.

일 실시예에서, 사이드링크 매체 액세스 제어 리셋은 네트워크에 의해 스케쥴링된 또는 제1차량에 의해 예약된 제2차량과 연관된 사이드링크 유니캐스트 리소스를 해제하는 것을 포함할 수 있다. 일 실시예에서, 제1차량은 제2차량과의 사이드링크 유니캐스트 통신 및 제3차량과의 사이드링크 유니캐스트 통신을 위해 하나의 사이드링크 매체 액세스 제어 개체를 유지할 수 있다.In one embodiment, sidelink medium access control reset may include releasing sidelink unicast resources associated with the second vehicle scheduled by the network or reserved by the first vehicle. In one embodiment, a first vehicle may maintain one sidelink medium access control entity for sidelink unicast communication with a second vehicle and for sidelink unicast communication with a third vehicle.

이와 같이 하여, 본 발명의 일 실시예에서는 제1차량이 제2,3차량과 사이드링크 유니캐스트 동작을 수행하는 도중에, 일례로, 제2차량과 연관된 무선 링크 실패를 검출할 경우, 제2차량과 연관된 사이드링크 무선 매체 액세스 제어 리셋만 수행하고 제3차량과 연관된 사이드링크 무선 매체 액세스 제어 리셋을 수행하지 않음으로써, 제1차량의 C-V2X 동작에 있어 오버 헤드를 축소하여 필러 디스플레이를 통한 저지연 초고속 교통 정보의 제공이 가능하다.In this way, in one embodiment of the present invention, while the first vehicle performs a sidelink unicast operation with the second and third vehicles, for example, when a radio link failure associated with the second vehicle is detected, the second vehicle By performing only the sidelink wireless medium access control reset associated with the third vehicle and not performing the sidelink wireless medium access control reset associated with the third vehicle, the overhead is reduced in the C-V2X operation of the first vehicle, thereby saving through the pillar display. It is possible to provide delayed high-speed traffic information.

이상에서 설명한 것은 본 발명에 따른 차량용 필러 디스플레이 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing the vehicle pillar display system according to the present invention, and the present invention is not limited to the above-described embodiment, and the subject matter of the present invention as claimed in the claims below Anyone with ordinary knowledge in the field to which the present invention pertains without departing from the technical spirit of the present invention to the extent that various changes can be made.

Claims (5)

제1차량의 A-필러의 실내측면에 제공되는 제1디스플레이; 상기 제1차량의 실외측면에 구비되어, 상기 A-필러에 의한 사각지대의 영상을 획득하는 카메라; 및 상기 제1디스플레이에 연결되어, 상기 제1디스플레이의 동작을 제어하는 프로세서를 포함하고, 상기 프로세서는, 사각지대 모드 및 교통정보 모드를 수행하여 미리 정해진 유형의 정보를 상기 제1디스플레이에 표시하되, 상기 프로세서는,
상기 사각지대 모드에 진입 시, 상기 사각지대의 영상을 상기 제1 디스플레이에 표시하는 동시에 상기 사각지대의 영상에 대한 영상 처리를 통해, 상기 사각지대 내의 객체를 검출하고, 상기 검출된 객체의 위험 지수를 산출하고, 상기 검출된 객체를 안내하는 인디케이터를 상기 제1디스플레이에 표시하며, 상기 위험 지수를 기초로, 상기 인디케이터의 크기, 위치, 형상 및 색상을 설정하고,
상기 교통정보 모드에 진입 시, 상기 제1차량이 외부의 제2차량 및 제3차량과 무선 링크를 설정하여 사이드링크 유니캐스트 통신을 수행하도록 하되, 상기 제2차량 및 상기 제3차량과 사이드링크 유니캐스트 통신을 수행하는 도중 상기 제2차량과 연관된 무선 링크의 실패를 검출하면, 상기 무선 링크의 실패에 응답하여 상기 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋을 수행하고 상기 제3차량과 연관된 사이드링크 매체 액세스 제어 리셋은 수행하지 않는 동시에 상기 교통정보의 데이터에 대한 데이터 처리를 통해, 상기 교통정보 내의 임계정보를 검출하고, 상기 검출된 임계정보의 위험 지수를 산출하고, 상기 검출된 위험 지수를 안내하는 인디케이터를 상기 제1디스플레이에 표시하는, 차량용 필러 디스플레이 시스템.
a first display provided on an interior side of an A-pillar of a first vehicle; a camera provided on an outdoor side surface of the first vehicle to obtain an image of a blind spot caused by the A-pillar; and a processor connected to the first display and controlling an operation of the first display, wherein the processor displays information of a predetermined type on the first display by performing a blind spot mode and a traffic information mode; , the processor,
Upon entering the blind spot mode, an image of the blind spot is displayed on the first display, and an object within the blind spot is detected through image processing on the image of the blind spot, and a risk index of the detected object is detected. Calculate, display an indicator for guiding the detected object on the first display, set the size, position, shape and color of the indicator based on the risk index,
When entering the traffic information mode, the first vehicle establishes a wireless link with the second vehicle and the third vehicle outside to perform sidelink unicast communication, but the sidelink with the second vehicle and the third vehicle If a failure of the radio link associated with the second vehicle is detected while performing unicast communication, a sidelink medium access control reset associated with the second vehicle is performed in response to the failure of the radio link and associated with the third vehicle. Sidelink medium access control reset is not performed, but at the same time, critical information in the traffic information is detected through data processing on the data of the traffic information, a risk index of the detected critical information is calculated, and the detected risk index is calculated. A vehicle pillar display system for displaying an indicator for guiding on the first display.
제 1 항에 있어서,
상기 프로세서는, 상기 제1차량에 대한 상기 검출된 객체 및 임계정보의 종류, 거리, 방향 및 속도에 기초로, 상기 위험 지수를 산출하는, 차량용 필러 디스플레이 시스템.
According to claim 1,
The processor calculates the risk index based on the type, distance, direction, and speed of the detected object and critical information for the first vehicle.
제 1 항에 있어서,
상기 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 상기 제1차량이 상기 제2차량과 연관된 사이드링크 송신 및 수신을 중지시키는, 차량용 필러 디스플레이 시스템.
According to claim 1,
The sidelink medium access control reset associated with the second vehicle causes the first vehicle to stop transmitting and receiving sidelinks associated with the second vehicle.
제 3 항에 있어서,
상기 사이드링크 송신 및/또는 수신은 물리적 사이드링크 공유 채널, 물리적 사이드링크 제어 채널 및 물리적 사이드링크 피드백 채널 송신 및 수신을 포함하는, 차량용 필러 디스플레이 시스템.
According to claim 3,
The sidelink transmission and / or reception includes a physical sidelink shared channel, a physical sidelink control channel, and a physical sidelink feedback channel transmission and reception.
제 1 항에 있어서,
상기 제2차량과 연관된 사이드링크 매체 액세스 제어 리셋은 상기 제3차량과 연관된 사이드링크 송신 및 수신을 중지시키는, 차량용 필러 디스플레이 시스템.
According to claim 1,
Wherein the sidelink medium access control reset associated with the second vehicle stops sidelink transmission and reception associated with the third vehicle.
KR1020210127094A 2021-09-27 2021-09-27 Automotive Pillar Display System Active KR102697323B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210127094A KR102697323B1 (en) 2021-09-27 2021-09-27 Automotive Pillar Display System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210127094A KR102697323B1 (en) 2021-09-27 2021-09-27 Automotive Pillar Display System

Publications (2)

Publication Number Publication Date
KR20230045663A true KR20230045663A (en) 2023-04-05
KR102697323B1 KR102697323B1 (en) 2024-08-26

Family

ID=85884432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210127094A Active KR102697323B1 (en) 2021-09-27 2021-09-27 Automotive Pillar Display System

Country Status (1)

Country Link
KR (1) KR102697323B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120007834A (en) * 2010-07-15 2012-01-25 고려대학교 산학협력단 Indoor vehicle display device and control method thereof
KR20140131760A (en) * 2013-05-06 2014-11-14 고려대학교 산학협력단 Display unit mounted on an interior of a vehicle to display outside view and method for controlling the unit
KR101708657B1 (en) * 2015-09-01 2017-02-21 엘지전자 주식회사 Vehicle and control method for the same
KR101767507B1 (en) * 2016-02-17 2017-08-11 엘지전자 주식회사 Display apparatus for a vehicle, and control method for the same
KR20210018773A (en) * 2019-08-08 2021-02-18 아서스테크 컴퓨터 인코포레이션 Method and apparatus for handling multiple sidelink communication in a wireless communication system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120007834A (en) * 2010-07-15 2012-01-25 고려대학교 산학협력단 Indoor vehicle display device and control method thereof
KR20140131760A (en) * 2013-05-06 2014-11-14 고려대학교 산학협력단 Display unit mounted on an interior of a vehicle to display outside view and method for controlling the unit
KR101708657B1 (en) * 2015-09-01 2017-02-21 엘지전자 주식회사 Vehicle and control method for the same
KR101767507B1 (en) * 2016-02-17 2017-08-11 엘지전자 주식회사 Display apparatus for a vehicle, and control method for the same
KR20210018773A (en) * 2019-08-08 2021-02-18 아서스테크 컴퓨터 인코포레이션 Method and apparatus for handling multiple sidelink communication in a wireless communication system

Also Published As

Publication number Publication date
KR102697323B1 (en) 2024-08-26

Similar Documents

Publication Publication Date Title
JP6773046B2 (en) Driving support device, driving support method, and moving object
CN109532837B (en) Electronic device provided in vehicle, and computer-readable medium
US10748428B2 (en) Vehicle and control method therefor
CN110709304B (en) Vehicle control system, vehicle control method, and storage medium
KR101916993B1 (en) Display apparatus for vehicle and control method thereof
KR101853396B1 (en) Appratus and method for controlling portable device within a vehicle
CN109542096B (en) Method for controlling a vehicle operating system and vehicle operating system
KR20190056800A (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
KR20170099188A (en) Driver Assistance Apparatus and Vehicle Having The Same
US20180120854A1 (en) Method for communication between a control station which externally controls an automatically traveling vehicle and a further traffic participant as well as an automatically traveling vehicle
EP3506601B1 (en) Vehicle control device and vehicle equipped with vehicle control device
CN210191316U (en) Vehicle display system and vehicle
CN111247784A (en) Vehicle-to-vehicle and vehicle-to-infrastructure communication and pedestrian detection system
KR101767507B1 (en) Display apparatus for a vehicle, and control method for the same
CN108367707B (en) Lighting device for vehicle, and lighting control system
KR102420922B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR20210068571A (en) Electronic Control Units and Communication Units
TW201800291A (en) Message push method, device and device
KR20170054849A (en) Driver Assistance Apparatus and Vehicle Having The Same
KR20170005663A (en) Display control apparatus for vehicle and operating method for the same
KR101732263B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
US20230304822A1 (en) Route guidance device and route guidance method thereof
KR20180069646A (en) Driver assistance apparatus
US11315415B2 (en) Information sharing system and information sharing method for vehicle
KR101897350B1 (en) Driver Assistance Apparatus

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20210927

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20231031

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240514

PG1601 Publication of registration