KR101986734B1 - Driver assistance apparatus in vehicle and method for guidance a safety driving thereof - Google Patents
Driver assistance apparatus in vehicle and method for guidance a safety driving thereof Download PDFInfo
- Publication number
- KR101986734B1 KR101986734B1 KR1020170064457A KR20170064457A KR101986734B1 KR 101986734 B1 KR101986734 B1 KR 101986734B1 KR 1020170064457 A KR1020170064457 A KR 1020170064457A KR 20170064457 A KR20170064457 A KR 20170064457A KR 101986734 B1 KR101986734 B1 KR 101986734B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- driver
- driving
- vehicle
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 26
- 230000002093 peripheral effect Effects 0.000 claims abstract description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 230000001939 inductive effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 230000006698 induction Effects 0.000 description 5
- 206010041349 Somnolence Diseases 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001112258 Moca Species 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0809—Driver authorisation; Driver identity check
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/06—Direction of travel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2302/00—Responses or measures related to driver conditions
- B60Y2302/03—Actuating a signal or alarm device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/90—Driver alarms
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명에 따른 차량 운전 보조 장치는 운전자의 얼굴 및 주행 차량의 주변 영상을 촬영하는 촬영부, 상기 촬영된 영상으로부터 주행 상태의 안전 여부를 판단하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 촬영된 운전자의 얼굴로부터 운전자의 시선 정보를 분석하고, 상기 촬영된 주변 영상으로부터 차량의 주행 정보를 분석하며, 상기 시선 정보와 상기 분석된 주행 정보와의 대응 여부에 기초하여 상기 차량의 주행 상태의 안전 여부를 판단하여 상기 운전자에게 경고 알림 메시지를 출력하되, 상기 운전자의 시선 정보는 상기 얼굴 및 시선의 방향 정보를 포함하고, 상기 주행 정보는 주행 속도 정보, 주행 방향 정보, 주행 차선의 정보 및 상기 주행 차선을 기준으로 전방, 후방, 좌측 및 우측에 위치하는 객체의 정보 중 하나 이상을 포함한다.The vehicle driving assistant apparatus according to the present invention includes a photographing section for photographing a peripheral image of a driver's face and a traveling vehicle, a memory for storing a program for judging whether or not the running state is safe from the photographed image, Lt; / RTI > At this time, as the program is executed, the processor analyzes driver's gaze information from the photographed driver's face, analyzes driving information of the vehicle from the photographed peripheral image, and compares the gaze information with the analyzed traveling The driver's visibility information includes direction information of the face and the gaze, and the driving information includes information on the direction of the face and the gaze, Information on the driving lane, and information on the objects positioned on the front, rear, left, and right sides of the driving lane based on the running speed information, the running direction information, the driving lane information, and the like.
Description
본 발명은 차량 운전 보조 장치 및 이의 안전 운전 유도 방법에 관한 것이다.BACKGROUND OF THE
최근 차량에는 지능형 안전 기능을 구현하기 위해 LDWS(Lane Departure Warning), LKAS(Lane Keeping Assistance)의 카메라, SCC(Smart Cruise Control)와 BSD(Blind Spot Detection)의 레이더 등 다양한 센서 또는 카메라가 적용되어 운전자의 안전 운전을 보조하는 ADAS(Advanced Driver Assistance System)가 상용화되어 적용되고 있다.Recently, various sensors or cameras such as LDWS (Lane Departure Warning), LKAS (Lane Keeping Assistance) camera, SCC (Smart Cruise Control) and BSD (Blind Spot Detection) radar have been applied to implement intelligent safety functions. ADAS (Advanced Driver Assistance System) that assists the safe driving of the vehicle has been commercialized and applied.
또한, 운전자의 주의가 분산되는 것을 감지하기 위하여 얼굴을 인식하는 카메라를 통해 운전자의 상태를 분석하는 기술도 제공되어, 졸음 운전 등을 방지하게끔 하는 기술도 제공되고 있는 실정이다.In addition, a technology for analyzing the driver's condition through a camera for recognizing the face is provided to detect the driver's attention, thereby providing a technique for preventing drowsiness driving.
그러나 ADAS나 운전자의 얼굴을 인식하는 기술은 상호 연동되지 않고 각각 별개로 제공됨에 따라 그 활용도가 매우 제한적이다는 문제가 있다.However, there is a problem that ADAS and driver 's face recognizing technologies are not interrelated and provided separately, and their utilization is very limited.
즉, ADAS의 경우 단순히 전방 차량 등과의 충돌 상태, 차선 이탈 상태 등을 개별적으로 안내해줄 뿐이고, 얼굴 인식 기술 역시 단순히 졸음 운전과 같은 상황에 대하여 경고하는 수준에 그치고 있다.That is, the ADAS only guides the collision state with the front vehicle, the lane departure state, and the like, and the face recognition technology is still at a level to warn of situations such as drowsiness.
이와 같이 운전자에게 제공되고 있는 정보들은 각각의 개별 정보들에 불과한 실정인바, 운전자의 상태 정보를 ADAS에서 제공하는 정보와 융합하여 운전자에게 보다 직접적인 경보를 제공하는 기술이 필요한 실정이다.In this way, the information provided to the driver is only individual information, and it is necessary to provide the driver with more direct alarm by fusing the driver's state information with the information provided by ADAS.
이와 관련하여, 한국공개특허공보 제10-2017-0017616호(발명의 명칭: 운전 보조 장치 및 방법)는 운전자가 졸음 상태이거나 전방을 주시하지 않는 상태일 때 경고를 알리는 기술을 개시하고 있다.In this regard, Korean Patent Laid-Open Publication No. 10-2017-0017616 (title of the invention: driving assist system and method) discloses a technique for warning when a driver is in a drowsy state or is not watching forward.
본 발명의 실시예는 운전자의 얼굴을 촬영하여 운전자의 시선 정보를 획득하고, 주변 영상으로부터 차량의 주행 정보를 분석하여, 시선 정보와 주행 정보와의 대응 여부에 기초하여 차량의 주행 상태의 안전 여부 판별 및 경고 알림 메시지를 제공할 수 있는 차량 운전 보조 장치 및 이의 안전운전 유도 방법을 제공하고자 한다.In the embodiment of the present invention, the driver's gaze information is obtained by photographing the driver's face, the driving information of the vehicle is analyzed from the surrounding image, and the safety of the driving state of the vehicle based on whether or not the gaze information corresponds to the driving information And a method of inducing a safe driving of the vehicle.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It should be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 차량 운전 보조 장치는 운전자의 얼굴 및 주행 차량의 주변 영상을 촬영하는 촬영부, 상기 촬영된 영상으로부터 주행 상태의 안전 여부를 판단하기 위한 프로그램이 저장된 메모리 및 상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함한다. 이때, 상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 촬영된 운전자의 얼굴로부터 운전자의 시선 정보를 분석하고, 상기 촬영된 주변 영상으로부터 차량의 주행 정보를 분석하며, 상기 시선 정보와 상기 분석된 주행 정보와의 대응 여부에 기초하여 상기 차량의 주행 상태의 안전 여부를 판단하여 상기 운전자에게 경고 알림 메시지를 출력하되, 상기 운전자의 시선 정보는 상기 얼굴 및 시선의 방향 정보를 포함하고, 상기 주행 정보는 주행 속도 정보, 주행 방향 정보, 주행 차선의 정보 및 상기 주행 차선을 기준으로 전방, 후방, 좌측 및 우측에 위치하는 객체의 정보 중 하나 이상을 포함한다.As a technical means for achieving the above technical object, a vehicle driving assist system according to a first aspect of the present invention includes a photographing section for photographing a peripheral image of a driver's face and a traveling vehicle, And a processor for executing a program stored in the memory. At this time, as the program is executed, the processor analyzes driver's gaze information from the photographed driver's face, analyzes driving information of the vehicle from the photographed peripheral image, and compares the gaze information with the analyzed traveling The driver's visibility information includes direction information of the face and the gaze, and the driving information includes information on the direction of the face and the gaze, Information on the driving lane, and information on the objects positioned on the front, rear, left, and right sides of the driving lane based on the running speed information, the running direction information, the driving lane information, and the like.
상기 프로세서는 상기 운전자가 차량 내에서 주시 가능한 방향을 복수 개의 영역으로 구획하여 구별하고, 상기 복수 개의 영역 중 상기 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역을 상기 운전자의 시선 정보로 획득할 수 있다.The processor can distinguish the directions that the driver can see in the vehicle into a plurality of areas and obtain an area matching the direction information of the driver's face and sight line among the plurality of areas as the sight information of the driver have.
상기 프로세서는 상기 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 상기 주행 정보 중 상기 주행 차선의 정보와 대응되지 않는 경우 상기 운전자에게 경고 알림 메시지를 출력할 수 있다.The processor may output a warning notification message to the driver when the area matching the direction information of the driver's face and the sight line does not correspond to the information of the driving lane among the driving information.
상기 프로세서는 상기 주행 정보 중 객체의 정보, 주행 방향 정보 및 주행 속도 정보에 기초하여 기 설정된 시간 이내에 상기 객체와 차량과의 충돌 가능성이 있을 것으로 분석된 경우, 상기 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 상기 객체의 정보와 대응되지 않으면 상기 운전자에게 경고 알림 메시지를 출력할 수 있다.When the possibility of collision between the object and the vehicle is determined to be within a predetermined time based on the information of the object, the traveling direction information, and the traveling speed information of the traveling information, the processor calculates the direction information of the face and the eyes of the driver, If the matching area does not correspond to the information of the object, the warning notification message may be output to the driver.
상기 프로세서는 상기 객체의 정보 중 객체의 이동 방향 및 속도를 산출하고, 산출 결과 상기 기 설정된 시간 이내 상기 객체와 차량과의 충돌 가능성이 있을 것으로 분석된 경우 상기 경고 알림 메시지를 출력할 수 있다.The processor may calculate the movement direction and speed of the object among the information of the object, and may output the warning notification message when it is analyzed that there is a possibility of collision between the object and the vehicle within the predetermined time as a result of calculation.
상기 프로세서는 상기 매칭되는 영역에 대한 운전자의 주시 시간을 측정하여 상기 시선 정보로 획득하고, 상기 매칭되는 영역이 상기 주행 정보와 대응되지 않는 경우에 상기 주시 시간이 일정 초과하는 경우 상기 운전자에게 경고 알림 메시지를 출력할 수 있다.Wherein the processor measures the driver's viewing time of the matching area and acquires the viewing time of the driver as the sight line information, and when the matching time does not correspond to the driving information, Messages can be output.
상기 프로세서는 상기 시선 정보를 실시간으로 또는 기 설정된 주기마다 상기 메모리에 누적하여 저장하고, 미리 학습된 알고리즘을 통해 상기 누적된 시선 정보로부터 운전자의 예측 시선 정보를 생성할 수 있다.The processor may accumulate the gaze information in the memory in real time or at preset intervals and generate predictive gaze information of the driver from the accumulated gaze information through a previously learned algorithm.
상기 프로세서는 상기 예측 시선 정보를 운전자 별로 구분하여 생성하되, 상기 매칭되는 영역이 상기 주행 정보와 대응되지 않으나 상기 주행 상태가 안전한 경우로 판단된 횟수가 기 설정된 횟수 이상을 만족하는 경우 생성할 수 있다.The processor may generate the predictive sight line information by distinguishing the predictive line information for each driver, and may generate the predictive line information when the matching area does not correspond to the running information but the determined number of times that the traveling state is safe satisfies a predetermined number of times or more .
상기 프로세서는 상기 복수 개의 영역 별로 각각 상이한 가중치를 적용하고, 상기 적용된 가중치에 따라 상기 경고 알림 메시지를 출력하기 위한 경고 수준을 상이하게 적용시킬 수 있다.The processor may apply different weights to the plurality of areas, and may apply different warning levels for outputting the warning notification messages according to the applied weights.
상기 프로세서는 상기 주행 상태의 안전 여부의 판단 결과에 기초하여 상기 운전자의 안전 운전 지수를 산출할 수 있다.The processor can calculate the safe driving index of the driver based on the determination result of the safety state of the driving state.
또한, 본 발명의 제 2 측면에 따른 차량 운전 보조 장치에서의 안전운전 유도 방법은 운전자의 얼굴을 촬영하여 상기 운전자의 얼굴 및 시선의 방향 정보를 포함하는 시선 정보를 분석하는 단계; 차량의 주변을 촬영한 주변 영상으로부터 차량의 주행 속도 정보, 주행 방향 정보, 주행 차선의 정보 및 상기 주행 차선을 기준으로 전방, 후방, 좌측 및 우측에 위치하는 객체의 정보 중 하나 이상을 포함하는 주행 정보를 분석하는 단계; 상기 시선 정보와 상기 주행 정보와의 대응 여부에 기초하여 상기 차량의 주행 상태의 안전 여부를 판단하는 단계 및 상기 차량의 주행 상태가 안전하지 않은 것으로 판단된 경우 상기 운전자에게 경고 알림 메시지를 출력하는 단계를 포함한다.According to a second aspect of the present invention, there is provided a safe driving induction method in a vehicle driving assist system, comprising the steps of: capturing a face of a driver and analyzing sight line information including direction information of the face and eyes of the driver; From the peripheral images of the surroundings of the vehicle, information on the traveling speed of the vehicle, information on the traveling direction, information on the driving lane, and information on objects located on the front, rear, left and right sides of the traveling lane Analyzing the information; Determining whether the driving state of the vehicle is safe or not based on whether or not the sight line information corresponds to the driving information, and outputting an alarm notification message to the driver when the driving state of the vehicle is determined to be unsafe .
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 운전자의 상태 정보와 차량의 주행 정보를 종합하여 차량의 주행 상태를 판단함으로써 운전자에게 보다 직접적인 주행 상태 및 이에 대한 경고 제공이 가능하다.According to any one of the above-described objects of the present invention, it is possible to provide a driver with a more direct driving condition and a warning to the driver by judging the driving state of the vehicle by combining the driver's state information and the driving information of the vehicle.
도 1은 본 발명의 일 실시예에 따른 차량 운전 보조 장치의 블록도이다.
도 2는 차량 내 주시 가능한 복수 개의 영역을 설명하기 위한 도면이다.
도 3은 주변 영상의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 안전운전 유도 방법의 순서도이다.1 is a block diagram of a vehicle driving assist system according to an embodiment of the present invention.
2 is a view for explaining a plurality of viewable areas in a vehicle.
3 is an exemplary view of a peripheral image.
4 is a flowchart of a safe driving induction method according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly explain the present invention in the drawings, parts not related to the description are omitted.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Whenever a component is referred to as " including " an element throughout the specification, it is to be understood that the element may include other elements, not the exclusion of any other element, unless the context clearly dictates otherwise.
이하에서는 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)에 대하여 설명하도록 한다.Hereinafter, a vehicle
도 1은 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)의 블록도이다. 도 2는 차량 내 주시 가능한 복수 개의 영역을 설명하기 위한 도면이다. 도 3은 주변 영상의 예시도이다.1 is a block diagram of a vehicle
본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)는 촬영부(110), 메모리(120) 및 프로세서(130)를 포함한다.The vehicle
촬영부(110)는 운전자의 얼굴을 촬영하는 운전자 촬영부 및 주행 차량의 주변 영상을 촬영하는 주변 영상 촬영부를 포함한다.The photographing
이때, 운전자 촬영부는 일반 카메라, 스테레오 카메라, 깊이 카메라 등 특별한 종류의 카메라로 한정되는 것은 아니며, 본 발명에서는 운전자의 얼굴 및 운전자의 눈동자를 통한 시선을 획득할 수 있는 카메라를 의미한다. 또한, 실내가 어두운 경우에도 운전자의 얼굴 및 시선을 촬영한 영상을 획득하기 위하여 적외선 카메라로 구현되거나 상술한 카메라와 함께 적외선 카메라가 구비될 수도 있다.At this time, the driver photographing part is not limited to a specific kind of camera such as a general camera, a stereo camera, and a depth camera. In the present invention, the camera refers to a camera capable of acquiring a line of sight through a driver's face and a pupil of a driver. In addition, in order to acquire an image of a driver's face and a line of sight even in a dark room, an infrared camera may be provided or an infrared camera may be provided together with the camera.
또한, 운전자 촬영부는 운전자의 얼굴뿐만 아니라 운전자의 자세 정보도 함께 촬영할 수 있다. 이에 따라, 본 발명의 일 실시예는 예를 들어 좌석 시트의 포지션의 변경에 따라 운전자의 얼굴이 위치하는 높낮이 또는 카메라로부터의 거리 등이 변경되더라도 카메라의 줌을 재조절하거나 영상을 보정하여 운전자의 얼굴을 촬영하거나 정확한 영상을 획득할 수 있다.Further, the driver's photographing section can photograph not only the face of the driver but also the posture information of the driver. Therefore, according to an embodiment of the present invention, for example, even when the height of the driver's face or the distance from the camera is changed according to the change of the position of the seat, the zoom of the camera is adjusted or the image is corrected, You can shoot faces or acquire accurate images.
주변 영상 촬영부는 차량의 전방, 양 측면 또는 후방을 촬영한다. 이때, 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)는 차량의 전방, 양 측면 및 후방을 각각 촬영하기 위하여, 전방 카메라, 사이드 미러 등에 설치된 측면 카메라 및 후방 카메라를 각각 구비할 수도 있으며, 이 중 어느 하나의 카메라만을 구비할 수도 있음은 물론이다.The peripheral image capturing unit captures the front, both sides or the rear of the vehicle. At this time, the vehicle
한편, 주변 영상 촬영부는 반드시 카메라에 의해 구현된 것은 아니며, 차량의 외부에 구비되는 LDWS(Lane Departure Warning)와 LKAS(Lane Keeping Assistance)의 카메라, SCC(Smart Cruise Control)와 BSD(Blind Spot Detection)의 레이더 등을 포함하도록 구현될 수도 있다.The peripheral image capturing unit is not necessarily implemented by a camera. The peripheral image capturing unit is not necessarily implemented by a camera, but may be an LDWS (Lane Departure Warning), a LKAS (Lane Keeping Assistance) camera, a Smart Cruise Control (SCC) Of radar and the like.
메모리(120)에는 촬영된 영상으로부터 주행 상태의 안전 여부를 판단하기 위한 프로그램이 저장된다. 여기에서, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다.The
예를 들어, 메모리(120)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.For example, the
한편, 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)는 통신모듈(140)을 더 포함할 수 있으며, 통신모듈(140)은 촬영부(110)에 의해 촬영된 각 영상들을 수신한다. 이와 같은 통신모듈(140)은 유선 통신모듈 및 무선 통신모듈을 모두 포함할 수 있다. 유선 통신모듈은 전력선 통신 장치, 전화선 통신 장치, 케이블 홈(MoCA), 이더넷(Ethernet), IEEE1294, 통합 유선 홈 네트워크 및 RS-485 제어 장치로 구현될 수 있다. 또한, 무선 통신모듈은 WLAN(wireless LAN), Bluetooth, HDR WPAN, UWB, ZigBee, Impulse Radio, 60GHz WPAN, Binary-CDMA, 무선 USB 기술 및 무선 HDMI 기술 등으로 구현될 수 있다.The vehicle
보다 바람직하게 통신모듈(140)은 촬영부(110) 및 메모리(120)와 CAN(Controller Area Network) 통신을 통하여 데이터를 송수신할 수 있다.More preferably, the
프로세서(130)는 메모리(120)에 저장된 프로그램을 실행시킨다. 프로세서(130)는 프로그램을 실행시킴에 따라, 운전자 촬영부를 통해 촬영된 운전자의 얼굴로부터 운전자의 시선 정보를 분석한다. 이때, 운전자의 시선 정보는 운전자의 얼굴의 방향 및 운전자의 얼굴의 방향에 따른 또는 눈동자에 따른 시선의 방향 정보를 포함한다.The
이와 같이 운전자의 시선 정보를 획득하고 나면, 프로세서(130)는 도 2와 같이 운전자가 차량 내에서 주시 가능한 방향을 복수 개의 영역으로 구획하여 구별한다. 그리고 복수 개의 영역 중 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역을 운전자의 시선 정보로 획득할 수 있다.After acquiring the line of sight information of the driver, the
예를 들어, 차량이 직진 차로를 주행 중인 경우 운전자는 주로 얼굴 및 시선의 방향을 제 1 영역 또는 제 3 영역을 바라보게 되는바, 이와 같이 현재 주행 중인 차량에서 바라보는 제 1 영역 또는 제 3 영역을 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역으로 확인하여 시선 정보로 획득한다.For example, when the vehicle is traveling in a straight lane, the driver mainly looks at the first region or the third region in the direction of the face and the line of sight. Thus, the first region or the third region Is identified as an area matching with the direction information of the driver's face and the sight line, and is obtained as sight line information.
정상 주행뿐만 아니라, 예를 들어 차량이 직진 차로를 주행 중에 운전자가 졸음 운전을 하고 있는 경우, 운전자의 얼굴의 방향이 제 8 영역을 바라보게 되는바, 제 8 영역을 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역으로 확인하여 시선 정보로 획득한다.In addition to normal driving, for example, when the driver is driving a sleeping driver while the vehicle is driving in a straight lane, the direction of the driver's face is looking at the eighth area, and the eighth area is the direction of the driver's face and sight line The information is matched with the information, and it is acquired as sight information.
한편, 도 2의 경우 전방 및 측면에 대하여 한정된 개수의 영역이 설정된 것으로 도시되어 있으나 이는 일 예시에 불과하며, 복수 개의 영역은 보다 세밀하게 구획되어 구분될 수도 있고, 전방 및 측방뿐만 아니라 후방에도 영역이 구획되어 구분될 수 있음은 물론이다.In the case of FIG. 2, a limited number of regions are set for the front side and the lateral side. However, the present invention is not limited thereto. For example, the plurality of regions may be divided and divided more precisely, Of course, can be divided and distinguished.
보다 세밀하고 넓은 범위에 걸쳐 영역이 구분됨에 따라 운전자의 시선 정보가 더욱 구체화될 수 있으며, 후술하는 운전자의 습관을 보다 구체적으로 학습할 수도 있게 된다.As the area is divided more precisely and over a wide range, the driver's gaze information can be further refined and the driver's habit described later can be learned more concretely.
다음으로 프로세서(130)는 주변 영상 촬영부에 의해 촬영된 주변 영상으로부터 차량의 주행 정보를 분석한다. 이때, 차량의 주행 정보는 차량의 주행 속도 정보, 주행 방향 정보, 주행 차선 정보 및 주행 차선을 기준으로 전방, 후방, 좌측 및 우측에 위치하는 객체의 정보 중 하나 이상을 포함한다. Next, the
이때, 차량의 주행 정보는 주변 영상으로부터 분석하여 획득할 수도 있으며, 이와 함께 또는 별개로 차량에 포함된 각 센서에 의해 센싱된 정보를 분석하여 획득하거나, ECU가 센싱된 정보를 이용하여 차량을 자가 진단한 정보를 분석하여 획득할 수도 있다.At this time, the running information of the vehicle may be obtained by analyzing from the surrounding image, or may be obtained by analyzing and acquiring information sensed by each sensor included in the vehicle, or by using information sensed by the ECU, It can also be obtained by analyzing the diagnosed information.
이와 같이 운전자의 시선 정보와 주행 정보를 획득하고 나면, 프로세서(130)는 시선 정보와 주행 정보와의 대응 여부에 기초하여 차량의 주행 상태의 안전 여부를 판단하고, 이에 기초하여 운전자에게 경고 알림 메시지를 출력할 수 있다.After acquiring the sight line information and the driving information of the driver in this way, the
구체적으로, 프로세서(130)는 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 주행 정보 중 주행 차선의 정보와 대응되지 않는 경우 운전자에게 경고 알림 메시지를 출력할 수 있다. 이때, 시선 정보에 매칭되는 영역과 주행 정보에 대응되는 영역은 미리 메모리(120) 상에 저장되어 있을 수 있다.Specifically, the
그리고 주행 정보에 해당하는 영역의 경우, 객체나 차선에 대하여 운전자가 바라보는 시선 방향을 연장시켰을 때 이와 교차하는 영역일 수 있으며 하나의 객체가 복수 개의 영역에 나뉘어 포함되는 경우 포함되는 복수 개의 영역이 주행 정보에 해당하는 영역일 수 있다.In the case of the area corresponding to the running information, it may be an intersecting area when the direction of the line of sight of the driver is extended with respect to the object or the lane, and when a single object is divided into a plurality of areas, And may be an area corresponding to the travel information.
예를 들어, 차량이 직진 차선을 주행하고 있는 경우에는 운전자의 시선 방향이 제 1 영역 또는 제 3 영역을 바라보고 있는 것이 정상적이며, 주변을 살피고자 할 경우 제 2 영역 또는 제 4 영역도 바라보는 것이 정상적이다. 따라서, 현재 차량의 주행 정보가 직진 차선을 똑바로 주행하고 있는 경우, 이에 대응되는 영역은 제 1 내지 제 4 영역에 해당한다.For example, when the vehicle is traveling in a straight lane, it is normal that the direction of the driver's gaze is looking at the first area or the third area, and when looking at the surroundings, the second area or the fourth area It is normal. Therefore, when the current running information of the vehicle is running straight ahead, the corresponding area corresponds to the first to fourth areas.
그러나 차량이 직진 차선을 주행하고 있는 경우, 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 제 1 내지 제 4 영역이 아닌 제 5 내지 제 8 영역인 경우, 상기 영역과 주행 정보는 대응되지 않는 경우에 해당하는바, 이 경우 프로세서(130)는 운전자에게 경고 알림 메시지를 출력할 수 있다.However, in the case where the vehicle is traveling in the straight lane, when the area matched with the direction information of the driver's face and the sight line is the fifth to eighth areas other than the first to fourth areas, In this case, the
또 다른 예로, 차량이 왼쪽 차선으로 차선 변경을 하고 있는 중인 경우 운전자의 시선 방향은 제 1 영역 및 제 3 영역의 전방 영역과, 왼쪽 사이드 미러 영역인 제 7 영역 그리고 뒷차를 확인하기 위한 제 5 영역을 바라보는 것이 정상적이다. 따라서, 현재 차량의 주행 정보가 왼쪽으로 차선 변경을 하는 중인 경우, 이에 대응되는 영역은 제 1, 3, 5, 7 영역에 해당한다.As another example, when the vehicle is making a lane change to the left lane, the driver's gaze direction is the front area of the first area and the third area, the seventh area as the left side mirror area, and the fifth area It is normal to look at. Therefore, when the running information of the current vehicle is changing to the left, the corresponding area corresponds to the first, third, fifth, and seventh areas.
그러나 차량이 왼쪽 차선으로 차선 변경을 하고 있는 중 이에 대응되는 영역을 바라보고 있는 시선 정보를 획득하지 못하고, 그 외 다른 영역인 예를 들어 제 8 영역을 바라보고 있는 시선 정보를 획득한 경우, 상기 영역과 주행 정보는 대응되지 않는 경우에 해당하는바, 이 경우 프로세서(130)는 운전자에게 경고 알림 메시지를 출력할 수 있다.However, when the vehicle does not acquire line-of-sight information looking at the area corresponding to the lane change in the left lane and acquires line-of-sight information that is in another area, for example, the eighth area, If the area and the running information do not correspond to each other, the
또한, 프로세서(130)는 주행 정보 중 객체의 정보, 주행 방향 정보 및 주행 속도 정보에 기초하여 기 설정된 시간 이내에 객체와 차량과의 충돌 가능성이 있는 것으로 분석한 경우, 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 객체의 정보와 대응되지 않으면 운전자에게 경고 알림 메시지를 출력할 수 있다.When the
이때, 프로세서(130)는 객체의 정보 중 객체의 이동 방향 및 속도를 산출하고, 산출 결과 기 설정된 시간 이내 객체와 차량과의 충돌 가능성이 있을 것으로 분석된 경우 경고 알림 메시지를 출력할 수 있다. At this time, the
여기에서, 객체는 차량 주변 차선에 위치하는 타차량, 보행자뿐만 아니라 기타 장애물을 포함하는 개념이다. 또한, 객체의 이동 방향은 예를 들어 보행자의 무단 횡단과 같은 차량과의 수직 방향, 대각 방향 등을 포함하는 교차 방향일 수 있으나 반드시 이에 한정되는 것은 아니며, 차량의 진행방향과 정방향 및 역방향도 충돌 가능성이 있으므로 이들 방향을 모두 포함한다.Here, the object is a concept that includes other vehicles, pedestrians as well as other obstacles located in the lane around the vehicle. Also, the moving direction of the object may be, for example, a crossing direction including a vertical direction, a diagonal direction, and the like with respect to a vehicle, such as an endless crossing of a pedestrian, It is possible to include all these directions.
예를 들어, 차량이 직진 차선을 정방향으로 시속 60으로 주행 중인 경우, 해당 차선의 왼쪽에 정차된 타차량이 존재하면, 이와 대응되는 영역은 제 1 영역, 제 2 영역 및 제 5 영역이 될 수 있다. For example, when a vehicle is traveling in a forward direction with a straight lane of 60, and there is a stopped vehicle on the left side of the lane, the corresponding area may be a first area, a second area and a fifth area have.
프로세서(130)가 초음파 센서, 라이다 센서 등의 거리 측정 센서를 통해 객체들과 5초 이내에 충돌할 가능성이 있는 것으로 분석한 경우, 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 제 1 영역, 제 2 영역 및 제 5 영역이 아닌 예를 들어 제 7 영역이면, 프로세서(130)는 해당 영역이 주행 정보와 대응되지 않는 것으로 판단하여 운전자에게 경고 알림 메시지를 출력할 수 있다.When the
또한, 프로세서(130)는 예를 들어 보행자가 왼쪽에서 오른쪽으로 무단횡단을 하는 경우로, 보행자의 이동 방향(왼쪽에서 오른쪽으로 이동 중)과 이동 속도를 산출하고, 자차의 주행 방향 정보 및 주행 속도 정보에 기초하여 5초 후에 보행자와의 충돌 가능성이 있을 것으로 판단한 경우 운전자에게 경고 알림 메시지를 출력할 수 있다.For example, when the pedestrian endlessly traverses from left to right, the
이와 같이 본 발명의 일 실시예는 객체가 단순히 정지 상태인 경우뿐만 아니라, 이동 중인 객체의 방향 및 속도를 산출하고 이를 주행 방향 및 속도에 기초하여 충돌 가능성을 산출하여 운전자에게 경고할 수 있는바, 운전자의 시선이 객체의 방향에 대응되지 않는 경우에도 사고 위험을 최소화시킬 수 있다는 장점이 있다.As described above, according to an embodiment of the present invention, not only when the object is in a stationary state, but also the direction and speed of the moving object are calculated and the possibility of collision is calculated based on the traveling direction and speed, There is an advantage that the risk of an accident can be minimized even when the driver's gaze does not correspond to the direction of the object.
또한, 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)는 도 3과 같이 촬영부(110)를 통해 촬영한 이미지로부터 프로세서(130)는 주변에 위치하는 차량들에 직접 대응하는 영역만을 관심 영역(Region of Interest)으로 설정하고, 설정된 관심 영역을 기초로 하여 객체의 정보, 즉 객체의 이동 방향 및 속도를 산출할 수 있다. 3, the vehicle driving
그리고 운전자의 시선 정보에 매칭되는 영역이 관심 영역과 대응되지 않으면 운전자에 경고 알림 메시지를 출력할 수 있다.If the area matching the sight line information of the driver does not correspond to the area of interest, the warning alert message may be output to the driver.
예를 들어, 도 3에서 차량이 직진으로 주행 중인 경우, 프로세서(130)는 촬영된 영상으로부터 관심 영역(P1~P3)을 설정한다. 이때, 관심 영역(P2)인 차량이 차선 변경을 통해 자차의 전방 쪽으로 접근하는 경우, 운전자는 시선 정보와 매칭되는 영역으로 도 2에서 제 1 영역 또는 제 3영역을 보는 것이 정상적이며, 관심 영역(P2)도 제 1 영역 또는 제 3 영역에 대응되게 된다. 그러나 이때 제 8 영역이나 제 6 영역과 같이 관심 영역(P2)에 대응되는 영역과 상이한 경우, 프로세서(130)는 운전자에게 경고 알림 메시지를 출력할 수 있다.For example, in FIG. 3, when the vehicle is running straight, the
이에 따라, 본 발명의 일 실시예는 촬영된 영상 전체를 분석하지 않고, 관심 영역만으로 객체를 빠르고 정확하게 검출 및 분석할 수 있어, 사고의 위험에 대하여 실시간으로 대처하게끔 할 수 있다.Accordingly, an embodiment of the present invention can quickly and accurately detect and analyze an object using only the region of interest, without analyzing the entire captured image, so that it can cope with the risk of an accident in real time.
한편, 관심 영역은 도 3에 도시된 예시와 같이, 주변 영상 촬영부가 거리별로 구분되는 복수 개의 거리별 관심 영역(P4)을 설정하고, 해당 객체에 대한 관심 영역(P1~P3)를 설정한 다음, 관심 영역(P1~P3)에 대하여 복수 개의 거리 별 관심 영역을 매핑시킴으로써, 본 발명의 일 실시예는 관심 영역(P1~P3)에 대한 자차와의 거리, 상대적인 위치 정보를 보다 정확하고 빠르게 획득할 수 있다.Meanwhile, as shown in FIG. 3, an area of interest P4 is set for each of a plurality of distances in which the surrounding image photographing unit is divided into distances, and interest areas P1 to P3 for the corresponding objects are set By mapping a plurality of ROIs to the ROIs P1 to P3, an embodiment of the present invention can acquire the distance and relative position information of the ROI to the ROIs P1 to P3 more accurately and quickly can do.
예를 들어, 관심 영역(P1)의 경우 상대적으로 촘촘한 복수 개의 거리별 관심 영역(P4)의 중심 부분에 위치하고, 관심 영역(P2)의 경우 상대적으로 넓은 간격을 가지는 복수 개의 거리별 관심 영역(P4)의 측면 부분에 위치하는 것을 확인하여, 프로세서(130)는 관심 영역(P1), 관심영역(P2)에 대응하는 차량과 자차와의 거리 및 상대적인 위치를 정확하고 빠르게 획득할 수 있다.For example, in the case of the region of
또한, 운전자의 시선 정보에 매칭되는 영역을 주행 정보에 해당하는 영역과 대응되는지 여부를 판단함에 있어, 관심 영역은 거리별 관심 영역(P4)의 정보(위치 및 거리 정보)를 포함하고 있는바, 복수의 객체에 해당하는 관심 영역들이 도 3의 동일 영역에 포함되더라도, 사용자의 시선 정보에 기초하여 복수의 객체 중 사용자가 현재 관심을 가지고 있는 하나 또는 그 이상의 객체의 정보를 정확하게 추출할 수 있다.In determining whether the area matching the driver's sight line information corresponds to the area corresponding to the driving information, the area of interest includes information (position and distance information) of the area of interest P4 per distance, Even if the regions of interest corresponding to the plurality of objects are included in the same area of FIG. 3, information of one or more objects of which the user is currently interested can be accurately extracted from among a plurality of objects based on the sight line information of the user.
예를 들어, 도 3에서 관심 영역 (P2)와 관심 영역(P3)이 모두 도 2의 동일한 제 3 영역에 해당하고, 이 중에서 사용자가 관심 영역(P3)인 객체를 중심으로 바라보고 있는 경우, 본 발명의 일 실시예는 제 3 영역에 포함되는 모든 관심 영역(P2, P3)에 대한 정보를 획득하지 않고, 사용자의 시선 정보 즉, 얼굴과 시선이 향하고 있는 객체에 대응하는 관심 영역(P3)에 대한 정보만을 획득할 수 있다. For example, if the area of interest P2 and the area of interest P3 in FIG. 3 correspond to the same third area of FIG. 2 and the user is looking at the object, which is the area of interest P3, In an embodiment of the present invention, information on all the regions of interest (P2, P3) included in the third region is not acquired, and the region of interest P3 corresponding to the user's gaze information, i.e., Can be obtained only.
한편, 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)는 프로세서(130)가 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역에 대한 운전자의 주시 시간을 측정하여 시선 정보로 획득할 수 있다. 즉, 시선 정보는 얼굴 방향 정보, 시선 방향 정보 및 주시 시간 정보를 포함할 수 있다.Meanwhile, the vehicle driving
이에 따라, 프로세서(130)는 매칭되는 영역이 주행 정보와 대응되지 않는 경우에 주시 시간이 일정 시간을 초과하는 경우 운전자에게 경고 알림 메시지를 출력할 수 있다.Accordingly, the
즉, 운전자가 주행 차선 정보와 대응되는 영역 또는 객체의 정보와 대응되는 영역을 바라보지 않고, 대응되지 않는 영역을 일정 시간을 초과하여 바라보고 있는 경우 사고 위험성이 높은 것으로 판단하여 경고 알림 메시지를 출력하게 된다.That is, if the driver does not look at the area corresponding to the driving lane information or the area corresponding to the information of the object, and if the unobserved area is viewed over a certain period of time, it is determined that the accident risk is high, .
예를 들어, 차량이 직진 차선을 주행하고 있는 상태에서 운전자의 시선 방향이 제 1 영역 내지 제 4 영역을 바라보고 있는 경우 각 영역에 대한 주시 시간을 측정한다. For example, in a state where the vehicle is traveling in a straight lane, when the sight line direction of the driver is looking at the first to fourth regions, the viewing time for each region is measured.
차량이 직진 차선을 주행하고 있는 상태에서, 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 제 1 내지 제 4 영역이 아닌 제 5 내지 제 8 영역인 경우, 해당 영역에 대한 주시 시간을 측정하게 되며, 이때 제 5 내지 제 8 영역에 대한 주시 시간이 예를 들어 5초를 초과하는 경우 프로세서(130)는 사고 위험성이 높은 것으로 판단하여 운전자에게 경고 알림 메시지를 출력할 수 있다.When the area matched with the direction information of the driver's face and sight line is the fifth to eighth areas other than the first to fourth areas while the vehicle is traveling in the straight lane, At this time, if the viewing time for the fifth to eighth areas exceeds 5 seconds, for example, the
또한, 프로세서(130)는 운전자의 시선 정보를 실시간으로 또는 기 설정된 주기마다 메모리(120)에 누적하여 저장할 수 있다. 그리고 미리 학습된 알고리즘을 통해 누적된 시선 정보로부터 운전자의 예측 시선 정보를 생성할 수 있다.In addition, the
이때, 프로세서(130)는 예측 시선 정보를 운전자 별로 구분하여 생성하되, 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 주행 정보와 대응되지 않으나, 주행 상태가 안전한 경우로 판단된 횟수가 기 설정된 횟수 이상을 만족하는 경우 생성할 수 있다.At this time, the
프로세서(130)는 운전자의 시선 정보 즉, 얼굴의 방향 정보, 시선의 방향 정보 및 주시 시간 정보를 각 영역별로 구분하여 메모리(120)에 누적하여 저장한다.The
이와 같이 누적된 시선 정보를 입력값으로 설정하여 미리 학습된 알고리즘을 통해 운전자의 예측 시선 정보를 생성할 수 있다. 이때, 미리 학습된 알고리즘은 인공지능 신경망(Artificial Neural Network), 은닉 마르코프 모델(Hidden-Markov-Model, HMM) 기반의 알고리즘뿐만 아니라, CNN(Convolutional Neural Networks), RNN(Recurrent neural network) 등의 딥러닝 기반의 알고리즘이 적용될 수 있다.The accumulated gaze information is set as an input value, and the predicted gaze information of the driver can be generated through the previously learned algorithm. At this time, the algorithms already learned are not limited to algorithms based on Artificial Neural Network, Hidden-Markov-Model (HMM), but also algorithms such as CNN (Convolutional Neural Networks) and RNN (Recurrent Neural Network) A learning-based algorithm may be applied.
예를 들어, 운전자가 차량을 후진하고자 하는 경우 일반적으로 백미러 영역인 제 5 영역 또는 사이드 미러 영역인 제 7 영역과 제 8 영역을 바라보게 되나, 후방카메라가 설치되어 있는 경우 제 9 영역만을 보고도 후진이 가능할 수 있다.For example, when the driver desires to move the vehicle backward, the user views the seventh area and the eighth area, which are the rear mirror area or the rear mirror area, but only the ninth area when the rear camera is installed Reverse can be possible.
이 경우 프로세서(130)는 제 9 영역만을 보고 후진하는 경우가 일정 횟수 이상 발생하되, 충돌 등의 사고가 없는 경우, 매칭되는 영역(제 9 영역)이 주행 정보와 대응되지 않으나 안전한 것으로 판단하여 예측 시선 정보로 생성하고 이 경우 경고 알림 메시지를 출력하지 않는다.In this case, the
또 다른 예로, 직진 차선을 주행 중에 왼쪽 차선으로 차선 변경을 하고자 하는 경우, 차량이 많은 복잡한 도로에서는 왼쪽 사이드 미러 영역인 제 7 영역을 바라보고 차선 변경을 하는 것이 일반적이나, 차량이 거의 드문 한적한 도로에서는 뒷차량의 유무만을 보고도 차선 변경을 하는 경우가 있으며, 이 경우 백미러 영역인 제 5 영역만을 보고도 차선 변경이 가능하다.As another example, when it is desired to change the lane to the left lane while driving the straight lane, it is common to look at the seventh area as the left side mirror area and change the lane in a complicated road with many vehicles, In this case, it is possible to change the lane even if only the fifth area, which is the rearview mirror area, is viewed.
이러한 케이스에서 프로세서(130)는 제 5 영역만을 보고 차선 변경을 하는 경우가 일정 횟수 이상 발생하되, 충돌 등의 사고가 없는 경우, 매칭되는 영역(제 5 영역)이 주행 정보와 대응되지 않으나 안전한 것으로 판단하여 예측 시선 정보로 생성하고 이 경우 경고 알림 메시지를 출력하지 않게 된다.In this case, the
이와 같이, 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)는 운전자의 운전 습관 등의 패턴을 분석하고, 분석한 결과에 따른 예측 시선 정보를 생성하여 경고 알림 메시지가 출력되도록 함으로써, 일률적으로 경고 알림 메시지를 출력하여 정상적인 운전 상태에서도 경고 알림 메시지로 인해 운전에 방해되는 것을 방지할 수 있다.As described above, the driving
한편, 경고 알림 메시지는 차량의 계기판, HUD(Head Up Display) 또는 AVN(Audio Video Navigation) 시스템을 통해 음성, 화면에 디스플레이되는 형식으로 출력될 수 있음은 물론이고, 안전벨트나 시트의 진동을 통해 경고 알림 메시지는 출력될 수 있다. 또는 차량과 페어링된 스마트 폰, 태블릿 PC, 스마트워치 등과 같은 스마트 단말을 통해 경고 알림 메시지는 출력될 수도 있다.On the other hand, the warning notification message can be output in the form of voice or display on the screen through the instrument panel, HUD (Head Up Display) or AVN (Audio Video Navigation) system of the vehicle, An alert notification message may be output. Or an alert notification message may be output through a smart terminal such as a smart phone, a tablet PC, or a smart watch paired with the vehicle.
프로세서(130)는 운전자가 차량 내에서 주시 가능한 복수 개의 영역에 대하여 각각 상이한 가중치를 적용하고, 적용된 가중치에 따라 경고 알림 메시지를 출력하기 위한 경고 수준을 상이하게 적용시킬 수 있다. The
예를 들어, 운전자가 주로 바라보는 전방 영역인 제 1 내지 제 4 영역은 가중치를 상대적으로 낮게 설정하고, 차선 변경시 사용하는 제5 내지 제 7 영역은 중간 단계로 설정하며, 졸음 운전시와 같은 상황에서 바라보게 되는 영역인 제 8 내지 제 9 영역은 가중치를 높게 설정할 수 있다. 이에 따라, 상술한 경고 알림 메시지가 가중치가 낮은 단계에서는 화면 상의 팝업, 깜빡임 등으로만 출력되고, 중간 단계에서는 1회의 낮은 음량으로 출력되며, 높은 단계에서는 높은 음량과 복수회, 또는 위험 요소가 해소되었을 때까지 출력될 수 있다.For example, the weight of the first to fourth areas, which are the front areas mainly viewed by the driver, is set relatively low, and the fifth to seventh areas used when the lane is changed are set as intermediate levels. The eighth to ninth regions, which are the regions to be looked at in the situation, can be set to have a high weight. Accordingly, the above-described warning notification message is output only at pop-ups or flickers on the screen in a low weighted level, and is outputted at a low volume in a middle level, and at a high level, Can be output.
또한, 프로세서(130)는 복수 개의 영역별 가중치를 적용함에 있어, 차량의 주행 정보를 반영하여 가중치를 실시간으로 다르게 설정할 수 있다. 즉, 본 발명의 일 실시예는 차량의 주행 상태가 직진 중인지, 차선을 변경 중인지, 유턴 중인지, 후진 중인지 등을 고려하고, 차량의 속도, 객체의 정보 등도 가중치를 설정함에 있어 파라미터로 함께 적용시킬 수 있다.In addition, the
예를 들어, 차량이 직진 중인 경우 제 1 내지 제 4 영역은 가중치가 가장 낮은 영역일 것이나, 후진 중인 경우 제 1 내지 제 4 영역은 잘 바라보지 않게 되지 않는 영역이므로 돌발 상황 위험성이 높은바, 가중치를 조금 더 높게 설정할 수 있다.For example, in the case where the vehicle is straight ahead, the first to fourth regions may be regions having the lowest weight, but when the vehicle is moving backward, the first to fourth regions are regions that are not easily overlooked, Can be set a little higher.
또 다른 예로, 왼쪽 차선으로 차선 변경을 하는 경우 왼쪽 사이드 미러 영역인 제 7 영역이 아닌 오른쪽 사이드 미러인 제 6 영역에 대하여 가중치를 더 높게 설정하여 차선 변경 시도 중에 오른편에서 접근하는 차량, 보행자 등의 충돌 위험에 대하여 보다 적극적으로 경고 알림 메시지를 출력하게끔 할 수 있다.As another example, when the lane change is made in the left lane, the weight is set higher for the sixth area as the right side mirror than the seventh area as the left side mirror area, so that vehicles, pedestrians, It is possible to output a warning message more aggressively for the risk of collision.
또한, 본 발명의 일 실시예는 경고 알림 메시지를 출력하는 것뿐만 아니라, 경고 알림 메시지를 출력함과 동시에 또는 일정 시간이 경과함에도 불구하고 운전자의 조치가 없는 경우, 차량의 일부 제어 또는 전체 제어를 통해 사고 위험성을 방지할 수 있다.Further, according to an embodiment of the present invention, not only an alarm notification message but also an alarm notification message may be output or, when there is no action by the driver despite a certain time, The risk of accidents can be prevented through.
즉, 보행자와의 충돌 위험이 있는 경우 경고 알림 메시지를 출력함과 동시에 또는 일정 시간 후에도 차량의 속도가 감속되지 않는 경우 프로세서(130)는 직접 차량의 속도를 감속시키거나, 주변 차량 등의 객체 유무를 판단하여 차량의 핸들의 조향각을 변경시켜 충돌 발생을 직접 방지하게끔 할 수도 있다.That is, if there is a risk of a collision with a pedestrian, the
한편, 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)는 주행 상태의 안전 여부의 판단 결과에 기초하여 운전자의 안전 운전 지수를 산출할 수 있다. Meanwhile, the vehicle driving
즉, 프로세서(130)는 시선 정보와 주행 차선 정보, 객체의 정보와 같은 주행 정보가 매칭되지 않음에 따라 경고 알림 메시지를 출력한 횟수, 경고 수준에 따른 경고 알림 메시지의 출력 단계 등을 종합적으로 고려하여 운전자의 안전 운전 지수를 산출할 수 있다.That is, the
이 경우 프로세서(130)는 예측 시선 정보로 생성됨에 따라 주행 정보와 영역이 대응되지 않는 경우에는 경고 알림 메시지를 출력하지 않아도 되는바, 주행 정보와 영역이 대응되는 것으로 취급하여 안전 운전 지수를 산출할 수 있다.In this case, when the driving information and the area do not correspond to each other as the predicted sight line information is generated, the
이러한 안전 운전 지수는 1일마다 또는 1달과 같이 일정 주기 별로 산출될 수 있고, 산출된 안전 운전 지수는 운전자 마일리지 등과 같은 인센티브나 운전자 벌점 등과 같은 디센티브 제공시 반영될 수 있다.Such a safe driving index can be calculated at regular intervals such as every day or one month, and the calculated safe driving index can be reflected when providing a descent such as incentive or driver's penalty such as driver's mileage.
이러한 안전 운전 지수를 통해 인센티브나 디센티브를 제공함으로써, 차량 운전시 졸음 운전, 운전 미숙 행위 등에 대해 보다 적극적인 방지가 가능한바, 최종적으로 교통 사고 감소에 큰 영향을 미칠 수 있다는 효과를 기대할 수 있다.By providing the incentive or the descent through the safe driving index, it is possible to more aggressively prevent drowsiness and inactivity in the driving of the vehicle, which can be expected to greatly reduce the traffic accident.
참고로, 본 발명의 실시예에 따른 도 1에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.1 may be implemented in hardware such as software or an FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit), and may perform predetermined roles can do.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, 'components' are not meant to be limited to software or hardware, and each component may be configured to reside on an addressable storage medium and configured to play one or more processors.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 메모리, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, by way of example, an element may comprise components such as software components, object-oriented software components, class components and task components, processes, functions, attributes, procedures, Routines, segments of program code, drivers, firmware, microcode, circuitry, data, memory, data structures, tables, arrays, and variables.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.The components and functions provided within those components may be combined into a smaller number of components or further separated into additional components.
이하에서는 도 4를 참조하여, 본 발명의 일 실시예에 따른 차량 운전 보조 장치(100)에서의 안전운전 유도 방법을 설명하도록 한다.Hereinafter, a method for inducing safe driving in the
도 4는 본 발명의 일 실시예에 따른 안전운전 유도 방법의 순서도이다.4 is a flowchart of a safe driving induction method according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 안전 운전 유도 방법은 먼저, 운전자의 얼굴을 촬영하여 운전자의 얼굴 및 시선의 방향 정보를 포함하는 시선 정보를 분석한다(S110).In the safe driving induction method according to an embodiment of the present invention, first, a face of a driver is photographed and sight line information including direction information of a face and eyes of a driver is analyzed (S110).
다음으로, 차량의 전방을 촬영한 주변 영상으로부터 차량의 주행 속도 정보, 주행 방향 정보, 주행 차선의 정보 및 상기 주행 차선을 기준으로 전방, 후방, 좌측 및 우측에 위치하는 객체의 정보 중 하나 이상을 포함하는 주행 정보를 분석한다(S120).Next, it is assumed that at least one of the information of the vehicle traveling speed information, the traveling direction information, the information of the driving lane, and the information of the front, rear, left, and right objects based on the driving lane is obtained from the peripheral image of the front of the vehicle And analyzes the included driving information (S120).
다음으로, 시선 정보와 주행 정보와의 대응 여부에 기초하여 차량의 주행 상태의 안전 여부를 판단하고(S130), 차량의 주행 상태가 안전하지 않은 것으로 판단된 경우 운전자에게 경고 알림 메시지를 출력한다(S140).Next, it is determined whether or not the running state of the vehicle is safe based on whether or not the sight line information and the running information correspond to each other (S130). If it is determined that the running state of the vehicle is not safe, S140).
한편 상술한 설명에서, 단계 S110 내지 S140은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 1 내지 도 3에서의 차량 운전 보조 장치(100)에 관하여 이미 기술된 내용은 도 4의 안전 운전 유도 방법에도 적용된다.On the other hand, in the above description, steps S110 to S140 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. Also, some of the steps may be omitted as necessary, and the order between the steps may be changed. In addition, the contents already described with respect to the vehicle driving
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. One embodiment of the present invention may also be embodied in the form of a computer program stored on a medium executed by a computer or a recording medium including instructions executable by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes any information delivery media, including computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transport mechanism.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.While the methods and systems of the present invention have been described in connection with specific embodiments, some or all of those elements or operations may be implemented using a computer system having a general purpose hardware architecture.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
100: 차량 운전 보조 장치
110: 촬영부
120: 메모리
130: 프로세서
140: 통신모듈100: vehicle driving assist device
110:
120: Memory
130: Processor
140: Communication module
Claims (11)
운전자의 얼굴 및 주행 차량의 주변 영상을 촬영하는 촬영부,
상기 촬영된 영상으로부터 주행 상태의 안전 여부를 판단하기 위한 프로그램이 저장된 메모리 및
상기 메모리에 저장된 프로그램을 실행시키는 프로세서를 포함하되,
상기 프로세서는 상기 프로그램을 실행시킴에 따라, 상기 촬영된 운전자의 얼굴로부터 운전자의 시선 정보를 분석하고, 상기 촬영된 주변 영상으로부터 차량의 주행 정보를 분석하며, 상기 시선 정보와 상기 분석된 주행 정보와의 대응 여부에 기초하여 상기 차량의 주행 상태의 안전 여부를 판단하여 상기 운전자에게 경고 알림 메시지를 출력하되,
상기 운전자의 시선 정보는 상기 얼굴 및 시선의 방향 정보를 포함하고,
상기 주행 정보는 주행 속도 정보, 주행 방향 정보, 주행 차선의 정보 및 상기 주행 차선을 기준으로 전방, 후방, 좌측 및 우측에 위치하는 객체의 정보 중 하나 이상을 포함하며,
상기 프로세서는 상기 주변 영상으로부터 거리별로 구분되는 복수 개의 거리별 관심 영역 및 주변에 위치하는 차량들에 직접 대응하는 객체에 대한 관심 영역을 설정하고, 상기 객체에 대한 관심 영역을 상기 복수 개의 거리별 관심 영역에 매핑시킴으로써 상기 객체와의 거리 및 상대적인 위치 정보를 산출하며, 상기 산출된 거리 및 위치 정보에 기초하여 상기 시선 정보에 매칭되는 상기 객체에 대한 관심 영역에 대한 정보만을 추출하고, 상기 시선 정보에 매칭되는 영역이 상기 객체에 대한 관심 영역과 매칭되지 않는 경우 상기 경고 알림 메시지를 출력하는 것인 차량 운전 보조 장치.A vehicle driving assist system,
A photographing unit for photographing a periphery image of the driver's face and the driving vehicle,
A memory for storing a program for judging whether or not the running state is safe from the photographed image,
And a processor for executing a program stored in the memory,
The processor analyzes the driver's gaze information from the photographed driver's face and analyzes the driving information of the vehicle from the photographed peripheral image and displays the gaze information and the analyzed driving information And outputs an alarm notification message to the driver,
Wherein the driver's gaze information includes direction information of the face and the gaze,
The driving information includes at least one of information of the traveling speed information, the traveling direction information, the information of the driving lane, and the information of the front, rear, left, and right objects based on the driving lane,
Wherein the processor sets a region of interest for a plurality of distances classified by distance from the peripheral image and a region of interest for an object directly corresponding to surrounding vehicles, And extracts only information on a region of interest of the object matching the sight line information based on the calculated distance and position information, And outputs the warning notification message if the matching area does not match the area of interest for the object.
상기 프로세서는 상기 운전자가 차량 내에서 주시 가능한 방향을 복수 개의 영역으로 구획하여 구별하고, 상기 복수 개의 영역 중 상기 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역을 상기 운전자의 시선 정보로 획득하는 것인 차량 운전 보조 장치.The method according to claim 1,
Wherein the processor divides the driver's viewable direction into a plurality of areas and obtains an area matching the direction information of the driver's face and sight line among the plurality of areas as the sight line information of the driver Vehicle driving assistance device.
상기 프로세서는 상기 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 상기 주행 정보 중 상기 주행 차선의 정보와 대응되지 않는 경우 상기 운전자에게 경고 알림 메시지를 출력하는 것인 차량 운전 보조 장치.3. The method of claim 2,
Wherein the processor outputs an alarm notification message to the driver when an area matched with the direction information of the driver's face and sight line does not correspond to the information of the driving lane of the driving information.
상기 프로세서는 상기 주행 정보 중 객체의 정보, 주행 방향 정보 및 주행 속도 정보에 기초하여 기 설정된 시간 이내에 상기 객체와 차량과의 충돌 가능성이 있을 것으로 분석된 경우, 상기 운전자의 얼굴 및 시선의 방향 정보와 매칭되는 영역이 상기 객체의 정보와 대응되지 않으면 상기 운전자에게 경고 알림 메시지를 출력하는 것인 차량 운전 보조 장치.3. The method of claim 2,
When the possibility of collision between the object and the vehicle is determined to be within a predetermined time based on the information of the object, the traveling direction information, and the traveling speed information of the traveling information, the processor calculates the direction information of the face and the eyes of the driver, And outputs a warning notification message to the driver if the matching area does not correspond to the information of the object.
상기 프로세서는 상기 객체의 정보 중 객체의 이동 방향 및 속도를 산출하고, 산출 결과 상기 기 설정된 시간 이내 상기 객체와 차량과의 충돌 가능성이 있을 것으로 분석된 경우 상기 경고 알림 메시지를 출력하는 것인 차량 운전 보조 장치.5. The method of claim 4,
Wherein the processor calculates the moving direction and the speed of the object among the information of the object and outputs the warning notification message when it is analyzed that there is a possibility of collision between the object and the vehicle within the predetermined time as a result of calculation, Auxiliary device.
상기 프로세서는 상기 매칭되는 영역에 대한 운전자의 주시 시간을 측정하여 상기 시선 정보로 획득하고, 상기 매칭되는 영역이 상기 주행 정보와 대응되지 않는 경우에 상기 주시 시간이 일정 초과하는 경우 상기 운전자에게 경고 알림 메시지를 출력하는 것인 차량 운전 보조 장치.6. The method according to any one of claims 3 to 5,
Wherein the processor measures the driver's viewing time of the matching area and acquires the viewing time of the driver as the sight line information, and when the matching time does not correspond to the driving information, And outputs a message.
상기 프로세서는 상기 시선 정보를 실시간으로 또는 기 설정된 주기마다 상기 메모리에 누적하여 저장하고, 미리 학습된 알고리즘을 통해 상기 누적된 시선 정보로부터 운전자의 예측 시선 정보를 생성하는 것인 차량 운전 보조 장치.The method according to claim 6,
Wherein the processor accumulates and stores the gaze information in the memory in real time or at preset intervals and generates predictive gaze information of the driver from the accumulated gaze information through a previously learned algorithm.
상기 프로세서는 상기 예측 시선 정보를 운전자 별로 구분하여 생성하되, 상기 매칭되는 영역이 상기 주행 정보와 대응되지 않으나 상기 주행 상태가 안전한 경우로 판단된 횟수가 기 설정된 횟수 이상을 만족하는 경우 생성하는 것인 차량 운전 보조 장치.8. The method of claim 7,
Wherein the processor generates the predictive sight line information for each driver by generating the predictive line information when the number of times that the matched area does not correspond to the driving information but the driving state is determined to be safe is greater than a predetermined number Vehicle driving assistance device.
상기 프로세서는 상기 복수 개의 영역 별로 각각 상이한 가중치를 적용하고, 상기 적용된 가중치에 따라 상기 경고 알림 메시지를 출력하기 위한 경고 수준을 상이하게 적용시키는 것인 차량 운전 보조 장치.3. The method of claim 2,
Wherein the processor applies a different weight to each of the plurality of areas and differently applies a warning level for outputting the warning notification message according to the applied weight.
상기 프로세서는 상기 주행 상태의 안전 여부의 판단 결과에 기초하여 상기 운전자의 안전 운전 지수를 산출하는 것인 차량 운전 보조 장치.3. The method of claim 2,
Wherein the processor calculates the safe driving index of the driver based on a result of the determination as to whether or not the driving state is safe.
운전자의 얼굴을 촬영하여 상기 운전자의 얼굴 및 시선의 방향 정보를 포함하는 시선 정보를 분석하는 단계;
차량의 주변을 촬영한 주변 영상으로부터 차량의 주행 속도 정보, 주행 방향 정보, 주행 차선의 정보 및 상기 주행 차선을 기준으로 전방, 후방, 좌측 및 우측에 위치하는 객체의 정보 중 하나 이상을 포함하는 주행 정보를 분석하는 단계;
상기 시선 정보와 상기 주행 정보와의 대응 여부에 기초하여 상기 차량의 주행 상태의 안전 여부를 판단하는 단계 및
상기 차량의 주행 상태가 안전하지 않은 것으로 판단된 경우 상기 운전자에게 경고 알림 메시지를 출력하는 단계를 포함하되,
상기 주행 정보를 분석하는 단계는,
상기 주변 영상으로부터 거리별로 구분되는 복수 개의 거리별 관심 영역 및 주변에 위치하는 차량들에 직접 대응하는 객체에 대한 관심 영역을 설정하고, 상기 객체에 대한 관심 영역을 상기 복수 개의 거리별 관심 영역에 매핑시킴으로써 상기 객체와의 거리 및 상대적인 위치 정보를 산출하며, 상기 산출된 거리 및 위치 정보에 기초하여 상기 시선 정보에 매칭되는 상기 객체에 대한 관심 영역에 대한 정보만을 추출하고,
상기 경고 알림 메시지를 출력하는 단계는,
상기 시선 정보에 매칭되는 영역이 상기 객체에 대한 관심 영역과 매칭되지 않는 경우 상기 경고 알림 메시지를 출력하는 것인 안전운전 유도 방법.A method for inducing safe driving in a vehicle driving assist system,
Analyzing the gaze information including the direction information of the driver's face and gaze by photographing the driver's face;
From the peripheral images of the surroundings of the vehicle, information on the traveling speed of the vehicle, information on the traveling direction, information on the driving lane, and information on objects located on the front, rear, left and right sides of the traveling lane Analyzing the information;
Determining whether the running state of the vehicle is safe or not based on whether or not the sight line information corresponds to the running information;
And outputting a warning message to the driver when the driving state of the vehicle is determined to be unsafe,
Wherein the step of analyzing the running information comprises:
A region of interest for an object corresponding to a plurality of distances classified by distance from the surrounding image and an object directly corresponding to vehicles located in the vicinity, and mapping an interest region for the object to the interest region for each of the plurality of distances Extracting only information on a region of interest of the object matching the sight line information based on the calculated distance and position information,
Wherein the step of outputting the warning message comprises:
And outputting the alert notification message if an area matching the sight line information does not match an area of interest for the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170064457A KR101986734B1 (en) | 2017-05-25 | 2017-05-25 | Driver assistance apparatus in vehicle and method for guidance a safety driving thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170064457A KR101986734B1 (en) | 2017-05-25 | 2017-05-25 | Driver assistance apparatus in vehicle and method for guidance a safety driving thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180129044A KR20180129044A (en) | 2018-12-05 |
KR101986734B1 true KR101986734B1 (en) | 2019-06-07 |
Family
ID=64743764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170064457A Active KR101986734B1 (en) | 2017-05-25 | 2017-05-25 | Driver assistance apparatus in vehicle and method for guidance a safety driving thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101986734B1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102250776B1 (en) * | 2019-03-26 | 2021-05-11 | (주)파트론 | A method for providing vehicle alarm information using wearable device |
KR102704494B1 (en) * | 2019-06-17 | 2024-09-11 | 현대자동차주식회사 | Vehicle and control method thereof |
KR102180933B1 (en) * | 2019-12-11 | 2020-11-19 | 광주과학기술원 | A Method and Apparatus for Accidental Negligence Evaluation of Accident Image Using Deep Learning |
KR102332964B1 (en) * | 2019-12-27 | 2021-12-01 | 주식회사 에이치엘클레무브 | Driver assistance system |
CN111216637B (en) * | 2020-01-22 | 2022-09-20 | 同济大学 | Vehicle-mounted head-up display system oriented to safety auxiliary function |
CN113276765B (en) * | 2020-01-31 | 2024-07-30 | 神达数位股份有限公司 | Driving warning method and system and computer program product |
CN115675504A (en) * | 2022-10-31 | 2023-02-03 | 华为技术有限公司 | Vehicle warning method and related equipment |
CN118877006B (en) * | 2024-09-24 | 2025-03-04 | 安徽中科星驰自动驾驶技术有限公司 | A safety warning method and system for automatic driving of a vehicle |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011113244A (en) * | 2009-11-26 | 2011-06-09 | Suzuki Motor Corp | Driving support device |
JP2016130959A (en) * | 2015-01-14 | 2016-07-21 | 株式会社デンソーアイティーラボラトリ | Weighting matrix learning device, line-of-sight direction prediction system, warning system and weighting matrix learning method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110097393A (en) * | 2010-02-25 | 2011-08-31 | 주식회사 만도 | Obstacle protection system and obstacle protection method using the same |
-
2017
- 2017-05-25 KR KR1020170064457A patent/KR101986734B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011113244A (en) * | 2009-11-26 | 2011-06-09 | Suzuki Motor Corp | Driving support device |
JP2016130959A (en) * | 2015-01-14 | 2016-07-21 | 株式会社デンソーアイティーラボラトリ | Weighting matrix learning device, line-of-sight direction prediction system, warning system and weighting matrix learning method |
Also Published As
Publication number | Publication date |
---|---|
KR20180129044A (en) | 2018-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101986734B1 (en) | Driver assistance apparatus in vehicle and method for guidance a safety driving thereof | |
JP7332726B2 (en) | Detecting Driver Attention Using Heatmaps | |
US11318928B2 (en) | Vehicular automated parking system | |
US20210295073A1 (en) | Primary preview region and gaze based driver distraction detection | |
US20210365696A1 (en) | Vehicle Intelligent Driving Control Method and Device and Storage Medium | |
US10387733B2 (en) | Processing apparatus, processing system, and processing method | |
JP5171629B2 (en) | Driving information providing device | |
JP6648411B2 (en) | Processing device, processing system, processing program and processing method | |
JP6307895B2 (en) | Vehicle periphery monitoring device | |
US20150371542A1 (en) | Warning device and travel control device | |
JP2019087143A (en) | Driver status detection device | |
JP2016001170A (en) | Processing unit, processing program and processing method | |
US20160221502A1 (en) | Cognitive displays | |
US20170280063A1 (en) | Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle | |
KR102130059B1 (en) | Digital rearview mirror control unit and method | |
JP4872245B2 (en) | Pedestrian recognition device | |
JPWO2020105685A1 (en) | Display controls, methods, and computer programs | |
JP2022007157A (en) | Vehicle control device | |
US12269482B2 (en) | Systems and methods for eye gaze based alertness measurement | |
JP2020013179A (en) | Gaze target detection device, gaze target detection method, and program | |
JP7185571B2 (en) | Viewing direction estimation device, viewing direction estimation method, and program | |
JP2018049486A (en) | Driver state determination device and driving support system | |
JP2024161969A (en) | Visibility determination device and control method for the visibility determination device | |
KR20240160803A (en) | Method and apparatus for providing digital side mirror 3d image | |
CN118823742A (en) | Driver state estimation based on eye gaze |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20170525 |
|
PA0201 | Request for examination | ||
N231 | Notification of change of applicant | ||
PN2301 | Change of applicant |
Patent event date: 20180222 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20181016 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20190429 |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20190531 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20190603 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20220510 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20230731 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20240424 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20250409 Start annual number: 7 End annual number: 7 |