KR102540794B1 - Accident detection system - Google Patents
Accident detection system Download PDFInfo
- Publication number
- KR102540794B1 KR102540794B1 KR1020220143889A KR20220143889A KR102540794B1 KR 102540794 B1 KR102540794 B1 KR 102540794B1 KR 1020220143889 A KR1020220143889 A KR 1020220143889A KR 20220143889 A KR20220143889 A KR 20220143889A KR 102540794 B1 KR102540794 B1 KR 102540794B1
- Authority
- KR
- South Korea
- Prior art keywords
- accident
- road
- specific section
- collection unit
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000004458 analytical method Methods 0.000 claims abstract description 23
- 238000013136 deep learning model Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims abstract description 4
- 238000012790 confirmation Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims 1
- 238000000034 method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 238000000926 separation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 241000269400 Sirenidae Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B5/00—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
- G08B5/22—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
- G08B5/36—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission using visible light sources
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/052—Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/091—Traffic information broadcasting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
본 실시예는 도로 사고 검지 시스템에 관한 것이다. 일 측면에 따른 도로 사고 검지 시스템은, 도로 상의 음향 정보를 수집하는 음향 수집부와, 도로 상의 교통 정보를 수집하는 교통정보 수집부를 포함하는 수집부; 상기 수집부에서 수집된 정보를 통해 도로 상의 사고 여부를 판별하는 사고분석부; 및 상기 사고분석부에서 검지된 정보에 기포하여, 처리 방안을 제공하는 사고처리부를 포함하고, 상기 사고분석부는, 상기 음향 수집부에서 수집된 음향 정보를 분석하여 사고를 1차 알고리즘을 통해 검지하는 딥러닝 모델을 포함하고, 상기 딥러닝 모델은 CNN(Convolution Neural Network)을 통해 이루어지고, 상기 1차 알고리즘을 통하여 사고 검지 시, 상기 교통정보 수집부에서 수집된 정보에 기초하여 2차 알고리즘이 이루어진다. This embodiment relates to a road accident detection system. A road accident detection system according to an aspect includes a collection unit including a sound collection unit collecting sound information on a road and a traffic information collection unit collecting traffic information on the road; an accident analysis unit that determines whether or not there is an accident on the road through the information collected by the collection unit; And an accident processing unit that bubbles up in the information detected by the accident analysis unit and provides a treatment plan, wherein the accident analysis unit analyzes the acoustic information collected by the sound collection unit and detects an accident through a primary algorithm. It includes a deep learning model, the deep learning model is made through a CNN (Convolution Neural Network), and when an accident is detected through the first algorithm, a second algorithm is made based on the information collected by the traffic information collection unit. .
Description
본 실시예는 도로 사고 검지 시스템에 관한 것이다.This embodiment relates to a road accident detection system.
많은 자동차가 도로를 주행하다 보면 각종 원인으로 인해 교통사고가 발생되어 인명 및 재산상의 피해가 발생된다. 특히 고속도로와 같이 차량이 고속으로 주행중인 영역에는, 최초 사고 발생 이후 2차 사고 발생의 위험이 매우 높기 때문에, 후속 주행 차량에 사고 발생을 알릴 수 있는 시스템이 요구된다. When many cars drive on the road, traffic accidents occur due to various causes, resulting in human life and property damage. In particular, in areas where vehicles are traveling at high speed, such as highways, there is a very high risk of secondary accidents after the first accident, so a system capable of notifying subsequent vehicles of the occurrence of an accident is required.
최근 영상을 통한 사고 검지 시스템이 널리 사용되고 있으나, 기상상황, 화재연기 등 특수한 상황에 의해 사고를 오감지하는 사례가 증가하고 있다. 영상을 통한 사고 감지 시스템은 그 자체로 즉각적인 도로 정보를 전달할 수 있으나, 상술한 문제로 인해 영상 사고 검지 시스템의 단점을 보완해줄 사고 검지 시스템이 필요한 실정이다. Recently, an accident detection system through video has been widely used, but cases in which accidents are detected incorrectly due to special situations such as weather conditions and fire smoke are increasing. The accident detection system through video itself can deliver immediate road information, but due to the above problems, an accident detection system that compensates for the disadvantages of the video accident detection system is required.
본 발명은 상기와 같은 문제점을 개선하기 위하여 제안된 것으로서, 도로에서 수집한 다양한 정보를 활용하여 사고 발생여부를 검지할 수 있고, 사고에 대한 대응방안을 신속하게 확보할 수 있는 도로 사고 검지 시스템을 제공하는 것에 있다. The present invention has been proposed to improve the above problems, and provides a road accident detection system capable of detecting whether an accident has occurred by utilizing various information collected from the road and quickly securing a countermeasure for the accident. is in providing
본 실시예에 따른 도로 사고 검지 시스템은, 도로 상의 음향 정보를 수집하는 음향 수집부와, 도로 상의 교통 정보를 수집하는 교통정보 수집부를 포함하는 수집부; 상기 수집부에서 수집된 정보를 통해 도로 상의 사고 여부를 판별하는 사고분석부; 및 상기 사고분석부에서 검지된 정보에 기포하여, 처리 방안을 제공하는 사고처리부를 포함하고, 상기 사고분석부는, 상기 음향 수집부에서 수집된 음향 정보를 분석하여 사고를 1차 알고리즘을 통해 검지하는 딥러닝 모델을 포함하고, 상기 딥러닝 모델은 CNN(Convolution Neural Network)을 통해 이루어지고, 상기 1차 알고리즘을 통하여 사고 검지 시, 상기 교통정보 수집부에서 수집된 정보에 기초하여 2차 알고리즘이 이루어진다.The road accident detection system according to the present embodiment includes a collection unit including a sound collection unit that collects sound information on the road and a traffic information collection unit that collects traffic information on the road; an accident analysis unit that determines whether or not there is an accident on the road through the information collected by the collection unit; And an accident processing unit that bubbles up in the information detected by the accident analysis unit and provides a treatment plan, wherein the accident analysis unit analyzes the acoustic information collected by the sound collection unit and detects an accident through a primary algorithm. It includes a deep learning model, the deep learning model is made through a CNN (Convolution Neural Network), and when an accident is detected through the first algorithm, a second algorithm is made based on the information collected by the traffic information collection unit. .
본 실시예에 따르면 음향 정보에 추가로, 도로의 교통 정보와 같은 다양한 정보를 사고 검지를 위한 정보로 활용하여, 도로 상의 사고를 더욱 신속하고 정확하게 파악 및 처리할 수 있다.According to this embodiment, in addition to sound information, various information such as road traffic information may be utilized as information for accident detection, so that accidents on the road may be identified and processed more quickly and accurately.
도 1은 본 발명의 실시예에 따른 도로 사고 검지 시스템의 블록도.
도 2는 본 발명의 실시예에 따른 도로 사고 검지 시스템의 데이터 흐름을 도시한 도면.
도 3은 본 발명의 실시예에 따른 도로 내 교통 정보 수집부의 설치 및 동작을 설명하기 위한 개념도.
도 4는 본 발명의 실시예에 따른 음향수집부의 음향 정보 구분을 설명하기 위한 예시도.
도 5는 본 발명의 실시예에 따른 음원을 고속 푸리에를 통하여 2차원 정보로 변환하는 과정을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 음원을 로그멜 스펙토그램을 통하여 2차원 정보로 변환하는 과정을 설명하기 위한 도면.
도 7은 본 발명의 실시예에 따른 EAD 프로세스를 설명하기 위한 도면.
도 8은 본 발명의 실시예에 따른 CNN을 통한 사고 검지 알고리즘을 설명하기 위한 도면.
도 9는 본 발명의 실시예에 따른 교통류 속도 정보를 통하여 사고 검지를 설명하기 위한 그래프.
도 10은 본 발명의 실시예에 따른 터널 내 차량대수 정보를 통하여 사고 검지를 설명하기 위한 그래프.
도 11은 본 발명의 실시예에 따른 교통류 속도 정보와 도로 내 교통량 정보를 통하여 사고를 판단하는 과정을 설명하기 위한 표.
도 12는 본 발명의 실시예에 따른 도로 사고 검지 시스템을 통한 사고 검지의 테스트 결과를 나타낸 표.1 is a block diagram of a road accident detection system according to an embodiment of the present invention;
2 is a diagram showing the data flow of a road accident detection system according to an embodiment of the present invention.
3 is a conceptual diagram for explaining the installation and operation of a traffic information collection unit on a road according to an embodiment of the present invention;
4 is an exemplary diagram for explaining classification of sound information of a sound collecting unit according to an embodiment of the present invention;
5 is a diagram for explaining a process of converting a sound source into two-dimensional information through a fast Fourier according to an embodiment of the present invention.
6 is a diagram for explaining a process of converting a sound source into two-dimensional information through a logmel spectogram according to an embodiment of the present invention;
7 is a diagram for explaining an EAD process according to an embodiment of the present invention;
8 is a diagram for explaining an accident detection algorithm through CNN according to an embodiment of the present invention.
9 is a graph for explaining accident detection through traffic flow speed information according to an embodiment of the present invention.
10 is a graph for explaining accident detection through information on the number of vehicles in a tunnel according to an embodiment of the present invention.
11 is a table for explaining a process of determining an accident through traffic flow speed information and traffic volume information on a road according to an embodiment of the present invention.
12 is a table showing test results of accident detection through a road accident detection system according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합, 치환하여 사용할 수 있다.However, the technical idea of the present invention is not limited to some of the described embodiments, but may be implemented in a variety of different forms, and if it is within the scope of the technical idea of the present invention, one or more of the components among the embodiments can be selectively implemented. can be used by combining and substituting.
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention, unless explicitly specifically defined and described, can be generally understood by those of ordinary skill in the art to which the present invention belongs. It can be interpreted as meaning, and commonly used terms, such as terms defined in a dictionary, can be interpreted in consideration of contextual meanings of related technologies.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, “A 및(와) B, C중 적어도 하나(또는 한 개 이상)”로 기재되는 경우 A,B,C 로 조합할 수 있는 모든 조합 중 하나이상을 포함할 수 있다.Also, terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention. In this specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when described as “at least one (or more than one) of A and (and) B and C”, a combination of A, B, and C Can include one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention.
이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.These terms are only used to distinguish the component from other components, and the term is not limited to the nature, order, or order of the corresponding component.
그리고, 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속되는 경우뿐 만 아니라, 그 구성 요소와 그 다른 구성요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합' 또는 '접속'되는 경우도 포함할 수 있다. In addition, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component is not only directly connected to, coupled to, or connected to the other component, but also the component It may also include cases of being 'connected', 'combined', or 'connected' due to another component between the and other components.
또한, 각 구성 요소의 " 상(위) 또는 하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, 상(위) 또는 하(아래)는 두개의 구성 요소들이 서로 직접 접촉되는 경우뿐 만 아니라 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한 “상(위) 또는 하(아래)”으로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함할 수 있다. In addition, when it is described as being formed or disposed on the "top (top) or bottom (bottom)" of each component, the top (top) or bottom (bottom) is not only when two components are in direct contact with each other, but also It also includes cases where one or more other components are formed or disposed between two components. In addition, when expressed as “up (up) or down (down)”, it may include the meaning of not only the upward direction but also the downward direction based on one component.
도 1은 본 발명의 실시예에 따른 도로 사고 검지 시스템의 블록도이고, 도 2는 본 발명의 실시예에 따른 도로 사고 검지 시스템의 데이터 흐름을 도시한 도면이며, 도 3은 본 발명의 실시예에 따른 도로 내 교통 정보 수집부의 설치 및 동작을 설명하기 위한 개념도이고, 도 4는 본 발명의 실시예에 따른 음향수집부의 음향 정보 구분을 설명하기 위한 예시도이고, 도 5는 본 발명의 실시예에 따른 음원을 고속 푸리에를 통하여 2차원 정보로 변환하는 과정을 설명하기 위한 도면이고, 도 6은 본 발명의 실시예에 따른 음원을 로그멜 스펙토그램을 통하여 2차원 정보로 변환하는 과정을 설명하기 위한 도면이며, 도 7은 본 발명의 실시예에 따른 EAD 프로세스를 설명하기 위한 도면이고, 도 8은 본 발명의 실시예에 따른 CNN을 통한 사고 검지 알고리즘을 설명하기 위한 도면이고, 도 9는 본 발명의 실시예에 따른 교통류 속도 정보를 통하여 사고 검지를 설명하기 위한 그래프이고, 도 10은 본 발명의 실시예에 따른 터널 내 차량대수 정보를 통하여 사고 검지를 설명하기 위한 그래프이며, 도 11은 본 발명의 실시예에 따른 교통류 속도 정보와 도로 내 교통량 정보를 통하여 사고를 판단하는 과정을 설명하기 위한 표이고, 도 12는 본 발명의 실시예에 따른 도로 사고 검지 시스템을 통한 사고 검지의 테스트 결과를 나타낸 표이다. 1 is a block diagram of a road accident detection system according to an embodiment of the present invention, FIG. 2 is a diagram showing the data flow of the road accident detection system according to an embodiment of the present invention, and FIG. 3 is an embodiment of the present invention It is a conceptual diagram for explaining the installation and operation of a traffic information collection unit on a road according to , FIG. 4 is an exemplary diagram for explaining sound information classification of a sound collection unit according to an embodiment of the present invention, and FIG. 5 is an embodiment of the present invention. 6 is a diagram for explaining a process of converting a sound source into 2D information through a fast Fourier, and FIG. 6 explains a process of converting a sound source into 2D information through a logmel spectogram according to an embodiment of the present invention. FIG. 7 is a diagram for explaining an EAD process according to an embodiment of the present invention, FIG. 8 is a diagram for explaining an accident detection algorithm through CNN according to an embodiment of the present invention, and FIG. 10 is a graph for explaining accident detection through information on the number of vehicles in a tunnel according to an embodiment of the present invention, and FIG. 11 is a graph for explaining accident detection through traffic speed information according to an embodiment of the present invention. A table for explaining a process of determining an accident through traffic flow speed information and traffic volume information on a road according to an embodiment of the present invention, and FIG. 12 is a test result of accident detection through a road accident detection system according to an embodiment of the present invention. is a table showing
도 1 내지 도 12를 참조하면, 본 발명의 실시예에 따른 도로 사고 검지 시스템(10)은, 도로 상의 다양한 정보를 수집하는 수집부(100)와, 수집한 정보를 통해 도로 상의 사고 여부를 판별하는 사고분석부(200), 사고 발생 시 처리 방안을 제공하고 수행하는 사고 처리부(300)를 포함할 수 있다. 1 to 12, a road
상기 수집부(100)는, 도로 상의 음향 정보를 수집하는 음향 수집부(110)와, 도로 상의 교통 정보를 수집하는 교통정보 수집부(120)를 포함할 수 있다. The
상기 음향 수집부(110)는, 도로 상의 음향 정보를 수집할 수 있다. 상기 음향 수집부(110)는 마이크로폰, 오디오 코덱, 마이크로프로세서 및 이더넷을 포함할 수 있다. The
상기 마이크로폰은 도로에서 들리는 음향을 전기적 신호로 변환할 수 있다. 상기 마이크로폰은 음향 수집기(111)로 이름할 수 있다. 상기 음향 수집기(111)는 도로 상에 설치될 수 있다. The microphone may convert sound heard from the road into an electrical signal. The microphone may be referred to as a
상기 오디오 코덱은 상기 사고분석부(200)에 신호를 전달하고, 이를 통해 상기 사고분석부(200)에서 전달된 신호의 분석이 용이하도록, 상기 마이크로폰에서 수집한 아날로그 신호를 디지털 정보로 변환시킬 수 있다. The audio codec transmits a signal to the
상기 마이크로프로세서는 주변칩을 제어하며 데이터를 수집하고, 계산을 수행하며, 상기 오디오 코덱으로부터 받은 음향 디지털 데이터를 수신, 메모리에 저장할 수 있다. 또한, 상기 마이크로프로세서는 이더넷을 컨트롤하도록 상기 음향 수집부(110)의 CPU 역할을 수행할 수 있다. The microprocessor controls peripheral chips, collects data, performs calculations, and receives and stores sound digital data received from the audio codec in a memory. In addition, the microprocessor may perform a CPU role of the
상기 이더넷은 TCP/IP로 상기 음향 수집부(110)와 상기 사고분석부(200), 상기 음향 수집부(110)와 외부서버의 통신을 가능하게 한다. The Ethernet enables communication between the
상기 교통정보 수집부(120)는 도로 상의 교통 정보를 수집할 수 있다. 상기 도로 상의 교통 정보는, 도로를 주행하는 차량의 속도 정보와, 도로의 교통량 정보를 포함할 수 있다. 여기서, 도로의 교통량 정보라 함은, 특정 구간 내에 주행중인 차량들의 수일 수 있다. The traffic
상기 교통정보 수집부(120)는 속도 센서(121)를 포함할 수 있다. 상기 속도 센서(121)는 도 3에 도시된 바와 같이, 특정 구간 내 복수로 구비되어 상호 이격되게 배치될 수 있다. 상기 복수의 속도 센서(121) 간 이격 거리는 서로 다를 수 있다. 예를 들어, 상기 복수의 속도 센서(121)가 제1속도 센서(121-1), 제2속도 센서(121-2), 제3속도 센서(121-3), 제4속도 센서(121-4), 제5속도 센서(121-5)를 포함한다 할 때, 상기 제1속도 센서(121-1)와 상기 제2속도 센서(121-2) 간 이격 거리, 상기 제2속도 센서(121-2)와 상기 제3속도 센서(121-3) 간 이격 거리, 상기 제3속도 센서(121-3)와 상기 제4속도 센서(121-4) 간 이격 거리, 상기 제4속도 센서(121-4)와 상기 제5속도 센서(121-5) 간 이격 거리를 서로 다를 수 있다. The traffic
상기 복수의 속도 센서(121)에서 수집된 구간 별 차량의 속도 정보는 취합될 수 있다. Vehicle speed information for each section collected by the plurality of
상기 속도 센서(121)는 초단파, 적외선, 레이저 또는 영상식으로, 도로를 주행중인 차량의 속도를 감지할 수 있다. 이 중, 초단파, 적외선, 레이저 방식의 속도 센서는 접근하는 차량에게 전파를 송신하고 차량에 반사되어 돌아오는 시간을 계산하여 이동하는 차량의 속도를 계산하는 방식이다. 영상식 속도 센서는 일정 시간 전 후의 영상(이미지 프레임)을 비교하여 차량이 움직이는 거리를 측정한 후 해당 거리를 시간으로 나누어 속도를 계산하는 방식이다.The
상기 교통정보 수집부(120)는 상기 속도 센서(121)를 통하여 상기 도로를 주행중인 차량 각각의 속도를 측정하여, 도로의 교통 흐름과, 도로의 교통량을 파악할 수 있다. The traffic
상기 교통정보 수집부(120)를 통한 도로의 교통 흐름은, 일정 시간(a분) 동안의 특정 구간을 통과한 차량의 평균 속도로 간주할 수 있다. 예를 들어, 현재의 교통류 흐름속도를 a분 안에 지나간 차량의 평균속도라고 할 경우, 다음 기간의 평균 속도는 (1/n분, a+1/n분)의 평균 속도로 간주한다. 여기서 a와 n의 값은 도로 환경과 시간대에 따라 다양하게 설정될 수 있다. The traffic flow on the road through the traffic
상기 교통정보 수집부(120)는 마찬가지로 마이크로프로세서와, 이더넷을 포함할 수 있다. 따라서, 상기 속도 센서(121)에서 감지된 차량의 속도 정도는 상기 마이크로프로세서로 전달되며, 해당 마이크로프로세서는 위에 정의된 시간(a분) 동안의 평균속도를 계산하여 일정 시간 (1/n분)마다 정의된 시간(a분)동안의 평균속도를 상기 사고분석부(200)로 전달할 수 있다. The traffic
상기 교통정보 수집부(120)는 교통량 감지 센서(125)를 포함할 수 있다. 상기 교통량 감지 센서(125)는 특정 구간 내 존재하는 차량의 대수를 감지할 수 있다. 일 예로, 상기 교통정보 수집부(120)가 터널에 배치 시, 상기 교통량 감지 센서(125)는 터널 입구 상단에 설치되어, 차량의 각 차선별 터널 입구 통과 여부와 같은 터널 입구로 진입한 차량의 대수를 감지할 수 있다. 상기 교통량 감지 센서(125)는 카메라를 포함할 수 있다. The traffic
한편, 상기 교통정보 수집부(120)의 상기 속도 센서(121)에서 수집한 각 구간별 평균 속도를 이용하면 현재 입구를 통과한 차량이 출구에 도달하기까지 소요되는 기대 시간이 측정될 수 있다. On the other hand, using the average speed for each section collected by the
예를 들어, 도 3에 도시된 바와 같이, 도로 내 특정 구간을 총 n구간으로 나누고 구간거리가 m1인 제11구간의 평균속도가 v1이고, 유사하게 구간거리가 mn인 n번째구간의 평균속도가 vn이라고 할 때, 지금 입구를 통과한 차량이 출구에 도착할 기대 시간은 m1/v1 +m2/v2 ++mn/vn이라고 추정할 수 있다. 따라서, 상기 기대 시간 및 상기 특정 구간 내 입구측에 배치된 교통량 감지 센서(125)를 통하여, 차량이 특정 구간을 통과하기 위해 소요되는 시간이 측정될 수 있다.For example, as shown in FIG. 3, a specific section on the road is divided into a total of n sections, the average speed of the 11th section having a section distance m 1 is v 1 , and similarly, the nth section having a section distance m n Assuming that the average speed of is v n , the expected time for the vehicle that has passed through the entrance to arrive at the exit can be estimated as m 1 /v 1 +m 2 /v 2 ++m n /v n . Therefore, the time required for the vehicle to pass through the specific section can be measured through the expected time and the traffic
따라서, 상기 교통정보 수집부(120)는 상기 속도 센서(121)와, 상기 교통량 감지 센서(125)를 통하여 도로 내 특정 구간에 존재하는 차량의 대수와 해당 시간에 특정 구간의 출구를 통과하는 차량의 수를 감지할 수 있다. Therefore, the traffic
마찬가지로 특정 구간 내 출구의 상단에도 교통량 감지 센서(125)를 설치하여 실제 출구로 나간 차량의 대수를 감지할 수 있다. Similarly, the traffic
한편, 출구측에 배치된 교통량 감지 센서(125)를 통해 실제 특정 구간을 빠져나가는 차량의 대수와, 상기 다수의 속도 센서(121) 및 입구측에 배치되는 교통량 감지 센서(125)를 통하여 추정한 특정 구간을 빠져나가는 차량의 대수의 차이가 일정 범위를 초과할 경우, 어떤 돌발 상황 발생에 의해 도로 내 차량이 정체된 것이라고 판단할 수 있다. On the other hand, the number of vehicles actually passing through a specific section through the
이에 따라, 상기 사고 분석부(200)는 상기 도로 상의 음향 정보를 분석하여 사고 발생 여부를 분석할 수 있다. Accordingly, the
한편, 상기 교통정보 수집부(120)는 개별 차량 각각을 인식하는 개별 차량 인식부를 포함할 수 있고, 상기 개별 차량 인식부를 통하여 도로 내 개별 차량이 어디에 위치하는지를 감지할 수 있다. 이 경우, 개별 차량에는 상기 개별 차량 인식부에 의해 감지되기 위한 태그가 부착될 수 있다. Meanwhile, the traffic
상기 사고분석부(200)는, 수집, 가공, 분석, 외부 연계인터페이스의 과정을 통해 사고를 분석한다. The
상기 수집 과정에서는, 상기 수집부(100)로부터 수신한 음향 데이터를 수집 서버(210)로 송신할 수 있다. 이로 인해, 상기 수집 서버(210)에서는 데이터 가공을 위해 필요로 하는 각 프로세스로 데이터를 전달할 수 있다. In the collecting process, the acoustic data received from the collecting
상기 각 프로세스는, DBSAVE, StreamGW, ADSS(Automated Decision Support System)를 포함할 수 있다. Each of the above processes may include DBSAVE, StreamGW, and ADSS (Automated Decision Support System).
상기 DBSAVE에서는 음향, 속도 데이터 정보를 1분 단위로 데이터 베이스(220)에 저장한다.In the DBSAVE, sound and speed data information is stored in the
상기 StreamGW는, 자체 서버로서, 관리자(Client) 서버(260)에게 수집된 실시간 음향, 속도 정보를 전달할 수 있다. The StreamGW, as its own server, can deliver collected real-time sound and speed information to the
상기 ADSS는 수신한 음향 및 속도 데이터를 분석하여 사고를 감지하고, 감지된 데이터를 GWIF로 송신하여 데이터 베이스(220)에 저장할 수 있다. The ADSS analyzes the received sound and speed data to detect an accident, transmits the detected data to GWIF, and stores the detected data in the
상기 GWIF는 외부서버로부터 입력된 제어정보와, 트랜잭션의 모든 인터페이스를 담당하여, 제어기 설정 및 데이터 저장 기능을 수행할 수 있다. The GWIF is in charge of control information input from an external server and all interfaces of transactions, and can perform controller setting and data storage functions.
요약하면, 상기 수집부(100)로부터 받은 데이터를 각 프로세스로 전달하게 되면, 각 프로세스는 수신한 음향 데이터를 통해 저장, 실시간 스트리밍, 사고 감지의 기능을 수행할 수 있다. 또한, 사고 감지된 데이터는 외부연계 인터페이스를 통해 데이터 베이스(220)에 저장되며, 관리 서버는 저장된 데이터를 데이터 베이스(220)에서 추출하여 관리자에게 전달할 수 있다. In summary, when the data received from the collecting
한편, 상기 도로 사고 검지 시스템(10)은 감지된 정보 및 사고 정보를 통합하기 위한 통합 인터페이스(250)를 포함할 수 있다. Meanwhile, the road
상기 사고분석부(200)의 딥러닝 모델(240)을 통한 알고리즘에 대해 설명하기로 한다. The algorithm through the
상기 사고분석부(200)에서는 실시간으로 수집되는 음원을 일정시간 단위(n초)의 음원 데이터로 구분할 수 있다. 이에 따라, 도 4에 도시된 바와 같이, 특정 음원 데이터가 생성되고, 다음 음원은 프레임 길이(n초)보다 작은 특정 시간(m초) 후에 다시 생성될 수 있다. 예를 들어, 처음 음원이 0에서 n초까지의 음향정보를 포함하고 있다면, 다음 음원은 m초에서 n+m초까지의 음향정보를 포함할 수 있다. In the
위와 같이 구분된 음원은 2차원 정보로 변환될 수 있다. 2차원 정보로의 변환은 도 5에서와 같이, 고속푸리에 변환(Fast Fourier Transformation) 또는 도 6에서와 같이 로그멜 스펙토그램(log-mel spectrogram)에 의해 이루어질 수 있다. 도 5 및 도 6에 따르면, 음향 정보가 시간을 X축으로 하고, 주파수 대역을 Y축으로 하는 2차원 형태의 이미지로 변환될 수 있다. The sound sources classified as above may be converted into two-dimensional information. Conversion into 2D information may be performed by a fast Fourier transform as shown in FIG. 5 or a log-mel spectrogram as shown in FIG. 6 . According to FIGS. 5 and 6 , sound information may be converted into a two-dimensional image having time as an X-axis and a frequency band as a Y-axis.
상기 변환된 결과물을 알고리즘에 투입하기 전, 특정 이벤트가 포함되었는지 여부를 필터링하기 위한 EAD(Event Activity Detection) 프로세스가 추가될 수 있다. 상기 EAD 프로세서는 도 7에 도시된 바와 같이, 변환에 의해 생성된 행렬의 정보 값을 이전 프레임과 현재 프레임을 비교하여, 특정 배수만큼 증가하였는지 여부 판단을 통해 모델에 투입할 수 있다. 여기서 특정 배수는 1.05~1.15 정도의 값을 의미하며 터널 환경이나 검지해야하는 이벤트의 종류에 따라 변경할 수 있다.An event activity detection (EAD) process may be added to filter whether or not a specific event is included before inputting the converted result into an algorithm. As shown in FIG. 7, the EAD processor may compare the information value of the matrix generated by the transformation with the previous frame and the current frame, and determine whether or not the information value of the matrix is increased by a specific multiple to be input into the model. Here, the specific multiple means a value of about 1.05 to 1.15 and can be changed according to the tunnel environment or the type of event to be detected.
상기 EAD 프로세스를 적용하면 기존 모든 프레임을 모델에 넣었을 때와 대비하여, 서버의 부담이 50% 정도 감소될 수 있다. When the EAD process is applied, the load on the server can be reduced by about 50% compared to when all existing frames are included in the model.
도 8에 도시된 바와 같이, 상기 사고분석부(200)는 합성곱 신경망인 CNN(Convolution Neural Network)을 통해 사고를 분석할 수 있다. 상기 CNN 알고리즘에는 변환을 통해 이미지화된 프레임이 투입될 수 있다. As shown in FIG. 8 , the
상기 사고분석부(200)의 딥러닝 모델(240)은 1차 알고리즘을 포함할 수 있다. 먼저, 1차 알고리즘을 거쳐서 나오는 출력값으로는 검지된 이벤트 종류, 수집된 음향정보 강도, 검지된 이벤트의 유사도가 포함될 수 있다. The
1차 알고리즘의 구조와 파라미터, 분류해야하는 이벤트 등은 도로의 환경과 구조에 따라 변경될 수 있다. 일반적으로 충돌음, 급제동음, 환경음 등이 분류해야하는 이벤트이며 추가적으로 경적음, 사이렌음 등이 포함될 수 있다.The structure and parameters of the primary algorithm, events to be classified, and the like can be changed according to the environment and structure of the road. In general, crash sounds, sudden braking sounds, environmental sounds, and the like are events to be classified, and horn sounds, sirens, and the like may be additionally included.
상기 1차 알고리즘으로 이벤트가 검지될 경우, 검지된 정보를 검지 서버(230)로 전달할 수 있으며, 상기 검지 서버(230)에서는 1차 알고리즘에 따른 검지 정보를 검증하기 위한 2차 알고리즘이 이루어질 수 있다. When an event is detected by the first algorithm, the detected information can be transmitted to the detection server 230, and the detection server 230 can perform a second algorithm to verify the detection information according to the first algorithm. .
상기 2차 알고리즘에서는 상기 1차 알고리즘을 거쳐서 나온 출력값인 검지된 이벤트 종류, 수집된 음향정보 강도, 검지된 이벤트의 유사도(확률)와, 상기 교통정보 수집부(120)에서 제공된 교통류속도정보와 교통량정보를 활용하여 1차 알고리즘의 결과를 검증할 수 있다. In the second algorithm, the type of detected event, the intensity of the collected sound information, the similarity (probability) of the detected event, which are the output values obtained through the first algorithm, and the traffic flow speed information and traffic volume provided by the traffic
1차 알고리즘에서 사고가 검지된 경우, 교통류속도정보를 통하여 2차 알고리즘이 이루어질 수 있다. 교통류속도정보를 통한 2차 알고리즘은 사고가 발생한 시간대의 구간과 그 전 시간대의 구간의 교통류속도가 유의미하게 감소하였는지를 판단하는 과정에 의해 이루어질 수 있다. 이는, 사고 발생 시 후속 차량들의 교통 흐름에 방해가 되었을 것이고 그로 인해 교통류속도 감소에 영향을 미치는 것을 감안한 것이다.If an accident is detected in the first algorithm, the second algorithm can be made through the traffic flow speed information. The secondary algorithm through the traffic flow speed information can be performed by a process of determining whether the traffic flow speed of the section of the time zone where the accident occurred and the section of the previous time zone significantly decreased. This is in consideration of the fact that, in the event of an accident, the traffic flow of following vehicles would be obstructed, thereby reducing the traffic flow speed.
여기서 도 9에 도시된 바와 같이, 교통류속도의 유의미한 감소라는 것은 사고 발생 전 1시간의 평균 속도의 95% 신뢰구간보다 느린 속도를 의미한다.Here, as shown in FIG. 9, a significant decrease in traffic flow speed means a speed slower than the 95% confidence interval of the average speed for one hour before the accident.
2차 알고리즘은 교통량정보를 통해 이루어질 수도 있다. 이는 교통량센싱장비를 통해 현재 터널에 있는 차량의 대수가 평균속도를 이용한 터널 내 차량 기대 대수에 비해서 유의미하게 많아졌을 때 사고로 인하여 차량이 터널 내를 통과하지 못하고 있다고 판단할 수 있다. The secondary algorithm may be performed through traffic information. When the number of vehicles currently in the tunnel is significantly greater than the expected number of vehicles in the tunnel using the average speed through the traffic volume sensing device, it can be determined that the vehicle cannot pass through the tunnel due to an accident.
여기서 도 10에 도시된 바와 같이, 교통량의 유의미한 증가는 현재 도로 내 특정 구간의 기대 차량 대수의 95% 신뢰구간보다 많은 차량 대수를 의미한다. As shown in FIG. 10 , a significant increase in traffic volume means a number of vehicles greater than the 95% confidence interval of the expected number of vehicles in a specific section of the current road.
따라서, 상기 검지 서버(230) 내 2차 알고리즘을 통하여, 상기 딥러닝 모델(240)의 1차 알고리즘의 결과에 교통류속도의 유의미한 감소 여부, 감소 속도 정도, 터널 내 교통량의 유의미한 증가와 증가량 등을 추가적으로 활용하여 사고 발생 여부를 확정적으로 검지할 수 있다. Therefore, through the secondary algorithm in the detection server 230, the results of the primary algorithm of the
2차 알고리즘의 구체적 예시로, 도 11에 도시된 바와 같이, 1차 알고리즘에서 사고를 검지하였을 경우, 유의미한 교통류 속도의 감소, 도로 내 교통량의 증가 항목이 모두 검지 되었을 경우 “사고 확정” 메시지를 표출하고, 두 가지 항목 중 하나만 검지 되었을 경우는 “사고 유의” 두 가지 모두 검지되지 않았을 경우는 “오경보” 로 관리자에게 검지 결과를 전달할 수 있다. As a specific example of the second algorithm, as shown in FIG. 11, when an accident is detected by the first algorithm, a significant decrease in traffic flow speed and an increase in traffic volume on the road are all detected. An “accident confirmation” message is displayed. And, if only one of the two items is detected, “Accident warning” is detected.
요약하면, 본 발명의 실시예에 따른 도로 사고 검지 시스템(10)은, 상기 음향 수집부(110)에서 수집된 음향 정보를 CNN을 통한 1차 알고리즘으로 사고 발생 여부를 1차적으로 검지하고, 이에 따라 상황 발생 감지 시 상기 교통정보 수집부(120)에서 수집된 교통 정보를 통한 2차 알고리즘으로 사고 발생 여부를 확정적으로 검지할 수 있다. In summary, the road
상기 사고분석부(200)에서 사고 발생 검지라고 판단 시, 통합 인터페이스(250)로 검지 정보가 수집된다. When the
관리자 서버(260)는 해당 인터페이스에서 검지된 이벤트 정보를 받아 도로 운영자에게 1차 알고리즘에서 검지된 음향 데이터를 들려주고, 2차 알고리즘에서 검지하는 교통류와 교통량에 대한 변화 및 정보까지 활용한 사고검지 결과를 이후 추가 전달할 수 있다. The
터널과 같은 도로 내 벽면에는 2색(빨강, 주황 또는 노랑)의 광을 표시할 수 있는 사고발생 표출 라이트를 일정 간격으로 설치하여 도로 운영소에서 구간 별로 이를 조작할 수 있다. Accident display lights capable of displaying two-color (red, orange, or yellow) lights are installed at regular intervals on the inner wall of a road such as a tunnel, and the road operator can operate them for each section.
여기서 구간은 음향 수집기간의 거리를 구간으로 설정하거나, 교통류속도 수집기간 거리를 구간으로 설정하거나 또는 임의의 구간을 설정할 수 있다.Here, as the section, a distance between sound collection periods may be set as a section, a distance between traffic flow velocity collection periods may be set as a section, or an arbitrary section may be set.
2차 알고리즘에서 사고 확정이 결과물로 나올 경우 사고를 검지한 음향 수집기가 속해 있는 구간에 있는 사고발생 표출 라이트를 빨간색으로 점등하고, 그 이전 구간을 주황색으로 점등할 수 있다. If the secondary algorithm results in an accident confirmation, the accident display light in the section to which the sound collector that detected the accident belongs can be turned on in red, and the previous section can be turned on in orange.
2차 알고리즘에서 사고 유의가 결과물로 나올 경우 사고를 검지한 음향 수집기가 속해 있는 구간에 있는 사고발생 표출 라이트를 주황색으로 점등할 수 있다. If the secondary algorithm shows an accident warning as a result, the accident display light in the section to which the sound collector that detected the accident belongs can be turned on in orange.
상기와 같은 방법으로, 사고 발생 구간으로 진입하는 차들에게 주의 요망 메시지를 조명의 색상의 변화를 통해 알려줄 수 있고 이는 VMS 같은 메시지를 통해서 전달하는 메시지보다 높은 식별 효과를 가질 수 있다. In the above method, it is possible to inform the cars entering the accident zone of the attention request message through a change in the color of the lighting, which can have a higher identification effect than a message delivered through a message such as VMS.
추가적인 처리방안에는 해당 도로에 연계되어 있는 시설들(310)(예를 들어, (VMS (Variable Message Sign), LCS (Line Control System), 비상방송 등)을 조정하는 것이 포함되고 해당 시설들을 이용해 이벤트 발생 시 후속으로 발생할 수 있는 2차사고 등을 예방할 수 있다. Additional processing measures include adjusting the facilities 310 (eg, VMS (Variable Message Sign), LCS (Line Control System), emergency broadcasting, etc.) associated with the road, and using the facilities to event In the event of an accident, secondary accidents that may occur subsequently can be prevented.
또한 연계된 경찰서, 소방서, 도로관리팀 등으로 이벤트 발생 즉시 해당 이벤트 내용을 전파하여 긴급 구난활동으로 인한 인명구조도 가능케 할 수 있다. In addition, it is possible to rescue people due to emergency rescue activities by disseminating the contents of the event as soon as an event occurs to the related police station, fire station, road management team, etc.
이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 이상에서 기재된 '포함하다', '구성하다' 또는 '가지다' 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, terms such as 'include', 'comprise' or 'having' described above mean that the corresponding component may be present unless otherwise stated, and thus exclude other components. It should be construed as being able to further include other components. All terms, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Commonly used terms, such as terms defined in a dictionary, should be interpreted as being consistent with the contextual meaning of the related art, and unless explicitly defined in the present invention, they are not interpreted in an ideal or excessively formal meaning.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
Claims (5)
상기 수집부에서 수집된 정보를 통해 도로 상의 사고 여부를 판별하는 사고분석부; 및
상기 사고분석부에서 검지된 정보에 기초하여, 처리 방안을 제공하는 사고처리부를 포함하고,
상기 사고분석부는, 상기 음향 수집부에서 수집된 음향 정보를 분석하여 사고를 1차 알고리즘을 통해 검지하는 딥러닝 모델을 포함하고,
상기 딥러닝 모델은 CNN(Convolution Neural Network)을 통해 이루어지고,
상기 1차 알고리즘을 통하여 사고 검지 시, 상기 교통정보 수집부에서 수집된 정보에 기초하여 2차 알고리즘이 이루어지고,
상기 교통정보 수집부는, 도로 내 주행중인 차량의 속도를 감지하는 속도 센서와, 특정 구간의 입구 측에 배치되는 입구측 교통정보 수집부와, 특정 구간의 출구 측에 배치되는 출구측 교통정보 수집부를 포함하고,
상기 특정 구간은 복수의 구간으로 구획되고,
상기 속도 센서는 복수로 구비되어, 상기 복수의 구간에 각각 배치되고,
상기 복수의 구간 각각의 속도 센서로부터 감지된 평균속도와, 상기 복수의 구간 각각의 구간거리를 통하여 상기 특정 구간의 예상 통과 시간이 감지되고,
상기 출구측 교통정보 수집부를 통하여 상기 특정 구간을 빠져나가는 차량의 대수와, 상기 입구측 교통정보 수집부 및 상기 특정 구간의 예상 통과 시간을 통하여 추정한 상기 특정 구간을 빠져나가는 차량의 대수의 차이가 일정 범위를 초과한 것이라고 판단할 경우, 상기 특정 구간 내 돌발 상황이 감지되는 도로 사고 검지 시스템.
a collecting unit including a sound collecting unit that collects sound information on the road and a traffic information collecting unit that collects traffic information on the road;
an accident analysis unit that determines whether or not there is an accident on the road through the information collected by the collection unit; and
Based on the information detected by the accident analysis unit, including an accident processing unit that provides a handling plan,
The accident analysis unit includes a deep learning model for detecting an accident through a primary algorithm by analyzing the acoustic information collected by the acoustic collection unit,
The deep learning model is made through a Convolution Neural Network (CNN),
When an accident is detected through the first algorithm, a second algorithm is performed based on the information collected by the traffic information collection unit,
The traffic information collection unit includes a speed sensor for detecting the speed of a vehicle running on the road, an entrance traffic information collection unit disposed at an entrance side of a specific section, and an exit traffic information collection unit disposed at an exit side of a specific section. include,
The specific section is divided into a plurality of sections,
The speed sensor is provided in plurality and disposed in each of the plurality of sections,
The expected passage time of the specific section is detected through the average speed detected by the speed sensor of each of the plurality of sections and the section distance of each of the plurality of sections,
The difference between the number of vehicles exiting the specific section through the exit traffic information collection unit and the number of vehicles exiting the specific section estimated through the entrance traffic information collection unit and the expected passage time of the specific section A road accident detection system in which an unexpected situation within the specific section is detected when it is determined that a certain range is exceeded.
상기 복수의 구간 각각의 거리는 상호 상이한 도로 사고 검지 시스템.
According to claim 1,
The road accident detection system of each of the plurality of sections is different from each other.
상기 1차 알고리즘을 통한 사고 감지 후, 상기 교통정보 수집부를 통한 도로 내 특정 구간의 교통류 속도 감소와, 상기 도로 내 특정 구간의 교통량 증가가 모두 검지될 경우 사고 확정이 검지되는 도로 사고 검지 시스템.
According to claim 1,
After detecting an accident through the primary algorithm, when both a decrease in traffic flow speed in a specific section on the road through the traffic information collection unit and an increase in traffic volume in a specific section in the road are both detected, the road accident detection system detects the accident confirmation.
상기 1차 알고리즘을 통한 사고 감지 후, 상기 교통정보 수집부를 통한 도로 내 특정 구간의 교통류 속도 감소와 상기 도로 내 특정 구간의 교통량 증가 중 어느 하나만이 검지될 경우 사고 유의가 검지되는 도로 사고 검지 시스템.
According to claim 1,
After detecting an accident through the primary algorithm, an accident is detected when either a decrease in the traffic flow speed of a specific section of the road or an increase in the traffic volume of the specific section of the road is detected through the traffic information collection unit Road accident detection system.
도로에 설치되며, 서로 다른 색의 광을 표시하는 사고발생 표출 라이트를 포함하고,
상기 도로 내 특정 구간의 사고 확정 검지 시, 상기 도로 내 특정 구간에 사고발생 표출 라이트에 빨간색이 점등되고,
상기 도로 내 특정 구간의 사고 유의 검지 시, 상기 도로 내 특정 구간에 사고발생 표출 라이트에 상기 빨간색과 다른 색이 점등되는 도로 사고 검지 시스템.
According to claim 4,
It is installed on the road and includes an accident display light that displays lights of different colors,
When an accident is confirmed in a specific section of the road, red light is turned on in the accident display light in the specific section of the road,
When an accident is detected in a specific section of the road, a road accident detection system in which a color different from the red is turned on in an accident display light in the specific section of the road.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220143889A KR102540794B1 (en) | 2022-11-01 | 2022-11-01 | Accident detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220143889A KR102540794B1 (en) | 2022-11-01 | 2022-11-01 | Accident detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102540794B1 true KR102540794B1 (en) | 2023-06-13 |
Family
ID=86762647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220143889A Active KR102540794B1 (en) | 2022-11-01 | 2022-11-01 | Accident detection system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102540794B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117724137A (en) * | 2023-11-21 | 2024-03-19 | 江苏北斗星通汽车电子有限公司 | An automatic automobile accident detection system and method based on multi-modal sensors |
KR102727651B1 (en) * | 2024-04-18 | 2024-11-07 | 주식회사 온품 | System and method for cracking down on speeding by section using ai-based license plate recognition technology |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000018253A (en) * | 2000-01-26 | 2000-04-06 | 이수갑 | Acoustical Vehicle Detection System |
KR101731050B1 (en) * | 2016-11-09 | 2017-04-28 | 한국건설기술연구원 | Automatic incident detection apparatus using composite sensor of acoustic sensor, radar sensor and image sensor, and method for the same |
KR101792141B1 (en) * | 2017-04-28 | 2017-11-20 | 주식회사 핸디소프트 | Automatic response service system and method for confirming traffic accident |
KR102173263B1 (en) * | 2020-08-25 | 2020-11-04 | 유봉수 | Detecting system for vehicle accident risk in tunnel |
KR102382215B1 (en) * | 2020-10-20 | 2022-04-01 | 김규현 | Acoustic accident detection system through accident sound deep learning |
-
2022
- 2022-11-01 KR KR1020220143889A patent/KR102540794B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000018253A (en) * | 2000-01-26 | 2000-04-06 | 이수갑 | Acoustical Vehicle Detection System |
KR101731050B1 (en) * | 2016-11-09 | 2017-04-28 | 한국건설기술연구원 | Automatic incident detection apparatus using composite sensor of acoustic sensor, radar sensor and image sensor, and method for the same |
KR101792141B1 (en) * | 2017-04-28 | 2017-11-20 | 주식회사 핸디소프트 | Automatic response service system and method for confirming traffic accident |
KR102173263B1 (en) * | 2020-08-25 | 2020-11-04 | 유봉수 | Detecting system for vehicle accident risk in tunnel |
KR102382215B1 (en) * | 2020-10-20 | 2022-04-01 | 김규현 | Acoustic accident detection system through accident sound deep learning |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117724137A (en) * | 2023-11-21 | 2024-03-19 | 江苏北斗星通汽车电子有限公司 | An automatic automobile accident detection system and method based on multi-modal sensors |
KR102727651B1 (en) * | 2024-04-18 | 2024-11-07 | 주식회사 온품 | System and method for cracking down on speeding by section using ai-based license plate recognition technology |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11990036B2 (en) | Driver behavior monitoring | |
CN110164130B (en) | Traffic incident detection method, device, equipment and storage medium | |
KR102540794B1 (en) | Accident detection system | |
KR101745551B1 (en) | Apparatus and method for monitoring overspeed-vehicle using CCTV image information | |
CN109544946A (en) | Tunnel real-time monitoring and managing system and its implementation based on vehicle flowrate big data | |
GB2573738A (en) | Driving monitoring | |
CN111798678A (en) | Urban traffic intelligent monitoring coordination management system based on big data | |
KR101101860B1 (en) | Real time traffic detection system | |
KR102456869B1 (en) | System for smart managing traffic | |
KR102616571B1 (en) | System and method for providing road traffic information based on image analysis using artificial intelligence | |
CN117649767A (en) | Traffic road condition analysis system based on digital twin technology | |
CN108550218B (en) | Comprehensive management and control system and management and control method for bicycle special lane | |
CN116363861A (en) | Intelligent traffic system | |
Oskarbski et al. | Automatic incident detection at intersections with use of telematics | |
US12062280B2 (en) | Stopped vehicle detection and validation systems and methods | |
KR101612867B1 (en) | Incident monitoring system and method based on incident vehicle information | |
CN119296342A (en) | Traffic processing method, system, terminal and storage medium | |
KR102551566B1 (en) | System and method of traffic accident detection | |
KR102526686B1 (en) | Device and method for preventing road pedestrians from crossing traffic | |
JP2024051892A (en) | Area monitoring system and area monitoring method | |
CN114464003A (en) | Traffic dispersion system and traffic dispersion method | |
JP2005234848A (en) | Road traffic control system | |
KR20170133592A (en) | Fall protection system on Platform | |
Saravanan | Implementation of efficient automatic traffic surveillance using digital image processing | |
CN114241758B (en) | Bridge construction channel informatization management method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20221101 |
|
PA0201 | Request for examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20221103 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20221101 Patent event code: PA03021R01I Comment text: Patent Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20221213 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230419 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230601 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230602 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |