KR102691350B1 - Single electroencephalogram-based sleep stage classification method and sleep stage classification device - Google Patents
Single electroencephalogram-based sleep stage classification method and sleep stage classification device Download PDFInfo
- Publication number
- KR102691350B1 KR102691350B1 KR1020210184893A KR20210184893A KR102691350B1 KR 102691350 B1 KR102691350 B1 KR 102691350B1 KR 1020210184893 A KR1020210184893 A KR 1020210184893A KR 20210184893 A KR20210184893 A KR 20210184893A KR 102691350 B1 KR102691350 B1 KR 102691350B1
- Authority
- KR
- South Korea
- Prior art keywords
- sleep
- sleep stage
- electroencephalogram
- neural network
- stage classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4806—Sleep evaluation
- A61B5/4812—Detecting sleep stages or cycles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
- A61B5/372—Analysis of electroencephalograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7225—Details of analogue processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychology (AREA)
- Power Engineering (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
수면단계 분류장치에 의해 수행되는 단일 뇌전도 기반 수면단계 분류방법은, 일정시간동안 뇌전도 신호(EEG, electroencephalogram)만을 측정하여 원본신호를 획득하는 단계; 상기 원본신호를 전처리하여 복수의 추출신호를 생성하는 단계; 상기 원본신호 및 상기 복수의 추출신호를 통합하여 통합데이터를 생성하는 단계; 상기 통합데이터에 기초하여 사후 확률을 산출하는 단계; 산출된 사후 확률로부터 수면단계를 분류하는 단계를 포함하는, 단일 뇌전도 기반 수면단계를 포함한다. 이에 의해 고도로 훈련받는 수면전문가의 도움없이 수면단계를 자동으로 분류할 수 있는 것은 물론 단일 뇌전도 신호(EEG)만을 사용하여 생체신호의 측정을 용이하게 할 수 있다.A single electroencephalogram-based sleep stage classification method performed by a sleep stage classification device includes the steps of measuring only an electroencephalogram (EEG) signal for a certain period of time to obtain an original signal; Preprocessing the original signal to generate a plurality of extracted signals; Generating integrated data by integrating the original signal and the plurality of extracted signals; calculating a posterior probability based on the integrated data; It includes a single electroencephalogram-based sleep stage, including the step of classifying the sleep stage from the calculated posterior probability. This not only makes it possible to automatically classify sleep stages without the help of highly trained sleep experts, but also facilitates the measurement of biological signals using only a single electroencephalogram signal (EEG).
Description
본 발명은 단일 뇌전도 기반 수면단계 분류방법 및 수면단계 분류장치에 관한 것으로 의료전문가의 도움없이 단일 뇌전도 신호만을 사용하여 수면단계를 분류하는 단일 뇌전도 기반 수면단계 분류방법 및 수면단계 분류장치에 관한 것이다.The present invention relates to a sleep stage classification method and a sleep stage classification device based on a single electroencephalogram. It relates to a sleep stage classification method and a sleep stage classification device based on a single electroencephalogram that classifies sleep stages using only a single electroencephalogram signal without the help of a medical professional.
오늘날, 현대인들은 학업, 가사일, 인간관계, 과도한 업무 등으로 인해 스트레스를 받으며 살아가고 있다. 이러한 스트레스 때문에 현대인들은 숙면을 취하지 못하고 부족한 수면시간으로 인해 고통받고 있다. 게다가, 컴퓨터나 스마트폰의 보급이 증가한 이후, 수면의 질이 급격히 떨어져 수면장애로 고통을 호소하며 병원을 내원하는 환자가 급증하는 추세이다. Today, modern people live under stress due to school work, household chores, human relationships, and excessive work. Because of this stress, modern people are unable to sleep well and suffer from insufficient sleep time. In addition, since the spread of computers and smartphones has increased, the quality of sleep has dropped drastically, and the number of patients visiting hospitals complaining of sleep disorders is rapidly increasing.
특히 수면은 삶의 질과 직접적인 연관성을 가지기 때문에 매우 중요하고, 적절한 수면을 취하지 않으면 혈압을 증가시키거나 면역체계까지 약해질 뿐만 아니라 인지장애와 같은 심각한 문제 또한 발생하게 된다.In particular, sleep is very important because it is directly related to the quality of life. If you do not get adequate sleep, not only will your blood pressure increase or your immune system weaken, but serious problems such as cognitive impairment may also occur.
이에 많은 연구자들은 수면에 대해 더욱 잘 이해하기 위해 수면의 단계를 분류하였는데 이에 의해 수면 무호흡증, 불면증, 기면증과 같은 다양한 수면장애를 진단할 수 있게 되었다. Accordingly, many researchers classified sleep stages to better understand sleep, which made it possible to diagnose various sleep disorders such as sleep apnea, insomnia, and narcolepsy.
하지만 수면의 단계를 구별하기 위해서는 수면을 하는 도중 뇌전도, 안전도, 심전도, 근전도, 맥박산소측정 등 다양한 생체신호를 측정하는 수면다원검사를 실시한 후 훈련된 수면전문가가 수면의 단계를 수기로 구별하기 때문에 많은 시간과 자원이 소요되는 것은 물론 접근성이 떨어지는 문제가 발생한다. However, in order to distinguish the stages of sleep, a polysomnography is performed to measure various biological signals such as electroencephalogram, electrocardiogram, electrocardiogram, electromyogram, and pulse oximetry while sleeping, and then a trained sleep expert manually distinguishes the stages of sleep. This not only requires a lot of time and resources, but also causes problems with poor accessibility.
본 발명은 상기와 같은 문제를 해결하기 위해 안출된 것으로, 본 발명의 목적은 수면단계를 자동으로 분류할 수 있는 것은 물론 단일 뇌전도 신호(EEG)만을 사용하여 생체신호의 측정을 용이하게 할 수 있는, 단일 뇌전도 기반 수면단계 분류방법 및 수면단계 분류장치를 제공하는 것이다.The present invention was created to solve the above problems, and the purpose of the present invention is to automatically classify sleep stages as well as to facilitate the measurement of biological signals using only a single electroencephalogram signal (EEG). , to provide a single electroencephalogram-based sleep stage classification method and sleep stage classification device.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 수면단계 분류장치에 의해 수행되는 단일 뇌전도 기반 수면단계 분류방법은, 일정시간동안 뇌전도 신호(EEG, electroencephalogram)만을 측정하여 원본신호를 획득하는 단계; 상기 원본신호를 전처리하여 복수의 추출신호를 생성하는 단계; 상기 원본신호 및 상기 복수의 추출신호를 통합하여 통합데이터를 생성하는 단계; 상기 통합데이터에 기초하여 사후 확률을 산출하는 단계; 및 산출된 사후 확률로부터 수면단계를 분류하는 단계를 포함한다. A single electroencephalogram-based sleep stage classification method performed by a sleep stage classification device according to an embodiment of the present invention to achieve the above object includes the steps of measuring only electroencephalogram signals (EEG, electroencephalogram) for a certain period of time to obtain the original signal. ; Preprocessing the original signal to generate a plurality of extracted signals; Generating integrated data by integrating the original signal and the plurality of extracted signals; calculating a posterior probability based on the integrated data; and classifying sleep stages from the calculated posterior probability.
그리고 상기 사후 확률을 산출하는 단계에서는, 시공간 합성곱 심층 신경망 (Spectral-Temporal Convolution Neural Network), 자기주의 심층 신경망 (Self-Attention or Multi-Head Attention) 및 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 포함하는 수면분류 모델을 통해 상기 사후 확률을 산출할 수 있다. And in the step of calculating the posterior probability, a spatiotemporal convolution deep neural network (Spectral-Temporal Convolution Neural Network), a self-attention deep neural network (Self-Attention or Multi-Head Attention), and a bidirectional-Long Short Term neural network (Bidirectional-Long Short Term) The posterior probability can be calculated through a sleep classification model that includes memory.
또한, 상기 수면분류 모델은, 상기 시공간 합성곱 심층 신경망을 통해 상기 통합데이터로부터 추출된 뇌전도 특징 정보들간의 상관관계를 상기 자기주의 심층 신경망을 통해 학습할 수 있다. In addition, the sleep classification model can learn the correlation between electroencephalogram feature information extracted from the integrated data through the spatio-temporal convolutional deep neural network through the self-attention deep neural network.
그리고, 상기 수면분류 모델은, 상기 뇌전도 특징 정보들간의 상관관계 데이터를 에폭(Epoch) 단위의 시간에 따라 변하는 뇌전도의 시계열적인 특징을 상기 양방향 장단기 기억 순환 신경망에 기초하여 학습할 수 있다. In addition, the sleep classification model can learn the correlation data between the electroencephalogram feature information based on the bidirectional long-term short-term memory recurrent neural network.
한편, 상기 복수의 추출신호는, 주파수 필터링에 기초하여 상기 원본신호로부터 특정 주파수 대역별로 신호를 추출하여 생성될 수 있다. Meanwhile, the plurality of extracted signals may be generated by extracting signals for each specific frequency band from the original signal based on frequency filtering.
그리고 상기 산출하는 단계에서 산출된 사후 확률들을 일정한 시간간격으로 이동시키면서 사후 확률 뭉치들을 추출하고, 상기 사후 확률 뭉치들의 평균값을 산출하는 단계를 더 포함할 수 있다. It may further include extracting posterior probability bundles while moving the posterior probabilities calculated in the calculating step at regular time intervals, and calculating an average value of the posterior probability bundles.
또한, 상기 분류하는 단계에서는, 상기 평균값을 산출하는 단계에서 산출된 평균값 중에서 가장 큰 값을 가지는 구간에 기초하여 수면단계를 분류할 수 있다. Additionally, in the classification step, the sleep stage may be classified based on the section having the largest value among the average values calculated in the average value calculation step.
한편 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 수면단계 분류장치는, 일정시간동안 뇌전도 신호(EEG, electroencephalogram)만을 측정하여 원본신호를 획득하는 획득부; 상기 원본신호를 전처리하여 복수의 추출신호를 생성하고, 상기 원본신호 및 상기 복수의 추출신호를 통합하여 통합데이터를 생성하는 전처리부; 상기 통합데이터에 기초하여 사후 확률을 산출하는 산출부; 및 산출된 사후 확률로부터 수면단계를 분류하는 분류부를 포함한다. Meanwhile, a sleep stage classification device according to an embodiment of the present invention for achieving the above object includes an acquisition unit that measures only electroencephalogram signals (EEG, electroencephalogram) for a certain period of time to obtain the original signal; a pre-processing unit that preprocesses the original signal to generate a plurality of extracted signals, and integrates the original signal and the plurality of extracted signals to generate integrated data; a calculation unit that calculates a posterior probability based on the integrated data; and a classification unit that classifies sleep stages from the calculated posterior probability.
그리고 상기 산출부는, 시공간 합성곱 심층 신경망 (Spectral-Temporal Convolution Neural Network), 자기주의 심층 신경망 (Self-Attention or Multi-Head Attention) 및 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 포함하는 수면분류 모델을 통해 상기 사후 확률을 산출할 수 있다. And the calculation unit includes a spatiotemporal convolution deep neural network (Spectral-Temporal Convolution Neural Network), self-attention deep neural network (Self-Attention or Multi-Head Attention), and bidirectional-long short term memory (Bidirectional-Long Short Term Memory). The posterior probability can be calculated through a sleep classification model.
또한, 상기 수면분류 모델은, 상기 시공간 합성곱 심층 신경망을 통해 상기 통합데이터로부터 추출된 뇌전도 특징 정보들간의 상관관계를 상기 자기주의 심층 신경망에 기초하여 학습할 수 있다. Additionally, the sleep classification model may learn the correlation between electroencephalogram feature information extracted from the integrated data through the spatio-temporal convolutional deep neural network based on the self-attention deep neural network.
상술한 본 발명의 일측면에 따르면, 단일 뇌전도 기반 수면단계 분류방법 및 수면단계 분류장치를 제공함으로써, 고도로 훈련받는 수면전문가의 도움없이 수면단계를 자동으로 분류할 수 있는 것은 물론 단일 뇌전도 신호(EEG)만을 사용하여 생체신호의 측정을 용이하게 할 수 있다.According to one aspect of the present invention described above, by providing a sleep stage classification method and a sleep stage classification device based on a single electroencephalogram, it is possible to automatically classify sleep stages without the help of a highly trained sleep expert, as well as a single electroencephalogram signal (EEG). ) can be used to easily measure biosignals.
도 1은 본 발명의 일 실시예에 따른 수면단계 분류장치에서 수면단계를 분류하는 개략도,
도 2는 본 발명의 일 실시예에 따른 수면단계 분류장치의 구성을 설명하기 위한 도면,
도 3은 본 발명의 일 실시예에 따른 수면단계 분류장치에서의 전처리과정을 설명하기 위한 도면,
도 4는 본 발명의 일 실시예에 따른 학습부를 설명하기 위한 도면,
도 5는 본 발명의 일 실시예에 따른 수면단계 분류방법을 설명하기 위한 흐름도,
도 6은 본 발명의 일 실시예에 따른 수면분류 모델의 세부 구성을 설명하기 위한 도면,
도 7은 본 발명의 일 실시예에 따른 시공간 합성곱 심층 신경망의 구조의 개략도,
도 8은, 본 발명의 일 실시예에 따른 사후 확률에 기반한 예측 알고리즘의 개략도,
도 9는 도 8의 사후 확률에 기반한 예측 알고리즘을 적용하기 전후를 비교하기 위한 도면, 그리고
도 10은 본 발명의 수면단계 분류방법에 따른 수면단계 예측 결과와 수면 전문가가 판단한 수면단계를 비교하기 위한 도면이다. 1 is a schematic diagram of classifying sleep stages in a sleep stage classification device according to an embodiment of the present invention;
Figure 2 is a diagram for explaining the configuration of a sleep stage classification device according to an embodiment of the present invention;
Figure 3 is a diagram for explaining the pre-processing process in the sleep stage classification device according to an embodiment of the present invention;
4 is a diagram for explaining a learning unit according to an embodiment of the present invention;
5 is a flowchart illustrating a sleep stage classification method according to an embodiment of the present invention;
Figure 6 is a diagram for explaining the detailed configuration of a sleep classification model according to an embodiment of the present invention;
7 is a schematic diagram of the structure of a spatiotemporal convolutional deep neural network according to an embodiment of the present invention;
8 is a schematic diagram of a prediction algorithm based on posterior probability according to an embodiment of the present invention;
Figure 9 is a diagram for comparing before and after applying the prediction algorithm based on the posterior probability of Figure 8, and
Figure 10 is a diagram for comparing sleep stage prediction results according to the sleep stage classification method of the present invention and sleep stages judged by a sleep expert.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The detailed description of the present invention described below refers to the accompanying drawings, which show by way of example specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different from one another but are not necessarily mutually exclusive. For example, specific shapes, structures and characteristics described herein may be implemented in one embodiment without departing from the spirit and scope of the invention. Additionally, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the invention. Accordingly, the detailed description that follows is not intended to be taken in a limiting sense, and the scope of the invention is limited only by the appended claims, together with all equivalents to what those claims assert, if properly described. Similar reference numbers in the drawings refer to identical or similar functions across various aspects.
이하에서는 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 수면단계 분류장치(100)에서 수면단계를 분류하는 개략도이고, 도 2는 본 발명의 일 실시예에 따른 수면단계 분류장치(100)의 구성을 설명하기 위한 도면, 도 3은 본 발명의 일 실시예에 따른 수면단계 분류장치(100)에서의 전처리과정을 설명하기 위한 도면, 도 4는 본 발명의 일 실시예에 따른 학습부(140)를 설명하기 위한 도면, 도 5은 본 발명의 일 실시예에 따른 수면분류 모델의 세부 구성을 설명하기 위한 도면이고, 도 6은 본 발명의 일 실시예에 따른 시공간 합성곱 심층 신경망의 구조의 개략도이다.Figure 1 is a schematic diagram of classifying sleep stages in the sleep stage classification device 100 according to an embodiment of the present invention, and Figure 2 illustrates the configuration of the sleep stage classification device 100 according to an embodiment of the present invention. FIG. 3 is a diagram for explaining the pre-processing process in the sleep stage classification device 100 according to an embodiment of the present invention, and FIG. 4 is a diagram for explaining the learning unit 140 according to an embodiment of the present invention. FIG. 5 is a diagram for explaining the detailed configuration of a sleep classification model according to an embodiment of the present invention, and FIG. 6 is a schematic diagram of the structure of a spatiotemporal convolutional deep neural network according to an embodiment of the present invention.
본 발명의 수면단계 분류장치(100)는, 종래와는 달리 단일 뇌전도 신호(EEG, electroencephalogram)만을 사용하고 고도화된 심층신경망 알고리즘을 사용하여 수면전문가의 도움 없이도 수면의 단계를 자동으로 분류하기 위해 마련된다.Unlike the prior art, the sleep stage classification device 100 of the present invention uses only a single electroencephalogram (EEG) signal and uses an advanced deep neural network algorithm to automatically classify sleep stages without the help of a sleep expert. do.
수면단계 분류장치(100)는 도 1에 도시된 바와 같이 먼저 일정 시간동안 환자로부터 측정된 뇌전도 신호만을 획득하고, 획득한 뇌전도 신호를 전처리하고, 전처리된 데이터를 딥러닝 알고리즘을 이용해 최종적으로 수면단계를 분류할 수 있다. 이를 통해 수면단계 분류에 따른 객관적인 기준을 제시할 수 있고, 판정자 간 판정 오차를 줄일 수 있으며 수면다원검사 결과 분석을 자동화할 수 있게 되어 수면다원 검사에 소요되는 시간을 최소화할 수 있는 효과를 제공할 수 있게 된다. As shown in FIG. 1, the sleep stage classification device 100 first acquires only the electroencephalogram signals measured from the patient for a certain period of time, preprocesses the obtained electroencephalogram signals, and finally uses a deep learning algorithm to classify the preprocessed data into sleep stages. can be classified. Through this, objective standards can be presented according to sleep stage classification, judgment errors between judges can be reduced, and analysis of polysomnography results can be automated, providing the effect of minimizing the time required for polysomnography. It becomes possible.
이를 위해 수면단계 분류장치(100) 획득부(110), 저장부(120), 제어부(130) 및 학습부(140)를 포함하여 마련될 수 있다. For this purpose, the sleep stage classification device 100 may be provided including an acquisition unit 110, a storage unit 120, a control unit 130, and a learning unit 140.
획득부(110)는 환자로부터 일정시간동안 뇌전도 신호(EEG)만을 측정하여 수집된 원본신호를 획득하기 위해 마련될 수 있다. 이러한 획득부(110)는 환자의 신체에 부착되는 뇌전도 센서와 유무선으로 연결되어 실시간으로 직간접적으로 원본신호를 획득할 수 있다. The acquisition unit 110 may be provided to acquire original signals collected by measuring only electroencephalogram signals (EEG) from the patient for a certain period of time. This acquisition unit 110 is connected wired or wirelessly to an electroencephalogram sensor attached to the patient's body and can acquire the original signal directly or indirectly in real time.
그리고 획득부(110)에서 획득하는 원본신호는 실시간이 아닌, 저장부(120)에 저장되어 있는 뇌전도 신호일 수도 있으며, 획득부(110)에서 실시간으로 획득한 원본신호가 저장부(120)에 저장되도록 전달하거나, 수면단계 분류를 위해 제어부(130)로 전달할 수 있다. In addition, the original signal acquired by the acquisition unit 110 may be an electroencephalogram signal stored in the storage unit 120 rather than in real time, and the original signal acquired in real time by the acquisition unit 110 is stored in the storage unit 120. It can be transmitted as much as possible, or it can be transmitted to the control unit 130 for sleep stage classification.
한편 저장부(120)는 획득부(110)에서 획득한 뇌전도 신호를 원본신호로써 저장하거나 사전에 수행된 수면다원 검사에 의해 수면다원 검사 데이터베이스에 기록된 뇌전도 신호를 원본신호로 저장할 수 있다. Meanwhile, the storage unit 120 may store the electroencephalogram signal acquired by the acquisition unit 110 as the original signal, or store the electroencephalogram signal recorded in the polysomnography database by a previously performed polysomnography test as the original signal.
그리고 저장부(120)에는 단일 뇌전도 기반 수면단계 분류방법을 수행하기 위한 프로그램이 기록된다. 또한 제어부(130)에서 처리하는 데이터를 일시적 또는 영국적으로 저장하며, 휘발성 저장매체 또는 비휘발성 저장매체를 포함할 수 있으나, 이에 한정되는 것은 아니다. And in the storage unit 120, a program for performing a single electroencephalogram-based sleep stage classification method is recorded. Additionally, the data processed by the control unit 130 is stored temporarily or permanently, and may include, but is not limited to, volatile storage media or non-volatile storage media.
또한 저장부(120)는 수면단계 분류방법을 수행하면서 누적되는 데이터가 저장될 수 있는데 예를 들면, 수면단계 분류모델에 사용되는 학습데이터, 수면단계 분류모델, 임베딩 벡터 등이 저장될 수 있다. Additionally, the storage unit 120 may store data accumulated while performing a sleep stage classification method. For example, learning data used in a sleep stage classification model, a sleep stage classification model, and embedding vectors may be stored.
제어부(130)는 단일 뇌전도 기반 수면단계 분류방법을 제공하는 전체 과정을 제어하기 위해 마련되며, 단일 뇌전도 기반 수면단계 분류방법 방법을 수행하기 위한 소프트웨어(어플리케이션)에 의해 제어될 수 있다. The control unit 130 is provided to control the entire process of providing a single electroencephalogram-based sleep stage classification method, and can be controlled by software (application) for performing the single electroencephalogram-based sleep stage classification method.
그리고 제어부(130)는 획득부(110) 및 저장부(120)를 제어하고, 획득부(110)에서 획득한 단일 뇌전도 신호에 기초하여 학습부(140)를 통해 생성된 수면단계 분류모델을 통해 수면단계를 분류할 수 있다. 이러한 제어부(130)는 도시된 바와 같이 전처리부(131), 산출부(133) 및 분류부(135)를 포함할 수 있다. And the control unit 130 controls the acquisition unit 110 and the storage unit 120, and uses the sleep stage classification model generated through the learning unit 140 based on the single electroencephalogram signal acquired by the acquisition unit 110. Sleep stages can be classified. As shown, the control unit 130 may include a preprocessing unit 131, a calculation unit 133, and a classification unit 135.
전처리부(131)는 획득부(110)로부터 전달받은 원본신호를 전처리하여 복수의 추출신호를 생성하고, 원본신호 및 복수의 추출신호를 통합하여 통합데이터를 생성하기 위해 마련된다. The pre-processing unit 131 is provided to generate a plurality of extracted signals by pre-processing the original signal received from the acquisition unit 110 and to generate integrated data by integrating the original signal and the plurality of extracted signals.
구체적으로, 수면의 단계에 따라서 활성화되는 주파수 대역이 다르기 때문에 원본신호로부터 특정 주파수 대역의 신호들을 추출하는 과정이 필요하다. 이에 전처리부(131)는 도 3에서와 같이 Band-Pass filter를 사용하여 원본신호로부터 델타(δ, 0.5~4Hz), 세타(, 4~8Hz), 알파(α, 8~12Hz), 스핀들(spindle, 12~15Hz), 베타(, 15~30Hz)의 주파수 대역별 신호를 추출할 수 있다. Specifically, since the frequency bands activated are different depending on the stage of sleep, a process of extracting signals in a specific frequency band from the original signal is necessary. Accordingly, the preprocessor 131 uses a Band-Pass filter as shown in FIG. 3 to filter delta (δ, 0.5 to 4 Hz) and theta ( , 4~8Hz), alpha (α, 8~12Hz), spindle (12~15Hz), beta ( , 15~30Hz) signals can be extracted for each frequency band.
그리고 전처리부(131)는 이렇게 원본신호로부터 주파수 대역별로 신호를 추출하여 복수의 추출신호를 생성하고 나면, 추출된 다섯가지의 신호와 원본신호를 통합하여 30초 간격의 20개 데이터를 통합데이터로써 생성할 수 있다. 이후 전처리부(131)는 이렇게 생성된 통합데이터를 산출부(133)로 전달할 수 있다. Then, the preprocessor 131 extracts signals for each frequency band from the original signal to generate a plurality of extracted signals, then integrates the five extracted signals and the original signal to produce 20 pieces of data at 30-second intervals as integrated data. can be created. Thereafter, the pre-processing unit 131 may transmit the integrated data generated in this way to the calculation unit 133.
한편 산출부(133)는 전처리부(131)에서 생성된 통합데이터를 전달받고, 전달받은 통합데이터를 수면분류 모델에 입력하여 사후 확률을 산출하기 위해 마련된다. Meanwhile, the calculation unit 133 is provided to receive the integrated data generated in the pre-processing unit 131 and input the received integrated data into a sleep classification model to calculate a posterior probability.
이 때 수면분류 모델은 시공간 합성곱 심층 신경망 (Spectral-Temporal Convolution Neural Network), 자기주의 심층 신경망 (Self-Attention or Multi-Head Attention) 및 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 포함할 수 있다. 수면분류 모델은 인공지능 모델로서 에폭(Epoch) 단위의 시계열 데이터를 이용하며, AASM(American Academy of Sleep Medicine) 표준 또는 R&K(Rechtschaffen and Kales) 표준을 참고해서 수면단계를 분류할 수 있도록 한다. At this time, the sleep classification model includes Spectral-Temporal Convolution Neural Network, Self-Attention or Multi-Head Attention, and Bidirectional-Long Short Term Memory. can do. The sleep classification model is an artificial intelligence model that uses time series data in epoch units and allows sleep stages to be classified by referring to the AASM (American Academy of Sleep Medicine) standard or the R&K (Rechtschaffen and Kales) standard.
이에 산출부(133)는 통합데이터를 입력으로 하여 이상의 총 3단계의 심층 신경망을 거쳐 최종적으로 사후 확률을 산출할 수 있다. 이러한 수면분류 모델은 학습부(140)에 의해 생성될 수 있고, 수면분류 모델을 생성하기 위한 구체적인 학습과정에 대해서는 학습부(140)에서 후술하기로 한다. Accordingly, the calculation unit 133 can take the integrated data as input and go through a total of three deep neural networks above to finally calculate the posterior probability. This sleep classification model can be generated by the learning unit 140, and the specific learning process for generating the sleep classification model will be described later in the learning unit 140.
또한 본 실시예에 따른 산출부(133)는 학습이 완료된 수면분류 모델을 이용해 수면의 단계를 더욱 정확하게 구별하도록 할 수 있다. Additionally, the calculation unit 133 according to this embodiment can more accurately distinguish sleep stages using a learned sleep classification model.
이를 위해 산출부(133)는 30초 간격의 20개의 신호인 통합데이터를 학습된 수면분류 모델에 입력하여 산출된 사후 확률들을 일정한 시간간격, 즉 30초 간격으로 이동시키면서 사후 확률 뭉치들을 추출할 수 있다. 또한 산출부(133)는 이렇게 추출된 사후 확률 뭉치들의 평균값을 산출할 수 있다. To this end, the calculation unit 133 inputs integrated data, which is 20 signals at 30-second intervals, into the learned sleep classification model and extracts a bundle of posterior probabilities by moving the calculated posterior probabilities at regular time intervals, that is, at 30-second intervals. there is. Additionally, the calculation unit 133 can calculate the average value of the posterior probability bundles extracted in this way.
한편 분류부(135)는 이렇게 산출된 사후 확률 뭉치들의 평균값 중에서 가장 큰 값을 가지는 곳을 수면의 단계로 분류할 수 있는데, 구체적으로는 아래 표 1과 같이 분류될 수 있다. Meanwhile, the classification unit 135 can classify the place with the largest value among the average values of the posterior probability bundles calculated in this way as a sleep stage. Specifically, it can be classified as shown in Table 1 below.
한편 학습부(140)는 수면단계 분류를 위한 수면단계 분류모델을 생성하기 위해 마련될 수 있으며, 인공지능 기반의 수면단계 분류모델은 처리된 특성을 가지는 에폭 단위의 시계열 데이터를 입력으로 받아 딥러닝 기술로 분석하여 수면단계를 분류할 수 있다. 최적의 성능을 위한 수면단계 분류모델을 구현하기 위해서는 최적화된 변수인 하이퍼파라미터가 존재하며 이는 각각의 레이어마다 정의될 수 있다. Meanwhile, the learning unit 140 may be provided to generate a sleep stage classification model for sleep stage classification, and the artificial intelligence-based sleep stage classification model receives epoch-level time series data with processed characteristics as input and performs deep learning. Sleep stages can be classified by analysis using technology. In order to implement a sleep stage classification model for optimal performance, hyperparameters, which are optimized variables, exist and can be defined for each layer.
상술한 바와 같이 본 실시예의 수면단계 분류모델은 시공간 합성곱 심층 신경망 (Spectral-Temporal Convolution Neural Network), 자기주의 심층 신경망 (Self-Attention or Multi-Head Attention) 및 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 포함하여 딥러닝 모델의 형태로 설계된다. As described above, the sleep stage classification model of this embodiment is a spatiotemporal convolution deep neural network (Spectral-Temporal Convolution Neural Network), a self-attention deep neural network (Self-Attention or Multi-Head Attention), and a bidirectional-long memory recurrent neural network. It is designed in the form of a deep learning model, including Short Term Memory.
이를 위해 학습부(140)는 시공간 합성곱 모듈(141), 자기주의 모듈(143), 양방향 LSTM 모듈(145)을 포함하여 마련될 수 있다.For this purpose, the learning unit 140 may be provided including a space-time convolution module 141, a self-attention module 143, and a bidirectional LSTM module 145.
시공간 합성곱 모듈(141)은 도 5에 도시된 바와 같이 획득부(110)에서 30초 단위(epoch)로 나누어 측정되는 총 20개의 전체 뇌전도 신호가 전처리부(131)를 통해 전처리되어 생성된 통합데이터를 입력받게 된다. As shown in FIG. 5, the spatio-temporal convolution module 141 is a total of 20 electroencephalogram signals measured in 30 second units (epochs) in the acquisition unit 110, which are generated by preprocessing the preprocessor 131. Data will be input.
그러면 시공간 합성곱 모듈(141)은 시공간 합성곱 심층 신경망을 적용하여 뇌전도 신호의 특징을 자동으로 추출하고, 특징벡터에서 중요한 부분에 집중하여 최종적인 특징벡터를 추출하여 임베딩벡터를 생성할 수 있다. Then, the space-time convolution module 141 can automatically extract the features of the EEG signal by applying a space-time convolution deep neural network, focus on important parts of the feature vector, extract the final feature vector, and generate an embedding vector.
보다 구체적으로 시공간 합성곱 심층 신경망은 도 6에 도시된 바와 같이 통합데이터에서 몇 가지의 매개변수를 사용하여 EEG 신호의 신경 생리학적 특징을 추출하고, 이 때 커널 크기(kernel size)를 조정하여 프로세스를 수행할 수 있다. 그리고 도 6과 같이 두 컨볼루션 레이어에 대해 배치 정규화(batch normalization) 및 ELU(Exponential linear unit) 활성화 함수가 두 컨볼루션 레이어에서 생성된 피처 맵에 적용될 수 있고, 매개변수의 수를 줄이기 위해 편향을 제거할 수 있다. More specifically, the spatiotemporal convolutional deep neural network extracts neurophysiological features of the EEG signal using several parameters from the integrated data, as shown in Figure 6, and at this time, adjusts the kernel size to process can be performed. And as shown in Figure 6, batch normalization and ELU (Exponential linear unit) activation functions for the two convolutional layers can be applied to the feature maps generated from the two convolutional layers, and bias is applied to reduce the number of parameters. It can be removed.
보다 구체적으로 시공간 합성곱 심층 신경망에서 두 개의 컨볼루션 레이어는 (1, k)의 커널 크기를 이용하여 EEG 신호에서 시간적 특징을 추출할 수 있다. 첫 번째 컨볼루션 레이어의 커널 크기는 100Hz 샘플링 속도의 절반인 (1, 50)으로 설정되고, 두 번째 컨볼루션 레이어의 경우 EEG 신호에서 0.5Hz 이상의 주파수 정보를 캡처하기 위하여 커널 크기 (1, 100)으로 설정될 수 있다. 두 개의 컨볼루션 레이어는 입력의 차원을 유지하기 위해 25와 50으로 채워(fadded)질 수 있다. More specifically, in a spatiotemporal convolutional deep neural network, two convolutional layers can extract temporal features from EEG signals using a kernel size of (1, k). The kernel size of the first convolutional layer is set to (1, 50), which is half of the 100Hz sampling rate, and for the second convolutional layer, the kernel size is set to (1, 100) to capture frequency information above 0.5Hz in the EEG signal. It can be set to . The two convolutional layers can be padded with 25 and 50 to maintain the dimensionality of the input.
시공간 합성곱 심층 신경망은 도 6에 도시된 바와 같이 깊이별 컨볼루션 레이어(depthwise convolution layer)와 포인트별 컨볼루션 레이어(pointwise convolution layer)를 포함할 수 있다. 이 때 깊이별 컨볼루션 레이어는 (1, 6)의 커널 크기를 사용하여 주파수별 공간 정보를 학습하고, 각 수면 단계에서 주파수 간 정보를 캡처한다. 한편 포인트별 컨볼루션 레이어는 (1, 1)의 커널 크기를 사용하여 각 피처 맵을 최적으로 혼합한다. 이러한 시공간 합성곱 심층 신경망은 이전의 모든 피처 맵에 풀링(fully)이 적용되지 않으므로, 훈련 가능한 매개변수의 수를 줄일 수 있다. 1000개의 출력 뉴런 유닛과 5개의 출력 뉴런이 있는 2개의 적층된 풀링 레이어(fully connected layer)는 컨볼루션 프로세스의 최종 피처 맵을 사용하여 수면 단계를 분류하는데 사용될 수 있다. The spatiotemporal convolutional deep neural network may include a depthwise convolution layer and a pointwise convolution layer, as shown in FIG. 6. At this time, the depth-specific convolution layer learns spatial information by frequency using a kernel size of (1, 6) and captures information between frequencies at each sleep stage. Meanwhile, the point-wise convolution layer optimally mixes each feature map using a kernel size of (1, 1). This spatiotemporal convolutional deep neural network does not fully apply pooling to all previous feature maps, thus reducing the number of trainable parameters. Two stacked pooling layers (fully connected layers) with 1000 output neuron units and 5 output neurons can be used to classify sleep stages using the final feature maps of the convolution process.
이 때 피처 맵은 단일 벡터로 평면화되고 2개의 적층된 풀링 레이어에 입력되고, 이를 통해 5개의 출력 벡터를 기반으로 5개의 수면 단계에 대한 점수를 계산할 수 있다. 그럼 다음 SoftMax 레이어가 적용된다. At this time, the feature map is flattened into a single vector and input into two stacked pooling layers, which allows scores for the five sleep stages to be calculated based on the five output vectors. Then the next SoftMax layer is applied.
보다 구체적인 시공간 합성곱 심층 신경망의 레이어 및 하이퍼파라미터는 아래의 표 2와 같을 수 있다. More specific layers and hyperparameters of the spatiotemporal convolutional deep neural network may be as shown in Table 2 below.
시공간 합성곱 모듈(141)은 수면과 관련된 뇌파 신호의 특성을 포함하는 임베딩벡터를 생성하기 위해 사전 훈련된 시공간 합성곱 심층 신경망을 사용하여 전이 학습을 수행할 수 있다. 전이 학습은 다양한 기계 학습에 사용되는 것으로 이는 관련 소스 작업(source tasks)의 지식을 대상 작업(target task)으로 이전하여 성능을 향상시키고 훈련 시간을 단축할 수 있게 된다. 도 6와 같이 사전 훈련된 시공간 합성곱 심층 신경망에서 추출한 최종 특징 맵을 2,000개의 출력 뉴런을 포함하는 풀링 레이어에 선형 투영(linearly projected)하여 임베딩 벡터를 생성할 수 있다. The spatiotemporal convolution module (141) can perform transfer learning using a pre-trained spatiotemporal convolutional deep neural network to generate an embedding vector including the characteristics of brain wave signals related to sleep. Transfer learning is used in various machine learning, which can improve performance and shorten training time by transferring knowledge of related source tasks to a target task. As shown in Fig. 6, the final feature map extracted from the pre-trained spatiotemporal convolutional deep neural network can be linearly projected to a pooling layer including 2,000 output neurons to generate an embedding vector.
이렇게 생성된 임베딩 벡터는 도 5에 도시된 바와 같이 자기주의 모듈(143)에 입력되며 수면분류 모델에 맞게 미세 조정할 수 있도록 비고정 상태(non-static state)로 설정될 수 있다. The embedding vector generated in this way is input to the self-attention module 143 as shown in FIG. 5 and can be set to a non-static state so that it can be fine-tuned to fit the sleep classification model.
한편 자기주의 모듈(143)은 자기주의 심층 신경망(Self-Attention or Multi-Head Attention)을 적용하여 시공간 합성곱 모듈(141)에서 추출된 20개의 뇌전도 특징 정보들 간의 상관관계를 학습할 수 있다. 이를 통해 통합데이터들 간의 서로 비슷한 특성을 가지는지 그렇지 않는지를 확인할 수 있게 된다. Meanwhile, the self-attention module 143 can learn the correlation between 20 electroencephalogram feature information extracted from the spatio-temporal convolution module 141 by applying a self-attention deep neural network (Self-Attention or Multi-Head Attention). Through this, it is possible to check whether the integrated data has similar characteristics or not.
자기주의 심층 신경망은 타임스탬프(timestamps)가 서로 다른 다수의 에폭(epoch) 간의 상관관계 및 종속성을 캡처할 수 있다. Self-attentive deep neural networks can capture correlations and dependencies between multiple epochs with different timestamps.
시공간 합성곱 모듈(141)로부터 20개의 연속 에폭(epoch)가 임베딩 벡터로 변환된 다음 자기주의 심층 신경망에 입력되는데, 자기주의 메커니즘은 시퀀스 정보를 반영하지 않기 때문에 위치 정보를 추가하기 위해 임베딩 매트릭스에 위치 인코딩이 적용될 수 있으며, 이러한 위치 인코딩은 다음의 수학식 1에 의해 구현될 수 있다. Twenty consecutive epochs from the space-time convolution module 141 are converted into embedding vectors and then input into the self-attention deep neural network. Since the self-attention mechanism does not reflect sequence information, position information is added to the embedding matrix. Position encoding can be applied, and this position encoding can be implemented by the following equation 1.
[수학식 1][Equation 1]
) )
여기서 i는 차원의 인덱스이고, pos는 20으로 에폭 간의 종속성을 학습하기 위한 고정 길이 부분 시퀀스의 위치 인덱스를 의미하고 dmodel은 임베딩벡터와 동일한 크기인 2,000으로 정의될 수 있다. Here, i is the index of the dimension, pos is 20, which means the position index of the fixed-length partial sequence for learning dependencies between epochs, and d model can be defined as 2,000, which is the same size as the embedding vector.
그리고 자기주의 심층 신경망은 입력 벡터와 크기가 동일한 쿼리(Query), 키(Key), 값(Value)을 포함할 수 있으며, 주의 가중치(attention weight)는 세 단계를 통해 계산될 수 있다. And the self-attentive deep neural network may include a query, key, and value with the same size as the input vector, and the attention weight can be calculated through three steps.
먼저 키와 쿼리 간의 유사성 도출을 위해 모든 키가 있는 쿼리의 내적을 계산하고 벡터 차원의 제곱으로 나누게 된다. 두번째로는 SoftMax 활성화를 사용하여 서로 다른 값(value)들의 주의 가중치를 얻고, 마지막으로 두번째 단계에서 생성된 모든 값의 가중치를 합하여 주의 값(attention value)을 계산할 수 있게 된다. First, to derive similarity between keys and queries, the dot product of queries with all keys is calculated and divided by the square of the vector dimension. Second, the attention weights of different values can be obtained using SoftMax activation, and finally, the attention value can be calculated by adding the weights of all values generated in the second step.
주의 가중치는 쿼리, 키 및 값을 각각 Q, K 및 V에 패킹하여 계산되고 출력 행렬은 하기의 수학식 2를 통해 계산할 수 있다. The attention weight is calculated by packing the query, key, and value into Q, K, and V, respectively, and the output matrix can be calculated through Equation 2 below.
[수학식 2][Equation 2]
여기서 Q, K 및 V는 입력 임베딩 벡터에 의해 형성된 행렬이고, 은 벡터의 차원이며, T는 전치 행렬을 의미할 수 있다.where Q, K and V are matrices formed by the input embedding vectors, is the dimension of the vector, and T may mean the transpose matrix.
그리고 자기주의 메커니즘은 Q, K 및 V에 대해 h 선형 투영을 수행하여 다양한 관점에서 특징을 추출할 수 있는데, 여기서 h는 헤드의 수일 수 있으며, 이 때에는 하기 수학식 3을 사용할 수 있다. And the self-attention mechanism can extract features from various perspectives by performing h linear projection on Q, K, and V, where h can be the number of heads, and in this case, Equation 3 below can be used.
[수학식 3][Equation 3]
이상에서 는 학습가능한 파라미터를 의미할 수 있다. From above may mean a learnable parameter.
이후 자기주의 모듈(143)은 다른 헤드의 출력을 연결한 다음 선형 투영을 다시 수행할 수 있다. 본 실시예에 따른 자기주의 모듈(143)은 100개의 출력 뉴런이 있는 풀링 레이어(fully connected layer)를 사용하여 차원이 2,000인 임베딩 벡터(즉, 10개의 헤드)를 투영하고, 최종 출력 벡터는 딥 러닝의 수렴을 개선하고, 성능 저하 문제를 극복하며 정보 흐름을 향상시키기 위해 스킵 연결(skip connection)을 통해 입력 벡터에 추가될 수 있다. Afterwards, the self-attention module 143 can connect the output of another head and then perform linear projection again. The self-attention module 143 according to this embodiment projects an embedding vector with a dimension of 2,000 (i.e., 10 heads) using a fully connected layer with 100 output neurons, and the final output vector is deep It can be added to the input vector through a skip connection to improve the convergence of learning, overcome performance degradation issues, and improve information flow.
그리고 자기주의 심층 신경망은 GELU 활성화 함수와 함께 두 개의 풀링 레이어로 구성된 위치별 피드포워드 네트워크(position-wise Feed-forward network)에 동일하게 적용되는데 위치별 피드포워드 네트워크는 하기의 수학식 4과 같이 구현될 수 있다. And the self-attentive deep neural network is equally applied to the position-wise feed-forward network consisting of two pooling layers with the GELU activation function. The position-wise feed-forward network is implemented as shown in Equation 4 below. It can be.
[수학식 4][Equation 4]
여기서 과 는 각각 와 형식의 학습 가능한 매개변수(parameter)이고 f는 100이며, 및 는 편향 항(bias terms)을 의미할 수 있다. here class are respectively and It is a learnable parameter of the form and f is 100, and may mean bias terms.
이상의 자기주의 심층 신경망을 적용하여 자기주의 모듈(143)에서는 서로 다른 신호 간의 상관관계를 캡처하는 것이 가능해지고 자기주의 모듈(143)은 자기주의 심층 신경망을 통해 출력된 출력 벡터를 양방향 LSTM 모듈(145)에 입력되도록 할 수 있다. By applying the above self-attention deep neural network, it is possible to capture correlations between different signals in the self-attention module 143, and the self-attention module 143 converts the output vector output through the self-attention deep neural network into a two-way LSTM module (145). ) can be entered.
한편 양방향 LSTM 모듈(145)은 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 적용하여 시간에 따라 변하는 뇌전도의 시계열적인 특징을 학습하기 위해 마련될 수 있다. 장단기 기억 순환 신경망의 경우에는 시계열 데이터를 순차적으로 학습할 때 주로 사용되며, 과거의 정보들이 학습이 진행됨에 따라 정보가 손실되는 것을 방지해 준다. 이런 장단기 기억 순환 신경망을 양방향으로 학습하게 되면 신호에서 다양한 정보들을 추출하여 학습할 수 있게 된다. Meanwhile, the bidirectional LSTM module 145 can be prepared to learn time-series characteristics of the electroencephalogram that change with time by applying a bidirectional-long short term memory (Bidirectional-Long Short Term Memory). In the case of long-term memory recurrent neural networks, they are mainly used when learning time series data sequentially, and prevent past information from being lost as learning progresses. By learning this long-term memory recurrent neural network in both directions, it becomes possible to extract and learn various information from the signal.
보다 구체적으로, 자기주의 모듈(143)에서 서로 다른 신호 간의 상관관계를 캡처하는 것은 가능하지만, 시간이 지남에 따라 수면 단계의 변화를 반영하는 데에는 한계가 있고, 이러한 문제를 해결하기 위해 자기주의 심층 신경망을 통해 추출된 출력 벡터는 서로 다른 에폭 간의 상관관계와 수면 단계의 변화를 고려하는 양방향 LSTM 모듈(145)에 입력되도록 할 수 있다. More specifically, although it is possible to capture correlations between different signals in the self-attention module 143, there are limitations in reflecting changes in sleep stages over time, and to address these issues, deep self-attention The output vector extracted through the neural network can be input to the bidirectional LSTM module 145 that considers the correlation between different epochs and changes in sleep stages.
본 실시예에 따른 양방향 LSTM 모듈(145)은 시간에 따른 수면 단계의 변화를 학습하기 위해 고려되는 정보의 양을 증가시킬 수 있도록 전후 방향으로 2개의 LSTM을 포함하는 양방향 장단기 기억 순환 신경망을 적용하여 RNN의 장기 종속성 문제를 해결할 수 있게 된다. The bidirectional LSTM module 145 according to this embodiment applies a bidirectional long-term short-term memory recurrent neural network including two LSTMs in the forward and backward directions to increase the amount of information considered to learn changes in sleep stages over time. It is possible to solve the long-term dependency problem of RNN.
이러한 양방향 LSTM 모듈(145)에 적용되는 양방향 장단기 기억 순환 신경망의 LSTM(Long Short Term Memory)은 하기의 수학식 5에 따라 구현될 수 있다. The Long Short Term Memory (LSTM) of the bidirectional long short term memory recurrent neural network applied to this bidirectional LSTM module 145 can be implemented according to Equation 5 below.
[수학식 5][Equation 5]
이상에서 는 시그모이드 함수이고, w와 b는 각각 가중치 행렬 및 편향을 의미한다. I, f, c 및 o는 입력 게이트, 망각(forget) 게이트, 셀 백터 및 출력 게이트를 의미하는 것으로, 은닉 벡터 h와 크기가 같을 수 있다. From above is a sigmoid function, and w and b represent the weight matrix and bias, respectively. I, f, c, and o refer to the input gate, forget gate, cell vector, and output gate, and may have the same size as the hidden vector h.
본 실시예에 따른 양방향 장단기 기억 순환 신경망은 레이어 당 200개의 은닉 유닛과 2,000개의 입력 뉴런을 포함할 수 있다. 그리고 5개의 수면단계를 분류하기 위해 자기주의 심층 신경망과 양방향 장단기 기억 순환 신경망의 출력 벡터를 연결(출력 벡터의 차원은 2,400)한 다음 풀링 레이어 및 SoftMax 레이어에 차례로 입력되도록 할 수 있다. The bidirectional long-short-term memory recurrent neural network according to this embodiment may include 200 hidden units and 2,000 input neurons per layer. In order to classify the five sleep stages, the output vectors of the self-attention deep neural network and the bidirectional long-term memory recurrent neural network can be connected (the dimension of the output vector is 2,400) and then sequentially input to the pooling layer and SoftMax layer.
이상의 과정을 통해 학습부(140)는 3개의 심층 신경망을 이용하여 학습을 완료하여 수면분류 모델을 생성할 수 있게 된다. 그리고 이렇게 생성된 수면분류 모델을 통해 제어부(130)에서 최종 수면단계를 분류할 수 있게 된다. Through the above process, the learning unit 140 can complete learning using three deep neural networks to create a sleep classification model. And through the sleep classification model created in this way, the control unit 130 can classify the final sleep stage.
그리고 수면단계 분류모델을 성공적으로 학습시키기 위해 클래스 불균형 문제를 해결해야 하는데 일반적으로 각 수면단계의 지속 시간은 다양하므로 각 클래스의 인스턴스 수에는 차이가 있게 된다. 예를 들면 'N2' 단계는 전체 수면의 약 45-55%를 차지하는 반면, 'N1' 단계는 약 2-5%만 차지하게 된다. In addition, in order to successfully learn a sleep stage classification model, the class imbalance problem must be solved. Generally, the duration of each sleep stage varies, so there is a difference in the number of instances of each class. For example, the 'N2' stage accounts for about 45-55% of total sleep, while the 'N1' stage only accounts for about 2-5%.
대부분의 기계학습 알고리즘은 오분류 비용이 모든 클래스에 대해 동일하다고 가정하여 학습하지만, 비용에 민감한 학습(cost-sensitive learning)은 각 클래스에 서로 다른 오분류 비용을 적절하게 할당하여 총 비용을 최소화하는 훈련 방식이다. 이 방식은 훈련시간이나 계산비용을 증가시키지 않고 모든 클래스를 동등하게 학습할 수 있다는 장점이 있고 다른 데이터 샘플링 방법에 비해 클래스 불균형 문제를 완화할 수 있다. Most machine learning algorithms learn by assuming that the misclassification cost is the same for all classes, but cost-sensitive learning minimizes the total cost by appropriately assigning different misclassification costs to each class. It's a training method. This method has the advantage of being able to learn all classes equally without increasing training time or computational cost, and can alleviate class imbalance problems compared to other data sampling methods.
이에 본 실시예의 학습 대상인 Sleep-EDF(Expanded) 데이터세트(data set)의 경우 각 수면의 단계의 클래스 개수가 고르지 못한 데이터 불균형의 문제를 가질 수 있다. Accordingly, in the case of the Sleep-EDF (Expanded) dataset, which is the learning target of this embodiment, there may be a problem of data imbalance in which the number of classes in each sleep stage is uneven.
이에 해당 데이터세트로 학습을 진행한 경우 다수의 클래스에 더 관심을 가지고 학습을 진행하기 때문에 모든 클래스에 대해서 고르게 학습을 진행하기 위해서 본 실시예에서의 학습부(140)는 초점 손실(focus loss) 함수를 사용하여 오분류 비용(misclassification cost)을 최소화시킬 수 있다. 초점 손실 함수는 하기의 수학식 6에 기초하여 구현될 수 있다. Accordingly, when learning is performed with the corresponding dataset, learning is performed with more interest in multiple classes, so in order to perform learning evenly for all classes, the learning unit 140 in this embodiment uses focus loss. The misclassification cost can be minimized by using functions. The focus loss function can be implemented based on Equation 6 below.
[수학식 6][Equation 6]
이 때 는 SoftMax 활성화 함수를 기반으로 발생하는 특정 수면 단계와 관련된 확률을 의미할 수 있고, 는 가중인자(weighting factor), 초점 매개변수(focusing parameter) 는 균형변조인자(balance modulation factor)로써, 클래스 불균형 문제를 해결하기 위해 도입되었다. At this time may refer to the probability associated with a specific sleep stage occurring based on the SoftMax activation function, is a weighting factor, a focusing parameter. is a balance modulation factor, which was introduced to solve the class imbalance problem.
또한 본 실시예에서의 학습부(140)는 'N1' 클래스가 다른 클래스에 비해 상대적으로 성능이 떨어지기 때문에 가중 랜덤 샘플링(weighted random sampling 적용하여 'N1' 클래스를 가지는 샘플들을 자주 학습시켜 'N2' 클래스의 성능 향상을 도모하였다. In addition, since the performance of the 'N1' class is relatively poor compared to other classes, the learning unit 140 in this embodiment frequently trains samples with the 'N1' class by applying weighted random sampling to the 'N2' class. ' We sought to improve the performance of the class.
이때 학습부(140)는 가중 랜덤 샘플링을 적용하기 위해 다중 출력(multiple output)은 세 그룹으로 그룹화할 수 있다. 그룹 1은 모든 레이블이 'w'단계에 있는 경우이고, 그룹 2는 'N1'이 레이블에 포함되지 않고 그룹 1에 속하지 않은 경우이며, 그룹 3은 'N1'이 레이블에 포함되고 그룹 1에 속하지 않는 경우일 수 있다. At this time, the learning unit 140 may group multiple outputs into three groups to apply weighted random sampling. Group 1 is when all labels are in the 'w' stage, Group 2 is when 'N1' is not included in the label and does not belong to group 1, and Group 3 is when 'N1' is included in the label and does not belong to group 1. This may not be the case.
표본 확률은 각 그룹에 대해 1:5:5의 비율로 설정되고, 이 절차를 통해 학습 세트는 대다수 클래스이 'W' 이외의 수면 단계(특히 N1)에 초점을 맞추도록 효과적으로 재조정되었다. The sampling probability was set at a ratio of 1:5:5 for each group, and this procedure effectively rescaled the training set so that the majority of classes focused on sleep stages other than 'W' (particularly N1).
도 7은, 본 발명의 일 실시예에 따른 사후 확률에 기반한 예측 알고리즘의 개략도이다. Figure 7 is a schematic diagram of a prediction algorithm based on posterior probability according to an embodiment of the present invention.
상술한 바와 같이 산출부(133)는 학습부(140)에서 학습이 완료되어 생성된 수면분류 모델을 통해 출력된 사후 확률들을 30초 간격으로 옮겨 가면서 추출할 수 있다. 본 수면단계 분류장치(100)는 사후 확률에 기반한 예측 알고리즘을 이용하여 수면단계를 분류할 수 있게 되는데, 도면에서와 같이 입력 시퀀스는 20 에폭(epoch)으로 구성되고 1에폭(epoch)만큼 오프셋된다. As described above, the calculation unit 133 can extract the posterior probabilities output through the sleep classification model generated after completing learning in the learning unit 140 at intervals of 30 seconds. This sleep stage classification device 100 can classify sleep stages using a prediction algorithm based on posterior probability. As shown in the figure, the input sequence consists of 20 epochs and is offset by 1 epoch. .
그리고 산출부(133)는 각 에폭에 대한 사후 확률을 합산하고 각 클래스에 대해 평균값을 산출할 수 있으며 최종 사후 확률의 시간 인덱스 t는 하기의 수학식 7에 따라 계산될 수 있다. The calculation unit 133 can add up the posterior probabilities for each epoch and calculate the average value for each class, and the time index t of the final posterior probability can be calculated according to Equation 7 below.
[수학식 7][Equation 7]
여기서 은 n번째 예측 결과이고, 는 i번째 데이터이며, 는 사후 확률을 의미한다. here is the nth prediction result, is the ith data, means the posterior probability.
한편 도 8은 본 발명의 일 실시예에 따른 수면단계 분류방법을 설명하기 위한 흐름도로써, 본 실시예에 따른 단일 뇌전도 기반 수면단계 분류방법은 상술한 수면단계 분류장치(100)에 의해 수행될 수 있다. Meanwhile, Figure 8 is a flowchart for explaining a sleep stage classification method according to an embodiment of the present invention. The single electroencephalogram-based sleep stage classification method according to this embodiment can be performed by the sleep stage classification device 100 described above. there is.
이러한 본 실시예에 따른 수면단계 분류방법은, 원본신호를 획득하는 단계(S100), 복수의 추출신호를 생성하는 단계(S200), 통합데이터를 생성하는 단계(S300), 사후 확률을 산출하는 단계(400) 및 수면단계를 분류하는 단계(S500)를 포함할 수 있다. The sleep stage classification method according to this embodiment includes the step of acquiring the original signal (S100), the step of generating a plurality of extracted signals (S200), the step of generating integrated data (S300), and the step of calculating the posterior probability. (400) and a step of classifying sleep stages (S500).
원본신호를 획득하는 단계(S100)는 일정시간동안 뇌전도 신호(EEG, electroencephalogram)만을 측정하여 뇌전도 신호를 원본신호로써 획득하는 단계일 수 있다. 이러한 원본신호를 획득하는 단계(S100)는 수면분류 장치(100)에 구비된 EEG 센서에 의해 직접 수집되거나 별도의 EEG 센서와 유무선 통신을 통해 전달받을 수도 있다. The step of acquiring the original signal (S100) may be a step of acquiring the electroencephalogram signal (EEG) as the original signal by measuring only the electroencephalogram signal (EEG) for a certain period of time. The step (S100) of acquiring these original signals may be collected directly by the EEG sensor provided in the sleep classification device 100, or may be transmitted through wired or wireless communication with a separate EEG sensor.
한편 복수의 추출신호를 생성하는 단계(S200)는 획득부(110)에서 획득한 원본신호를 전처리부(131)에서 전처리하여 복수의 추출신호를 생성하는 단계로, Band-Pass filter를 사용하여 원본신호로부터 델타(δ, 0.5~4Hz), 세타(, 4~8Hz), 알파(α, 8~12Hz), 스핀들(spindle, 12~15Hz), 베타(, 15~30Hz)의 주파수 대역별 신호를 추출하는 단계일 수 있다. Meanwhile, the step of generating a plurality of extracted signals (S200) is a step of generating a plurality of extracted signals by pre-processing the original signal obtained from the acquisition unit 110 in the pre-processing unit 131. The original signal is generated using a Band-Pass filter. From the signal, delta (δ, 0.5~4Hz), theta ( , 4~8Hz), alpha (α, 8~12Hz), spindle (12~15Hz), beta ( , 15 to 30 Hz), this may be a step of extracting signals for each frequency band.
이렇게 복수의 추출신호가 생성된 이후에는 통합데이터를 생성하는 단계(300)를 수행할 수 있다. 통합데이터를 생성하는 단계(300)는 전처리부(131)가 원본신호와 추출된 5가지의 추출신호를 통합하여 통합데이터로써 생성할 수 있다. After a plurality of extracted signals are generated in this way, step 300 of generating integrated data can be performed. In the step 300 of generating integrated data, the preprocessor 131 may generate integrated data by integrating the original signal and the five extracted signals.
그리고나서 통합데이터에 기초하여 사후 확률을 산출하는 단계(400)를 수행할 수 있다. 사후 확률을 산출하는 단계(S400)는 생성된 통합데이터를 수면분류 모델에 입력하여 사후 확률을 산출하는 단계이며, 이 때 수면분류 모델은 시공간 합성곱 심층 신경망 (Spectral-Temporal Convolution Neural Network), 자기주의 심층 신경망 (Self-Attention or Multi-Head Attention) 및 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 포함할 수 있다. 수면분류 모델은 인공지능 모델로서 에폭(Epoch) 단위의 시계열 데이터를 이용하며, AASM(American Academy of Sleep Medicine) 표준 또는 R&K(Rechtschaffen and Kales) 표준을 참고해서 수면단계를 분류할 수 있도록 한다.Then, step 400 of calculating the posterior probability based on the integrated data can be performed. The step of calculating the posterior probability (S400) is a step of calculating the posterior probability by inputting the generated integrated data into a sleep classification model. At this time, the sleep classification model is a spatiotemporal convolution deep neural network, It may include deep attention neural networks (Self-Attention or Multi-Head Attention) and Bidirectional-Long Short Term Memory. The sleep classification model is an artificial intelligence model that uses time series data in epoch units and allows sleep stages to be classified by referring to the AASM (American Academy of Sleep Medicine) standard or the R&K (Rechtschaffen and Kales) standard.
이에 사후 확률을 산출하는 단계(S400)에서는 상술한 학습부(140)에서 생성된 총 3단계의 심층 신경망을 포함하는 수면분류 모델을 통해 최종적으로 사후 확률을 산출할 수 있다. 이 때 시공간 합성곱 심층 신경망을 통해 통합데이터로부터 추출된 뇌전도 특징 정보들간의 상관관계를 자기주의 심층 신경망을 통해 추출할 수 있게 된다. 그리고 양방향 장단기 기억 순환 신경망에 기초하여 뇌전도 특징 정보들 간의 상관관계 데이터를 에폭 단위의 시간에 따라 변하는 뇌전도의 시계열적인 특징을 추출할 수 있게 된다. Accordingly, in the step of calculating the posterior probability (S400), the posterior probability can be finally calculated through a sleep classification model including a total of three stages of deep neural network generated by the learning unit 140 described above. At this time, the correlation between electroencephalogram feature information extracted from integrated data through a spatio-temporal convolutional deep neural network can be extracted through a self-attention deep neural network. And based on the bidirectional long-term memory recurrent neural network, it is possible to extract correlation data between EEG feature information and time-series features of the EEG that change with time in epoch units.
그리고 본 실시예에 따른 단일 뇌전도 기반 수면단계 분류방법(S500)은 사후 확률을 산출하는 단계(S400) 이후에 사후 확률 뭉치들의 평균값을 산출하는 단계(미도시)를 더 포함할 수도 있다. In addition, the single electroencephalogram-based sleep stage classification method (S500) according to this embodiment may further include a step (not shown) of calculating the average value of the posterior probability bundles after the step of calculating the posterior probability (S400).
이러한 사후 확률 뭉치들의 평균값을 산출하는 단계(미도시)에서는, 통합데이터를 생성하는 단계(S300)를 통해 생성된 30초 간격의 20개의 신호를 상술한 3단계의 심층 신경망을 포함하는 수면분류 모델에 입력하여 나온 사후 확률들을 30초 간격으로 옮겨가면서 추출할 수 있다. 그리고 이렇게 추출된 사후 확률 뭉치들의 평균값들을 구하게 된다. In the step of calculating the average value of these posterior probability bundles (not shown), a sleep classification model including a three-stage deep neural network detailed on 20 signals at 30-second intervals generated through the step of generating integrated data (S300). The posterior probabilities obtained by inputting can be extracted by moving at 30 second intervals. Then, the average values of the posterior probability bundles extracted in this way are obtained.
그리고나서 수면단계를 분류하는 단계(S500)를 수행할 수 있다. 수면단계를 분류하는 단계(S500)는 사후 확률 뭉치들의 평균값을 산출하는 단계(S500)에서 산출된 평균값 중에서 가장 큰 값을 가지는 곳을 기준으로하여 수면의 단계를 분류할 수 있다. Then, a step (S500) of classifying the sleep stage can be performed. In the step of classifying sleep stages (S500), the sleep stages can be classified based on the position with the largest value among the average values calculated in the step of calculating the average value of the posterior probability bundles (S500).
한편 도 9는 본 실시예의 사후 확률에 기반한 예측 알고리즘을 적용하기 전후를 비교하기 위한 도면, 그리고 도 10은 본 발명의 수면단계 분류방법에 따른 수면단계 예측 결과와 수면 전문가가 판단한 수면단계를 비교하기 위한 도면으로, 이하에서는 본 실시예에 따른 수면단계 분류모델의 성능을 평가한 실험결과에 대해 설명하기로 한다. Meanwhile, Figure 9 is a diagram for comparing before and after applying the prediction algorithm based on the posterior probability of this embodiment, and Figure 10 is a diagram for comparing the sleep stage prediction results according to the sleep stage classification method of the present invention with the sleep stage judged by a sleep expert. As a drawing for this purpose, the following will describe the results of an experiment evaluating the performance of the sleep stage classification model according to this embodiment.
본 실험에서는 Sleep-EDF(Expanded) 데이터베이스(version 2018)을 사용하였고 데이터 세트는 수면 카세트 하위 세트(sleep cassette subset)와 수면 원격 측정 하위 세트(sleep telemetry subset)의 두 가지 하위 세트로 구성됩니다. 수면 카세트(SC) 하위 집합은 수면과 연령 간의 관계를 연구하기 위해 측정된 25-101세 사이의 대상자 153명의 수면다원검사(PSG, Polysomnography)로 구성되었다. In this experiment, we used the Sleep-EDF (Expanded) database (version 2018), and the data set consists of two subsets: sleep cassette subset and sleep telemetry subset. The sleep cassette (SC) subset consisted of polysomnography (PSG) from 153 subjects aged 25–101 years, measured to study the relationship between sleep and age.
수면 원격 측정 하위 집합은 수면제 처방 약물인 테마제팜(temazepam)과 수면 사이의 관계를 연구하기 위해 측정된 18-79세 사이의 대상자 44명의 수면다원검사로 구성되었다. 그리고 수면 카세트 하위 세트는 본 실험에서 타겟 도메인(target domain)으로 채택되었다. The sleep telemetry subset consisted of polysomnograms from 44 subjects aged 18–79 years who were measured to study the relationship between sleep and the prescription sleep medication temazepam. And the sleep cassette subset was adopted as the target domain in this experiment.
수면다원검사는 두개의 양극성 EEG 채널(Fpz-Cz 및 Pz-OZ), 수평 EOG 채널 및 턱밑 EMG 채널로 구성되었다. EEG 및 EOG 신호는 100Hz에서 측정되었고, EMG 신호는 1Hz에서 샘플링되었다. 녹음의 각 30초 에폭에서 수면 전문가는 R&K 표준에 따라 8가지 클래스인 'W', 'N1', 'N2', 'N3', 'N4', 'REM', 'M', '?'중 하나에 레이블을 지정하였고, 'M', '?'은 각각 움직임과 미지수를 의미한다. AASM 표준에 따르면 'N3'과 'N4'는 'N3'으로 병합되었고, 'M'과 '?'는 제외되었으며, 모든 생리적 신호 중 Fpz-Cz EEG 신호는 본 실시예에 따른 학습에만 사용되었다. Polysomnography consisted of two bipolar EEG channels (Fpz-Cz and Pz-OZ), a horizontal EOG channel and a submental EMG channel. EEG and EOG signals were measured at 100 Hz, and EMG signals were sampled at 1 Hz. In each 30-second epoch of recording, the sleep expert selects one of eight classes according to R&K standards: 'W', 'N1', 'N2', 'N3', 'N4', 'REM', 'M', '?' One is labeled, and 'M' and '?' mean movement and unknown, respectively. According to the AASM standard, 'N3' and 'N4' were merged into 'N3', 'M' and '?' were excluded, and among all physiological signals, the Fpz-Cz EEG signal was used only for learning according to this embodiment.
그리고 본 실시예에 따른 수면단계 분류모델의 성능을 비교하기 위해 딥러닝을 사용하는 기존의 두 가지 머신러닝 방법과 8가지 최신 방법을 구현하였다. In order to compare the performance of the sleep stage classification model according to this embodiment, two existing machine learning methods and eight latest methods using deep learning were implemented.
두 가지 기존 방법은 EEG 신호에서 전력 스펙트럼 밀도를 학습하는 지원 벡터 머신(support vector machine)과 랜덤 포레스트(random forest)이고, 최신 방식의 구현을 위해 공개된 코드(Phan, et al. 2019; Mousavi, et al. 2019; Supratak, et al. 2017; Supratak and Guo 2020; Eldele, et al. 2021)를 활용하였다.Two existing methods are support vector machine and random forest, which learn power spectral density from EEG signals, and published code to implement the state-of-the-art method (Phan, et al. 2019; Mousavi, et al. 2019; Supratak and Guo 2021).
본 발명의 수면단계 분류모델은 머신러닝 모델에 대한 쉽고 빠른 연구를 가능하게 하도록 설계된 라이브러리인 PyTorch v1.3.1로 구현하였고, 훈련 및 평가는 E5-2680 2.40GHz CPU, 256GB RAM 및 NVIDIA TITAN XP 12GH GPU가 장착된 컴퓨터에서 수행되었다. The sleep stage classification model of the present invention was implemented in PyTorch v1.3.1, a library designed to enable easy and fast research on machine learning models, and training and evaluation were performed using E5-2680 2.40GHz CPU, 256GB RAM, and NVIDIA TITAN XP 12GH GPU. It was performed on a computer equipped with .
학습을 위해 먼저 시공간 합성곱 심층 신경망이 400 크기의 미니배치(minibatch)를 사용하여 사전 훈련되었고, 시공간 합성곱 심층 신경망 학습이 종료된 후 사전학습된 두 개의 풀링 레이어를 제외한 나머지 매개변수는 초기화되고 50 크기의 미니배치를 사용하여 학습하였으며, 학습과정에서 개선이 감지되지 않을 때 학습을 중단하기 위해 10 에폭에 대한 유효성 검사 손실을 기반으로 한 조기 중단 기준을 사용하였다. For learning, the spatiotemporal convolutional deep neural network was first pre-trained using a minibatch of size 400, and after the spatiotemporal convolutional deep neural network learning was completed, the remaining parameters except the two pretrained pooling layers were initialized. It was trained using mini-batches of size 50, and an early stopping criterion based on the validation loss for 10 epochs was used to stop learning when no improvement was detected during the learning process.
수면단계 분류모델의 매개변수를 최적화하기 위해 AdamW(Loshchilov and Hutter 2017)최적화 프로그램을 채택하였다. 매개변수 학습률, 베타1(beta1), 베타2(beta2) 및 가중치 감쇠 매개변수는 AdamW 최적화 프로그램에서 각각 1e-3, 0.9, 0.999 및 1e-2로 설정되었다.To optimize the parameters of the sleep stage classification model, the AdamW (Loshchilov and Hutter 2017) optimization program was adopted. The parameters learning rate, beta1, beta2, and weight decay parameters were set to 1e-3, 0.9, 0.999, and 1e-2, respectively, in the AdamW optimizer.
또한 수면단계 분류모델을 평가하기 위해 Sleep-EDFX 데이터 세트에 대해 10-ford 교차 검증을 수행하였고, 총 153명의 수면다원검사 피험자를 모델 학습을 위한 학습 세트와 평가를 위한 테스트 세트로 나누었고, 학습 세트에서 검증을 위해 4개의 주제를 세분화하였으며, 이 과정을 10회 반복하여 모든 주제를 시험하였으며, 보다 구체적으로는 하기의 표 3과 같다. Additionally, to evaluate the sleep stage classification model, 10-ford cross-validation was performed on the Sleep-EDFX data set, and a total of 153 polysomnography subjects were divided into a training set for model learning and a test set for evaluation, and the training set Four topics were subdivided for verification, and this process was repeated 10 times to test all topics, and more specifically, as shown in Table 3 below.
일반적으로 뇌파는 주파수 대역에 따라 델타파(δ, 0.5~4Hz), 쎄타파(, 4~8Hz), 알파파(α, 8~12Hz), 스핀들(spindle, 12~15Hz), 베타파(, 15~30Hz), 감마파(γ, 30~50Hz)로 분류된다. 또한 알파파를 기준으로 해서 8Hz 미만을 서파(Slow Wave), 13Hz이상을 속파(Fast Wave)라고 구분한다. 뇌파에 의해 연구되어 온 자발뇌파는 일반적 생리현상에서 감각 등 뇌 활동으로 나타나며, 유발뇌파는 뇌 활동 상태를 알아보기 위해 인위적으로 뇌 활동을 유도하여 관찰할 수 있다.In general, brain waves are divided into delta waves (δ, 0.5~4Hz) and theta waves (depending on the frequency band). , 4~8Hz), alpha wave (α, 8~12Hz), spindle (12~15Hz), beta wave ( , 15~30Hz), and gamma waves (γ, 30~50Hz). Additionally, based on alpha waves, those below 8Hz are classified as slow waves, and those above 13Hz are classified as fast waves. Spontaneous EEG, which has been studied through EEG, appears as brain activity such as sensation in general physiological phenomena, and evoked EEG can be observed by artificially inducing brain activity to determine the state of brain activity.
그리고 본 실시예에 따른 수면단계 분류모델의 수면단계 분류성능을 평가하기 위해 전체 정확도(overall accuracy)(ACC), 매크로-F1 점수(macro-F1 score)(MF1), Cohen's Kappa coefficient(k)의 세가지 메트릭을 사용하였다. ACC 및 MF1은 일반적으로 사용되는 평가 지표이고, 특히 MF1은 데이터 클래스가 불균형할 때 유용한 지표이며 이러한 평가 지표는 하기의 수학식 8을 통해 계산될 수 있다. In order to evaluate the sleep stage classification performance of the sleep stage classification model according to this embodiment, overall accuracy (ACC), macro-F1 score (MF1), and Cohen's Kappa coefficient (k) were calculated. Three metrics were used. ACC and MF1 are commonly used evaluation indicators, and in particular, MF1 is a useful indicator when data classes are unbalanced, and this evaluation indicator can be calculated through Equation 8 below.
[수학식 8][Equation 8]
여기서 와 N은 각각 true positive와 전체 에폭의 수이고, 와 K는 각각 i번째 수면단계(stage)의 F1 점수와 전체 수면단계의 총 수를 의미할 수 있다. here and N are the number of true positives and total epochs, respectively, and K may mean the F1 score of the ith sleep stage and the total number of all sleep stages, respectively.
그리고 Cohen's Kappa coefficient(k)는 두 관찰자 간의 측정 범주 값에 대한 일치도를 측정하는 방법으로 하기의 수학식 9를 통해 계산될 수 있다. And Cohen's Kappa coefficient (k) is a method of measuring the degree of agreement between measurement category values between two observers and can be calculated through Equation 9 below.
[수학식 9][Equation 9]
이 때 는 정확도를 나타내고, 는 변화율(change rate)를 나타내며 이 공식은 분류결과와 실제 값이 얼마나 잘 일치하는지를 나타낸다. At this time represents accuracy, represents the change rate, and this formula indicates how well the classification result matches the actual value.
또한 하기의 표 4에서와 같이 다양한 메트릭을 기반으로 제안된 본 실시예에 따른 수면단계 분류모델(proposed model)과 이전 연구들의 성능을 비교한 결과 본 실시예에 따른 수면단계 분류모델의 성능이 다른 알고리즘들에 비해 전체 성능이 가장 우수함을 알 수 있다. In addition, as shown in Table 4 below, as a result of comparing the performance of the sleep stage classification model according to this embodiment proposed based on various metrics with previous studies, the performance of the sleep stage classification model according to this embodiment was different. It can be seen that the overall performance is the best compared to other algorithms.
또한 도 9에 도시된 바와 같이 본 발명의 수면단계 분류모델과 사후 확률 산출을 함께 사용하여 수면단계를 분류한 결과(오른쪽)와 사후 확률을 산출하지 않고 수면단계 분류모델만을 사용하여 수면단계를 분류한 결과(왼쪽)를 비교해보면, 본 실시예에 따른 수면단계 분류방법이 모든 클래스에 대해 뛰어난 예측 성능을 보이는 것을 알 수 있다. In addition, as shown in Figure 9, the result of classifying sleep stages using the sleep stage classification model of the present invention together with posterior probability calculation (right), and the sleep stage classification using only the sleep stage classification model without calculating posterior probability. Comparing the results (left), it can be seen that the sleep stage classification method according to this embodiment shows excellent prediction performance for all classes.
그리고 도 10에서와 같이 본 실시예에 따른 수면단계 분류방법을 통해 수면단계를 분류한 결과(아래)와 수면전문가가 수기로 판단한 수면단계 분류결과(위)를 비교해보면 수면단계 분류의 결과가 매우 유사함을 알 수 있다. And, as shown in Figure 10, when comparing the results of classifying sleep stages through the sleep stage classification method according to this embodiment (below) and the sleep stage classification results manually determined by a sleep expert (above), the results of sleep stage classification are very You can see the similarity.
즉, 본 실시예에 따른 단일 뇌전도 기반 수면단계 분류방법은 고도로 훈련받는 수면전문가의 도움없이 수면단계를 자동으로 분류할 수 있는 것은 물론, 단일 뇌전도 신호(EEG)만을 사용함으로써 시간 및 자원의 효율성을 높일 수 있게 된다. In other words, the single electroencephalogram-based sleep stage classification method according to this embodiment not only can automatically classify sleep stages without the help of a highly trained sleep expert, but also improves time and resource efficiency by using only a single electroencephalogram signal (EEG). can be raised.
본 발명에 따른 구성요소들은 물리적인 구분이 아니라 기능적인 구분에 의해서 정의되는 구성 요소들로써 각각이 수행하는 기능들에 의해서 정의될 수 있다. 각각의 구성요소들은 하드웨어 또는 각각의 기능을 수행하는 프로그램 코드 및 프로세싱 유닛으로 구현될 수 있을 것이며, 두 개 이상의 구성요소의 기능이 하나의 구성요소에 포함되어 구현될 수도 있을 것이다. 따라서 이하의 실시예에서 구성요소에 부여되는 명칭은 각각의 구성요소를 물리적으로 구분하기 위한 것이 아니라 각각의 구성요소가 수행되는 대표적인 기능을 암시하기 위해서 부여된 것이며, 구성요소의 명칭에 의해서 본 발명의 기술적 사상이 한정되지 않는 것임에 유의하여야 한다.The components according to the present invention are components defined by functional division rather than physical division, and can be defined by the functions each performs. Each component may be implemented as hardware or program code and processing units that perform each function, and the functions of two or more components may be included and implemented in one component. Therefore, the names given to the components in the following embodiments are not intended to physically distinguish each component, but are given to suggest the representative function performed by each component, and the names of the components are used to describe the present invention. It should be noted that the technical idea is not limited.
이와 같은 본 발명의 단일 뇌전도 기반 수면단계 분류방법은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. The single electroencephalogram-based sleep stage classification method of the present invention can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들인 것은 물론 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention, as well as those known and usable by those skilled in the computer software field.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the invention and vice versa.
이상에서는 본 발명의 다양한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although various embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and may be used in the technical field to which the invention pertains without departing from the gist of the invention as claimed in the claims. Of course, various modifications can be made by those skilled in the art, and these modifications should not be understood individually from the technical idea or perspective of the present invention.
100 : 수면단계 분류장치 110 : 획득부
120 : 저장부 130 : 제어부
131 : 전처리부 133 : 산출부
135 : 분류부 140 : 학습부
141 : 시공간 합성곱 모듈 143 : 자기주의 모듈
145 : 양방향 LSTM 모듈100: Sleep stage classification device 110: Acquisition unit
120: storage unit 130: control unit
131: preprocessing unit 133: calculation unit
135: classification unit 140: learning unit
141: Space-time convolution module 143: Self-attention module
145: Bidirectional LSTM module
Claims (10)
일정시간동안 뇌전도 신호(EEG, electroencephalogram)만을 측정하여 원본신호를 획득하는 단계;
상기 원본신호를 전처리하여 복수의 추출신호를 생성하는 단계;
상기 원본신호 및 상기 복수의 추출신호를 통합하여 통합데이터를 생성하는 단계;
상기 통합데이터에 기초하여 사후 확률을 산출하는 단계;
산출된 사후 확률로부터 수면단계를 분류하는 단계를 포함하고,
상기 사후 확률은,
상기 통합데이터를 사전에 학습된 수면분류 모델에 입력하여 출력되는 확률로, 상기 통합데이터가 상기 수면단계에 대응하는 각 클래스에 해당할 확률이고,
상기 수면분류 모델은,
상기 수면단계에 대응하는 클래스 개수의 불균형 문제를 해결하기 위해 균형변조인자인 초점 매개변수(focusing parameter)를 사용하는 초점 손실 함수를 사용하는, 단일 뇌전도 기반 수면단계 분류방법. In a single electroencephalogram-based sleep stage classification method performed by a sleep stage classification device,
Obtaining the original signal by measuring only the electroencephalogram (EEG) signal for a certain period of time;
Preprocessing the original signal to generate a plurality of extracted signals;
Generating integrated data by integrating the original signal and the plurality of extracted signals;
calculating a posterior probability based on the integrated data;
Including the step of classifying sleep stages from the calculated posterior probability,
The posterior probability is,
The probability that the integrated data is output by inputting it into a pre-trained sleep classification model is the probability that the integrated data corresponds to each class corresponding to the sleep stage,
The sleep classification model is,
A single electroencephalogram-based sleep stage classification method that uses a focus loss function that uses a focusing parameter, which is a balance modulation factor, to solve the problem of imbalance in the number of classes corresponding to the sleep stage.
상기 수면분류 모델은,
시공간 합성곱 심층 신경망 (Spectral-Temporal Convolution Neural Network), 자기주의 심층 신경망 (Self-Attention or Multi-Head Attention) 및 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 포함하는것을 특징으로 하는 단일 뇌전도 기반 수면단계 분류방법.According to paragraph 1,
The sleep classification model is,
A single neural network characterized by a spatio-temporal convolution deep neural network (Spectral-Temporal Convolution Neural Network), a self-attention deep neural network (Self-Attention or Multi-Head Attention), and a Bidirectional-Long Short Term Memory (Bidirectional-Long Short Term Memory). Sleep stage classification method based on electroencephalogram.
상기 수면분류 모델은,
상기 시공간 합성곱 심층 신경망을 통해 상기 통합데이터로부터 추출된 뇌전도 특징 정보들간의 상관관계를 상기 자기주의 심층 신경망을 통해 학습하는 것을 특징으로 하는 단일 뇌전도 기반 수면단계 분류방법. According to paragraph 2,
The sleep classification model is,
A single electroencephalogram-based sleep stage classification method, characterized in that the correlation between electroencephalogram feature information extracted from the integrated data through the spatio-temporal convolution deep neural network is learned through the self-attention deep neural network.
상기 수면분류 모델은,
상기 뇌전도 특징 정보들간의 상관관계 데이터를 에폭(Epoch) 단위의 시간에 따라 변하는 뇌전도의 시계열적인 특징을 상기 양방향 장단기 기억 순환 신경망에 기초하여 학습하는 것을 특징으로 하는 단일 뇌전도 기반 수면단계 분류방법. According to paragraph 3,
The sleep classification model is,
A single electroencephalogram-based sleep stage classification method, characterized in that the correlation data between the electroencephalogram feature information is learned based on the bidirectional long-term short-term memory recurrent neural network for time-series characteristics of the electroencephalogram that change with time in epoch units.
상기 복수의 추출신호는,
주파수 필터링에 기초하여 상기 원본신호로부터 특정 주파수 대역별로 신호를 추출하여 생성되는 것을 특징으로 하는, 단일 뇌전도 기반 수면단계 분류방법.According to paragraph 1,
The plurality of extracted signals are,
A single electroencephalogram-based sleep stage classification method, characterized in that it is generated by extracting signals for each specific frequency band from the original signal based on frequency filtering.
상기 산출하는 단계에서 산출된 사후 확률들을 일정한 시간간격으로 이동시키면서 사후 확률 뭉치들을 추출하고, 상기 사후 확률 뭉치들의 평균값을 산출하는 단계를 더 포함하는 것을 특징으로 하는, 단일 뇌전도 기반 수면단계 분류방법. According to paragraph 1,
A sleep stage classification method based on a single electroencephalogram, further comprising extracting posterior probability bundles while moving the posterior probabilities calculated in the calculating step at regular time intervals, and calculating an average value of the posterior probability bundles.
상기 분류하는 단계에서는,
상기 평균값을 산출하는 단계에서 산출된 평균값 중에서 가장 큰 값을 가지는 구간에 기초하여 수면단계를 분류하는 것을 특징으로 하는, 단일 뇌전도 기반 수면단계 분류방법.According to clause 6,
In the classification step,
A single electroencephalogram-based sleep stage classification method, characterized in that the sleep stage is classified based on the section with the largest value among the average values calculated in the step of calculating the average value.
상기 원본신호를 전처리하여 복수의 추출신호를 생성하고, 상기 원본신호 및 상기 복수의 추출신호를 통합하여 통합데이터를 생성하는 전처리부;
상기 통합데이터에 기초하여 사후 확률을 산출하는 산출부; 및
산출된 사후 확률로부터 수면단계를 분류하는 분류부를 포함하고,
상기 사후 확률은,
상기 통합데이터를 사전에 학습된 수면분류 모델에 입력하여 출력되는 확률로, 상기 통합데이터가 상기 수면단계에 대응하는 각 클래스에 해당할 확률이고,
상기 수면분류 모델은,
상기 수면단계에 대응하는 클래스 개수의 불균형 문제를 해결하기 위해 균형변조인자인 초점 매개변수(focusing parameter)를 사용하는 초점 손실 함수를 사용하는 수면단계 분류장치..An acquisition unit that acquires the original signal by measuring only the electroencephalogram (EEG) signal for a certain period of time;
a pre-processing unit that preprocesses the original signal to generate a plurality of extracted signals, and integrates the original signal and the plurality of extracted signals to generate integrated data;
a calculation unit that calculates a posterior probability based on the integrated data; and
It includes a classification unit that classifies sleep stages from the calculated posterior probability,
The posterior probability is,
The probability that the integrated data is output by inputting it into a pre-trained sleep classification model is the probability that the integrated data corresponds to each class corresponding to the sleep stage,
The sleep classification model is,
A sleep stage classification device that uses a focus loss function that uses a focusing parameter, which is a balance modulation factor, to solve the problem of imbalance in the number of classes corresponding to the sleep stages.
상기 수면분류 모델은,
시공간 합성곱 심층 신경망 (Spectral-Temporal Convolution Neural Network), 자기주의 심층 신경망 (Self-Attention or Multi-Head Attention) 및 양방향 장단기 기억 순환 신경망(Bidirectional-Long Short Term Memory)을 포함하는 것을 특징으로 하는 수면단계 분류장치.According to clause 8,
The sleep classification model is,
Sleep characterized by including a spectral-temporal convolution neural network, self-attention or multi-head attention, and bidirectional-long short term memory. Step classification device.
상기 수면분류 모델은,
상기 시공간 합성곱 심층 신경망을 통해 상기 통합데이터로부터 추출된 뇌전도 특징 정보들간의 상관관계를 상기 자기주의 심층 신경망에 기초하여 학습하는 것을 특징으로 하는 수면단계 분류장치.According to clause 9,
The sleep classification model is,
A sleep stage classification device, characterized in that the correlation between electroencephalogram feature information extracted from the integrated data through the spatio-temporal convolution deep neural network is learned based on the self-attention deep neural network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184893A KR102691350B1 (en) | 2021-12-22 | 2021-12-22 | Single electroencephalogram-based sleep stage classification method and sleep stage classification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210184893A KR102691350B1 (en) | 2021-12-22 | 2021-12-22 | Single electroencephalogram-based sleep stage classification method and sleep stage classification device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230095431A KR20230095431A (en) | 2023-06-29 |
KR102691350B1 true KR102691350B1 (en) | 2024-08-05 |
Family
ID=86946305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210184893A Active KR102691350B1 (en) | 2021-12-22 | 2021-12-22 | Single electroencephalogram-based sleep stage classification method and sleep stage classification device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102691350B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116898455B (en) * | 2023-07-06 | 2024-04-16 | 湖北大学 | A sleep EEG signal detection method and system based on deep learning model |
CN117349684B (en) * | 2023-12-04 | 2024-02-06 | 南京邮电大学 | Sleep EEG analysis method based on maximum distance of vector arrangement |
CN119235261A (en) * | 2024-10-08 | 2025-01-03 | 兰州理工大学 | A sleep staging method and system based on ST-GCN |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102011126B1 (en) * | 2018-04-30 | 2019-08-14 | 고려대학교 산학협력단 | Method and apparatus for measuring sleep stages based on the levels of consciousness using brain connectivity |
US20200337648A1 (en) * | 2019-04-24 | 2020-10-29 | GE Precision Healthcare LLC | Medical machine time-series event data processor |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101235441B1 (en) * | 2010-08-01 | 2013-02-20 | 연세대학교 산학협력단 | Bio-signals based automatic sleep-stage identification system |
EP2524647A1 (en) | 2011-05-18 | 2012-11-21 | Alain Gilles Muzet | System and method for determining sleep stages of a person |
-
2021
- 2021-12-22 KR KR1020210184893A patent/KR102691350B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102011126B1 (en) * | 2018-04-30 | 2019-08-14 | 고려대학교 산학협력단 | Method and apparatus for measuring sleep stages based on the levels of consciousness using brain connectivity |
US20200337648A1 (en) * | 2019-04-24 | 2020-10-29 | GE Precision Healthcare LLC | Medical machine time-series event data processor |
Also Published As
Publication number | Publication date |
---|---|
KR20230095431A (en) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113627518B (en) | Method for realizing neural network brain electricity emotion recognition model by utilizing transfer learning | |
KR102691350B1 (en) | Single electroencephalogram-based sleep stage classification method and sleep stage classification device | |
Khare et al. | PDCNNet: An automatic framework for the detection of Parkinson’s disease using EEG signals | |
US20200337580A1 (en) | Time series data learning and analysis method using artificial intelligence | |
Supakar et al. | A deep learning based model using RNN-LSTM for the detection of schizophrenia from EEG data | |
US6070098A (en) | Method of and apparatus for evaluation and mitigation of microsleep events | |
Cai et al. | Study on feature selection methods for depression detection using three-electrode EEG data | |
CN109645990B (en) | A Computer Pattern Recognition Method for EEG Signals of Epilepsy Patients | |
US5325862A (en) | Method and/or system for personal identification and impairment assessment from brain activity patterns | |
Exarchos et al. | EEG transient event detection and classification using association rules | |
CN115590529B (en) | Epileptic EEG signal monitoring method and system based on spatiotemporal attention mechanism | |
JP7344213B2 (en) | Methods, computing devices, and wearable devices for sleep stage detection | |
Li et al. | Electroencephalogram signals classification for sleep-state decision–a Riemannian geometry approach | |
Rejer | EEG feature selection for BCI based on motor imaginary task | |
US20240156414A1 (en) | Method for Predicting Age from Resting-State Scalp EEG Signals Using Deep Convolutional Neural Networks | |
CN115359909A (en) | An attention-based seizure detection system | |
Buscema et al. | The IFAST model allows the prediction of conversion to Alzheimer disease in patients with mild cognitive impairment with high degree of accuracy | |
CN110522446A (en) | An EEG signal analysis method with high accuracy and practicability | |
Lopes et al. | Ensemble deep neural network for automatic classification of EEG independent components | |
Amrani et al. | An explainable hybrid DNN model for seizure vs. non-seizure classification and seizure localization using multi-dimensional EEG signals | |
Dong et al. | A multi-task learning model with reinforcement optimization for ASD comorbidity discrimination | |
Noble-Nnakenyi et al. | Predicting epileptic seizures using ensemble method | |
Boudaya et al. | A convolutional neural network for artifacts detection in EEG data | |
Martins et al. | A Comparison of Machine Learning Techniques for the Detection of Type-4 PhotoParoxysmal Responses in Electroencephalographic Signals | |
CN114224348A (en) | Combined neural network electrocardiogram classification method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20211222 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230921 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20240517 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240730 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20240731 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |