[go: up one dir, main page]

KR102314213B1 - System and Method for detecting MCI based in AI - Google Patents

System and Method for detecting MCI based in AI Download PDF

Info

Publication number
KR102314213B1
KR102314213B1 KR1020200004882A KR20200004882A KR102314213B1 KR 102314213 B1 KR102314213 B1 KR 102314213B1 KR 1020200004882 A KR1020200004882 A KR 1020200004882A KR 20200004882 A KR20200004882 A KR 20200004882A KR 102314213 B1 KR102314213 B1 KR 102314213B1
Authority
KR
South Korea
Prior art keywords
mci
content
unit
speech
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020200004882A
Other languages
Korean (ko)
Other versions
KR20210091561A (en
Inventor
윤기현
Original Assignee
주식회사 바이칼에이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바이칼에이아이 filed Critical 주식회사 바이칼에이아이
Priority to KR1020200004882A priority Critical patent/KR102314213B1/en
Publication of KR20210091561A publication Critical patent/KR20210091561A/en
Application granted granted Critical
Publication of KR102314213B1 publication Critical patent/KR102314213B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Epidemiology (AREA)
  • Neurology (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Neurosurgery (AREA)
  • Human Computer Interaction (AREA)
  • Nursing (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은, 감지 대상자의 발화를 유도할 콘텐츠를 생성하는 콘텐츠 생성부와, 감지 대상자가 사용하는 접속 장치를 판별하고 이에 따라 콘텐츠를 제공하는접속 장치 판별 및 콘텐츠 제공부와, 감지 대상자의 발화 신호를 수신하여 음성 정보를 인식하고 상기 음성 정보에서 자음과 모음을 추출하는 자모음 분리부와, 분리된 자모음을 정렬하는 자모음 정렬부와, 자모음 정렬된 발화음을 주파수 영역으로 변환하는 스펙트럼 변환부와, 스펙트럼 변환부로부터 스펙트럼을 전달받아 적어도 하나의 발화 특징을 추출하는 특징 추출부와, 상기 적어도 하나의 발화 특징에 기초하여 경도 인지 장애(MCI) 여부를 감지하는 MCI 판별부를 포함하는 MCI 감지 장치를 제공한다. The present invention provides a content generation unit for generating content to induce speech of a subject to be detected, a connection device determination and content providing unit for determining a connection device used by the subject to be detected and providing the content accordingly, and an utterance signal of the subject to be detected A consonant separation unit for recognizing voice information by receiving and extracting consonants and vowels from the voice information; MCI comprising: a conversion unit; a feature extracting unit for extracting at least one speech characteristic by receiving the spectrum from the spectrum conversion unit; A detection device is provided.

Description

인공지능 기술을 활용한 경도 인지 장애 감지 방법 및 장치{System and Method for detecting MCI based in AI}Method and apparatus for detecting mild cognitive impairment using artificial intelligence technology {System and Method for detecting MCI based in AI}

본 발명은 경도 인지 장애를 감지하는 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for detecting mild cognitive impairment.

2018년 전후하여 국내 베이비붐 세대가 60세를 넘기 시작하여 노인인구가 가파르게 증가하고 있고, 노인 인구의 10%가 치매 환자에 해당한다. 한편, 국내 50세 이상의 인구는 2019년 현재 2,100만명으로 국내 총 인구의 40%에 달하는 등 향후 10년 이내에 노인 인구의 폭발적 증가가 예정되어 있다. Around 2018, the domestic baby boom generation began to exceed the age of 60, and the elderly population is rapidly increasing, and 10% of the elderly population corresponds to dementia patients. Meanwhile, the number of people aged 50 and over in Korea is 21 million as of 2019, accounting for 40% of the total population in Korea.

치매로 인한 사회 문제는 현재에도 매우 심각한 단계에 있는데, 위와 같은 이유로 치매 환자의 증가세가 앞으로 더 가파라질 것으로 예상되며, 이로 인한 사회적 비용도 향후 40조원이 넘을 것으로 예측된다.The social problems caused by dementia are still in a very serious stage, and for the above reasons, the increase in dementia patients is expected to be steeper in the future, and the social cost is expected to exceed 40 trillion won in the future.

그런 한편, 치매를 완치하는 기술이나 치료제에 대해서는 아직 뚜렷한 성과를 내지 못하고 있으나, 치매의 진행을 지연시킬 수 있는 다양한 방법은 이미 개발되어 있다. 결국, 초기 진단이 가능하면 치료는 어렵더라도 현재의 의료 기술 수준으로도 치매 진행을 지연하여 더 질 높은 삶을 보장받을 수 있다. On the other hand, although a technology or therapeutic agent for curing dementia has not yet yielded clear results, various methods for delaying the progression of dementia have already been developed. After all, if an early diagnosis is possible, even if treatment is difficult, a higher quality of life can be guaranteed by delaying the progression of dementia even with the current level of medical technology.

따라서, 치매 초기 또는 치매 직전 단계인 경도 인지 장애(MCI)를 조기에 진단하는 것은 매우 중요하다. Therefore, early diagnosis of mild cognitive impairment (MCI), which is the early stage of dementia or the stage immediately preceding dementia, is very important.

그런데, 종래의 MCI나 치매 진단 방식은 병원에서 이루어지며 등록특허공보 제10-1929965호에 개시된 바와 같은 MRI, PET-CT 등 고가의 의료용 영상 장비를 통해서만 가능하므로 진단에 따른 개인적/사회적 비용이 높다는 문제점이 있다. However, the conventional MCI or dementia diagnosis method is made in a hospital and is only possible through expensive medical imaging equipment such as MRI and PET-CT as disclosed in Patent Registration No. 10-1929965, so the personal/social cost of diagnosis is high. There is a problem.

이와 같은 높은 진단 비용 및 병원 내방의 불편함 등으로 인하여 조기에 MCI 진단을 하지 못하는 경우가 많아서 많은 노인들이 치매 직전 또는 치매 초기에 적절한 대응을 하지 못하고 중증 단계로 넘어서고 있는 것이 현실이다.In many cases, early diagnosis of MCI is not possible due to the high cost of diagnosis and the inconvenience of visiting the hospital, so the reality is that many elderly people cannot respond properly just before or in the early stages of dementia and are moving to a severe stage.

전술한 문제점을 해결하기 위하여, 본 발명은 저렴한 비용으로 MCI 감지가 가능하며, 이용상 편의성이 높은 MIC 감지 방법 및 장치를 제공하고자 한다.In order to solve the above-mentioned problems, the present invention is to provide a method and apparatus for detecting MIC that can detect MCI at a low cost and have high convenience in use.

본 발명의 다른 목적은, 감지 대상자의 심리적 거부감과 실행상 불편함이 가장 적은 음성인식 기반의 대화형 MIC 감지 방법 및 장치를 제공하는 것이다. Another object of the present invention is to provide a method and apparatus for detecting an interactive MIC based on voice recognition that cause the least discomfort and psychological rejection of the subject to be detected.

또한, 인공지능 기술을 이용하여 충분한 정확도로 MCI 감지 감지를 수행하며, 감지 정확도가 점진적으로 더 높아지는 MCI 감지 방법 및 장치를 제공하고자 한다. In addition, it is an object of the present invention to provide an MCI detection method and apparatus that performs MCI detection detection with sufficient accuracy using artificial intelligence technology, and the detection accuracy becomes progressively higher.

본 발명의 일면에 따른 경도 인지 장애(MCI) 감지 장치는, 감지 대상자의 발화를 유도할 콘텐츠를 생성하는 콘텐츠 생성부와, 감지 대상자가 사용하는 접속 장치를 판별하고 이에 따라 상기 콘텐츠를 제공하는 접속 장치 판별 및 콘텐츠 제공부와, 수신된 감지 대상자의 발화 신호로부터 음성 정보를 인식하여 자음과 모음을 추출하는 자모음 분리부와, 분리된 자모음을 정렬하는 자모음 정렬부와, 자모음 정렬된 발화음을 주파수 영역으로 변환하는 스펙트럼 변환부와, 스펙트럼 변환부로부터 스펙트럼을 전달받아 적어도 하나의 발화 특징을 추출하는 특징 추출부와, 상기 적어도 하나의 발화 특징에 기초하여 MCI 여부를 감지하는 MCI 판별부를 포함한다. A mild cognitive impairment (MCI) detection device according to an aspect of the present invention includes a content generation unit that generates content to induce a utterance of a detection target, and a connection device that determines a connection device used by the detection target and provides the content accordingly A device identification and content providing unit, a consonant separation unit for extracting consonants and vowels by recognizing voice information from the received speech signal of the detection target, a consonant arrangement unit for aligning the separated consonants, and a consonant arrangement A spectrum converter that converts a speech sound into a frequency domain, a feature extractor that receives a spectrum from the spectrum converter and extracts at least one speech feature; includes wealth.

접속 장치 판별 및 콘텐츠 제공부는, 사용자가 이용하는 접속 장치가 음성 대화만 가능한 유선 전화인 경우에는 준비된 문자 콘텐츠를 음성으로 변환하여 전송하고, 디스플레이 장치가 있는 스마트 기기라면 음성 및 영상 콘텐츠를 전송한다.The connection device determination and content providing unit converts the prepared text content into voice when the connection device used by the user is a wired phone capable of only voice conversation, and transmits the audio and video content in the case of a smart device with a display device.

자모음 정렬부는, 인식된 발화 음성으로부터 음소별 발화시간을 추출하여 특징 추출부로 전달하며, 추가로 각 단어 간의 공백 기간, 발화문 전체의 단어 간의 공백 기간의 평균, 특정 단어의 사용 빈도, 특정 단어와 뒤이은 단어의 공백 시간 중 적어도 하나를 추출하여 특징 추출부로 전달할 수 있다. The consonant-vowel aligning unit extracts the utterance time for each phoneme from the recognized spoken voice and transmits it to the feature extraction unit, and furthermore, the interval between each word, the average of the interval between words in the entire speech, the frequency of use of the specific word, the specific word and at least one of the blank time of the following word may be extracted and transmitted to the feature extraction unit.

특징 추출부는, 음소별 포만트 값, 피치값, 데시벨 값 및 밀도값 중 적어도 하나를 특징값으로 추출한다. 또한 추출한 각 상기 특징값별로 일반적인 평균값과의 비교, 값들의 변화량의 분석, 값들의 변화양태의 분석을 통해 다른 음색과 구별될 수 있는 차별적 값을 추출하는 과정을 더 수행할 수 있다. The feature extraction unit extracts at least one of a formant value, a pitch value, a decibel value, and a density value for each phoneme as a feature value. In addition, the process of extracting a differential value that can be distinguished from other tones through comparison with a general average value for each of the extracted feature values, analysis of the amount of change in values, and analysis of changes in values may be further performed.

MCI 판별부는, 학습 단계에서 상기 적어도 하나의 발화 특징에 기초하여 지도 학습을 통해 학습 모델을 생성하고, 추론 단계에서 상기 적어도 하나의 발화 특징과 상기 학습 모델에 기초하여 MCI 여부를 감지한다. The MCI determining unit generates a learning model through supervised learning based on the at least one speech feature in the learning step, and detects whether MCI is present based on the at least one speech feature and the learning model in the inference step.

본 발명의 다른 면에 따라, 발화 유도를 위한 콘텐츠에 대한 발화 응답을 수집하는 단계와, 상기 발화 응답으로부터 적어도 하나의 특징을 추출하는 단계와, 상기 적어도 하나의 특징에 기초하여 학습을 수행하여 학습 모델을 생성하는 단계와, 상기 학습 모델 및 감지 대상자의 발화 특징에 기초하여 상기 감지 대상자의 MCI 여부를 감지하는 단계를 포함하는 MCI 감지 방법이 제공된다.According to another aspect of the present invention, collecting a speech response for content for inducing speech, extracting at least one feature from the speech response, and learning by performing learning based on the at least one feature There is provided an MCI sensing method comprising generating a model, and detecting whether the sensing subject is MCI based on the learning model and the speech characteristics of the sensing subject.

MCI로 감지된 대상자에게 결과를 통지하고 병원 진단을 권유하는 안내를 제공하는 단계를 더 포함할 수 있고, 이에 더하여 또는 선택적으로 사전 계약된 병원에 진단 예약을 대행하고 그 예약 결과를 상기 감지 대상자에게 통지하는 단계를 더 포함할 수 있다.It may further comprise the step of notifying the result to the subject detected as MCI and providing a guide for recommending hospital diagnosis, in addition or optionally, making a diagnosis reservation to a pre-contracted hospital on behalf of the subject and sending the reservation result to the sensing subject It may further include the step of notifying.

또한, 학습의 수행시 정상인의 발화 데이터를 기초로 수행하지만, 이와 함께 또는 별도로 대상자 본인의 발화 데이터를 매 발화시 마다 지속적으로 축적하여 이를 기초로 학습하여 학습 모델을 구축하고 갱신할 수 있다. In addition, although the learning is performed based on the speech data of a normal person, the speech data of the subject himself/herself is continuously accumulated for every utterance together or separately, and the learning model can be built and updated by learning based on this.

본 발명에 따르면, 현재 병원 등 전문기관에서 진행하는 치매검진 과정에 비해 쉽고, 저렴하게 조기 MCI 진단이 가능하고, 이로 인하여 이용 편의성이 향상된다.According to the present invention, it is possible to diagnose early MCI easily and inexpensively compared to the current dementia screening process conducted in specialized institutions such as hospitals, thereby improving the convenience of use.

일시적인 또는 일회성의 검사가 아니라, 평소에 지속적인 상태 변화 데이터 축적으로 대상자에 대해서 지속 관찰된 결과로 MCI를 감지함으로써 감지 정확도를 높일 수 있으며, 조기에 MCI 감지가 가능하다. It is not a temporary or one-time test, but it is possible to increase the detection accuracy and detect MCI early by detecting MCI as a result of continuous observation of the subject through continuous state change data accumulation.

또한, 음성 인식 기반의 감지 방식을 취함으로써, 진단 대상자는 AI 대화 서비스를 통해 거부감없이 진단에 참여할 수 있으며, 각종 정보의 제공 및 나아가 대상자 심리 상태에 대한 진단도 함께 수행할 수 있다.In addition, by adopting a voice recognition-based sensing method, the subject to be diagnosed can participate in the diagnosis without hesitation through the AI conversation service, and it is possible to provide various information and further diagnose the subject's psychological state.

종래의 방식에 비한 높은 참여도를 얻을 수 있어서 실사용자 중심의 MCI 감지용 학습/실증 데이터 구축이 용이하다. It is easy to construct learning/empirical data for real-user-centered MCI detection because a higher degree of participation can be obtained compared to the conventional method.

도 1은 본 발명의 기본 사상을 설명하기 위한 개념도.
도 2는 본 발명의 일 실시예에 따른 MCI 감지 장치의 구성도.
도 3은 본 발명에 따라 MCI 감지 장치가 발화 음성의 음소별 포만트를 추출한 시간대-주파수 그래프.
도 4는 본 발명의 다른 실시예에 따른 MCI 감지 장치의 구성도.
도 5는 본 발명의 또 다른 실시예에 따른 MCI 감지 장치의 구성도.
도 6은 본 발명의 또 다른 실시예에 따른 MCI 감지 장치의 구성도.
도 7은 본 발명의 일 실시예에 따른 MCI 감지 방법의 순서도.
1 is a conceptual diagram for explaining the basic idea of the present invention.
2 is a block diagram of an MCI sensing device according to an embodiment of the present invention.
3 is a time-frequency graph in which an MCI sensing device extracts formants for each phoneme of a spoken voice according to the present invention;
4 is a block diagram of an MCI sensing device according to another embodiment of the present invention.
5 is a block diagram of an MCI sensing device according to another embodiment of the present invention.
6 is a block diagram of an MCI sensing device according to another embodiment of the present invention.
7 is a flowchart of an MCI detection method according to an embodiment of the present invention.

본 발명의 목적 및 효과는 이상에서 언급한 것으로 제한되지 않으며, 본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. Objects and effects of the present invention are not limited to those mentioned above, and the objects and effects of the present invention, and technical configurations for achieving them will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings.

본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 이하의 각 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며 본 발명의 범위를 제한하고자 하는 것이 아니다. In describing the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms. Each of the following examples are provided so that the disclosure of the present invention is complete, and to completely inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention, and it is intended to limit the scope of the present invention no.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 또는 "구비"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...유닛", "...장치", "...디바이스", "...부" 또는 "...모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" or "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated. . In addition, terms such as "...unit", "...device", "...device", "...unit" or "...module" described in the specification refer to at least one function or operation. It means a processing unit, which may be implemented as hardware or software or a combination of hardware and software.

한편, 본 발명의 각 실시예에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있으며, 각 구성요소들이 수행하는 전기, 전자, 기계적, 논리적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들, 프로그램 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.On the other hand, in each embodiment of the present invention, each component, functional blocks or means may be composed of one or more sub-components, and the electrical, electronic, mechanical, and logical functions performed by each component are An electronic circuit, an integrated circuit, an ASIC (Application Specific Integrated Circuit), etc. may be implemented as various well-known elements, programs, or mechanical elements, and may be implemented separately or two or more may be integrated into one.

이하, 첨부 도면을 참조하며 본 발명 대하여 구체적으로 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 기본적 기술 사상은 대상자의 음성을 분석하여 경도인지장애(MCI) 여부를 감지하는 것이다. 즉, 도 1에 도시된 바와 같이 감지 대상자가 유선전화, 스마트폰, PC 등의 장치(200)를 통하여 자신의 음성을 원격의 MCI 감지 장치(100)로 전달하면, MCI 감지 장치는 인공지능 기반으로 MCI 징후를 감지하는 것이다. 현행 의료법상 최종 판정은 의료인이 해야 하므로, 본 발명의 MCI 감지 장치는 MCI 징후를 발견하면 대상자에게 알려서 병원을 방문하여 정밀 진단을 통한 MCI 판단을 받기를 유도함으로써, 조기에 MCI 여부를 진단받을 수 있도록 한다. The basic technical idea of the present invention is to detect whether mild cognitive impairment (MCI) is present by analyzing the subject's voice. That is, as shown in FIG. 1 , when the sensing target transmits his/her voice to the remote MCI sensing device 100 through the device 200 such as a landline phone, a smart phone, or a PC, the MCI sensing device is artificial intelligence-based to detect signs of MCI. According to the current medical law, the final decision must be made by a medical person, so the MCI detection device of the present invention informs the subject when MCI signs are found and induces them to visit a hospital and receive MCI judgment through precise diagnosis, so that MCI can be diagnosed early. let it be

중기 이후의 치매환자의 말투는 정상인의 말투와 다른 어눌함이나 기타 특징이 있어서 전문지식이 없는 일반인이라도 비교적 쉽게 인지 또는 감지를 할 수 있는데, MCI는 치매 초기 단계 또는 치매 직전 단계에 해당하여 대상자 음성에서 MCI 여부를 확인하기가 상대적으로 용이하지 않으며 정확도도 낮다.The speech of patients with dementia after the middle stage has a slurred or other characteristic that is different from that of a normal person, so even ordinary people without specialized knowledge can recognize or detect it relatively easily. It is relatively difficult to determine whether MCI is present and the accuracy is low.

따라서, 본 발명에서는 대상자의 음성에서 자음과 모음을 분리하고, 모음의 파형 패턴을 분석하여 MCI 여부를 판단하되, 인공신경망 기반으로 정상인의 패턴과 MCI 환자의 패턴을 학습하여 MCI 여부를 추론한다.Therefore, in the present invention, consonants and vowels are separated from the subject's voice, and the waveform pattern of the vowel is analyzed to determine whether MCI is there, but the MCI is inferred by learning the pattern of a normal person and the pattern of an MCI patient based on an artificial neural network.

나아가, 대화형 서비스를 통하여 대상자의 어휘 선택, 대화시 응답 속도, 대화의 내용 등 언어해석적 측면에 따른 MCI 감지를 추가하여 감지 정확도를 더 높인다. Furthermore, through the interactive service, the detection accuracy is further improved by adding MCI detection according to the linguistic interpretation aspect such as the subject's vocabulary selection, the response speed during conversation, and the content of the conversation.

본 발명의 가장 큰 장점은 정상 상태에서부터 지속적인 대화형 서비스를 통해 대상자 고유의 정상 상태의 특징 데이터(음성 패턴, 사용 어휘, 응답 속도, 대화 내용 등 포함)를 축적해 놓을 수 있다는 것이고, 이러한 대상자 특징 데이터와 타인의 빅 데이터를 종합하여 판단함으로써 MCI 감지 정확도를 더욱 더 높일 수 있다는 데 있다.The greatest advantage of the present invention is that it is possible to accumulate characteristic data (including voice pattern, used vocabulary, response speed, conversation content, etc.) of the subject's unique normal state through continuous interactive service from the normal state, and such subject characteristics The point is that the accuracy of MCI detection can be further improved by judging by combining data and other people's big data.

이하, 본 발명의 기본 구성에 대하여 보다 상세히 설명한다.Hereinafter, the basic configuration of the present invention will be described in more detail.

도 2에 도시된 바와 같이, 본 발명에 따른 MCI 감지 장치(100)는 콘텐츠 생성부(110), 접속 장치 판별 및 콘텐츠 제공부(120), 자모음 분리부(130), 자모음 정렬부(140), 스펙트럼 변환부(150), 특징 추출부(160) 및 MCI 판별부(170)를 포함한다.As shown in FIG. 2 , the MCI sensing device 100 according to the present invention includes a content generating unit 110 , an access device determining and content providing unit 120 , a consonant separation unit 130 , a consonant vowel aligning unit ( 140 ), a spectrum conversion unit 150 , a feature extraction unit 160 , and an MCI determination unit 170 .

콘텐츠 생성부(110)는 감지 대상자의 음성을 유도하기 위한 콘텐츠를 생성한다. 콘텐츠는 대상자가 이용하는 접속 장치(유선 전화, 스마트 기기, PC 등)에 따라서 영상, 음성, 문자 등 다양한 형태로 제공될 수 있으므로, 이들 각 형태별로 콘텐츠를 생성한다. The content generation unit 110 generates content for inducing the detection target's voice. Since the content can be provided in various forms such as video, audio, and text according to the connection device (landline phone, smart device, PC, etc.) used by the target, the content is generated for each of these forms.

콘텐츠는 특정 발음(특정 단어)을 유도하는 발성 유도형 콘텐츠, 지적 능력을 파악하기 위한 단답형 콘텐츠(사슴, 코끼리, 사자를 순서대로 표출하고 이 순서를 말해보라는 식의 질문), 특정 주제나 시사적 이슈에 대한 내용있는 응답을 유도하는 내용 유도형 콘텐츠와 같이 대상자에게 발성 및 대화를 이끌어내는 질문이나 권유 형태를 취한다.Contents include vocalization-guided content that induces a specific pronunciation (a specific word), short-answer content to identify intellectual abilities (a question such as expressing a deer, an elephant, and a lion in order and telling them in this order), a specific topic or topical It takes the form of questions or invitations that lead to vocalizations and conversations, such as content-guided content that induces content responses to issues.

발성 유도형 콘텐츠는 본 발명의 기본 요지가 되는 음소 발성 패턴 분석을 통한 MCI 감지를 위하여 이용되는 것이고, 단답형 콘텐츠는 대상자의 지적 활동 수준을 분석하여 MCI 감지 보충을 위해서 이용되고, 내용 유도형 콘텐츠는 대상자의 대화 내용의 의미론적 분석을 통한 MCI 감지 보충을 위해서 이용될 수 있다.Speech-inducing content is used for MCI detection through phonemic speech pattern analysis, which is the basic gist of the present invention, and short-answer-type content is used to supplement MCI detection by analyzing the intellectual activity level of the subject, and content-derived content is It can be used to supplement MCI detection through semantic analysis of the subject's conversational content.

대상자의 연령이 높다는 점을 감안할 때, 콘텐츠의 제공은 기본적으로 음성기반으로 이루어지는 것이 바람직하다. 예컨대, 동물 영상이 순서대로 제공된 후 동일 순서대로 동물 이름을 말해보라는 단답형 콘텐츠의 제공시에도 음성 안내가 함께 제공되는 것이 바람직하다. Considering that the age of the target is high, it is preferable that the provision of content is basically performed based on voice. For example, it is preferable that the voice guidance is also provided even when short-answer content is provided in which the animal images are provided in order and then the animal's name is provided in the same order.

이를 위해, 콘텐츠 생성부(110)는 인공지능 챗봇(미도시)을 포함하여 지속적으로 대상자의 응답을 이해하고 대화의 상대, 상태, 내용에 맞는 대화형 콘텐츠를 제공하여 대화가 진행되도록 하여 상호작용함이 바람직하다.To this end, the content generating unit 110 continuously understands the subject's response, including an artificial intelligence chatbot (not shown), and provides interactive content suitable for the counterpart, status, and content of the conversation so that the conversation proceeds and interacts. It is preferable to

접속 장치 판별 및 콘텐츠 제공부(120)는, 대상자가 본 발명에 따른 MCI 감지 장치에 접속하는 사용자 장치가 유선 전화, 스마트 기기(스마트폰, 태블릿 등), PC(노트북 포함) 등 중에서 어떤 것인지를 판별하고, 콘텐츠 생성부(110)로부터 전달받은 콘텐츠를 각 사용자 장치에 맞게 제공한다. The connection device determination and content providing unit 120 determines whether the user device that the subject connects to the MCI sensing device according to the present invention is a landline phone, a smart device (smartphone, tablet, etc.), a PC (including a laptop), etc. It is determined, and the content received from the content generating unit 110 is provided for each user device.

예컨대, 사용자가 이용하는 접속 장치가 음성 대화만 가능한 유선 전화인 경우에는 준비된 문자 콘텐츠를 음성으로 변환하여 전송하고, 스마트 기기나 PC 라면 음성, 문자 및/또는 영상 콘텐츠를 전송한다. 스마트 기기/PC에서는 콘텐츠의 제공이 다양한 형태로 이루어질 수 있는데, 대상자가 발화할 문장을 스마트 기기/PC의 화면에 표출하도록 문자 콘텐츠를 전송하거나, 음성이나 영상을 전송하며 발화를 유도하도록 구성할 수도 있다. For example, when the connection device used by the user is a landline phone capable of only voice conversation, the prepared text content is converted into voice and transmitted, and in the case of a smart device or a PC, voice, text and/or video content is transmitted. Content can be provided in various forms in smart devices/PCs. It can also be configured to transmit text content so that the subject expresses the sentences to be uttered on the screen of the smart device/PC, or to induce speech by transmitting voice or video. have.

접속 장치의 판별은 MCI 감지 장치에 접속하는 방식과 이용하는 통신망(이동통신, 공중전화망, 인터넷 망)으로부터 가능하며, 또는 대상자가 접속 장치를 이용하여 알려준 대로 장치의 유형을 파악하는 방법도 있다. 후자의 경우 접속 장치에 UI를 제공하고 대상자가 이 UI를 이용하여 장치 유형을 선택할 수 있도록 하면 대상자가 보다 용이하게 접속 장치 유형을 MIC 감지 장치로 알릴 수 있다.The identification of the access device is possible from the method of accessing the MCI detection device and the communication network (mobile communication, public telephone network, Internet network) used, or there is a method of identifying the type of device as informed by the subject using the access device. In the latter case, providing a UI to the connected device and allowing the subject to select the device type using the UI allows the subject to more easily inform the connected device type to the MIC sensing device.

전술한 설명에서는 이해의 편의를 위하여 대화형 콘텐츠 생성부(110) 및 접속 장치 판별 및 콘텐츠 제공부(115)를 각각 설명하였으나, 이들 구성요소(110, 115)는 별도의 SW 모듈 또는 별도의 HW 장치로 구현될 수도 있고, 하나의 SW 모듈 또는 HW 장치로 구현될 수 있다.In the foregoing description, for convenience of understanding, the interactive content generating unit 110 and the connecting device determining and content providing unit 115 have been described respectively, but these components 110 and 115 are separate SW modules or separate HW modules. It may be implemented as a device, or it may be implemented as one SW module or HW device.

자모음 분리부(130)는 대상자의 음성이 접속 장치에서 전기적 신호로 변환되어 전송된 대상자의 발화 신호를 수신하여 음성 정보를 인식하고, 인식한 음성 정보를 음소 단위로 분리하여 자음과 모음을 추출하고 분류한다.The consonant-vowel separation unit 130 recognizes the voice information by receiving the subject's speech signal, which is transmitted by converting the subject's voice into an electrical signal in the connection device, and separating the recognized voice information into phoneme units to extract consonants and vowels and classify

자모음 정렬부(140)는 개별 추출한 자음과 모음을 음파값과 매칭하여, 각 음소별 발화시간을 측정한다. 측정된 발화시간은 특징 추출부(160)로 전달한다. The consonant-vowel aligning unit 140 matches the individually extracted consonants and vowels with sound wave values, and measures the utterance time for each phoneme. The measured firing time is transmitted to the feature extraction unit 160 .

이에 더하여 모델링된 발화 문장에서 각 단어 간의 공백 기간을 산출하는 과정을 더 수행할 수 있다. 이때 발화문 전체의 단어 간의 공백 기간의 평균, 특정 단어(예컨대, 아/음/이제/저와 같은 간투사, 감지 대상자별 많이 쓰는 단어 등)의 사용 빈도, 특정 단어와 뒤이은 단어의 공백 시간 등을 더 추출할 수 있다. 추출된 공백 기간, 사용 빈도 등은 특징 추출부(160)로 전달되어 학습 및 추론의 특징으로 이용될 수 있다. In addition, a process of calculating a blank period between each word in the modeled speech sentence may be further performed. At this time, the average of the gap period between words in the entire utterance, the frequency of use of a specific word (eg, inter-projection such as Ah/Um/Jean/Jeong, commonly used words by detection target, etc.), the space time between a specific word and the word following it, etc. can be further extracted. The extracted blank period, frequency of use, etc. may be transmitted to the feature extraction unit 160 and used as features for learning and inference.

스펙트럼 변환부(150)는 특징 파라미터를 추출하기 위하여, 자모음 정렬된 발화된 음파를 주파수 영역(스펙트럼)으로 변환하여 시간대별 각 음소의 주파수를 파악할 수 있도록 한다. 각 음소별 시간대-주파수 변환 그래프는 도 3에 도시된 바와 같다. 여기서 주파수는 음성의 특색에 큰 영향을 미치는 포만트(formant)의 주파수이며, f1, f2, f3 또는 그 이상의 포만트 주파수에 대하여 파악한다.In order to extract a feature parameter, the spectrum converter 150 converts the uttered sound wave aligned with consonants into a frequency domain (spectrum) to determine the frequency of each phoneme for each time period. A time zone-frequency conversion graph for each phoneme is shown in FIG. 3 . Here, the frequency is the frequency of the formant that has a great influence on the characteristics of the voice, and f1, f2, f3 or higher formant frequencies are identified.

음소의 변환은 음색에 영향이 큰 모음에 대해서 변환하는 것이 좋으나, 이에 한정되지 않고 자음에 대해서 변환하거나 모음 및 자음에 대해서 모두 변환할 수 있음은 물론이다. It is preferable to convert a phoneme for a vowel having a large influence on the tone, but it is not limited thereto, and it is of course possible to convert a consonant or both a vowel and a consonant.

특징 추출부(160)는 변환된 음성 스펙트럼으로부터 포만트 값, 피치값, 데시벨 값, 밀도값 등을 주요 특징(feature)으로 추출한다. 또한, 추출한 각 특징별로 일반적인 평균값과의 비교, 값들의 변화량의 분석, 값들의 변화양태의 분석을 통해 다른 음색과 구별될 수 있는 차별적 값을 추출하여 이들도 특징에 포함시킬 수 있다. The feature extraction unit 160 extracts a formant value, a pitch value, a decibel value, a density value, and the like from the converted speech spectrum as main features. In addition, for each extracted feature, a differential value that can be distinguished from other tones can be extracted and included in the feature through comparison with a general average value, analysis of the amount of change in values, and analysis of changes in values.

또한, 음소 지속시간, 단어별 공백 시간(즉, 한 단어가 끝나고 다음 단어가 발화디는 순간까지의 공백 시간)도 특징값을 추가로 추출할 수 있다. 음소 지속시간은 자모음 정렬부(140)로부터 전달받을 수도 있고 스펙트럼 변환부(150)로부터 전달된 시간대-주파수 변환 그래프로부터 특징 추출부(160)가 직접 추출할 수도 있다. 단어별 공백 시간 역시 자모음 정렬부(140)가 추출하고 이로부터 전달받거나 자모음 정렬부(140)로부터 음성 정보를 전달받아 이로부터 특징 추출부(160)가 직접 추출할 수도 있다.Also, a feature value may be additionally extracted from a phoneme duration and a blank time for each word (ie, a blank time from the moment one word ends to the moment the next word is spoken). The phoneme duration may be received from the consonant-vowel arranging unit 140 or the feature extraction unit 160 may directly extract from the time-frequency conversion graph transmitted from the spectrum converting unit 150 . The blank time for each word may also be extracted and delivered by the consonant-vowel aligning unit 140 or voice information received from the consonant-vowel arranging unit 140 and directly extracted from the feature extracting unit 160 .

MCI 판별부(170)는 인공 신경망으로 구성되며, 학습 단계에서는 위 특징들의 일부 또는 전부를 이용하여 학습을 수행하고, 추론 단계에서는 학습 결과를 바탕으로 발화한 대상자의 MCI 여부를 감지한다.The MCI determining unit 170 is composed of an artificial neural network, and in the learning stage, learning is performed using some or all of the above features, and in the inference stage, whether the uttered MCI of the subject is detected based on the learning result.

학습은 기본적으로 정상인의 발화 음성에 대한 각 특징 데이터와, MCI 환자의 발화 음성에 대한 각 특징 데이터를 기초로 수행한다. Learning is basically performed on the basis of each feature data of the speech voice of a normal person and each feature data of the speech voice of an MCI patient.

시간축을 기준으로 복수의 변수에 대한 값들을 특징값으로 하여 지도 학습을 통해 학습 모델을 생성하며, 딥러닝 기법 중 하나인 LSTM-VAE 기법을 이용할 수 있으나 이에 한정되는 것은 아니고 다른 기법을 이용할 수 있음은 물론이다.A learning model is created through supervised learning using the values for a plurality of variables as feature values based on the time axis, and the LSTM-VAE technique, which is one of the deep learning techniques, can be used, but it is not limited thereto, and other techniques can be used. is of course

추론은 대상자의 발화 음성에서 추출된 특징 데이터를 입력하여 정상인과 MCI 환자의 특징 데이터로 학습하여 생성된 학습 모델에 기반한 추론 과정을 통해 대상자의 MCI 여부를 감지한다.Inference detects whether the subject has MCI through an inference process based on a learning model created by inputting feature data extracted from the subject's speech voice and learning from the feature data of normal people and MCI patients.

한편, 정상 상태인 대상자의 발화 음성에서 추출된 특징 데이터를 지속적으로 누적하고 이에 대한 학습 모델을 별도로 구성하여 이를 토대로 또는 전술한 학습 모델에 반영하여 대상자 본인의 MCI 여부를 감지할 수도 있다. 개인별로 발화 특성이 차이가 있으므로 정상 상태였던 자신의 발화 특성이 다른 사람들에 대한 발화 특성 데이터에 비하여 더 정확한 추론 결과를 낼 수도 있다.On the other hand, it is also possible to continuously accumulate feature data extracted from the speech voice of the subject in a normal state, and separately configure a learning model for this, and detect whether the subject himself/herself MCI is based on this or by reflecting it in the above-described learning model. Since the speech characteristics are different for each individual, a more accurate reasoning result may be obtained compared to the speech characteristics data of other people whose speech characteristics were in a normal state.

따라서, 대상자 본인의 정상 상태 발화 특성에 따른 추론 결과를 기초로 MCI 여부를 감지하거나, 또는 대상자 본인의 정상 상태 발화 특성에 따른 추론 결과와 타인의 발화 특성에 따른 빅데이터 학습 모델에 기초한 추론 결과를 병합하여 감지하되, 대상자 본인의 발화 특성에 기초한 추론결과에 가중치를 더 주고, 이후 대상자 본인의 발화 특성이 변화하더라도 병원의 확진 결과 정상이라면 가중치를 낮춰가는 방식으로 감지를 하는 것도 좋다.Therefore, whether MCI is detected based on the inference result according to the subject's own steady-state speech characteristics, or the inference result based on the subject's own steady-state speech characteristics and the big data learning model according to the speech characteristics of others. It is also good to detect by merging, but adding more weight to the inference result based on the subject's own speech characteristics, and lowering the weight if the hospital's confirmation result is normal even if the subject's own speech characteristics change afterwards.

본 발명의 다른 실시예로서, 도 4에 도시된 바와 같이, 본 발명의 MCI 감지 장치는 텍스트 변환부(180)과 자연어 처리부(190)를 더 포함하여, 언어적 측면의 MCI 감지를 병행하여 수행할 수 있다.As another embodiment of the present invention, as shown in FIG. 4 , the MCI detection apparatus of the present invention further includes a text conversion unit 180 and a natural language processing unit 190 to perform MCI detection in a linguistic aspect in parallel. can do.

이를 위해, 텍스트 변환부(180)는 수신된 대상자의 발화 내용을 텍스트로 변환하여, 자연어 처리부(190)로 전달한다.To this end, the text conversion unit 180 converts the received subject's utterance into text and transmits it to the natural language processing unit 190 .

자연어 처리부(190)는 발화 내용상의 특징을 추출하는데, 질문에 대한 대상자의 응답에 대한 단어/문장어의 정확도, 이용하는 단어의 종류와 갯수에 대한 분석, 단어/문장의 의미적 관계 분석을 수행하고, 이 결과를 MCI 판별부(170)으로 전달하여, MCI 판별부(170)는 발화 특징뿐 아니라 언어론적 분석 결과를 종합하여 MCI 여부를 감지한다. The natural language processing unit 190 extracts the characteristics of the speech content, and performs an analysis of the accuracy of words/sentences in response to the subject's response to a question, the type and number of words used, and a semantic relationship analysis of words/sentences, This result is transmitted to the MCI determining unit 170, and the MCI determining unit 170 detects whether the MCI is MCI by synthesizing the linguistic analysis results as well as the speech characteristics.

전술한 바와 같은 취지로, 정상 상태였던 대상자 본인의 언어론적 분석 결과를 기초 데이터로 삼아, 이를 기초로 또는 타인의 빅 데이터와 병합하여 MCI 여부를 감지하는 것도 좋다. 정상 상태일 경우에도 각 개인에 따라 이용하는 단어/문장어의 정확도, 이용하는 단어의 종류와 갯수에 대한 분석, 단어/문장의 의미적 관계에 대한 차이가 작지 않기 때문이다.For the same purpose as described above, it is also good to use the linguistic analysis result of the subject himself, who was in a normal state, as basic data, and detect whether MCI is based on it or by merging it with other people's big data. This is because, even in the normal state, the differences in the accuracy of the words/sentences used by each individual, the analysis of the types and number of words used, and the semantic relationship of the words/sentences are not small.

또 다른 실시예로서, 도 5에 도시된 바와 같이 콘텐츠 생성부(110)가 생성한 콘텐츠를 MCI 판별부(170)으로 전달하여 MCI 판별부가 질문에 대한 응답의 적정성 관계 분석을 하여 이를 MCI 감지를 위한 추론에 추가로 이용하는 것도 좋다.As another embodiment, as shown in FIG. 5 , the content generated by the content generating unit 110 is delivered to the MCI determining unit 170, and the MCI determining unit analyzes the adequacy relationship of the response to the question and detects the MCI. It is also good to use it additionally for inference for

다른 한편, 도 6에 도시된 바와 같이, MCI 판별부(170)가 이상 징후를 감지한 경우에는, 추가적인 판별을 위하여 콘텐츠 생성부(110)에 보다 정교한 질문 콘텐츠를 생성하거나 준비하도록 하고, 접속 장치 판별 및 콘텐츠 제공부(120)가 추가적 판별을 위한 콘텐츠 제공이 가능하도록 통지 또는 제어함이 바람직하다.On the other hand, as shown in FIG. 6 , when the MCI determination unit 170 detects an abnormal symptom, the content generation unit 110 generates or prepares more sophisticated question content for additional determination, and the access device It is preferable to notify or control the determination and content providing unit 120 to provide content for additional determination.

또는 자연어 처리부(190)의 처리 결과를 콘텐츠 생성부(110)가 지속적으로 입력받고 이를 판단하여 보다 정밀한 MCI 판별을 위한 대상자 발화 유도를 위한 콘텐츠 생성을 하는 구성도 가능하다. 콘텐츠 생성부(100)는 MCI 판별 기능은 없지만 미리 소정의 기준을 정하고, 이에 부합되지 않을 경우 정밀 대화를 위한 콘텐츠 생성을 하도록 구현할 수 있다.Alternatively, the content generation unit 110 continuously receives the processing result of the natural language processing unit 190 and determines it to generate contents for inducing a target utterance for more precise MCI determination. Although the content generation unit 100 does not have an MCI determination function, it may be implemented to set a predetermined standard in advance, and if it does not meet the criteria, it may be implemented to generate content for a precise conversation.

도 2에 도시된 실시예에 비하여, 도 4 내지 도 6에 도시된 실시예가 보다 정확한 MCI 감지 결과를 도출할 수 있다.Compared to the embodiment shown in FIG. 2 , the embodiment shown in FIGS. 4 to 6 may derive a more accurate MCI detection result.

이하, 도 7을 참조하며 본 발명의 MCI 감지 방법에 대하여 설명할 것이며, 이미 설명한 상세 부분에 대해서는 중복을 피하기 위하여 약술하거나 생략할 것이므로, 본 발명에 따른 MCI 감지 방법은 이하의 설명에 국한되지 않고 명세서 전반에 걸친 설명을 보충하여 이해함이 바람직하다.Hereinafter, the MCI sensing method of the present invention will be described with reference to FIG. 7, and the previously described details will be abbreviated or omitted to avoid duplication, so the MCI sensing method according to the present invention is not limited to the following description. It is desirable to supplement the description throughout the specification for understanding.

우선 MCI 감지 장치는 감지 대상자가 이용하는 접속 장치를 인지하고(S710), 접속 장치에 따라 미리 준비한 또는 대상자의 응답에 따라 생성하거나 선택한 콘텐츠를 제공한다. 예컨대, 디스플레이 장치가 포함된 스마트 기기라면 발화문이나 발화 유도 질문을 전송하여 표시되도록 하고(S720), 유선 전화와 같이 음성 전용 장치라면 음성으로 변환하여 제공한다(S730).First, the MCI sensing device recognizes the connection device used by the sensing target (S710), and provides content prepared in advance according to the connection device or generated or selected according to the response of the target. For example, in the case of a smart device including a display device, a speech sentence or a speech guidance question is transmitted and displayed (S720), and in the case of a voice-only device such as a landline phone, it is converted into voice and provided (S730).

발화자가 콘텐츠에 응답 또는 대화를 하면, 이 음성 정보를 수집하고(S740), 이로부터 특징을 추출하고(S750), 학습 단계에서는 이 특징에 기초하여 학습을 수행하여 학습 모델을 생성하고, 추론 단계는 학습 모델 및 수집된 음성 정보에 기초하여 추론하여 MCI 여부를 감지한다(S760). When the speaker responds to or talks to the content, this voice information is collected (S740), features are extracted from it (S750), and in the learning step, a learning model is generated by performing learning based on the features in the inference step. Detects whether MCI exists by inferring based on the learning model and the collected voice information (S760).

콘텐츠의 제공 및 발화된 응답의 수집과 MCI 감지는 주기적으로 수행됨이 좋다. 본 발명은 대화기반의 감지 방식이므로 감지 대상자에게 주기적으로 전화를 걸어서 케어 서비스를 진행하면서 그 음성을 듣고, 감지 대상자가 정상인지, 경도인지 장애 상태인지를 조기에 식별해낼 수 있다. 뿐만 아니라, 대상자의 심리, 우울증상 등 여러 정신적 징후에 대해서도 MCI 판별부(170)가 조기에 판별하는 단계를 더 포함하도록 구현될 수 있다.It is good to periodically provide content, collect uttered responses, and detect MCI. Since the present invention is a conversation-based sensing method, it is possible to periodically call the sensing subject and listen to the voice while performing the care service, and identify whether the sensing subject is normal, mild, or impaired at an early stage. In addition, the MCI determination unit 170 may be implemented to further include the step of early determination of various mental symptoms, such as the subject's psychology and depressive symptoms.

특히, 대상자의 흥미를 유발하기 위하여 사용자의 대화를 이끌어 갈 수 있는 대화 컨텍스트를 확보하고 자동으로 상황별 대화문을 제공할 수 있는 대화 시나리오 기술을 반영하여 상호 작용을 하면서 주기적으로 대상자의 발화 음성을 수집하는 것이 바람직하다.In particular, in order to arouse the interest of the subject, the conversational context that can lead the user's conversation is secured and the conversational scenario technology that can automatically provide a dialogue for each situation is reflected to periodically collect the subject's spoken voice while interacting It is preferable to do

또한, 대상자의 발화 특징을 지속적으로 수집하는 단계와, 수집된 데이터를 토대로 LSTM-VAE 기법 등을 이용하여 동일 대상자의 그 전의 특징과 비교하고 분석, 통계를 냄으로써 MCI 여부를 판별하는 단계를 더 포함할 수 있다. In addition, the step of continuously collecting the speech characteristics of the subject, and using the LSTM-VAE technique, etc., based on the collected data, comparing with the previous characteristics of the same subject, analyzing, and statistically determining whether or not MCI is further included can do.

한편, 본 명세서에서 MCI 판별부(170)는 그 용어에 불구하고 MCI 만을 판별하는 것으로 제한해서 볼 것이 아니라, 치매(AD), 심리 상태나 병적 징후도 판별하는 인공지능모듈이다. On the other hand, in the present specification, the MCI determination unit 170 is not limited to determining only MCI despite the term, but is an artificial intelligence module that also determines dementia (AD), psychological states or pathological signs.

또한, 본 발명에 따른 MCI 감지 장치는 의학 지식이나 기타 지식을 축적하고 감지 대상자의 질문에 응답하는 대화형 인공지능 장치로서 기능하도록 구현됨이 바람직하다. 되도록 많은 대화를 끌어내면서 발성 특성을 추출하고 이를 토대로 MCI 감지를 하거나 거나 발성 특성 분석과 언어론적 분석을 병행하여 MCI 감지를 함으로써 감지 정확도를 높일 수도 있고, 감지 대상자가 흥미있게 보다 적극적으로 발화문 수집에 참여하도록 유도할 수 있다. In addition, the MCI sensing device according to the present invention is preferably implemented to function as an interactive artificial intelligence device that accumulates medical knowledge or other knowledge and responds to a question of a sensing target. It is possible to increase the detection accuracy by extracting speech characteristics while eliciting as many conversations as possible and detecting MCI based on this, or by performing MCI detection in parallel with speech characteristics analysis and linguistic analysis. can be encouraged to participate.

또한, 본 발명에 따른 MCI 감지 방법은 MCI 징후가 감지된 경우, 이 결과를 통지하고 감지 대상자에게 병원에 가서 진단을 받아볼 것을 권유하는 절차를 수행한다. In addition, the MCI detection method according to the present invention performs a procedure of notifying a result of the detection of an MCI symptom and recommending the detection subject to go to a hospital for diagnosis.

이에 더하여, 미리 계약된 병원에 진단 예약을 대행하고 예약 결과를 감지 대상자에게 통지해주는 단계를 추가로 수행할 수 있다.In addition, the step of making a reservation for diagnosis to a pre-contracted hospital and notifying the detection target of the reservation result may be additionally performed.

이상 본 발명의 구성에 대하여 바람직한 몇 실시예를 들어 상세히 설명하였으나, 이는 이해를 돕기 위한 예시에 불과한 것으로 본 발명의 보호범위가 각 실시예의 구성에 한정되는 것은 아니다. 본 발명의 기술적 사상의 범주 내에서 전술한 실시예의 다양한 변형 및 변경이 가능함은 물론이다. 예컨대, 본 발명의 MCI 감지 장치는 하나의 프로세서에 구현될 수도 있고, 둘 이상의 상이한 프로세서에 구현될 수도 있다. The configuration of the present invention has been described in detail with reference to several preferred embodiments, but these are only examples for helping understanding, and the protection scope of the present invention is not limited to the configuration of each embodiment. It goes without saying that various modifications and variations of the above-described embodiments are possible within the scope of the technical spirit of the present invention. For example, the MCI sensing apparatus of the present invention may be implemented in one processor, or may be implemented in two or more different processors.

따라서, 본 발명의 보호범위는 이하의 특허청구범위의 기재에 의하여 정해져야 할 것이다.Accordingly, the protection scope of the present invention should be defined by the description of the following claims.

Claims (12)

요약경도 인지 장애(MCI) 감지 장치로서,
감지 대상자의 발화를 유도할 콘텐츠를 생성하는 콘텐츠 생성부와,
감지 대상자가 사용하는 접속 장치를 판별하고 이에 따라 상기 콘텐츠를 제공하는 접속 장치 판별 및 콘텐츠 제공부와,
수신된 감지 대상자의 발화 신호로부터 음성 정보를 인식하여 자음과 모음을 추출하는 자모음 분리부와,
분리된 자모음을 정렬하는 자모음 정렬부와,
자모음 정렬된 발화음을 주파수 영역으로 변환하는 스펙트럼 변환부와,
스펙트럼 변환부로부터 스펙트럼을 전달받아 적어도 하나의 발화 특징을 추출하는 특징 추출부와,
상기 적어도 하나의 발화 특징에 기초하여 MCI 여부를 감지하는 MCI 판별부를 포함하되,
상기 특징 추출부는 추출한 각 발화 특징값 별로 값들의 변화양태의 분석을 통해 다른 음색과 구별될 수 있는 차별적 값을 추출하는 과정을 수행하는 것인 MCI 감지 장치.
A summary mild cognitive impairment (MCI) detection device, comprising:
A content generating unit that generates content to induce the detection target's utterance;
A connection device determination and content providing unit that determines the connection device used by the sensing target and provides the content accordingly;
a consonant separation unit for recognizing voice information from the received speech signal of the detected subject and extracting consonants and vowels;
A consonant alignment unit for aligning the separated consonants,
A spectrum converter that converts consonant-arranged utterances into a frequency domain;
a feature extracting unit receiving the spectrum from the spectrum converting unit and extracting at least one speech feature;
Comprising an MCI determining unit for detecting whether or not MCI based on the at least one speech characteristic,
The feature extraction unit performs a process of extracting a differential value that can be distinguished from other tones through analysis of changes in values for each extracted utterance feature value.
제1항에 있어서, 상기 콘텐츠 생성부는,
특정 발음을 유도하는 발성 유도형 콘텐츠, 지적 능력 판단을 위한 단답형 콘텐츠, 특정 주제나 시사적 이슈에 대한 내용있는 응답을 유도하는 내용 유도형 콘텐츠 중 적어도 하나를 생성하는 것인 MCI 감지 장치.
According to claim 1, wherein the content generating unit,
MCI sensing device for generating at least one of speech-induced content that induces a specific pronunciation, short-answer-type content for judging intellectual ability, and content-guided content that induces a content response to a specific topic or current issue.
제1항에 있어서, 상기 콘텐츠 생성부는,
인공지능 챗봇을 더 포함하는 것인 MCI 감지 장치.
According to claim 1, wherein the content generating unit,
MCI detection device further comprising an artificial intelligence chatbot.
제1항에 있어서, 상기 접속 장치 판별 및 콘텐츠 제공부는,
사용자가 이용하는 접속 장치가 음성 대화만 가능한 유선 전화인 경우에는 준비된 문자 콘텐츠를 음성으로 변환하여 전송하고, 디스플레이 장치가 있는 스마트 기기라면 음성 및 영상 콘텐츠를 전송하는 것인 MCI 감지 장치.
According to claim 1, wherein the connection device determination and content providing unit,
If the connection device used by the user is a landline phone capable of only voice conversation, it converts the prepared text content into voice and transmits it, and if it is a smart device with a display device, the MCI detection device transmits voice and video content.
제1항에 있어서, 상기 자모음 정렬부는,
음소별 발화시간을 측정하여 상기 특징 추출부로 전달하는 것인 MCI 감지 장치.
According to claim 1, wherein the consonant aligning unit,
MCI sensing device to measure the utterance time for each phoneme and transmit it to the feature extraction unit.
제1항에 있어서, 상기 자모음 정렬부는,
모델링된 발화 문장에서 각 단어 간의 공백 기간, 발화문 전체의 단어 간의 공백 기간의 평균, 특정 단어의 사용 빈도, 특정 단어와 뒤이은 단어의 공백 시간 중 적어도 하나를 추출하는 것인 MCI 감지 장치
According to claim 1, wherein the consonant aligning unit,
MCI sensing device for extracting at least one of the blank period between each word in the modeled speech sentence, the average of the blank period between words in the entire utterance, the frequency of use of a specific word, and the blank time between a specific word and a word following it
제1항에 있어서, 상기 특징 추출부는,
포만트 값, 피치값, 데시벨 값 및 밀도값 중 적어도 하나를 특징값으로 추출하는 것인 MCI 감지 장치.
According to claim 1, wherein the feature extraction unit,
An MCI sensing device for extracting at least one of a formant value, a pitch value, a decibel value, and a density value as a feature value.
제7항에 있어서, 상기 특징 추출부는,
추출한 각 상기 특징값별로 일반적인 평균값과의 비교, 값들의 변화량의 분석을 통해 다른 음색과 구별될 수 있는 차별적 값을 추출하는 과정을 더 수행하는 것인 MCI 감지 장치.
The method of claim 7, wherein the feature extraction unit,
The MCI sensing device further performs a process of extracting a differential value that can be distinguished from other tones through comparison with a general average value for each extracted feature value and analysis of the amount of change in the values.
제1항에 있어서, 상기 MCI 판별부는,
학습 단계에서 상기 적어도 하나의 발화 특징에 기초하여 지도 학습을 통해 학습 모델을 생성하고,
추론 단계에서 상기 적어도 하나의 발화 특징과 상기 학습 모델에 기초하여 MCI 여부를 감지하는 것인 MCI 감지 장치.
The method of claim 1, wherein the MCI determining unit,
generating a learning model through supervised learning based on the at least one speech feature in the learning step;
MCI sensing apparatus that detects whether MCI is based on the at least one speech feature and the learning model in the inference step.
MCI 감지 장치에 의한 MCI 감지 방법으로서,
콘텐츠 제공부가, 발화 유도를 위한 콘텐츠를 제공하는 단계와,
특징 추출부가, 상기 콘텐츠에 대한 발화 응답으로부터 적어도 하나의 특징을 추출하는 단계와,
MCI 판별부가, 상기 적어도 하나의 특징에 기초하여 학습을 수행하여 학습 모델을 생성하는 단계와,
상기 MCI 판별부가, 상기 학습 모델 및 감지 대상자의 발화 특징에 기초하여 상기 감지 대상자의 MCI 여부를 감지하는 단계를 포함하되,
상기 특징을 추출하는 단계는,
상기 특징 추출부가, 추출한 각 발화 특징값 별로 값들의 변화양태의 분석을 통해 다른 음색과 구별될 수 있는 차별적 값을 추출하는 과정을 수행하는 단계를 포함하는 것
인 MCI 감지 방법.
An MCI detection method by an MCI detection device, comprising:
A step of providing, by a content providing unit, content for inducing utterance;
extracting, by a feature extraction unit, at least one feature from a speech response to the content;
generating, by the MCI determining unit, a learning model by performing learning based on the at least one characteristic;
Comprising the step of detecting, by the MCI determination unit, whether the detection target is MCI based on the learning model and the speech characteristics of the detection target,
The step of extracting the feature is
Comprising the step of performing, by the feature extraction unit, a process of extracting a differential value that can be distinguished from other tones through analysis of changes in values for each extracted utterance feature value
MCI detection method.
제10항에 있어서, 상기 감지하는 단계에서 MCI로 감지되면,
상기 MCI 감지 장치가 상기 감지 대상자에게 결과를 통지하고 병원 진단을 권유하는 안내의 제공 및
사전 계약된 병원에 진단 예약을 대행하고 그 예약 결과를 상기 감지 대상자에게 통지
중 적어도 하나를 수행하는 단계를 더 포함하는 MCI 감지 방법.
11. The method of claim 10, If the sensing step is detected as MCI,
The MCI detection device notifies the detection target of the result and provides a guide for recommending a hospital diagnosis and
Make a reservation for a diagnosis at the pre-contracted hospital and notify the detection target of the reservation result
MCI detection method further comprising the step of performing at least one of.
제10항에 있어서, 상기 학습 모델을 생성하는 단계는,
상기 MCI 판별부가 매 응답별 상기 감지 대상자 본인의 대화 내용을 지속적으로 축적하여 구축된 본인 응답 데이터를 기초로 학습 모델을 생성하는 과정을 포함하는 것인 MCI 감지 방법.
The method of claim 10, wherein generating the learning model comprises:
The MCI detection method comprising the step of generating a learning model based on the self-response data constructed by the MCI determining unit continuously accumulating the conversation contents of the sensing subject for each response.
KR1020200004882A 2020-01-14 2020-01-14 System and Method for detecting MCI based in AI Active KR102314213B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200004882A KR102314213B1 (en) 2020-01-14 2020-01-14 System and Method for detecting MCI based in AI

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200004882A KR102314213B1 (en) 2020-01-14 2020-01-14 System and Method for detecting MCI based in AI

Publications (2)

Publication Number Publication Date
KR20210091561A KR20210091561A (en) 2021-07-22
KR102314213B1 true KR102314213B1 (en) 2021-10-19

Family

ID=77158100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200004882A Active KR102314213B1 (en) 2020-01-14 2020-01-14 System and Method for detecting MCI based in AI

Country Status (1)

Country Link
KR (1) KR102314213B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102380376B1 (en) * 2021-12-08 2022-04-01 주식회사 세븐포인트원 Method and server for dementia test based on voice question and answer using artificial intelligence call
US11432761B1 (en) 2021-12-08 2022-09-06 Sevenpointone Inc. Method and server for dementia test based on voice question and answer using artificial intelligence call
KR102519725B1 (en) * 2022-06-10 2023-04-10 주식회사 하이 Technique for identifying cognitive functioning state of a user
US11759145B1 (en) 2022-06-09 2023-09-19 Haii Corp. Technique for identifying dementia based on voice data
US11862301B2 (en) 2022-01-05 2024-01-02 Haii Co, Ltd. Technique for training dementia identification model based on test result data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102487420B1 (en) * 2022-06-09 2023-01-11 주식회사 하이 A technique for acquiring voice data which is digital biobarker data for dementia identification

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018015139A (en) * 2016-07-26 2018-02-01 ヤンマー株式会社 Dementia testing system
KR101998881B1 (en) * 2018-05-03 2019-07-10 주식회사 에프티에치코리아 Old man dementia prevention and safety management system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187028A (en) * 1996-12-20 1998-07-14 Matsushita Electric Ind Co Ltd Speech training device
WO2016006727A1 (en) * 2014-07-08 2016-01-14 삼성전자 주식회사 Cognitive function test device and method
KR102180937B1 (en) * 2018-05-11 2020-11-19 서원대학교산학협력단 A Acquiring Method Of Information Of Diagnosis Of Early Mild Cognitive Impairment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018015139A (en) * 2016-07-26 2018-02-01 ヤンマー株式会社 Dementia testing system
KR101998881B1 (en) * 2018-05-03 2019-07-10 주식회사 에프티에치코리아 Old man dementia prevention and safety management system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102380376B1 (en) * 2021-12-08 2022-04-01 주식회사 세븐포인트원 Method and server for dementia test based on voice question and answer using artificial intelligence call
US11432761B1 (en) 2021-12-08 2022-09-06 Sevenpointone Inc. Method and server for dementia test based on voice question and answer using artificial intelligence call
US11862301B2 (en) 2022-01-05 2024-01-02 Haii Co, Ltd. Technique for training dementia identification model based on test result data
US11759145B1 (en) 2022-06-09 2023-09-19 Haii Corp. Technique for identifying dementia based on voice data
KR102519725B1 (en) * 2022-06-10 2023-04-10 주식회사 하이 Technique for identifying cognitive functioning state of a user
US11850059B1 (en) 2022-06-10 2023-12-26 Haii Corp. Technique for identifying cognitive function state of user

Also Published As

Publication number Publication date
KR20210091561A (en) 2021-07-22

Similar Documents

Publication Publication Date Title
KR102314213B1 (en) System and Method for detecting MCI based in AI
US20240374187A1 (en) Multi-modal systems and methods for voice-based mental health assessment with emotion stimulation
Rohanian et al. Alzheimer's dementia recognition using acoustic, lexical, disfluency and speech pause features robust to noisy inputs
CN111315302B (en) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method and program recording medium
TWI403304B (en) Method and mobile device for awareness of linguistic ability
US11826161B2 (en) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and non-transitory computer-readable storage medium
US20160351074A1 (en) Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
Lien et al. Effects of phonetic context on relative fundamental frequency
CN113035232B (en) Psychological state prediction system, method and device based on voice recognition
JP2017156854A (en) Speech semantic analysis program, apparatus and method for improving comprehension accuracy of context semantic through emotion classification
JP6312014B1 (en) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method and program
KR102444012B1 (en) Equine Disability Assessment Apparatus, Methods and Programs
JP6712028B1 (en) Cognitive function determination device, cognitive function determination system and computer program
Vojtech et al. Surface electromyography–based recognition, synthesis, and perception of prosodic subvocal speech
CN110310646A (en) Intelligent alarm method, apparatus, equipment and storage medium
Borrie et al. Rhythm perception and its role in perception and learning of dysrhythmic speech
Usman et al. Heart rate detection and classification from speech spectral features using machine learning
Xu et al. A voice-based automated system for PTSD screening and monitoring
US11730408B2 (en) Systems and methods for human-machine partnered PTSD prediction
Qadri et al. A critical insight into multi-languages speech emotion databases
JP2021110895A (en) Deafness determination device, deafness determination system, computer program and cognitive function level correction method
Reilly et al. Voice Pathology Assessment Based on a Dialogue System and Speech Analysis.
Klangpornkun et al. Classification of depression and other psychiatric conditions using speech features extracted from a Thai psychiatric and verbal screening test
EP4578375A1 (en) Cognitive ability assessment device, mobile terminal, and voice acquisition device
Swadi et al. Mobile-based human emotion recognition based on speech and heart rate

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200114

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20210423

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20211005

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20211012

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20211013

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240930

Start annual number: 4

End annual number: 4