[go: up one dir, main page]

KR20240153464A - Ai-health care robot appatus and self-exam method using the same - Google Patents

Ai-health care robot appatus and self-exam method using the same Download PDF

Info

Publication number
KR20240153464A
KR20240153464A KR1020230049042A KR20230049042A KR20240153464A KR 20240153464 A KR20240153464 A KR 20240153464A KR 1020230049042 A KR1020230049042 A KR 1020230049042A KR 20230049042 A KR20230049042 A KR 20230049042A KR 20240153464 A KR20240153464 A KR 20240153464A
Authority
KR
South Korea
Prior art keywords
subject
hand
robot
neural network
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020230049042A
Other languages
Korean (ko)
Inventor
유재천
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020230049042A priority Critical patent/KR20240153464A/en
Priority to PCT/KR2024/004728 priority patent/WO2024215056A1/en
Publication of KR20240153464A publication Critical patent/KR20240153464A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7405Details of notification to user or communication with user or patient; User input means using sound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Multimedia (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Instructional Devices (AREA)

Abstract

The present invention relates to an AI-healthcare robot device capable of storing and managing medical data measuring a user's health status in a storage device on a robot by a hand biosensor and a retina image sensor installed on the robot in daily life, and automatically analyzing the medical data by artificial intelligence to identify risk factors of the user's health. In particular, the AI-healthcare robot device and a self-testing method using the same can simultaneously measure the user's health status and authenticate the user's status by the hand biosensor and the retina image sensor installed on the robot during body contact between a person and the robot to check eye diseases, dementia, body fever, blood pressure, blood sugar, electrocardiogram, heart rate, oxygen saturation, cholesterol, body fat, and the like, which are major indicators of health management, thereby preventing the user's disease in advance in daily life.

Description

AI-헬스케어 로봇 장치 및 이를 이용한 자가 검사 방법{AI-HEALTH CARE ROBOT APPATUS AND SELF-EXAM METHOD USING THE SAME}AI-HEALTH CARE ROBOT APPATUS AND SELF-EXAM METHOD USING THE SAME

본원은, 생활속에서 로봇 상에 설치된 핸드 바이오 센서 및 망막 이미지센서에 의해 사용자의 건강 상태를 측정한 의료 데이터를 로봇상의 저장장치에 보관 및 관리하고, 이를 인공지능에 의해 자동 분석하여 사용자의 건강의 위험요소를 파악할 수 있는 AI-헬스케어 로봇 장치에 대한 것으로, 특히, 건강 관리의 주요 지표인 안구 질환, 치매, 체열, 혈압, 혈당, 심전도, 심박수, 산소포화도, 콜레스테롤, 체지방 등을 체크하기 위해 사람과 로봇간의 신체 접촉 중에 로봇상에 설치된 핸드 바이오 센서 및 망막 이미지센서 에 의해 사용자의 건강 상태 측정 및 신분 인증을 동시에 수행할 수 있어, 생활 속에서 사용자의 질병을 사전에 예방할 수 있는 AI-헬스케어 로봇 장치와 이를 이용한 자가 검사 방법을 제공한다.This invention relates to an AI-healthcare robot device that measures a user's health status by a hand biosensor and a retinal image sensor installed on a robot in daily life, stores and manages medical data in a storage device on the robot, and automatically analyzes the data by artificial intelligence to identify risk factors for the user's health. In particular, the invention provides an AI-healthcare robot device that can simultaneously measure the user's health status and authenticate the user's identity by a hand biosensor and a retinal image sensor installed on the robot during physical contact between a person and the robot to check for major indicators of health management such as eye disease, dementia, body temperature, blood pressure, blood sugar, electrocardiogram, heart rate, oxygen saturation, cholesterol, and body fat, thereby enabling the user to prevent diseases in advance in daily life, and a self-examination method using the same.

최근 첨단 의료장비 기술과 함께 병원 인프라 증대로 많은 사람들이 풍부한 의료혜택을 받으면서, 인류는 수명 연장과 함께 삶의 질 향상으로 과거 보다 많은 행복을 도모하게 되었다.With the recent advancement of medical equipment technology and the expansion of hospital infrastructure, many people are receiving abundant medical benefits, and with the extension of life expectancy and improvement in quality of life, people are seeking more happiness than ever before.

그러나, 현대 사회는 식생활 문화의 향상 및 운동 부족 그리고 고령화 사회로의 급속한 진행에 따라, 정기적인 건강검진의 필요성은 날로 중요시되어 가고 있다.However, in modern society, with the improvement of eating habits, lack of exercise, and rapid progress toward an aging society, the need for regular health checkups is becoming increasingly important.

또한, 건강검진을 하기 위해서는 별도의 시간을 내야 하는 불편함이 따르기 때문에 대부분은 건강에 이상이 생긴 경우 뒤늦게 병원을 찾고 있다. In addition, because it is inconvenient to have to set aside extra time to get a health checkup, most people visit the hospital late when they have health problems.

따라서 우리가 수시로 생활 속에서 몸의 건강 상태를 파악할 수 있다면, 건강을 위협하는 많은 상황에 대해 미리 대처가 가능하다.Therefore, if we can regularly check the health status of our body in our daily lives, we can prepare in advance for many situations that threaten our health.

특히 안구 질환, 치매, 체열, 혈압, 혈당, 심장 맥박, 심전도, 산소포화도, 콜레스테롤, 체지방은 우리 몸 상태를 잘 알려주는 생활 속 건강 관리의 주요 지표로서, 이들을 수시로 관리하는 잘 하는 경우 많은 질병을 사전에 예방할 수 있을 뿐만 아니라 보다 건강한 삶을 누릴 수 있을 것이다.In particular, eye diseases, dementia, body temperature, blood pressure, blood sugar, heart rate, electrocardiogram, oxygen saturation, cholesterol, and body fat are major indicators of health management in daily life that tell us well about our body condition. If we manage these well on a regular basis, we can not only prevent many diseases in advance, but also live a healthier life.

요즈음, 병원에 가지 않고서도 자신의 체지방, 혈당과 혈압을 언제 어디서나 확인할 수 있는 의료기기들이 많이 보급되어, 환자들은 자신의 집이나 사무실에서 이를 사용하고 있다. 그러나 이러한 의료기기들이 각기 다른 장소에 흩어져 있어, 일반인이 생활 속 건강 관리의 주요 지표를 꾸준히 챙기는데 에는 많은 번거로움이 따른다. 예컨대 환자는 각각의 의료기기의 보관 장소로부터 일일이 의료기기를 꺼내서 사용해야 하는 번거로움은 둘째치고 라도, 사용시 마다 매번 각각의 의료기기별로 사용자 인증을 해야 하는 불편이 따른다.Nowadays, many medical devices that allow patients to check their body fat, blood sugar, and blood pressure anytime and anywhere without going to the hospital are widely available, and patients use them at home or in the office. However, these medical devices are scattered in different places, so it is very inconvenient for the general public to consistently monitor key indicators of health management in their daily lives. For example, patients have to take out each medical device from its storage location and use it, which is inconvenient, but they also have to authenticate themselves for each medical device every time they use it.

오늘날의 디지털 의료기기는 여러 사람 (예컨대 가족구성원)이 같이 사용하도록 허용할 뿐만 아니라, 각각의 환자로부터 측정된 데이터는 환자에 대한 지속적 추적 관찰을 위해 개인별로 저장 및 관리되고 있으며, 이를 위해 의료기기 사용 전에는 반드시 사용자 등록 및 인증 절차를 따라야 한다. 그러나 이 경우, 사용자는 사용시 마다 매번 각각의 의료기기에 대해 사용자 인증을 수행해야 하는 불편이 따른다.Today's digital medical devices not only allow multiple people (e.g. family members) to use them together, but also the data measured from each patient is individually stored and managed for continuous patient monitoring, and for this purpose, user registration and authentication procedures must be followed before using the medical device. However, in this case, users have to authenticate themselves for each medical device every time they use it, which is inconvenient.

또한 기존의 디지털 의료기기들은 측정 항목마다 각기 다른 제품의 디지털 의료기기들을 사용하기 때문에, 동일한 시점에서 측정된 동기화된 생체 신호들(예컨대 심전도, PPG신호, 산소포화도)을 얻기가 힘들다. 이들 생체신호가 환자의 바디 컨디션과 시간에 따라 수시로 변한다는 점을 고려하면 각기 다른 시점에 측정된 생체신호들을 이용해 진단한다는 것은 신뢰도를 떨어뜨릴 뿐만 아니라 부정확한 결과를 초래한다.In addition, since existing digital medical devices use different products for each measurement item, it is difficult to obtain synchronized bio-signals (e.g., electrocardiogram, PPG signal, oxygen saturation) measured at the same time. Considering that these bio-signals change frequently depending on the patient's body condition and time, diagnosing using bio-signals measured at different times not only reduces reliability but also leads to inaccurate results.

한국등록특허공보, 제1278552호 (2013.06.19. 등록)Korean Patent Publication, No. 1278552 (Registered on June 19, 2013)

본 발명은 전술한 종래 기술의 문제점을 해결하기 위해, 별도의 인증 절차 없이 사용자 인증이 이루어질 뿐 만 아니라, 건강 관리의 주요 지표인 안구 질환, 치매, 체열, 혈압, 혈당, 심장 맥박수, 심전도, 산소포화도, 콜레스테롤, 체지방을 로봇과의 신체 접촉하는 동안 간편하게 측정할 수 있고, 이상징후가 발견된 경우 의사 단말과의 인터넷 통신 연결을 통해 원격 의료 진단 서비스를 제공할 수 있는 AI-헬스케어 로봇 장치 및 이를 이용한 자가 검사방법을 제공하고자 한다.In order to solve the problems of the prior art described above, the present invention provides an AI-healthcare robot device and a self-examination method using the same, which not only allows user authentication without a separate authentication procedure, but also allows easy measurement of major indicators of health management, such as eye disease, dementia, body temperature, blood pressure, blood sugar, heart rate, electrocardiogram, oxygen saturation, cholesterol, and body fat, during physical contact with the robot, and provides a remote medical diagnosis service through an Internet communication connection with a doctor terminal when abnormal symptoms are found.

또한, 본 발명은 동일한 시점에서 사용자의 몸으로부터 측정된 동기화된 생체신호 계측에 의해 혈압, 콜레스테롤, 혈당, 심장 질환 측정을 수행할 수 있는 인공지능 신경망을 구비한 AI-헬스케어 로봇 장치 및 이를 이용한 자가 검사방법을 제공하고자 한다.In addition, the present invention aims to provide an AI-healthcare robot device equipped with an artificial intelligence neural network capable of measuring blood pressure, cholesterol, blood sugar, and heart disease by measuring synchronized bio-signals from a user's body at the same time, and a self-examination method using the same.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical tasks to be achieved by the embodiments of the present invention are not limited to the technical tasks described above, and other technical tasks may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 AI-헬스케어 로봇 장치는, 로봇의 가슴 패널에 설치될 뿐만 아니라 사람 (피측정자, 사용자)의 손 과의 접촉을 허용하는 신체접촉부로서 핸드 프린트(hand print), 상기 핸드 프린트 내에 매설되어 사람의 손 과 접촉하는 동안 사람의 생체신호를 채집하는 핸드 바이오 센서, 상기 로봇의 눈 부위에 설치되어 피 측정자의 망막 이미지를 채집하는 망막 이미지 센서, 피 측정자의 망막과 망막 이미지 센서간의 광축 정열을 수행하는 눈 네비게이터(eye navigator), 피 측정자의 망막과 망막 이미지 센서간의 초점 거리 조정을 수행하는 초점 거리 조정 구동부, 및 상기 핸드 바이오 센서 및 망막 이미지 센서에 의해 측정된 생체 신호를 인공지능 신경망을 통해 분석하고, 의사 단말과의 인터넷 통신 연결을 통해 원격 의료 진단 서비스를 제공하는 무선 통신 연결 수단을 포함할 수 있다.As a technical means for achieving the above technical task, an AI-healthcare robot device according to one embodiment of the present invention may include a hand print as a body contact part that is installed on a chest panel of the robot and allows contact with a hand of a person (subject, user), a hand biosensor embedded in the hand print for collecting a biosignal of the person while in contact with the hand of the person, a retinal image sensor installed in an eye part of the robot for collecting a retinal image of the subject, an eye navigator for performing optical axis alignment between the retina of the subject and the retinal image sensor, a focal length adjustment driving unit for performing focal length adjustment between the retina of the subject and the retinal image sensor, and a wireless communication connection means for analyzing biosignals measured by the hand biosensor and the retinal image sensor through an artificial intelligence neural network and providing a remote medical diagnosis service through an Internet communication connection with a doctor terminal.

본 발명의 핸드 프린트는 사용자 손과의 접촉면을 제공하여, 핸드 프린트상에 사용자의 손 과 접촉하는 동안 사용자의 생체신호를 수집 가능할 뿐만 아니라, 동시에 사용자 인증을 수행할 수 있다.The hand print of the present invention provides a contact surface with a user's hand, so that it is possible to collect a user's biosignal while the hand is in contact with the hand print, and at the same time perform user authentication.

본 발명의 생체신호는 핸드 프린트상에 매설되거나 상기 핸드 프린트와 연결되는 핸드 바이오 센서에 의해 측정될 수 있다.The biosignal of the present invention can be measured by a hand biosensor embedded in or connected to a hand print.

본 발명의 눈 네비게이터는 음성 메시지 명령에 의해 피 측정자가 망막 이미지 측정부의 접안부(안구에 맞닿아 있다는 곳)에 밀착하도록 피 측정자에게 요구 할 수 있다.The eye navigator of the present invention can request the subject to come into close contact with the ocular portion (the portion that touches the eyeball) of the retinal image measuring unit by a voice message command.

본원의 일 실시예에 따르면, AI-헬스케어 로봇 장치는, 로봇의 가슴 패널에 설치될 뿐만 아니라 사람의 손과의 접촉을 허용하는 핸드 프린트, 상기 핸드 프린트에 매설되어 사람의 손과 접촉 동안 사람의 생체 신호 측정과 동시에 사용자 인증을 수행하는 핸드 바이오 센서, 상기 로봇의 눈 부위에 설치되어 피 측정자의 망막 이미지를 채집하는 망막 이미지 센서를 포함하는 망막 이미지 측정부, 상기 핸드 바이오 센서로부터 얻어진 생체 신호를 증폭하거나 디지털 신호로 변환하는 바이오 센싱부, 상기 망막 이미지 및 상기 디지털 신호화 된 생체 신호를 수집하는 생체 신호 수집부, 상기 생체 신호 수집부에 의해 수집된 생체 신호 중 사용자 인증이 완료된 생체 신호 성분 중 유효한 생체신호 부분만을 걸러내는 생체신호 유효 판별 수단, 상기 로봇의 머리부위에 설치되어, 피 측정자의 신체부위 이미지를 획득하기 위한 비젼 카메라, 외부의 의료기기로부터 측정된 의료 데이터를 수신하여 상기 생체 신호 수집부로 전달하는 근거리 무선 통신 연결부, 상기 수신된 의료데이터 내지 상기 유효한 생체 신호를 저장하기 위한 의료 데이터 저장부, 상기 의료 데이터 저장부에 저장된 의료 데이터를 인터넷망을 통해 서버에 전송하고, 이후 상기 서버 상의 인공지능 신경망 내지 전문가 시스템에 의해 상기 의료 데이터의 분석한 결과를 피드백 받기 위한 무선 통신 연결 수단, 및 상기 바이오 센싱부, 망막 이미지 측정부, 생체 신호 수집부, 의료데이터 저장부 및, 무선 통신 연결 수단을 제어하고 상기 의료 데이터의 분석한 결과를 스크린 내지 문자/음성 메시지를 통해 사용자에게 제공하는 제어부를 포함할 수 있다.According to one embodiment of the present invention, the AI-healthcare robot device includes: a hand print that is installed on the chest panel of the robot and allows contact with a human hand; a hand biosensor embedded in the hand print that performs user authentication and simultaneously measures a human biosignal during contact with the human hand; a retinal image measuring unit that includes a retinal image sensor installed in the eye area of the robot to collect a retinal image of a subject; a biosensing unit that amplifies or converts a biosignal obtained from the hand biosensor into a digital signal; a biosignal collecting unit that collects the retinal image and the digitalized biosignal; a biosignal validity determination means that filters out only a valid biosignal portion among biosignal components for which user authentication has been completed among the biosignals collected by the biosignal collecting unit; a vision camera installed on the head area of the robot to obtain an image of a body part of the subject; a short-range wireless communication connection unit that receives medical data measured from an external medical device and transmits it to the biosignal collecting unit; a medical data storage unit that stores the received medical data or the valid biosignal; and the medical data stored in the medical data storage unit is transmitted to a server through the Internet, and thereafter, an artificial intelligence neural network on the server. The medical data may include a wireless communication connection means for receiving feedback on the analysis results of the medical data by an expert system, and a control unit for controlling the bio-sensing unit, the retinal image measuring unit, the bio-signal collecting unit, the medical data storage unit, and the wireless communication connection means and providing the analysis results of the medical data to the user through a screen or text/voice message.

상기 핸드 바이오 센서는 산소 포화도 및 광전 용적 맥파(PPG, Photoplethysmography) 신호를 측정하기 위한 SpO2센서, 복수개의 손전극, 체지방을 측정하는 체지방 센서, 지문 센서, 심박수 내지 심전도를 측정하기 위한 ECG 센서, 글루코스 스펙트로스코피(spectroscopy, 임피던스 주파수응답)을 얻기 위한 혈당 센서 중 선택된 어느 하나 이상으로 구성될 수 있다.The above hand biosensor may be configured with at least one selected from among an SpO2 sensor for measuring oxygen saturation and a photoplethysmography (PPG) signal, a plurality of hand electrodes, a body fat sensor for measuring body fat, a fingerprint sensor, an ECG sensor for measuring heart rate or electrocardiogram, and a blood sugar sensor for obtaining glucose spectroscopy (impedance frequency response).

상기 망막 이미지 측정부는 망막 이미지를 획득하기 위한 망막 이미지 센서, 접안부와 피 측정자의 눈간의 접촉 압력을 센싱하는 압력 센서, 눈 네비게이터, 피 측정자의 망막과 망막 이미지 센서간의 초점 거리 조정을 수행하는 초점 거리 조정 구동부, 및 접안부에 접촉한 눈 부위의 체열을 측정하기 위한 온도센서를 포함할 수 있다.The above retinal image measuring unit may include a retinal image sensor for obtaining a retinal image, a pressure sensor for sensing contact pressure between the eyepiece and the eye of the subject, an eye navigator, a focal distance adjustment driving unit for adjusting the focal distance between the retina of the subject and the retinal image sensor, and a temperature sensor for measuring body heat of an eye area in contact with the eyepiece.

상기 SpO2센서는 핸드 프린트의 손가락 끝에 설치되는 것이 선호되며, 반사형 혈관 광센서를 사용할 수 있다.The above SpO2 sensor is preferably installed at the fingertip of the hand print, and a reflective vascular optical sensor can be used.

예컨대, 상기 반사형 혈관 광센서가 사람의 손가락(예컨대, 엄지, 검지 내지 중지) 에 접촉되었을 때, 광 검출기에 의해 사람 손가락의 동맥으로부터 산소 포화도와 PPG신호(광전용적맥파 신호)를 측정할 수 있다. For example, when the reflective vascular optical sensor is brought into contact with a human finger (e.g., thumb, index finger, or middle finger), the oxygen saturation and PPG signal (photoplethysmographic signal) can be measured from an artery of the human finger by the optical detector.

상기 지문 센서는 핸드 프린트의 손가락 끝에 설치되는 것이 선호되며, 상기 지문 센서에 사람의 손가락(예컨대, 엄지, 검지 내지 중지)의 지문 부위가 접촉되었을 때, 지문인증이 이루어 질 수 있다.The above fingerprint sensor is preferably installed at the fingertip of the hand print, and fingerprint authentication can be performed when the fingerprint area of a person's finger (e.g., thumb, index finger, or middle finger) comes into contact with the fingerprint sensor.

또한 상기 핸드 프린트는 사람의 손가락이 지문 센서에 접촉되었을 때 지문 센서와 함께 동시에 접촉되는 손 전극 1을 포함하는 것이 선호된다. 이 경우, 상기 지문 센서에 사람의 손가락 의 지문 부위에 접촉되었을 때 상기 손 전극 1에도 동시에 접촉되어, 상기 지문 센서가 지문 인증을 수행 하는 동안, 상기 손 전극 1은 체지방 측정을 위한 구동 전극으로서 동작하거나 ECG 센서의 접지 전극으로 동작할 수 있다. In addition, it is preferred that the hand print includes a hand electrode 1 that is simultaneously contacted with the fingerprint sensor when a person's finger is in contact with the fingerprint sensor. In this case, when the fingerprint portion of the person's finger is in contact with the fingerprint sensor, the hand electrode 1 is also simultaneously contacted, so that while the fingerprint sensor performs fingerprint authentication, the hand electrode 1 can operate as a drive electrode for body fat measurement or as a ground electrode of the ECG sensor.

또한, 심전도 측정은 ECG센서에 의해 이루어 지며, ECG 센서 와 접지 전극간에 형성된 전압(전위차) 신호를 증폭하여 측정할 수 있다. Additionally, electrocardiogram measurement is performed by an ECG sensor, and the voltage (potential difference) signal formed between the ECG sensor and the ground electrode can be amplified and measured.

본 발명의 심전도 측정은 ECG센서와 접지전극을 사용하여 표준 사지 리드(standard limb lead)의 Lead Ⅰ에 대해 PQRST 파를 측정하는 것이 선호된다.In the electrocardiogram measurement of the present invention, it is preferred to measure the PQRST wave for Lead Ⅰ of a standard limb lead using an ECG sensor and a ground electrode.

본 발명의 심전도 측정의 또 다른 측면은 ECG센서를 사용한 심전도 측정 동안 오른손 접촉면으로서 오른손 핸드 프린트와 왼손 접촉면으로서 왼손 핸드 프린트의 손가락 끝에 매설된 손전극들을 이용하여 체지방 및 글루코스 스펙트로스코피(spectroscopy)도 동시에 측정 가능하다.Another aspect of the electrocardiogram measurement of the present invention is that body fat and glucose spectroscopy can also be measured simultaneously by using hand electrodes embedded in the fingertips of the right hand print as the right-hand contact surface and the left hand print as the left-hand contact surface during electrocardiogram measurement using the ECG sensor.

본 발명의 인공지능 신경망은 생체신호 및 개인 신체 정보를 입력으로 사용하며, 혈압 측정용 인공지능 신경망, 콜레스테롤 측정용 인공지능 신경망, 혈당 측정용 인공지능 신경망, 심장 질환 측정용 인공지능 신경망, 망막 분석용 인공지능 신경망 중 선택된 어느 하나 이상을 포함할 수 있다. The artificial intelligence neural network of the present invention uses bio-signals and personal body information as input, and may include at least one selected from an artificial intelligence neural network for measuring blood pressure, an artificial intelligence neural network for measuring cholesterol, an artificial intelligence neural network for measuring blood sugar, an artificial intelligence neural network for measuring heart disease, and an artificial intelligence neural network for analyzing the retina.

상기 개인 신체 정보는 표준 혈압치를 포함한다.The above personal physical information includes standard blood pressure values.

본 발명의 표준 혈압치는 통계적으로 알려진 정상인의 혈압으로, 표준 혈압치는 [수학식 1]에 적용하여 계산할 수 있다.The standard blood pressure value of the present invention is the blood pressure of a statistically known normal person, and the standard blood pressure value can be calculated by applying [Mathematical Formula 1].

[수학식1][Mathematical Formula 1]

상기 [수학식 1] 에서 혈압치를 계산하기 위해, d=0.6×height, h=0.3×height를 사용하는 것이 선호된다.To calculate the blood pressure value in the above [Mathematical Formula 1], it is preferred to use d=0.6×height and h=0.3×height.

또한 상기 계수들 σ 와 β는 통계 정보에서 의해 설정될 수 있는 파라미터들이다.Additionally, the above coefficients σ and β are parameters that can be set by statistical information.

또한, 상기 인공지능 신경망의 입력은 ECG 신호의 R지점을 기준으로 동기화된 생체 신호를 사용할 수 있다. Additionally, the input of the artificial intelligence neural network can use a synchronized biosignal based on the R point of the ECG signal.

또한, 본 발명의 생체신호는 체온, ECG신호, PPG신호, SpO2, 글루코스 스펙트로스코피, 체지방, PTT (Pulse Transit Time), Pulse Arrival Time(PAT), 맥파 전달 속도(PWV, Pulse Wave Velocity), HRV(Heart Rate Variability), 망막 이미지, 외부 의료기기로부터의 수신된 의료 데이터 중 선택된 어느 하나 이상을 포함할 수 있다.In addition, the biosignal of the present invention may include at least one selected from body temperature, an ECG signal, a PPG signal, SpO2, glucose spectroscopy, body fat, PTT (Pulse Transit Time), Pulse Arrival Time (PAT), PWV (Pulse Wave Velocity), HRV (Heart Rate Variability), retinal images, and medical data received from an external medical device.

또한, 상기 혈당 센서는 핸드 프린트의 손가락 끝에 설치된 복수개의 손 전극들을 사용하여 구성하는 것이 선호 되며, 이때 혈당 센서는 피 측정자 몸에 대한 임피던스 주파수응답을 계측할 수 있으며, 이를 통해 피 측정자의 혈당치를 무채혈로 추정할 수 있는 글루코스 스펙트로스코피를 얻을 수 있다. In addition, the blood sugar sensor is preferably configured using a plurality of hand electrodes installed at the fingertips of the hand print, and at this time, the blood sugar sensor can measure the impedance frequency response for the subject's body, thereby obtaining glucose spectroscopy that can estimate the subject's blood sugar level without blood collection.

또한 핸드 프린트는 접촉 센싱 수단을 구비하여 핸드 프린트와 피 측정자의 손 바닥 간(間)의 밀착 접촉 여부를 감지하거나 시각적으로 표시할 수 있다.Additionally, the hand print may be equipped with a contact sensing means to detect or visually display whether there is close contact between the hand print and the palm of the subject's hand.

또한, 상기 제어부는, 상기 생체 신호 및 의료 데이터의 변화 추이를 관찰하여 사용자에게 건강상의 위험도를 알려주거나 집중 케어 검사가 필요한 항목을 사용자에게 알려주거나 다음 검사 일정을 사용자에게 알려주기 위한 건강 추적 관리부를 포함할 수 있다. In addition, the control unit may include a health tracking management unit for observing changes in the bio-signals and medical data to inform the user of health risks, inform the user of items requiring intensive care examination, or inform the user of the next examination schedule.

또한 건강 추적 관리부는 집중 케어가 필요한 건강 관리 항목을 발굴하고, 발굴된 집중 케어 항목에 대한 해당하는 생체신호 검사를 로봇이 알아서 환자에게 실시하도록 로봇을 제어할 수 있다. 이경우, 눈 네비게이터는 비젼 카메라로부터 환자 얼굴의 이미지를 인식하여 생체 검사가 필요한 환자를 탐색한다.In addition, the health tracking management unit can discover health care items that require intensive care and control the robot to automatically perform the corresponding bio-signal examination for the discovered intensive care items on the patient. In this case, the eye navigator recognizes the image of the patient's face from the vision camera and searches for the patient that requires a bio-signal examination.

또한, 상기 제어부는, 의료 데이터 분석 결과를 가지고, 환자의 건강 상태에 따라 건강 관리에 대한 지침, 원격 의료 및 의료기기 사용법에 대한 가이드 라인을 음성과 영상 서비스로 환자에게 제공하기 위해, 스피커부 와 스크린(표시장치)을 제어하는 것을 특징으로 한다. 상기 스크린은 로봇의 가슴패널에 설치되는 것이 선호된다.In addition, the control unit is characterized by controlling the speaker unit and the screen (display device) to provide the patient with health management instructions, remote medical care, and guidelines on how to use medical devices as voice and video services based on the patient's health condition based on the medical data analysis results. The screen is preferably installed on the chest panel of the robot.

상기 스크린은 생체 신호 수집부로부터 수집된 의료 데이터에 대해 분석한 결과를 화면상에 표시해 주거나 건강 추적 관리부에서 제공해주는 부가 정보를 표시하는 것이 선호된다. It is preferred that the above screen display the results of analysis of medical data collected from the biosignal collection unit or display additional information provided by the health tracking management unit.

또한, 상기 제어부는 생체 신호 수집부에 의해 수집된 환자의 온도가 비정상적인 체열 온도인 경우, 이상 체열 의심 대상자로 판별하기 위한 체열 진단부를 포함할 수 있다. In addition, the control unit may include a body temperature diagnosis unit for determining the patient as a subject suspected of having abnormal body temperature if the patient's temperature collected by the bio-signal collection unit is an abnormal body temperature.

상기 근거리 통신 연결부는 외부 의료 기기들과 근거리 무선 통신 연결 (예컨대 NFC(Near Field Communication) 인터페이스, 블루투스, 사물 인터넷 또는 적외선 통신 연결)을 제공하여 상기 의료기기들에 의해 환자로부터 측정된 의료 데이터를 수신하여 생체 신호 수집부에 전송할 수 있다.The above-described short-range communication connection unit can provide a short-range wireless communication connection (e.g., a Near Field Communication (NFC) interface, Bluetooth, the Internet of Things, or an infrared communication connection) with external medical devices to receive medical data measured from a patient by the medical devices and transmit it to a biosignal collection unit.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, additional embodiments may exist in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 별도의 사용자 인증 과정 없이 사용자 인증이 될 뿐만 아니라, 생활속에서 로봇과의 접촉 중에 로봇상의 핸드 프린트 내에 설치된 핸드 바이오 센서 및 로봇의 눈 부위에 설치된 망막 이미지 센서에 의해 사용자의 생체 신호를 측정함으로써, 건강 관리의 주요 지표인 안구 질환, 치매, 체열, 혈압, 혈당, 심장 질환, 심장맥박, 산소포화도, 콜레스테롤, 체지방을 관리함으로써 사용자의 질병을 사전에 예방할 수 있다.According to the solution to the aforementioned problem of the present invention, not only is user authentication possible without a separate user authentication process, but also, by measuring the user's bio-signals by the hand bio-sensor installed in the hand print of the robot and the retinal image sensor installed in the eye area of the robot during contact with the robot in daily life, the user's disease can be prevented in advance by managing major indicators of health such as eye disease, dementia, body temperature, blood pressure, blood sugar, heart disease, heart pulse, oxygen saturation, cholesterol, and body fat.

또한 본 발명의 AI-헬스케어 로봇 장치는 동일한 시점에서 사용자의 몸으로부터 측정된 동기화된 생체 신호를 인공지능 신경망의 입력신호로 사용할 수 있어 정확한 혈압, 콜레스테롤, 혈당 및 심장 질환 측정이 가능하다.In addition, the AI healthcare robot device of the present invention can use synchronized bio-signals measured from the user's body at the same time as input signals for an artificial intelligence neural network, thereby enabling accurate measurement of blood pressure, cholesterol, blood sugar, and heart disease.

또한 본 발명의 AI-헬스케어 로봇 장치는 환자의 망막 이미지를 분석하여 환자의 안구 질환 및 치매 측정이 가능하다.In addition, the AI healthcare robot device of the present invention can measure eye diseases and dementia of a patient by analyzing the patient's retinal image.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects that can be obtained from this invention are not limited to the effects described above, and other effects may exist.

도 1은 본 발명에 따른 AI-헬스케어 로봇 장치의 일실시예이다.
도 2는 본 발명에 따른 AI-헬스케어 로봇 장치의 디지털 생체 신호 분석 모듈의 일실시예이다.
도 3a는 피 측정자의 손과의 접촉을 통해 피 측정자의 생체신호를 수집하는 핸드 바이오 센서가 오른손 핸드 프린트와 왼손 핸드 프린트상의 손가락 끝 내지 손바닥에 매설되어 배치된 예시이다.
도 3b와 도 3c는 피 측정자의 손과 핸드 프린트간의 밀착 접촉 여부를 피 접촉자에 알려주기 위한 접촉 센싱 수단에 대한 여러 실시 예이다.
도 3d는 터치스크린를 사용한 접촉 센싱 수단의 또 다른 실시예이다.
도 3e와 도 3f는 본 발명의 핸드 프린트가 노트북의 커버 내지 스마트 미러상에 설치된 실시예를 보인다.
도 4는 본 발명에 따른 AI-헬스케어 로봇 장치의 눈 부위에 설치된 망막 이미지 측정부의 일 실시예이다.
도 5는 AI-헬스케어 로봇 장치상에 설치된 핸드 프린트상의 지문 센서에 의해 지문 인증이 이루어짐과 동시에 손 전극들에 의해 체지방을 측정하는 체지방 측정부, 글루코스 스펙트로스코피를 측정하는 글루코스 측정부에 대한 일 실시예이다.
도 6은 본 발명을 따르는 AI-헬스케어 로봇 장치의 핸드 프린트상에 설치된 ECG센서와 손 전극1에 피 측정자의 손의 바닥면이 접촉 되었을 때, ECG 신호 내지 심전도를 측정하는 심전도 측정부의 일실시예이다.
도 7a와 도 7b는 본 발명을 따르는 AI-헬스케어 로봇 장치의 핸드 프린트상의 반사형 SpO2센서를 사용한 산소 포화도 및 PPG신호 측정부의 일 실시예이다.
도 8a와 도 8b는 AI-헬스케어 로봇 장치의 핸드 프린트상에 설치된 핸드 바이오 센서로부터 얻어진 생체 신호를 이용하여 혈압, 콜레스테롤, 혈당, 심장질환을 예측하기 위한 일 실시예이다.
Figure 1 is an example of an AI-healthcare robot device according to the present invention.
FIG. 2 is an example of a digital biosignal analysis module of an AI-healthcare robot device according to the present invention.
Figure 3a is an example in which a hand biosensor, which collects a subject's biosignal through contact with the subject's hand, is placed and embedded in the fingertips or palms of a right hand print and a left hand print.
FIGS. 3b and 3c illustrate several embodiments of a contact sensing means for informing a contactee of whether there is close contact between the hand of the subject and the hand print.
FIG. 3d is another embodiment of a contact sensing means using a touch screen.
FIGS. 3e and 3f show an embodiment in which the hand print of the present invention is installed on the cover or smart mirror of a notebook.
FIG. 4 is an example of a retinal image measuring unit installed in the eye area of an AI healthcare robot device according to the present invention.
FIG. 5 is an example of a body fat measurement unit that measures body fat using hand electrodes and a glucose measurement unit that measures glucose spectroscopy, while fingerprint authentication is performed by a fingerprint sensor on a hand print installed on an AI healthcare robot device.
FIG. 6 is an example of an electrocardiogram measuring unit that measures an ECG signal or electrocardiogram when the bottom surface of a subject's hand comes into contact with an ECG sensor and hand electrode 1 installed on a hand print of an AI-healthcare robot device according to the present invention.
FIG. 7a and FIG. 7b are examples of an oxygen saturation and PPG signal measurement unit using a reflective SpO2 sensor on a hand print of an AI-healthcare robot device according to the present invention.
FIG. 8a and FIG. 8b are examples of predicting blood pressure, cholesterol, blood sugar, and heart disease using biosignals obtained from a hand biosensor installed on a hand print of an AI-healthcare robot device.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention are described in detail so that those with ordinary skill in the art can easily practice the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are assigned similar drawing reference numerals throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 “간접적으로 연결”되어 있는 경우도 포함한다. Throughout this specification, when a part is said to be “connected” to another part, this includes not only the case where it is “directly connected,” but also the case where it is “electrically connected” or “indirectly connected” with another element in between.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when it is said that an element is located “on,” “above,” “below,” “under,” or “below” another element, this includes not only cases where an element is in contact with another element, but also cases where another element exists between the two elements.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, whenever a part is said to "include" a component, this does not mean that it excludes other components, but rather that it may include other components, unless otherwise specifically stated.

이하 첨부된 도면을 사용하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail using the attached drawings.

이하, 본 발명에서의 인공지능 신경망은 전문가 시스템을 포함한다.Hereinafter, the artificial intelligence neural network in the present invention includes an expert system.

본 발명의 전문가 시스템은 의료 전문가의 지적 활동과 경험을 통해서 축적된 지식과 의료 전문가에 의해 정의된 추론 규칙을 활용하여 결정을 내리거나 문제 해결을 하는 컴퓨터 응용 프로그램 일수 있다. The expert system of the present invention may be a computer application that makes decisions or solves problems by utilizing knowledge accumulated through intellectual activities and experience of medical experts and inference rules defined by medical experts.

이하, 본 발명에서의 의료 데이터는 외부 의료기기들에 의해 측정된 의료 데이터, 및 핸드 바이오 센서 및 망막 이미지 센서에 의해 측정된 생체 신호를 포함한다. Hereinafter, medical data in the present invention includes medical data measured by external medical devices, and biosignals measured by a hand biosensor and a retinal image sensor.

이하, 본 발명에서의 혈압 측정부는 혈압 측정용 인공지능 신경망과 혼용되어 사용될 수 있다.Hereinafter, the blood pressure measurement unit of the present invention may be used in conjunction with an artificial intelligence neural network for blood pressure measurement.

이하, 본 발명에서의 콜레스테롤 측정부는 콜레스테롤 측정용 인공지능 신경망과 혼용될 수 있다.Hereinafter, the cholesterol measurement unit of the present invention may be used interchangeably with an artificial intelligence neural network for cholesterol measurement.

이하, 본 발명에서의 혈당 측정부는 혈당 측정용 인공지능 신경망과 혼용되어 사용될 수 있다.Hereinafter, the blood sugar measurement unit of the present invention may be used in combination with an artificial intelligence neural network for blood sugar measurement.

이하, 본 발명에서의 심장 질환 측정부는 심장 질환 측정용 인공지능 신경망과 혼용되어 사용될 수 있다.Hereinafter, the heart disease measurement unit of the present invention may be used in conjunction with an artificial intelligence neural network for heart disease measurement.

이하, 본 발명에서의 망막 질환 측정부는 망막 분석용 인공지능 신경망과 혼용되어 사용될 수 있다.Hereinafter, the retinal disease measurement unit of the present invention may be used in conjunction with an artificial intelligence neural network for retinal analysis.

본 발명의 인공지능 신경망은 혈압 측정용 인공지능 신경망, 콜레스테롤 측정용 인공지능 신경망, 혈당 측정용 인공지능 신경망, 심장 질환 측정용 인공지능 신경망, 또는 망막 분석용 인공지능 신경망 일수 있다.The artificial intelligence neural network of the present invention may be an artificial intelligence neural network for measuring blood pressure, an artificial intelligence neural network for measuring cholesterol, an artificial intelligence neural network for measuring blood sugar, an artificial intelligence neural network for measuring heart disease, or an artificial intelligence neural network for analyzing the retina.

본 발명에서의 생체신호는 망막 이미지, ECG신호, PPG신호, 산소포화도, PTT, PAT, PWV, HRV, 글루코스 스펙트로스코피(임피던스 주파수응답), 체지방 중 선택된 어느 하나 이상을 포함할 수 있다.The biosignal in the present invention may include at least one selected from retinal images, ECG signals, PPG signals, oxygen saturation, PTT, PAT, PWV, HRV, glucose spectroscopy (impedance frequency response), and body fat.

본 발명에서 글루코스 스펙트로스코피(glucose spectroscopy)는 스펙트로그램(spectrogram) 내지 스켈로그램(scalogram)이 될 수 있다.In the present invention, glucose spectroscopy may be a spectrogram or a scalogram.

본 발명에서의 ECG 신호는 심전도 측정에 사용될 수 있다.The ECG signal in the present invention can be used for electrocardiogram measurement.

본 발명에서 로봇은 본 발명을 따르는 핸드 프린트(hand print)을 포함하고 있는 PC(personal computer), 컴퓨터 입력장치인 마우스(mouse), 마우스 패드, 노트북, 핸드폰, 태블릿 PC, 터치스크린 장치, 스마트 미러일 수 있다.In the present invention, the robot may be a personal computer (PC), a computer input device such as a mouse, a mouse pad, a laptop, a mobile phone, a tablet PC, a touchscreen device, or a smart mirror including a hand print according to the present invention.

이하, 본 발명에서 환자, 사람, 피 측정자 또는 사용자는 혼용되어 사용될 수 있다.Hereinafter, in the present invention, patient, person, subject or user may be used interchangeably.

이하, 개인 신체 정보는 체열, 혈액형, 성(sex), 나이, 키(body height), 몸무게, 표준 혈압치 중 적어도 어느 하나 이상을 포함하는 정보인 것을 특징으로 한다.Hereinafter, personal body information is characterized as information that includes at least one of body temperature, blood type, sex, age, body height, weight, and standard blood pressure.

본원의 일 실시예에 따르면 의료기기는 환자로부터 측정된 의료 데이터를 근거리 무선 통신(예컨대 NFC 인터페이스부, 인터넷 연결, 블루투스 통신 연결부 또는 적외선 통신 부)에 의해 로봇의 생체 신호 수집부에 제공하는 기기로서 헬스 케어 어플이 포함된 핸드폰, 스마트 워치, 안경형 스마트 기기, 초음파 스캐너, 열화상 카메라, 변기에 설치된 대변 검사기, 변기에 설치된 소변 검사기, 혈압 측정 장치, 혈당 측정기, 체지방 측정기, 체중계, 청진기, 온도계, 인후통 내지 치아 상태를 보여주는 이미지 센서, 혈액 분석기, DNA 증폭 검사 장치, 바이러스의 특이 항원을 이용해 진단하는 바이러스 진단 키트 기기, 바이오 마커(bio marker)를 사용한 래피드 테스트(Rapid test) 기기, 치매 검사기기, 웨어러블(wearable) 기기, 암 진단 기기, POCT(Point of Care Testing) 기기, 헬스케어 기기 중 선택된 의료 기기 중 적어도 어느 하나를 포함할 수 있다.According to one embodiment of the present invention, a medical device is a device that provides medical data measured from a patient to a bio-signal collection unit of a robot via short-range wireless communication (e.g., an NFC interface, an Internet connection, a Bluetooth communication connection, or an infrared communication unit), and may include at least one medical device selected from among a mobile phone having a healthcare app, a smartwatch, a glasses-type smart device, an ultrasound scanner, a thermal imaging camera, a stool tester installed in a toilet, a urine tester installed in a toilet, a blood pressure measuring device, a blood sugar measuring device, a body fat measuring device, a scale, a stethoscope, a thermometer, an image sensor showing a sore throat or dental condition, a blood analyzer, a DNA amplification testing device, a virus diagnostic kit device that diagnoses using a specific antigen of a virus, a rapid test device using a biomarker, a dementia testing device, a wearable device, a cancer diagnostic device, a POCT (Point of Care Testing) device, and a healthcare device.

상기 웨어러블(wearable) 기기는 환자의 피부에 부착되는 패치(patch)형 웨어러블 기기가 선호되며, 패치 내에 내장된 센서에 의해 환자의 피부 표면에서 심전도, 혈압, 콜레스테롤 또는 혈당을 비침습적으로 측정한 데이터를 블루투스 통신 연결을 통해, 로봇의 생체 신호 수집부에 무선 전송하는 것이 선호된다.The wearable device is preferably a patch-type wearable device that is attached to the patient's skin, and it is preferred that data obtained by non-invasively measuring electrocardiogram, blood pressure, cholesterol or blood sugar from the patient's skin surface by a sensor built into the patch be wirelessly transmitted to the robot's bio-signal collection unit via a Bluetooth communication connection.

상기 패치형 웨어러블 기기는 혈당 센서를 내장한 패치를 피부에 테이프로 붙인 다음, 상기 패치에 로봇 핸드를 갖다 대면, NFC인터페이스에 의해 로봇 핸드에 내장된 리더기로 상기 패치에 동력을 공급해 혈액 내 물과 포도당의 비율을 측정해 혈당을 측정하여 로봇의 생체 신호 수집부에 혈당 수치를 제공하는 기기일수 있다.The above patch-type wearable device may be a device that measures blood sugar levels by supplying power to the patch with a reader built into the robot hand via an NFC interface when a patch with a blood sugar sensor is taped to the skin and a robot hand is brought near the patch, thereby measuring the ratio of water and glucose in the blood and providing the blood sugar level to the robot's biosignal collection unit.

상기 패치형 웨어러블 기기의 또 다른 측면은 복부, 팔, 엉덩이 등 피하지방에 부착된 센서를 통해 세포 간질액(세포와 세포 사이를 채우는 액체 성분)의 포도당 농도를 주기적 간격으로 측정하여, 측정 결과를 근거리 무선 통신 연결을 통해 로봇의 생체 신호 수집부에 전송하는 연속혈당측정기(CGM, Continuous Glucose Monitoring) 일수 있다.Another aspect of the above patch-type wearable device may be a continuous glucose monitoring (CGM) device that measures the glucose concentration of interstitial fluid (the liquid component that fills between cells) at periodic intervals through sensors attached to subcutaneous fat such as the abdomen, arms, and buttocks, and transmits the measurement results to the robot's biosignal collection unit via a short-range wireless communication connection.

도 1은 본 발명에 따른 AI-헬스케어 로봇 장치(100)의 일실시예로, AI-헬스케어 로봇 장치(100)는 로봇(100a)의 가슴 패널(10)에 설치될 뿐만 아니라 사람의 손(72R,72L)과의 접촉을 허용하는 오른손 핸드 프린트(70R) 및 왼손 핸드 프린트(70L), 상기 핸드 프린트(70R,70L) 에 매설되어 사람의 손(72R,72L)과 접촉 동안 사람의 생체 신호 측정과 상기 생체 신호 측정 동안 사용자 인증을 동시에 수행하는 핸드 바이오 센서, 상기 로봇(100a)의 눈 부위에 설치되어 사람의 망막 이미지를 채집하는 위한 망막 이미지 센서를 포함하는 망막 이미지 측정부(79), 로봇(100a)의 머리부위에 설치되어, 피 측정자의 신체 이미지를 획득하기 위한 비젼 카메라(22), 및 상기 핸드 바이오 센서 및 망막 이미지 센서로부터 얻어진 생체 신호들은 분석하는 디지털 생체 신호 분석 모듈(400)을 포함한다.FIG. 1 is a diagram showing an embodiment of an AI-healthcare robot device (100) according to the present invention. The AI-healthcare robot device (100) includes a right-hand hand print (70R) and a left-hand hand print (70L) which are installed on a chest panel (10) of a robot (100a) and allow contact with a human hand (72R, 72L), a hand biosensor which is embedded in the hand print (70R, 70L) and performs measurement of a human biosignal during contact with the human hand (72R, 72L) and user authentication during the measurement of the biosignal, a retinal image measuring unit (79) which is installed on an eye area of the robot (100a) and includes a retinal image sensor for collecting a retinal image of the human, a vision camera (22) which is installed on a head area of the robot (100a) and obtains a body image of a subject, and a digital biosignal analysis module (400) which analyzes biosignals obtained from the hand biosensor and the retinal image sensor.

상기 핸드 바이오 센서 및 망막 이미지 센서는 환자와의 신체 접촉에 의해 환자의 생체 신호를 획득할 수 있다.The above hand biosensor and retinal image sensor can obtain a patient's biosignals by physical contact with the patient.

또한, 로봇(100a)에는 두 개의 레이저(14a,14b)가 설치되어 피 측정자와의 거리를 측량할 수 있으며, 제어부(53)은 생체 신호의 분석한 결과를 스피커부(38a)를 통해 사용자에게 음성 메시지로 제공하거나 대화형으로 사용자에게 생체신호 측정을 요구하기 위해 스피커부(38a)와 마이크부(38b)를 구동 할 수 있다.In addition, the robot (100a) is equipped with two lasers (14a, 14b) to measure the distance to the subject of measurement, and the control unit (53) can provide the result of analyzing the bio-signal to the user as a voice message through the speaker unit (38a) or drive the speaker unit (38a) and the microphone unit (38b) to interactively request the user to measure the bio-signal.

상기 두 개의 레이저(14a,14b)로부터 주사된 빔(beam)은 일정거리 후에 서로 교차되도록 서로에 대해 소정의 각도를 갖고 설치된다.The beams injected from the two lasers (14a, 14b) are installed at a predetermined angle with respect to each other so that they intersect each other after a predetermined distance.

따라서, 상기 두 개의 레이저로부터 주사된 빔(beam)은 일정거리 후에는 서로 교차되며, 피 측정자의 몸에 맺힌 상기 두 레이저 빔 스폿(beam spot)간의 직선 거리를 측량하여 피 측정자와 로봇간의 거리를 산정할 수 있다.Accordingly, the beams injected from the two lasers intersect each other after a certain distance, and the straight-line distance between the two laser beam spots focused on the body of the subject can be measured to calculate the distance between the subject and the robot.

본 발명의 눈 네비게이터(79a)는 비젼 카메라(22)에 의해 피 측정자의 얼굴 및 눈을 인식하여, 피 측정자의 얼굴 정면에 로봇 얼굴이 마주하도록 로봇의 위치를 제어한다.The eye navigator (79a) of the present invention recognizes the face and eyes of the subject by the vision camera (22) and controls the position of the robot so that the robot face faces the front of the subject's face.

또한, 눈 네비게이터(79a)는 비젼 카메라(22)를 이용하여 피 측정자의 몸에 맺힌 두 개의 레이저 빔 스폿(beam spot)간의 거리 간격을 측량할 수 있는 이미지를 획득하여 로봇(100a)과 피 측정자간의 거리를 산정하고, 이 산정된 거리를 참고하여, 로봇(100a)이 피 측정자의 얼굴 정면과 적정거리로 접근하도록 로봇을 이동 제어할 수 있다. 이를 통해, 피 측정자의 눈(62)과 망막 이미지 센서(42)간에 광로 (optical path) 정렬이 이루어 지도록 할 수 있다.In addition, the eye navigator (79a) obtains an image that can measure the distance between two laser beam spots focused on the body of the subject by using the vision camera (22), calculates the distance between the robot (100a) and the subject, and with reference to the calculated distance, controls the movement of the robot (100a) so that it approaches the front of the subject's face at an appropriate distance. Through this, the optical path can be aligned between the subject's eye (62) and the retinal image sensor (42).

본 발명의 눈 네비게이터(79a)의 또 다른 측면은 음성 메시지 명령에 의해 피 측정자가 망막 이미지 측정부(79)의 접안부에 밀착하도록 피 측정자에게 요구 할 수 있다.Another aspect of the eye navigator (79a) of the present invention is that it can request the subject to come into close contact with the ocular portion of the retinal image measuring unit (79) by a voice message command.

본 발명의 눈 네비게이터(79a)의 또 다른 측면은 압력 센서(40) 내지 온도 센서(25) 에 의해 접안부(31)에 접촉한 피 측정자 눈 부위 접촉 압력이 불충분하다고 판단된 경우, 이를 음성 메시지 명령에 의해 밀착 접촉할 것을 피 측정자에게 요구할 수 있다.Another aspect of the eye navigator (79a) of the present invention is that when the pressure of the eye part of the subject being measured in contact with the ocular portion (31) is judged to be insufficient by the pressure sensor (40) or the temperature sensor (25), the subject can be requested to make close contact by a voice message command.

본 발명의 눈 네비게이터(79a)의 또 다른 측면은 음성 메시지 명령에 의해 오른손 핸드 프린트(70R) 및 왼손 핸드 프린트(70L)상에 피 측정자의 손(손가락, 손바닥)이 접촉하도록 피 측정자에게 요구할 수 있다.Another aspect of the eye navigator (79a) of the present invention is that it can request the subject to make contact with his or her hand (fingers, palm) on the right hand print (70R) and the left hand print (70L) by voice message command.

본 발명의 눈 네비게이터(79a)의 또 다른 측면은 핸드 프린트 (70L,70R)의 표면과 접촉한 피 측정자 손의 접촉 위치 및 접촉 범위가 불충분하다고 판단된 경우,이를 음성 메시지 명령에 의해 피 측정자에게 통지 할 수 있다.Another aspect of the eye navigator (79a) of the present invention is that when it is determined that the contact location and contact range of the subject's hand in contact with the surface of the hand print (70L, 70R) are insufficient, it can notify the subject of this by a voice message command.

본 발명의 핸드 프린트(70R,70L)는 피 측정자의 손(72R,72L)과의 접촉을 허용하는 손 모양의 음각부를 포함하고, 상기 음각부의 표면상에는 피 측정자의 손(72R,72L)과의 접촉 동안 피 측정자의 생체 신호 획득 및 사용자 인증을 동시에 수행하는 핸드 바이오 센서가 매설될 수 있다.The hand print (70R, 70L) of the present invention includes a hand-shaped engraved portion that allows contact with a hand (72R, 72L) of a subject, and a hand biosensor that simultaneously acquires a subject's biosignal and authenticates a user during contact with the subject's hand (72R, 72L) can be embedded on the surface of the engraved portion.

본 발명의 핸드 프린트(70R,70L)의 또 다른 측면은 터치 스크린, 상기 터치스크린상에 표시되는 가상의 손가락 패턴(34) 및 핸드 바이오 센서(24a,24b,24c,24d, 26,35)를 포함할 수 있다. 이때 피 측정자는 자신의 손가락을 상기 가상의 손가락 패턴(34)에 정렬시켜 터치 스크린(11)상에 올려놓으면, 상기 핸드 바이오 센서에 의해 피 측정자의 생체 신호 측정과 동시에 사용자 인증을 수행할 수 있다Another aspect of the hand print (70R, 70L) of the present invention may include a touch screen, a virtual finger pattern (34) displayed on the touch screen, and a hand biosensor (24a, 24b, 24c, 24d, 26, 35). At this time, when the subject of measurement aligns his/her finger to the virtual finger pattern (34) and places it on the touch screen (11), the hand biosensor can measure the subject's biosignal and perform user authentication at the same time.

상기 핸드 바이오 센서(24a,24b,24c,24d, 26,35)들은 상기 가상의 손가락 패턴(34)상의 각각의 손가락과 정렬이 되도록 배치되고, ECG센서(48)는 가상의 손가락 패턴(34)의 손바닥 부분에 노출되어 배치되는 것이 선호 된다.The above hand biosensors (24a, 24b, 24c, 24d, 26, 35) are arranged so as to be aligned with each finger on the virtual finger pattern (34), and the ECG sensor (48) is preferably arranged so as to be exposed to the palm portion of the virtual finger pattern (34).

도 2는 본 발명에 따른 AI-헬스케어 로봇 장치의 디지털 생체 신호 분석 모듈(400)의 일실시예로, AI-헬스케어 로봇 장치의 디지털 생체 신호 분석 모듈(400)은 핸드 바이오 센서로부터 얻어진 생체 신호를 증폭하거나 디지털 신호로 변환하는 바이오 센싱부(440), 상기 바이오 센싱부(440)로부터 얻어진 디지털 신호화된 생체 신호, 망막 이미지 측정부(79)로부터 얻어진 망막 이미지 내지 근거리 무선 통신 연결부(8)에 의해 외부 의료기기(430)들에 의해 측정된 의료 데이터를 수집하기 위한 생체 신호 수집부(420), 외부의 의료기기(430)로부터 측정된 의료 데이터를 수신하여 상기 생체 신호 수집부(420)로 전달하는 근거리 무선 통신 연결부(8), 상기 생체 신호 수집부(420)에 의해 수집된 생체 신호 중 사용자 인증이 완료된 생체 신호 성분 중 유효한 생체신호 부분만을 걸러내는 생체신호 유효 판별 수단(420a), 상기 생체 신호 수집부(420)에 의해 수집된 생체 신호를 저장하기 위한 의료 데이터 저장부(15), 상기 의료 데이터 저장부(15)에 저장된 의료 데이터를 인터넷(202)을 통해 서버(13)에 전송하고, 이후 상기 서버(13)상의 인공지능 신경망(16) 내지 전문가 시스템(18)에 의해 상기 의료 데이터의 분석한 결과를 피드백 받기 위한 무선 통신 연결 수단(37); 및 상기 바이오 센싱부(440), 생체 신호 수집부(420), 의료데이터 저장부(15) 및, 무선 통신 연결 수단(37)을 제어하고 상기 의료 데이터의 분석한 결과를 스크린 내지 문자/음성 메시지를 통해 사용자에게 제공하는 제어부(53)를 포함할 수 있다. FIG. 2 is an example of a digital biosignal analysis module (400) of an AI-healthcare robot device according to the present invention. The digital biosignal analysis module (400) of the AI-healthcare robot device includes a biosensing unit (440) that amplifies or converts a biosignal obtained from a hand biosensor into a digital signal, a biosignal collection unit (420) for collecting a digitalized biosignal obtained from the biosensing unit (440), a retinal image obtained from a retinal image measurement unit (79), or medical data measured by external medical devices (430) by a short-range wireless communication connection unit (8), a short-range wireless communication connection unit (8) for receiving medical data measured from an external medical device (430) and transmitting it to the biosignal collection unit (420), a biosignal validity determination means (420a) for filtering out only a valid biosignal portion among the biosignal components for which user authentication has been completed among the biosignals collected by the biosignal collection unit (420), and a medical storage unit for storing the biosignal collected by the biosignal collection unit (420). It may include a data storage unit (15), a wireless communication connection means (37) for transmitting medical data stored in the medical data storage unit (15) to a server (13) via the Internet (202), and thereafter receiving feedback on the analysis results of the medical data by an artificial intelligence neural network (16) or an expert system (18) on the server (13); and a control unit (53) for controlling the biosensing unit (440), the biosignal collection unit (420), the medical data storage unit (15), and the wireless communication connection means (37) and providing the analysis results of the medical data to the user via a screen or text/voice message.

상기 생체 신호 수집부(420)는 생체신호 유효 판별 수단(420a)을 구비하여, 생체 신호 수집부(420)에 의해 수집된 생체 신호들 중 사용자 인증이 완료되고 동시에 유효한 생체신호 (망막 이미지, ECG신호, PPG신호, 산소포화도, 글루코스 스펙트로스코피, 체지방, 체온)만을 걸러서 의료 데이터 저장부(15)에 저장한다.The above biosignal collection unit (420) is equipped with a biosignal validity determination means (420a) to filter out only the biosignals (retinal images, ECG signals, PPG signals, oxygen saturation, glucose spectroscopy, body fat, body temperature) that have been verified by the user and are valid among the biosignals collected by the biosignal collection unit (420) and store them in the medical data storage unit (15).

또한, 상기 ECG신호와 PPG신호간의 상관관계로부터 PTT(Pulse Transit Time), 맥파 전달 속도(PWV, Pulse Wave Velocity), Pulse Arrival Time(PAT), HRV(Heart Rate Variability) 같은 생체 신호를 추가적으로 얻을 수 있다.In addition, biosignals such as Pulse Transit Time (PTT), Pulse Wave Velocity (PWV), Pulse Arrival Time (PAT), and Heart Rate Variability (HRV) can be additionally obtained from the correlation between the ECG signal and the PPG signal.

이들 의료 데이터 저장부(15)에 저장된 의료데이터는 인공지능 신경망(16), 전문가 시스템(18) 과 건강 추적 관리부(39)에 의해 피 측정자의 건강을 분석하고 관리하도록 하는 데에 활용된다.The medical data stored in these medical data storage units (15) are used to analyze and manage the health of the subject by an artificial intelligence neural network (16), an expert system (18), and a health tracking management unit (39).

다시 말해, 상기 생체신호 유효 판별 수단(420a)은 바이오 센싱부(440) 및 망막 이미지 측정부(79)로부터 수집된 생체 신호들 중 사용자 인증이 완료된 생체 신호 성분 중 유효한 생체신호 부분만 걸러내는 역할을 하게 된다.In other words, the bio-signal validity determination means (420a) filters out only the valid bio-signal portions among the bio-signal components for which user authentication has been completed among the bio-signals collected from the bio-sensing unit (440) and the retinal image measurement unit (79).

상기 생체신호 유효 판별 수단(420a)은 1-D(Dimension) 인공지능 신경망, LSTM(Long short time Memory), 자기 상관 계수(Auto Correlation Coefficient), 유효 범위 체크 방법, 표준(기준) 생체 신호의 특징 벡터와 수집된 생체 신호의 특징벡터간의 상호 상관 계수 중 선택된 어느 하나 이상의 기법을 사용하는 것이 선호된다.It is preferred that the above bio-signal validity determination means (420a) use at least one technique selected from among a 1-D (Dimension) artificial intelligence neural network, LSTM (Long short time Memory), auto-correlation coefficient, a validity range check method, and a cross-correlation coefficient between a feature vector of a standard (reference) bio-signal and a feature vector of a collected bio-signal.

바람직하게는, 상기 상호 상관 계수는 SSD(Sum of Squared Difference), SAD(Sum of Absolute Difference), Euclidean Distance, KNN (K-nearest neighbor algorithm), NCC(Normalized Cross Correlation) 중 어느 하나를 사용하여 두 성분 간에 유사도 내지 상관성 정도를 산출하는 것이 선호된다.Preferably, the cross-correlation coefficient is preferably calculated to measure the degree of similarity or correlation between two components by using one of the Sum of Squared Difference (SSD), Sum of Absolute Difference (SAD), Euclidean Distance, KNN (K-nearest neighbor algorithm), and NCC (Normalized Cross Correlation).

예컨대 표준(기준) 생체 신호의 특징 벡터 와 바이오 센싱부(440)를 통해 수집된 생체 신호의 특징 벡터 간에 상호 상관 계수가 정해진 문턱치보다 큰 경우, 바이오 센싱부(440)를 통해 수집된 생체 신호는 유효한 생체 신호라 판단한다. For example, if the cross-correlation coefficient between the feature vector of the standard (reference) biosignal and the feature vector of the biosignal collected through the biosensing unit (440) is greater than a set threshold, the biosignal collected through the biosensing unit (440) is determined to be a valid biosignal.

표준(기준) 생체 신호는 통계적으로 정상인의 생체 신호의 특성과 수치를 보여주는 생체 신호로, 표준(기준) 생체 신호의 특징 벡터는 정상인의 생체 신호에 대한 특성 벡터의 평균값들이 사용될 수 있으며 복수개의 표준(기준) 생체신호의 특징 벡터가 사용될 수 있다.A standard (reference) bio-signal is a bio-signal that statistically shows the characteristics and values of a normal person's bio-signal. The feature vector of a standard (reference) bio-signal can be the average values of the feature vectors for a normal person's bio-signal, and feature vectors of multiple standard (reference) bio-signals can be used.

상기 생체 신호의 특징 벡터는 딥런닝 신경회로망(Deep learning Neural Network) 내지 주파수 영역의 스펙트럼(spectrum) 분석에 의해 추출될 수 있다.The feature vector of the above biosignal can be extracted by a deep learning neural network or spectrum analysis in the frequency domain.

예컨대 상기 딥런닝 신경회로망(Deep learning Neural Network)은 1-D CNN(Convolutional Neural Network)이 될 수 있다.For example, the above deep learning neural network can be a 1-D CNN (Convolutional Neural Network).

상기 주파수 영역의 스펙트럼 분석에 의한 특징 벡터는 주파수 성분 분석, STFT(Short time Fourier Transform), 웨이블릿 변환(Wavelet transform), MFCC(Mel-Frequency Cepstral Coefficient), Linear Prediction Codes(LPC), Mel-Frequency Cepstral Coefficient(MFCC), Mel-Coefficient, Perceptual Linear Prediction(PLP) 또는 Bark Frequency Cepstral Coefficients (BFCC)에 의해 추출 된 것 일수 있다.The feature vector by spectral analysis of the above frequency domain may be extracted by frequency component analysis, Short time Fourier Transform (STFT), Wavelet transform, Mel-Frequency Cepstral Coefficient (MFCC), Linear Prediction Codes (LPC), Mel-Frequency Cepstral Coefficient (MFCC), Mel-Coefficient, Perceptual Linear Prediction (PLP), or Bark Frequency Cepstral Coefficients (BFCC).

상기 1-D 인공지능 신경망 내지 LSTM에 의한 생체신호 유효 판별 수단(420a)은 유효 생체 신호 또는 무효 생체 신호로 표지된 생체 신호들을 이용하여 학습된 1-D 인공지능 신경망에 의해 피 측정자의 생체 신호의 유효성을 판별할 수 있다.The above 1-D artificial intelligence neural network or LSTM-based bio-signal validity determination means (420a) can determine the validity of a subject's bio-signal by using a 1-D artificial intelligence neural network learned using bio-signals labeled as valid or invalid bio-signals.

체온의 경우 유효범위는 10도에서 40도가 바람직하며, 이 범위내의 체온이 1초 이상 같은 온도 상태를 유지되는 경우 유효한 체온 신호로서 인정되는 것이 바람직하다.In the case of body temperature, the effective range is preferably 10 to 40 degrees, and it is desirable that a body temperature within this range be recognized as a valid body temperature signal if it remains at the same temperature for more than 1 second.

상기 사용자 인증은 지문 센서(26) 로부터 사용자의 지문을 채취하여 지문 인증부(75)에 의해 이루어 질 수 있다.The above user authentication can be performed by a fingerprint authentication unit (75) by collecting the user's fingerprint from a fingerprint sensor (26).

상기 바이오 센싱부(440)는 지문 인증부(75), 체열 측정부(74), 심전도 측정부(71), 산소 포화도 및 PPG신호 측정부(72), 체지방 측정부(77), 글루코스 측정부 (78)를 포함하며, 상기 지문 인증부(75)는 사용자 인증을 위한 지문 센서(26), 심전도 측정부(71)는 심전도를 측정하기 위한 ECG센서(48), 산소 포화도 및 PPG신호 측정부(72)는 산소 포화도 및 광전 용적 맥파 신호를 측정하기 위한 SpO2 센서(35), 체지방 측정부(77)는 체지방을 측정하기 위한 복수의 손전극(24a,24b,24c,24d), 글루코스 측정부(78)는 글루코스 스펙트로스코피(spectroscopy)를 얻기 위한 혈당 센서에 각각 전기적으로 연결된다.The above biosensing unit (440) includes a fingerprint authentication unit (75), a body temperature measurement unit (74), an electrocardiogram measurement unit (71), an oxygen saturation and PPG signal measurement unit (72), a body fat measurement unit (77), and a glucose measurement unit (78). The fingerprint authentication unit (75) is electrically connected to a fingerprint sensor (26) for user authentication, the electrocardiogram measurement unit (71) is electrically connected to an ECG sensor (48) for measuring an electrocardiogram, the oxygen saturation and PPG signal measurement unit (72) is electrically connected to an SpO2 sensor (35) for measuring oxygen saturation and a photoelectric volume pulse signal, the body fat measurement unit (77) is electrically connected to a plurality of hand electrodes (24a, 24b, 24c, 24d) for measuring body fat, and the glucose measurement unit (78) is electrically connected to a blood sugar sensor for obtaining glucose spectroscopy.

본 발명에서 혈당센서는 손전극(24a,24b,24c,24d)을 사용하여 구성하는 것이 선호 된다.In the present invention, it is preferred that the blood sugar sensor be configured using hand electrodes (24a, 24b, 24c, 24d).

또한, 망막 질환 측정부(20e)는 상기 망막 이미지 측정부(79)의 망막 이미지 센서(42)에 의해 얻어진 피 측정자의 망막 이미지를 분석하여 피 측정자의 안구 질환 및 치매의 위험요소를 파악할 수 있다.In addition, the retinal disease measurement unit (20e) can analyze the retinal image of the subject obtained by the retinal image sensor (42) of the retinal image measurement unit (79) to identify risk factors for eye diseases and dementia of the subject.

또한, 제어부(53)는 사용자에게 생체 신호 측정을 요구하는 음성 메시지를 사용자에게 전달할 수 있다. Additionally, the control unit (53) can transmit a voice message to the user requesting biosignal measurement.

예컨대 음성 재생을 위한 스피커부(38a)와 음성인식을 위한 마이크부(38b)를 이용하여 대화형으로 사용자에게 생체신호 측정을 요구할 수 있다.For example, a speaker section (38a) for voice reproduction and a microphone section (38b) for voice recognition can be used to interactively request a user to measure biosignals.

음성재생부(28a)는 음성을 재생하며, 음성 인식부(27a)는 사용자의 음성을 인식한다.The voice reproduction unit (28a) reproduces voice, and the voice recognition unit (27a) recognizes the user's voice.

또한, 제어부(53)는 생체 신호 및 의료 데이터의 변화 추이를 관찰하여 사용자에게 위험도를 알려주거나 집중 케어 검사가 필요한 항목을 알려주거나 다음 검사 일정을 사용자에게 알려주는 건강 추적 관리부(39)를 포함할 수 있다.In addition, the control unit (53) may include a health tracking management unit (39) that observes changes in bio-signals and medical data to inform the user of the level of risk, inform the user of items requiring intensive care examination, or inform the user of the next examination schedule.

또한 건강 추적 관리부(39)는 환자 마다의 검사 일정을 스케쥴링(scheduling) 하고,In addition, the health tracking management department (39) schedules examination schedules for each patient.

상기 눈 네비게이터는 상기 건강 추적 관리부에 의해 발굴된 집중 케어가 필요한 환자에 대해 생체신호 검사를 자동으로 진행하거나 상기 환자 마다의 검사 일정에 맞추어서 생체신호 검사를 자동으로 진행하기 위해, 상기 비젼 카메라에 의해 환자 얼굴을 인식하여 생체 검사가 필요한 환자를 탐색 방문하도록 로봇을 이동 제어할 수 있다.The above eye navigator can automatically perform a bio-signal examination on a patient in need of intensive care identified by the health tracking management department, or can control the robot to move to visit a patient in need of a bio-signal examination by recognizing the patient's face by the vision camera to automatically perform a bio-signal examination according to the examination schedule of each patient.

또한, 상기 제어부(53)는 체열 측정부(74)를 통해 생체 신호 수집부(420)에 의해 수집된 환자의 온도가 비정상적인 체열 온도인 경우, 이상 체열 의심 대상자로 판별하기 위한 체열 진단부(19)를 포함할 수 있다. In addition, the control unit (53) may include a body temperature diagnosis unit (19) for determining a patient as suspected of having abnormal body temperature if the patient's temperature collected by the bio-signal collection unit (420) through the body temperature measurement unit (74) is abnormal.

체열 진단부(19)는 사용자의 체열이 37.5도 이상인 경우 이상 체열 의심 대상자로 상정(결정)할 수 있다. The body temperature diagnosis unit (19) can presume (decide) that the user is suspected of having abnormal body temperature if the user's body temperature is 37.5 degrees or higher.

또한, 망막 이미지 측정부(79)는 비젼 카메라(22)로부터 캡쳐된 이미지를 이용하여 피 측정자의 눈의 위치를 인식하고, 피 측정자의 눈(62) 과 망막 이미지 센서(42)간의 광축 (광로)정렬을 이루도록 로봇을 이동 제어하는 눈 눈 네비게이터(79a), 및 망막 이미지 센서(42) 와 피 측정자의 망막(60)간의 초점거리가 조정하기 위한 초점 거리 조정 구동부(79b)를 포함한다.In addition, the retinal image measuring unit (79) includes an eye navigator (79a) that recognizes the position of the eye of the subject using an image captured from a vision camera (22) and controls the movement of a robot to achieve optical axis (optical path) alignment between the eye (62) of the subject and the retinal image sensor (42), and a focal distance adjustment driving unit (79b) for adjusting the focal distance between the retinal image sensor (42) and the retina (60) of the subject.

상기 제어부(53)는 피 측정자의 망막과 망막 이미지 센서간의 최적화된 초점 거리와 광학 정열을 유지하도록 상기 눈 네비게이터(79a) 와 초점 거리 조정 구동부(79b)를 제어 할 수 있다.The above control unit (53) can control the eye navigator (79a) and the focal length adjustment driving unit (79b) to maintain an optimized focal length and optical alignment between the subject's retina and the retinal image sensor.

도 2의 실시예를 따르는 AI-헬스케어 로봇 장치의 디지털 생체 신호 분석 모듈(400)의 또 다른 측면은, 서버(13)상에 구축된 서비스 응용 프로그램인 인공지능 신경망(16)을 사용하는 대신에 AI-헬스케어 로봇 장치의 디지털 생체 신호 분석 모듈(400) 내지 핸드폰상에 상주하고, 어플(application software)로서 설치되는 인공지능 신경망 앱(12)을 구비하여, 핸드 바이오 센서 및 망막 이미지 센서 또는 의료기기들에 의해 측정된 의료 데이터를 분석하여 그 결과를 사용자에게 제공하는 것을 특징으로 한다.Another aspect of the digital bio-signal analysis module (400) of the AI-healthcare robot device following the embodiment of FIG. 2 is characterized in that, instead of using an artificial intelligence neural network (16), which is a service application program built on a server (13), the digital bio-signal analysis module (400) of the AI-healthcare robot device or an artificial intelligence neural network app (12) that resides on a mobile phone and is installed as an application (application software) analyzes medical data measured by a hand bio-sensor and a retinal image sensor or medical devices and provides the results to the user.

이 경우 상기 인공지능 신경망 앱(12)은 버전 업그레이드에 따라 AI- 로봇 메디컬 핸드 장치의 성능 개선을 꾸준히 개선할 수 있는 장점을 제공한다.In this case, the artificial intelligence neural network app (12) provides the advantage of continuously improving the performance of the AI-robot medical hand device according to version upgrades.

도 3a는 피 측정자의 손과의 접촉을 통해 피 측정자의 생체신호를 수집하는 핸드 바이오 센서가 오른손 핸드 프린트 (70R)과 왼손 핸드 프린트 (70L)상의 손가락 끝 내지 손바닥에 매설되어 배치된 예시로, 오른손 핸드 프린트 (70R)과 왼손 핸드 프린트 (70L)는 로봇(100a)의 가슴 패널(10)상에 설치되는 것이 선호 된다.FIG. 3a is an example in which hand biosensors for collecting bio-signals of a subject through contact with the subject's hand are installed and arranged on the fingertips or palms of a right hand print (70R) and a left hand print (70L). It is preferred that the right hand print (70R) and the left hand print (70L) be installed on the chest panel (10) of a robot (100a).

이 경우 피 측정자가 양손(72L,72R) 각각을 왼손 핸드 프린트 (70L) 와 오른손 핸드 프린트 (70R) 에 접촉하면, 왼손 핸드 프린트 (70L) 로부터는 지문 센서(26)에 의해 피 측정자의 지문 인식 과 더불어, SpO2센서(35)에 의한 산소 포화도 및 광전 용적 맥파 신호를 측정하는 동시에 오른손 핸드 프린트 (70L) 로 부터는 피 측정자의 체지방, 글루코스 스펙트로스코피(임피던스 주파수응답), 및 심전도를 동일한 싯점에 측정할 수 있다.In this case, when the subject touches the left hand print (70L) and the right hand print (70R) with each of the two hands (72L, 72R), the subject's fingerprint is recognized by the fingerprint sensor (26) from the left hand print (70L), and the oxygen saturation and photoelectric pulse signal are measured by the SpO2 sensor (35), while the subject's body fat, glucose spectroscopy (impedance frequency response), and electrocardiogram can be measured at the same time from the right hand print (70L).

생체신호가 피 측정자의 바디 컨디션과 시간에 따라 수시로 변한다는 점을 고려하면 , 정확한 피 측정자의 상태를 정확히 측정하기 위해서는 동일한 싯점에 생체 신호를 획득하는 것은 중요하다.Considering that biosignals change frequently depending on the subject's body condition and time, it is important to acquire biosignals at the same time in order to accurately measure the subject's condition.

예컨대, 손전극들(24a,24b,24c,24d)을 사용하여 체지방 및 글루코스 스펙트로스코피(임피던스 주파수응답)를 동일한 시간에 측정할 수 있으며, 이와 동시에 ECG 센서 (48) 와 손전극 1(24a)을 사용하여 심전도도 측정 할 수 있다. For example, body fat and glucose spectroscopy (impedance frequency response) can be measured at the same time using hand electrodes (24a, 24b, 24c, 24d), and at the same time, an electrocardiogram can be measured using an ECG sensor (48) and hand electrode 1 (24a).

본 실시예에서는 왼손 핸드 프린트(70L)의 손가락 끝에는 지문 센서(26), SpO2센서(35)를 포함하는 핸드 바이오 센서를 포함한다.In this embodiment, the fingertips of the left hand print (70L) include a hand biosensor including a fingerprint sensor (26) and an SpO2 sensor (35).

반면, 오른손 핸드 프린트 (70R) 의 손바닥에는 ECG 센서(48) 를 포함하는 핸드 바이오 센서를 포함한다.In contrast, the palm of the right hand print (70R) includes a hand biosensor including an ECG sensor (48).

또한 본 예시에서는 왼손 핸드 프린트 (70L)의 엄지 손가락 과 검지 끝 부분에 각각 손 전극1(24a) 과 손 전극2(24b)를 포함하고, 오른손 핸드 프린트(70R)의 엄지 손가락과 검지 끝부분에 각각 손 전극3(24c), 손 전극4(24d)를 포함한다.In addition, this example includes hand electrode 1 (24a) and hand electrode 2 (24b) at the tips of the thumb and index finger, respectively, of the left hand print (70L), and hand electrode 3 (24c) and hand electrode 4 (24d) at the tips of the thumb and index finger, respectively, of the right hand print (70R).

상기 손 전극 1(24a)은 왼손 핸드 프린트 (70L)의 엄지 손가락상에 배치된 지문 센서(26)와 SpO2센서(35)의 외주 테두리를 감싸는 금속 도체로 구성된다. 따라서 지문 인증 동안 피 측정자의 왼손 손가락의 엄지 지문 부위가 손 전극1(24a)과 SpO2센서(35) 에도 동시에 접촉되는 구조를 갖는다. 상기 손 전극1(24a)은 체지방 측정시에는 구동 전극으로서 사용하고, 심전도 측정시에는 ECG센서(48)의 접지전극으로서 사용할 수 있다.The above hand electrode 1 (24a) is composed of a metal conductor that surrounds the outer periphery of the fingerprint sensor (26) and the SpO2 sensor (35) placed on the thumb of the left hand print (70L). Therefore, it has a structure in which the thumb fingerprint area of the left hand finger of the subject is simultaneously contacted with the hand electrode 1 (24a) and the SpO2 sensor (35) during fingerprint authentication. The hand electrode 1 (24a) can be used as a driving electrode when measuring body fat, and as a ground electrode of the ECG sensor (48) when measuring electrocardiogram.

상기 SpO2센서(35)는 반사형 혈관 광센서로 적색광 LED(51a), 적외선 LED(51b), 광 검출기(50)로 구성되며, 피 측정자의 왼손 엄지 손가락 끝이 왼손 핸드 프린트 (70L)의 엄지 손가락 끝에 접촉하였을 때 상기 광 검출기(50)에 의해 피 측정자 손가락의 말초 혈관 동맥으로부터의 산소 포화도를 측정하게 된다. The above SpO2 sensor (35) is a reflective vascular optical sensor composed of a red light LED (51a), an infrared LED (51b), and a light detector (50). When the tip of the left thumb of the subject comes into contact with the tip of the thumb of the left hand print (70L), the oxygen saturation from the peripheral blood vessel artery of the subject's finger is measured by the light detector (50).

상기 손 전극 2(24b)은 왼손 핸드 프린트 (70L)의 검지 손가락 끝을 금속 도체로 감싸는 형식으로 구성되어, 체지방 측정시에 피 측정자의 왼손 검지손가락과 접촉되어 손 전극1(24a)와 함께 구동 전극으로서 사용할 수 있다.The above hand electrode 2 (24b) is configured to wrap the tip of the index finger of the left hand print (70L) with a metal conductor, so that it can be used as a driving electrode together with the hand electrode 1 (24a) by coming into contact with the left index finger of the subject when measuring body fat.

상기 손 전극 3(24c)은 오른손 핸드 프린트(70R)의 엄지 손가락 끝을 금속 도체로 감싸는 형식으로 구성되어, 체지방 측정시에 피 측정자의 오른손 엄지손가락과 접촉되어 검출 전극으로서 사용할 수 있다.The above hand electrode 3 (24c) is configured in a form that wraps the tip of the thumb of the right hand print (70R) with a metal conductor, and can be used as a detection electrode by coming into contact with the right thumb of the subject when measuring body fat.

상기 손 전극 4(24d)는 오른손 핸드 프린트(70R)의 검지 끝을 금속 도체로 감싸는 형식으로 구성되며, 체지방 측정시에 피 측정자의 오른손 검지 손가락과 접촉되어 손 전극 3(24c)와 함께 검출 전극으로서 사용할 수 있다.The above hand electrode 4 (24d) is configured in a form that wraps the tip of the index finger of the right hand print (70R) with a metal conductor, and can be used as a detection electrode together with the hand electrode 3 (24c) by coming into contact with the index finger of the right hand of the subject when measuring body fat.

또한, 손전극(24a,24b,24c,24d)을 사용하여 피 측정자의 손가락과 접촉함으로써, 피 측정자의 혈당치를 추정할 수 있는 글루코스 스펙트로스코피를 계측할 수 있다.In addition, glucose spectroscopy can be measured to estimate the blood sugar level of the subject by making contact with the subject's finger using a hand electrode (24a, 24b, 24c, 24d).

도 3b와 도 3c는 피 측정자의 손과 핸드 프린트 (70L,70R)간의 밀착 접촉 여부를 피 접촉자에 알려주기 위한 접촉 센싱 수단에 대한 여러 실시 예들이다.FIGS. 3b and 3c show several embodiments of a contact sensing means for informing a contactee of whether there is close contact between the hand of the subject and the hand print (70L, 70R).

피 측정자의 손으로부터 생체신호를 정확히 얻기 위해서는 피 측정자의 손의 바닥면이 핸드 프린트 (70L,70R)상의 핸드 바이오 센서에 밀착되어 접촉되어야 한다.In order to accurately obtain bio-signals from the subject's hand, the bottom surface of the subject's hand must be in close contact with the hand biosensor on the hand print (70L, 70R).

도 3b는 반원 모양의 LED(52a,52b,52c,52d,52e,52f)가 핸드 프린트 (70L,70R)의 테두리 주변에 배치되어 접촉 센싱 수단으로서 활용된 실시예를 보인다. 예컨대, 밀착 접촉이 안된 영역에 해당하는 LED가 점멸되거나 오프(off)되어 어느 부분(손가락, 손바닥)이 밀착이 제대로 안되었는지 피 측정자가 쉽게 알아챌 수 있도록 할 수 있다.Fig. 3b shows an example in which semicircular LEDs (52a, 52b, 52c, 52d, 52e, 52f) are arranged around the edge of a hand print (70L, 70R) and utilized as a contact sensing means. For example, LEDs corresponding to areas where close contact is not made can be blinked or turned off so that the subject can easily recognize which part (finger, palm) is not properly in contact.

또한, 도 3c는 LED(29)가 핸드 프린트 (70L,70R)의 손 외곽 테두리를 따라 배치되어 접촉 센싱 수단으로서 활용된 실시예도 포함한다. 예컨대, 밀착 접촉이 안된 부분에 해당하는 LED(29) 부분이 어둡게 표시되어 손의 어느 부분이 밀착이 제대로 안되었는지 피 측정자가 쉽게 알아챌 수 있도록 할 수 있다.In addition, Fig. 3c also includes an embodiment in which the LED (29) is positioned along the outer edge of the hand print (70L, 70R) and utilized as a contact sensing means. For example, the portion of the LED (29) corresponding to the part that is not in close contact may be displayed darkly so that the subject can easily recognize which part of the hand is not in close contact.

도 3d는 터치스크린(11)를 사용한 접촉 센싱 수단의 또 다른 실시예로, 로봇(100a)의 가슴 패널(10)은 터치스크린(11), 상기 터치스크린상에 표시되는 가상의 손가락 패턴(34) 및 핸드 바이오 센서(24a,24b,24c,24d, 26,35,48)를 포함할 수 있다. 이때 피 측정자는 자신의 손가락을 상기 가상의 손가락 패턴(34)에 정렬시켜 터치 스크린(11)상에 올려놓으면, 상기 핸드 바이오 센서는 피 측정자의 생체 신호 획득과 동시에 사용자 인증을 수행할 수 있다.FIG. 3d is another embodiment of a contact sensing means using a touch screen (11), in which the chest panel (10) of the robot (100a) may include a touch screen (11), a virtual finger pattern (34) displayed on the touch screen, and a hand biosensor (24a, 24b, 24c, 24d, 26, 35, 48). At this time, when the subject of measurement places his/her finger on the touch screen (11) while aligning it with the virtual finger pattern (34), the hand biosensor can perform user authentication while simultaneously acquiring the subject's biosignal.

상기 핸드 바이오 센서(24a,24b,24c,24d, 26,35)들은 상기 가상의 손가락 패턴(34)상의 각각의 손가락과 정렬이 되도록 배치되고, ECG센서(48)는 가상의 손가락 패턴(34)의 손바닥 부분에서 노출되어 배치되는 것이 선호 된다.The above hand biosensors (24a, 24b, 24c, 24d, 26, 35) are arranged so as to be aligned with each finger on the virtual finger pattern (34), and the ECG sensor (48) is preferably arranged so as to be exposed on the palm portion of the virtual finger pattern (34).

즉, 상기 가상의 손가락 패턴(34)은 터치스크린(11)에 표시되고, 상기 핸드 바이오 센서(24a,24b,24c,24d, 26,35,48)는 가슴 패널(10)상에 매설되며, 이때 상기 가상의 손가락 패턴(34)과 상기 핸드 바이오 센서(24a,24b,24c,24d, 26,35,48)는 서로 연결되어 핸드 프린트 모양의 형상을 형성하여 오른손 핸드 프린트(70R)와 오른손 핸드 프린트(70L)를 제공한다.That is, the virtual finger pattern (34) is displayed on the touch screen (11), and the hand biosensors (24a, 24b, 24c, 24d, 26, 35, 48) are embedded on the chest panel (10), and at this time, the virtual finger pattern (34) and the hand biosensors (24a, 24b, 24c, 24d, 26, 35, 48) are connected to each other to form a hand print shape, thereby providing a right hand print (70R) and a right hand print (70L).

또한 상기 터치스크린(11)은 핸드 프린트의 표시를 터치스크린(11)상에서 온오프(on/off)하기 위한 핸드 프린트 온오프 버튼(9)을 포함할 수 있다.Additionally, the touch screen (11) may include a hand print on/off button (9) for turning the display of a hand print on the touch screen (11) on/off.

또한 본 실시예에 적용된 터치스크린(11)은 핸드 프린트 (70L,70R) 표면과 피 측정자 손 바닥 간(間)의 밀착 접촉 여부를 감지하거나 시각적으로 표시하는In addition, the touch screen (11) applied to this embodiment detects or visually displays whether there is close contact between the hand print (70L, 70R) surface and the palm of the subject's hand.

접촉 센싱 수단으로도 활용될 수 있다.It can also be used as a contact sensing means.

예컨대, 제어부(53)은 터치 스크린 좌표를 스캔하면서 핸드 프린트 (70L,70R)의 표면상에 접촉한 손 위치 및 접촉 범위를 인식하여, 피측정자에게 밀착 접촉이 안된 부분을 시각적으로 알려줄 수 있다..For example, the control unit (53) can recognize the hand position and contact range that came into contact with the surface of the hand print (70L, 70R) while scanning the touch screen coordinates, and visually inform the subject of the part that is not in close contact.

예를 들면 터치스크린(11)상에서 밀착 접촉이 안된 부분에 해당하는 가상의 손가락 패턴(34)의 이미지 픽셀 영역을 점멸하거나 어둡게 표시하거나 색깔 표시를 할 수 있다.For example, the image pixel area of the virtual finger pattern (34) corresponding to the part that is not in close contact on the touch screen (11) can be blinked, darkened, or colored.

본 발명의 터치 스크린은 정전용량방식 (Capacitive), 저항막방식(Resistive), 초음파방식, 적외선방식 (Infrared Beam) 중 선택된 어느 하나를 사용하는 것을 특징으로 한다.The touch screen of the present invention is characterized by using one selected from among capacitive, resistive, ultrasonic, and infrared beam methods.

도 3e와 도 3f는 본 발명의 핸드 프린트(70R,70L)가 노트북(200)의 커버(85) 내지 스마트 미러(300)상에 설치된 실시예를 보인다. 이 경우 피 측정자는 자신의 손가락을 상기 핸드 프린트(70R,70L)에 정렬시켜 올려놓으면, 노트북(200)의 커버(85) 내지 스마트 미러(300)에 내장된 핸드 바이오 센서에 의해 피 측정자의 생체 신호 측정과 동시에 지문센서(26)에 의해 사용자 인증을 수행할 수 있다.Figures 3e and 3f show an example in which the hand print (70R, 70L) of the present invention is installed on the cover (85) or smart mirror (300) of a notebook (200). In this case, when the subject places his/her finger on the hand print (70R, 70L) while aligning it, the subject's biosignal can be measured by the hand biosensor built into the cover (85) or smart mirror (300) of the notebook (200) and user authentication can be performed by the fingerprint sensor (26) at the same time.

상기 지문센서(26)에 의해 사용자 인증이 성공한 경우, 사용자는 별도의 인증과정 없이 노트북(200)이 활성화되어 노트북(200)을 사용할 수 있다. If user authentication is successful by the above fingerprint sensor (26), the user can use the notebook (200) by activating the notebook (200) without a separate authentication process.

상기 노트북(200)과 스마트 미러(300)에는 디지털 생체 신호 분석 모듈(400)이 설치되고, 사용자에게 음성 메시지로 제공하거나 대화형으로 생체신호 측정을 요구하기 위한 스피커부(38a)와 마이크부(38b)를 포함할 수 있다.The above notebook (200) and smart mirror (300) may be equipped with a digital bio-signal analysis module (400) and may include a speaker unit (38a) and a microphone unit (38b) for providing a voice message to the user or requesting bio-signal measurement interactively.

본 실시예의 또 다른 측면은 노트북(200)의 커버(85) 내지 스마트 미러(300)상에는 터치 스크린(11), 상기 터치스크린(11)상에 핸드 프린트(70R,70L)의 형상을 표시하는 가상의 손가락 패턴(34) 및 핸드 바이오 센서(24a,24b,24c,24d, 26,35)를 포함할 수 있다.Another aspect of the present embodiment may include a touch screen (11) on the cover (85) or smart mirror (300) of the notebook (200), a virtual finger pattern (34) that displays the shape of a hand print (70R, 70L) on the touch screen (11), and a hand biosensor (24a, 24b, 24c, 24d, 26, 35).

본 실시예에서 알 수 있듯이, 본 발명에서 로봇은 본 발명을 따르는 핸드 프린트(hand print)을 포함하고 있는 PC(personal computer), 컴퓨터 입력장치인 마우스(mouse), 마우스 패드, 노트북, 핸드폰, 스마트 미러, 태블릿 PC, 터치스크린 장치에 의해 대체될 수 있다.As can be seen from this embodiment, the robot in the present invention can be replaced by a personal computer (PC), a computer input device such as a mouse, a mouse pad, a laptop, a mobile phone, a smart mirror, a tablet PC, or a touchscreen device including a hand print according to the present invention.

도 4는 본 발명에 따른 AI-헬스케어 로봇 장치(100)의 눈 부위에 설치된 망막 이미지 측정부(79)의 일 실시예로, 망막 이미지 센서(42)에 의해 얻어진 피 측정자의 망막 이미지를 캡쳐한다. 망막 이미지 측정부(79)는 빔을 발생시키는 광원(43), 상기 광원(43)으로부터 발생된 빔의 극성을 변화시켜 제1빔(B1)을 생성하는 제1 폴러라이저(polaraizer,36a), 상기 제 1 빔(B1)을 피 측정자(86)의 망막(60)을 향하도록 굴절시키는 빔 분리기(beam splitter, 45), 상기 제 1 빔을 망막(60)에 입사시키거나 망막(60)으로 부터 반사된 무극성화된(unpolarized)빔을 집광하여 제 2빔(B2)을 생성하는 렌즈부(46); 상기 빔 분리기(45)를 통과한 제2빔(B2)으로부터 각막 반사(cornea reflection) 성분을 최소화하기 위한 제 2 폴러라이저(36b); 상기 제 2 폴러라이저(36b)를 통과된 상기 제 2 빔(B2)을 수광하여 망막 이미지를 형성하는 망막 이미지 센서(42)를 포함한다.FIG. 4 is an embodiment of a retinal image measuring unit (79) installed in the eye area of an AI-healthcare robot device (100) according to the present invention, which captures a retinal image of a subject obtained by a retinal image sensor (42). The retinal image measuring unit (79) includes a light source (43) that generates a beam, a first polarizer (36a) that changes the polarity of a beam generated from the light source (43) to generate a first beam (B1), a beam splitter (45) that refracts the first beam (B1) toward the retina (60) of the subject (86), a lens unit (46) that causes the first beam to be incident on the retina (60) or collects an unpolarized beam reflected from the retina (60) to generate a second beam (B2); It includes a second polarizer (36b) for minimizing the cornea reflection component from the second beam (B2) passing through the beam splitter (45); and a retinal image sensor (42) for receiving the second beam (B2) passing through the second polarizer (36b) to form a retinal image.

도면 부호 23는 빔 분리기(45)를 통과한 제 1빔(B1)을 흡수하기 위한 광 흡수체이다.Drawing symbol 23 is a light absorber for absorbing the first beam (B1) that has passed through the beam splitter (45).

바람직하게는, 상기 제 1 폴러라이저(36a)와 상기 제 2 폴러라이저(36b)는, 제1빔(B1)과 제2빔(B2)간의 간섭 및 각막 반사 성분을 줄이기 위해, 90°의 위상차를 갖도록 서로 cross polarized되어 있다.Preferably, the first polarizer (36a) and the second polarizer (36b) are cross-polarized to have a phase difference of 90° to reduce interference and corneal reflection components between the first beam (B1) and the second beam (B2).

상기 망막 이미지 측정부(79)은 피 측정자의 좌우측 눈의 망막을 관찰할 수 있도록 AI-헬스케어 로봇 장치(100)의 좌우측 눈 부위에 각각 설치되는 것이 선호된다.The above retinal image measuring unit (79) is preferably installed on the left and right eye areas of the AI healthcare robot device (100) so that the retinas of the left and right eyes of the subject can be observed.

또한, 상기 망막 이미지 센서 (42)로부터 획득된 망막 이미지는, 망막 분석용 인공지능 신경망(16) 내지 안과 전문가 시스템(18)에 의해 분석되고, 환자의 망막 및 안구에 관련한 질병 유무와 치매 위험도를 판별하여 환자에게 음성 내지 문자메시지로 알려줄 수 있다.In addition, the retinal image acquired from the retinal image sensor (42) is analyzed by an artificial intelligence neural network for retinal analysis (16) or an ophthalmology expert system (18), and the presence or absence of a disease related to the patient's retina and eye and the risk of dementia can be determined and the patient can be informed of this by voice or text message.

본 발명에서 인공지능 신경망(16) 내지 안과 전문가 시스템(18)은 서버(13), 디지털 생체 신호 분석 모듈(400) 내지 핸드폰 앱상에 구축될 수 있다.In the present invention, an artificial intelligence neural network (16) or an ophthalmology expert system (18) can be built on a server (13), a digital biosignal analysis module (400), or a mobile phone app.

망막 분석용 인공지능 신경망(16)은 망막 질환 종류별로 표지된 망막 이미지(학습용 망막 이미지)들에 의해 사전에 딥런닝 학습되어지고, 이후 망막 이미지 센서(42)로부터 획득된 환자의 망막 이미지를 분석하여, 환자의 망막에 관련한 질병 유무와 위험도를 자동으로 판별하는 것이 선호된다.It is preferred that the artificial intelligence neural network (16) for retinal analysis is preliminarily trained through deep learning using retinal images (learning retinal images) labeled by type of retinal disease, and then automatically determines whether or not the patient has a disease related to the retina and the level of risk by analyzing the patient's retinal image acquired from the retinal image sensor (42).

상기 망막 질환 종류별로 표지된 망막 이미지들은 망막 미세혈관 손상, 백내장, 녹내장, 망막박리, 고혈압 망막병증, 망막 혈관 폐쇄증, 당뇨 망막병증(diabetic retinopathy), 황반변성 등의 망막 질환을 포함하는 망막 이미지들이 선호되며, 상기 망막 분석용 인공지능 신경망(16)은 상기 망막 질환의 심각성을 따라 등급별로 표지된 망막 이미지(학습용 망막 이미지)들에 의해 사전에 학습되는 것을 특징으로 한다. The retinal images labeled by the above retinal disease type are preferably retinal images including retinal diseases such as retinal microvascular damage, cataracts, glaucoma, retinal detachment, hypertensive retinopathy, retinal vascular occlusion, diabetic retinopathy, macular degeneration, etc., and the retinal analysis artificial intelligence neural network (16) is characterized in that it is learned in advance by retinal images (learning retinal images) labeled by grade according to the severity of the retinal disease.

또한 치매 위험도 등급으로 표지된 망막 이미지들을 사용하여 망막 분석용 인공지능 신경망(16)을 학습시킴으로써, 망막 분석용 인공지능 신경망(16)은 사용자의 신규 망막 이미지로 부터 치매의 위험도를 자동 판별할 수 있다.In addition, by training an artificial intelligence neural network (16) for retinal analysis using retinal images labeled with a dementia risk level, the artificial intelligence neural network (16) for retinal analysis can automatically determine the risk of dementia from a user's new retinal image.

또한 심근경색과 뇌졸중으로 표지된 망막 이미지들을 사용하여 망막 분석용 인공지능 신경망(16)을 학습시킴으로써, 망막 분석용 인공지능 신경망(16)은 사용자의 신규 망막 이미지로 부터 심근경색 내지 뇌졸중의 위험도를 자동 판별할 수 있다.In addition, by training an artificial intelligence neural network (16) for retinal analysis using retinal images labeled with myocardial infarction and stroke, the artificial intelligence neural network (16) for retinal analysis can automatically determine the risk of myocardial infarction or stroke from a user's new retinal image.

또한 콜레스테롤 등급으로 표지된 망막 이미지들을 사용하여 망막 분석용 인공지능 신경망(16)을 학습시킴으로써, 망막 분석용 인공지능 신경망(16)은 사용자의 신규 망막 이미지로 부터 콜레스테롤의 위험도를 자동 판별할 수 있다.In addition, by training an artificial intelligence neural network (16) for retinal analysis using retinal images labeled with cholesterol grade, the artificial intelligence neural network (16) for retinal analysis can automatically determine the risk of cholesterol from a user's new retinal image.

또한 바이러스 감염 유무로 표지된 망막 이미지들을 사용하여 망막 분석용 인공지능 신경망(16)을 학습시킴으로써, 망막 분석용 인공지능 신경망(16)은 사용자의 신규 망막 이미지로 부터 바이러스 감염 여부를 자동 판별할 수 있다.In addition, by training an artificial intelligence neural network (16) for retinal analysis using retinal images labeled with the presence or absence of virus infection, the artificial intelligence neural network (16) for retinal analysis can automatically determine whether a user has a virus infection from a new retinal image.

도면부호 30은 렌즈부(46)를 기구적으로 지지하는 렌즈 배럴(lens barrel)이다. Drawing symbol 30 is a lens barrel that mechanically supports the lens unit (46).

망막 이미지 측정부(79)의 초점 거리 조정 구동부(79b)는 스텝 모터(32)의 회전에 따라, 상기 렌즈 배럴(30)이 렌즈부(46)의 광로(optical path)를 따라 전후 방향으로 이동하면서 망막 이미지 센서(42) 와 피 측정자의 망막(60)간의 초점거리를 조정한다.The focal distance adjustment driving unit (79b) of the retinal image measuring unit (79) adjusts the focal distance between the retinal image sensor (42) and the subject's retina (60) by moving the lens barrel (30) forward and backward along the optical path of the lens unit (46) according to the rotation of the step motor (32).

이를 위해, 초점 거리 조정 구동부(79b)는 스텝모터(32), 렌즈부(46)를 기구적으로 지지하는 렌즈 배럴(30), 상기 스텝모터(32)의 선단 축부에 연결되어 설치된 웜(30a), 및상기 렌즈 배럴(30)의 외관 표면에 설계되어 상기 웜(30a) 과 기계적으로 서로 맞대어 치합된 웜기어(30b)를 포함한다.To this end, the focal length adjustment driving unit (79b) includes a step motor (32), a lens barrel (30) that mechanically supports the lens unit (46), a worm (30a) connected to and installed at the tip shaft of the step motor (32), and a worm gear (30b) that is designed on the outer surface of the lens barrel (30) and mechanically meshed with the worm (30a).

따라서, 스텝 모터(32)가 회전하는 경우, 웜(30a)은 스텝 모터(32)의 회전에 따라 동시에 회전하고, 웜(30a)과 치합 되어 연결되는 웜기어(30b)가 렌즈부(46)의 광로를 따라 전후 직선운동을 하게 되어, 망막 이미지 센서(42) 와 피 측정자의 망막(60)간의 초점거리가 조정된다.Accordingly, when the step motor (32) rotates, the worm (30a) rotates simultaneously with the rotation of the step motor (32), and the worm gear (30b) meshed with and connected to the worm (30a) moves forward and backward along the optical path of the lens portion (46), thereby adjusting the focal distance between the retina image sensor (42) and the retina (60) of the subject.

바람직하게는 상기 렌즈 배럴(30)의 접안부(31)에는 피 측정자의 눈 주위 부분의 형태에 상응하도록 형성된 압력 센서(40) 및 온도센서(25)를 각각 1개 이상 포함하는 접촉구조에 의해, 렌즈 배럴(30)의 접안부(31)와 피 측정자(86)의 눈 주위가 서로 밀착되게 할 수 있다.Preferably, the eyepiece (31) of the lens barrel (30) includes a contact structure including at least one pressure sensor (40) and at least one temperature sensor (25) formed to correspond to the shape of the area around the eye of the subject, so that the eyepiece (31) of the lens barrel (30) and the area around the eye of the subject (86) can be brought into close contact with each other.

스텝 모터(32)의 회전에 따라, 상기 렌즈 배럴(30)을 전후 방향으로 이동하는 동안, 상기 압력 센서(40)에 의해 렌즈 배럴(30)이 피 측정자의 눈 주위에 얼마나 잘 밀착 되었는지를 계측하여 제대로 밀착 된 경우, 망막 이미지 센서(42) 와 피 측정자의 망막(60)간의 광학 초점거리가 조정하는 것이 선호된다. While the lens barrel (30) moves forward and backward in accordance with the rotation of the step motor (32), it is preferable to measure how well the lens barrel (30) is fitted around the eye of the subject by the pressure sensor (40), and if it is fitted properly, adjust the optical focal distance between the retina image sensor (42) and the retina (60) of the subject.

또한, 압력센서(40) 와 온도센서(25)를 함께 사용하여 접안부(31)에 피 측정자의 눈 부위가 얼마나 잘 밀착되었는지 판단할 수도 있다.Additionally, the pressure sensor (40) and temperature sensor (25) can be used together to determine how well the subject's eye area is in contact with the eyepiece (31).

또한 상기 압력 센서(40)에 의해 피 측정자 눈 부위에 렌즈 배럴(30)의 접안부(31)가 밀착된 것이 확인된 경우, 온도 센서(25)에 의해 피 측정자의 눈 주위의 온도 계측을 통해 체열을 측정할 수 있다.In addition, when it is confirmed that the eyepiece (31) of the lens barrel (30) is in close contact with the subject's eye area by the pressure sensor (40), the body temperature can be measured by measuring the temperature around the subject's eye by the temperature sensor (25).

압력센서(40)의 또 다른 측면은, 상기 압력센서(40)는 온도 센서(25)에 의해 대체될 수 있다. 즉, 온도 센서(25)에 의해 피 측정자의 눈 주위의 온도 계측을 통해 유효한 체온 신호로서 체열이 측정된 경우, 피 측정자 눈 부위에 렌즈 배럴(30)의 접안부(31)가 밀착된 것으로 판단하여 피 측정자의 체열을 측정할 수 있다.Another aspect of the pressure sensor (40) is that the pressure sensor (40) can be replaced by a temperature sensor (25). That is, when body temperature is measured as a valid body temperature signal through temperature measurement around the eye of the subject by the temperature sensor (25), the body temperature of the subject can be measured by determining that the eyepiece (31) of the lens barrel (30) is in close contact with the eye area of the subject.

본 발명의 렌즈부(46)는 액체 렌즈로 대체될 수 있다. The lens portion (46) of the present invention can be replaced with a liquid lens.

상기 액체 렌즈는 전기 제어에 따라 액체의 표면장력이 바뀌는 일렉트로웨팅(electrowetting) 현상을 이용하여 액체의 두께를 바꿈으로써 초점 거리를 변화 시킬 수 있다.The above liquid lens can change the focal length by changing the thickness of the liquid by utilizing the electrowetting phenomenon in which the surface tension of the liquid changes according to electrical control.

또한, 본 발명의 초점 거리 조정 구동부(79b)는 스텝 모터(32)의 회전에 따라, 망막 이미지 센서(42) 와 피 측정자의 망막(60)간의 초점거리가 조정후, 초점거리를 자동으로 미세 조정할 수 미세 자동 초점거리 조정 수단을 더 구비할 수 있다.In addition, the focal length adjustment driving unit (79b) of the present invention may further include a fine automatic focal length adjustment means that can automatically and finely adjust the focal length after the focal length between the retinal image sensor (42) and the retina (60) of the subject is adjusted according to the rotation of the step motor (32).

상기 미세 자동 초점거리 조정 수단은, 제어부(53)가 망막 이미지 센서(42)에 의해 얻어진 망막 이미지에서 초점 조정 영상 정보를 추출하여 망막 이미지 측정부(79)의 스텝모터(32)를 정밀 제어함으로써, 자동으로 초점거리가 조정될 수 있다.The above-described fine automatic focal length adjustment means can automatically adjust the focal length by having the control unit (53) extract focus adjustment image information from the retinal image obtained by the retinal image sensor (42) and precisely control the step motor (32) of the retinal image measuring unit (79).

상기 미세 자동 초점거리 조정 수단의 또 다른 측면은 위너 필터(wiener filter) 또는 화상 보정용 인공지능일 수 있다.Another aspect of the above fine auto focus distance adjustment means may be a Wiener filter or an artificial intelligence for image correction.

상기 초점 조정 영상 정보는 위상차(Phase difference) 검출 방식 또는 컨트라스트(Contrast) 검출 방식을 사용하여 얻는 것이 선호된다.It is preferred that the above focus adjustment image information be obtained using a phase difference detection method or a contrast detection method.

도 5는 AI-헬스케어 로봇 장치(100)상에 설치된 핸드 프린트상의 지문 센서(26)에 의해 지문 인증이 이루어짐과 동시에 손 전극들(24a,24b,24c,24d)에 의해 체지방을 측정하는 체지방 측정부(77) , 글루코스 스펙트로스코피를 측정하는 글루코스 측정부(78) 에 대한 일 실시예를 보인다. FIG. 5 shows an example of a body fat measurement unit (77) that measures body fat by hand electrodes (24a, 24b, 24c, 24d) and a glucose measurement unit (78) that measures glucose spectroscopy, while fingerprint authentication is performed by a fingerprint sensor (26) on a hand print installed on an AI-healthcare robot device (100).

본 발명의 체지방 측정은 기술 공지된 BIA(Bioelectrical impedance analysis) 방식으로 체지방을 측정하는 것이 선호된다.In the present invention, it is preferred to measure body fat using the BIA (Bioelectrical impedance analysis) method known in the art.

예컨대 BIA 방식은 체수분량에 따라 전기 저항이 달라지므로 인체를 일종의 저항으로 보고, 인체의 측정부위에 약한 교류 전류(400마이크로암페어 정도)를 흘려주고 이때의 전위차를 검출하여 그 저항값을 산출한 후, 여기서 검출된 저항값과 피 측정자의 개인 신체 정보(신장, 몸무게, 나이, 성별)등의 변수와 함께 소정의 알고리즘에 의하여 체지방량, 근육량, 체수분량 등의 생체 정보를 산출하게 된다. For example, the BIA method views the human body as a type of resistor because the electrical resistance varies depending on the amount of body water, and passes a weak alternating current (about 400 microamperes) to the measurement area of the body, detects the potential difference at this time, and calculates the resistance value. Then, the detected resistance value and the subject's personal body information (height, weight, age, and gender) and other variables are used in a predetermined algorithm to calculate biometric information such as body fat mass, muscle mass, and body water content.

본 발명의 일실시예에 따르면, 체지방 측정부(77)는 피 측정자의 왼쪽 손가락과 직접 접촉되어 피 측정자의 신체에 전류를 가하는 구동 전극, 및 피 측정자의 오른쪽 손가락과 직접 접촉될 뿐만 아니라 피 측정자의 신체의 전기적 저항값을 측정하여 체지방 측정 신호를 얻기 위한 검출 전극과 연결되어 동작하게 된다.According to one embodiment of the present invention, the body fat measurement unit (77) operates by being connected to a driving electrode that directly contacts the left finger of the subject and applies current to the body of the subject, and a detection electrode that directly contacts the right finger of the subject and measures the electrical resistance value of the body of the subject to obtain a body fat measurement signal.

본 실시예에서는 체지방 측정을 위해 손 전극들(24a,24b,24c,24d)은 구동 전극과 검출 전극으로 사용된다. 예컨대 손 전극들(24a,24b)을 구동전극으로 사용하는 경우, 나머지 손 전극들(24c,24d)은 검출 전극으로 사용된다. 이하 구동 전극(24a,24b)과 검출 전극(24c,24d)을 사용한 체지방 측정 방법을 설명하고자 한다.In this embodiment, hand electrodes (24a, 24b, 24c, 24d) are used as driving electrodes and detection electrodes for body fat measurement. For example, when hand electrodes (24a, 24b) are used as driving electrodes, the remaining hand electrodes (24c, 24d) are used as detection electrodes. Hereinafter, a body fat measurement method using driving electrodes (24a, 24b) and detection electrodes (24c, 24d) will be described.

환자는 체지방 측정 동안 왼쪽 핸드 프린트(70L)의 구동 전극(24a, 24b)에 자신의 왼쪽 손(72L)의 손가락을 접촉시키고, 동시에 오른쪽 핸드 프린트(70R)의 검출 전극(24c,24d)에는 자신의 오른손(72R) 손가락을 접촉시켜 체지방을 측정하고 동시에 지문센서(26)에 접촉된 환자의 손가락으로부터 지문 인증을 수행할 수 있다.During body fat measurement, the patient can measure body fat by touching the fingers of his/her left hand (72L) to the driving electrodes (24a, 24b) of the left hand print (70L), and at the same time, touch the fingers of his/her right hand (72R) to the detection electrodes (24c, 24d) of the right hand print (70R), thereby performing fingerprint authentication from the patient's fingers touching the fingerprint sensor (26).

상기 구동 전극(24a,24b)에 접촉한 환자의 왼손(72L) 손가락을 통해 통전되는 전류는 환자의 신체를 통과하여 상기 검출 전극(24c, 24d)로 통전되고, 이 통전된 전류로부터 환자의 신체 내로 통전된 전류의 임피던스 값을 구한다.The current that is passed through the fingers of the patient's left hand (72L) that come into contact with the driving electrodes (24a, 24b) passes through the patient's body and is passed to the detection electrodes (24c, 24d), and the impedance value of the current that is passed into the patient's body is obtained from this passed current.

예컨대, 체지방 측정부(77)는 피 측정자의 왼손(72L) 손가락과 오른손(72R) 손가락이 각각 핸드 프린트의 구동 전극(24a,24b)과 검출 전극(24c,24d)에 접촉되고 있는 동안, 구동 전극(24a,24b)을 통해 미세한 전류(예컨대 약 500㎂)를 체내에 흘려 보내 피 측정자의 몸의 전기 저항을 검출 전극(24c,24d)을 통해 측정함으로써 체지방률, 체질량지수(BMI: Body Mass Index), 근육량을 포함하는 체지방 정보를 얻고, 이를 생체 신호 수집부(420)에 전송하는 것이 선호된다.For example, the body fat measurement unit (77) preferably obtains body fat information including body fat percentage, body mass index (BMI), and muscle mass by sending a small current (e.g., about 500 μA) through the drive electrodes (24a, 24b) into the body while the fingers of the left hand (72L) and the fingers of the right hand (72R) of the subject are in contact with the drive electrodes (24a, 24b) and the detection electrodes (24c, 24d) of the hand print, and measuring the electrical resistance of the body of the subject through the detection electrodes (24c, 24d), and transmitting the same to the biosignal collection unit (420).

본 발명의 예시에 따르는 체지방 측정부(77)는, 피 측정자에 대한 생체 임피던스를 측정하기 위한 구동신호를 인가하는 구동전극(24a,24b), 구동전극(24a,24b)에 인가할 사인파(sine wave) 구동신호 (예컨대 10~ 50 KHz )를 생성하는 사인파 발진기(49), 인체를 통과해 수신되는 신호를 검출하기 위한 검출전극(24c,24d), 검출전극(24c,24d)을 통해 수신된 신호를 주파수 성분으로 변환 하기 위한 스펙트럼(spectrum) 계산부(41), 상기 스펙트럼 계산부(41)의 결과를 디지털 신호로 변환하기 위한 AD 변환기(46) 로 구성된다.A body fat measurement unit (77) according to an example of the present invention is composed of a driving electrode (24a, 24b) that applies a driving signal for measuring a bio-impedance of a subject, a sine wave generator (49) that generates a sine wave driving signal (e.g., 10 to 50 KHz) to be applied to the driving electrodes (24a, 24b), a detection electrode (24c, 24d) that detects a signal received through a human body, a spectrum calculation unit (41) that converts a signal received through the detection electrodes (24c, 24d) into a frequency component, and an AD converter (46) that converts the result of the spectrum calculation unit (41) into a digital signal.

상기 스펙트럼 계산부(41)는 FFT(Fast Fourier Transform) 및 검출전극(24c,24d)을 통해 수신된 신호 중 구동 신호의 주파수 성분만을 뽑아 내기 위한 밴드패스 필터(Band Pass filter)를 포함할 수 있다.The above spectrum calculation unit (41) may include a band pass filter for extracting only the frequency components of the driving signal from among the signals received through the FFT (Fast Fourier Transform) and detection electrodes (24c, 24d).

상기 FFT(Fast Fourier Transform) 는 STFT(Short Time Fourier Transform) The FFT (Fast Fourier Transform) is STFT (Short Time Fourier Transform)

내지 웨이블릿 변환(Wavelet Transform) 로 대체될 수 있다.It can be replaced by wavelet transform.

또한 생체 신호 수집부(420)의 생체 신호 유효 판별 수단(420a)은 AD 변환기(46)에 의해 변환된 체지방 정보가 사용자 인증이 완료되었는지, 그리고 유효한 생체 신호인지를 판별하고, 제어부(53)는 이러한 사용자 인증된 유효한 생체신호 정보만을 의료 데이터 저장부(15)에 저장하도록 제어한다.In addition, the biosignal validity determination means (420a) of the biosignal collection unit (420) determines whether the body fat information converted by the AD converter (46) has completed user authentication and is a valid biosignal, and the control unit (53) controls to store only the user-authenticated valid biosignal information in the medical data storage unit (15).

예컨대, 본 실시예 경우, 왼손 핸드 프린트 (70L) 의 손전극1(24a) 과 손전극 2(24b)에는 피 측정자의 왼손(72L)의 엄지 와 검지 손가락이 각각 접촉 되고, 오른손 핸드 프린트 (70R)의 손전극3(24c) 과 손전극 4(24d)에는 피 측정자의 오른손(72R)의 엄지 와 검지 손가락이 각각 접촉 되어 지문 인증과 함께 체지방 측정이 이루어진다.For example, in the case of the present embodiment, the thumb and index finger of the left hand (72L) of the subject are respectively contacted with the hand electrode 1 (24a) and hand electrode 2 (24b) of the left hand print (70L), and the thumb and index finger of the right hand (72R) of the subject are respectively contacted with the hand electrode 3 (24c) and hand electrode 4 (24d) of the right hand print (70R), so that fingerprint authentication and body fat measurement are performed.

또한, 상기 손 전극들(24a,24b,24c,24d)들을 혈당 센서로 구성함으로써 글루코스 스펙트로스코피를 동시에 측정할 수 있다. 예컨대 체지방 측정 때처럼 왼손 핸드 프린트(70L)의 손전극1(24a) 과 손전극 2(24b)에는 피 측정자의 왼손(72L)의 엄지 와 검지 손가락이 각각 접촉 되고, 오른손 핸드 프린트 (70R)의 손전극3(24c) 과 손전극 4(24d)에는 피 측정자의 오른손(72R)의 엄지 와 검지 손가락이 각각 접촉 된 상태에서, 글루코스 측정부(78)를 이용하여 구동전극(24a,24b)과 검출전극(24c,24d)간에 놓인 피 측정자 체내의 임피던스 주파수응답을 얻음으로써 글루코스 스펙트로스코피를 측정할 수 있다.In addition, by configuring the hand electrodes (24a, 24b, 24c, 24d) as blood sugar sensors, glucose spectroscopy can be measured simultaneously. For example, as in body fat measurement, the thumb and index finger of the left hand (72L) of the subject are respectively contacted with the hand electrode 1 (24a) and hand electrode 2 (24b) of the left hand print (70L), and the thumb and index finger of the right hand (72R) of the subject are respectively contacted with the hand electrode 3 (24c) and hand electrode 4 (24d) of the right hand print (70R), and by obtaining the impedance frequency response of the body of the subject placed between the drive electrodes (24a, 24b) and the detection electrodes (24c, 24d) using the glucose measurement unit (78), glucose spectroscopy can be measured.

글루코스 측정부(78)는 글루코스 스펙트로스코피를 얻기 위해 사인파 발진기(49)의 발진 주파수의 범위는 50Hz 에서 350 KHz 까지의 주파수 대역을 사용하는 것이 선호 되며, 이 주파수 대역을 사용하여 주파수 스캔하면서 구동전극(24a,24b)과 검출전극(24c,24d)간에 놓인 피 측정자 체내의 임피던스를 주파수별로 차례로 측정하여 임피던스 주파수 응답을 얻음으로써 글루코스 스펙트로스코피를 측정할 수 있다.In order to obtain glucose spectroscopy, the glucose measuring unit (78) preferably uses a frequency band of 50 Hz to 350 KHz for the oscillation frequency of the sine wave oscillator (49), and by performing a frequency scan using this frequency band, the impedance of the subject's body placed between the driving electrodes (24a, 24b) and the detection electrodes (24c, 24d) is sequentially measured by frequency to obtain an impedance frequency response, thereby enabling glucose spectroscopy to be measured.

체지방과 글루코스 스펙트로스코피의 동시 측정은 구동전극의 구동 신호를 교대로 바꾸어 가면서 측정하는 것에 의해 이루어지는 것이 선호 된다.Simultaneous measurement of body fat and glucose spectroscopy is preferably performed by alternately changing the driving signal of the driving electrode.

도 6은 본 발명을 따르는 AI-헬스케어 로봇 장치(100)의 핸드 프린트(70L,70R)상에 설치된 ECG센서(48) 와 손 전극1(24a)에 피 측정자의 손의 바닥면이 접촉 되었을 때, ECG 신호(Electrocardiogram) 내지 심전도를 측정하는 심전도 측정부(71)의 일실시예를 보인다. FIG. 6 shows an example of an electrocardiogram measuring unit (71) that measures an ECG signal (Electrocardiogram) or electrocardiogram when the bottom surface of a subject's hand comes into contact with an ECG sensor (48) and hand electrode 1 (24a) installed on a hand print (70L, 70R) of an AI-healthcare robot device (100) according to the present invention.

심장은 혈액을 순환시키는 펌프 역할을 하는 근육 장기로서, 그 근육 운동이 미세한 전기로 조절되고 있으며, 심장의 수축과 이완에 따라 심장을 이루는 심근 세포로부터 나오는 미세한 전기변동을 보여주는 ECG 신호가 생성되고 이 신호를 피부 표면에서 감지하는 ECG센서에 의해 읽을 수 있다. The heart is a muscular organ that acts as a pump to circulate blood, and its muscular movements are controlled by minute electrical currents. As the heart contracts and relaxes, an ECG signal is generated that shows minute electrical fluctuations from the myocardial cells that make up the heart, and this signal can be read by an ECG sensor that detects it on the surface of the skin.

본 발명의 ECG센서(48)는 인체피부 표면(47)과의 커패시티브 커플링(Capacitive coupling)을 허용하는 절연막(48a)과 ECG전극면(48b)으로 구성되며, 인체 피부 표면(47)과의 커패시티브 커플링에 의해 심근 세포로부터 나오는 미세한 전기변동을 보여주는 ECG 신호를 센싱한다. 인체 피부 표면(47)은 환자의 손바닥면 부위가 선호된다. 상기 ECG전극면(48b)는 도전성 구리 박막이 선호되며, ECG 출력 전극(48c)을 통해 차동 증폭기(61)에 입력된다.The ECG sensor (48) of the present invention is composed of an insulating film (48a) that allows capacitive coupling with a human skin surface (47) and an ECG electrode surface (48b), and senses an ECG signal showing a minute electrical fluctuation from a myocardial cell by capacitive coupling with the human skin surface (47). The human skin surface (47) is preferably the palm area of a patient. The ECG electrode surface (48b) is preferably a conductive copper thin film, and is input to a differential amplifier (61) through an ECG output electrode (48c).

또한, 상기 ECG전극면(48b)은 절연막(48a)으로 코팅되고, 인체 피부 표면(47)과의 용량성 결합(Capacitive coupling)을 통해 인체 피부 표면(47)으로 부터 나오는 ECG 신호를 센싱할 수 있다.In addition, the ECG electrode surface (48b) is coated with an insulating film (48a) and can sense an ECG signal from the human skin surface (47) through capacitive coupling with the human skin surface (47).

심전도 측정부(71)는 ECG 센서(48)로 부터 얻은 ECG신호의 노이즈를 제거하고 증폭하여 생체 신호 수집부(420)에 전달하며, 구체적으로는 공급 전원에 혼입된 리플(ripple) 잡음을 제거하기 위한 동상제거(CMRR; Common Mode rejection Ratio) 회로를 구비한 차동 증폭기(differential amplifier, 61), 차동증폭기(61)를 거친 ECG 신호를 0.1Hz 이상의 신호를 통과시켜주는 고역통과필터(HPF, High Pass Filter,62), 50 Hz 또는 60Hz의 전원성분을 제거하기 위한 밴드 제거 필터(BRF, Band Rejection Filter,63), 고역통과필터(62)와 밴드 제거필터(63)를 거친 ECG 신호의 출력을 디지털 신호로 변환하기 위한 AD변환기(64) 로 구성된다.The electrocardiogram measuring unit (71) removes noise from an ECG signal obtained from an ECG sensor (48), amplifies the signal, and transmits it to a biosignal collection unit (420). Specifically, it is composed of a differential amplifier (61) equipped with a common mode rejection ratio (CMRR) circuit for removing ripple noise mixed in the power supply, a high pass filter (HPF, High Pass Filter, 62) for allowing the ECG signal passing through the differential amplifier (61) to pass a signal of 0.1 Hz or higher, a band rejection filter (BRF, Band Rejection Filter, 63) for removing a power component of 50 Hz or 60 Hz, and an AD converter (64) for converting the output of the ECG signal passing through the high pass filter (62) and the band rejection filter (63) into a digital signal.

또한, 생체 신호 수집부(420)는 AD 변환기(64)에 의해 디지털화된 ECG 신호가 사용자 인증이 완료되었는지, 그리고 유효한 ECG 신호인지를 판별하고, 제어부(53)는 사용자 인증된 유효한 ECG신호만을 의료 데이터 저장부(15)에 저장한다.In addition, the biosignal collection unit (420) determines whether the ECG signal digitized by the AD converter (64) has completed user authentication and is a valid ECG signal, and the control unit (53) stores only the valid ECG signals for which user authentication has been completed in the medical data storage unit (15).

도 7a와 도 7b는 본 발명을 따르는 AI-헬스케어 로봇 장치 (100)의 핸드 프린트상의 반사형 SpO2센서(35)를 사용한 산소 포화도 및 PPG신호 측정부(72)의 일 실시예를 보인다.FIG. 7a and FIG. 7b show an example of an oxygen saturation and PPG signal measuring unit (72) using a reflective SpO2 sensor (35) on a hand print of an AI-healthcare robot device (100) according to the present invention.

혈액의 중요한 역할 중 한가지는 몸의 각 부분에 산소를 공급하는 것이다.One of the important roles of blood is to supply oxygen to every part of the body.

이를 위해, 적혈구속의 헤모글로빈은 산소와 결합하여 산소를 몸의 각 부분에 산소를 공급하며, 이때 혈중의 산소 공급량은 산소 포화도(Saturation of partial pressure oxygen, SpO2) 로서 계측한다. To this end, hemoglobin in red blood cells combines with oxygen to supply oxygen to each part of the body, and the amount of oxygen supplied to the blood is measured as oxygen saturation (Saturation of partial pressure oxygen, SpO2).

즉, 산소포화도는 총 헤모글로빈의 농도에 대하여 산소를 포함하고 있는 헤모글로빈 농도의 비율로서 정의되는데, 혈액 내의 헤모글로빈이 산소와 결합해 있을 때의 광흡수도와 결합하고 있지 않을 때의 광흡수도를 측정하여 그 비를 이용하여 혈액을 직접 채취하지 않고 혈중 산소포화도를 측정한다.That is, oxygen saturation is defined as the ratio of the concentration of hemoglobin containing oxygen to the concentration of total hemoglobin. It measures the light absorbance when hemoglobin in the blood is bound to oxygen and the light absorbance when it is not bound, and uses the ratio to measure blood oxygen saturation without directly collecting blood.

혈중 산소포화도 측정의 또 다른 측면은, 심장의 수축과 이완에 따른 혈액용적 변화와 산소 헤모글로빈과 환원 헤모글로빈간의 상대적 비율 변화를 이용하여 신호를 획득하는 방법으로, 산소와 결합한 헤모글로빈(HbO2)은 적외선(예컨대, 940nm)를 잘 흡수하고, 산소와 결합하지 않은 환원 헤모글로빈(Hb)은 적색 광(예컨대, 660nm)를 더 잘 흡수하는 성질을 착안하여, 발광소자(적색광 LED(51a), 적외선 LED(51b))와 광 검출기(50)로 구성된 SpO2센서(35)을 사용하여 박동성 동맥혈관의 팽창과 수축에 따라서 감지되는 빛의 양을 수치화 하여 비침습적(non-invasive)으로 동맥 혈액의 산소포화도를 측정한다. Another aspect of measuring blood oxygen saturation is a method of acquiring a signal by utilizing the change in blood volume according to the contraction and relaxation of the heart and the change in the relative ratio between oxyhemoglobin and reduced hemoglobin. Based on the property that hemoglobin (HbO2) combined with oxygen absorbs infrared light (e.g., 940 nm) well and reduced hemoglobin (Hb) not combined with oxygen absorbs red light (e.g., 660 nm) better, the amount of light detected according to the expansion and contraction of the pulsatile arterial blood is quantified using an SpO2 sensor (35) composed of a light-emitting element (red light LED (51a), infrared LED (51b)) and a light detector (50), and the oxygen saturation of arterial blood is non-invasively measured by quantifying the amount of light.

예컨대, 혈액 속에 충분히 산소가 많이 있다면, 산소와 결합한 헤모글로빈이 상대적으로 많아지고, 적외선 발광소자인 적외선 LED(51b)가 쏘아준 적외선이 혈관을 통과하면서 대부분 흡수되어 광 검출기(50)에는 적외선이 검출되지 않는다.For example, if there is sufficient oxygen in the blood, the amount of hemoglobin combined with oxygen increases relatively, and most of the infrared light emitted by the infrared LED (51b), which is an infrared light-emitting element, is absorbed as it passes through the blood vessels, so that the infrared light is not detected by the photodetector (50).

혈중 산소 포화도는 건강한 사람의 경우 산소 포화도는 대개 100%에 가까운 98~99% 사이로 관찰된다. In healthy people, blood oxygen saturation is usually observed to be between 98 and 99%, which is close to 100%.

일반적으로, 산소 포화도가 95% 이하가 되면, 뇌나 장기에 공급되는 산소가 부족하여 주의력이나 집중력이 떨어지며, 쉽게 피로감을 느낀다. In general, when the oxygen saturation level falls below 95%, the supply of oxygen to the brain and organs is insufficient, so attention and concentration decrease and you feel tired easily.

본 발명에서, PPG신호는 SpO2센서(35)을 사용하여 얻어지는 것이 선호된다.In the present invention, it is preferred that the PPG signal be obtained using an SpO2 sensor (35).

예컨대, PPG 신호는 심실 수축기 동안 박출(ejection)된 혈액이 말초혈관까지 전달될 때 말초혈관에서 측정되는 맥파 신호로, SpO2 센서(35)의 적색 광 LED(51a) 조사동안, 손가락에서 반사된 신호를 광검출기(50)에 의해 수집함으로써 측정될 수 있다. For example, the PPG signal is a pulse signal measured in peripheral blood vessels when blood ejected during ventricular systole is delivered to the peripheral blood vessels, and can be measured by collecting a signal reflected from a finger by a photodetector (50) during irradiation with a red light LED (51a) of an SpO2 sensor (35).

또한, PPG신호는 사람의 심박동에 따라 손끝 동맥과 같이 말초혈관이 분포된 위치에서 말초혈관의 용적 변화인 혈류량 변화 양상을 광량 변화로 변환시켜 나타낸 생체신호로, 이것을 통해 피 측정자의 맥박을 측정할 수 있을 뿐만 아니라, 심전도(ECG) 신호와 상관관계를 비교함으로써 맥파 전달 시간(PTT, Pulse Transit Time), Pulse Arrival Time(PAT), 및 맥파 전달 속도(PWV, Pulse Wave Velocity)를 측정하여 혈관의 상태, 동맥경화, 말초 순환 장애 진단 등 같은 심혈관 질환 진단에 사용될 수 있다.In addition, the PPG signal is a biosignal that converts the change in blood flow, which is the volume change of peripheral blood vessels, into a change in light quantity at locations where peripheral blood vessels are distributed, such as the fingertip arteries, according to the human heartbeat. Not only can this be used to measure the pulse of the subject, but by comparing the correlation with the electrocardiogram (ECG) signal, the pulse transit time (PTT), pulse arrival time (PAT), and pulse wave velocity (PWV) can be measured, which can be used to diagnose cardiovascular diseases such as the condition of blood vessels, arteriosclerosis, and peripheral circulatory disorders.

본 발명의 SpO2센서(35)는 적외선 파장 영역(예컨대, 900nm 내지950nm)의 빛을 포함하는 적외선(이하 ‘IR 광’이라 함)을 피 측정자의 손가락 부위에 조사하는 적외선 LED(51b); 적색 파장 영역(예컨대, 640nm 내지670nm)의 빛을 포함하는 적색 광(이하 ‘RED 광’이라 함)을 손가락 부위에 조사하는 적색광 LED(51a); 및 상기 손가락 부위에서 반사한 상기 IR 광과 RED 광을 수광하기 위한 광 검출기(50)를 포함하되, 이들 수광된 IR광과 RED광간의 성분의 비를 바탕으로 산소포화도를 계산하는 것이 선호 된다.The SpO2 sensor (35) of the present invention includes an infrared LED (51b) that irradiates infrared light (hereinafter referred to as “IR light”) including light in an infrared wavelength range (e.g., 900 nm to 950 nm) to a finger portion of a subject; a red light LED (51a) that irradiates red light (hereinafter referred to as “RED light”) including light in a red wavelength range (e.g., 640 nm to 670 nm) to the finger portion; and a light detector (50) for receiving the IR light and RED light reflected from the finger portion, but it is preferred to calculate the oxygen saturation based on the ratio of components between the received IR light and RED light.

본 발명의 일 실시예에 따르면, 상기SpO2센서(35)는 왼쪽 핸드 프린트(70L)의 손가락 끝에 설치되고, 제어부(53)의 명령에 따라 LED의 온오프(On-Off)가 제어되는 발광 다이오드 구동부(80)에 의해 적색광 LED(51a)와 적외선 LED(51b)를 한 주기씩 순차적으로 시차를 두고 환자의 손가락(800)의 말초혈관 부위에 조사한 후, 조사된 빛이 혈액에 흐르는 혈관부분에서 반사 되는 빛의 양을 광 검출기(50)에서 감지하여 광의 세기에 따라 전류로 변화된 전기적 신호로부터 산소 헤모글로빈과 환원 헤모글로빈량을 산출하고, 이로부터 산소포화도를 계산한다.According to one embodiment of the present invention, the SpO2 sensor (35) is installed at the fingertip of the left hand print (70L), and the on-off of the LED is controlled by the light-emitting diode driver (80) according to the command of the control unit (53), and the red light LED (51a) and the infrared LED (51b) are sequentially irradiated onto the peripheral blood vessel area of the patient's finger (800) with one cycle at a time difference, and then the amount of light reflected from the blood vessel area where the irradiated light flows is detected by the light detector (50), and the amount of oxygenated hemoglobin and reduced hemoglobin is calculated from the electrical signal changed into current according to the intensity of the light, and the oxygen saturation is calculated therefrom.

차동 증폭기(84)는 광검출기(50)로부터 출력되는 전기적 신호를 전류-전압 변환 후 증폭하며, 필터(81)에 의해 노이즈를 제거한 후 AD 변환기(82)에 의해 아날로그 신호를 디지털로 변환한다.The differential amplifier (84) amplifies the electrical signal output from the photodetector (50) after converting it to current-voltage, removes noise by a filter (81), and then converts the analog signal to digital by an AD converter (82).

발광 다이오드 구동부(80)는 광 검출기(50)의 출력값을 피드백 받은 후 광 검출기(50)에서 충분한 세기의 전기적 신호가 출력되도록 적색광 LED(51a)와 적외선 LED(51b)의 구동 전류를 조절하는 회로부이다. 이는 사람의 손가락 피부마다 광의 흡수율이 다르기 때문에 손가락 피부에 가해지는 광량의 크기를 조절하기 위한 것이다. The light emitting diode driver (80) is a circuit that controls the driving current of the red LED (51a) and the infrared LED (51b) so that an electrical signal of sufficient intensity is output from the light detector (50) after receiving feedback on the output value of the light detector (50). This is to control the size of the amount of light applied to the finger skin because the absorption rate of light is different for each person's finger skin.

상기 제어부(53)는 AD변환기(82)를 통해 읽어들인 DC 레벨을 가지고 적외선광 과 적색광의 구동 세기를 조절하여 적색광 LED(51a)와 적외선 LED(51b)가 같은 DC 레벨을 갖도록 발광 다이오드 구동부(80)를 구동시키는 것이 선호된다.It is preferred that the above control unit (53) adjusts the driving intensity of infrared light and red light using the DC level read through the AD converter (82) to drive the light-emitting diode driver (80) so that the red light LED (51a) and the infrared LED (51b) have the same DC level.

또한, 산소 포화도 연산수단(미도시)에서는 디지털화된 IR 광 성분(적외선 성분) 과 RED 광 성분(적색광 성분)을 각각 극성이 반전 (inverting)시킨 후, 직류 성분은 제거한 교류 성분만 가지고 산소포화도 값을 계산하고, 그 계산 결과를 의료 데이터 저장부(15)에 저장하는 것이 선호된다.In addition, in the oxygen saturation calculation means (not shown), it is preferred to calculate the oxygen saturation value by inverting the polarity of the digitized IR light component (infrared component) and RED light component (red light component), removing the direct current component and using only the alternating current component, and then storing the calculation result in the medical data storage unit (15).

또한, PPG신호는 상기 교류 성분 중 RED 광 성분만 가지고 얻을 수 있으며, 그 계산 결과를 의료 데이터 저장부(15)에 저장하는 것이 선호된다.In addition, the PPG signal can be obtained using only the RED light component among the above AC components, and it is preferred to store the calculation result in the medical data storage unit (15).

즉, 산소포화도(SpO2)는 적색광 LED(51a)와 적외선 LED(51b)을 한 주기씩 순차적으로 번갈아 발광시켜 손가락(800)의 말초 동맥 혈관(55) 부위에 조사한 다음 반사된 IR 광 성분과 RED 광 성분을 광 검출기(50)로 수광하여, 이들간의 성분 비로 계산하는 반면, PPG신호는 RED광 성분만을 이용하여 측정될 수 있다.That is, while oxygen saturation (SpO2) is measured by sequentially irradiating the peripheral arterial blood vessel (55) area of a finger (800) with red light LED (51a) and infrared LED (51b) alternately and sequentially in one cycle, and then receiving the reflected IR light component and RED light component with a light detector (50) and calculating the ratio of the components between them, the PPG signal can be measured using only the RED light component.

생체 신호 수집부(420)는 상기 AD 변환기(82)에 의해 디지털화된 IR 광 성분 내지 RED 광 성분이 사용자 인증이 완료되었는지, 그리고 유효한 생체 신호인지를 판별하고, 제어부(53)는 사용자 인증된 유효한 생체신호 정보(산소 포화도 내지 PPG신호) 만을 의료 데이터 저장부(15)에 저장한다.The biosignal collection unit (420) determines whether the IR light component or RED light component digitized by the AD converter (82) has completed user authentication and is a valid biosignal, and the control unit (53) stores only the user-authenticated valid biosignal information (oxygen saturation or PPG signal) in the medical data storage unit (15).

여기서, 교류(AC) 성분은 말초혈관을 통과하는 혈액에 의해 흡수된 광량을 나타내고, 반면 직류(DC) 성분은 모세혈관이나 근육, 표피, 뼈와 같은 조직에 의해 흡수된 광량을 나타낸다. 즉, 박동성 동맥혈관의 팽창과 수축에 따라 혈액 변화는 AC 성분으로 표시된다. 이에 비해 혈액을 제외한 나머지 요소들(즉, 피부와 조직)은 DC 성분으로 나타나므로, 최종적인 산소포화도 및 PPG신호를 얻기 위해서는 AC성분만 추출하여 사용한다.Here, the alternating current (AC) component represents the amount of light absorbed by blood passing through peripheral blood vessels, while the direct current (DC) component represents the amount of light absorbed by tissues such as capillaries, muscles, skin, and bones. That is, blood changes due to dilatation and contraction of pulsatile arterial blood vessels are represented by the AC component. In contrast, the remaining elements (i.e., skin and tissues) except for blood are represented by the DC component, so only the AC component is extracted and used to obtain the final oxygen saturation and PPG signal.

상기 산소 포화도 연산 수단(미도시)은, 광검출기(50)에 수광되는 신호의 세기로 옥시헤모글로빈(HbO2) 농도와 디옥시헤모글로빈(Hb) 농도를 산정하는 것이 선호되며, 이때 산소 포화도(SpO2)는 HbO2농도/(HbO2농도+Hb농도) 와 같은 수식으로 계산될 수 있다.The above oxygen saturation calculation means (not shown) preferably calculates the oxyhemoglobin (HbO2) concentration and the deoxyhemoglobin (Hb) concentration by the intensity of the signal received by the photodetector (50), and at this time, the oxygen saturation (SpO2) can be calculated by a formula such as HbO2 concentration/(HbO2 concentration + Hb concentration).

여기서, 옥시헤모글로빈(HbO2) 농도는 적색광 LED(51a)가 온(On)되었을 때의 광검출기(50)에 수광되는 신호의 세기(Red 광 성분)이고, 반면 디옥시헤모글로빈(Hb) 농도는, 적외선 LED가 온(On)되었을 때의 광 검출기(50)에 수광되는 신호의 세기(IR광 성분)를 사용하는 것이 선호된다. 이때 광 검출기(50)에 수광되는 신호의 세기 중 DC성분 제외시켜 AC성분만 사용하여 옥시헤모글로빈(HbO2) 농도와 디옥시헤모글로빈(Hb) 농도를 산정하는 것이 선호된다.Here, the oxyhemoglobin (HbO2) concentration is the intensity (red light component) of the signal received by the photodetector (50) when the red light LED (51a) is turned on, whereas the deoxyhemoglobin (Hb) concentration is preferably the intensity (IR light component) of the signal received by the photodetector (50) when the infrared LED is turned on. At this time, it is preferred to calculate the oxyhemoglobin (HbO2) concentration and the deoxyhemoglobin (Hb) concentration by excluding the DC component from the intensity of the signal received by the photodetector (50) and using only the AC component.

상기 산소 포화도 연산 수단(미도시)의 또 다른 측면은 먼저 아래 수학식2과 같이 Red2IR 비율을 산출하고, 그후 Beer-Lambert law에 기반한 Loop up 테이블에 의해 Red2IR 비율값을 대응하는 산소 포화도 값으로 변환하여 산소 포화도를 구할 수 있다.Another aspect of the above oxygen saturation calculation means (not shown) is that the Red2IR ratio is first calculated as in the mathematical expression 2 below, and then the Red2IR ratio value is converted into the corresponding oxygen saturation value by a loop up table based on the Beer-Lambert law to obtain the oxygen saturation.

[수학식 2][Mathematical formula 2]

여기서, RED DC 는 적색광 LED(51a) On 시 광검출기(50)에 의해 검출된 적색광의 직류성분(DC)들의 평균값이고, IR DC 는 적외선 LED(51b) On 시 광검출기(50)에 의해 검출된 적외선의 직류성분들(DC)의 평균값이다.Here, RED DC is the average value of the DC components (DC) of red light detected by the photodetector (50) when the red light LED (51a) is On, and IR DC is the average value of the DC components (DC) of infrared light detected by the photodetector (50) when the infrared LED (51b) is On.

또한 RED AC 는 적색광 LED(51a) On 시 광검출기(50)에 의해 검출된 적색광의 교류성분(AC)들의 평균값이고, IR AC 는 적외선 LED(51b) On 시 광검출기(50)에 의해 검출된 적외선의 교류성분들(DC)의 평균값이다.Additionally, RED AC is the average value of the AC components (AC) of red light detected by the photodetector (50) when the red light LED (51a) is On, and IR AC is the average value of the AC components (DC) of infrared light detected by the photodetector (50) when the infrared LED (51b) is On.

본 발명에서 광 검출기는 이미지 센서, 포도 다이오드(photo diode) 또는 포토 트랜지스터(phot transistor)를 사용하는 것이 선호된다.In the present invention, it is preferred that the photodetector use an image sensor, a photo diode or a photo transistor.

또한 도 7b는 왼손 핸드 프린트(70L)의 SpO2 센서(35)에 의해 산소포화도 및 광전 용적 맥파 신호를 측정하는 동안, 지문 센서(26)에 의해 환자의 지문 인증이 동시에 이루어지는 예시를 보인다. Also, Fig. 7b shows an example in which a patient's fingerprint is authenticated by a fingerprint sensor (26) simultaneously while measuring oxygen saturation and photoelectric volume pulse signals by an SpO2 sensor (35) of a left hand print (70L).

도 8a와 도 8b는 AI-헬스케어 로봇 장치(100)의 핸드 프린트(70R,70L) 상에 설치된 핸드 바이오 센서로부터 얻어진 생체 신호를 이용하여 혈압, 콜레스테롤, 혈당, 심장질환을 예측하기 위한 일 실시예로, 인공지능 신경망(16)에 의해 혈압을 예측하는 혈압 측정부(20a), 콜레스테롤을 예측하는 콜레스테롤 측정부(20b), 혈당을 예측하는 혈당 측정부(20c), 심장 질환을 예측하는 심장 질환 측정부(20d)를 구현한 실시예이다.FIGS. 8a and 8b illustrate an embodiment of predicting blood pressure, cholesterol, blood sugar, and heart disease using bio-signals obtained from a hand bio-sensor installed on a hand print (70R, 70L) of an AI-healthcare robot device (100), in which a blood pressure measurement unit (20a) for predicting blood pressure, a cholesterol measurement unit (20b) for predicting cholesterol, a blood sugar measurement unit (20c) for predicting blood sugar, and a heart disease measurement unit (20d) for predicting heart disease are implemented by an artificial intelligence neural network (16).

개인 지문 인증과 동시에, ECG 신호 내지 PPG 신호를 기준으로 동기화된 생체신호는 동일한 시점에서 사용자의 몸으로 부터 측정된 생체 신호이기 때문에 동기화 안된 생체신호(서로 다른 시점에서 획득된 생체 신호)를 인공지능 신경망(16)의 입력신호로 사용하는 것 보다 정확한 혈압 측정, 콜레스테롤 측정, 혈당 측정, 심장질환 측정이 가능하다. 환자의 생체신호가 환자의 바디 컨디션과 시간에 따라 수시로 변하기 때문에 동일한 시점 내지 동기화된 시점에서 동시에 수집된 생체신호를 인공지능 신경망(16)의 입력신호로 사용해야만 정확한 진단 결과를 얻을 수 있다.Simultaneously with personal fingerprint authentication, synchronized bio-signals based on ECG or PPG signals are bio-signals measured from the user's body at the same time, so more accurate blood pressure measurement, cholesterol measurement, blood sugar measurement, and heart disease measurement are possible than using non-synchronized bio-signals (bio-signals acquired at different times) as input signals for the artificial intelligence neural network (16). Since the patient's bio-signals change frequently depending on the patient's body condition and time, bio-signals collected at the same time or at synchronized times must be used as input signals for the artificial intelligence neural network (16) in order to obtain accurate diagnosis results.

본 발명의 인공지능 신경망(16)에 입력되는 생체 신호는 ECG신호(69a), PPG신호(68), 산소포화도(69c), PTT(69d), PAT, PWV, HRV, 글루코스 스펙트로스코피(69e), 체지방(69f), 망막 이미지, 외부 의료기기로 부터의 수신된 의료 데이터 중 선택된 어느 하나 이상을 포함할 수 있다.The biosignals input to the artificial intelligence neural network (16) of the present invention may include at least one selected from among an ECG signal (69a), a PPG signal (68), oxygen saturation (69c), PTT (69d), PAT, PWV, HRV, glucose spectroscopy (69e), body fat (69f), retinal image, and medical data received from an external medical device.

예컨대, 왼손 핸드 프린트(70L) 면과 피 측정자의 왼손(72L)의 바닥면, 오른손 핸드 프린트(70R) 면 과 피 측정자의 오른손(72R)의 바닥면을 서로 마주보게 맞대어 접촉하는 동안, 피 측정자의 지문 인식과 더불어, ECG신호, 산소 포화도, PPG 신호, 체지방, 및 글루코스 스펙트로스코피를 동일한 싯점에 측정할 수 있다.For example, while the left hand print (70L) surface and the bottom surface of the left hand (72L) of the subject are placed in contact with each other, and the right hand print (70R) surface and the bottom surface of the right hand (72R) of the subject are placed in contact with each other so that the subject's fingerprint is recognized, and ECG signals, oxygen saturation, PPG signals, body fat, and glucose spectroscopy can be measured at the same time.

즉, 왼손 핸드 프린트(70L) 상에서는 지문 센서(26)에 의해 피 측정자의 지문을 인식하는 동시에, SpO2센서(35)에 의한 산소 포화도 와 PPG신호(68)를 동일한 시간에 측정할 수 있다.That is, on the left hand print (70L), the fingerprint of the subject can be recognized by the fingerprint sensor (26), and the oxygen saturation and PPG signal (68) by the SpO2 sensor (35) can be measured at the same time.

또한, 오른손 핸드 프린트(70R) 상의 ECG 센서(48) 와 손전극1(24a)을 사용하여 ECG신호(69a)도 동시에 계측할 수 있다.Additionally, the ECG signal (69a) can be measured simultaneously using the ECG sensor (48) and hand electrode 1 (24a) on the right hand print (70R).

또한, 양손의 핸드 프린트(70R,70L) 상의 손전극들(24a,24b,24c,24d)을 사용하여 체지방, 글루코스 스펙트로스코피도 동시에 측정할 수 있다.Additionally, body fat and glucose spectroscopy can be simultaneously measured using hand electrodes (24a, 24b, 24c, 24d) on the hand prints (70R, 70L) of both hands.

PTT(69d)는 ECG 피크(예컨대 PQRST 파(wave)에서 R 피크 )와 PPG신호의 피크 지점 간의 시간차 내지 ECG 피크와 SDPPG(Second Derivative Photoplethysmographic)의 피크간의 시간차로서 정의될 수 있다.PTT(69d) can be defined as the time difference between an ECG peak (e.g., R peak in the PQRST wave) and the peak point of a PPG signal, or the time difference between an ECG peak and a peak of a Second Derivative Photoplethysmographic (SDPPG).

또한 ECG 신호(69a)와 PPG신호(68)간의 상관관계를 비교함으로써 맥파 전달 시간(PTT, Pulse Transit Time) 외에 Pulse Arrival Time(PAT), 및 맥파 전달 속도(PWV, Pulse Wave Velocity)를 측정할 수 있다.In addition, by comparing the correlation between the ECG signal (69a) and the PPG signal (68), in addition to the pulse transit time (PTT), the pulse arrival time (PAT) and the pulse wave velocity (PWV) can be measured.

ECG 신호(69a)상의 R 피크 시점에서 심실이 수축하면서 동맥으로 혈액을 밀어 내기 시작하므로, PTT측정의 시작점 기준을 R피크로 사용하고, PPG신호의 피크 내지 SDPPG의 피크를 PTT 측정의 종료 시점으로 삼을 수 있다.Since the ventricle begins to contract and push blood into the artery at the R peak point on the ECG signal (69a), the R peak can be used as the starting point for PTT measurement, and the peak of the PPG signal or the peak of the SDPPG can be used as the end point for PTT measurement.

본 발명의 심장 맥박 측정은 ECG신호의 피크(R 지점) 내지 PPG신호를 이용하여 분당 Beats수(beats/min)로 산정할 수 있다, 또한 HRV(Heart Rate Variability)는 심장 맥박의 변동률을 말하며, 상기의 심장맥박수의 변동량을 계측하여 산정할 수 있다.The heart pulse measurement of the present invention can be calculated as the number of beats per minute (beats/min) using the peak (R point) of the ECG signal or the PPG signal. In addition, HRV (Heart Rate Variability) refers to the rate of change in the heart pulse, and can be calculated by measuring the amount of change in the heart pulse rate.

본 발명의 인공지능 신경망(16)은 혈압 측정용 인공지능 신경망, 콜레스테롤 측정용 인공지능 신경망, 혈당 측정용 인공지능 신경망, 심장 질환 측정용 인공지능 신경망, 또는 망막 분석용 인공지능 신경망 일 수 있다.The artificial intelligence neural network (16) of the present invention may be an artificial intelligence neural network for measuring blood pressure, an artificial intelligence neural network for measuring cholesterol, an artificial intelligence neural network for measuring blood sugar, an artificial intelligence neural network for measuring heart disease, or an artificial intelligence neural network for analyzing retina.

본 발명의 혈압 측정부(20a)는 다양한 혈압 수치에 따라 표지된(labeled) 생체신호 및 개인 신체정보(69g)를 이용하여 학습된 혈압 측정용 인공지능 신경망에 의해 피 측정자의 혈압을 예측하는 것이 선호된다. It is preferred that the blood pressure measuring unit (20a) of the present invention predicts the blood pressure of the subject by using an artificial intelligence neural network for blood pressure measurement learned using labeled bio-signals and personal body information (69g) according to various blood pressure values.

혈압이란 심장에서 보낸 혈액이 동맥의 혈관 벽에 가하는 압력을 말한다. 심장의 심실이 수축할 때는 혈액의 흐르는 양이 많아져서 압력은 높아진다. 반대로 심실이 확장할 때는 흐르는 혈액량이 적어져서 압력은 낮아진다. Blood pressure is the pressure exerted by the blood sent from the heart on the walls of the arteries. When the ventricles of the heart contract, the amount of blood flowing increases, so the pressure increases. Conversely, when the ventricles expand, the amount of blood flowing decreases, so the pressure decreases.

본 발명에서 혈압 측정은 수축기 압력과 이완기 압력의 크기로 나타낸다.In the present invention, blood pressure measurement is expressed as the size of systolic pressure and diastolic pressure.

수축기 혈압(Systolic Pressure)은 심실이 수축할 때의 최대혈압을 나타내고, 이완기 혈압(Diastolic Pressure)은 심실이 확장할 때의 최소혈압을 말한다.Systolic pressure refers to the maximum blood pressure when the ventricles contract, and diastolic pressure refers to the minimum blood pressure when the ventricles expand.

또한, 콜레스테롤 측정부(20b)는 다양한 콜레스테롤 수치에 따라 표지된(labeled) 생체 신호 및 개인 신체정보(69g)를 이용하여 학습된 콜레스테롤 측정용 인공지능 신경망에 의해 피 측정자의 콜레스테롤을 예측하는 것이 선호된다. In addition, it is preferred that the cholesterol measurement unit (20b) predicts the cholesterol of the subject by using an artificial intelligence neural network for cholesterol measurement learned using labeled bio-signals and personal body information (69g) according to various cholesterol levels.

이경우 상기 콜레스테롤 측정부(20b)는 ECG신호(69a)와 PPG(68) 같은 생체 신호의 결합된 정보로 보다 정확한 콜레스테롤 측정이 가능하다.In this case, the cholesterol measurement unit (20b) can measure cholesterol more accurately using combined information of biosignals such as ECG signal (69a) and PPG (68).

예컨대, 정상적인 혈관에 콜레스테롤이 쌓이게 되면 혈관 탄력성이 떨어져 탄성 계수(압력에 저항하는 정도)가 낮아지는데, 심장의 구동 파워를 보여주는 ECG 신호(69a) 와 PPG신호(68)를 가지고 콜레스테롤 수치를 추정할 수 있다. 콜레스테롤이 쌓이는 경우, 혈관 탄력이 떨어져 기준 대비 말초혈관의 용적 변화가 작아져 PPG신호(68)의 크기 변화가 작아지거나 PTT(69d)가 길어진다.For example, when cholesterol accumulates in normal blood vessels, the elasticity of the blood vessels decreases and the elastic coefficient (the degree of resistance to pressure) decreases. The cholesterol level can be estimated using the ECG signal (69a) and the PPG signal (68) that show the driving power of the heart. When cholesterol accumulates, the elasticity of the blood vessels decreases and the volume change of the peripheral blood vessels decreases compared to the reference, so the size change of the PPG signal (68) decreases or the PTT (69d) becomes longer.

상기 콜레스테롤 측정부(20b)의 또 다른 측면은 중성지방(Triglyceride: TG), HDL-C(high-density lipoprotein-cholesterol), LDL-C(low-density lipoprotein-L cholesterol)값 중 선택된 어느 하나 이상의 값에 따라 표지된 생체 신호 및 개인 신체정보(69g)를 이용하여 학습된 콜레스테롤 측정용 인공지능 신경망에 의해 피 측정자의 중성지방, HDL-C, LDL-C(low-density lipoprotein-L cholesterol)값 중 선택된 콜레스테롤 수치를 예측하는 것이 선호된다.Another aspect of the cholesterol measurement unit (20b) is that it is preferable to predict a cholesterol level selected from among the triglyceride (TG), high-density lipoprotein-cholesterol (HDL-C), and low-density lipoprotein-L cholesterol (LDL-C) values of the subject by using a learned artificial intelligence neural network for cholesterol measurement using the bio-signals and personal body information (69g) labeled according to one or more values selected from among the triglyceride (TG), high-density lipoprotein-cholesterol (HDL-C), and low-density lipoprotein-L cholesterol (LDL-C).

또한, 혈당 측정부(20c)는 다양한 혈당 수치에 따라 표지된(labeled) 생체 신호 및 개인 신체정보(69g)를 이용하여 학습된 혈당 측정용 인공지능 신경망에 의해 피 측정자의 혈당을 예측하는 것이 선호된다. 상기 혈당 수치는 식후 혈당 내지 HbA1c(당화 혈색소) 수치를 사용하는 것이 선호된다. In addition, it is preferred that the blood sugar measurement unit (20c) predicts the blood sugar level of the subject by using an artificial intelligence neural network for blood sugar measurement learned using labeled bio-signals and personal body information (69g) according to various blood sugar levels. It is preferred that the blood sugar level use postprandial blood sugar or HbA1c (glycated hemoglobin) levels.

또한 심장 질환 측정부(20d)는 심장 질환 종류와 등급에 따라 표지된(labeled) 생체 신호 및 개인 신체정보(69g)를 이용하여 학습된 심장 질환 측정용 인공지능 신경망에 의해 피 측정자의 심장 질환을 예측하는 것이 선호된다. In addition, it is preferred that the heart disease measurement unit (20d) predicts the heart disease of the subject by using an artificial intelligence neural network for heart disease measurement learned using labeled bio-signals and personal body information (69g) according to the type and grade of heart disease.

이경우 상기 심장 질환 측정부(20d)는 ECG신호(69a)와 PPG신호(68) 같은 생체 신호의 결합된 정보로 보다 정확한 심장 질환 의 예후 진단이 가능하다.In this case, the heart disease measurement unit (20d) can diagnose the prognosis of heart disease more accurately using combined information of biosignals such as the ECG signal (69a) and the PPG signal (68).

즉, ECG 신호(69a)와 PPG신호(68)간의 상관관계를 비교함으로써 맥파 전달 시간(PTT, Pulse Transit Time), Pulse Arrival Time(PAT), 및 맥파 전달 속도(PWV, Pulse Wave Velocity)를 산정하고, 이때 심장 질환 측정부(20d)는 이들 산정된 정보를 이용하여 혈관의 상태, 동맥경화, 말초 순환 장애 진단 등 같은 심혈관 질환 진단에 사용될 수 있다.That is, by comparing the correlation between the ECG signal (69a) and the PPG signal (68), the pulse transit time (PTT), the pulse arrival time (PAT), and the pulse wave velocity (PWV) are calculated, and at this time, the heart disease measurement unit (20d) can be used to diagnose cardiovascular diseases such as the condition of blood vessels, arteriosclerosis, and peripheral circulatory disorders by using the calculated information.

상기 심장 질환 측정부(20d)의 또 다른 측면은 심부전, 동맥경화, 심근경색, 협심증 중 선택된 어느 하나 이상의 값에 따라 표지된 생체 신호 및 개인 신체정보(69g)를 이용하여 학습된 심장 질환 측정용 인공지능 신경망에 의해 피 측정자의 심부전, 동맥경화, 심근경색, 협심증 중 선택된 심장 질환을 예측하는 것이 선호된다.Another aspect of the above heart disease measurement unit (20d) is heart failure, The artificial intelligence neural network for measuring heart disease learned using bio-signals and personal body information (69g) labeled according to one or more values selected from arteriosclerosis, myocardial infarction, and angina pectoris, is used to measure the subject's heart failure, Preference is given to predicting selected cardiac diseases among arteriosclerosis, myocardial infarction, and angina pectoris.

상기 인공지능 신경망(16)은 ECG 신호(69a)의 두 R지점을 기준으로 동기화된 생체 신호 및 개인 신체 정보(69g)를 입력으로 사용하는 것이 선호된다, 즉, R-to-R 구간 마다 발생하는 생체 신호를 상기 인공지능 신경망(16)의 입력신호로서 사용하는 것이 선호된다.It is preferred that the above artificial intelligence neural network (16) uses synchronized bio-signals and personal body information (69g) based on two R points of the ECG signal (69a) as inputs, that is, it is preferred that the bio-signals generated at each R-to-R section be used as input signals of the artificial intelligence neural network (16).

상기 동기화된 생체신호는 동일한 시점에서 사용자의 몸으로 부터 측정된 생체 신호이기 때문에, 이러한 동기화된 생체신호를 입력으로 사용하는 인공지능 신경망(16)은 보다 정확한 혈압, 콜레스테롤, 혈당, 및 심장 질환 측정이 가능하다. Since the above synchronized bio-signals are bio-signals measured from the user's body at the same point in time, an artificial intelligence neural network (16) that uses these synchronized bio-signals as input can measure blood pressure, cholesterol, blood sugar, and heart disease more accurately.

상기 인공지능 신경망(16)의 다른 측면은 상기 PPG신호(68)의 피크점을 기준으로 동기화된 생체 신호 및 개인 신체 정보(69g)를 사용하는 것이 선호된다.Another aspect of the above artificial intelligence neural network (16) is that it is preferred to use synchronized bio-signals and personal body information (69g) based on the peak point of the above PPG signal (68).

도 8a내지 도 8b는 ECG신호(69a), PPG신호(68), 산소포화도(69c), PTT(69d), PAT,PWV,HRV, 글루코스 스펙트로스코피(69e),체지방(69f) 및 개인 신체 정보(69g)를 이용하여 분류기(Classifier)(21a)에 의해 혈압, 콜레스테롤, 혈당, 심장질환을 측정하는 인공지능 신경망(16)의 실시예들이다. Figures 8a and 8b are examples of artificial intelligence neural networks (16) that measure blood pressure, cholesterol, blood sugar, and heart disease by a classifier (21a) using an ECG signal (69a), a PPG signal (68), oxygen saturation (69c), PTT (69d), PAT, PWV, HRV, glucose spectroscopy (69e), body fat (69f), and personal body information (69g).

또한, 도 8a내지 도 8b 예시 경우, 분류기(21a)의 출력에 시계열 인공지능 네트웍(time sequence neural network)이 연결되어 사용할 수 있다. 이 경우 생체신호의 시계열 정보를 분석하여 혈압, 콜레스테롤, 혈당, 심장 질환을 산정할 수 있다.In addition, in the case of the examples of Figs. 8a and 8b, a time sequence neural network can be connected to the output of the classifier (21a) and used. In this case, blood pressure, cholesterol, blood sugar, and heart disease can be estimated by analyzing the time series information of the biosignal.

도 8a에 있어서는, 특징 벡터 추출부1(33a)은 ECG신호(69a) 로부터 특징 벡터를 뽑아 내고, 특징 벡터 추출부2(33b)은 PPG신호(68) 로부터 특징 벡터를 뽑아 낸다. In Fig. 8a, feature vector extraction unit 1 (33a) extracts a feature vector from an ECG signal (69a), and feature vector extraction unit 2 (33b) extracts a feature vector from a PPG signal (68).

상기 ECG신호(69a), PPG신호(68)의 특징 벡터는 딥런닝 신경회로망(Deep learning Neural Network) 내지 주파수 영역의 스펙트럼 분석에 의해 추출될 수 있다. The feature vectors of the above ECG signal (69a) and PPG signal (68) can be extracted by a deep learning neural network or spectrum analysis in the frequency domain.

예컨대 상기 딥런닝 신경회로망(Deep learning Neural Network)은 1-D CNN(Convolutional Neural Network) 이 될 수 있다.For example, the above deep learning neural network can be a 1-D CNN (Convolutional Neural Network).

또한 상기 주파수 영역의 스펙트럼 분석에 의한 특징 벡터 추출은 Linear Prediction Codes(LPC), Mel-Coefficient, Mel-Frequency Cepstral Coefficient(MFCC), Cepstral Coefficient, Perceptual Linear Prediction(PLP) 또는 Bark Frequency Cepstral Coefficients (BFCC)에 의해 이루어 질 수 있다.In addition, feature vector extraction by spectral analysis of the frequency domain can be performed by Linear Prediction Codes (LPC), Mel-Coefficient, Mel-Frequency Cepstral Coefficient (MFCC), Cepstral Coefficient, Perceptual Linear Prediction (PLP) or Bark Frequency Cepstral Coefficients (BFCC).

예컨대, 생체 신호와 개인 신체 정보(69g)를 서버(13)에 제공하고, 이후 서버(13) 상의 인공지능 신경망(16)으로부터 혈압, 콜레스테롤, 혈당, 심장 질환에 대한 진단결과를 피드백 받을 수 있다. For example, bio-signals and personal body information (69g) can be provided to a server (13), and then diagnostic results for blood pressure, cholesterol, blood sugar, and heart disease can be fed back from an artificial intelligence neural network (16) on the server (13).

도 8b는 혈압, 콜레스테롤, 혈당, 심장질환을 산정하기 위한 인공지능 신경망(16)의 또 다른 실시예로, Linear Prediction Codes(LPC), Mel-Coefficient, Mel-Frequency Cepstral Coefficient(MFCC), Cepstral Coefficient, Perceptual Linear Prediction(PLP), STFT(Short Time Fourier Transform) 또는 Bark Frequency Cepstral Coefficients (BFCC)에 의해 산출되는 spectrogram을 CNN(57)의 입력으로 사용할 수 있다.Fig. 8b is another embodiment of an artificial intelligence neural network (16) for estimating blood pressure, cholesterol, blood sugar, and heart disease. A spectrogram produced by Linear Prediction Codes (LPC), Mel-Coefficient, Mel-Frequency Cepstral Coefficient (MFCC), Cepstral Coefficient, Perceptual Linear Prediction (PLP), Short Time Fourier Transform (STFT), or Bark Frequency Cepstral Coefficients (BFCC) can be used as an input to CNN (57).

특징 벡터 추출부4(33d)은 ECG신호(69a)로부터 ECG신호의 spectrogram을 출력하고, 특징 벡터 추출부5(33e)은 PPG신호(68)로부터 PPG신호의 spectrogram를 출력한다.Feature vector extraction unit 4 (33d) outputs a spectrogram of an ECG signal from an ECG signal (69a), and feature vector extraction unit 5 (33e) outputs a spectrogram of a PPG signal from a PPG signal (68).

이들 Spectrogram은 CNN(Convolutional Neural Network,57)에 입력되어 특징 벡터를 출력하게 된다. 또한 상기 CNN(57)은 ECG신호(69a), PPG신호(68) 각각에 대해 별도의 독립된 CNN을 적용하여 사용할 수 있다.These spectrograms are input to a CNN (Convolutional Neural Network, 57) to output a feature vector. In addition, the CNN (57) can be used by applying a separate, independent CNN to each of the ECG signal (69a) and the PPG signal (68).

이들 특징 벡터들은 산소 포화도(69c), PTT(69d), PAT, PWV, HRV, 글루코스 스펙트로스코피(69e), 체지방(69f) 및 개인 신체 정보(69g)를 함께 분류기(21a)에 입력되어 혈압, 콜레스테롤, 혈당, 심장 질환을 산정하게 된다.These feature vectors are input into a classifier (21a) together with oxygen saturation (69c), PTT (69d), PAT, PWV, HRV, glucose spectroscopy (69e), body fat (69f), and personal body information (69g) to estimate blood pressure, cholesterol, blood sugar, and heart disease.

본 발명의 분류기(21a)는 FCN(Fully connected Network) 또는 SVM(support Vector Machine) 일수 있다.The classifier (21a) of the present invention may be a fully connected network (FCN) or a support vector machine (SVM).

본 발명의 일 실시예를 따르는 AI-헬스케어 로봇 장치는, 근거리 통신 연결부(8)에 의해 외부의 의료기기(430)로부터 측정된 의료 데이터를 수신하여 저장하는 의료 데이터 저장부(15) 및 학습용 의료 데이터들에 의해 사전에 딥런닝 학습된 인공 신경망(16) 내지 전문가 시스템(18)을 포함할 수 있고, 상기 딥런닝 학습된 인공 신경망(16) 내지 전문가 시스템(18)은, 상기 근거리 통신 연결부(8)에 의해 수신된 상기 의료 데이터를 분석하여, 환자의 질병 유무와 질병의 위험도를 자동으로 판별할 수 있다. 또한 이상징후가 발견된 경우, 의사 단말과의 인터넷 통신 연결을 통해 원격 의료 진단 서비스를 제공할 수 있다.An AI-healthcare robot device according to one embodiment of the present invention may include a medical data storage unit (15) for receiving and storing medical data measured from an external medical device (430) by a short-range communication connection unit (8), and an artificial neural network (16) or an expert system (18) that has been previously trained by deep learning using medical data for learning, and the artificial neural network (16) or the expert system (18) that has been trained by deep learning may analyze the medical data received by the short-range communication connection unit (8) to automatically determine whether a patient has a disease and the risk of the disease. In addition, when an abnormal symptom is found, a remote medical diagnosis service may be provided through an Internet communication connection with a doctor terminal.

본 발명의 인공지능 신경망의 또 다른 측면은 AI- 헬스케어 로봇 장치는 측정되거나 확보된 의료 데이터를 핸드폰에 전송하고, 이후 핸드폰상에 어플(application software)로서 설치된 인공지능 신경망 앱(app)에 의해 얻어진 상기 의료 데이터의 분석한 결과를 피 측정자에게 제공할 수 있다.Another aspect of the artificial intelligence neural network of the present invention is that the AI-healthcare robot device can transmit measured or acquired medical data to a mobile phone, and then provide the subject with the analysis results of the medical data obtained by the artificial intelligence neural network app installed as an application software on the mobile phone.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 AI- 헬스케어 로봇 장치를 이용한 자가 검사 처리 방법의 동작 흐름을 간단히 살펴보기로 한다.Below, based on the detailed description above, we will briefly review the operation flow of the self-examination processing method using the AI-healthcare robot device of this hospital.

단계 S100에서, 핸드 프린트 상에 사용자의 손을 올려놓아 핸드 바이오 센서와 사용자의 손 바닥면과의 신체적 접촉에 의해 사용자의 생체 신호를 수집할 수 있다.In step S100, the user's hand is placed on the hand print so that the user's biosignal can be collected by physical contact between the hand biosensor and the bottom surface of the user's hand.

단계 S101에서, 망막 이미지 센서를 이용하여, 사용자와의 신체적 접촉에 의해 사용자의 생체 신호를 수집할 수 있다. In step S101, a user's biosignal can be collected by physical contact with the user using a retinal image sensor.

단계 S102에서, 생체 신호 유효 판단 수단을 이용하여 수집된 생체 신호 중 사용자 인증이 완료된 유효한 생체신호를 판별할 수 있다.In step S102, a valid biosignal for which user authentication has been completed can be determined among the collected biosignals using a biosignal validity determination means.

단계 S103에서, 외부의 의료기기들에 의해 측정된 의료 데이터 내지 생체 신호를 인공지능 신경망 및 전문가 시스템에 의해 분석할 수 있다. In step S103, medical data or biosignals measured by external medical devices can be analyzed by an artificial intelligence neural network and an expert system.

단계 S104에서, 상기 단계 S103에서의 분석 결과에 질병이 의심되는 징후가 발견된 경우, 의사 단말과의 인터넷 통신 연결을 통해 원격 의료 진단 서비스를 제공할 수 있다.In step S104, if a sign suspected of a disease is found in the analysis result in step S103, a remote medical diagnosis service can be provided through an Internet communication connection with a doctor terminal.

상술한 설명에서, 단계 S100 내지 S104은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S100 to S104 may be further divided into additional steps or combined into fewer steps, depending on the implementation example of the present invention. In addition, some steps may be omitted as needed, and the order between the steps may be changed.

본원의 일 실시 예에 따른 AI- 헬스케어 로봇 장치를 이용한 자가 검사 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. A self-examination processing method using an AI-healthcare robot device according to one embodiment of the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program commands, data files, data structures, etc., alone or in combination. The program commands recorded on the medium may be those specially designed and configured for the present invention or may be those known to and usable by those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specially configured to store and execute program commands such as ROMs, RAMs, and flash memories. Examples of the program commands include not only machine language codes generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter, etc. The above hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 AI-헬스케어 로봇 장치를 이용한 자가 검사 처리 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the self-examination processing method using the aforementioned AI-healthcare robot device can also be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustrative purposes only, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single component may be implemented in a distributed manner, and likewise, components described as distributed may be implemented in a combined manner.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims described below rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present application.

8: 근거리 통신 연결부
39: 건강 추적 관리부
13: 서버
15: 의료 데이터 저장부
16: 인공지능 신경망
18: 전문가 시스템
19: 체열 진단부
20a: 혈압 측정부
20b: 콜레스테롤 측정부
20c: 혈당 측정부
20d: 심장 질환 측정부
20e: 망막 질환 측정부
22: 비젼 카메라
26: 지문 센서
24a: 손 전극1 24b:손전극2
24c: 손전극 3 24d: 손전극4
27a: 음성 인식부
28a: 음성 재생부
37: 무선 통신 연결 수단
38a: 스피커부 38b: 마이크부
40: 압력 센서
46: AD 변환기
47: 인체 피부 표면
48: ECG 센서
48a: 절연막 48b: ECG 전극면
48c: ECG 출력 전극
49: Sine 파 발생기
50: 광 검출기
51a: 적색광 LED 51b: 적외선 LED
53: 제어부
61: 차동 증폭기
62: HPF
63: BRF
69e: 글루코스 스펙트로스코피 69f:체지방 69g: 개인 신체 정보
70: 체지방 측정부
71: 심전도 측정부
72: 산소 포화도 및 PPG신호 측정부
74: 체열 측정부
79: 망막 이미지 측정부
79a: 눈 네비게이터
79b: 초점 거리 조정 구동부
81: 필터
84: 차동 증폭기
202: 인터넷
420: 생체 신호 수집부
420a: 생체신호 유효 판별 수단
8: Short-range communication connection
39: Health Tracking Management Department
13: Server
15: Medical Data Storage
16: Artificial Intelligence Neural Network
18: Expert System
19: Body temperature diagnostic section
20a: Blood pressure measurement section
20b: Cholesterol measurement section
20c: Blood sugar measurement section
20d: Heart disease measurement department
20e: Retinal Disease Measurement Section
22: Vision Camera
26: Fingerprint sensor
24a: Hand electrode 1 24b: Hand electrode 2
24c: Hand electrode 3 24d: Hand electrode 4
27a: Voice recognition unit
28a: Voice reproduction section
37: Wireless communication connection means
38a: Speaker section 38b: Microphone section
40: Pressure sensor
46: AD converter
47: Human skin surface
48: ECG sensor
48a: Insulating film 48b: ECG electrode surface
48c: ECG output electrode
49: Sine wave generator
50: Photodetector
51a: Red LED 51b: Infrared LED
53: Control Unit
61: Differential Amplifier
62: HPF
63: BRF
69e: Glucose Spectroscopy 69f: Body Fat 69g: Personal Body Information
70: Body fat measurement section
71: Electrocardiogram measurement unit
72: Oxygen saturation and PPG signal measurement unit
74: Body temperature measurement unit
79: Retinal image measurement unit
79a: Snow Navigator
79b: Focal length adjustment drive
81: Filter
84: Differential Amplifier
202: Internet
420: Biosignal collection unit
420a: Means for determining the validity of biosignals

Claims (23)

피 측정자의 손과의 접촉면을 제공하는 핸드 프린트;
상기 핸드 프린트상에 피 측정자의 손과 접촉 동안 피 측정자의 생체 신호 측정과 동시에 피 측정자의 인증을 수행하는 핸드 바이오 센서; 및
상기 생체 신호를 분석하기 위한 인공지능 신경망을 포함하는 AI 헬스케어 로봇 장치.
A hand print providing a contact surface with the subject's hand;
A hand bio sensor that simultaneously measures the subject's vital signals and authenticates the subject while the subject's hand is in contact with the hand print; and
An AI healthcare robot device including an artificial intelligence neural network for analyzing the above biosignals.
로봇에 설치될 뿐만 아니라 피 측정자의 손과의 접촉면을 제공하는 핸드 프린트;
상기 핸드 프린트상에 피 측정자의 손과 접촉 동안 피 측정자의 생체 신호 측정과 동시에 피 측정자의 인증을 수행하는 핸드 바이오 센서;
상기 로봇에 설치되어, 피 측정자의 신체 이미지를 획득하기 위한 비젼 카메라;
상기 비젼 카메라에 의해 피 측정자의 얼굴 및 눈을 인식하여, 피 측정자의 얼굴 정면에 로봇 얼굴이 마주하도록 상기 로봇의 위치를 제어하는 눈 네비게이터;
상기 핸드 바이오 센서로부터 얻어진 생체 신호들을 분석하는 인공지능 신경망; 및
상기 생체 신호의 분석한 결과를 피 측정자에게 음성 메시지로 제공하거나 대화형으로 생체신호 측정을 요구하기 위해 스피커부와 마이크부를 구동 제어하는 제어부를 포함하는 AI 헬스케어 로봇 장치.
A hand print that is not only installed on the robot but also provides a contact surface with the subject's hand;
A hand biosensor that simultaneously measures the subject's vital signals and authenticates the subject while the subject's hand is in contact with the hand print;
A vision camera installed on the above robot to obtain a body image of the subject;
An eye navigator that recognizes the face and eyes of the subject by the vision camera and controls the position of the robot so that the robot face faces the front of the subject's face;
An artificial intelligence neural network that analyzes biosignals obtained from the hand biosensor; and
An AI healthcare robot device including a control unit that operates and controls a speaker unit and a microphone unit to provide the results of analyzing the above biosignals to a subject as a voice message or to interactively request biosignal measurement.
제 1 항 또는 제 2 항에 있어서, 상기 핸드 프린트는 상기 핸드 프린트와 피 측정자의 손 바닥면 간의 밀착 접촉 여부를 감지하거나 시각적으로 표시하는 접촉 센싱 수단을 더 포함하는 AI 헬스케어 로봇 장치.An AI healthcare robot device according to claim 1 or 2, wherein the hand print further includes a contact sensing means for detecting or visually indicating whether there is close contact between the hand print and the palm surface of the subject's hand. 제 3 항에 있어서, 상기 접촉 센싱 수단은 핸드 프린트의 테두리 주변에 배치되는 LED 내지 터치 스크린인 것인 AI 헬스케어 로봇 장치.An AI healthcare robot device in accordance with claim 3, wherein the contact sensing means is an LED or a touch screen arranged around the edge of the hand print. 제 1 항 또는 제 2 항에 있어서, 상기 핸드 프린트는 피 측정자의 손과의 접촉을 허용하는 손 모양의 음각부를 포함하고, 상기 음각부의 표면에는 상기 핸드 바이오 센서가 매설되는 것인 AI 헬스케어 로봇 장치An AI healthcare robot device in claim 1 or 2, wherein the hand print includes a hand-shaped engraved portion that allows contact with the hand of the subject, and the hand biosensor is embedded in the surface of the engraved portion. 제 1 항 또는 제 2 항에 있어서, 상기 핸드 프린트는 피 측정자의 손과의 접촉을 허용하는 터치 스크린, 및 상기 터치 스크린상에 표시되는 가상의 손가락 패턴을 포함하는 것인 AI 헬스케어 로봇 장치.An AI healthcare robot device according to claim 1 or 2, wherein the hand print includes a touch screen that allows contact with a hand of a subject, and a virtual finger pattern displayed on the touch screen. 제 1 항 또는 제 2 항에 있어서, 상기 생체 신호 중 피 측정자 인증이 완료된 생체신호 성분 중 유효한 생체신호 부분만을 걸러내는 생체신호 유효 판별 수단을 더 포함하는 것인 AI 헬스케어 로봇 장치.An AI healthcare robot device, further comprising a means for determining validity of a biosignal for filtering out only a valid biosignal portion among biosignal components for which subject authentication has been completed among the biosignals in claim 1 or 2. 제 1 항 또는 제 2 항에 있어서, 상기 핸드 바이오 센서는 산소 포화도 및 광전 용적 맥파(PPG, Photoplethysmography) 신호를 측정하기 위한 SpO2센서, 복수개의 손전극, 체지방을 측정하는 체지방 센서, 상기 피 측정자 인증을 수행하는 지문 센서, 심박수 내지 심전도를 측정하기 위한 ECG 센서, 글루코스 스펙트로스코피를 얻기 위한 혈당 센서 중 선택된 어느 하나 이상을 포함하는 AI 헬스케어 로봇 장치.An AI healthcare robot device according to claim 1 or 2, wherein the hand biosensor comprises at least one selected from the group consisting of an SpO2 sensor for measuring oxygen saturation and a photoplethysmography (PPG) signal, a plurality of hand electrodes, a body fat sensor for measuring body fat, a fingerprint sensor for authenticating the subject, an ECG sensor for measuring heart rate or electrocardiogram, and a blood sugar sensor for obtaining glucose spectroscopy. 제 8 항에 있어서, 상기 복수의 손 전극은,
구동전극 및 검출전극으로 사용되어, 상기 체지방 내지 글루코스 스펙트로스코피의 생체 신호를 획득하는 것을 특징으로 하는 AI 헬스케어 로봇 장치.
In the 8th paragraph, the plurality of hand electrodes,
An AI healthcare robot device characterized in that it obtains biosignals of body fat or glucose spectroscopy by being used as a driving electrode and a detection electrode.
제 8 항에 있어서, 상기 복수의 손 전극은,
체지방 측정을 위한 전극, ECG 센서의 접지 전극, ECG입력 전극 중 선택된 어느 하나로 동작하는 AI 헬스케어 로봇 장치.
In the 8th paragraph, the plurality of hand electrodes,
An AI healthcare robot device that operates with one selected electrode among an electrode for measuring body fat, a ground electrode of an ECG sensor, and an ECG input electrode.
제 1 항 또는 제 2 항에 있어서, 상기 생체 신호 데이터의 변화 추이를 관찰하여 피 측정자에게 건강상의 위험도를 알려주거나 집중 케어 검사가 필요한 항목을 피 측정자에게 알려주거나 다음 검사 일정을 피 측정자에게 알려주기 위한 건강 추적 관리부를 더 포함하는 AI 헬스케어 로봇 장치.An AI healthcare robot device further comprising a health tracking management unit for observing changes in the bio-signal data in claim 1 or 2 to inform the subject of health risks, inform the subject of items requiring intensive care examination, or inform the subject of the next examination schedule. 제 1 항 또는 제 2 항에 있어서, 상기 인공지능 신경망은 혈압 측정용 인공지능 신경망, 콜레스테롤 측정용 인공지능 신경망, 혈당 측정용 인공지능 신경망, 심장 질환 측정용 인공지능 신경망, 망막 분석용 인공지능 신경망 및 이들의 조합들로 이루어진 군에서 선택된 어느 하나를 포함하고, 상기 인공지능 신경망은 상기 생체신호 및 개인 신체 정보를 입력으로 하는 것인, AI 헬스케어 로봇 장치.An AI healthcare robot device according to claim 1 or 2, wherein the artificial intelligence neural network comprises one selected from the group consisting of an artificial intelligence neural network for measuring blood pressure, an artificial intelligence neural network for measuring cholesterol, an artificial intelligence neural network for measuring blood sugar, an artificial intelligence neural network for measuring heart disease, an artificial intelligence neural network for analyzing retinas, and combinations thereof, and wherein the artificial intelligence neural network takes the bio-signals and personal body information as inputs. 제 12 항에 있어서, 상기 인공지능 신경망의 입력은 ECG 신호의 R지점 내지 PPG신호의 피크점을 기준으로 동기화된 생체 신호이고,
상기 생체 신호는 체온, ECG신호, PPG신호, PCG신호, 산소포화도, PTT, 글루코스 스펙트로스코피, 체지방, 심장맥박수, PTT, PAT, PWV, HRV, 망막 이미지, 외부 의료기기로 부터의 수신된 의료 데이터 중 선택된 어느 하나 이상을 포함하는 것인, AI 헬스케어 로봇 장치.
In the 12th paragraph, the input of the artificial intelligence neural network is a biosignal synchronized based on the R point of the ECG signal or the peak point of the PPG signal,
An AI healthcare robot device, wherein the above bio-signals include at least one selected from body temperature, ECG signal, PPG signal, PCG signal, oxygen saturation, PTT, glucose spectroscopy, body fat, heart rate, PTT, PAT, PWV, HRV, retinal image, and medical data received from an external medical device.
제 2 항에 있어서,
상기 로봇의 눈 부위에 설치되어 피 측정자의 망막 이미지를 채집하는 망막 이미지 센서를 포함하는 망막 이미지 측정부;
상기 핸드 바이오 센서로부터 얻어진 생체 신호를 증폭하거나 디지털 신호로 변환하는 바이오 센싱부;
상기 핸드 프린트와 피 측정자의 손 바닥면 간의 밀착 접촉 여부를 시각적으로 표시하거나 감지하는 접촉 센싱 수단;
상기 망막 이미지 및 상기 디지털 신호화 된 생체 신호를 수집하는 생체 신호 수집부; 및
상기 망막 이미지를 분석하여, 환자의 망막 및 안구에 관련한 질병 유무와 치매 위험도를 판별하기 위한 망막 분석용 인공지능 신경망 내지 안과 전문가 시스템더 포함하는 AI 헬스케어 로봇 장치.
In the second paragraph,
A retinal image measurement unit including a retinal image sensor installed in the eye area of the robot to collect a retinal image of a subject;
A biosensing unit that amplifies or converts a biosignal obtained from the hand biosensor into a digital signal;
A contact sensing means for visually indicating or detecting whether there is close contact between the hand print and the palm surface of the subject's hand;
A biosignal collection unit for collecting the above retinal image and the above digitalized biosignal; and
An AI healthcare robot device further comprising an artificial intelligence neural network or ophthalmology expert system for analyzing the retinal image to determine the presence or absence of diseases related to the patient's retina and eye and the risk of dementia.
제 14 항에 있어서, 상기 핸드 바이오 센서 및 망막 이미지 센서에 의해 측정된 생체 신호를 인공지능 신경망을 통해 분석하고, 의사 단말과의 인터넷 통신 연결을 통해 원격 의료 진단 서비스를 제공하는 무선 통신 연결 수단을 더 포함하는 AI 헬스케어 로봇 장치.In the 14th paragraph, a wireless communication connection means for analyzing bio-signals measured by the hand bio-sensor and retinal image sensor through an artificial intelligence neural network and providing a remote medical diagnosis service through an Internet communication connection with a doctor terminal AI healthcare robotic devices including: 제 2 항에 있어서, 상기 로봇은 피 측정자와의 거리를 측량하기 위한 두 개의 레이저를 더 포함하며,
상기 두 개의 레이저의 빔(beam)은 일정거리 후에 서로 교차되도록 서로에 대해 소정의 각도를 갖고 설치되어 피 측정자에 맺힌 상기 두 레이저 빔 스폿(beam spot)간의 거리를 측량하여 피 측정자와 로봇간의 거리를 계산하는 것인 AI 헬스케어 로봇 장치.
In the second paragraph, the robot further includes two lasers for measuring the distance to the subject,
An AI healthcare robot device in which the two laser beams are installed at a predetermined angle to each other so that they intersect each other after a predetermined distance, and the distance between the two laser beam spots focused on the subject is measured to calculate the distance between the subject and the robot.
제 14 항에 있어서,
상기 망막 이미지 측정부는 피 측정자의 눈 과 상기 망막 이미지 센서간의 광축 정렬을 이루도록 상기 로봇을 이동 제어하는 눈 네비게이터; 및 상기 망막 이미지 센서와 피 측정자의 망막간의 초점거리가 조정하기 위한 초점 거리 조정 구동부를 더 포함하는 AI 헬스케어 로봇 장치.
In Article 14,
An AI healthcare robot device further comprising: an eye navigator for controlling the movement of the robot to achieve optical axis alignment between the eye of the subject and the retinal image sensor; and a focal distance adjustment driving unit for adjusting the focal distance between the retinal image sensor and the retina of the subject.
제 17 항에 있어서, 상기 눈 네비게이터는 상기 비젼 카메라를 이용하여 피 측정자의 몸에 맺힌 두 개의 레이저 빔 스폿(beam spot)간의 거리 간격을 측량할 수 있는 이미지를 획득하여 상기 로봇과 피 측정자간의 거리를 산정하여, 상기 로봇이 피 측정자의 얼굴 정면과 적정거리로 접근하도록 상기 로봇을 이동 제어함으로써, 피 측정자의 눈과 망막 이미지 센서간에 광로 (optical path) 정렬이 이루어 지도록 하는 AI 헬스케어 로봇 장치.In the 17th paragraph, the eye navigator obtains an image capable of measuring the distance between two laser beam spots focused on the body of the subject by using the vision camera, calculates the distance between the robot and the subject, and controls the movement of the robot so that the robot approaches the front of the subject's face at an appropriate distance, thereby aligning the optical path between the subject's eye and the retinal image sensor. 제 17 항에 있어서, 상기 망막 이미지 측정부의 접안부는 접촉한 눈 부위의 체열을 측정하기 위한 온도센서 또는 상기 접안부에 접촉한 피 측정자의 눈과의 접촉 압력을 센싱하는 압력 센서를 포함하는 AI 헬스케어 로봇 장치.In claim 17, the eyepiece of the retinal image measuring unit includes a temperature sensor for measuring body heat of the eye area in contact or a pressure sensor for sensing contact pressure with the eye of the subject in contact with the eyepiece. 제 19 항에 있어서, 상기 눈 네비게이터는 압력 센서 내지 온도 센서에 의해 접안부에 접촉한 피 측정자 눈 부위 접촉 압력이 불충분하다고 판단된 경우, 이를 음성 메시지 명령에 의해 피 측정자에게 접안부에 밀착하도록 요구 하는 AI 헬스케어 로봇 장치.In claim 19, the eye navigator is an AI healthcare robot device that, if it is determined by a pressure sensor or a temperature sensor that the contact pressure on the subject's eye area in contact with the eyepiece is insufficient, requests the subject to press against the eyepiece by a voice message command. 제 19 항에 있어서,
상기 눈 네비게이터는 상기 접촉 센싱 수단에 의해 핸드 프린트의 표면과 접촉한 피 측정자 손의 접촉 위치 및 접촉 범위가 불충분하다고 판단된 경우, 음성 메시지 명령에 의해 피 측정자에게 통지하는 AI 헬스케어 로봇 장치.
In Article 19,
The above eye navigator is an AI healthcare robot device that notifies the subject of the measurement by a voice message command when the contact location and contact range of the subject's hand in contact with the surface of the hand print are determined to be insufficient by the contact sensing means.
제 17 항에 있어서, 상기 생체 신호 데이터의 변화 추이를 관찰하여 집중 케어가 필요한 환자를 발굴하거나 환자 마다의 검사 일정을 스케쥴링(scheduling)하는 건강 추적 관리부를 더 포함하고,
상기 눈 네비게이터는 상기 건강 추적 관리부에 의해 발굴된 집중 케어가 필요한 환자에 대해 생체신호 검사를 자동으로 진행하거나 상기 환자 마다의 검사 일정에 맞추어서 생체신호 검사를 자동으로 진행하기 위해, 상기 비젼 카메라에 의해 생체 검사가 필요한 환자를 탐색 방문하도록 상기 로봇을 이동 제어하는 것인, AI 헬스케어 로봇 장치.
In the 17th paragraph, a health tracking management unit is further included to observe the change trend of the bio-signal data to identify patients requiring intensive care or to schedule examination schedules for each patient.
The above-mentioned eye navigator is an AI healthcare robot device that controls the movement of the robot to search and visit patients in need of a bio-signal examination by the vision camera to automatically conduct a bio-signal examination on patients in need of intensive care identified by the health tracking management department or to automatically conduct a bio-signal examination according to the examination schedule of each patient.
AI 헬스케어 로봇 장치를 이용한 자가 검사 처리 방법에 관한 것으로,
양손 핸드 프린트 상에 양손을 올려놓아 핸드 바이오 센서와 피 측정자의 손 바닥면과의 신체적 접촉에 의해 피 측정자의 생체 신호를 수집하는 단계;
생체 신호 유효 판단 수단을 이용하여 상기 생체 신호 중 피 측정자 인증이 완료된 유효한 생체신호를 판별하는 단계;
상기 생체 신호를 인공지능 신경망 및 전문가 시스템에 의해 분석하는 단계; 및
분석 결과에 질병이 의심되는 징후가 발견된 경우, 의사 단말과의 인터넷 통신 연결을 통해 원격 의료 진단 서비스를 제공하는 단계;를 포함하는 AI 헬스케어 로봇 장치를 이용한 자가 검사 처리 방법.
This relates to a method for processing self-examination using an AI healthcare robot device.
A step of collecting a subject's biosignals by placing both hands on a two-hand hand print and making physical contact between the hand biosensor and the palm surface of the subject's hands;
A step of determining a valid biosignal for which subject authentication has been completed among the biosignals using a biosignal validity judgment means;
A step of analyzing the above biosignal by an artificial intelligence neural network and an expert system; and
A method for processing self-examination using an AI healthcare robot device, comprising: a step of providing a remote medical diagnosis service through an Internet communication connection with a doctor terminal when a suspected disease sign is found in the analysis results;
KR1020230049042A 2023-04-13 2023-04-13 Ai-health care robot appatus and self-exam method using the same Pending KR20240153464A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230049042A KR20240153464A (en) 2023-04-13 2023-04-13 Ai-health care robot appatus and self-exam method using the same
PCT/KR2024/004728 WO2024215056A1 (en) 2023-04-13 2024-04-09 Ai-healthcare robot device and self-examination method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230049042A KR20240153464A (en) 2023-04-13 2023-04-13 Ai-health care robot appatus and self-exam method using the same

Publications (1)

Publication Number Publication Date
KR20240153464A true KR20240153464A (en) 2024-10-23

Family

ID=93059824

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230049042A Pending KR20240153464A (en) 2023-04-13 2023-04-13 Ai-health care robot appatus and self-exam method using the same

Country Status (2)

Country Link
KR (1) KR20240153464A (en)
WO (1) WO2024215056A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101278552B1 (en) 2011-04-22 2013-06-25 주식회사 로보테크 health care robot having check module of biometric data

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3972244B2 (en) * 2001-10-23 2007-09-05 富士電機システムズ株式会社 Remote control cutting robot
JP4949969B2 (en) * 2007-08-20 2012-06-13 国立大学法人埼玉大学 Communication robot and its operation method
JP2009201792A (en) * 2008-02-28 2009-09-10 Imac Co Ltd Health condition measuring apparatus
KR101476661B1 (en) * 2012-09-18 2014-12-26 쓰리아이전기 주식회사 Remote health diagnostic device
CA3035258C (en) * 2016-10-03 2022-03-22 Verb Surgical Inc. Immersive three-dimensional display for robotic surgery
JP6988523B2 (en) * 2018-01-30 2022-01-05 富士通株式会社 Biometric device, biometric program, and biometric method
KR102306241B1 (en) * 2020-01-23 2021-09-30 주식회사 씨엠랩 Binocular fundus camera

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101278552B1 (en) 2011-04-22 2013-06-25 주식회사 로보테크 health care robot having check module of biometric data

Also Published As

Publication number Publication date
WO2024215056A1 (en) 2024-10-17

Similar Documents

Publication Publication Date Title
KR102313630B1 (en) Ai smart remote controller apparatus and self-exam method using the same
Ray et al. A review of wearable multi-wavelength photoplethysmography
US12076136B2 (en) Smart watch
Sun et al. Photoplethysmography revisited: from contact to noncontact, from point to imaging
JP6864185B2 (en) Methods and systems for non-invasive monitoring of individual biological or biochemical parameters
JP7261811B2 (en) Systems and methods for non-invasive determination of blood pressure lowering based on trained predictive models
Slapničar et al. Continuous blood pressure estimation from PPG signal
US20210275104A1 (en) Apparatus and method for correcting error of bio-information sensor, and apparatus and method for estimating bio-information
Kranjec et al. Non-contact heart rate and heart rate variability measurements: A review
US9668672B2 (en) Method and system for non-invasively monitoring biological or biochemical parameters of individual
US9053308B2 (en) Multi electro-biometric user recognition
KR20210005644A (en) Method for estimating blood pressure and arterial stiffness based on light volumetric variability recording (PPG) signal
Shao et al. Noncontact physiological measurement using a camera: a technical review and future directions
Perpetuini et al. Prediction of state anxiety by machine learning applied to photoplethysmography data
WO2015114627A1 (en) Method and system for non-invasively monitoring biological or biochemical parameters of individual
KR20200072865A (en) Apparatus and method for estimating blood glucose
US12521028B2 (en) Systems and methods for analysis of pulse and physiological, pathological, and emotional state and applications thereof
KR20210001486A (en) Method for measuring health indicators of an user using a video image of a face and apparatus using the same
Bousefsaf et al. Remote assessment of physiological parameters by non-contact technologies to quantify and detect mental stress states
Garrett et al. Speckle contrast optical spectroscopy for cuffless blood pressure estimation based on microvascular blood flow and volume oscillations
Alqudah et al. Multiple time and spectral analysis techniques for comparing the PhotoPlethysmography to PiezoelectricPlethysmography with electrocardiography
KR20240153464A (en) Ai-health care robot appatus and self-exam method using the same
KR20240141029A (en) Ai robot medical hand appatus and self-exam method using the same
RU2853903C1 (en) System (variants) and method for measuring blood pressure based on multiple devices
Danesh et al. The Recent Advancements to Measure the Blood Pressure Using Photoplethysmography, Electrocardiogram, and Microchannel

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

T11 Administrative time limit extension requested

Free format text: ST27 STATUS EVENT CODE: U-3-3-T10-T11-OTH-X000 (AS PROVIDED BY THE NATIONAL OFFICE)

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

E13 Pre-grant limitation requested

Free format text: ST27 STATUS EVENT CODE: A-2-3-E10-E13-LIM-X000 (AS PROVIDED BY THE NATIONAL OFFICE)

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11 Amendment of application requested

Free format text: ST27 STATUS EVENT CODE: A-2-2-P10-P11-NAP-X000 (AS PROVIDED BY THE NATIONAL OFFICE)

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000