[go: up one dir, main page]

KR102318218B1 - Doll and its system for the handicapped and one person households to share their feelings - Google Patents

Doll and its system for the handicapped and one person households to share their feelings Download PDF

Info

Publication number
KR102318218B1
KR102318218B1 KR1020190091024A KR20190091024A KR102318218B1 KR 102318218 B1 KR102318218 B1 KR 102318218B1 KR 1020190091024 A KR1020190091024 A KR 1020190091024A KR 20190091024 A KR20190091024 A KR 20190091024A KR 102318218 B1 KR102318218 B1 KR 102318218B1
Authority
KR
South Korea
Prior art keywords
doll
user
state
shape detection
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020190091024A
Other languages
Korean (ko)
Other versions
KR20210012748A (en
Inventor
나기운
Original Assignee
주식회사 모랑스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모랑스 filed Critical 주식회사 모랑스
Priority to KR1020190091024A priority Critical patent/KR102318218B1/en
Publication of KR20210012748A publication Critical patent/KR20210012748A/en
Application granted granted Critical
Publication of KR102318218B1 publication Critical patent/KR102318218B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • A63H3/31Bellows, cylinders or the like for sound production
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Toys (AREA)

Abstract

본 발명의 일 양상에 따른 인형은 원격의 서버와 데이터를 송수신하는 네트워크 연결부, 스피커 및 마이크를 포함하여 네트워크 연결부로부터 수신되는 음성을 스피커로 출력하는 음성 통신부, 복수의 센서를 포함하는 센서부(140) 및 복수의 센서로부터의 복수의 센싱 데이터로부터 결정되는 상태 정보와 마이크로부터의 음성 정보를 네트워크 연결부를 통해 서버로 전송하는 제어부를 포함하고, 네트워크 연결부로부터 수신되는 음성은 서버를 통해 인형에 연결된 모니터의 마이크를 통해 입력된 음성이다.The doll according to an aspect of the present invention includes a network connection unit for transmitting and receiving data with a remote server, a voice communication unit for outputting a voice received from a network connection unit including a speaker and a microphone to the speaker, and a sensor unit 140 including a plurality of sensors ) and a controller for transmitting state information determined from a plurality of sensing data from a plurality of sensors and voice information from the microphone to the server through a network connection unit, wherein the voice received from the network connection unit is a monitor connected to the doll through the server voice input through the microphone of

Description

장애인과 1인 가구를 위한 정서 공감 인형 및 이를 이용한 시스템{Doll and its system for the handicapped and one person households to share their feelings}A doll and its system for the handicapped and one person households to share their feelings}

본 발명은 정서 공감을 위한 인형 및 시스템에 관한 것으로서, 구체적으로는 정서 공감형 인형을 매개로 인형의 접촉을 통해 인형 및 사용자의 상태를 동적으로 인식하고 인식된 상태에 따라 대화와 감성 교류가 가능한 정서 공감을 위한 인형 및 그 시스템에 관한 것이다. The present invention relates to a doll and a system for emotional empathy, and more specifically, to dynamically recognize the state of a doll and a user through contact with the doll through an emotional empathy doll as a medium, and to communicate and exchange emotions according to the recognized state. It relates to a doll for emotional empathy and its system.

장애인들이 가장 원하는 것은 정상인들이 누리는 일상생활에 참여하여 그들과 같은 감성을 공유하는 것이다. 그동안 소외된 장애인들에 대한 편견과 환경이 많이 개선되긴 하였지만, 아직도 특정 부분에 있어 여전히 선입견과 차별이 존재하고 있는데, 장애인끼리 또는 정상인과의 이성교제 어려움이 바로 그것이다. 즉, 정서적 감성 공감을 누릴 수 있는 기회와 환경이 충분히 조성되지 않았다는 것이다. What the disabled people most want is to participate in the daily life enjoyed by normal people and share the same sensibility with them. In the meantime, although the prejudice and environment for the marginalized disabled people have been greatly improved, prejudice and discrimination still exist in certain areas, which is the difficulty of dating with the disabled or with normal people. In other words, the opportunity and environment to enjoy emotional and emotional empathy have not been sufficiently created.

이런 어려움은 비단 장애인들뿐만 아니라 최근 급증하는 1인 가구도 겪고 있는 것이다. 대부분의 조사에 의하면, 20대에서 60대에 이르는 1인 가구가 겪는 가장 큰 어려움은 경제적 어려움보다 외로움이었다. These difficulties are not only experienced by the disabled, but also by single-person households, which are rapidly increasing in recent years. According to most surveys, the greatest difficulty faced by single-person households in their 20s to 60s was loneliness rather than financial difficulties.

이에 따라, ICT(Information and Communication Technologies) 기술을 활용하여 장애인들과 정상인들이 겪는 이러한 정서적 어려움을 해결하기 위해 많은 노력들이 시도되어 왔다.Accordingly, many efforts have been made to solve these emotional difficulties experienced by the disabled and normal people by using ICT (Information and Communication Technologies) technology.

예를 들면, 등록특허 10-0701237호(출원번호 10-2005-0074425호, 출원일 2005년 08월 12일, KR)는 인물의 외형을 갖는 몸체에 시각, 촉각, 후각, 청각센서를 내장하고 다양한 감성 콘텐츠 프로그램을 다운로드 받아 감성을 표현할 수 있는 인터넷 감성로봇 기술을 제시하였다. For example, Registered Patent No. 10-0701237 (application number 10-2005-0074425, filing date August 12, 2005, KR) has a body having the appearance of a person with built-in visual, tactile, olfactory, and auditory sensors. Internet emotional robot technology that can express emotions by downloading emotional content programs is presented.

또 다른 등록특허 10-0831566호(출원번호 10-2007-0056199호, 출원일 2007년 06월 08일 KR)는 동물과 같은 귀여운 형상의 캐릭터 인형을 인터넷 단말로 사용하여, 그 인형을 통해 다양한 정보를 제공할 뿐만 아니라 미리 계획된 방식에 따라 캐릭터 인형이 간단한 감정을 표현할 수 있는 기술을 제시하였다.Another registered patent No. 10-0831566 (application number 10-2007-0056199, filing date June 08, 2007 KR) uses a character doll with a cute shape like an animal as an Internet terminal, and provides various information through the doll. In addition to providing it, the technology that allows character dolls to express simple emotions according to a pre-planned method was presented.

또 다른 등록특허 10-1113058호(출원번호 10-2010-0023232호, 출원일 2010년 03월 16일 KR)는 모바일 단말의 애플리케이션 내 가상 생명체를 사용하여 송신자가 입력한 글 또는 이미지와 같은 개인화 정보를 이용하여 성장시킨 후 개인화된 가상 생명체의 최종 성장 상태를 수신자에게 전달하여 송신자의 지속적인 정성이 수신자에게 시각적으로 쉽게 인지되도록 하는 기술을 제시하였다.Another registered patent No. 10-1113058 (application number 10-2010-0023232, filing date March 16, 2010 KR) discloses personal information such as texts or images entered by the sender using a virtual life form in an application of a mobile terminal. After growing by using the technology, the final growth state of the personalized virtual creature is delivered to the receiver so that the sender's continuous quality can be easily recognized visually by the receiver.

상기 인용된 등록특허 및 알려진 다른 발명들은 대부분 기계적으로 미리 만들어지고 약속된 감성을 표현하는 인형이거나, 인터넷 공간에서의 가상 캐릭터이다.The above-cited registered patents and other known inventions are mostly puppets that are mechanically pre-made and express promised emotions, or virtual characters in the Internet space.

즉, 인간과 인간의 정서적 감성 교류가 아닌, 인간과 기계 사이의 프로그램된 감성 교류이므로, 사람과 사람 사이의 정서적, 신체적 접촉이 주는 감성을 얻을 수는 없다. 이러한 한계로 인해 현재 장애인 및 일인 가구가 겪고 있는 외로움을 근본적으로 해결하기 어려운 문제가 있으며, 이를 해결할 수 있는 새로운 기술이 필요하다.In other words, it is not a human-human emotional emotional exchange, but a programmed emotional exchange between a human and a machine. Due to these limitations, it is difficult to fundamentally solve the loneliness currently experienced by the disabled and single-person households, and new technologies are needed to solve this problem.

본 발명은, 상술한 문제점을 해결하기 위해서 안출한 것으로서, 사람과 사람 사이의 직접 감성 교류와 동일하거나 유사한 효과를 제공할 수 있는 정서 공감을 위한 인형 및 시스템을 제공하는 데 목적이 있다.The present invention has been devised to solve the above-described problems, and an object of the present invention is to provide a doll and a system for emotional empathy that can provide the same or similar effect as a direct emotional exchange between people.

또한, 본 발명은 사용자가 대하는 인형의 동적 상태 인식에 따라 사용자의 현재 상태를 추정하고 이에 따라 정확한 상담이나 감성 교류가 가능한 정서 공감을 위한 인형 및 시스템을 제공하는 데 목적이 있다.In addition, an object of the present invention is to provide a doll and a system for emotional empathy capable of estimating the user's current state according to the recognition of the dynamic state of the doll the user is dealing with, and enabling accurate consultation or emotional exchange accordingly.

또한, 본 발명은 대면 감성 교류와 유사한 효과를 제공하면서 대면 감성 교류에 따라 야기되는 위험과 부담을 피할 수 있는 감성 교류 통로를 제공할 수 있는 정서 공감을 위한 인형 및 시스템을 제공하는 데 목적이 있다.In addition, an object of the present invention is to provide a doll and system for emotional empathy that can provide an emotional exchange path that can avoid risks and burdens caused by face-to-face emotional exchange while providing similar effects to face-to-face emotional exchange. .

또한, 본 발명은 형상감지 센서를 구비한 인형을 매개로 사용자에 의해 인형 접촉에 따라 파악되는 사용자 상태에 따라 상담 및 감성 교류가 가능한 정서 공감을 위한 인형 및 시스템을 제공하는 데 목적이 있다.In addition, an object of the present invention is to provide a doll and a system for emotional empathy capable of counseling and emotional exchange according to the user's state grasped according to the contact with the doll by the user through the doll equipped with a shape detection sensor.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

본 발명의 일 양상에 따른 인형은 원격의 서버와 데이터를 송수신하는 네트워크 연결부; 스피커 및 마이크를 포함하여 상기 네트워크 연결부로부터 수신되는 음성을 상기 스피커로 출력하는 음성 통신부; 복수의 센서를 포함하는 센서부; 및 상기 복수의 센서로부터의 복수의 센싱 데이터로부터 결정되는 상태 정보와 상기 마이크로부터의 음성 정보를 상기 네트워크 연결부를 통해 전송하는 제어부;를 포함하고, 상기 네트워크 연결부로부터 수신되는 음성은 상기 서버를 통해 상기 인형에 네트워크 연결된 모니터의 마이크를 통해 입력된 음성이다.A doll according to an aspect of the present invention includes a network connection unit for transmitting and receiving data with a remote server; a voice communication unit for outputting a voice received from the network connection unit to the speaker, including a speaker and a microphone; a sensor unit including a plurality of sensors; and a control unit configured to transmit state information determined from a plurality of sensing data from the plurality of sensors and voice information from the microphone through the network connection unit, wherein the voice received from the network connection unit is transmitted through the server This is the voice input through the microphone of the monitor connected to the doll's network.

상기한 인형에 있어서, 상기 센서부는 상기 인형의 제1 유형 부위에 설치되는 복수의 자이로 센서 및 제2 유형 부위에 설치되는 복수의 형상감지 센서를 포함하고, 상기 형상감지 센서는 사용자에 의해 인가되는 접촉 또는 압력에 따라 변화하는 형상을 센싱 가능토록 구성된다.In the above doll, the sensor unit includes a plurality of gyro sensors installed on the first type part of the doll and a plurality of shape detection sensors installed on the second type part of the doll, wherein the shape detection sensor is applied by a user It is configured to be able to sense a shape that changes according to contact or pressure.

상기한 인형에 있어서, 상기 복수의 자이로 센서는 상기 인형의 관절 부위에 설치되고, 상기 복수의 형상감지 센서는 상기 인형의 탄성을 가지는 탄성 부위에 설치된다.In the above-described doll, the plurality of gyro sensors are installed in the joint portion of the doll, and the plurality of shape sensing sensors are installed in the elastic portion having elasticity of the doll.

상기한 인형에 있어서, 상기 형상감지 센서는 신호원을 센싱하는 복수의 검지기를 포함하고, 상기 인형은 상기 복수의 검지기로부터의 센싱 데이터를 포함하는 형상감지 벡터를 구성하며, 상기 형상감지 벡터는 상기 형상감지 센서에 대응하는 탄성 부위의 변형된 외형을 추정할 수 있도록 한다.In the above doll, the shape detection sensor includes a plurality of detectors for sensing a signal source, the doll constitutes a shape detection vector including sensing data from the plurality of detectors, and the shape detection vector is the It is possible to estimate the deformed appearance of the elastic part corresponding to the shape detection sensor.

상기한 인형에 있어서, 상기 복수의 센서의 복수의 센싱 데이터로부터 상기 인형의 상태를 추정하는 인공지능 센서 데이터 해석부;를 더 포함하고, 상기 인공지능 센서 데이터 해석부는 상기 형상감지 벡터를 구성하고 상기 형상감지 벡터에 대응하는 형상을 인공지능 알고리즘을 통해 추정한다.In the doll, further comprising: an artificial intelligence sensor data analysis unit for estimating the state of the doll from a plurality of sensing data of the plurality of sensors, wherein the artificial intelligence sensor data analysis unit configures the shape detection vector and The shape corresponding to the shape detection vector is estimated through an artificial intelligence algorithm.

상기한 인형에 있어서, 상기 형상감지 센서는, 상기 복수의 검지기로서 복수의 광검파기 및 상기 복수의 광검파기와 지정된 거리에 위치하고 상기 신호원인 광원을 포함하거나, 상기 복수의 검지기로서 복수의 자계센서 및 상기 복수의 자계센서와 지정된 거리에 위치하고 상기 신호원인 자석을 포함한다.In the above doll, the shape detection sensor includes a plurality of photodetectors as the plurality of detectors and a light source as the signal source located at a predetermined distance from the plurality of photodetectors, or a plurality of magnetic field sensors as the plurality of detectors and and a magnet positioned at a predetermined distance from the plurality of magnetic field sensors and serving as the signal source.

또한, 본 발명의 일 양상에 따른 시스템은 상기한 인형; 상기 인형에 네트워크를 통해 연결되는 서버; 및 상기 서버를 통한 제어에 따라 상기 인형에 연결되는 모니터;를 포함한다.In addition, the system according to an aspect of the present invention is the above-described doll; a server connected to the doll through a network; and a monitor connected to the doll according to control through the server.

상기한 시스템에 있어서, 상기 서버는 상기 인형으로부터 상태 정보를 수신하고 수신된 상태 정보로부터 상기 인형의 상태 및 상기 인형을 이용하는 사용자 상태를 추정하고 상기 인형의 상태 및 상기 사용자 상태를 나타내는 상태추정 정보를 상기 모니터로 전송하고, 상기 모니터는 상태추정 정보를 이미지로 표시한다. In the above system, the server receives the state information from the doll, estimates the state of the doll and the user state using the doll from the received state information, and receives state estimation information indicating the state of the doll and the user state It is transmitted to the monitor, and the monitor displays the state estimation information as an image.

상기한 시스템에 있어서, 인공지능 알고리즘을 수행하는 상기 서버는 상기 상태 정보에 포함되고 복수의 센서로부터 측정된 복수의 센싱 데이터를 이용하여 상기 인형의 접촉 부위 및 변화된 형상을 추정하고 상기 측정된 복수의 센싱 데이터에 대응하는 관계를 가지는 사용자의 상태를 추정하고, 상기 인형의 변화된 상태 이미지와 상기 사용자의 상태 이미지를 포함하는 상태추정 정보를 상기 모니터로 전송한다.In the above system, the server executing the artificial intelligence algorithm estimates the contact area and the changed shape of the doll using a plurality of sensing data included in the state information and measured from a plurality of sensors, and The state of the user having a relationship corresponding to the sensed data is estimated, and state estimation information including the changed state image of the doll and the state image of the user is transmitted to the monitor.

상기한 시스템에 있어서, 상기 인공지능 알고리즘을 수행하는 상기 서버는 상기 상태 정보에 포함되는 형상감지 센서의 형상감지 벡터로부터 상기 형상감지 센서에 대응하는 상기 인형의 탄성 부위의 변형된 외형을 추정한다.In the above system, the server executing the artificial intelligence algorithm estimates the deformed appearance of the elastic part of the doll corresponding to the shape detection sensor from the shape detection vector of the shape detection sensor included in the state information.

상기한 시스템에 있어서, 상기 이미지를 표시하는 상기 모니터는 상대자로부터 입력되는 음성을 포함하는 음성 정보를 네트워크를 통해 상기 인형으로 전송한다.In the system described above, the monitor displaying the image transmits voice information including voice input from a counterpart to the doll through a network.

상기한 시스템에 있어서, 상기 인형의 사용자에 의해 선택된 상대자가 이용하는 상기 모니터는 상대자에 의해 입력되는 문자 메시지를 상기 서버로 전송하고, 상기 서버는 상기 문자 메시지를 지정된 음성으로 변환하고 상기 인형으로 전송한다.In the above system, the monitor used by the counterpart selected by the user of the doll transmits a text message input by the counterpart to the server, and the server converts the text message into a designated voice and transmits the text message to the doll .

상기와 같은 본 발명에 따른 정서 공감을 위한 인형 및 시스템은 정보 기기 대신에 사용자가 만지고 느낄 수 있는 인형을 매개로 사람과 사람사이의 교류와 음성 대화가 이루어져 사람과의 대면 감성 교류와 동일하거나 유사한 효과를 제공할 수 있다.In the doll and system for emotional empathy according to the present invention as described above, exchanges and voice conversations are made between people through a doll that a user can touch and feel instead of an information device, so that it is the same as or similar to the face-to-face emotional exchange with people. effect can be provided.

또한, 상기와 같은 본 발명에 따른 정서 공감을 위한 인형 및 시스템은 사용자가 대하는 인형의 동적 상태 인식에 따라 사용자의 현재 상태를 추정하고 이에 따라 상대자(감성친구)로 하여금 원격에 있는 사용자의 상태를 파악가능토록 함으로써 보다 충실한 상담이나 감성 교류가 가능한 효과가 있다.In addition, the doll and system for emotional empathy according to the present invention as described above estimates the current state of the user according to the recognition of the dynamic state of the doll the user is dealing with, and accordingly allows the other party (emotional friend) to check the remote user's state. By making it possible to understand, it has the effect of enabling more faithful counseling and emotional exchange.

또한, 상기와 같은 본 발명에 따른 정서 공감을 위한 인형 및 시스템은 직접 대면 감성 교류와 유사한 효과를 제공하면서도 직접 대면 감성 교류에 따라 야기되는 위험과 부담을 피할 수 있는 효과가 있다.In addition, the doll and system for emotional empathy according to the present invention as described above has the effect of avoiding the risks and burdens caused by the direct emotional exchange while providing an effect similar to the direct emotional exchange.

또한, 상기와 같은 본 발명에 따른 정서 공감을 위한 인형 및 시스템은 형상감지 센서를 구비한 인형을 매개로 사용자의 상태 및 행동을 보다 정확하게 파악할 수 있도록 하는 효과가 있다.In addition, the doll and system for emotional empathy according to the present invention as described above has the effect of more accurately grasping the user's state and behavior through a doll equipped with a shape detection sensor.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

도 1은 정서 공감을 위한 예시적인 시스템 구성을 도시한 도면이다.
도 2는 본 발명에 따라 구성되는 인형의 예시적인 블록도를 도시한 도면이다.
도 3은 인형에 설치되는 센서 구성 예를 도시한 도면이다.
도 4는 일반 압력센서의 원리를 도시한 도면이다.
도 5는 일반 압력센서의 문제점을 도시한 도면이다.
도 6은 본 발명에 따라 구성되는 형상감지 센서의 일 예를 도시한 도면이다.
도 7은 본 발명에 따라 구성되는 예시적인 형상감지 센서의 동작원리를 도시한 도면이다.
도 8은 모니터의 예시적인 블록도를 도시한 도면이다.
도 9는 정서 공감을 위한 시스템에서 인형과 모니터 사이의 감성교류가 이루어지는 예시적인 제어 흐름을 도시한 도면이다.
도 10은 형상감지 센서에 대한 사용자 접촉 액션에 따라 변형 외형과 대응하여 측정된 형상감지 벡터의 예를 도시한 도면이다.
도 11은 측정된 센서 데이터 집합으로부터 유추되는 인형 및 사용자의 상태의 예를 도시한 도면이다.
1 is a diagram illustrating an exemplary system configuration for emotional empathy.
2 is a diagram illustrating an exemplary block diagram of a doll constructed in accordance with the present invention.
3 is a diagram illustrating an example of a sensor configuration installed on a doll.
4 is a diagram illustrating the principle of a general pressure sensor.
5 is a diagram illustrating a problem of a general pressure sensor.
6 is a diagram illustrating an example of a shape detection sensor configured according to the present invention.
7 is a view showing the operating principle of an exemplary shape detection sensor constructed according to the present invention.
8 is a diagram illustrating an exemplary block diagram of a monitor.
9 is a diagram illustrating an exemplary control flow for emotional exchange between a doll and a monitor in a system for emotional empathy.
10 is a diagram illustrating an example of a shape detection vector measured in response to a deformed shape according to a user contact action with respect to the shape detection sensor.
11 is a diagram illustrating an example of the state of the doll and the user inferred from the measured sensor data set.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술 되어 있는 상세한 설명을 통하여 더욱 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. The above-described objects, features, and advantages will become more clear through the detailed description described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can understand the technical spirit of the present invention. can be easily implemented. In addition, in describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 정서 공감을 위한 예시적인 시스템 구성을 도시한 도면이다. 1 is a diagram illustrating an exemplary system configuration for emotional empathy.

도 1에 따르면 다른 상대자와의 음성 송수신을 통해 정서나 감성(감정) 교류가 가능한 시스템은 하나 이상의 인형(100), 서버(200) 및 하나 이상의 모니터(300)를 포함한다. 인형(100), 서버(200) 및 모니터(300)는 네트워크를 통해 서로 연결되어 각종 데이터를 송수신할 수 있다. According to FIG. 1 , a system capable of exchanging emotions or emotions (emotions) through voice transmission and reception with other counterparts includes one or more dolls 100 , a server 200 , and one or more monitors 300 . The doll 100, the server 200, and the monitor 300 may be connected to each other through a network to transmit/receive various data.

도 1을 통해 시스템을 간단히 살펴보면, 인형(100)은 다른 상대자(감성친구)와 음성 통신을 통해 정서나 감성 교류가 요구되는 사용자가 이용 가능한 기기이다. 인형(100)은 인간 형상을 가지고 사용자의 각종 요구나 접촉을 인지할 수 있고 원격의 상대자를 통한 음성 반응으로 사용자의 정서나 감성에 공감하거나 서로 교류 가능하도록 구성된다. 인형(100)은 외로움 해결이 필요한 사용자를 위해 설치될 수 있고 예를 들어 장애인, 노인, 1인 가구주 등을 위해서 설치될 수 있다. 인형(100)은 사용자의 감성전달, 정서교류를 위한 매개체 역할을 담당한다. Briefly looking at the system through FIG. 1 , the doll 100 is a device available to users who require emotional or emotional exchange through voice communication with another counterpart (emotional friend). The doll 100 has a human shape and can recognize various requests or touches of the user, and is configured to empathize with the user's emotions or emotions or to interact with each other through a voice response through a remote counterpart. The doll 100 may be installed for a user who needs to solve loneliness, for example, it may be installed for the disabled, the elderly, a single householder, and the like. The doll 100 serves as a medium for conveying emotions and exchanging emotions of the user.

인형(100)에 대해서는 도 2, 도 3, 도 9 등을 통해 상세히 살펴보도록 한다. The doll 100 will be described in detail with reference to FIGS. 2, 3, and 9 .

서버(200)는 네트워크를 통해 인형(100)과 모니터(300)에 연결되어 인형(100) 및 모니터(300) 사이의 연결 등 각종 제어를 수행하고 관리한다. 예를 들어, 서버(200)는 인형(100)으로부터 각종 정보를 수신하고 이로부터 인형(100)의 상태를 추정하고 추정된 상태를 이 인형(100)에 연결된 모니터(300)로 전송할 수 있다. The server 200 is connected to the doll 100 and the monitor 300 through a network, and performs and manages various controls such as the connection between the doll 100 and the monitor 300 . For example, the server 200 may receive various information from the doll 100 , estimate the state of the doll 100 therefrom, and transmit the estimated state to the monitor 300 connected to the doll 100 .

서버(200)는 네트워크에 연결되기 위한 통신 인터페이스(통신 유닛), 각종 정보나 데이터를 저장하기 위한 저장 유닛, 각종 정보나 데이터를 처리하기 위한 하나 이상의 프로세서(제어 유닛)를 구비하여 인형(100)과 모니터(300)를 서로 연결시키고 각종 정보를 송수신할 수 있다.The server 200 includes a communication interface (communication unit) for connecting to a network, a storage unit for storing various information or data, and one or more processors (control unit) for processing various information or data, the doll 100 and the monitor 300 may be connected to each other, and various types of information may be transmitted/received.

서버(200)의 제어 등에 대해서는 도 9를 통해 상세히 살펴보도록 한다.The control of the server 200 will be described in detail with reference to FIG. 9 .

모니터(300)는 인형(100)을 통해 인식된 인형(100) 및 사용자의 상태를 보여주고 인식된 인형(100) 및 원격 사용자의 상태에 따라 음성 대화를 할 수 있는 기기이다. The monitor 300 is a device capable of displaying the recognized doll 100 and the state of the user through the doll 100 and performing voice conversations according to the recognized doll 100 and the state of the remote user.

모니터(300)는 서버(200)를 통한 제어에 따라 특정 인형(100)에 네트워크를 통해 연결되고 인형(100)으로부터 수신된 음성을 구비된 스피커(321)로 출력하고 구비된 마이크(323)를 통해 입력되는 선택된 상대자의 음성을 특정 인형(100)으로 네트워크를 통해 전송할 수 있다. The monitor 300 is connected to a specific doll 100 through a network according to the control through the server 200 and outputs the voice received from the doll 100 to the speaker 321 equipped with the microphone 323. It is possible to transmit the voice of the selected partner input through the network to the specific doll 100 .

모니터(300)는 상대자(감성친구)가 이용 가능한 기기로서 예를 들어, 휴대폰, 스마트폰, 태블릿 PC, 노트북, 개인용 PC 등일 수 있다. 모니터(300)는 적어도 디스플레이(330), 마이크(323) 및 스피커(321)를 구비하여 각종 이미지를 출력하고 인형(100)으로부터 수신되는 음성을 출력하고 상대자의 목소리에 대응하는 음성 정보를 연결된 인형(100)으로 전송 가능하다. The monitor 300 is a device that the counterpart (emotional friend) can use, and may be, for example, a mobile phone, a smart phone, a tablet PC, a notebook computer, a personal PC, or the like. The monitor 300 is provided with at least a display 330, a microphone 323, and a speaker 321 to output various images, to output a voice received from the doll 100, and to connect voice information corresponding to the voice of the other party. (100) can be transmitted.

모니터(300)에 대해서는 도 8 및 도 9를 통해 좀 더 상세히 살펴보도록 한다.The monitor 300 will be described in more detail with reference to FIGS. 8 and 9 .

네트워크는 인형(100), 서버(200) 및 모니터(300) 사이의 각종 데이터를 송수신할 수 있다. 네트워크는 유선과 무선 네트워크의 하나 이상의 조합으로 구성될 수 있고 바람직하게는 인터넷을 구성한다. The network may transmit/receive various data between the doll 100, the server 200, and the monitor 300. The network may consist of one or more combinations of wired and wireless networks and preferably constitute the Internet.

도 2는 본 발명에 따라 구성되는 인형(100)의 예시적인 블록도를 도시한 도면이다. 2 is a diagram illustrating an exemplary block diagram of a doll 100 constructed in accordance with the present invention.

도 2에 따르면, 네트워크를 통해 다른 상대자와 대화 가능하고 사용자가 인형에 가하는 액션(접촉, 누름 등)을 인식할 수 있는 인형(100)은 네트워크 연결부(110), 열발생부(120), 음성 통신부(130), 센서부(140), 제어부(150) 및 인공지능 센서 데이터 해석부(160)를 포함한다. 설계 예에 따라, 도 2의 일부 블록은 생략될 수 있다. 예를 들어, 인형(100)은 열발생부(120) 및/또는 인공지능 센서 데이터 해석부(160)의 구성을 생략할 수 있다. According to FIG. 2 , a doll 100 capable of communicating with another party through a network and recognizing an action (contact, pressing, etc.) applied to the doll by the user includes a network connection unit 110 , a heat generator 120 , and a voice It includes a communication unit 130 , a sensor unit 140 , a control unit 150 , and an artificial intelligence sensor data analysis unit 160 . According to a design example, some blocks of FIG. 2 may be omitted. For example, the doll 100 may omit the configuration of the heat generating unit 120 and/or the artificial intelligence sensor data analyzing unit 160 .

도 2를 통해 인형(100)의 구성을 살펴보면, 네트워크 연결부(110)는 네트워크를 통해 원격의 서버(200) 및/또는 모니터(300)와 데이터를 송수신한다. 네트워크 연결부(110)는 유선 랜 인터페이스, 무선 랜 인터페이스 및/또는 이동통신망을 이용 가능한 이동통신 인터페이스를 구비하여 서버(200)로 상태 정보 등의 데이터를 전송하고 서버(200)로부터 각종 제어나 출력 등을 위한 데이터를 수신할 수 있다. Looking at the configuration of the doll 100 through FIG. 2 , the network connection unit 110 transmits and receives data to and from the remote server 200 and/or the monitor 300 through a network. The network connection unit 110 includes a wired LAN interface, a wireless LAN interface, and/or a mobile communication interface that can use a mobile communication network to transmit data such as status information to the server 200 and control or output various types from the server 200 . can receive data for

열발생부(120)는 인형(100) 내부에 설치되어 열을 발생시킨다. 열발생부(120)는 알려진 열 발생 수단 등을 내장하여 제어부(150)의 제어에 따라 사람의 표준 체온과 동일하거나 표준 체온으로부터 일정 범위내의 온도가 인식 가능하도록 열을 발생시킨다.The heat generating unit 120 is installed inside the doll 100 to generate heat. The heat generating unit 120 includes a known heat generating means and generates heat so that a temperature equal to or within a certain range from the standard body temperature of a person can be recognized under the control of the control unit 150 .

음성 통신부(130)는 스피커(131) 및 마이크(133)를 포함하여 상대자(감성, 정서 교류를 위해 선택된 친구사용자 등)와 음성 통신 기능을 수행한다. 음성 통신부(130)는 제어부(150)의 제어에 따라 네트워크 연결부(110)로부터 수신되는 음성 정보의 음성을 스피커(131)로 출력하고 인형(100)의 사용자로부터 입력되는 마이크(133)의 음성( 신호)을 제어부(150)로 출력할 수 있다. The voice communication unit 130 includes a speaker 131 and a microphone 133 to perform a voice communication function with a counterpart (such as a friend user selected for emotional and emotional exchange). The voice communication unit 130 outputs the voice of the voice information received from the network connection unit 110 to the speaker 131 under the control of the control unit 150 and the voice of the microphone 133 input from the user of the doll 100 ( signal) may be output to the controller 150 .

센서부(140)는 각종 복수의 센서를 포함하여 복수의 센서 각각에 지정된 다양한 물리량을 측정 또는 센싱한다. The sensor unit 140 measures or senses various physical quantities assigned to each of the plurality of sensors, including a plurality of sensors.

센서부(140)에는 서로 다른 물리량을 측정 가능한 다양한 유형의 센서를 포함한다. 센서부(140)는 예를 들어, 하나 이상의 형상감지 센서(141), 온도 센서(142), 하나 이상의 자이로 센서(143), 광 센서(144), 하나 이상의 압력 센서(145), 가속도 센서(146), 근접 센서(147), 알콜농도 센서(148), 이산화탄소 센서(149) 등을 포함하거나 그 중 일부를 포함할 수 있다. The sensor unit 140 includes various types of sensors capable of measuring different physical quantities. The sensor unit 140 may include, for example, one or more shape detection sensors 141 , a temperature sensor 142 , one or more gyro sensors 143 , an optical sensor 144 , one or more pressure sensors 145 , and an acceleration sensor ( 146), a proximity sensor 147, an alcohol concentration sensor 148, a carbon dioxide sensor 149, or the like, or may include a portion thereof.

센서부(140)는 적어도 인형(100)의 상태를 네트워크를 통해 연결된 상대자에게 정확하게 알리기 위해 필요하고 센서부(140)를 통해 구성되는 상태 정보는 인형(100)의 현재 상태(예를 들어, 자세나 방향 등) 뿐 아니라 인형(100)을 이용하는 사용자의 상태(예를 들어, 자세나 방향 등)도 파악 가능하도록 구성된다. The sensor unit 140 is required to accurately inform at least the state of the doll 100 to the counterpart connected through the network, and the state information configured through the sensor unit 140 is the current state (eg, posture) of the doll 100 . direction) as well as the state of the user using the doll 100 (eg, posture or direction).

센서부(140)는 다양한 센서를 포함할 수 있는 데, 사용자가 요구하는 인형(100)의 성능에 따라 설치되는 센서의 종류, 그 개수는 달라질 수 있다. The sensor unit 140 may include various sensors, and the type and number of sensors installed may vary according to the performance of the doll 100 required by the user.

도 3의 예와 같이, 센서부(140)는 복수의 형상감지 센서(141), 복수의 자이로 센서(143) 및 알콜농도 센서(148)를 포함할 수 있고 이러한 센서들은 인형(100)의 인체 형상에 설치될 수 있다. 자이로 센서(143)와 형상감지 센서(141)는 인형(100)의 특정 유형의 부위에 설치될 수 있다. As in the example of FIG. 3 , the sensor unit 140 may include a plurality of shape detection sensors 141 , a plurality of gyro sensors 143 , and an alcohol concentration sensor 148 , and these sensors are the human body of the doll 100 . It can be installed in the shape. The gyro sensor 143 and the shape detection sensor 141 may be installed on a specific type of part of the doll 100 .

예를 들어, 자이로 센서(143)는 절대 방향을 측정 가능한 센서로서 인형(100)의 관절로 연결된 각 신체 부위(무릎, 팔꿈치, 발목 등)와 인형(100)의 자세 변화 인지에 유리한 부위(가슴, 이마 등)에 설치되어 관절의 꺾임이나 회전 방향을 측정할 수 있도록 구성되거나 인형(100)의 자세 방향(예를 들어, 가슴이나 이마의 자이로 센서(143))을 측정할 수 있도록 구성된다. 알콜농도 센서(148)는 인형(100)의 입 등에 설치되어 사용자의 혈중알콜 농도 등을 측정할 수 있고 그에 따라 음주 여부를 측정 가능하다. For example, the gyro sensor 143 is a sensor capable of measuring the absolute direction, and each body part (knee, elbow, ankle, etc.) connected by joints of the doll 100 and a part (chest) advantageous for recognizing a change in posture of the doll 100 , forehead, etc.) is configured to measure the bending or rotation direction of the joint, or configured to measure the posture direction of the doll 100 (eg, the gyro sensor 143 of the chest or forehead). The alcohol concentration sensor 148 is installed in the mouth of the doll 100 to measure the user's blood alcohol concentration and the like, and accordingly, it is possible to measure whether or not drinking.

형상감지 센서(141)는 인형(100)의 탄성을 가지는 탄성 부위에 바람직하게 설치된다. 예를 들어, 형상감지 센서(141)는 배, 가슴, 허벅지, 종아리 등의 위치에 고정 설치된다. 형상감지 센서(141)에 의해 탄성 부위에 설치됨에도 사용자에 의해 인가되는 접촉이나 압력에 따라 변화하는 형상(탄성 부위의 형상)을 인식할 수 있도록 바람직하게 구성된다. 즉, 형상감지 센서(141)는 딱딱한 고체가 아닌 탄성을 가지는 물체의 형상이 외부(사용자에 의해) 인가되는 힘에 따라 변형되는 외형과 그 강도를 측정하거나 인식 가능하도록 구성된다.The shape detection sensor 141 is preferably installed on an elastic portion having elasticity of the doll 100 . For example, the shape detection sensor 141 is fixedly installed at positions such as the stomach, chest, thigh, calf. Even though it is installed on the elastic part by the shape detection sensor 141, it is preferably configured to recognize the shape (the shape of the elastic part) that changes according to the contact or pressure applied by the user. That is, the shape detection sensor 141 is configured to measure or recognize the shape of an object having elasticity, not a hard solid, that is deformed according to a force applied externally (by a user) and its strength.

본 발명에 따라, 구성되는 형상감지 센서(141)는 도 4 내지 도 7의 설명을 통해 상세히 살펴보도록 한다.According to the present invention, the configured shape detection sensor 141 will be described in detail with reference to FIGS. 4 to 7 .

도 3의 예는 인형(100)에 설치되는 일 예를 나타내는 데, 센서부(140)는 그 외 다양한 센서를 구비할 수 있다. 다른 센서에 대해 간략히 살펴보면, 온도 센서(142)는 인형(100)의 외부, 인형(100)의 표면 온도나 그 변화를 측정하는 센서이다. 광 센서(144)는 인형(100) 외부에서 인식되는 빛의 세기를 측정하는 센서이다. The example of FIG. 3 shows an example installed in the doll 100 , and the sensor unit 140 may include various other sensors. Looking briefly at the other sensors, the temperature sensor 142 is a sensor that measures the outside of the doll 100, the surface temperature of the doll 100 or its change. The light sensor 144 is a sensor that measures the intensity of light recognized from the outside of the doll 100 .

압력 센서(145)는 인형(100)의 표면에 가해지는 압력을 측정하는 센서이다. 일반적으로 알려져 있는 압력 센서(145)는 인형(100)의 표면 중 딱딱한 신체 부위에 하나 이상 설치될 수 있다. 반면 형상감지 센서(141)는 탄성을 가지는 신체 부위(배, 가슴, 허벅지) 등에 설치되어 그 설치 위치가 서로 다를 수 있다. The pressure sensor 145 is a sensor that measures the pressure applied to the surface of the doll 100 . One or more commonly known pressure sensors 145 may be installed on a hard body part of the surface of the doll 100 . On the other hand, the shape detection sensor 141 is installed on a body part having elasticity (tummy, chest, thigh), etc., and the installation position thereof may be different from each other.

가속도 센서(146)는 인형(100)의 이동 등에 따른 가속도를 측정하고 근접 센서(147)는 사용자의 접근을 인식한다. 근접 센서(147)는 사용자가 일정거리 이하로 근접했는지를 센싱 가능하다. 이산화탄소 센서(149)는 사용자의 호흡 여부를 측정 가능한 센서이다. The acceleration sensor 146 measures acceleration according to the movement of the doll 100 , and the proximity sensor 147 recognizes the user's approach. The proximity sensor 147 may sense whether the user approaches by a predetermined distance or less. The carbon dioxide sensor 149 is a sensor capable of measuring whether the user is breathing.

이와 같이, 센서부(140)는 사용자, 인형(100) 등의 상태 등을 측정하거나 모니터링 가능한 각종 센서를 구비하여 센서를 통해 측정된 센싱 데이터를 제어부(150)로 출력할 수 있다. In this way, the sensor unit 140 may include various sensors capable of measuring or monitoring the state of the user, the doll 100, etc., and may output the sensing data measured through the sensor to the control unit 150 .

제어부(150)는 인형(100)을 제어하고 관리한다. 제어부(150)는 프로세서, CPU, MPU, 중앙처리장치 등, 프로그램의 명령어를 수행할 수 있는 실행 유닛을 구비하여 인형(100) 내부에 내장된 메모리나 하드디스크 상의 프로그램을 수행하여 인형(100)을 제어하고 관리 가능하다. The controller 150 controls and manages the doll 100 . The control unit 150 is provided with an execution unit capable of executing the instructions of the program, such as a processor, CPU, MPU, central processing unit, etc., and performs a program on a memory or hard disk built in the doll 100 to perform the program on the doll 100 . can be controlled and managed.

예를 들어, 제어부(150)는 센서부(140)의 복수의 센서로부터 복수의 센싱 데이터를 수신하고 수신되는 복수의 센싱 데이터로부터 상태 정보를 구성하여 주기적으로 네트워크 연결부(110)를 통해 서버(200)로 전송한다. For example, the control unit 150 receives a plurality of sensing data from a plurality of sensors of the sensor unit 140 , configures state information from the plurality of received sensing data, and periodically connects the server 200 through the network connection unit 110 . ) is sent to

제어부(150)는 내부에 ADC(Analog Digital Converter)를 구비하여 형상감지 센서(141)를 포함하는 복수의 센서로부터의 센싱 신호를 디지털 센싱 데이터로 변환하거나 센싱 신호로부터 디지털의 센싱 데이터를 추출 가능하다. 또한, 제어부(150)는 음성 통신부(130)의 마이크(133)로부터 음성 신호를 수신하고 음성 신호에 대응하는 음성 정보를 구성하여 네트워크 연결부(110)를 통해 서버(200) 및/또는 네트워크에 서로 연결된 모니터(300)로 전송한다. The control unit 150 includes an ADC (Analog Digital Converter) therein to convert the sensing signals from a plurality of sensors including the shape sensing sensor 141 into digital sensing data or extract digital sensing data from the sensing signals. . In addition, the control unit 150 receives a voice signal from the microphone 133 of the voice communication unit 130 , configures voice information corresponding to the voice signal, and connects to the server 200 and/or the network through the network connection unit 110 . It is transmitted to the connected monitor 300 .

또한, 제어부(150)는 네트워크 연결부(110)를 통해 연결된 모니터(300)로부터의 음성 정보를 모니터(300)로부터 직접 또는 서버(200)를 경유하여 수신하고 수신된 음성 정보의 음성을 음성 통신부(130)의 스피커(131)로 출력한다. 네트워크 연결부(110)를 통해 수신되어 스피커(131)로 출력되는 음성은 이 인형(100)에 대해 네트워크 연결되는 모니터(300)에 구비되는 마이크(323)를 통해 입력된(수신되는) 음성이다. 이에 따라, 인형(100)의 사용자와 모니터(300)의 상대자는 서로 음성을 통한 감성교류, 정서교류가 가능하다. In addition, the control unit 150 receives the voice information from the monitor 300 connected through the network connection unit 110 directly from the monitor 300 or via the server 200, and receives the voice of the received voice information from the voice communication unit ( 130) and output to the speaker 131. The voice received through the network connection unit 110 and output to the speaker 131 is the voice input (received) through the microphone 323 provided in the monitor 300 connected to the network with respect to the doll 100 . Accordingly, the user of the doll 100 and the counterpart of the monitor 300 can exchange emotions and emotions with each other through voice.

제어부(150)에서 이루어지는 주요 제어는 도 9를 통해 좀 더 살펴보도록 한다.The main control performed by the controller 150 will be described in more detail with reference to FIG. 9 .

설계 예에 따라 생략 가능한, 인공지능 센서 데이터 해석부(160)는 센서부(140)의 복수의 센서에 의해 센싱된 복수의 센싱 데이터로부터 인형(100)의 상태를 추정한다. 인공지능 센서 데이터 해석부(160)는 미리 학습된 인공지능 알고리즘을 구비하여 복수의 센싱 데이터로부터 학습에 따라 복수의 센싱 데이터에 대응하는(분류된) 인형(100)의 상태를 추정한다. The artificial intelligence sensor data analysis unit 160 , which may be omitted according to a design example, estimates the state of the doll 100 from a plurality of sensing data sensed by a plurality of sensors of the sensor unit 140 . The artificial intelligence sensor data analysis unit 160 includes a pre-learned artificial intelligence algorithm to estimate the state of the doll 100 corresponding to (classified) the plurality of sensing data according to learning from the plurality of sensing data.

인공지능 센서 데이터 해석부(160)에 대해서는 도 9, 도 10 등을 통해 좀 더 상세히 살펴보도록 한다.The artificial intelligence sensor data analysis unit 160 will be described in more detail with reference to FIGS. 9 and 10 .

도 4 내지 도 7은 인형(100)에 포함되는 형상감지 센서(141)의 필요성, 원리 및 구성을 설명하기 위한 도면이다. 4 to 7 are diagrams for explaining the necessity, principle, and configuration of the shape detection sensor 141 included in the doll 100 .

도 4는 일반 압력센서의 압력을 측정하는 원리를 도시하고 있는 데, 기존의 압력센서는 외부의 압력이 가해지면 그 압력에 반응하는 압력반응물질을 이용하여 압력을 측정한다. 도 4의 (b)와 같이 압력이 압력반응물질에 인가되면 압력반응물질은 압력의 크기만큼 두께가 변화한다. 압력반응물질의 두께 변화는 도 4에서 알 수 있는 바와 같이 압력반응물질이 단단한 지지대 위에 있을 때 가능하다. 4 shows the principle of measuring the pressure of a general pressure sensor, the conventional pressure sensor measures the pressure using a pressure reaction material that responds to the pressure when an external pressure is applied. As shown in (b) of FIG. 4 , when pressure is applied to the pressure-reacting material, the thickness of the pressure-reacting material is changed by the amount of pressure. As can be seen in FIG. 4 , the change in the thickness of the pressure reactant is possible when the pressure reactant is placed on a rigid support.

도 5의 예는 본 발명에 따라 구성되는 인형(100) 등에 적용시 일반 압력센서의 문제점을 도시하기 위한 도면이데, 압력센서가 탄력성이 있는 물질(예를 들어, 물, 젤리, 심지어 공기 등) 상에 설치되면 외부로부터의 압력을 측정하기 용이치 않다. 이는, 압력이 가해지는 면의 반대면이 움직이거나 흔들리지 않는 지지대에 고정되어 있지 않기 때문이다. 도 5의 (c)와 (d)에서 알 수 있는 바와 같이 외부에서 압력이 인가되는 경우라도 압력반응물질은 그 두께 변화가 없어 탄성 매질 내에 이동 위치하는 압력반응물질로는 그 압력을 측정할 수 없다. The example of FIG. 5 is a diagram for illustrating the problems of a general pressure sensor when applied to the doll 100 etc. constructed according to the present invention, and the pressure sensor is made of a flexible material (eg, water, jelly, even air, etc.). ), it is not easy to measure the pressure from the outside. This is because the opposite side of the side to which the pressure is applied is not fixed to the support which does not move or shake. As can be seen from (c) and (d) of Figure 5, even when pressure is applied from the outside, the pressure-reactive material does not change its thickness, so the pressure can be measured with the pressure-reactive material moving in the elastic medium. none.

한편, 본 발명에 따라 구성되는 인형(100)은 사람과 똑같은 형태, 모양, 촉감 등을 가지는 것이 바람직하다. 인형(100)이 실제 사람과 동일한 느낌을 제공하여야 사용자는 사람을 대하는 것과 유사한 감성을 느낄 수 있다. 따라서, 인형(100)은 실리콘 등과 같은 부드럽고 탄력이 있는 재료(재질)로 바람직하게 구성되어야 한다. On the other hand, the doll 100 constructed according to the present invention preferably has the same shape, shape, touch, etc. as a human. When the doll 100 provides the same feeling as a real person, the user can feel a similar sensibility to dealing with a person. Therefore, the doll 100 should preferably be made of a soft and elastic material (material) such as silicone.

인형(100)을 실리콘 등과 같은 탄성 재질을 이용하여 구성한 경우, 사용자가 인형(100)의 특정 부위(예를 들어, 배나, 가슴 등과 같이 부드럽고 탄력이 있는 신체 부위)를 누른 경우 이를 센서를 통해 감지해 낼 방법이 필요하다. 도 4와 도 5와 같은 기존의 압력센서를 이용하는 경우 사람과 동일 또는 유사한 접촉이나 감촉이 인지되도록 구성되는 배, 가슴 등에서는 탄성 재질로 인해 그 압력을 인지할 수 없거나 감도가 떨어진다. 그에 따라 해당 특정 부위에 대한 눌림이나 접촉을 상대자에게 전달하는 것이 용이치 않다. When the doll 100 is made of an elastic material such as silicone, when the user presses a specific part of the doll 100 (eg, a soft and elastic body part such as a belly or chest), this is detected through a sensor You need a way to do it. In the case of using the conventional pressure sensor as shown in Figs. 4 and 5, the pressure cannot be recognized or the sensitivity is low due to the elastic material in the stomach, chest, etc., which are configured to recognize the same or similar contact or touch as a person. Accordingly, it is not easy to transmit pressure or contact on the specific part to the other party.

도 6 및 도 7은 이러한 문제점에 해결하기 위해 구성된 형상감지 센서(141)의 구조 및 원리를 설명하는 도면인데, 일 예(도 6의 예)에 따른 형상감지 센서(141)는 복수의 검지기(141-1), 신호원(141-3) 및 탄성 매질(141-5)을 포함하여 구성될 수 있다. 6 and 7 are views for explaining the structure and principle of the shape detection sensor 141 configured to solve this problem, and the shape detection sensor 141 according to an example (the example of FIG. 141-1), a signal source 141-3, and an elastic medium 141-5.

형상감지 센서(141)의 외형은 설계예에 따라, 구형, 직육면체형, 정육면체형, 원통형 등 다양한 외형의 형상을 가질 수 있다. 또는 형상감지 센서(141)는 별도의 구별되는 외형을 가지지 않고 인형(100) 등의 특정 신체 부위에 내장될 수 있거나 특정 신체 부위와 동일한 형상을 가질 수 있다.The shape of the shape sensor 141 may have various external shapes, such as a spherical shape, a rectangular parallelepiped shape, a cube shape, and a cylindrical shape, depending on a design example. Alternatively, the shape detection sensor 141 may be embedded in a specific body part, such as the doll 100, without having a separate distinct external shape, or may have the same shape as the specific body part.

형상감지 센서(141)를 구체적으로 살펴보면, 신호원(141-3)은 지정된 신호를 출력한다. 예를 들어, 신호원(141-3)은 빛을 외부로 방출(방사)하는 광원이거나 자계신호를 외부로 방출(방사)하는 자석일 수 있다. Looking at the shape detection sensor 141 in detail, the signal source 141-3 outputs a specified signal. For example, the signal source 141-3 may be a light source emitting (radiating) light to the outside or a magnet emitting (radiating) a magnetic field signal to the outside.

형상감지 센서(141)의 복수의 검지기(141-1)는 신호원(141-3)을 센싱한다. 예를 들어, 복수의 검지기(141-1)는 단일의 신호원(141-3)에 기초한 지정된 물리량을 센싱하고 측정된 센싱 데이터를 출력한다. 신호원(141-3)이 광원인 경우 검지기(141-1)는 광원의 빛의 세기를 센싱하는 광검파기일 수 있다. 신호원(141-3)이 자석인 경우 자석으로부터의 자계신호 세기(혹은, 세기 및 방향)를 센싱하는 자계센서일 수 있다. The plurality of detectors 141-1 of the shape detection sensor 141 sense the signal source 141-3. For example, the plurality of detectors 141-1 sense a specified physical quantity based on a single signal source 141-3 and output measured sensing data. When the signal source 141-3 is a light source, the detector 141-1 may be a photodetector that senses the intensity of the light of the light source. When the signal source 141-3 is a magnet, it may be a magnetic field sensor for sensing the strength (or strength and direction) of a magnetic field signal from the magnet.

도 6의 예와 같이, 단일 신호원(141-3)과 복수의 검지기(141-1)는 서로 지정된 거리 이상 떨어져 위치한다. 예를 들어, 구형에 포함되는 복수의 검지기(141-1)는 단일 신호원(141-3)과 동일한 거리에 떨어져 위치할 수 있다. 단일 신호원(141-3)은 구 형상 내부의 지정된 중앙 위치 위치하고 설치된 위치에서 360도 전방향 외부로 지정된 신호를 방사 출력할 수 있다. 복수의 검지기(141-1) 각각은 구 형상의 내부 표면에 설치되고 신호원(141-3)과 서로 동일한 거리에 위치하여 신호원(141-3)의 지정 신호의 신호세기 등을 측정하도록 구성된다. As in the example of FIG. 6 , the single signal source 141-3 and the plurality of detectors 141-1 are located apart from each other by a specified distance or more. For example, the plurality of detectors 141-1 included in the sphere may be located at the same distance from the single signal source 141-3. The single signal source 141-3 is positioned at a designated central position inside the spherical shape and can radiate a designated signal out of 360 degrees omnidirectionally from the installed position. Each of the plurality of detectors 141-1 is installed on the inner surface of the spherical shape and is located at the same distance from the signal source 141-3 to measure the signal strength of the designated signal of the signal source 141-3, etc. do.

또는, 직육면체 형상에 포함되는 복수의 검지기(141-1)는 각각의 설정된 거리에 떨어져 위치하여 직육면체 형상 중앙에서 설치된 신호원(141-3)의 신호 세기등을 센싱할 수 있다. Alternatively, the plurality of detectors 141-1 included in the rectangular parallelepiped shape may be located apart from each other by a set distance to sense the signal strength of the signal source 141-3 installed in the center of the rectangular parallelepiped shape.

이와 같이, 복수의 검지기(141-1)와 신호원(141-3) 사이의 거리는 동일하거나 다를 수 있고 적어도 사용자에 의한 접촉이나 눌림이 없는 경우에는 미리 설정된 거리에 위치하여 신호원(141-3)으로부터의 신호 세기 등을 센싱할 수 있다. In this way, the distance between the plurality of detectors 141-1 and the signal source 141-3 may be the same or different, and at least when there is no contact or pressure by the user, the distance between the signal source 141-3 is located at a preset distance. ), and the like can be sensed.

도 6의 예와 같이 신호원(141-3)은 복수의 검지기(141-1) 각각과 지정된 거리 이상 떨어져 위치하여 형상감지 센서(141) 내의 복수의 검지기(141-1)로 지정된 신호를 출력하고 복수의 검지기(141-1) 각각은 신호원(141-3)에서 출력되는 신호의 세기를 센싱하고 신호세기 센싱 데이터를 출력할 수 있다.As in the example of FIG. 6 , the signal source 141-3 is positioned more than a specified distance from each of the plurality of detectors 141-1 to output a signal designated by the plurality of detectors 141-1 in the shape detection sensor 141 . and each of the plurality of detectors 141-1 may sense the intensity of a signal output from the signal source 141-3 and output signal intensity sensing data.

현상감지 센서(141)는 복수의 검지기(141-1)와 신호원(141-3) 사이에 위치하는 탄성 매질(141-5)을 더 포함할 수 있다. 탄성 매질(141-5)은 예를 들어, 물, 젤리, 공기, 실리콘 등과 같이 외부의 압력에 따라 유동할 수 있는 재질로 구성된다. 형상감지 센서(141)가 구 형상 등을 가지는 경우 그 구 형상의 표면 내부에 탄성 매질(141-5)이 채워진다. The phenomenon detection sensor 141 may further include an elastic medium 141-5 positioned between the plurality of detectors 141-1 and the signal source 141-3. The elastic medium 141 - 5 is made of a material that can flow according to an external pressure, such as water, jelly, air, silicone, and the like. When the shape detection sensor 141 has a spherical shape, the elastic medium 141-5 is filled inside the surface of the spherical shape.

사용자 등에 의해 형상감지 센서(141) 또는 형상감지 센서(141)를 구비한 신체 부위에 압력, 접촉 등이 일어나는 경우, 탄성 매질(141-5)을 통해 형상감지 센서(141)에 대응하는 형상의 외형은 변형된다. When pressure, contact, etc. occurs on the shape detection sensor 141 or the body part provided with the shape detection sensor 141 by the user, etc., the shape corresponding to the shape detection sensor 141 is formed through the elastic medium 141-5. appearance is transformed.

도 7의 (a) 예와 같이, 외부 접촉 등이 없는 경우 신호원(141-3)(광원 또는 자석)에 지정된 거리(예를 들어, 동일한 거리)에 위치하는 복수의 검지기(141-1)(광검파기 또는 자계센서)는 지정된 거리에서 신호원(141-3)의 신호 세기를 센싱하고 센싱 데이터(P1, P2, ..., Pn)를 출력할 수 있다. As in the example of (a) of FIG. 7 , a plurality of detectors 141-1 located at a specified distance (eg, the same distance) to the signal source 141-3 (light source or magnet) when there is no external contact, etc. The (photodetector or magnetic field sensor) may sense the signal strength of the signal source 141-3 at a specified distance and output the sensed data P1, P2, ..., Pn.

예를 들어, 광원으로부터 동일한 거리에 위치하는 광검파기는 빛의 세기를 센싱하고 센싱된 빛 세기를 나타내는 센싱 데이터를 출력하고 자석으로부터 동일한 거리에 위치하는 자계센서는 자계신호 세기를 센싱하고 센싱된 자계신호 세기를 나타내는 센싱 데이터를 출력한다. 외부 접촉이 없는 경우로서, 동일한 거리에 위치하는 검지기(141-1)는 임계치 내의 서로 동일하거나 유사한 센싱 데이터를 출력한다.For example, a photodetector positioned at the same distance from the light source senses the intensity of light and outputs sensing data representing the sensed intensity of light, and a magnetic sensor positioned at the same distance from the magnet senses the intensity of the magnetic field signal and the sensed magnetic field Sensing data indicating signal strength is output. In the case of no external contact, the detectors 141-1 located at the same distance output the same or similar sensing data within a threshold.

도 7 (b) 예와 같이, 외부로부터 압력이 형상감지 센서(141) 또는 그 형상에 인가된 경우, 신호원(141-3)과 복수의 검지기(141-1) 사이의 거리는 외부 압력이 인가되는 부위, 크기, 위치 등에 따라 서로 달라진다. 검지기(141-1)는 변화된 거리에서 신호원(141-3)의 신호세기를 센싱하고 센싱 데이터(P'1, P'2, ..., P'n)를 출력할 수 있다. 7 (b) as in the example, when pressure is applied to the shape detection sensor 141 or its shape from the outside, the distance between the signal source 141-3 and the plurality of detectors 141-1 is applied by external pressure It varies depending on the area, size, location, etc. The detector 141-1 may sense the signal strength of the signal source 141-3 at the changed distance and output the sensed data P'1, P'2, ..., P'n.

예를 들어, 압력의 미 인가시에 동일한 거리에 위치하던 광검파기는 압력 인가와 탄성 매질(141-5)의 유동에 따라 중앙의 광원으로부터 변화된 거리에 위치하고 변화된 위치에서 광원의 빛 세기를 센싱하고 이를 출력할 수 있다. 또는 압력의 미 인가시에 동일한 거리에 위치하던 자계센서는 압력 인가와 탄성 매질(141-5)의 유동에 따라 중앙의 자석으로부터 변화된 거리에 위치하고 변화된 위치에서 자석의 자계신호 세기를 센싱하고 이를 출력할 수 있다. 변화된 위치에서 측정된 센싱 데이터는 신호원(141-3)과의 거리 차로 인해 원래의 위치에서 측정된 센싱 데이터와는 상이하다. For example, the photodetector, which was located at the same distance when no pressure is applied, is located at a changed distance from the central light source according to the pressure application and the flow of the elastic medium 141-5 and senses the light intensity of the light source at the changed position, You can print this out. Alternatively, the magnetic field sensor located at the same distance when no pressure is applied is located at a changed distance from the central magnet according to the pressure application and the flow of the elastic medium 141-5 and senses the magnetic field signal strength of the magnet at the changed position and outputs it can do. The sensed data measured at the changed position is different from the sensed data measured at the original position due to a difference in distance from the signal source 141-3.

이와 같이, 복수의 검지기(141-1) 각각은 탄성 매질(141-5)에 대한 외부 압력으로 신호원(141-3)으로부터 변화된 거리에 위치하고 신호원(141-3)으로부터 출력되는 신호 세기를 측정하고 신호세기 센싱 데이터를 각각 출력 가능하다. In this way, each of the plurality of detectors 141-1 is located at a changed distance from the signal source 141-3 due to the external pressure to the elastic medium 141-5 and measures the signal strength output from the signal source 141-3. It is possible to measure and output signal strength sensing data respectively.

복수의 검지기(141-1)로부터의 센싱 데이터들은 인형(100)(의 제어부(150))에 의해 형상 감지를 위한 벡터(이하 "형상감지 벡터"라 함)로 구성될 수 있다. 형상감지 벡터는 형상감지 센서(141)에 대응하는 외형(예를 들어, 인형(100)의 외형 ) 변화를 인식할 수 있도록 구성된다. 즉, 복수의 신호세기 센싱 데이터로 구성되는 형상감지 벡터는 신호원(141-3)에 대해 측정된 신호 세기에 따라 형상감지 센서(141)의 변화된 외형을 추정 가능토록 한다. The sensing data from the plurality of detectors 141-1 may be configured as a vector (hereinafter, referred to as a “shape detection vector”) for shape detection by the doll 100 (controller 150 of the doll 100 ). The shape detection vector is configured to recognize a change in the shape (eg, the shape of the doll 100 ) corresponding to the shape detection sensor 141 . That is, the shape detection vector composed of a plurality of signal strength sensing data enables estimation of the changed appearance of the shape detection sensor 141 according to the signal strength measured for the signal source 141-3.

도 6 및 도 7을 통해, 본 발명에 따른 형상감지 센서(141)를 살펴 보았다. 도 6 및 도 7의 예에서는 형상감지 센서(141) 내에 신호원(141-3)을 구비하는 것으로 설명하였다. 반면, 형상감지 센서(141) 내에 신호원(141-3)을 생략하여 구성할 수도 있다. 6 and 7, the shape detection sensor 141 according to the present invention was examined. In the example of FIGS. 6 and 7 , it has been described that the signal source 141-3 is provided in the shape detection sensor 141 . On the other hand, the shape detection sensor 141 may be configured by omitting the signal source 141-3.

예를 들어, 형상감지 센서(141)는 복수의 검지기(141-1)로서 형상감지 센서(141) 중력에 기초하여 중력 가속도를 센싱하는 중력가속도 센서들이나 자이로센서들을 포함하여 구성될 수도 있다. 탄성 매질(141-5) 내에 중력가속도 센서들이나 자이로센서들을 포함하는 형상감지 센서(141)는 외부 압력에 따라 변화하는 중력가속도나 자세를 센싱하고 센싱 데이터를 출력할 수 있다. For example, the shape detection sensor 141 may be configured as a plurality of detectors 141-1, including gravity acceleration sensors or gyro sensors for sensing the acceleration of gravity based on the gravity of the shape detection sensor 141 . The shape detection sensor 141 including gravity acceleration sensors or gyro sensors in the elastic medium 141 - 5 may sense the gravity acceleration or posture that changes according to an external pressure and output the sensed data.

도 8은 모니터(300)의 예시적인 블록도를 도시한 도면이다.8 is a diagram illustrating an exemplary block diagram of the monitor 300 .

도 8에 따르면, 네트워크를 통해 인형(100)의 사용자와 대화 가능하고 사용자의 상태를 인식 가능하도록 하는 모니터(300)는 모니터 네트워크 연결부(310), 모니터 음성 통신부(320), 디스플레이(330), 데이터 입력부(340) 및 모니터 제어부(350)를 포함한다. 설계 예에 따라, 모니터(300)는 그 외 다른 블록을 더 포함할 수 있다. According to FIG. 8 , the monitor 300 that enables conversation with the user of the doll 100 through the network and recognizing the user's state is a monitor network connection unit 310 , a monitor voice communication unit 320 , a display 330 , It includes a data input unit 340 and a monitor control unit 350 . According to a design example, the monitor 300 may further include other blocks.

도 8을 통해 모니터(300)를 살펴보면, 모니터 네트워크 연결부(310)는 네트워크를 통해 원격의 서버(200) 및/또는 인형(100)과 데이터를 송수신한다. 모니터 네트워크 연결부(310)는 유선 랜 인터페이스, 무선 랜 인터페이스 및/또는 이동통신망을 이용 가능한 이동통신 인터페이스를 구비할 수 있다. 모니터 네트워크 연결부(310)는 연결된 인형(100)과 음성 정보를 송수신할 수 있고 서버(200)로부터 상태추정 정보를 수신할 수 있다. Looking at the monitor 300 through FIG. 8 , the monitor network connection unit 310 transmits and receives data to and from the remote server 200 and/or the doll 100 through a network. The monitor network connection unit 310 may include a wired LAN interface, a wireless LAN interface, and/or a mobile communication interface using a mobile communication network. The monitor network connection unit 310 may transmit/receive voice information to and from the connected doll 100 and may receive state estimation information from the server 200 .

모니터 음성 통신부(320)는 모니터 스피커(321) 및 모니터 마이크(323)를 포함하여 인형(100)의 사용자와 음성 통신 기능을 수행한다. 모니터 음성 통신부(320)는 모니터 제어부(350)의 제어에 따라 모니터 네트워크 연결부(310)를 통해 연결된 인형(100)으로부터 수신되는 음성 정보의 음성을 모니터 스피커(321)로 출력한다. 또한, 모니터 음성 통신부(320)는 모니터(300)를 사용하는 상대자로부터 입력되는 모니터 마이크(323)의 음성( 신호)을 모니터 제어부(350)로 출력할 수 있다. The monitor voice communication unit 320 performs a voice communication function with the user of the doll 100 including the monitor speaker 321 and the monitor microphone 323 . The monitor voice communication unit 320 outputs the voice of the voice information received from the doll 100 connected through the monitor network connection unit 310 to the monitor speaker 321 under the control of the monitor control unit 350 . Also, the monitor voice communication unit 320 may output a voice (signal) of the monitor microphone 323 input from a counterpart using the monitor 300 to the monitor control unit 350 .

디스플레이(330)는 모니터 제어부(350)에 연결되어 모니터 제어부(350)로부터 수신되는 이미지를 표시한다. 디스플레이(330)는 LCD, LED, OLED 등의 디스플레이-모듈을 구비하여 상태추정 정보에 따른 이미지를 표시할 수 있다. The display 330 is connected to the monitor controller 350 to display an image received from the monitor controller 350 . The display 330 may include a display-module such as LCD, LED, and OLED to display an image according to the state estimation information.

데이터 입력부(340)는 상대자의 입력을 수신한다. 데이터 입력부(340)는 키보드, 터치패드, 터치패널 등의 입력 수단을 구비하여 상대자가 각종 데이터나 정보를 입력 가능하다. The data input unit 340 receives an input of a counterpart. The data input unit 340 includes input means such as a keyboard, a touch pad, and a touch panel, so that a counterpart can input various data or information.

모니터 제어부(350)는 모니터(300)를 제어하고 관리한다. 모니터 제어부(350)는 프로세서, CPU, MPU, 중앙처리장치 등, 프로그램의 명령어를 수행할 수 있는 실행 유닛을 구비하고 모니터(300) 내부에 내장된 메모리나 하드디스크 상의 프로그램을 수행하여 모니터(300)를 제어하고 관리 가능하다. The monitor control unit 350 controls and manages the monitor 300 . The monitor control unit 350 includes an execution unit capable of executing a program command, such as a processor, CPU, MPU, central processing unit, etc. ) can be controlled and managed.

모니터 제어부(350)는 적어도 서버(200)에 연결, 서버(200)와의 통신, 연결된 인형(100)과 음성 통신, 서버(200)로부터 수신되는 이미지를 디스플레이(330)로 표시할 수 있다. The monitor control unit 350 may display, on the display 330 , at least a connection to the server 200 , communication with the server 200 , voice communication with the connected doll 100 , and an image received from the server 200 .

모니터(300)에서 이루어지는 주요한 제어는 도 9를 통해 좀 더 살펴보도록 한다. The main control performed in the monitor 300 will be looked at in more detail with reference to FIG. 9 .

도 9는 정서 공감을 위한 시스템에서 인형(100)과 모니터(300) 사이의 감성 교류가 이루어지는 예시적인 제어 흐름을 도시한 도면이다.9 is a diagram illustrating an exemplary control flow in which emotional exchange between the doll 100 and the monitor 300 is performed in a system for emotional empathy.

모니터(300)에서 수행되는 제어 흐름은 모니터 제어부(350)에 의해 수행되고, 인형(100)에서 수행되는 제어 흐름은 제어부(150)에 의해서 수행된다. 서버(200)는 통신 유닛, 저장 유닛 및 제어 유닛을 포함하여 저장 유닛에 저장되어 있는 프로그램을 수행하는 제어 유닛에 의해 바람직하게 수행된다. The control flow performed in the monitor 300 is performed by the monitor control unit 350 , and the control flow performed in the doll 100 is performed by the control unit 150 . The server 200 is preferably implemented by a control unit that executes a program stored in the storage unit, including a communication unit, a storage unit, and a control unit.

먼저, 인형(100)을 이용 가능한 사용자는 휴대 단말(예를 들어, 스마트폰)에 구비된 앱(APP)을 통해 서버(200)에 로그인(① 참조)하고 서버(200)에서 감성/정서적인 교류가 이루어질 상대자를 선택(② 참조)한다. 사용자는 앱을 통해 다양한 배경, 취미, 성격 등을 가지는 상대자의 프로필을 확인하고 특정 상대자를 선택할 수 있다. First, a user who can use the doll 100 logs in to the server 200 through an app (APP) provided in a mobile terminal (eg, a smartphone) (see ①), and emotional / emotional in the server 200 Select the person with whom the exchange will be made (refer to ②). The user can check the profile of a partner with various backgrounds, hobbies, personalities, etc. and select a specific partner through the app.

서버(200)는 사용자에 의해 선택된 상대자가 이용하는 모니터(300)로 연결 요청을 전송하고 연결 수락 응답을 수신(③ 참조)한다. 연결 수락 응답의 수신에 따라, 서버(200)는 휴대 단말에 대응하는 인형(100)의 음성 통신부(130)와 선택된 모니터(300)의 모니터 음성 통신부(320)를 서로 연결하여 상호 음성통화가 가능토록 설정한다. The server 200 transmits a connection request to the monitor 300 used by the counterpart selected by the user and receives a connection acceptance response (see ③). Upon receiving the connection acceptance response, the server 200 connects the voice communication unit 130 of the doll 100 corresponding to the mobile terminal and the monitor voice communication unit 320 of the selected monitor 300 to each other so that mutual voice calls are possible. set it to

네트워크를 통해 모니터(300)에 연결된 인형(100)은 센서부(140)를 통해 복수의 센서로부터 복수의 센싱 데이터를 수신(④ 참조)한다. 예를 들어, 인형(100)은 인체 부위에 설치되어 있는 자이로 센서(143), 압력 센서(145), 알콜농도 센서(148), 형상감지 센서(141) 등으로부터 센싱 데이터를 수집할 수 있다. The doll 100 connected to the monitor 300 through the network receives a plurality of sensing data from a plurality of sensors through the sensor unit 140 (see ④). For example, the doll 100 may collect sensing data from the gyro sensor 143 , the pressure sensor 145 , the alcohol concentration sensor 148 , the shape detection sensor 141 , and the like installed on the body part.

인형(100)은 수집된 센싱 데이터들로부터 상태 정보를 구성(⑤ 참조)한다. 상태 정보는 서버(200)와의 약속된 포맷에 따라 구성되고 각종 센서로부터의 센싱 데이터를 포함하거나 각종 센싱 데이터들로부터 인형(100)의 상태를 추정한 인형 상태 데이터를 포함할 수 있다. The doll 100 configures state information from the collected sensing data (see ⑤). The state information is configured according to a format agreed with the server 200 and may include sensing data from various sensors or doll state data estimating the state of the doll 100 from various sensing data.

상태 정보가 각종 센싱 데이터들을 포함하는 경우, 형상감지 센서(141)에 대응하여 복수의 검지기(141-1)로부터 수집된 센싱 데이터들은 형상감지 벡터로 구성될 수 있다. When the state information includes various types of sensing data, the sensing data collected from the plurality of detectors 141-1 in response to the shape sensing sensor 141 may be configured as a shape sensing vector.

인형 상태를 추정하는 경우, 인형(100)에 더 포함될 수 있는 인공지능 센서 데이터 해석부(160)는 주기적으로 수집된 각종 센서 데이터들의 집합들을 분석하여 인형(100)이 어떠한 상태인지를 추정할 수 있다. 인공지능 센서 데이터 해석부(160)는 인공지능 알고리즘을 적용하여 인형(100)의 상태를 추정할 수 있다. 인공지능 센서 데이터 해석부(160)에 대한 설명은 이하 서버(200)의 설명에서 좀 더 상세히 살펴보도록 한다. In the case of estimating the state of the doll, the artificial intelligence sensor data analysis unit 160, which may be further included in the doll 100, analyzes sets of various sensor data collected periodically to estimate what state the doll 100 is in. have. The artificial intelligence sensor data analysis unit 160 may estimate the state of the doll 100 by applying an artificial intelligence algorithm. The description of the artificial intelligence sensor data analysis unit 160 will be described in more detail in the description of the server 200 below.

인형(100)은 상태 정보를 서버(200)로 전송하고 서버(200)는 이를 수신(⑥ 참조)한다. The doll 100 transmits the state information to the server 200 and the server 200 receives it (see ⑥).

수신되는 상태 정보가 측정된 센서 데이터들로 구성되는 경우, 서버(200)는 센서 데이터들(의 집합)을 저장 유닛 등에 저장하고, 수신된 센서 데이터 집합으로부터 인형(100)의 상태와 나아가 인형(100)을 이용하는 사용자 상태를 추정(⑦ 참조)한다. When the received state information is composed of measured sensor data, the server 200 stores (a set of sensor data) in a storage unit, etc., and the state of the doll 100 and further the doll ( 100) to estimate the user's state (see ⑦).

서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 인공지능 알고리즘을 이용하여 측정된 복수의 센서 데이터로부터 인형(100)의 자세, 인형(100)의 변형된 형상, 사용자와의 접촉 부위, 사용자에 의해 인형(100)에 인가한 액션 등의 인형 상태를 추정하고 인형 상태에 대응하는(측정된 복수의 센서 데이터에 대응하는 관계를 가지는) 사용자 상태와 사용자의 음주상태등을 추정할 수 있다. The server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100) receives the posture of the doll 100 and the deformed shape of the doll 100 from a plurality of sensor data measured using an artificial intelligence algorithm. , the user's state and the user's drinking (having a relationship corresponding to a plurality of measured sensor data) corresponding to the doll's state, such as the contact part with the user, the action applied to the doll 100 by the user, etc. status can be estimated.

먼저, 서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 인공지능 알고리즘을 이용하여 형상감지 센서(141)(들)에 대응하는 형상 외형(들)의 변화를 감지하고 변화된(변경된) 형상 외형(들)을 추정한다. First, the server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100) uses an artificial intelligence algorithm to detect the change of the shape appearance(s) corresponding to the shape detection sensor 141(s) Detect and estimate the changed (altered) shape appearance(s).

도 10은 형상감지 센서(141)에 대한 사용자의 접촉등 액션에 따라 변화된 외형과, 이에 대응하여 측정된 형상감지 벡터의 예를 도시한 도면인데, (a)와 같이 인형(100)에 설치되어 있는 탄성 부위의 형상감지 센서(141)에 사용자가 접촉, 눌림 등에 따라 그 외형이 변형되면, 형상감지 센서(141)의 검지기(141-1)들은 그 외형의 변화에 따라 변화된 신호원(141-3)의 신호세기를 측정하고 인형(100)은 변형된 외형(도 10의 (b) 참조)에 대응하는 형상감지 벡터(도 10의 (c) 참조)를 구성할 수 있다. 10 is a view showing an example of an appearance changed according to an action such as a user's contact with the shape detection sensor 141 and an example of a shape detection vector measured in response thereto, which is installed on the doll 100 as shown in (a) When the shape of the shape detection sensor 141 of the elastic part is deformed according to the user's contact, pressing, etc., the detectors 141-1 of the shape detection sensor 141 change the signal source 141- 3) of measuring the signal strength, the doll 100 may construct a shape sensing vector (refer to FIG. 10(c)) corresponding to the deformed appearance (refer to (b) of FIG. 10).

특정 외형은 특정 형상감지 벡터(의 패턴)에 대응하고, 사용자 액션에 따라 변형된 외형과 대응하는 형상감지 벡터는 매칭되어 인형(100)이나 서버(200) 내에 테이블(비휘발성 메모리 등)로 저장되거나 인공지능 알고리즘에 의해 학습될 수 있다. A specific shape corresponds to (pattern of) a specific shape detection vector, and the shape detection vector corresponding to the shape deformed according to a user action is matched and stored as a table (non-volatile memory, etc.) in the doll 100 or server 200 or can be learned by artificial intelligence algorithms.

서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 인공지능 알고리즘을 이용하여(테이블을 이용하거나 또는 학습된) 인형(100)의 형상감지 센서(141)에서 측정된 형상감지 벡터로부터 설치된 탄성 부위의 대응하는 외형을 추정할 수 있다. The server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100) measures by the shape detection sensor 141 of the doll 100 (using a table or learned) using an artificial intelligence algorithm. It is possible to estimate the corresponding shape of the installed elastic part from the shape detection vector.

또한, 서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 인공지능 알고리즘을 이용하여 수신된 센서 데이터 집합(측정된 복수의 센싱 데이터) 및 형상감지 센서(141)의 변형된 외형을 주기적으로 분석하여 인형(100)의 현재 상태를 추정한다. 예를 들어, 서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 형상감지 센서(141)의 변형 외형, 압력 센서(145)의 압력 여부, 자이로 센서(143)의 센싱값 등을 이용하여 인형(100)의 자세, 사용자와의 접촉 부위, 변화된 형상 등을 추정한다. In addition, the server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100) receives a sensor data set (a plurality of measured sensing data) and a shape detection sensor 141 using an artificial intelligence algorithm. The current state of the doll 100 is estimated by periodically analyzing the deformed appearance of . For example, the server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100) may determine the deformed appearance of the shape detection sensor 141, the pressure of the pressure sensor 145, and the gyro sensor 143. The posture of the doll 100, the contact area with the user, the changed shape, etc. are estimated using the sensing value of .

또한, 서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 측정된 복수의 센싱 데이터에 대응하는 관계를 가지는 사용자의 상태를 추정한다. In addition, the server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100 ) estimates the state of a user having a relationship corresponding to a plurality of measured sensing data.

도 11은 측정된 센서 데이터 집합으로부터 유추되는 인형(100) 및 사용자의 상태의 예를 도시한 도면인데, 서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 측정된 센서 데이터 집합(P 또는 S)으로부터 인형(100)의 접촉 부위를 판단한다. 예를 들어, 센서 데이터 집합 P로부터 3곳의 접촉 부위가 있는 것으로 판단할 수 있고 센서 데이터 집합 S로부터 1곳의 접촉 부위가 있는 것으로 판단할 수 있다. 11 is a diagram showing an example of the state of the doll 100 and the user inferred from the measured sensor data set, the server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100) is measured The contact area of the doll 100 is determined from the sensor data set (P or S). For example, it may be determined that there are three contact parts from the sensor data set P, and it may be determined that there are one contact parts from the sensor data set S.

접촉 부위의 판단과 함께, 서버(200)(또는 인형(100)의 인공지능 센서 데이터 해석부(160))는 측정된 센서 데이터 집합이 나올 가능성이 가장 큰 사용자와 인형(100)과의 관계를 인공지능 알고리즘을 통해 검색하거나 유추할 수 있다. Along with the determination of the contact area, the server 200 (or the artificial intelligence sensor data analysis unit 160 of the doll 100) determines the relationship between the user and the doll 100, which is most likely to produce the measured sensor data set. It can be searched or inferred through an artificial intelligence algorithm.

수신되는 상태 정보가 인형(100)의 추정된 상태를 포함하거나 사용자 상태가 생략된 경우, 서버(200)는 추정된 상태에 대응하는 사용자의 상태를 더 추정할 수 있다. When the received state information includes the estimated state of the doll 100 or the user state is omitted, the server 200 may further estimate the user's state corresponding to the estimated state.

서버(200)는 인형(100)에 네트워크 연결된 모니터(300)로 전송할 상태추정 정보를 구성(⑧ 참조)한다. 예를 들어, 서버(200)는 추정된 인형(100)의 상태 및/또는 추정된 사용자의 상태를 포함하는 상태추정 정보를 구성할 수 있다. 상태추정 정보에 포함되는 상태는 이미지로 구성되거나 약속된 포맷에 따라 구성될 수 있다. 이미지로 표현되는 경우, 인형(100)의 상태는 인형(100)의 변화된 상태(모습 등)를 나타내는 이미지로 구성될 수 있고 사용자의 상태는 인형(100)의 변화된 상태에 대응하는 관계를 가지는 이미지로 구성될 수 있다. The server 200 configures the state estimation information to be transmitted to the monitor 300 connected to the network to the doll 100 (see ⑧). For example, the server 200 may configure state estimation information including the estimated state of the doll 100 and/or the estimated state of the user. The state included in the state estimation information may be composed of an image or according to an agreed format. When expressed as an image, the state of the doll 100 may be composed of an image representing a changed state (appearance, etc.) of the doll 100 and the user's state is an image having a relationship corresponding to the changed state of the doll 100 can be composed of

서버(200)는 구성된 상태추정 정보를 모니터(300)로 전송하고 모니터(300)는 상태추정 정보를 수신(⑨ 참조)한다.The server 200 transmits the configured state estimation information to the monitor 300 and the monitor 300 receives the state estimation information (see ⑨).

모니터(300)는 수신된 상태추정 정보를 이미지로 표시(⑩ 참조)할 수 있다. 예를 들어, 모니터(300)는 수신된 상태추정 정보로부터 인형 상태에 대응하는 이미지를 구성하거나 추출하고 사용자 상태에 대응하는 이미지를 구성하거나 추출한다. 모니터(300)는 인형 상태의 이미지 및/또는 사용자 상태의 이미지를 디스플레이(330)에 표시하고 모니터(300)의 상대자는 이를 인식할 수 있다. The monitor 300 may display the received state estimation information as an image (see ⑩). For example, the monitor 300 constructs or extracts an image corresponding to the doll's state from the received state estimation information and constructs or extracts an image corresponding to the user's state. The monitor 300 displays the image of the doll state and/or the image of the user state on the display 330 , and the counterpart of the monitor 300 may recognize it.

인형(100)의 센싱 데이터 수신으로부터 이미지 표시의 과정(도 9의 ④ 내지⑩)은 주기적으로 또는 반복적으로 복수회 수행될 수 있다. The process of displaying the image from the sensing data reception of the doll 100 (④ to ⑩ in FIG. 9 ) may be periodically or repeatedly performed a plurality of times.

상대자는 사용자가 나타난 영상이 아닌 가상의 이미지로부터 인형(100)과 사용자의 자세, 상태 등을 확인할 수 있고 이로부터 사용자의 감성, 정서 등을 간접 인지하고 교감할 수 있다. 상대자는 자신의 감정이나 느낌을 바탕으로 사용자와 음성 통신을 수행할 수 있다. 이에 따라, 모니터(300)와 인형(100)은 서로 사용자나 상대자의 음성을 포함하는 음성 정보를 송수신한다. The other party can check the posture, state, etc. of the doll 100 and the user from a virtual image rather than an image of the user, and can indirectly recognize and communicate with the user's emotions and emotions. The counterpart may perform voice communication with the user based on their emotions or feelings. Accordingly, the monitor 300 and the doll 100 transmit and receive voice information including the voice of the user or the other party to each other.

사용자의 이미지 상태를 확인한 상대자는 모니터 음성 통신부(320)를 통해 직접 음성 통신으로 음성 대화를 할 수 있다. 또는, 상대자는 데이터 입력부(340)를 통해 반응 정보를 구성하여 서버(200)로 전송(⑪ 참조)할 수 있다. 반응 정보는 데이터 입력부(340)를 통해 상대자에 의해 입력된 문자 메시지를 포함할 수 있다. The counterpart, who has confirmed the user's image state, may have a voice conversation through voice communication directly through the monitor voice communication unit 320 . Alternatively, the counterpart may configure reaction information through the data input unit 340 and transmit it to the server 200 (refer to ⑪). The response information may include a text message input by the other party through the data input unit 340 .

서버(200)는 반응 정보의 문자 메시지를 지정된 특정 음성으로 변환하여 변환된 음성 정보를 인형(100)으로 전송(⑫ 참조)하고 인형(100)은 구비된 스피커(131)를 통해 이를 출력할 수 있다. The server 200 converts the text message of the response information into a specified specific voice and transmits the converted voice information to the doll 100 (see ⑫), and the doll 100 can output it through the provided speaker 131. have.

사용자는 인형(100)을 통해 자신의 느낌, 감정 등을 표출할 수 있고 대화 상대자는 변화된 인형 이미지나 변화된 사용자 이미지를 통해 이를 인식 가능하고 기계가 아닌 인간인 상대자에 의한 공감, 반응, 교류가 가능토록 한다. The user can express his/her feelings and emotions through the doll 100, and the conversation partner can recognize it through the changed doll image or the changed user image, and empathy, reaction, and exchange are possible by the human counterpart, not the machine. make it so

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니다. The present invention described above, for those of ordinary skill in the art to which the present invention pertains, various substitutions, modifications and changes are possible without departing from the technical spirit of the present invention. It is not limited by the drawing.

100 : 인형
110 : 네트워크 연결부 120 : 열발생부
130 : 음성 통신부
131 : 스피커 133 : 마이크
140 : 센서부
141 : 형상감지 센서
141-1 : 검지기 141-3 : 신호원
141-5 : 탄성 매질
142 : 온도 센서
143 : 자이로 센서 144 : 광 센서
145 : 압력 센서 146 : 가속도 센서
147 : 근접 센서 148 : 알콜농도 센서
149 : 이산화탄소 센서
150 : 제어부
160 : 인공지능 센서 데이터 해석부
200 : 서버
300 : 모니터
310 : 모니터 네트워크 연결부 320 :모니터 음성 통신부
321 : 모니터 스피커 323 : 모니터 마이크
330 : 디스플레이 340 : 데이터 입력부
350 : 모니터 제어부
100 : doll
110: network connection unit 120: heat generating unit
130: voice communication unit
131: speaker 133: microphone
140: sensor unit
141: shape detection sensor
141-1: detector 141-3: signal source
141-5: elastic medium
142: temperature sensor
143: gyro sensor 144: light sensor
145: pressure sensor 146: acceleration sensor
147: proximity sensor 148: alcohol concentration sensor
149: carbon dioxide sensor
150: control unit
160: artificial intelligence sensor data analysis unit
200 : server
300 : monitor
310: monitor network connection unit 320: monitor voice communication unit
321: monitor speaker 323: monitor microphone
330: display 340: data input unit
350: monitor control unit

Claims (12)

삭제delete 삭제delete 사용자가 이용하는 인형과, 원격의 상기 사용자와 대화 및 감성교류를 하는 상대자가 이용하는 모니터를 포함하여 구성되는 시스템으로서,
상기 모니터는,
상기 인형의 상태 및 상기 사용자의 상태를 나타내는 상태추정 정보를 수신하여, 상기 인형의 모습를 나타내는 가상 이미지와 상기 사용자의 모습를 나타내는 가상 이미지를 표시하는 것을 특징으로 하며,
상기 인형 및 상기 모니터와 네트워크를 통해 연결되며, 상기 인형으로부터 상태 정보를 수신하고 수신된 상태 정보로부터 상기 인형의 상태 및 상기 사용자의 상태를 추정하는 서버;를 더 포함하며,
상기 인형은,
데이터를 송수신하는 네트워크 연결부; 스피커 및 마이크를 포함하여 상기 네트워크 연결부로부터 수신되는 음성정보의 음성을 상기 스피커로 출력하는 음성 통신부; 복수의 센서를 포함하는 센서부(140); 및 상기 복수의 센서로부터의 복수의 센싱 데이터로부터 결정되는 상기 상태 정보와 상기 마이크로부터의 음성 정보를 상기 네트워크 연결부를 통해 전송하는 제어부;를 포함하여 구성되며,
상기 센서부(140)는 상기 인형의 제1 유형 부위에 설치되는 복수의 자이로 센서 및 제2 유형 부위에 설치되는 복수의 형상감지 센서를 포함하고,
상기 형상감지 센서는 사용자에 의해 인가되는 접촉 또는 압력에 따라 변화하는 형상을 센싱 가능토록 구성되며,
상기 복수의 자이로 센서는 상기 인형의 관절 부위에 설치되고, 상기 복수의 형상감지 센서는 상기 인형의 탄성을 가지는 탄성 부위에 설치되는,
시스템.
A system comprising: a doll used by a user; and a monitor used by a remote party who has conversations and emotional exchanges with the user,
The monitor is
Receiving state estimation information indicating the state of the doll and the state of the user, and displaying a virtual image indicating the appearance of the doll and a virtual image indicating the appearance of the user,
A server connected to the doll and the monitor through a network, receiving state information from the doll, and estimating the state of the doll and the state of the user from the received state information; further comprising,
The doll is
a network connection unit for transmitting and receiving data; a voice communication unit for outputting the voice of the voice information received from the network connection unit to the speaker, including a speaker and a microphone; a sensor unit 140 including a plurality of sensors; and a control unit configured to transmit the state information determined from a plurality of sensing data from the plurality of sensors and the voice information from the microphone through the network connection unit;
The sensor unit 140 includes a plurality of gyro sensors installed on the first type portion of the doll and a plurality of shape detection sensors installed on the second type portion of the doll,
The shape detection sensor is configured to sense a shape that changes according to the contact or pressure applied by the user,
The plurality of gyro sensors are installed in the joint portion of the doll, and the plurality of shape detection sensors are installed in the elastic portion having elasticity of the doll,
system.
사용자가 이용하는 인형과, 원격의 상기 사용자와 대화 및 감성교류를 하는 상대자가 이용하는 모니터를 포함하여 구성되는 시스템으로서,
상기 모니터는,
상기 인형의 상태 및 상기 사용자의 상태를 나타내는 상태추정 정보를 수신하여, 상기 인형의 모습를 나타내는 가상 이미지와 상기 사용자의 모습를 나타내는 가상 이미지를 표시하는 것을 특징으로 하며,
상기 인형 및 상기 모니터와 네트워크를 통해 연결되며, 상기 인형으로부터 상태 정보를 수신하고 수신된 상태 정보로부터 상기 인형의 상태 및 상기 사용자의 상태를 추정하는 서버;를 더 포함하며,
상기 인형은,
데이터를 송수신하는 네트워크 연결부; 스피커 및 마이크를 포함하여 상기 네트워크 연결부로부터 수신되는 음성정보의 음성을 상기 스피커로 출력하는 음성 통신부; 복수의 센서를 포함하는 센서부(140); 및 상기 복수의 센서로부터의 복수의 센싱 데이터로부터 결정되는 상기 상태 정보와 상기 마이크로부터의 음성 정보를 상기 네트워크 연결부를 통해 전송하는 제어부;를 포함하여 구성되며,
상기 센서부(140)는 상기 인형의 제1 유형 부위에 설치되는 복수의 자이로 센서 및 제2 유형 부위에 설치되는 복수의 형상감지 센서를 포함하고,
상기 형상감지 센서는 사용자에 의해 인가되는 접촉 또는 압력에 따라 변화하는 형상을 센싱 가능토록 구성되며,
상기 형상감지 센서는, 신호원을 센싱하는 복수의 검지기를 포함하고,
상기 인형은 상기 복수의 검지기로부터의 센싱 데이터를 포함하는 형상감지 벡터를 구성하며,
상기 형상감지 벡터는 상기 형상감지 센서에 대응하는 탄성 부위의 변형된 외형을 추정할 수 있도록 하는,
시스템.
A system comprising: a doll used by a user; and a monitor used by a remote party who has conversations and emotional exchanges with the user,
The monitor is
Receiving state estimation information indicating the state of the doll and the state of the user, and displaying a virtual image indicating the appearance of the doll and a virtual image indicating the appearance of the user,
A server connected to the doll and the monitor through a network, receiving state information from the doll, and estimating the state of the doll and the state of the user from the received state information; further comprising,
The doll is
a network connection unit for transmitting and receiving data; a voice communication unit for outputting the voice of the voice information received from the network connection unit to the speaker, including a speaker and a microphone; a sensor unit 140 including a plurality of sensors; and a control unit configured to transmit the state information determined from a plurality of sensing data from the plurality of sensors and the voice information from the microphone through the network connection unit;
The sensor unit 140 includes a plurality of gyro sensors installed on the first type portion of the doll and a plurality of shape detection sensors installed on the second type portion of the doll,
The shape detection sensor is configured to sense a shape that changes according to the contact or pressure applied by the user,
The shape detection sensor includes a plurality of detectors for sensing a signal source,
The doll constitutes a shape detection vector including sensing data from the plurality of detectors,
The shape detection vector allows to estimate the deformed appearance of the elastic part corresponding to the shape detection sensor,
system.
제4항에 있어서,
상기 복수의 센서의 복수의 센싱 데이터로부터 상기 인형의 상태를 추정하는 인공지능 센서 데이터 해석부;를 더 포함하고,
상기 인공지능 센서 데이터 해석부는, 상기 형상감지 벡터를 구성하고 상기 형상감지 벡터에 대응하는 형상을 인공지능 알고리즘을 통해 추정하는,
시스템.
5. The method of claim 4,
Further comprising; an artificial intelligence sensor data analysis unit for estimating the state of the doll from a plurality of sensing data of the plurality of sensors,
The artificial intelligence sensor data analysis unit configures the shape detection vector and estimates a shape corresponding to the shape detection vector through an artificial intelligence algorithm,
system.
제4항에 있어서,
상기 형상감지 센서는,
상기 복수의 검지기로서 복수의 광검파기 및 상기 복수의 광검파기와 지정된 거리에 위치하고 상기 신호원인 광원을 포함하거나, 상기 복수의 검지기로서 복수의 자계센서 및 상기 복수의 자계센서와 지정된 거리에 위치하고 상기 신호원인 자석을 포함하는,
시스템.
5. The method of claim 4,
The shape detection sensor is
A plurality of photodetectors as the plurality of detectors and a light source as the signal source located at a specified distance from the plurality of photodetectors, or a plurality of magnetic field sensors as the plurality of detectors and a plurality of magnetic field sensors located at a specified distance and the signal containing a cause magnet,
system.
삭제delete 삭제delete 제4항에 있어서,
상기 서버는 저장된 프로그램에 의해 인공지능 알고리즘을 수행하며, 상기 상태 정보에 포함되고 상기 복수의 센서로부터 측정된 복수의 센싱 데이터를 이용하여 상기 인형의 접촉 부위 및 변화된 형상을 추정하고 상기 측정된 복수의 센싱 데이터에 대응하는 관계를 가지는 사용자의 상태를 추정하는,
시스템.
5. The method of claim 4,
The server performs an artificial intelligence algorithm by a stored program, estimates the contact area and the changed shape of the doll using a plurality of sensing data included in the state information and measured from the plurality of sensors, and Estimating the state of the user having a relationship corresponding to the sensed data,
system.
제4항에 있어서,
상기 서버는 저장된 프로그램에 의해 인공지능 알고리즘을 수행하며, 상기 상태 정보에 포함되는 형상감지 센서의 형상감지 벡터로부터 상기 형상감지 센서에 대응하는 상기 인형의 탄성 부위의 변형된 외형을 추정하는,
시스템.
5. The method of claim 4,
The server performs an artificial intelligence algorithm by a stored program, and estimates the deformed appearance of the elastic part of the doll corresponding to the shape detection sensor from the shape detection vector of the shape detection sensor included in the state information,
system.
제3항 또는 제4항에 있어서,
상기 이미지를 표시하는 상기 모니터는 상기 상대자로부터 입력되는 음성을 포함하는 음성 정보를 네트워크를 통해 상기 인형으로 전송하는,
시스템.
5. The method of claim 3 or 4,
The monitor displaying the image transmits voice information including voice input from the counterpart to the doll through a network,
system.
제3항 또는 제4항에 있어서,
상기 모니터는 상기 상대자에 의해 입력되는 문자 메시지를 상기 서버로 전송하고,
상기 서버는 상기 문자 메시지를 지정된 음성으로 변환하여 상기 인형으로 전송하는,
시스템.
5. The method of claim 3 or 4,
The monitor transmits a text message input by the counterpart to the server,
The server converts the text message into a designated voice and transmits it to the doll,
system.
KR1020190091024A 2019-07-26 2019-07-26 Doll and its system for the handicapped and one person households to share their feelings Expired - Fee Related KR102318218B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190091024A KR102318218B1 (en) 2019-07-26 2019-07-26 Doll and its system for the handicapped and one person households to share their feelings

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190091024A KR102318218B1 (en) 2019-07-26 2019-07-26 Doll and its system for the handicapped and one person households to share their feelings

Publications (2)

Publication Number Publication Date
KR20210012748A KR20210012748A (en) 2021-02-03
KR102318218B1 true KR102318218B1 (en) 2021-10-27

Family

ID=74572384

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190091024A Expired - Fee Related KR102318218B1 (en) 2019-07-26 2019-07-26 Doll and its system for the handicapped and one person households to share their feelings

Country Status (1)

Country Link
KR (1) KR102318218B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267174A (en) * 2004-03-18 2005-09-29 National Institute Of Advanced Industrial & Technology Ball-type tactile device
US20140220856A1 (en) * 2007-02-09 2014-08-07 Intellitoys Llc Interactive toy providing dynamic, navigable media content
JP2019072495A (en) * 2016-07-20 2019-05-16 Groove X株式会社 Autonomous travel robot understanding physical contact

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160051020A (en) * 2014-10-31 2016-05-11 얄리주식회사 User-interaction toy and interaction method of the toy
KR20160065341A (en) * 2014-11-28 2016-06-09 (주)스튜디오 크로스컬쳐 System for supporting old man living alone with care toy and mobile device
KR20180119515A (en) * 2017-04-25 2018-11-02 김현민 Personalized service operation system and method of smart device and robot using smart mobile device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267174A (en) * 2004-03-18 2005-09-29 National Institute Of Advanced Industrial & Technology Ball-type tactile device
US20140220856A1 (en) * 2007-02-09 2014-08-07 Intellitoys Llc Interactive toy providing dynamic, navigable media content
JP2019072495A (en) * 2016-07-20 2019-05-16 Groove X株式会社 Autonomous travel robot understanding physical contact

Also Published As

Publication number Publication date
KR20210012748A (en) 2021-02-03

Similar Documents

Publication Publication Date Title
JP7375770B2 (en) Information processing device, information processing method, and program
KR20140104537A (en) Apparatus and Method for Emotion Interaction based on Bio-Signal
CN103116576A (en) Voice and gesture interactive translation device and control method thereof
CN107924395A (en) Personal translator
KR20200074609A (en) Supporting method and system for home fitness
CN105832073A (en) Intelligent interactive emotional care bolster robot system
CN205540653U (en) Pillow robot system is embraced in care of interactive emotion of intelligence
US20250060782A1 (en) Wearable devices with wireless transmitter-receiver pairs for acoustic sensing of user characteristics
US12236152B2 (en) Information processing apparatus and information processing method for displaying a feeling parameter associated with an autonomous moving body
CN111590600A (en) Pillow holding robot system based on multi-mode data emotion interaction
US20250336409A1 (en) Speech signal detection device
WO2023246159A1 (en) Virtual reality interaction method, related apparatus, device and storage medium
US11287971B1 (en) Visual-tactile virtual telepresence
KR102318218B1 (en) Doll and its system for the handicapped and one person households to share their feelings
US20260018163A1 (en) Inner speech iterative learning loop
EP0915412A2 (en) Electronic game device using doll and method of performing the same
WO2025226708A1 (en) Collecting emg speech signal data
CN209579574U (en) An intelligent robot and its system based on machine sense and motion
US20200166990A1 (en) Device and methodology for the interaction through gestures and movements of human limbs and fingers
KR20010065949A (en) System for two-way transferring touch sense and method thereof
US20250336391A1 (en) Inner speech signal detection using online learning
US20250331770A1 (en) Remote detection of human movement signals
CN210574528U (en) Sign language translation system
JP2025064347A (en) Information processing system and information processing method
KR102425941B1 (en) Helper system using helper robot

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E601 Decision to refuse application
PE0601 Decision on rejection of patent

St.27 status event code: N-2-6-B10-B15-exm-PE0601

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PX0901 Re-examination

St.27 status event code: A-2-3-E10-E12-rex-PX0901

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

AMND Amendment
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

AMND Amendment
E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PX0701 Decision of registration after re-examination

St.27 status event code: A-3-4-F10-F13-rex-PX0701

X701 Decision to grant (after re-examination)
GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20241022

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

H13 Ip right lapsed

Free format text: ST27 STATUS EVENT CODE: N-4-6-H10-H13-OTH-PC1903 (AS PROVIDED BY THE NATIONAL OFFICE); TERMINATION CATEGORY : DEFAULT_OF_REGISTRATION_FEE

Effective date: 20241022

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20241022