KR101757426B1 - Hairwear having voice recording function and user emotion recognition system using the same - Google Patents
Hairwear having voice recording function and user emotion recognition system using the same Download PDFInfo
- Publication number
- KR101757426B1 KR101757426B1 KR1020160070115A KR20160070115A KR101757426B1 KR 101757426 B1 KR101757426 B1 KR 101757426B1 KR 1020160070115 A KR1020160070115 A KR 1020160070115A KR 20160070115 A KR20160070115 A KR 20160070115A KR 101757426 B1 KR101757426 B1 KR 101757426B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- voice
- hairware
- language
- bone conduction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A41—WEARING APPAREL
- A41G—ARTIFICIAL FLOWERS; WIGS; MASKS; FEATHERS
- A41G3/00—Wigs
-
- A—HUMAN NECESSITIES
- A41—WEARING APPAREL
- A41G—ARTIFICIAL FLOWERS; WIGS; MASKS; FEATHERS
- A41G5/00—Hair pieces, inserts, rolls, pads, or the like; Toupées
-
- A—HUMAN NECESSITIES
- A41—WEARING APPAREL
- A41G—ARTIFICIAL FLOWERS; WIGS; MASKS; FEATHERS
- A41G5/00—Hair pieces, inserts, rolls, pads, or the like; Toupées
- A41G5/0093—Hair accessories connected to a head covering, e.g. scarf
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/02—Transmitters
- H04B1/03—Constructional details, e.g. casings, housings
- H04B1/034—Portable transmitters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/02—Transmitters
- H04B1/03—Constructional details, e.g. casings, housings
- H04B1/034—Portable transmitters
- H04B1/0343—Portable transmitters to be carried on the body
Landscapes
- Engineering & Computer Science (AREA)
- Textile Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
Abstract
음성 녹음 기능을 구비한 헤어웨어, 그리고 이를 이용한 사용자 언어 및 감정 인식 시스템에 관한 것이다. 본 발명은 헤어웨어를 착용한 사용자의 음성 녹음이 가능하고, 그 녹음된 음성을 기반으로 한 사용자의 언어 및 감정상태를 인식하여 이를 제공할 수 있는 음성 녹음 기능을 구비한 헤어웨어, 그리고 이를 이용한 사용자 언어 및 감정 인식 시스템을 제공하고자 한다.A hairware having a voice recording function, and a user language and an emotion recognition system using the same. The present invention relates to a hairware having a voice recording function capable of voice recording of a user wearing hairwear, recognizing the language and emotion state of the user based on the recorded voice, and providing the same, A user language and an emotion recognition system.
Description
본 발명은 음성 녹음 기능을 구비한 헤어웨어, 그리고 이를 이용한 사용자 언어 및 감정 인식 시스템에 관한 것으로, 헤어웨어를 착용한 사용자의 음성 녹음이 가능하고, 그 녹음된 음성을 기반으로 한 사용자의 언어에 대한 정보 및 감정상태를 인식하여 이를 제공할 수 있는 발명에 관한 것이다.The present invention relates to a hairware having a voice recording function, and a user language and an emotion recognition system using the same. More particularly, the present invention relates to a hair clipper capable of voice recording of a user wearing hairwear, The present invention relates to an information processing apparatus and method,
선행 기술인 한국특허공개번호 제10-2015-0066407호에 개시된 바와 같이, '헤어웨어(Hairwear)' 라는 용어는, 빠진 머리 등을 보충하는 의미로 사용되던 종래의 가발 개념과 달리, 기본적으로 두상 성형을 고려한 기능을 표현하기 위해 사용되는 것이다. 그에 따라, 헤어웨어는 가발 기능 이외에도 뒷머리 상부인 정수리 부위를 볼륨-업시켜 뒤통수의 성형이 가능하도록 하는 기능을 포함하거나, 또한, 필요에 따라 소형의 전자장치를 설치할 수 있는 공간을 확보하는 기능을 포함할 수 있도록 구성되는 것들을 지칭한다. As described in Korean Patent Laid-Open Publication No. 10-2015-0066407, the term 'hairwear' is different from the conventional wig concept used to supplement missing hair, Is used for expressing the function considering. Accordingly, in addition to the wig function, the hairware also includes a function of allowing the back of the head to be formed by volume-up of the top of the head, which is the top of the back, and a function of securing a space for installing a small- ≪ / RTI >
따라서, 헤어웨어는 사용자의 두상에 착용되어 사용자의 미적 효과를 극대화시킬 수 있을 뿐만 아니라 사용자에게 필요한 부가 기능을 제공할 수 있는 다양한 형태의 제품들로 만들어져 이용될 수 있다. Therefore, the hairware can be made of various types of products that can be worn on the user's head so as to maximize the aesthetic effect of the user, and to provide additional functions necessary for the user.
그러므로, 본 발명은 그러한 헤어웨어의 제품들 중 하나로 헤어웨어를 착용한 사용자의 음성을 녹음할 수 있는 헤어웨어를 제공하는데 그 목적이 있다.Therefore, it is an object of the present invention to provide hairware that can record the voice of a user who wears hairwear as one of the products of such hairwear.
또한, 본 발명은 상기의 음성 녹음을 할 수 있는 헤어웨어 제품을 이용하여 녹음된 사용자 음성을 기반으로 사용자의 언어 및 감정상태를 인식할 수 있는 사용자 언어 및 감정 인식 시스템을 제공하는 그 목적이 있다.It is another object of the present invention to provide a user language and an emotion recognition system capable of recognizing a user's language and emotion state based on a recorded user voice using a hairware product capable of performing the voice recording .
상기와 같은 목적을 달성하기 위해서, 본 발명의 일 실시 예에 따른 음성 녹음 기능을 구비한 헤어웨어는 사용자의 두부(頭部)에 대응되도록 구형(球形)의 형태로 형성되며 내부 구조물을 통해서 사용자의 두상이 볼륨-업되거나 소형의 전자장치가 외부에 노출되지 않은 채 설치될 수 있는 내부 공간이 확보된 헤어웨어에 있어서, 사용자의 두부에 부착되어 골전도 신호를 감지하고, 그 감지된 골전도 신호를 신호처리하여 음성신호로 변환하는 골전도 마이크; 상기 골전도 마이크에서 변환된 음성신호 중에서 기 설정된 사용자의 음성신호 패턴과 일치하는 음성신호만을 식별하여 출력하는 음성 식별부; 상기 음성 식별부에서 출력되는 음성신호를 녹음하는 녹음기를 포함하고, 상기 골전도 마이크, 상기 음성 식별부, 및 상기 녹음기는 상기 헤어웨어에 확보된 내부 공간에 설치된 것을 특징으로 한다.In order to achieve the above object, a hairware having a voice recording function according to an embodiment of the present invention is formed in a spherical shape corresponding to a head of a user, And an inner space in which a small electronic device can be installed without being exposed to the outside is secured. The hairware is attached to a head of a user to detect a bone conduction signal, and the detected bone conduction A bone conduction microphone for converting a signal into a voice signal by signal processing; A voice identification unit for identifying and outputting only a voice signal that matches a voice signal pattern of a predetermined user among the voice signals converted from the bone conduction microphone; And a sound recorder for recording a voice signal output from the voice identification unit, wherein the bone conduction microphone, the voice identification unit, and the voice recorder are installed in an internal space secured in the hairware.
본 발명의 다른 실시 예에 따른 음성 녹음 기능을 구비한 헤어웨어는 상기 녹음기에 녹음된 음성신호를 무선 통신을 통해 외부 관리장치로 송신하는 무선 송신기를 더 포함하고, 상기 무선 송신기, 역시 상기 헤어웨어에 확보된 내부 공간에 설치될 수 있다.The hairware having the voice recording function according to another embodiment of the present invention may further include a wireless transmitter for transmitting the voice signal recorded in the voice recorder to the external management device through wireless communication, As shown in Fig.
본 발명의 일 실시 예에 따른 사용자 언어 및 감정 인식 시스템은, 상기 본 발명의 다른 실시 예에 따른 음성 녹음 기능을 구비한 헤어웨어; 및 상기 헤어웨어로부터 송신되는 음성신호를 수신하여 내부 또는 외부 데이터베이스에 저장 및 관리하고, 상기 데이터베이스에 저장된 음성신호를 분석하여 해당 사용자가 사용하는 언어에 대한 정보 및 상기 사용자의 감정상태를 인식하고 그 인식 결과를 해당 음성신호에 매칭시켜 상기 데이터베이스에 저장 및 관리하는 외부 관리장치를 포함한다.The user language and emotion recognition system according to an embodiment of the present invention may include a hairware having a voice recording function according to another embodiment of the present invention. And a controller for receiving and managing the voice signal transmitted from the hairware and storing and managing the voice signal in the internal or external database and analyzing the voice signal stored in the database to recognize information on the language used by the user and the emotion state of the user, And an external management apparatus for matching and storing the recognition result with the voice signal and storing and managing the same in the database.
본 발명의 또 다른 실시 예에 따른 음성 녹음 기능을 구비한 헤어웨어는, 사용자의 두부(頭部)에 대응되도록 구형(球形)의 형태로 형성되며 내부 구조물을 통해서 사용자의 두상이 볼륨-업되거나 소형의 전자장치가 외부에 노출되지 않은 채 설치될 수 있는 내부 공간이 확보된 헤어웨어에 있어서, 사용자의 두부에 부착되어 골전도 신호를 감지하고, 그 감지된 골전도 신호를 신호처리하여 음성신호로 변환하는 골전도 마이크; 상기 골전도 마이크에서 변환된 음성신호 중에서 기 설정된 사용자의 음성신호 패턴과 일치하는 음성신호만을 식별하여 출력하는 음성 식별부; 상기 음성 식별부에서 출력되는 음성신호를 녹음하는 녹음기; 상기 녹음기에 녹음된 음성신호를 분석하여 상기 사용자가 사용하는 언어에 대한 정보 및 상기 사용자의 감정상태를 인식하는 언어 및 감정 인식부; 및 상기 언어 및 감정 인식부에서 인식된 결과를 무선 통신을 통해 외부 관리장치로 송신하는 무선 송신기를 더 포함하고, 상기 골전도 마이크, 상기 음성 식별부, 상기 녹음기, 상기 언어 및 감정 인식부, 그리고 상기 무선 송신기는 상기 헤어웨어에 확보된 내부 공간에 설치된 것을 특징으로 한다.The hairware having a voice recording function according to another embodiment of the present invention is formed in a spherical shape corresponding to a head of a user and is configured such that a user's head is volume- The present invention relates to a hairware having an internal space in which a small electronic device can be installed without being exposed to the outside. The hairware is attached to a head of a user to sense a bone conduction signal, processes the detected bone conduction signal, A bone conduction microphone that converts the bone conduction signal into a magnetic field; A voice identification unit for identifying and outputting only a voice signal that matches a voice signal pattern of a predetermined user among the voice signals converted from the bone conduction microphone; A voice recorder for recording voice signals output from the voice identification unit; A language and emotion recognition unit for analyzing the voice signal recorded in the voice recorder to recognize information on a language used by the user and an emotion state of the user; And a wireless transmitter for transmitting the result recognized by the language and emotion recognition unit to an external management device via wireless communication, wherein the bone conduction microphone, the voice recognition unit, the voice recorder, the language and the emotion recognition unit, The wireless transmitter is installed in an inner space secured by the hairware.
본 발명의 다른 실시 예에 따른 사용자 언어 및 감정 인식 시스템은, 상기 본 발명의 또 다른 실시 예에 따른 음성 녹음 기능을 구비한 헤어웨어; 및 상기 헤어웨어로부터 송신되는 상기 사용자가 사용하는 언어에 대한 인식 결과 및 상기 사용자의 감정상태에 대한 인식 결과를 수신하여 내부 또는 외부 데이터베이스에 저장 및 관리하는 외부 관리장치를 포함한다.The user language and emotion recognition system according to another embodiment of the present invention may include hairware having a voice recording function according to another embodiment of the present invention. And an external management device for receiving the recognition result of the language used by the user and the recognition result of the user's emotion state transmitted from the hairware and storing and managing the recognition result in the internal or external database.
본 발명에 의하면, 헤어웨어의 내부에 확보된 공간을 활용하여 헤어웨어를 착용하는 사용자의 음성만을 보다 정확하게 녹음할 수 있을 뿐만 아니라 이외에도 그 녹음된 사용자의 음성을 활용하여 사용자의 언어 및 감정 상태에 대한 정보를 제공할 수 있는 헤어웨어 제품을 제공한다.According to the present invention, not only the voice of the user wearing the hairware can be recorded more accurately by utilizing the space secured inside the hairwear, but also the voice and the voice of the user To provide information about hair care products.
또한, 본 발명에 의하면, 상기의 헤어웨어 제품을 착용하는 사용자를 대상으로 그가 사용하는 언어 및 감정상태에 대한 정보를 수집하고 관리해 주어, 헤어웨어 사용자의 현재 언어 사용 습관이나 감정상태를 고려한 미래의 사용자 모습을 예측하는데 이용될 수 있는 데이터베이스를 구축할 수 있는 시스템을 제공한다. According to the present invention, the user who wears the hairware product collects and manages information on the language and emotional state used by the user, It provides a system that can build a database that can be used to predict the user's appearance.
도 1은 본 발명의 제1 실시 예에 따른 헤어웨어의 개략적인 구성을 도시한 블록도이다.
도 2는 본 발명의 제2 실시 예에 따른 헤어웨어의 개략적인 구성을 도시한 블록도이다.
도 3은 본 발명의 제1 실시 예에 따른 헤어웨어를 이용한 사용자 언어 및 감정 인식 시스템을 개략적으로 도시한 도면이다.
도 4는 본 발명의 제2 실시 예에 따른 헤어웨어를 이용한 사용자 언어 및 감정 인식 시스템을 개략적으로 도시한 도면이다.Fig. 1 is a block diagram showing a schematic configuration of hairware according to a first embodiment of the present invention.
2 is a block diagram showing a schematic configuration of hairware according to a second embodiment of the present invention.
3 is a diagram schematically showing a user language and an emotion recognition system using hairware according to a first embodiment of the present invention.
FIG. 4 is a view schematically showing a user language and emotion recognition system using hairware according to a second embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 도면들 중 동일한 구성요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in detail with reference to the drawings. It is to be noted that the same elements among the drawings are denoted by the same reference numerals whenever possible. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
본 발명은 헤어웨어를 착용한 사용자의 음성을 녹음할 수 있는 헤어웨어를 제공하고자 한다. 자세하게 본 발명은, 사용자의 입에서 나오는 소리를 마이크를 통해 녹음하는 형태가 아닌 헤어웨어를 착용한 사용자의 두개골의 진동을 통해 골도음, 즉 골전도를 감지하는 방식으로 사용자의 음성신호를 녹음할 수 있는 헤어웨어를 제공하고자 한다.The present invention seeks to provide hairware that can record voice of a user wearing hairwear. In more detail, the present invention is not limited to a method in which a sound emitted from a user's mouth is recorded through a microphone, but a voice signal of a user is recorded in a manner that bone conduction is detected through vibration of a skull of a wearer wearing a hair- We would like to provide you with hairwear.
일반적으로, 사람이 말을 할 때의 소리전달은 크게 2가지 경로가 있다. 첫째는 입으로부터 나오는 발성자의 소리가 주위의 공기를 매질로 상대방의 청각기관으로 들어가는 경로이며, 이를 기도음이라 한다. 그리고, 두 번째는 공기를 통하지 않고, 발성자의 성대 진동이 두개골의 진동을 통해 내이의 청각기관으로 직접 전달되는 경로이며, 이를 골전도라고 한다.Generally speaking, there are two ways of sound transmission when a person speaks. First, the voice of a speaker who comes out of the mouth is the path through which the surrounding air enters the auditory organ of the other party through the medium, and this is called the prayer note. The second is the path through which the vibration of the vocal cords of the speaker is transmitted directly to the auditory organ of the inner ear through the vibration of the skull. This is called bone conduction.
골전도를 활용하는 기술은 생체공학적인 신기술로서 외부소음에 의핸 통화 방해에도 안전하게 통화가 가능하게 하는 것이 알려져 있다. 골전도 스피커는 청신경 주위를 뼈를 가진하여 청신경을 자극하여 소리가 전달되게 하는 장치로 소음환경에서도 일반 스피커를 이용한 방식보도 정확한 음성 전달을 가능하게 해 준다.It is known that the technology that utilizes bone conduction is a new technology of biotechnology, which makes it possible to make a call safely even when the call is disturbed by external noises. Bone conduction speakers with bones around the auditory nerve to stimulate the auditory nervous system to transmit the sound in a noisy environment, using the speaker system allows accurate voice transmission.
이와 마찬가지로, 골전도 마이크는 두개골의 진동신호를 고감도 센서로 감지하여 신호처리 후 다시 음성신호로 변환해 준다. 따라서, 골전도 마이크를 통해 대상자가 말하는 소리를 감지하게 되면, 일반 마이크를 이용하여 대상자의 음성을 감지하는 것에 비하여 대상자의 외부에서 들리는 소음에 크게 영향을 받지 않고 대상자의 음성만을 감지해 낼 수 있다.Likewise, the bone conduction microphone detects the vibration signal of the skull with a high-sensitivity sensor, converts the signal into a voice signal. Therefore, when the audiovisual sound of the subject is sensed through the bone conduction microphone, the subject's voice can be sensed using a general microphone, and the subject's voice can be detected without being greatly affected by the noise heard from the subject .
따라서, 본 발명은 헤어웨어 제품 중 하나로, 외부 소음에 영향을 최소한도로 받으면서 헤어웨어를 착용한 사용자를 대상으로 해당 사용자의 음성을 보다 정확하게 녹음할 수 있는 헤어웨어를 제시한다.Accordingly, the present invention is one of hairware products, which provides a hairwear that can more accurately record the voice of a user who wears hairwear while being affected by external noise at least.
도면들을 살펴보면, 도 1은 본 발명의 제1 실시 예에 따른 헤어웨어의 개략적인 구성을 도시한 블록도이고, 도 2는 본 발명의 제2 실시 예에 따른 헤어웨어의 개략적인 구성을 도시한 블록도이다.FIG. 1 is a block diagram illustrating a schematic configuration of a hairware according to a first embodiment of the present invention. FIG. 2 is a view showing a schematic configuration of a hairware according to a second embodiment of the present invention Block diagram.
도 1에 도시된 본 발명의 제1 실시 예에 따른 헤어웨어는 골전도 마이크(100), 음성 식별부(110), 녹음기(120), 및 무선 송신기(130)를 포함할 수 있다. 여기서, 무선 송신기(130)는 외부 관리장치로의 정보 전달을 수행하기 위한 구성이기 때문에, 경우에 따라서는 상기 헤어웨어에 포함되지 않을 수도 있다. The hairware according to the first embodiment of the present invention shown in FIG. 1 may include a
본 발명의 제1 실시 예에 따른 헤어웨어는 골전도 마이크(100), 음성 식별부(110), 및 녹음기(120), 그리고 경우에 따라서 포함될 수 있는 무선 송신기(130)가 헤어웨어에 확보된 내부 공간에 설치되는 것을 특징으로 한다.The hairware according to the first embodiment of the present invention includes a
헤어웨어는 사용자의 두부(頭部)에 대응되도록 구형(球形)의 형태로 형성되며 내부 구조물을 통해서 사용자의 두상이 볼륨-업되거나 소형의 전자장치가 외부에 노출되지 않은 채 설치될 수 있는 내부 공간이 확보된 형태를 가질 수 있다.The hairware is formed in a spherical shape corresponding to the head portion of the user and can be installed inside the inner structure through which the user's head can be volume-up or the small electronic device can be installed without being exposed to the outside. A space can be secured.
그에 따라, 본 발명의 제1 실시 예에 따른 헤어웨어는 헤어웨어를 착용하는 사용자의 골전도 감지하여 사용자의 음성 녹음을 수행할 수 있는 상기의 구성요소들이 상기 헤어웨어 내에 확보된 내부 공간에 내장된 것을 특징으로 한다.Accordingly, the hairware according to the first embodiment of the present invention detects the bone marrow of the wearer wearing the hairwear, so that the above-mentioned components capable of performing the user's voice recording are embedded in the inner space secured in the hairwear .
골전도 마이크(100)는 사용자의 두부에 부착되어 골전도 신호를 감지하고, 그 감지된 골전도 신호를 신호처리하여 음성신호로 변환한다. 골전도 마이크(100)에는 압전형 마이크로폰이 이용될 수 있다. 압전형 마이크로폰은 수정이나 전기석과 같은 결정체를 정해진 방향에 따라서 판모양의 직육면체로 잘라낸 경우, 이 직육면체에 정해진 방향의 기계적인 비뚤어짐을 가하면 그 비뚤어진 힘에 응한 양의 전계가 결정체의 전해진 방향으로 발생하는 원리로 동작한다.The
음성 식별부(110)는 헤어웨어 사용자의 음성을 식별하는 기능을 수행하는 역할을 수행하는 구성이다. 따라서, 음성 식별부(110)는 골전도 마이크(100)에서 변환된 음성신호 중에서 기 설정된 사용자의 음성신호 패턴과 일치하는 음성신호만을 식별하여 출력한다. 본 실시 예에 따른 헤어웨어는 음성 식별부(110)를 통해서 헤어웨어 사용자의 음성 이외에 골전도 마이크(100)에 감지될 수 있는 외부 음성신호는 이하 녹음기(120)에 녹음되지 않도록 구성된다.The
녹음기(120)는 음성 식별부(110)에서 출력되는 음성신호를 녹음한다.The
무선 송신기(130)는 상기 녹음기(120)에 녹음된 음성신호를 무선 통신을 통해 외부 관리장치로 송신하는 동작을 수행한다.The
도 2에 도시된 본 발명의 2 실시 예에 따른 헤어웨어는 골전도 마이크(200), 음성 식별부(210), 녹음기(220), 언어 및 감정 인식부(230), 및 무선 송신기(240)를 포함할 수 있다. 본 발명의 제2 실시 예에 따른 헤어웨어는 앞서 살펴본 본 발명의 제1 실시 예와는 달리 언어 및 감정 인식부(230)를 더 포함하고 있다.The hairware according to the second embodiment of the present invention shown in FIG. 2 includes a
도 2에 도시된 골전도 마이크(200), 음성 식별부(210), 및 녹음기(220)의 동작은 도 1을 참조하여 설명한 바와 동일하므로 여기서는 그 설명을 생략하도록 하겠다.The operations of the
언어 및 감정 인식부(230)는 상기 녹음기(220)에 녹음된 사용자의 음성신호를 분석하여 해당 사용자가 사용하는 언어에 대한 정보 및 상기 사용자의 감정 상태를 인식하는 동작을 수행한다.The language and
여기서, 사용자 음성을 기반으로 하여 인식된 해당 사용자가 사용하는 언어에 대한 정보는, 일 예로 상기 사용자의 언어 습관이 부정적인 언어들을 자주 사용하는지 아니면 긍정적인 언어들을 자주 사용하는지 등을 분석하는데 이용될 수 있다.Here, the information on the language used by the user recognized based on the user's voice can be used, for example, to analyze whether the user's language habit frequently uses negative languages or frequently uses positive languages have.
그리고 음성을 기반으로 한 감정 인식 기술은 말하는 사람의 음성을 인식하고, 인식된 음성으로부터 말하는 사람의 감정 또는 신체적 상태를 인식할 수 있는 음성 처리 응용 방법의 하나이다. 음성으로부터 사용자의 감정을 인식하는 방법은 일반적으로 특징 추출(Feature Extraction) 방법을 사용하고, 음성으로부터 인식된 감정의 정확도는 추출된 특징에 따라 달라지게 된다. 현재 일반적으로 사용되는 특징 추출 방법은 음성의 피치(Pitch), 낭독속도(Speech Rate), 강도(Intensity), MFCC(Mel-Frequency Cepstral Coefficients) 및 LPCC(Linear Prediction Cepstral Coefficients) 등을 이용하여 음성으로부터 감정 상태를 인식하는 것이다. 특히, 최근에는 기본감정으로 인식하는 대신에 응용에 따른 사용자의 특수한 심신상태를 검출하는 기술들이 많이 개발되고 있다. 즉 음성을 분석하여 deception, certainty, stress, confusion, frustration, trouble, annoyance, empathy 등의 상태를 판정할 수도 있다.Speech-based emotion recognition technology is one of speech processing application methods capable of recognizing the voice of a speaking person and recognizing the emotional or physical state of a speaking person from the recognized voice. A method of recognizing a user's emotion from a voice generally uses a feature extraction method, and the accuracy of the emotion recognized from the voice depends on the extracted feature. Currently, the feature extraction method that is generally used is to extract the feature from speech by using the pitch, the speech rate, the intensity, the Mel-Frequency Cepstral Coefficients (MFCC), and the Linear Prediction Cepstral Coefficients (LPCC) And recognizes the emotional state. Especially, in recent years, many techniques for detecting a specific mental state of a user according to an application have been developed instead of recognizing it as a basic emotion. In other words, voice can be analyzed to determine states such as deception, certainty, stress, confusion, frustration, trouble, annoyance, and empathy.
언어 및 감정 인식부(230)는 이미 알려진 분석 기법을 통해서 녹음기(220)에 녹음된 사용자의 음성신호를 분석하여 사용자가 사용하는 언어에 대한 정보 및 사용자의 현재 감정 상태를 감지하는 동작을 수행한다. 그리고, 무선 송신부(240)는 언어 및 감정 인식부(230)에서 인식된 결과를 무선 통신을 통해 외부 관리장치로 송신해 준다.The language and
그에 따라, 본 발명의 2 실시 예에 따른 헤어웨어는 본 발명의 제1 실시 예와 비교해 보았을 때에, 단순히 사용자의 음성신호를 녹음하는 기능 뿐만 아니라 그 녹음된 사용자의 음성신호를 분석하여 사용자가 사용하는 언어에 대한 정보 및 사용자의 감정 상태에 대한 정보를 외부로 제공할 수 있는 기능까지 구비한다.Accordingly, when compared with the first embodiment of the present invention, the hairware according to the second embodiment of the present invention not only has a function of recording a voice signal of a user but also analyzes the voice signal of the recorded user, And a function of providing information on the emotion state of the user to the outside.
그러므로, 본 발명의 2 실시 예에 따른 헤어웨어를 이용하는 경우, 상기 헤어웨어를 착용한 사용자의 음성을 통해 해당 사용자가 사용하는 언어 및 감정상태에 대한 정보를 획득할 수 있으므로, 이러한 정보들을 바탕으로 현재 헤어웨어 사용자의 종합적인 언어 습관이나 감정상태 변화에 대한 정보들을 분석할 수 있다. 그리고, 이를 통해 상기 헤어웨어 사용자가 미래에 어떠한 모습을 가질지 예측할 수도 있다. 일 예로, 상기 헤어웨어 사용자가 미래에 어떠한 말투나 감정상태를 가질지, 또는 긍정적 성향을 가질지 아니면 부정적인 성향을 가질지 등등 상기 사용자가 사용하는 언어 및 감정상태에 대한 정보를 종합하여 분석할 경우, 해당 사용자의 미래의 모습에 대한 예측이 가능할 것이다.Therefore, in the case of using hairware according to the second embodiment of the present invention, it is possible to acquire information on the language and emotion state used by the user through the voice of the user wearing the hairware, You can now analyze the information about the comprehensive language habits and emotional state changes of the hairware users. It is also possible to predict how the hairware user will look in the future. For example, when the user of the hairware collects and analyzes information on the language and the emotional state used by the user, such as whether the user has any speech or emotional state in the future, whether the user has a positive tendency or a negative tendency , It is possible to predict the future appearance of the user.
본 발명의 2 실시 예에 따른 헤어웨어 역시, 내부에 확보된 공간을 활용하여 그 내부 공간에 골전도 마이크(200), 음성 식별부(210), 녹음기(220), 언어 및 감정 인식부(230), 및 무선 송신기(240)가 내장된 형태인 것을 특징으로 한다.The hairware according to the second embodiment of the present invention also includes a
본 발명은 또한, 상기의 음성 녹음을 할 수 있는 헤어웨어 제품을 이용하여 녹음된 사용자 음성을 기반으로 사용자가 사용하는 언어에 대한 정보 및 사용자의 감정상태를 인식할 수 있는 사용자 언어 및 감정 인식 시스템을 제공하고자 한다.The present invention also provides a user language and an emotion recognition system capable of recognizing information on a language used by a user based on a recorded user voice using the hairware product capable of performing the voice recording, .
도 3은 본 발명의 제1 실시 예에 따른 헤어웨어를 이용한 사용자 언어 및 감정 인식 시스템을 개략적으로 도시한 도면이고, 도 4는 본 발명의 제2 실시 예에 따른 헤어웨어를 이용한 사용자 언어 및 감정 인식 시스템을 개략적으로 도시한 도면이다.FIG. 3 is a schematic view of a user's language and emotion recognition system using hairware according to a first embodiment of the present invention. FIG. 4 is a block diagram illustrating a user language and emotion using hairware according to a second embodiment of the present invention. 1 is a diagram schematically illustrating a recognition system.
살펴보면, 도 3에 도시된 사용자 언어 및 감정 인식 시스템은 본 발명의 제1 실시 예에 따른 헤어웨어(300)를 이용하는 시스템으로, 외부 관리장치(310)를 포함한다.The user language and emotion recognition system shown in FIG. 3 are
외부 관리장치(310)는 본 발명의 제1 실시 예에 따른 헤어웨어(300)로부터 송신되는 음성신호를 수신하여 내부 또는 외부 데이터베이스(320)에 저장 및 관리한다. 또한, 외부 관리장치(310)는 상기 데이터베이스(320)에 저장된 음성신호를 분석하여 해당 사용자가 사용하는 언어에 대한 정보 및 상기 사용자의 감정상태를 인식하고 그 인식 결과를 해당 음성신호에 매칭시켜 상기 데이터베이스(320)에 저장 및 관리한다.The
그에 따라, 도 3에 도시된 사용자 언어 및 감정 인식 시스템은 외부 관리장치(310)를 통해서 수집되는 헤어웨어 사용자들의 음성신호를 가지고 각 사용자들의 사용 언어 및 감정 상태에 대한 정보를 인식하고 관리하며, 필요에 따라 제공할 수 있다.Accordingly, the user language and emotion recognition system shown in FIG. 3 recognizes and manages information on the user's language and emotional state of each user with voice signals of hairware users collected through the
그리고, 상기 인식된 각 헤어웨어 사용자들의 사용 언어 및 감정상태에 대한 정보들은 헤어웨어 사용자들의 종합적인 언어 습관이나 감정상태 변화에 대한 정보들을 분석하는데 이용될 수 있고, 앞서 언급한 바와 같이 각각의 헤어웨어 사용자가 미래에 어떠한 모습을 가질지 예측하는데 유용한 자료가 될 수 있다.The information on the language and the emotional state of each recognized hairware user can be used to analyze information on a comprehensive language habit or emotional state change of the hairware users. As mentioned above, It can be a useful resource for predicting what a wear user will look like in the future.
도 4에 사용자 언어 및 감정 인식 시스템은 본 발명의 제2 실시 예에 따른 헤어웨어(400)를 이용하는 시스템으로, 도 3에 도시된 시스템과 동일하게 외부 관리장치(410)를 포함한다. 다만, 본 발명의 제2 실시 예에 따른 헤어웨어(400)는 자체에서 사용자의 음성신호를 분석하여 해당 사용자가 사용하는 언어에 대한 정보 및 상기 사용자의 감정 상태를 인식하고 그 인식된 결과를 외부로 제공할 수 있는 구성요소들을 구비하고 있으므로, 외부 관리장치(410)는 본 발명의 제2 실시 예에 따른 헤어웨어(400)에서 송신되는 상기 인식 결과를 수신하여 내부 또는 외부 데이터베이스(420)에 저장 및 관리하는 동작을 수행한다.4, the user language and emotion recognition system includes a
상기 도 3 및 도 4에 도시된 사용자 언어 및 감정 인식 시스템은 헤어웨어 사용자들을 대상으로 그들이 사용하는 언어에 대한 정보 및 그들의 감정상태에 대한 정보를 수집 및 관리해 준다. 그에 따라, 현재 사용하는 언어습관이나 감정상태의 변화를 바탕으로 각각의 헤어웨어 사용자가 미래에 어떠한 모습을 가질지 예측하는데 활용될 수 있는 유용한 데이터베이스를 구축 가능하게 할 것이다. The user language and emotion recognition system shown in FIG. 3 and FIG. 4 collects and manages information on the language used by the hairware users and information on their emotional state. Thus, based on the changes in language habits and emotional states currently in use, it will be possible to build a useful database that can be used to predict how each hairware user will look in the future.
본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, Do. Accordingly, the spirit of the present invention should be understood only by the appended claims, and all equivalent or equivalent variations thereof are included in the scope of the present invention.
100, 200 : 골전도 마이크
110, 210: 음성 식별부
120, 220 : 녹음기
130, 240 : 무선 송신기
230 : 언어 및 감정 인식부
300, 400 : 헤어웨어
310, 410 : 외부 관리장치
320, 420 : 데이터베이스(DB)100, 200: Bone conduction microphone
110 and 210:
120, 220:
130, 240: radio transmitter
230: Language & Emotion Recognition
300, 400: Hair Wear
310, 410: external management device
320, 420: Database (DB)
Claims (5)
사용자의 두부에 부착되어 골전도 신호를 감지하고, 그 감지된 골전도 신호를 신호처리하여 음성신호로 변환하는 골전도 마이크;
상기 골전도 마이크에서 변환된 음성신호 중에서 기 설정된 사용자의 음성신호 패턴과 일치하는 음성신호만을 식별하여 출력하는 음성 식별부;
상기 음성 식별부에서 출력되는 음성신호를 녹음하는 녹음기를 포함하고,
상기 골전도 마이크, 상기 음성 식별부, 및 상기 녹음기는 상기 헤어웨어에 확보된 내부 공간에 설치된 것을 특징으로 하는 음성 녹음 기능을 구비한 헤어웨어.And is formed in a spherical shape corresponding to the head portion of the user. Through the internal structure, the inner space where the user's head can be volume-up or the small electronic device can be installed without being exposed to the outside is ensured In the hairware,
A bone conduction microphone which is attached to a head of a user to sense a bone conduction signal and convert the detected bone conduction signal into a voice signal by signal processing;
A voice identification unit for identifying and outputting only a voice signal that matches a voice signal pattern of a predetermined user among the voice signals converted from the bone conduction microphone;
And a voice recorder for recording the voice signal output from the voice identification unit,
Wherein the bone conduction microphone, the voice identification unit, and the sound recorder are installed in an internal space secured by the hairware.
상기 녹음기에 녹음된 음성신호를 무선 통신을 통해 외부 관리장치로 송신하는 무선 송신기를 더 포함하고,
상기 무선 송신기, 역시 상기 헤어웨어에 확보된 내부 공간에 설치되는, 음성 녹음 기능을 구비한 헤어웨어.The method according to claim 1,
Further comprising: a wireless transmitter for transmitting a voice signal recorded in the recording device to an external management device through wireless communication,
The wireless transmitter is also installed in an internal space secured by the hairware.
상기 헤어웨어로부터 송신되는 음성신호를 수신하여 내부 또는 외부 데이터베이스에 저장 및 관리하고, 상기 데이터베이스에 저장된 음성신호를 분석하여 해당 사용자가 사용하는 언어에 대한 정보 및 상기 사용자의 감정상태를 인식하고 그 인식 결과를 해당 음성신호에 매칭시켜 상기 데이터베이스에 저장 및 관리하는 외부 관리장치를 포함하는 , 사용자 언어 및 감정 인식 시스템.A hair waving method according to claim 2; And
Receiving voice signals transmitted from the hairware, storing and managing the voice signals in an internal or external database, analyzing voice signals stored in the database, recognizing information on a language used by the user and the emotion state of the user, And an external management device for matching the result to the voice signal and storing and managing the result in the database.
상기 녹음기에 녹음된 음성신호를 분석하여 상기 사용자가 사용하는 언어에 대한 정보 및 상기 사용자의 감정상태를 인식하는 언어 및 감정 인식부; 및
상기 언어 및 감정 인식부에서 인식된 결과를 무선 통신을 통해 외부 관리장치로 송신하는 무선 송신기를 더 포함하고,
상기 언어 및 감정 인식부와 상기 무선 송신기, 역시 상기 헤어웨어에 확보된 내부 공간에 설치되는, 음성 녹음 기능을 구비한 헤어웨어.The method according to claim 1,
A language and emotion recognition unit for analyzing the voice signal recorded in the voice recorder to recognize information on a language used by the user and an emotion state of the user; And
And a wireless transmitter for transmitting the result recognized by the language and emotion recognition unit to an external management device via wireless communication,
Wherein the language and emotion recognition unit and the wireless transmitter are installed in an internal space secured in the hairware.
상기 헤어웨어로부터 송신되는 상기 사용자가 사용하는 언어에 대한 인식 결과 및 상기 사용자의 감정상태에 대한 인식 결과를 수신하여 내부 또는 외부 데이터베이스에 저장 및 관리하는 외부 관리장치를 포함하는, 사용자 언어 및 감정 인식 시스템.A hair-dressing according to claim 4; And
And an external management device for receiving and recognizing recognition results of the language used by the user transmitted from the hairware and recognition results of the emotional state of the user and storing and managing the recognition results in an internal or external database, system.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160070115A KR101757426B1 (en) | 2016-06-07 | 2016-06-07 | Hairwear having voice recording function and user emotion recognition system using the same |
PCT/KR2017/005900 WO2017213411A1 (en) | 2016-06-07 | 2017-06-07 | Hairwear having voice recognition function, and user language and emotion recognition system using same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160070115A KR101757426B1 (en) | 2016-06-07 | 2016-06-07 | Hairwear having voice recording function and user emotion recognition system using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101757426B1 true KR101757426B1 (en) | 2017-08-07 |
Family
ID=59653876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160070115A Active KR101757426B1 (en) | 2016-06-07 | 2016-06-07 | Hairwear having voice recording function and user emotion recognition system using the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101757426B1 (en) |
WO (1) | WO2017213411A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130311132A1 (en) | 2012-05-16 | 2013-11-21 | Sony Corporation | Wearable computing device |
KR101554691B1 (en) | 2013-12-06 | 2015-09-21 | 주식회사 씨크릿우먼 | Hair-wear having an auxiliary device for forming head or making space |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0562524U (en) * | 1992-01-29 | 1993-08-20 | 小林演劇かつら株式会社 | Wig device |
KR200363949Y1 (en) * | 2004-06-28 | 2004-10-11 | 민준기 | Multi glasses |
KR101605078B1 (en) * | 2014-05-29 | 2016-04-01 | 경북대학교 산학협력단 | The method and system for providing user optimized information, recording medium for performing the method |
-
2016
- 2016-06-07 KR KR1020160070115A patent/KR101757426B1/en active Active
-
2017
- 2017-06-07 WO PCT/KR2017/005900 patent/WO2017213411A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130311132A1 (en) | 2012-05-16 | 2013-11-21 | Sony Corporation | Wearable computing device |
KR101554691B1 (en) | 2013-12-06 | 2015-09-21 | 주식회사 씨크릿우먼 | Hair-wear having an auxiliary device for forming head or making space |
Also Published As
Publication number | Publication date |
---|---|
WO2017213411A1 (en) | 2017-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10977522B2 (en) | Stimuli for symptom detection | |
US9564128B2 (en) | Controlling a speech recognition process of a computing device | |
US20230045237A1 (en) | Wearable apparatus for active substitution | |
US12154591B2 (en) | Voice interactive wakeup electronic device and method based on microphone signal, and medium | |
US20150168996A1 (en) | In-ear wearable computer | |
CN113748462A (en) | Determining input for a speech processing engine | |
JP2018028681A (en) | Speech production recognition system, speech production recognition device, and method for recognizing speech production | |
US20210350823A1 (en) | Systems and methods for processing audio and video using a voice print | |
WO2004021738A1 (en) | Microphone and communication interface system | |
CN103875034A (en) | A medical feedback system based on sound analysis in a medical environment | |
CN106233379A (en) | Sound synthesis device and the method for synthetic video | |
EP3033140A1 (en) | Device for language processing enhancement in autism | |
KR102732842B1 (en) | Create and store health-related information | |
US20230228832A1 (en) | Digital Monitoring Badge System | |
EP2876899A1 (en) | Adjustable hearing aid device | |
CN110946554A (en) | Cough type identification method, device and system | |
US20210306770A1 (en) | Systems and Methods for Biomarker Analysis On a Hearing Device | |
US20230020631A1 (en) | Ear canal deformation based continuous user identification system using ear wearables | |
US11432076B2 (en) | Processing audio and video in a hearing aid system | |
US8983843B2 (en) | Motion analyzer having voice acquisition unit, voice acquisition apparatus, motion analysis system having voice acquisition unit, and motion analysis method with voice acquisition | |
US20230042310A1 (en) | Wearable apparatus and methods for approving transcription and/or summary | |
Sahidullah et al. | Robust speaker recognition with combined use of acoustic and throat microphone speech | |
US10785562B1 (en) | Position-aware recording devices able to provide context to speech | |
KR101757426B1 (en) | Hairwear having voice recording function and user emotion recognition system using the same | |
KR102260466B1 (en) | Lifelog device and method using audio recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160607 |
|
PA0201 | Request for examination | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20170410 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20170706 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20170706 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20200625 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20210518 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20220628 Start annual number: 6 End annual number: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20230621 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20240703 Start annual number: 8 End annual number: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20250623 Start annual number: 9 End annual number: 9 |