KR101566013B1 - Method and system for improvement of the pronunciation accuracy and expressiveness during language beginners reading an e-book aloud - Google Patents
Method and system for improvement of the pronunciation accuracy and expressiveness during language beginners reading an e-book aloud Download PDFInfo
- Publication number
- KR101566013B1 KR101566013B1 KR1020130070493A KR20130070493A KR101566013B1 KR 101566013 B1 KR101566013 B1 KR 101566013B1 KR 1020130070493 A KR1020130070493 A KR 1020130070493A KR 20130070493 A KR20130070493 A KR 20130070493A KR 101566013 B1 KR101566013 B1 KR 101566013B1
- Authority
- KR
- South Korea
- Prior art keywords
- utterance
- accuracy
- speech
- phoneme
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B17/00—Teaching reading
- G09B17/003—Teaching reading electrically operated apparatus or devices
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 언어입문자의 전자책 낭독 시 발화의 정확도 및 표현력을 향상시키기 위한 것으로, 상세하게는 전자책 구현 모듈에 음성인식 모듈이 연동되도록 함에 따라 언어입문자의 문장 발화를 인식하고 인식된 문장발화의 음성신호를 분석 처리함으로써 발화문장의 발화 정확도가 어느 정도인지 반응신호로 언어입문자에게 알려주어 일정 발화정확도에 도달할 때까지 반복적이고 집중적으로 정확한 문장발화를 유도하여 언어입문자의 문장 말하기 연습과 표현력 향상을 자연스럽게 가능하도록 도와주기 위한 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법 및 시스템에 관한 것이다.The present invention relates to a method for improving the accuracy and expressiveness of utterances of an e-book reader of a language, and more particularly, it relates to a method and apparatus for recognizing utterance utterances of a language primer by recognizing a sentence utterance By analyzing the speech signal, it is possible to inform the beginner of the language by the response signal of how much the utterance accuracy of the utterance sentence is, to induce repetitive and intensive correct utterance utterance until reaching the utterance utterance accuracy, The present invention relates to a method and a system for providing improved utterance accuracy and expressive power through read aloud of an electronic book to help naturally enable a user to read an electronic book.
Description
본 발명은 언어입문자의 전자책 낭독 시 발화의 정확도 및 표현력을 향상시키기 위한 것으로, 전자책 구현 모듈에 음성인식 모듈이 연동되도록 함에 따라 언어입문자의 문장 발화를 인식하고 인식된 문장발화의 음성신호를 분석 처리함으로써 발화문장의 발화 정확도가 어느 정도인지 반응신호로 언어입문자에게 알려주어 일정 발화정확도에 도달할 때까지 반복적이고 집중적으로 정확한 문장발화를 유도하여 언어입문자의 문장 말하기 연습과 표현력 향상을 자연스럽게 가능하도록 도와주기 위한 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법 및 시스템에 관한 것이다.
The present invention is to improve the accuracy and expressiveness of utterance when reading an e-book of a language primer. As the voice recognition module is linked to the e-book implementation module, it recognizes the utterance of the utterance of the language primer and recognizes the voice signal of the recognized utterance By analyzing the sentence, it is possible to inform the beginner of the language by the response signal of how much the utterance accuracy of the utterance sentence is, and to induce the repetitive and intensive correct utterance utterance until reaching the utterance utterance accuracy. And more particularly, to a method and system for providing improved speaking accuracy and expressive power by reading an e-book to help a user read a book.
근래 들어 전자책 전용 단말기, 스마트폰, 태블릿 컴퓨터 등의 전자책 구동이 가능한 디지털 기기가 널리 보급되고 있으며, 이러한 디지털 기기를 이용하여 전자책을 구독하는 사용자의 수가 점차 증가하고 있는 추세이다.Recently, digital devices capable of driving electronic books such as electronic book terminals, smart phones, and tablet computers have become widespread, and the number of users who subscribe to electronic books using such digital devices is gradually increasing.
그러나 디지털 기기를 이용한 전자책의 경우 언어입문자의 입자에서 전자책을 읽을 때에는 글의 의미습득을 위한 책읽기의 의미와 언어로서 표현연습의 의미를 가질 수 있으나 현재까지 실시되고 있는 전자책들은 언어입문자들의 문장발음을 측정, 평가해줄 만한 방법이 없어 반복하여 전자책을 읽어도 의미상의 문장을 습득할 수 있을 뿐 적절한 억양과 발음을 습득할 수 없다는 문제점이 있다.However, in the case of e-books using digital devices, when reading an e-book from a particle of an introductory language, the meaning of a book for acquiring the meaning of the text and the meaning of the expression exercise as a language can be used. However, There is no way to measure and evaluate sentence pronunciations, so that even if an e-book is read repeatedly, meaningful sentences can be learned and proper intonation and pronunciation can not be learned.
그리고 종래 언어입문자의 문장발음을 인식하여 단순 반응해주는 방식의 전자책이 제시된 바 있으나, 해당 전자책에 포함된 문장들 중 읽은 문장, 읽지 않은 문장, 적절하게 발음한 문장, 적절하게 발음하지 못한 문장 등 문장발화관련 사용 통계 데이터를 추출하여 언어입문자의 발화 정확도 등의 언어학습에 도움을 주는 데이터를 세밀하게 분석하여 제공하는 방법이 없어 언어입문자의 언어 의미습득과 표현력습득이라는 언어학습의 실효성 측면에서 전자책 읽기가 효과적이지 않았다는 문제점이 있다.
In addition, although an e-book has been proposed in which a simple reaction is performed by recognizing the pronunciation of a sentence in the conventional language, the read sentence, the unread sentence, the appropriately pronounced sentence, It is necessary to extract the data of usage statistical data related to the utterance utterance such as spoken language accuracy of the language beginner in order to analyze the data to help the language learning. There is a problem that reading e-books is not effective.
이에, 본 발명은 전술한 바와 같은 종래기술의 문제점을 해결하기 위해 안출된 것으로, 낭독체 음성인식 모듈을 전자책 구현 모듈에 적용하여 언어입문자의 전자책 문장 또는 단어 발화를 측정 및 평가하며, 언어입문자의 발화정확도 등의 언어학습에 도움을 주는 통계 데이터를 분석할 수 있는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법 및 시스템을 제공함에 그 목적이 있다.
Accordingly, the present invention has been made to solve the above-mentioned problems of the prior art, and it is an object of the present invention to provide an electronic book implementation module for a learner's voice recognition module to measure and evaluate electronic book sentences or word utterances of a language- And an object of the present invention is to provide a method and system for providing accurate pronunciation and expressive power by reading an electronic book that can analyze statistical data that helps language learning, such as initialization accuracy of a beginner.
본 발명의 해결하고자 하는 과제에 의한 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템은 전자책 상에서 구현되는 전자책 텍스트와, 사용자가 상기 텍스트를 발화할 때 발화중임을 인지시키는 요소와, 발화인식완료를 인지시키는 요소 및 발화인식 정확도의 수준을 인지시키는 요소를 포함하는 전자책 콘텐츠와; 음성신호와 영상신호의 입출력이 가능하고 데이터의 저장과 연산처리 기능이 탑재된 디지털기기에 설치되며 상기 전자책 콘텐츠를 상기 디지털기기 상에서 구현되도록 하는 전자책 구현 모듈; 및 상기 디지털기기에 설치되며 상기 전자책 구현 모듈과 연동하여 상기 사용자가 텍스트를 발화할 때의 음성신호를 입력받고 이를 통해 사용자의 발화정확도를 분석 및 평가하는 낭독체 음성인식 모듈;을 포함하는 것이 특징이다.According to an aspect of the present invention, there is provided a system for providing improved accuracy of speech and expressive power through read aloud of an electronic book, including an electronic book text implemented on an electronic book, an element recognizing that a user is speaking when the text is uttered, An electronic book content including an element for recognizing completion of speech recognition and an element for recognizing a level of speech recognition accuracy; An electronic book implementing module installed in a digital device capable of inputting and outputting a voice signal and a video signal and having a function of storing and processing data and implementing the electronic book contents on the digital device; And a read aloud sound recognition module installed in the digital device and interworking with the electronic book implementation module to receive a voice signal when the user utters a text and analyze and evaluate a user's utterance accuracy through the voice recognition module Feature.
한편, 본 발명의 해결하고자 하는 과제에 의한 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법은 사용자가 발화한 전자책의 문장 또는 단어의 발화음성신호를 입력받는 입력단계; 상기 발화음성신호를 낭독체 음성인식 모듈에서 발화정확도를 분석 및 판별하는 분석 및 판별 단계; 발화정확도에 따른 반응 유무를 제어부로 전달하고, 발화정확도 데이터를 통계 데이터베이스에 저장하는 저장 단계; 상기 제어부에서 발화정확도에 대응하는 콘텐츠를 콘텐츠 데이터베이스로부터 호출 및 출력하고 발화 완료 문장 표시를 출력하도록 명령하는 명령 단계; 및 전자책 구현 모듈에서 발화문장 표시, 발화정확도 표시 및 발화관련 통계표시를 디지털기기상에서 구현되도록 표시하는 표시 단계;를 포함하는 것이 특징이다.
According to another aspect of the present invention, there is provided a method for providing improved utterance accuracy and expressive power through read aloud of an electronic book, comprising the steps of: inputting utterance speech signals of sentences or words of uttered electronic books; An analysis and discrimination step of analyzing and discriminating the speaking accuracy in the speech recognition module of the speech voice signal; A storing step of transmitting the presence or absence of a reaction according to the firing accuracy to the control unit and storing the firing accuracy data in the statistical database; An instruction step of causing the control unit to call and output a content corresponding to the speaking accuracy from a content database and output a display of a speech completion sentence; And a display step of displaying a statistical display related to a spoken sentence display, a spoken accuracy indication, and a spoken word in an electronic book implementation module so as to be realized on a digital device.
이상에서 설명한 바와 같이, 본 발명의 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법 및 시스템은 언어입문자의 전자책 낭독만으로 문장 또는 단어 발화를 측정 및 평가하여 발화정확도 향상에 도움을 주고, 발화정확도 향상을 위해 반복하여 발화하는 과정을 통해 언어의 의미습득과 표현력 습득이라는 언어학습의 실효성 측면에서의 언어입문자의 발화 정확도 및 표현력 향상을 도와주는 효과가 있다.As described above, the method and system for improving the speaking accuracy and the expressive power by reading the e-book of the present invention can help improve the accuracy of speech by measuring and evaluating sentence or word utterance only by read- In order to improve the accuracy of speaking, it is effective to improve the speaking accuracy and the expressive power of the beginner in terms of the effectiveness of the language learning by acquiring the meaning of the language and acquiring the expressive power through the process of repeated speaking.
그리고, 누적된 언어입문자의 발화 데이터에서 추출한 발화 통계데이터를 제공하여 언어입문자 본인의 현재 문장 발화정확도의 개선 상태를 인지하게 하여 연속적이고 집중적인 발화연습이 되도록 함으로써 언어입문자의 문장 말하기 연습과 표현력 향상을 자연스럽게 유도할 수 있는 효과가 있다.
In addition, by providing the statistical data extracted from the accumulated speech data of the first language learner, it is possible to recognize the improved state of the current sentence speech accuracy of the first language learner so that the continuous and intensive speech practice is performed, Can be induced naturally.
도 1은 본 발명에 따른 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템의 구성을 나타내는 개략도.
도 2는 본 발명의 일 구성인 낭독체 음성인식 모듈의 구성을 나타내는 개략도.
도 3은 본 발명을 통해 디지털 기기에서 구현되는 전자책의 실시 예를 나타내는 도면.
도 4는 본 발명에 따른 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법을 설명하는 개략 흐름도.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic diagram showing the configuration of a system for providing improved speaking accuracy and expressive power through read aloud of an electronic book according to the present invention; FIG.
2 is a schematic diagram showing a configuration of a read aloud voice recognition module which is an embodiment of the present invention;
3 is a diagram showing an embodiment of an electronic book implemented in a digital device through the present invention.
FIG. 4 is a schematic flow diagram illustrating a method for providing speaking accuracy and expressive power enhancement through e-book reading according to the present invention; FIG.
이하 본 발명의 실시 예들을 첨부되는 도면을 통해 보다 상세히 설명하도록 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템의 구성을 나타내는 개략도이며, 도 2는 본 발명의 일 구성인 낭독체 음성인식 모듈의 구성을 나타내는 개략도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic diagram showing a configuration of a system for providing improved speech accuracy and expressive power through read aloud of an electronic book according to the present invention, and FIG. 2 is a schematic diagram showing a configuration of a readable voice recognition module as an embodiment of the present invention.
도 1에 도시된 바와 같이 본 발명은 음성 입력부(110), 낭독체 음성인식 모듈(120), 제어부(130), 전자책 구현 모듈(140), 통계 데이터베이스(150), 콘텐츠 데이터베이스(160) 및 출력부(170)를 포함하여 구성된다.1, the present invention includes a
상기 음성 입력부(110)는 본 발명의 시스템이 구현될 수 있는 디지털 기기에 구비되며 음성 및 소리의 입력을 가능하게 하는 마이크 등의 입력모듈을 지칭하는 것으로, 전자책을 언어입문자(이하 '사용자'라 칭함)가 읽음에 따라 발생되는 발화음성신호를 수신하는 구성에 해당한다.The
여기서, 상기 디지털 기기는 본 발명의 시스템을 통해 전자책 응용 프로그램이 구동될 수 있는 전자책 전용 단말기, 스마트폰, 태블릿 PC 중 어느 하나가 사용될 수 있으나 이에 한정되는 것은 아니다.Here, the digital device may be any one of an electronic book exclusive terminal, a smart phone, and a tablet PC through which the electronic book application program can be run through the system of the present invention, but is not limited thereto.
상기 낭독체 음성인식 모듈(120)은 상기 음성 입력부(110)로부터 수신한 발화음성신호를 전달받고, 이를 분석하여 발화정확도의 정확도를 산출하며 발화정확도의 수준을 파악한다.The read
그리고 상기 낭독체 음성인식 모듈(120)은 사용자의 전자책에 대한 문장 발화를 인식하고, 인식된 문장발화 음성신호를 처리하여 상기 인식된 발화문장이 해당 전자책 내용에 포함되어 있는지 포함되어 있다면 어느 문장의 어느 부분인지를 파악한다.The reader
이러한 낭독체 음성인식 모듈(120)의 문장 파악은 이하에서 설명하는 콘텐츠 데이터베이스(160)에 기저장된 전자책 콘텐츠와 비교 분석을 통하여 제공할 수 있게 된다.The sentence recognition of the reader / writer
구체적으로, 도 2를 참조하면 상기 낭독체 음성인식 모듈(120)은 음성입력 처리부(121)와 끝점 검출부(122)와 음소 분리부(123)와 음소별 스코어링부(124)와 신뢰 스코어 판별부(125)와 끝점 재검출부(125a)와 거절처리부(125b)와 정량적 평가부(125c) 및 발화 스코어 판별부(126)를 포함하여 구성된다.2, the read
상기 음성입력 처리부(121)는 상기 음성 입력부(110)로부터 전달되는 사용자의 발화음성신호를 수신하는 구성으로 일정시간 동안 입력된 상기 발화음성신호 데이터를 음성특징벡터 형태의 데이터로 변환하여 상기 끝점 검출부(122)로 전송한다.The
이러한 음성입력 처리부(121)는 사용자가 발화한 음성을 입력받은 음성 신호 데이터를 낭독체 음성인식 모듈(120) 내부의 하위 모듈에서 사용하기 위한 형태인 음성특징벡터 형태의 데이터로 컨버젼하고, 이렇게 컨버젼된 음성특징벡터 데이터를 끝점 검출부(122)로 전송하는 것이다.The
여기서, 상기 음성특징벡터 데이터는 입력받은 음성신호 데이터를 일정 간격으로 나누어 이 간격마다의 컨버젼 데이터를 의미한다. 또한, 상기 일정 간격은 10msec, 16msec, 20msec 등의 시간 단위를 갖는 간격을 의미하며, 이러한 시간 단위 간격으로 데이터를 일부분씩 끊어서 이 간격 안에 포함되는 음성특징 벡터값들을 추출한다. 예를 들어 10msec의 간격으로 8khz의 신호를 입력받는다면 10msec 간격 안에 80개의 데이터 샘플이 존재하고, 이러한 80개의 데이터 샘플을 1개의 음성특징벡터 데이터로 추출하는 것이다.Here, the voice feature vector data refers to conversion data for each interval by dividing input voice signal data at predetermined intervals. The predetermined interval is an interval having a time unit of 10 msec, 16 msec, 20 msec, etc., and the voice feature vector values included in the interval are extracted by dividing the data by a fraction of this time unit interval. For example, if a signal of 8 kHz is input at intervals of 10 msec, there are 80 data samples in 10 msec intervals, and the 80 data samples are extracted as one voice feature vector data.
상기 끝점 검출부(122)는 상기 음성입력 처리부(121)로부터 음성특징벡터 데이터로 변환되어 전송된 발화음성신호에서 시작점과 끝점 즉, 상기 발화음성신호의 유효한 부분을 추출하고, 추출한 시작점과 끝점 사이 유효한 부분의 음성특징벡터 데이터를 상기 음소 분리부(123)로 전송한다.The end
즉, 상기 끝점 검출부(122)는 음성입력 처리부(121)에서 전송되는 음성특징벡터 데이터의 시작점과 끝점을 검출하는 것으로 예를 들면 EPD(End-Point-Detection)모듈이 해당될 수 있다. 이러한 끝점 검출부(122)는 검출된 시작점과 끝점 사이의 유효한 부분의 음성특징벡터 데이터를 상기 음소 분리부(123)로 전송하게 되는 것이다.That is, the
또한, 상기 끝점 검출부(122)는 이하에서 설명하는 끝점 재검출부(125a)로부터 시작점과 끝점을 재검출하기 위해 전송되는 음성특징벡터 데이터를 상기의 음성입력 처리부(121)에서 전송되는 음성특징벡터 데이터와 연결하여 시작점과 끝점을 재검출하는 기능을 수행한다.The
한편, 상기 음소 분리부(123)는 상기 끝점 검출부(122)에서 전송된 시작점과 끝점이 검출되어 시작점과 끝점 사이의 유효한 음성특징벡터 데이터들의 값들을 기준 음소모델과 비교하여 음소로 판별되는 구간 내 음성특징벡터 데이터의 시작주소, 끝주소를 기록하고 음소로 판별되는 구간의 개수를 기록하여 결과적으로 음성특징벡터 데이터들을 음소별(phonem ; 최소의 음성학적 단위) 단위로 분리하게 되는 것이다. 이렇게 음소별 단위로 분리된 음성특징텍터 데이터는 음소별 스코어링부(124)로 전송된다.Meanwhile, the
상기 음소별 스코어링부(124)는 상기 음소 분리부(123)에서 음소별 단위로 분리된 음성특징벡터 데이터를 스코어링 기준 음소모델과 비교하여 스코어를 산출하게 되며, 이후 음성특징벡터 데이터 및 이와 매칭되는 음소별 스코어 데이터를 신뢰스코어 판별부(125)로 전송한다.The phoneme-by-
상기 신뢰스코어 판별부(125)는 상기 음소별 스코어링부(124)에서 전송된 음성특징벡터 데이터 및 이와 매칭되는 음소별 스코어데이터 중 매칭되는 음소별 스코어데이터의 평균값이 기준 음소모델의 신뢰도 범위 내에 있다면 해당 음성특징벡터 데이터를 상기 정량적 평가부(125c)로 전송한다.If the average value of the voice feature vector data transmitted from the phoneme-by-
그리고, 상기 신뢰스코어 판별부(125)는 매칭되는 음소별 스코어 데이터의 평균값이 기준 음소모델의 신뢰도가 결여되면 앞서 설명한 상기 끝점 검출부(122)로 다시 전송한다.If the reliability of the reference phoneme model is lacking, the reliability score determiner 125 transmits the average value of the score data to the
그리고, 상기 신뢰스코어 판별부(125)는 매칭되는 음소별 스코어 데이터의 평균값이 기준 음소모델의 신뢰도가 현저히 결여되면 거절처리부(125b)로 전송한다.If the average value of the score data for each phoneme to be matched is significantly lacking in the reliability of the reference phoneme model, the trust
즉, 상기 신뢰도의 범위 내에 해당되면 적정하게 분리된 음소로 판별하게 되는 것이며, 신뢰도의 결여에 해당되면 비적정하게 분리된 음소로 판별되는 것이며, 현저한 결여에 해당되면 음소가 아닌 것으로 판별되는 것이다.That is, if it falls within the range of the reliability, it is discriminated as a properly separated phoneme. If it is a lack of reliability, it is discriminated as a non-properly separated phoneme.
이와 같은 신뢰스코어 판별부(125)의 신뢰도 범위는 음소별 스코어의 평균값 등으로 통계치를 추출하여 사용될 수 있다.The reliability range of the trust
상기 끝점 재검출부(125a)는 상기 신뢰스코어 판별부(125)로부터 전송된 신뢰도 결여에 해당되는(비적정하게 분리된 음소로 판별되는) 음성특징벡터 데이터의 시작점과 끝점의 재검출을 위해 음소 분리부(123), 음소별 스코어링부(124)에서 기록된 데이터를 제거하고 상기 끝점 검출부(122)로 전송한다.The
그리고, 거절처리부(125b)에서는 상기 신뢰스코어 판별부(125)로부터 전송된 신뢰도 현저한 결여에 해당되는(음소가 아닌 것으로 판별되는) 음성특징벡터 데이터의 처리를 종료한다.Then, the
상기 정량적 평가부(125c)는 상기 신뢰스코어 판별부(125)에서 전송된 신뢰도 범위 내의 음성특징벡터 데이터와 전문가들에 의해 발화평가 및 산출된 통계 데이터를 기준으로 만들어진 발화평가모델과의 비교를 통해 해당 발화한 텍스트의 정량적 발화정확도 수치를 산출하게 된다.The
마지막으로 상기 발화스코어 판별부(126)는 상기 정량적 평가부(125c)에서 전송된 음성특징벡터 데이터와 정량적 발화정확도 수치를 사용 어플리케이션의 기준에 맞게 설정한 발화스코어로 치환하게 된다.Finally, the utterance score determiner 126 replaces the voice feature vector data and the quantitative utterance accuracy value transmitted from the
이렇게 산출되는 발화정확도 수치 및 발화스코어 등은 상기 낭독체 음성인식 모듈(120)의 처리 과정에 의해 상기 통계 데이터베이스(150)로 저장됨에 더불어 제어부(130)의 제어에 의해 상기 전자책 구현 모듈(140)과 연동되어 전자책을 통해 표출됨으로써 사용자의 발화에 대한 발화정확도를 확인할 수 있게 되는 것이다.The ignition accuracy value and the utterance score thus calculated are stored in the
한편, 상기 전자책 구현 모듈(140)은 디지털기기 상에서 전자책을 구현하도록 하는 일종의 응용 소프트웨어(App ; application software)에 해당하는 구성으로, 상기 콘텐츠 데이터베이스(160)에 저장된 전자책에 대한 텍스트와 전자책 구성을 위한 기본 이미지들을 상기 디지털기기에서 표현되도록 한다.The
그리고, 상기 전자책 구현 모듈(140)은 상기 제어부(130)에 의해 낭독체 음성인식 모듈(120)과 연동되어 사용자가 전자책을 낭독함에 따라 그에 대응하여 상기 디지털기기 상에서 다양하게 반응하도록 구현된다.In addition, the electronic
즉, 상기 전자책 구현 모듈(140)은 사용자가 텍스트를 발화할 때 발화중임을 인지시켜 줄 수 있는 요소들, 발화인식완료를 인지시켜 주는 요소들, 발화 정확도가 일정수준 이상 또는 미만임을 인지시켜주는 요소들로 구성된 다양한 콘텐츠 등을 저장하고 있는 콘텐츠 데이터베이스(160)로부터 음성인식에 대응하는 콘텐츠를 호출하여 발화에 대응하는 요소들이 반영되도록 전자책을 구현하여 나타내어주는 기능을 수행한다.That is, the electronic
이러한 전자책 구현 모듈(140)의 호출 기능은 실질적으로 각 구성 간을 연동시키는 제어부(130)로부터 수행된다.The calling function of the electronic
상기 통계 데이터베이스(150)는 상기 전자책 구현 모듈(140)로 구현되는 전자책의 텍스트 발화인식완료된 문장 및 문장수와 상기 낭독체 음성인식 모듈(120)에 의한 발화인식완료된 문장의 발화정확도, 상기 발화인식완료된 문장의 발화인식완료 날짜 및 시간 등의 통계 데이터를 저장하며, 상기 제어부(130)의 요청에 따라 그에 대응하는 데이터를 호출하여 출력한다.The
또한 상기 통계 데이터베이스(150)는 사용자의 발음 이력에 대한 축적 데이터도 포함될 수 있다. 여기서 상기 축적 데이터라 함은 사용자의 발화에 대한 상기 낭독체 음성인식 모듈(120)의 분석결과에 대한 누적데이터를 칭하는 것으로, 상술한 전자책 구현 모듈(140)을 통해 디지털기기로 표출될 수 있으며, 이러한 축적 데이터를 통해 사용자의 발화정확도를 포함한 학습능력의 향상도를 유추할 수 있게 되는 것이다.Also, the
특히 상기 통계 데이터베이스(150)는 사용자뿐만 아니라 해당 전자책을 낭독하는 모든 기사용자의 통계 데이터를 저장함으로써 해당 전자책을 낭독하는 모든 사용자의 발화인식 완료 문장수에 따른 발화정확도 평균 통계는 물론 발화인식 완료 문장수에 따르는 발화정확도의 특정범위 상위그룹의 통계를 제공할 수 있게 되며, 사용자의 발화인식 완료 문장수에 따르는 발화정확도 통계를 표시할 수 있게 된다.In particular, the
또한, 이러한 모든 사용자의 통계 데이터를 기초로 하여 상기 제어부(130)에서는 각 통계를 일간, 주간, 월간을 포함한 시간 주기로 산출하여 이러한 시간 주기의 통계를 상기 통계 데이터베이스(150)에 다시 저장함과 더불어 이를 전자책 상에서 사용자에게 표시하도록 한다.The
이에 따라 사용자는 본인의 발음정확도에 대한 통계 데이터뿐만 아니라 타 사용자의 통계 데이터를 용이하게 확인하도록 하여 본인의 발음정확도의 수준을 비교할 수 있게 되는 것이다. Accordingly, the user can easily check the statistical data of the user's pronunciation accuracy as well as the statistical data of the user's own pronunciation, thereby comparing the level of the pronunciation accuracy of the user.
상기 콘텐츠 데이터베이스(160)는 전자책을 구성하는 텍스트와 기본 이미지들, 디지털기기 상에서 표출되는 인자들 예를 들면, 사용자가 텍스트를 발화할 때 발화중임을 인지시켜 줄 수 있는 요소들, 발화인식완료를 인지시켜 주는 요소들, 발화 정확도가 일정수준 이상 또는 미만임을 인지시켜주는 요소들을 포함한 콘텐츠들을 저장한다. 또한, 상기 콘텐츠 데이터베이스(160)는 사용자가 전자책을 낭독함에 있어 시각과 청각적인 효과를 제공하기 위한 영상 및 효과음 등을 포함한 콘텐츠들을 저장한다.The
이러한 콘텐츠 데이터베이스(160) 역시 상기 전자책 구현 모듈(140)과 연동되며, 상기 제어부(130)의 요청에 따라 그에 대응하는 콘텐츠들을 호출하여 출력함으로써 상기 전자책의 구현과 함께 표출될 수 있다.The
상기 출력부(170)는 디지털 기기의 효과음, 이미지 및 영상 등을 출력하도록 하는 구성으로 예를 들면, 디지털 기기의 스피커와 디스플레이 등의 출력모듈을 지칭한다. 이러한 출력부(170)는 상기 음성 입력부(110)의 마이크로부터 입력되는 음성신호에 대응하는 효과음, 이미지 및 영상 중 어느 하나 또는 복합적인 출력을 제공하는 것으로 이러한 출력 데이터는 상기 콘텐츠 데이터베이스(160)로부터 추출된 데이터를 출력하게 된다. The
한편, 상기 제어부(130)는 본 발명의 구현을 위한 요소인 상기 낭독체 음성인식 모듈(120)과 전자책 구현 모듈(140) 간의 연동을 제어한다. 또한, 상기 전자책 구현 모듈(140)과 통계 데이터베이스(150) 간의 연동 제어와 전자책 구현 모듈(140)과 콘텐츠 데이터베이스(160) 간의 연동을 제어하는 기능을 수행한다.Meanwhile, the
또한, 상기 제어부(130)는 각 구성 간을 연동하는 기능을 수행함과 더불어 발화정확도에 대응되는 콘텐츠를 콘텐츠 데이터베이스(160)에서 호출 및 출력하여 발화 완료문장 표시, 발화 정확도 표시는 물론 발화 관련 통계 표시 등 출력하도록 명령함으로써 상기 전자책 구현 모듈(140)을 통해 전자책에 기타 콘텐츠와 함께 구현되도록 수행한다.In addition, the
상기 제어부(130)의 연동 기능은 사용자의 조작에 따른 요청에 의한 것이거나, 기설정된 것으로 상호 구성 간 데이터 처리에 의해 발생되는 자동적인 신호에 의한 것일 수 있다.The interlocking function of the
도 3은 본 발명을 통해 디지털 기기에서 구현되는 전자책의 실시 예를 나타내는 도면이다.3 is a diagram showing an embodiment of an electronic book implemented in a digital device through the present invention.
도 3에 도시된 바와 같이 본 발명의 전자책 구현 모듈(140)을 통해 구현되는 전자책은 사용자의 전자책 문장의 발화가 시작되어 진행되면, 발화인식 전 텍스트(311)는 발화인식된 부분까지 발화인식 완료 텍스트(322)로 텍스트의 형태가 변화된다.As shown in FIG. 3, when an electronic book implemented by the electronic
그리고 발화인식 완료 텍스트 위치는 사용자가 확인 가능하도록 인디케이터(323)로 발화인식 완료된 부분의 끝점을 지시하고 있어 언어입문자가 이미 발화 완료한 부분을 인지시키도록 한다.In addition, the position of the ignition recognition completion text indicates the end point of the part where the speech recognition is completed by the
특히, 앞서 설명한 출력부(170)는 스피커 내지 이미지 등으로 출력되는 바, 예를 들면 도 3에 도시된 바와 같이 진행중인 텍스트와 관련하여 발화인식 스코어 연동 반응 이미지(324)와 발화인식 스코어 연동 반응 사운드(325) 등의 반응 출력물들을 이용하여 보다 용이하고 흥미를 갖도록 언어입문자의 발화정확도에 대한 일정스코어 이상의 형태를 인지시킬 수 있게 한다. 여기서 설명되지 않은 도 3의 도면부도 321은 발화입력 볼륨 인디케이터이다.In particular, the
또한 전자책 하단에는 발화인식 상태를 인지할 수 있는 히스토리바(326)를 구현하여 언어입문자의 현재 발화중인 전자책의 전체 또는 일부의 발화정확도 흐름을 인지시킬 수도 있게 된다.In addition, a
이와 같이 본 발명에 의하면 사용자가 상기 전자책 구현 모듈(140)에서 구현된 전자책 텍스트를 발화하는 과정에서 본 발명에 따른 시스템 및 방법적인 흐름에 의해 본인의 텍스트 발화 정확도를 실시간으로 인지할 수 있고, 도면에 도시된 바 없으나 사용자의 요청에 따라 상기 전자책 구현 모듈(140)에서는 상기 통계 데이터베이스(150)와 연동하여 구현되는 전자책 발화통계페이지를 통해 본인의 발화정확도의 상대적 위치(전체 기사용자들의 누적 데이터와 비교)와 절대적 위치(사용자 본인의 누적 발화인식 완료 문장수 및 발화정확도 평균)을 인지할 수 있게 되는 것이다.As described above, according to the present invention, the user can perceive the accuracy of the text utterance of the user in real time by the system and method flow according to the present invention in the process of uttering the electronic book text implemented in the electronic
도 4는 본 발명에 따른 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법을 설명하는 개략 흐름도이다. 도 4를 참고하여 본 발명에 따른 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법을 설명한다.4 is a schematic flow chart illustrating a method for providing speech accuracy and expressive power enhancement through e-book reading according to the present invention. Referring to FIG. 4, a description will be given of a method for providing improved speaking accuracy and expressive power by reading an electronic book according to the present invention.
먼저, 사용자가 발화한 전자책의 문장 또는 단어의 발화음성신호를 입력받는다. 상기 사용자는 디지털 기기를 통해 전자책의 문장을 낭독하면 음성 입력부(110)는 사용자의 발화음성신호를 입력하게 되고, 이를 낭독체 음성인식 모듈(120)로 전송하게 된다.(S100)First, a speech voice signal of a sentence or a word of an electronic book uttered by the user is input. When the user reads the sentence of the electronic book through the digital device, the
이후 상기 발화음성신호를 전송받은 상기 낭독체 음성인식 모듈(120)에서는 상기 발화음성신호를 처리하여 발화정확도를 분석 및 판별하게 된다. 이러한 발화정확도의 분석 및 판별은 앞서 설명한 낭독체 음성인식 모듈(120)의 구성에 의해 구현되는 것으로 본 방법에는 이에 대한 구체적인 설명은 생략하기로 한다.(S200)The portable
이렇게 사용자의 전자책 발화에 따른 발화정확도 데이터는 통계 데이터베이스(150)에 저장되어 추후 누적되어 사용자의 발화 통계데이터를 제공함으로써 문장 발화정확도의 개선 상태를 인지하도록 하는 기본 정보로 활용될 수 있다.(S300)In this way, the speech accuracy data according to the user's electronic book utterance is stored in the
또한, 상기 제어부(130)에서는 발화정확도에 대응되는 콘텐츠를 콘텐츠 데이터베이스(160)에서 호출 및 출력하여 발화 완료문장 표시, 발화 정확도 표시는 물론 발화 관련 통계 표시 등 출력하도록 명령함으로써 상기 전자책 구현 모듈(140)을 통해 전자책에 기타 콘텐츠와 함께 구현되도록 수행한다.(S400)In addition, the
이후, 상기 제어부(130)의 명령에 의해 상기 전자책 구현 모듈(140)에서는 전자책을 구현함에 있어 발화 문장표시, 발화 정확도 표시는 물론 발화 관련 통계 표시 등을 함께 구현되도록 수행한다.(S500)The electronic
여기서, 상기 발화 문장표시, 발화 정확도 표시 및 발화 관련 통계 표시를 포함한 전자책 상에서의 표시 과정에서는 이미 발화인식한 문장 또는 단어를 표시하거나, 아직 발화인식 하지않은 문장 또는 단어를 표시하거나, 일정 발화정확도 이상 발화인식한 문장 또는 단어를 표시하거나, 일정 발화정확도 미만 발화인식한 문장 또는 단어를 표시할 수 있다.Here, in the display process on the electronic book including the above-mentioned spoken sentence display, spoken accuracy display, and statistical display related to the spoken word, it is possible to display a sentence or a word already recognized, display a sentence or word that has not yet been recognized as a spoken word, Abnormal Speech Recognition A sentence or word can be displayed, or a sentence or word recognized less than a certain utterance accuracy can be displayed.
이는 앞서 설명한 낭독체 음성인식 모듈(120)과 전자책 구현 모듈(140)의 연동에 의해 이루어지게 구현되는 것이며, 상기 콘텐츠 데이터베이스(160)에 기저장된 다양한 인자들을 호출 및 출력함으로써 전자책 상에서 표출되는 것이다. This is realized by interlocking the
특히, 이미 발화인식한 문장 또는 단어를 표시함에 있어서는, 상기 낭독체 음성인식 모듈(120)에서 인식되어 정량적 평가에 의해 스코어링된 음소단위의 발화문장과 콘텐츠 데이터베이스(160)의 문장을 비교하여 발화인식한 문장의 음소단위의 글자를 발화인식 전의 글자와는 다른 형태로 출력하도록 수행되고, 이러한 낭독체 음성인식 모듈(120)의 기능에 따라 사용자 본인이 발화한 문장 또는 단어의 발화위치를 인지하도록 한다.In particular, when a sentence or word already recognized as a speech is recognized, the sentence in the
또한, 본 발명의 일 실시예에 따르면, 상기 사용자가 전자책 줄거리에 포함된 문장 또는 단어를 발화할 때 사용자와 그 밖의 기사용자의 발화통계를 함께 표시해주는 단계를 더 포함할 수 있다.In addition, according to an embodiment of the present invention, when the user utters a sentence or a word included in the e-book plot, the user may further display the utterance statistics of the user and other users.
이러한 통계 표시 단계에서는 앞서 설명한 통계 데이터베이스(150)에 기저장된 사용자의 통계 데이터와 기사용자의 통계 데이터를 기초로 산출되는 것으로, 해당 전자책 모든 기사용자의 발화인식 완료 문장수에 따른 발화정확도 평균 통계는 물론 해당 전자책 모든 기사용자의 발화인식 완료 문장수에 따르는 발화정확도 특정범위 상위그룹의 통계를 표시할 수 있다.In the statistical display step, it is calculated based on the statistical data of the user previously stored in the
이 밖에도 사용자의 발화인식 완료 문장수에 따르는 발화정확도 통계를 표시하며, 특히 이러한 각종 통계자료는 사용자의 요청에 의해 일간, 주간, 월간을 포함한 시간 주기로 표시되어 다양한 통계자료를 제공하도록 한다.In addition, the statistics of the utterance accuracy according to the number of utterance completion sentences of the user are displayed. In particular, such various statistical data are displayed in a time period including day, week, and month according to the user's request.
여기서, 상기 사용자의 발화인식 완료 문장수에 따르는 발화정확도 통계를 표시함에 있어서, 상기 낭독체 음성인식 모듈(120)에서 인식되어 정량적 평가에 의해 스코어링된 발화문장의 발화정확도에 관한 데이터와 발화인식 완료 문장수에 관한 데이터에서 사용자 본인의 누적된 일정수치 이상의 발화정확도, 평균발화정확도, 누적된 발화인식 완료 문장수를 표시하게 된다.Here, in displaying the speech accuracy statistics according to the number of utterance recognition completed sentences of the user, data on the utterance accuracy of the utterance sentence recognized by the read-aloud
이에 따라 사용자는 전자책 낭독을 통한 발화연습에 사용자 본인의 현재 발화실력을 용이하게 인지할 수 있데 되는 것이다.
Accordingly, the user can easily recognize the current speaking ability of the user in the speaking practice through the reading of the electronic book.
이상 설명한 내용을 통해 당업자라면 본 발명의 기술사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정 가능함을 알 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의해 정하여 져야만 할 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be defined by the claims.
110 : 음성입력부 120 : 낭독체 음성인식 모듈
130 : 제어부 140 : 전자책 구현 모듈
150 : 통계 데이터베이스 160 : 콘텐츠 데이터베이스
170 : 출력부 121 : 음성입력 처리부
122 : 끝점 검출부 123 : 음소 분리부
124 : 음소별 스코어링부 125 : 신뢰 스코어 판별부
125a : 끝점 재검출부 125b : 거절처리부
125c : 정략적 평가부 126 : 발화 스코어 판별부110: voice input unit 120: voice recognition module
130: controller 140: electronic book implementation module
150: statistics database 160: content database
170: output unit 121: audio input processing unit
122: end point detection unit 123: phoneme separation unit
124: Phoneme scoring unit 125: Trust score determining unit
125a: End
125c: Scalability evaluation unit 126: Speech score determination unit
Claims (10)
음성신호와 영상신호의 입출력이 가능하고 데이터의 저장과 연산처리 기능이 탑재된 디지털기기에 설치되며 상기 전자책 콘텐츠를 상기 디지털기기 상에서 구현되도록 하는 전자책 구현 모듈; 및
상기 디지털기기에 설치되며 상기 전자책 구현 모듈과 연동하여 상기 사용자가 텍스트를 발화할 때의 음성신호를 입력받고 이를 통해 사용자의 발화정확도를 분석 및 평가하는 낭독체 음성인식 모듈;을 포함하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템.
An electronic book text including an electronic book text implemented on an electronic book, an element recognizing that the user is speaking when the text is uttered, an element recognizing completion of speech recognition and an element recognizing a level of the speech recognition accuracy, ;
An electronic book implementing module installed in a digital device capable of inputting and outputting a voice signal and a video signal and having a function of storing and processing data and implementing the electronic book contents on the digital device; And
And a reading voice sound recognition module installed in the digital device and interfacing with the electronic book implementation module to receive a voice signal when the user utters the text and to analyze and evaluate the user's speaking accuracy through the voice recognition module To improve the accuracy of speaking and expressive power by reading e-books.
상기 낭독체 음성인식 모듈에 의한 발화인식완료된 문장의 발화정확도와 발화인식완료된 문장의 발화인식완료 날짜 및 시간 등의 통계 데이터 및 사용자의 발음 이력에 대한 축적 데이터가 저장되며 상기 전자책 구현 모듈의 요청에 의해 출력되는 통계 데이터베이스; 및
상기 전자책을 구성하는 텍스트와 이미지 및 상기 디지털기기 상에서 표출되는 것으로 사용자가 텍스트를 발화할 때 발화중임을 인지시켜 줄 수 있는 요소들, 발화인식완료를 인지시켜 주는 요소들, 발화 정확도가 일정수준 이상 또는 미만임을 인지시켜주는 요소들을 포함한 콘텐츠들을 저장되며 상기 전자책 구현 모듈의 요청에 의해 출력되는 콘텐츠 데이터베이스를 더 포함하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템.
The method according to claim 1,
Statistical data such as the utterance accuracy of the uttered utterance recognition sentence by the voice recognition module, the date and time of completion of utterance recognition completion of the utterance recognition sentence, and accumulation data on the pronunciation history of the user are stored, A statistical database output by the statistical database; And
A text and an image constituting the electronic book, and elements capable of recognizing that the user is speaking when the user utters the text as expressed on the digital device, elements recognizing the completion of the speech recognition, A content database storing contents including elements for recognizing that the electronic book is a character string, a character string, a character string, a character string, a character string, a character string, and a character string.
상기 낭독체 음성인식 모듈은,
상기 음성 입력부로부터 전달되는 발화음성신호를 일정 간격으로 입력하고, 이를 음성특징벡터 형태의 데이터로 추출 및 컨버젼하는 음성입력 처리부와
상기 음성입력 처리부에서 전송되는 음성특징벡터의 시작점과 끝점을 검출하는 끝점 검출부와
상기 끝점 검출부에서 전송된 시작점과 끝점이 검출되어 시작점과 끝점 사이의 유효한 음성특징벡터 데이터들 중 음소로 판별되는 음성특징벡터 데이터들을 음소별 단위로 분리하는 음소 분리부와
상기 음소 분리부에서 음소별 단위로 분리된 음성특징벡터 데이터를 스코어링 기준 음소모델과 비교하여 스코어를 산출하는 음소별 스코어링부와
상기 음소별 스코어링부에서 전송되는 음성특징벡터 데이터와 이와 매칭되는 음소별 스코어 데이터 중 매칭되는 음소별 스코어 데이터의 평균값이 기설정된 기준 음소모델의 신뢰도 범위 내에 포함되는 지를 판별하는 신뢰 스코어 판별부와
상기 신뢰 스코어 판별부에서 전송되는 신뢰도 범위 내의 음성특징벡터 데이터를 발화평가 전문가에 의해 산출되어진 통계수치를 적용한 발화평가 모델과 비교 분석하여 해당 발화한 텍스트의 정량적 발화정확도 수치를 산출하는 정량적 평가부 및
상기 정량적 평가부에서 전송되는 음성특징벡터 데이터와 정량적 발화정확도 수치를 사용 어플리케이션의 기준에 적합하도록 발화스코어로 치환하는 발화 스코어 판별부를 포함하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템.
The method according to claim 1,
The read voice recognition module includes:
A speech input processor for inputting speech speech signals transmitted from the speech input unit at predetermined intervals and extracting and converting the speech speech data into data of a speech feature vector type,
An endpoint detector for detecting a start point and an end point of a speech feature vector transmitted from the speech input processor,
A phoneme separator for separating phoneme feature vector data determined as a phoneme among valid phoneme feature vector data between a start point and an end point detected at the start point and end point transmitted from the end point detector,
A phoneme-by-phoneme scoring unit for calculating a score by comparing voice feature vector data separated by phonemic units in the phoneme separator to a scoring-based phoneme model;
A reliability score discrimination unit for discriminating whether the average value of the voice feature vector data transmitted by the phoneme scoring unit and the score data of each phoneme matching among the phoneme score data matched therewith is included in the reliability range of the predetermined reference phoneme model
A quantitative evaluation unit for comparing the voice feature vector data within the reliability range transmitted from the reliability score discrimination unit with a speech evaluation model using statistical values calculated by an utterance evaluation expert to calculate a quantitative speaking accuracy value of the uttered text;
And an utterance score discriminator for replacing the voice feature vector data and the quantitative utterance accuracy value transmitted from the quantitative evaluator with an utterance score so as to comply with a criterion of a using application. Providing system.
상기 음성입력 처리부는,
발화 시간에 따라 구분되는 것으로 10msec 내지 20msec 씩 상기 발화음성신호 데이터를 나누고 이 간격 안에 포함되는 특징벡터값들을 추출하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템.
The method of claim 3,
Wherein the voice input processing unit comprises:
Wherein the utterance voice signal data is divided by 10 msec to 20 msec, and the feature vector values included in the interval are divided by the utterance time.
상기 낭독체 음성인식 모듈은,
상기 신뢰스코어 판별부로부터 신뢰도 결여에 해당되는 음성특징벡터 데이터를 전송받고 해당 음성특징벡터 데이터에서 상기 음소 분리부 및 음소별 스코어링부에서 기록된 데이터를 제거하고 상기 끝점 검출부로 전송하는 끝점 재검출부 및
상기 신뢰스코어 판별부로부터 음소가 아닌 것으로 판별되는 음성특징벡터 데이터를 전송받고 해당 음성특징벡터 데이터의 처리를 종료하는 거절처리부를 더 포함하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 시스템.
The method of claim 3,
The read voice recognition module includes:
An endpoint re-detection unit which receives the voice feature vector data corresponding to the lack of reliability from the reliability score discrimination unit and removes data recorded in the phoneme separator and phoneme scoring unit from the voice feature vector data and transmits the removed voice feature vector data to the end point detector;
Further comprising a reject processing unit for receiving the voice feature vector data that is determined not to be a phoneme by the reliability score determination unit and terminating the processing of the voice feature vector data. Providing system.
상기 발화음성신호를 낭독체 음성인식 모듈에서 발화정확도를 분석 및 판별하는 분석 및 판별 단계;
발화정확도에 따른 반응 유무를 제어부로 전달하고, 발화정확도 데이터를 통계 데이터베이스에 저장하는 저장 단계;
상기 제어부에서 발화정확도에 대응하는 콘텐츠를 콘텐츠 데이터베이스로부터 호출 및 출력하고 발화 완료 문장 표시를 출력하도록 명령하는 명령 단계; 및
전자책 구현 모듈에서 발화문장 표시, 발화정확도 표시 및 발화관련 통계표시를 디지털기기 상에서 구현되도록 표시하는 표시 단계;를 포함하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법.
An input step of inputting a speech voice signal of a sentence or word of an electronic book uttered by the user;
An analysis and discrimination step of analyzing and discriminating the speaking accuracy in the speech recognition module of the speech voice signal;
A storing step of transmitting the presence or absence of a reaction according to the firing accuracy to the control unit and storing the firing accuracy data in the statistical database;
An instruction step of causing the control unit to call and output a content corresponding to the speaking accuracy from a content database and output a display of a speech completion sentence; And
And displaying the statistical display related to the utterance sentence, the utterance accuracy, and the utterance in the electronic book implementation module so as to be realized on the digital device.
상기 표시 단계에서는
이미 발화인식한 문장 또는 단어를 표시하는 단계
아직 발화인식 하지않은 문장 또는 단어를 표시하는 단계
일정 발화정확도 이상 발화인식한 문장 또는 단어를 표시하는 단계 및
일정 발화정확도 미만 발화인식한 문장 또는 단어를 표시하는 단계를 포함하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법.
The method according to claim 6,
In the display step
Steps to display sentences or words that have already been ignited
Steps to display sentences or words that have not yet been ignited
Displaying a sentence or word recognized as a speech recognition error over a constant speaking accuracy; and
The method comprising the steps of: displaying a sentence or a word recognized as a speech less than a predetermined utterance accuracy; and providing a speech accuracy and an expressive power improvement through an e-book read aloud.
상기 이미 발화인식한 문장 또는 단어를 표시하는 단계는
낭독체 음성인식 모듈에서 인식되어 정량적 평가에 의해 스코어링된 음소단위의 발화문장과 콘텐츠 데이터베이스의 문장을 비교하여 발화인식한 문장의 음소단위의 글자를 발화인식 전의 글자와는 다른 형태로 출력하여, 사용자 본인이 발화한 문장 또는 단어의 발화위치를 인지하도록 하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법.
8. The method of claim 7,
The step of displaying a sentence or a word already recognized as a speech is
The phoneme-unit sentence recognized by the read-aloud speech recognition module and scored by the quantitative evaluation is compared with the sentence of the content database to output the phoneme-unit letter of the sentence, And recognizes the utterance position of a sentence or a word of the person himself / herself.
사용자가 전자책 줄거리에 포함된 문장 또는 단어를 발화할 때 사용자와 그 밖의 기사용자의 발화통계를 표시해주는 통계 표시 단계를 더 포함하며,
상기 통계 표시 단계는
해당 전자책을 낭독하는 모든 기사용자의 발화인식 완료 문장수에 따른 발화정확도 평균 통계를 표시해주는 단계
해당 전자책을 낭독하는 모든 기사용자의 발화인식 완료 문장수에 따르는 발화정확도의 특정범위 상위그룹의 통계를 표시해주는 단계
사용자의 발화인식 완료 문장수에 따르는 발화정확도 통계를 표시해주는 단계 및
각 통계를 일간, 주간, 월간을 포함한 시간 주기로 표시해주는 단계를 포함하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법.
The method according to claim 6,
Further comprising a statistical display step of displaying the utterance statistics of the user and other users when the user utters a sentence or a word contained in the e-book plot,
The statistical display step
A step of displaying the average statistic of speaking accuracy according to the number of utterance recognition sentences of all users who read the e-book
A certain range of utterance accuracy according to the number of utterance recognition sentences of all users who read the e-book, a step of displaying statistics of the upper group
Displaying the speech accuracy statistics according to the number of utterance recognition completion sentences of the user, and
And displaying each statistic in a time period including a day, a week, and a month. The method as claimed in claim 1, further comprising:
상기 사용자의 발화인식 완료 문장수에 따르는 발화정확도 통계를 표시해주는 단계는
낭독체 음성인식 모듈에서 인식되어 정량적평가에 의해 스코어링된 발화문장의 발화정확도에 관한 데이터와 발화인식 완료 문장수에 관한 데이터에서 사용자 본인의 누적된 일정수치 이상의 발화정확도, 평균발화정확도, 누적된 발화인식 완료 문장수를 표시해주어 사용자의 전자책 낭독을 통한 발화연습에 현재 사용자 본인의 발화실력을 인지할 수 있도록 하는 것을 특징으로 하는 전자책 낭독을 통한 발화 정확도 및 표현력 향상을 제공하는 방법.10. The method of claim 9,
Wherein the step of displaying the utterance accuracy statistics according to the number of utterance recognition completion sentences of the user
In the data on the utterance accuracy of the utterance sentence recognized by the voice recognition module and scored by the quantitative evaluation, and the data on the number of uttered utterance completion sentences, the utterance accuracy, average utterance accuracy, cumulative utterance And the number of completed sentences is displayed so that the speaking ability of the user himself / herself can be recognized in the speaking practice through reading the electronic book of the user.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020130070493A KR101566013B1 (en) | 2013-06-19 | 2013-06-19 | Method and system for improvement of the pronunciation accuracy and expressiveness during language beginners reading an e-book aloud |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020130070493A KR101566013B1 (en) | 2013-06-19 | 2013-06-19 | Method and system for improvement of the pronunciation accuracy and expressiveness during language beginners reading an e-book aloud |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20140147378A KR20140147378A (en) | 2014-12-30 |
| KR101566013B1 true KR101566013B1 (en) | 2015-11-05 |
Family
ID=52676184
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020130070493A Expired - Fee Related KR101566013B1 (en) | 2013-06-19 | 2013-06-19 | Method and system for improvement of the pronunciation accuracy and expressiveness during language beginners reading an e-book aloud |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101566013B1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102077193B1 (en) * | 2019-06-07 | 2020-02-13 | 주식회사 유니크굿컴퍼니 | Apparatus for recording voice and method thereof |
| KR20200105264A (en) | 2019-02-28 | 2020-09-07 | 춘해보건대학교 산학협력단 | Apparatus and method for measuring vocalization pressure |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| AU2016341196B2 (en) | 2015-10-20 | 2021-09-16 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
| KR102551198B1 (en) | 2016-03-31 | 2023-07-03 | 매직 립, 인코포레이티드 | Interactions with 3d virtual objects using poses and multiple-dof controllers |
| IL270002B2 (en) * | 2017-04-19 | 2023-11-01 | Magic Leap Inc | Multimodal task execution and text editing for a wearable system |
| KR101868795B1 (en) * | 2017-11-17 | 2018-07-19 | 곽진 | System for providing sound effect |
| KR200486582Y1 (en) * | 2018-01-16 | 2018-07-04 | 곽진 | System for providing dynamic reading of publication using mobile device |
| KR101987644B1 (en) * | 2018-09-21 | 2019-06-12 | 곽진 | System for providing effect based on a reading |
| KR102297265B1 (en) * | 2019-09-27 | 2021-09-03 | 주식회사 에이치투케이 | Apparatus and method for assessing language level using artificial intelligence |
| KR102893064B1 (en) * | 2022-10-18 | 2025-11-27 | 에스케이 주식회사 | Audiobook reading error automatic detection system and method using STT engine and NLP |
-
2013
- 2013-06-19 KR KR1020130070493A patent/KR101566013B1/en not_active Expired - Fee Related
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200105264A (en) | 2019-02-28 | 2020-09-07 | 춘해보건대학교 산학협력단 | Apparatus and method for measuring vocalization pressure |
| KR102077193B1 (en) * | 2019-06-07 | 2020-02-13 | 주식회사 유니크굿컴퍼니 | Apparatus for recording voice and method thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20140147378A (en) | 2014-12-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101566013B1 (en) | Method and system for improvement of the pronunciation accuracy and expressiveness during language beginners reading an e-book aloud | |
| US10777193B2 (en) | System and device for selecting speech recognition model | |
| US10319250B2 (en) | Pronunciation guided by automatic speech recognition | |
| JP6394709B2 (en) | SPEAKER IDENTIFYING DEVICE AND FEATURE REGISTRATION METHOD FOR REGISTERED SPEECH | |
| CN108431883B (en) | Language learning systems and language learning programs | |
| KR102410914B1 (en) | Modeling apparatus for voice recognition and method and apparatus for voice recognition | |
| EP3791388B1 (en) | Computer implemented method and apparatus for recognition of speech patterns and feedback | |
| US20110276329A1 (en) | Speech dialogue apparatus, dialogue control method, and dialogue control program | |
| JP6866715B2 (en) | Information processing device, emotion recognition method, and program | |
| CN103246643A (en) | Speech translation apparatus and speech translation method | |
| CN101346758A (en) | Emotion recognition device | |
| KR20160122542A (en) | Method and apparatus for measuring pronounciation similarity | |
| KR20200087623A (en) | Apparatus and method for evaluating pronunciation accuracy for foreign language education | |
| JP5105943B2 (en) | Utterance evaluation device and utterance evaluation program | |
| CN107886968A (en) | Speech evaluating method and system | |
| CN110853669A (en) | Audio identification method, device and equipment | |
| JPH06110494A (en) | Pronounciation learning device | |
| CN109697975B (en) | Voice evaluation method and device | |
| JP2013088552A (en) | Pronunciation training device | |
| KR101491919B1 (en) | System for assessing proficiency of foreign language and method thereof | |
| KR102392992B1 (en) | User interfacing device and method for setting wake-up word activating speech recognition | |
| JP2003295884A (en) | Voice input mode conversion system | |
| KR100677224B1 (en) | Speech Recognition Using Anti-Word Model | |
| Patil et al. | Automatic pronunciation assessment for language learners with acoustic-phonetic features | |
| JP2017015823A (en) | Speech training device, display control method and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20191030 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20191030 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R13-asn-PN2301 St.27 status event code: A-5-5-R10-R11-asn-PN2301 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |