KR102582291B1 - 감정 정보 기반의 음성 합성 방법 및 장치 - Google Patents
감정 정보 기반의 음성 합성 방법 및 장치 Download PDFInfo
- Publication number
- KR102582291B1 KR102582291B1 KR1020197020256A KR20197020256A KR102582291B1 KR 102582291 B1 KR102582291 B1 KR 102582291B1 KR 1020197020256 A KR1020197020256 A KR 1020197020256A KR 20197020256 A KR20197020256 A KR 20197020256A KR 102582291 B1 KR102582291 B1 KR 102582291B1
- Authority
- KR
- South Korea
- Prior art keywords
- emotion
- information
- message
- emotional
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 273
- 238000001308 synthesis method Methods 0.000 title claims abstract description 33
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 192
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 192
- 230000002996 emotional effect Effects 0.000 claims abstract description 139
- 238000004458 analytical method Methods 0.000 claims abstract description 63
- 239000013598 vector Substances 0.000 claims description 83
- 238000004891 communication Methods 0.000 claims description 24
- 230000014509 gene expression Effects 0.000 claims description 11
- 230000007935 neutral effect Effects 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 238000000034 method Methods 0.000 description 46
- 238000012545 processing Methods 0.000 description 38
- 239000000306 component Substances 0.000 description 35
- 230000008569 process Effects 0.000 description 34
- 239000003795 chemical substances by application Substances 0.000 description 29
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000007781 pre-processing Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 238000003058 natural language processing Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- MQJKPEGWNLWLTK-UHFFFAOYSA-N Dapsone Chemical compound C1=CC(N)=CC=C1S(=O)(=O)C1=CC=C(N)C=C1 MQJKPEGWNLWLTK-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 본 발명의 다른 실시예에 따른 통신 시스템의 블럭도이다.
도 3은 본 발명의 도 1의 통신 시스템의 일부를 통해 두 사용자 사이의 통신을 도시한다.
도 4는 본 발명의 일 실시예에 따른 음성 합성 시스템 환경에서 음성 합성 장치의 개략적인 블럭도를 도시한다.
도 5는 본 발명의 다른 실시예에 따른 음성 합성 시스템 환경에서 음성 합성 장치의 개략적인 블럭도를 도시한다.
도 6은 본 발명의 일 실시예에 따라 감정 정보 기반의 음성 합성을 구현할 수 있는 인공지능 에이전트의 개략적인 블럭도를 도시한다.
도 7은 본 발명의 일 실시예에 따라 감정 정보 기반의 음성 합성 장치의 다른 블럭도이다.
도 8은 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법의 흐름도이다.
도 9는 본 발명의 일 실시예에 따라 수신된 메시지에 감정 정보가 설정되지 않은 경우, 감정 정보를 새롭게 생성하는 감정 정보 기반의 음성 합성 방법의 흐름도이다.
도 10은 본 발명의 일 실시예에 따른 감정 벡터(Emotion Vector)를 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따라 수신된 메시지에 감정 정보가 설정되지 않은 경우, 메시지의 의미를 분석하여 제1 감정 벡터를 산출하는 예시를 도시한다.
도 12는 본 발명의 일 실시예에 따라 수신된 메시지에 감정 정보가 설정되지 않은 경우, 메시지의 문맥을 분석하여 제2 감정 벡터를 산출하는 예시를 도시한다.
도 13은 본 발명의 일 실시예에 따라 수신된 메시지에 감정 정보가 설정되지 않은 경우, 제1 감정 벡터와 제2 감정 벡터에 기초하여 최종 감정 정보를 판단하는 예를 도시한다.
도 14는 본 발명의 일 실시예에 따른 감정 정보 기반의 음성 합성 방법의 흐름도이다.
도 15는 본 발명의 일 실시예에 따라 감정 정보가 SSML 언어 형식으로 기술되는 예를 도시한다.
도 16은 본 발명의 일 실시예에 따른 음성 합성 시스템의 동작을 설명하기 위한 흐름도이다.
도 17a 내지 도 17b는 본 발명의 일 실시예에 따라 감정 정보를 설정하여 메시지를 전송하는 예를 도시한다.
Claims (15)
- 메시지를 수신하는 단계;
상기 수신된 메시지에 감정 정보가 설정되어 있는지 여부를 판단하는 단계;
상기 메시지에 제1 감정 정보가 설정된 경우, 상기 제1 감정 정보에 대응하는 제1 메타 데이터를 음성 합성 엔진으로 전달하는 단계;
상기 메시지에 감정 정보가 설정되지 않은 경우, 상기 메시지의 의미 분석 및 문맥 분석에 기초하여 제2 감정 정보를 생성하고, 상기 제2 감정 정보에 대응하는 제2 메타 데이터를 상기 음성 합성 엔진으로 전달하는 단계; 및
상기 음성 합성 엔진은, 상기 제1 메타 데이터 또는 제2 메타 데이터 중 어느 하나에 기초하여 결정되는 감정 정보를 부가하여 상기 메시지에 대응하는 음성을 합성하는 단계를 포함하고,
상기 제2 감정 정보를 생성하는 단계는,
상기 메시지를 의미 분석 모듈과 문맥 분석 모듈로 전달하는 단계;
상기 의미 분석 모듈은, 상기 메시지에 포함되어 감정을 유추할 수 있는 감정 요소에 기초하여 산출된 제1 감정 벡터를 감정 정보 판단 모듈로 전달하는 단계;
상기 문맥 분석 모듈은, 상기 메시지의 전체 맥락(context)에 기초하여 산출된 제2 감정 벡터를 상기 감정 정보 판단 모듈로 전달하는 단계;
제1 가중치가 부여된 제1 감정 벡터와 제2 가중치가 부여된 제2 감정 벡터를 합산하는 단계; 및
상기 합산 결과, 가장 큰 값을 갖는 감정 속성을 상기 제2 감정 정보로 선택하는 단계를 포함하고,
상기 제1 감정 벡터는, 가중치의 합이 정규화되어 복수의 감정 속성에 부여된 가중치로 정의되며,
상기 제2 감정 벡터는, 가중치의 합이 정규화되어 상기 복수의 감정 속성에 부여된 가중치로 정의되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 제 1 항에 있어서,
상기 제1 감정 정보는, 상기 메시지의 입력과 구별되어 설정되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 제 1 항에 있어서,
상기 제1 메타 데이터 및 제2 메타 데이터는, 마크업 언어(Markup Language) 형식으로 기술되고, 상기 마크업 언어는 SSML(Speech Synthesis Markup Language)를 포함하는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 제 3 항에 있어서,
상기 SSML은 감정 속성을 나타내는 엘리먼트를 포함하고,
상기 감정 속성은, 중립(neutral), 사랑(love), 행복(happy), 화남(anger), 슬픔(sad), 걱정(worry) 또는 미안(sorry) 중 적어도 하나를 포함하는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 삭제
- 제 1 항에 있어서,
상기 감정 정보 판단 모듈은, 상기 제1 감정 백터 및 제2 감정 벡터에 기초하여 음성 합성에 반영할 상기 제2 감정 정보를 판단하는 단계; 및
상기 제2 감정 정보에 대응하는 상기 제2 메타 데이터를 생성하여 상기 음성 합성 엔진으로 전달하는 단계;
를 더 포함하는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 삭제
- 삭제
- 제 1 항에 있어서,
상기 메시지에 감정 표현이 포함된 경우 상기 제1 가중치가 증가시키는 단계; 및
상기 메시지를 구성하는 복수의 문장 간 연속성을 가지는 것으로 판단한 경우 상기 제2 가중치를 증가시키는 단계;를 더 포함하되,
상기 제1 가중치와 제2 가중치는 정규화되어 정의되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 제 9 항에 있어서,
상기 제1 가중치 및 제2 가중치는, 상기 메시지를 발신한 발신자별로 이력화되어 저장되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 제 1 항에 있어서,
상기 제1 감정 벡터를 구성하는 상기 복수의 감정 속성에 부여된 가중치는,
상기 메시지에 포함된 의미적 내용(semantic contents)을 추론한 결과, 상기 메시지에 포함된 기호 또는 그래픽 객체를 고려하여 부여되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 제 1 항에 있어서,
상기 제2 감정 벡터를 구성하는 상기 복수의 감정 속성에 부여된 가중치는,
문맥의 흐름을 추론할 수 있는 문장 간의 문맥을 고려하여 부여되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 제 1 항에 있어서,
상기 감정을 유추할 수 있는 감정 요소는,
상기 수신된 메시지에 포함된 문자, 기호 또는 그래픽 객체 중 적어도 하나로 정의되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 방법. - 삭제
- 메시지를 수신하는 통신부;
상기 메시지에 대응하는 음성을 합성하는 음성 합성부; 및
상기 수신된 메시지에 감정 정보가 설정되어 있는지 여부에 기초하여 감정 정보 기반의 음성 합성 동작을 수행하도록 상기 음성 합성부를 제어하는 프로세서;를 포함하되,
상기 프로세서는,
상기 메시지에 제1 감정 정보가 설정된 경우, 상기 제1 감정 정보에 대응하는 제1 메타 데이터를 음성 합성부로 전달하고,
상기 메시지에 감정 정보가 설정되어 있지 않은 경우, 상기 메시지에 포함되어 있는 감정을 유추할 수 있는 감정 요소 또는 상기 메시지의 문맥 중 적어도 하나에 기초하여 제2 감정 정보를 생성하고, 상기 제2 감정 정보에 대응하는 제2 메타 데이터를 상기 음성 합성부로 전달하고,
상기 음성 합성부는,
상기 제1 메타 데이터 또는 제2 메타 데이터 중 어느 하나에 기초하여 결정되는 감정 정보를 부가하여 상기 메시지에 대응하는 음성을 합성하고,
상기 프로세서가 상기 제2 감정 정보를 생성하는 경우,
상기 메시지를 의미 분석 모듈과 문맥 분석 모듈로 전달하고,
상기 의미 분석 모듈은, 상기 메시지에 포함되어 감정을 유추할 수 있는 감정 요소에 기초하여 산출된 제1 감정 벡터를 감정 정보 판단 모듈로 전달하고,
상기 문맥 분석 모듈은, 상기 메시지의 전체 맥락(context)에 기초하여 산출된 제2 감정 벡터를 상기 감정 정보 판단 모듈로 전달하고,
제1 가중치가 부여된 제1 감정 벡터와 제2 가중치가 부여된 제2 감정 벡터를 합산하고, 및
상기 합산 결과, 가장 큰 값을 갖는 감정 속성을 상기 제2 감정 정보로 선택하고,
상기 제1 감정 벡터는, 가중치의 합이 정규화되어 복수의 감정 속성에 부여된 가중치로 정의되며,
상기 제2 감정 벡터는, 가중치의 합이 정규화되어 상기 복수의 감정 속성에 부여된 가중치로 정의되는 것을 특징으로 하는 감정 정보 기반의 음성 합성 장치.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2019/000453 WO2020145439A1 (ko) | 2019-01-11 | 2019-01-11 | 감정 정보 기반의 음성 합성 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210103002A KR20210103002A (ko) | 2021-08-23 |
KR102582291B1 true KR102582291B1 (ko) | 2023-09-25 |
Family
ID=71520279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197020256A Active KR102582291B1 (ko) | 2019-01-11 | 2019-01-11 | 감정 정보 기반의 음성 합성 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11514886B2 (ko) |
KR (1) | KR102582291B1 (ko) |
WO (1) | WO2020145439A1 (ko) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200119217A (ko) * | 2019-04-09 | 2020-10-19 | 네오사피엔스 주식회사 | 사용자 인터페이스를 통해 텍스트에 대한 합성 음성을 생성하는 방법 및 시스템 |
US11393471B1 (en) * | 2020-03-30 | 2022-07-19 | Amazon Technologies, Inc. | Multi-device output management based on speech characteristics |
US11636850B2 (en) * | 2020-05-12 | 2023-04-25 | Wipro Limited | Method, system, and device for performing real-time sentiment modulation in conversation systems |
JP2023525173A (ja) * | 2020-05-13 | 2023-06-15 | エヌビディア コーポレーション | レンダリングされたグラフィカル出力を利用する会話型aiプラットフォーム |
EP3961474A3 (en) * | 2020-08-31 | 2022-06-01 | Toonsquare CORP. | Device and method for automatically creating cartoon image based on input sentence |
KR20220130952A (ko) * | 2021-03-19 | 2022-09-27 | 현대자동차주식회사 | 이모지 생성 장치, 차량 및 이모지 생성 방법 |
US11580982B1 (en) | 2021-05-25 | 2023-02-14 | Amazon Technologies, Inc. | Receiving voice samples from listeners of media programs |
US11586344B1 (en) | 2021-06-07 | 2023-02-21 | Amazon Technologies, Inc. | Synchronizing media content streams for live broadcasts and listener interactivity |
US11792143B1 (en) | 2021-06-21 | 2023-10-17 | Amazon Technologies, Inc. | Presenting relevant chat messages to listeners of media programs |
US11792467B1 (en) | 2021-06-22 | 2023-10-17 | Amazon Technologies, Inc. | Selecting media to complement group communication experiences |
US11687576B1 (en) | 2021-09-03 | 2023-06-27 | Amazon Technologies, Inc. | Summarizing content of live media programs |
US11785299B1 (en) | 2021-09-30 | 2023-10-10 | Amazon Technologies, Inc. | Selecting advertisements for media programs and establishing favorable conditions for advertisements |
US12032807B1 (en) | 2021-11-08 | 2024-07-09 | Arrowhead Center, Inc. | Assistive communication method and apparatus |
US11785272B1 (en) | 2021-12-03 | 2023-10-10 | Amazon Technologies, Inc. | Selecting times or durations of advertisements during episodes of media programs |
US11916981B1 (en) * | 2021-12-08 | 2024-02-27 | Amazon Technologies, Inc. | Evaluating listeners who request to join a media program |
US11791920B1 (en) | 2021-12-10 | 2023-10-17 | Amazon Technologies, Inc. | Recommending media to listeners based on patterns of activity |
US12197499B1 (en) | 2022-05-23 | 2025-01-14 | Amazon Technologies, Inc. | Scoring media program participants for predicting policy compliance |
US12254239B1 (en) | 2022-09-22 | 2025-03-18 | Amazon Technologies, Inc. | Predicting amplification for broadcasts from personal devices |
CN116030788B (zh) * | 2023-02-23 | 2023-06-09 | 福建博士通信息股份有限公司 | 一种智能语音交互方法及装置 |
KR102738804B1 (ko) * | 2024-02-27 | 2024-12-06 | 셀렉트스타 주식회사 | 캐릭터 통화서비스 제공방법, 이를 수행하는 컴퓨팅시스템, 및 컴퓨터-판독가능 기록매체 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110184721A1 (en) * | 2006-03-03 | 2011-07-28 | International Business Machines Corporation | Communicating Across Voice and Text Channels with Emotion Preservation |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102385858B (zh) * | 2010-08-31 | 2013-06-05 | 国际商业机器公司 | 情感语音合成方法和系统 |
KR101160193B1 (ko) | 2010-10-28 | 2012-06-26 | (주)엠씨에스로직 | 감성적 음성합성 장치 및 그 방법 |
GB2516942B (en) * | 2013-08-07 | 2018-07-11 | Samsung Electronics Co Ltd | Text to Speech Conversion |
US20150046164A1 (en) * | 2013-08-07 | 2015-02-12 | Samsung Electronics Co., Ltd. | Method, apparatus, and recording medium for text-to-speech conversion |
KR102222122B1 (ko) * | 2014-01-21 | 2021-03-03 | 엘지전자 주식회사 | 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기 |
US10803850B2 (en) * | 2014-09-08 | 2020-10-13 | Microsoft Technology Licensing, Llc | Voice generation with predetermined emotion type |
EP3151239A1 (en) | 2015-09-29 | 2017-04-05 | Yandex Europe AG | Method and system for text-to-speech synthesis |
US10467792B1 (en) * | 2017-08-24 | 2019-11-05 | Amazon Technologies, Inc. | Simulating communication expressions using virtual objects |
-
2019
- 2019-01-11 WO PCT/KR2019/000453 patent/WO2020145439A1/ko active Application Filing
- 2019-01-11 KR KR1020197020256A patent/KR102582291B1/ko active Active
- 2019-01-11 US US16/485,421 patent/US11514886B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110184721A1 (en) * | 2006-03-03 | 2011-07-28 | International Business Machines Corporation | Communicating Across Voice and Text Channels with Emotion Preservation |
Also Published As
Publication number | Publication date |
---|---|
WO2020145439A1 (ko) | 2020-07-16 |
KR20210103002A (ko) | 2021-08-23 |
US11514886B2 (en) | 2022-11-29 |
US20210366462A1 (en) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102582291B1 (ko) | 감정 정보 기반의 음성 합성 방법 및 장치 | |
US11727914B2 (en) | Intent recognition and emotional text-to-speech learning | |
US9916825B2 (en) | Method and system for text-to-speech synthesis | |
JP6802005B2 (ja) | 音声認識装置、音声認識方法及び音声認識システム | |
EP3387646B1 (en) | Text-to-speech processing system and method | |
CN106575502B (zh) | 用于在合成语音中提供非词汇线索的系统和方法 | |
EP3151239A1 (en) | Method and system for text-to-speech synthesis | |
US11676572B2 (en) | Instantaneous learning in text-to-speech during dialog | |
US20220375469A1 (en) | Intelligent voice recognition method and apparatus | |
KR20190106890A (ko) | 감정 정보 기반의 음성 합성 방법 및 장치 | |
JP2024505076A (ja) | 多様で自然なテキスト読み上げサンプルを生成する | |
KR20220096129A (ko) | 감정톤을 자동조절하는 음성합성 시스템 | |
US12100383B1 (en) | Voice customization for synthetic speech generation | |
CN116917984A (zh) | 交互式内容输出 | |
US12243511B1 (en) | Emphasizing portions of synthesized speech | |
KR20220116660A (ko) | 인공지능 스피커 기능을 탑재한 텀블러 장치 | |
Woollacott et al. | Benchmarking speech technologies | |
US20190019497A1 (en) | Expressive control of text-to-speech content | |
CN110895938A (zh) | 语音校正系统及语音校正方法 | |
CN118525329A (zh) | 话音合成装置和话音合成方法 | |
Mishra et al. | Voice Based Email System for Visually Impaired |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20190711 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220104 Comment text: Request for Examination of Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230214 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230718 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230920 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230921 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |