[go: up one dir, main page]

KR101703214B1 - 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법 - Google Patents

문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법 Download PDF

Info

Publication number
KR101703214B1
KR101703214B1 KR1020150110072A KR20150110072A KR101703214B1 KR 101703214 B1 KR101703214 B1 KR 101703214B1 KR 1020150110072 A KR1020150110072 A KR 1020150110072A KR 20150110072 A KR20150110072 A KR 20150110072A KR 101703214 B1 KR101703214 B1 KR 101703214B1
Authority
KR
South Korea
Prior art keywords
voice
data
character data
database
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020150110072A
Other languages
English (en)
Other versions
KR20160017625A (ko
Inventor
김동명
권영수
Original Assignee
주식회사 엘지화학
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지화학 filed Critical 주식회사 엘지화학
Priority to US14/913,882 priority Critical patent/US9812121B2/en
Priority to JP2016562268A priority patent/JP6459080B2/ja
Priority to CN201580001904.9A priority patent/CN105556999A/zh
Priority to TW104125413A priority patent/TWI613641B/zh
Priority to EP15830674.6A priority patent/EP3035718B1/en
Priority to PCT/KR2015/008210 priority patent/WO2016021937A1/ko
Publication of KR20160017625A publication Critical patent/KR20160017625A/ko
Application granted granted Critical
Publication of KR101703214B1 publication Critical patent/KR101703214B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/04Protocols specially adapted for terminals or networks with limited capabilities; specially adapted for terminal portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • H04M1/72481User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for visually impaired users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • H04W4/14Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 문자 데이터의 문자 내용을 문자 데이터 송신자의 음성으로 출력하는 방법을 개시한다.

Description

문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법{Method for changing contents of character data into transmitter's voice and outputting the transmiter's voice}
본 발명은 문자 데이터를 출력하는 기술에 관한 것으로서, 보다 상세하게는, 단말기로 전송되는 문자 데이터의 문자 내용을 문자 데이터를 송신한 송신자의 음성으로 출력하는 방법에 관한 것이다.
본 출원은 2014년 08월 06일 자로 출원된 한국 특허출원 번호 제10-2014-0101232호에 대한 우선권주장출원으로서, 해당 출원의 명세서 및 도면에 개시된 모든 내용은 인용에 의해 본 출원에 원용된다.
최근 이동 통신 기술의 발달로 음성 통화 뿐만 아니라 문자 메시지가 널리 이용되고 있다. 이러한 음성 통화 및 문자 메시지 송수신은, 휴대폰 내지 스마트폰 등과 같은 이동 통신 단말기를 통해 이루어지고 있다.
그런데, 상기 문자 메시지는, 시각적으로 인식할 수 있는 문자로 출력되는 것이 일반적이다. 즉, 문자 메시지를 전송받은 단말은 문자 메시지를 단순히 문자 형식으로 출력하게 된다. 문자 메시지가 단순히 문자 형식으로 출력될 경우, 시각장애인은 문자 메시지의 내용을 파악할 수 없으며, 시각장애인이 아닌 비장애인도 업무, 운동, 운전 등과 같은 활동 중에는 문자 메시지의 내용을 파악하기 어려운 경우가 있다. 또한, 문자 형식의 메시지는 그 자체의 한계로 인해서 감정이나 친밀감을 전달하기 쉽지 않다. 최근, 이동통신 단말기가 널리 이용되고, 그 활용도가 높아짐에 따라 이동통신 단말기를 이용하여 단말기 사용자의 감성을 자극하는 기술이 요구되고 있다.
본 발명은 상기와 같은 종래기술을 인식하여 창안된 것으로서, 문자 데이터의 문자 내용을 문자 데이터 송신자의 음성으로 출력할 수 있도록 하는 것을 일 목적으로 한다.
또한, 본 발명의 다른 목적은, 문자 메시지 송신자와의 음성 통화 중 송수신된 음성 신호를 이용하여 문자 메시지 송신자에 대한 음성 정보를 꾸준히 업데이트 함으로써, 통화량이 증가할수록 실제 송신자의 목소리와 근접한 음성이 출력될 수 있도록 하는 것을 다른 목적으로 한다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 문자를 음성으로 출력하는 방법은, 통신 단말을 통해 음성을 출력하는 방법으로서, 송신 단말이, 문자 데이터를 수신 단말로 전송하는 단계; 및 상기 수신 단말이, 상기 송신 단말이 전송한 문자 데이터의 문자 내용을 상기 문자 데이터 송신자의 음성으로 출력하는 단계;를 포함한다.
상기 방법은, 상기 문자 데이터 수신 단계 이전에, 상기 문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축하는 단계;를 더 포함할 수 있다.
상기 음성 데이터베이스를 구축하는 단계는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 매칭시킨 상태로 저장하는 단계일 수 있다.
상기 음성 데이터베이스를 구축하는 단계는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 문장별, 어절별 및 음절별로 구분하여 저장하는 단계일 수 있다.
상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말을 이용한 음성 통화 중 송수신된 음성 데이터를 이용하여 상기 문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축하는 단계일 수 있다.
상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화가 반복됨에 따라 구축되는 단계일 수 있다.
상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하지 않는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 더 저장할 수 있다.
상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 갱신 저장할 수 있다.
상기 음성 데이터베이스를 구축하는 단계 이후에, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 통해 구축된 음성 데이터베이스의 구축 정도를 정량화하는 단계;를 더 포함할 수 있다.
상기 정량화하는 단계 이후에, 상기 정량화하는 단계에서 정량화된 값에 따라 음성 데이터베이스의 구축 정도를 소정 등급으로 그레이딩하는 단계;를 더 포함할 수 있다.
상기 그레이딩하는 단계 이후에, 상기 수신 단말이, 디스플레이부를 통해 상기 그레이딩하는 단계에서 그레이딩된 등급을 출력하는 단계;를 더 포함할 수 있다.
상기 그레이딩된 등급을 출력하는 단계는, 상기 소정 등급에 따라 서로 다른 시각 정보를 출력할 수 있다.
상기 정량화하는 단계는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수를 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화하는 단계일 수 있다.
상기 정량화하는 단계는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수에 각각 가중치를 부여하고, 문장별, 어절별 및 음절별 개수에 각각 가중치가 부여된 값을 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화하는 단계일 수 있다.
상기 문장별 개수에 부여되는 가중치는, 상기 어절별 개수에 부여되는 가중치 보다 크거나 같고, 상기 어절별 개수에 부여되는 가중치는, 상기 음절별 개수에 부여되는 가중치보다 크거나 같을 수 있다.
상기 방법은, 상기 음성으로 출력하는 단계 이전에, 상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지를 조회하는 단계; 상기 조회하는 단계의 조회 결과를 기초로 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하는 단계; 및 상기 추출하는 단계에서 추출한 음성 데이터를 수신 단말로 전송하는 단계;를 더 포함할 수 있다.
상기 조회하는 단계의 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는 경우, 상기 음성 데이터를 추출하는 단계는, 상기 음성 데이터베이스에 저장된 상기 문자 데이터 송신자의 음성 데이터를 추출하는 단계일 수 있다.
상기 조회하는 단계의 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하지 않는 경우, 상기 음성 데이터를 추출하는 단계는, 상기 음성 데이터베이스에 저장된 기계 음성을 추출하는 단계일 수 있다.
상기 방법은, 상기 음성으로 출력하는 단계 이전에, 상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지 조회하는 단계: 상기 조회하는 단계의 조회 결과를 기초로 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하는 단계; 및 상기 추출하는 단계에서 추출한 음성 데이터를 수신 단말로 전송하는 단계;를 더 포함하고, 상기 음성 데이터를 추출하는 단계는, 상기 송신 단말이 전송한 문자 데이터에 포함된 문장과 상응하는 문장에 매칭되는 음성 데이터를 음성 데이터베이스로부터 추출하는 문장 추출단계; 상기 송신 단말이 전송한 문자 데이터에 포함된 어절과 상응하는 어절에 매칭되는 음성 데이터를 음성 데이터베이스로부터 추출하는 어절 추출단계; 및 상기 송신 단말이 전송한 문자 데이터에 포함된 음절과 상응하는 음절에 매칭되는 음성 데이터를 음성 데이터베이스로부터 추출하는 음절 추출단계; 를 포함할 수 있다.
상기 어절 추출단계는, 상기 문장 추출단계 이후에 수행되되, 상기 문장 추출단계에서, 소정 문장에 대한 음성 데이터 추출이 성공적으로 수행되면, 상기 소정 문장에 대한 어절 추출단계는 수행되지 않고, 상기 음절 추출단계는, 상기 어절 추출단계 이후에 수행되되, 상기 어절 추출단계에서, 소정 어절에 대한 음성 데이터 추출이 성공적으로 수행되면, 상기 소정 어절에 대한 음절 추출단계는 수행되지 않을 수 있다.
상기 문장 추출단계, 상기 어절 추출단계 및 상기 음절 추출단계는, 상기 송신 단말이 전송한 문자 데이터에 포함된 2 이상의 문장에 대해 반복적으로 수행될 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 문자를 음성으로 출력하는 시스템은, 통신망; 상기 통신망을 통해 문자 데이터를 수신 단말로 전송하는 송신 단말; 및 상기 통신망을 통해 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터로서, 상기 문자 데이터를 전송한 문자 데이터 송신자의 음성 데이터를 출력하는 수신 단말;을 포함한다.
상기 통신망은, 상기 문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축하는 음성 서버를 구비할 수 있다.
상기 음성 서버는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 매칭시켜 상기 음성 데이터베이스에 저장할 수 있다.
상기 음성 서버는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 문장별, 어절별 및 음절별로 구분하여 저장할 수 있다.
상기 음성 서버는, 상기 송신 단말과 상기 수신 단말을 이용한 음성 통화 중 송수신된 음성 데이터를 이용하여 상기 문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축할 수 있다.
상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화가 반복될 때 마다 상기 음성 데이터베이스를 구축할 수 있다.
상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하지 않는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 더 저장할 수 있다.
상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 갱신 저장할 수 있다.
상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 통해 구축된 음성 데이터베이스의 구축 정도를 정량화할 수 있다.
상기 음성 서버는, 상기 정량화된 값에 따라 음성 데이터베이스의 구축 정도를 소정 등급으로 그레이딩할 수 있다.
상기 수신 단말은, 상기 소정 등급으로 그레이딩된 등급을 디스플레이부를 통해 출력할 수 있다.
상기 수신 단말은, 상기 소정 등급에 따라 서로 다른 시각 정보를 출력할 수 있다.
상기 음성 서버는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수를 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화할 수 있다.
상기 음성 서버는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수에 각각 가중치를 부여하고, 문장별, 어절별 및 음절별 개수에 각각 가중치가 부여된 값을 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화할 수 있다.
상기 문장별 개수에 부여되는 가중치는, 상기 어절별 개수에 부여되는 가중치 보다 크거나 같고, 상기 어절별 개수에 부여되는 가중치는, 상기 음절별 개수에 부여되는 가중치보다 크거나 같을 수 있다.
상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터를 수신하고, 상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지 조회한 다음, 조회 결과를 기초로 상기 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하여, 추출한 상기 음성 데이터를 상기 수신 단말로 전송할 수 있다.
상기 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는 경우, 상기 음성 서버는, 상기 음성 데이터베이스에 저장된 상기 문자 데이터 송신자의 음성 데이터를 추출할 수 있다.
상기 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하지 않는 경우, 상기 음성 서버는, 상기 음성 데이터베이스에 저장된 기계 음성을 추출할 수 있다.
상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터를 수신하고, 상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지 조회한 다음, 조회 결과를 기초로 상기 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하여, 추출한 상기 음성 데이터를 상기 수신 단말로 전송하되, 상기 음성 서버는, 상기 조회 결과를 기초로 상기 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출함에 있어서, 상기 송신 단말이 전송한 문자 데이터에 포함된 문자 내용을 상기 음성 데이터베이스로부터 조회하여, 상기 송신 단말이 전송한 문자 데이터에 포함된 문장과 상응하는 문장에 매칭되는 음성 데이터, 상기 송신 단말이 전송한 문자 데이터에 포함된 어절과 상응하는 어절에 매칭되는 음성 데이터 및 상기 송신 단말이 전송한 문자 데이터에 포함된 음절과 상응하는 음절에 매칭되는 음성 데이터 중 적어도 하나를 추출할 수 있다.
상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터에 포함된 소정 문장과 상응하는 문장에 매칭되는 음성 데이터가 상기 음성 데이터베이스에 존재할 경우, 상기 소정 문장에 대해서는 상기 소정 문정과 상응하는 문장에 매칭되는 음성 데이터만 추출하고, 상기 송신 단말이 전송한 문자 데이터에 포함된 소정 어절과 상응하는 어절에 매칭되는 음성 데이터가 상기 음성 데이터베이스에 존재할 경우, 상기 소정 어절에 대해서는 상기 소정 어절과 상응하는 어절에 매칭되는 음성 데이터만 추출할 수 있다.
상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터에 포함된 2 이상의 문장에 대해 음성 데이터 추출을 수행할 수 있다.
본 발명에 의하면, 송신 단말이 문자 데이터를 전송시, 수신 단말은 상기 송신 단말이 전송한 문자 데이터의 내용을 문자뿐만 아니라 음성으로 출력할 수 있다. 특히, 본 발명에 의하면, 문자 데이터를 송신한 송신자의 음성으로 문자 데이터의 내용을 출력할 수 있다.
본 발명의 일 측면에 의하면, 통신 단말을 이용한 음성 통화시 주고 받은 음성 데이터를 기초로 통화자의 음성을 데이터베이스화하므로, 통화가 반복될수록 문자 메시지 송신자의 실제 음성과 근접한 음성이 출력될 수 있다.
본 발명의 다른 측면에 의하면, 송신자가 전송한 문자 메시지뿐만 아니라, 단말을 이용하여 출력할 수 있는 문자 신호를 송신자의 음성으로 출력할 수 있다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 시스템을 나타낸 도면이다.
도 2는, 본 발명의 일 실시예에 따른 음성 데이터베이스를 개략적으로 나타낸 도면이다.
도 3은, 본 발명의 일 실시예에 따른 음성 데이터 추출과정을 나타낸 순서도이다.
도 4는, 본 발명의 일 실시예에 따른 문자를 음성으로 변환하는 시스템을 이용하여 송신 단말이 송신한 문자 메시지의 한 문장을 수신 단말이 음성으로 출력하는 과정을 예시적으로 나타낸 도면이다.
도 5는, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 방법을 개략적으로 나타낸 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
또한, 본 발명을 설명함에 있어 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 시스템을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 시스템은, 송신 단말(10), 수신 단말(20) 및 이동 통신망(30)을 포함한다.
상기 송신 단말(10) 및 수신 단말(20)은, 문자 데이터를 송수신할 수 있는 통신 단말로서, 음성 통화가 가능한 통신 단말이다. 일 예로, 상기 통신 단말은, 스마트폰 또는 태블릿 PC 등 일 수 있다. 도면에서, 송신 단말(10)과 수신 단말(20)은 스마트폰인 것으로 도시되어 있으나, 스마트 폰은 일 예로서, 본 발명의 송신 단말(10)과 수신 단말(20)이 스마트 폰에 한정되는 것은 아니다.
상기 송신 단말(10)이 전송하는 문자 데이터는, 수신 단말(20)의 디스플레이부를 통해 문자로 표시될 수 있는 데이터이다. 보다 구체적으로, 상기 송신 단말(10)이 전송하는 문자 데이터는, 송신 단말(10)에서 변조되어 수신 단말(20)로 전송되는 데이터로서, 상기 데이터는, 수신 단말(20)에 전송된 후 수신 단말(20)에서 복조되어 디스플레이부에 문자로 표시될 수 있는 데이터이다. 일 예로, 상기 문자 데이터는, 비트(bit)의 집합일 수 있다.
일 실시예에 따르면, 송신 단말(10)의 사용자, 즉 송신자가 송신 단말(10)에 문자를 입력하여 전송하면, 상기 문자는 문자 데이터로 변조된 다음, 이동 통신망(30)을 통해 수신 단말(20)로 전송된다.
상기 수신 단말(20)은 전송받은 문자 데이터를 시각적으로 인식할 수 있는 문자로 복조하여 디스플레이부에 표시할 수 있다. 또한, 상기 수신 단말(20)은, 전송받은 문자 데이터뿐만 아니라 다양한 시각 정보를 상기 디스플레이부를 통해 출력할 수 있다.
본 발명의 일 실시예에 따른 수신 단말(20)은, 송신 단말(10)이 전송한 문자 데이터의 문자 내용을 문자로 출력할 수 있을 뿐만 아니라, 송신 단말(10)이 전송한 문자 데이터의 문자 내용을 음성으로 출력할 수 있다.
보다 구체적으로 상기 수신 단말(20)은, 상기 문자 데이터의 문자 내용을 문자 데이터를 송신한 송신자의 음성으로 출력할 수 있다. 즉, 상기 수신 단말(20)은, 문자 데이터의 문자 내용을 송신 단말(10)의 사용자의 음성으로 출력할 수 있다.
상기 수신 단말(20)은, 음성 출력이 가능하도록 스피커를 구비할 수 있다. 또한, 상기 수신 단말(20)은, 송신 단말(10)이 전송한 문자 데이터의 문자 내용을 음성으로 출력하기 위해, 상기 문자 데이터에 상응하는 음성 데이터를 외부로부터 전송받을 수 있다. 상기 수신 단말(20)은, 외부로부터 전송받은 음성 데이터를 스피커를 통해 출력할 수 있다. 상기 음성 데이터는 수신 단말(20)에서 복조되어 스피커를 통해 출력될 수 있는 데이터로서, 비트(bit)의 집합일 수 있다.
상기 수신 단말(20)은, 이동 통신망(30)으로부터 전송된 문자 데이터를 복조한 다음, 문자 내용을 디스플레이부를 통해 출력할 수도 있고, 이동 통신망(30)으로부터 전송된 음성 데이터를 복조한 다음, 음성 신호를 스피커를 통해 출력할 수도 있다.
상기 이동 통신망(30)은, 문자 서버(200) 및 음성 서버(100)를 구비할 수 있다. 상기 이동 통신망(30)은 문자 서버(200) 및 음성 서버(100)를 이용하여, 문자 데이터 및 음성 데이터를 송수신할 수 있다.
상기 문자 서버(200)는, 송신 단말(10)로부터 문자 데이터를 수신하여, 수신 단말(20)로 문자 데이터를 전송할 수 있다. 또한, 상기 문자 서버(200)는, 송신 단말(10)로부터 수신한 문자 데이터를 저장하는 문자 데이터베이스(210)를 구비할 수 있다.
상기 음성 서버(100)는, 문자 데이터와 상기 문자 데이터에 상응하는 음성 데이터가 매칭된 상태로 저장된 음성 데이터베이스(110)를 포함한다. 상기 음성 데이터베이스(110)는, 화자별로 문자 데이터와 음성 데이터가 매칭된 상태로 저장된 자료이다.
또한, 일 실시예에 따르면, 상기 음성 데이터베이스(110)에는, 문자 데이터와 음성 데이터가 문장별, 어절별 및/또는 음절별로 서로 매칭된 상태로 저장되어 있을 수 있다. 예를 들어, 상기 음성 데이터베이스(110)에는, "안녕하세요 요즘 잘 지내시죠?"라는 문자 데이터와 이에 상응하는 음성 데이터가 매칭된 상태로 저장되어 있을 수 있다. 이때, 상기 음성 데이터베이스(110)에는, "안녕하세요?", "요즘 잘 지내시죠" 라는 2 문장을 각각 문자 데이터와 이에 상응하는 음성 데이터가 매칭된 상태로 저장되어 있을 수 있고, "안녕하세요", "요즘", "잘", "지내시죠" 라는 어절로 끊어서, 각각의 어절에 대한 문자 데이터와 이에 상응하는 음성 데이터가 매칭된 상태로 저장되어 있을 수 있으며, "안", "녕", "하", "세", "요", "요", "즘", "잘", "지", "내", "시", "죠" 라는 음절로 끊어서, 각각의 음절에 대한 문자 데이터와 이에 상응하는 음성 데이터가 매칭된 상태로 저장되어 있을 수 있다. 그리고, 이러한 정보는 각각의 화자별로 음성 데이터베이스(110)에 저장될 수 있다.
도 2는, 본 발명의 일 실시예에 따른 음성 데이터베이스(110)를 개략적으로 나타낸 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 음성 데이터베이스(110)에는, 화자별로, 문자 데이터와 음성 데이터가 매칭된 상태로 저장되어 있다. 즉, 본 발명의 일 실시예에 따른 음성 데이터베이스(110)에는, 문자 데이터와 음성 데이터가 매칭된 상태로 저장되어 있되, 화자별로 구분된 상태로 문자 데이터와 음성 데이터가 저장되어 있을 수 있다.
즉, 본 발명의 일 실시예에 따른 음성 데이터베이스(110)에는, 문자 데이터 및 이에 상응하는 음성 데이터가 화자별로 구분되어 저장될 뿐만 아니라, 각 화자에 대해, 문장별, 어절별 및 음절별로 구분되어 문자 데이터와 음성 데이터가 저장된다.
일 실시예에 따르면, 상기 음성 데이터베이스(110)는, 송신 단말(10)과 수신 단말(20) 사이에서 이루어진 통화로부터 구축될 수 있다. 즉, 송신 단말(10)과 수신 단말(20) 사이에서 이루어진 통화로부터 추출된 음성 데이터를 이용하여 음성 데이터베이스(110)가 구축될 수 있다.
일 실시예 따르면, 상기 음성 서버(100)는, 송신 단말(10)과 수신 단말(20) 사이에서 이루어진 통화를 구성하는 음성 데이터를 추출할 수 있다. 이때, 상기 음성 서버(100)는, 통화를 구성하는 음성 데이터를 실시간으로 추출하거나, 통화가 종료된 이후에 추출할 수 있다. 상기 음성 서버(100)는, 통화를 구성하는 음성 데이터를 화자에 따라 문장별, 어절별, 음절별로 각각 저장할 수 있다. 그리고, 상기 음성 서버(100)는, 상기 음성 데이터로부터 상기 음성 데이터에 상응하는 문자 데이터를 추출할 수 있다. 예를 들면, 전술한 예와 같이, 상기 음성 서버(100)는, A와 B의 통화 간에 이루어진 A의 인사말인 "안녕하세요? 요즘 잘 지내시죠?"라는 음성 데이터로부터 문장별, 어절별, 음절별로 문자 데이터를 추출해낼 수 있다. 이때, 음성 데이터로부터의 문자 추출은, 공지된 음성인식기술 등을 통해 수행될 수 있다. 일 실시예에 따르면, 상기 음성 데이터로부터의 문자 추출은, 음절 단위의 음성인식을 통해 음성 데이터에 대한 모든 음절에 대한 문자 추출을 통해 수행될 수 있다. 모든 음절에 대한 문자 데이터 추출이 수행되면, 음절별로 음성 데이터와 문자 데이터를 매칭시킨 후, 어절별로 음성 데이터와 문자 데이터를 매칭시킨 다음, 문장별로 음성 데이터와 문자 데이터를 매칭시키는 방식을 통해 음절별, 어절별, 문장별로 문자 데이터와 음성 데이터가 매칭된 음성 데이터베이스(110)가 구축될 수 있다.
또한, 상기 음성 서버(100)는, 송신 단말(10)과 수신 단말(20) 사이의 음성 통화가 반복될 때마다 음성 데이터베이스(110)를 구축할 수 있다. 즉, 상기 음성 서버(100)는, 송신 단말(10)과 수신 단말(20) 사이의 음성 통화가 반복될 때마다 음성 데이터베이스(110)를 업데이트할 수 있다. 상기 음성 서버(100)는, 통화를 구성하는 음성 데이터가 기 구축된 음성 데이터베이스(110) 내에 존재하는지 검색한 후, 통화를 구성하는 음성 데이터가 기 구축된 음성 데이터베이스(110) 내에 존재하지 않을 경우, 상기 음성 데이터를 상기 음성 데이터에 상응하는 문자 데이터를 매칭시켜 저장할 수 있다. 이때, 음성 데이터는 문자 데이터와 음절별, 어절별, 문장별로 매칭된 상태로 저장될 수 있다. 통화를 구성하는 음성 데이터가 기 구축된 음성 데이터베이스(110) 내에 존재할 경우에는, 상기 음성 서버(100)는, 기 구축된 음성 데이터베이스(110) 내에 존재하는 음성 데이터를 유지할 수도 있고, 기 구축된 음성 데이터베이스(110) 내에 존재하는 음성 데이터를 최근 데이터로 갱신할 수도 있다. 바람직하게는, 상기 음성 서버(100)는 기 구축된 음성 데이터베이스(110)를 갱신하는 방식으로 상기 음성 데이터베이스(110)를 업데이트할 수 있다.
상기 음성 데이터베이스(110)는, 송신 단말(10)과 수신 단말(20) 사이의 통화가 많아 질수록 업데이트되어, 송신 단말(10)의 화자에 대한 음성 정보가 점진적으로 보완될 수 있다. 즉, 송신 단말(10)과 수신 단말(20) 사이의 통화량이 증가할수록 음성 데이터는 문자 화자의 실제 음성에 가까워질 수 있다. 왜냐하면, 음절에 대한 음성 데이터가 많아 질수록 다양한 문자를 음성으로 표현할 수 있고, 어절 또는 문장에 대한 음성 데이터가 많아 질수록 실제의 음성에 가까운 음성을 출력할 수 있기 때문이다.
일 실시예에 따르면, 상기 음성 서버(100)는, 송신 단말(10)과 수신 단말(20) 사이의 음성 통화를 통해 구축된 음성 데이터베이스(110)의 구축 정도를 정량화할 수 있다. 즉, 음성 데이터베이스(110)가 구축된 정도는 소정 기준에 따라 정량적으로 평가될 수 있다. 여기서, 정량적으로 평가된 값은 소정 등급으로 구분될 수 있다. 즉, 음성 서버(100)는, 음성 데이터베이스(110)의 구축 정도가 정량화된 값에 따라 음성 데이터베이스(110)의 구축 정도를 소정 등급으로 그레이딩할 수 있다.
음성 서버(100)가 정량화한 값 및/또는 정량화한 값에 따른 등급은, 음성 데이터베이스(110) 또는 별도의 저장매체에 저장될 수 있고, 수신 단말(20)로 전송될 수 있다. 수신 단말(20)은 음성 서버(100)로부터 상기 정량화한 값 및/또는 정량화한 값에 따른 등급을 전송받아 소정 등급별로 다른 시각 정보를 출력할 수 있다. 예를 들어, 음성 데이터베이스(110)의 구축 정도가 5개의 등급으로 구분되는 경우를 가정할 때, 수신 단말(20)은, 1등급의 경우 별표(☆) 5개를 디스플레이부를 통해 출력할 수 있고, 2등급의 경우 별표 4개를 출력할 수 있으며, 3등급의 경우 별표 3개, 4등급은 별표 2개, 5등급은 별표 1개를 출력할 수 있다. 여기서 별표(☆)로 나타나는 시각 정보를 일 예에 불과한 것으로서, 다양한 시각 정보를 통해 음성 데이터베이스(110)의 구축 정도가 디스플레이부를 통해 표시될 수도 있다.
한편, 음성 데이터베이스(110)의 구축 정도를 정량적으로 평가하는 방법은 다양하게 설정될 수 있다. 일 실시예에 따르면, 상기 음성 서버(100)는, 음성 데이터베이스(110)에 구분하여 저장된 문장별, 어절별 및 음절별 개수를 합산하여 음성 데이터베이스(110)의 구축 정도를 문자 데이터 송신자 별로 정량화할 수 있다. 예를 들어, 음성 데이터베이스(110)에 구분하여 저장된 음성 데이터와 문자 데이터의 문장 개수가 1,000개이고, 어절 개수가 10,000개이며, 음절 개수가 100,000개라고 가정할 때, 음성 데이터베이스의 구축 정도는 111,000(= 1,000+10,000+100,000)으로 정량화될 수 있다. 다른 실시예에 따르면, 상기 음성 서버(100)는, 음성 데이터베이스(110)에 구분하여 저장된 문장별, 어절별 및 음절별 개수에 각각 가중치를 부여하고, 문장별, 어절별 및 음절별 개수에 각각 가중치가 부여된 값을 합산하여 음성 데이터베이스(110)의 구축 정도를 정량화할 수 있다. 상기의 예시와 같이, 음성 데이터베이스(110)에 구분하여 저장된 음성 데이터와 문자 데이터의 문장 개수가 1,000개이고, 어절 개수가 10,000개이며, 음절 개수가 100,000개라고 가정할 때, 문장 개수에는 a라는 가중치가 부여되고, 어절 개수에는 b라는 가중치가 부여되며, 음절 개수에는 c라는 가중치가 부여될 수 있다. 따라서, 음성 데이터베이스(110)의 구축 정도는, 1,000*a + 10,000*b + 100,000*c로 정량화될 수 있다. 바람직하게는, 문장별 개수, 어절별 개수 및 음절별 개수에 각각 부여되는 가중치는, 문장의 완성도를 고려하여 다음과 같이 부여될 수 있다. 즉, 문장별 개수에 부여되는 가중치는, 어절별 개수에 부여되는 가중치보다 크거나 같고, 어절별 개수에 부여된 가중치는, 음절별 개수에 부여되는 가중치보다 크거나 같도록 설정되는 것이 좋다(즉, 상기 예시에서 a≥b≥c).
또한, 상기 음성 서버(100)는, 외부로부터 수신한 문자 데이터에 상응하는 음성 데이터를 상기 음성 데이터베이스(110)로부터 조회할 수 있다. 이때, 상기 음성 서버(100)는, 외부로부터 수신한 문자 데이터에 상응하는 음성 데이터를 화자별로 조회할 수 있다. 그리고, 상기 음성 서버(100)는, 문자 데이터에 상응하는 음성 데이터를 음성 데이터베이스(110)로부터 추출하고, 추출한 음성 데이터를 수신 단말(20)로 전송할 수 있다. 예를 들어, A라는 사람이 송신 단말(10)을 이용하여 문자 데이터를 수신 단말(20)로 전송한 경우, 상기 음성 서버(100)는, A라는 화자에 대한 정보를 음성 데이터베이스(110)로부터 조회하여, A화자에 대한 음성 데이터를 추출할 수 있으며, 추출한 A의 음성 데이터를 수신 단말(20)로 전송할 수 있다.
또한, 상기 음성 서버(100)는, 외부로부터 수신한 문자 데이터에 상응하는 음성 데이터를 문장별, 어절별, 음절별로 조회할 수 있다. 바람직하게는, 상기 음성 서버(100)는, 문자 데이터를 문장, 어절, 음절의 순서로 조회할 수 있다.
도 3은, 본 발명의 일 실시예에 따른 음성 데이터 추출과정을 나타낸 순서도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 음성 서버(100)는, 다음과 같은 과정을 통해 음성 데이터베이스(110)로부터 음성 데이터를 추출한다.
먼저, 음성 서버(100)는, 외부로부터 문자 데이터를 수신한다(S301). 예를 들어, 도 1에 도시된 바와 같이, 음성 서버(100)는, 문자 서버(200)로부터 문자 데이터를 수신할 수 있다. 이어서, 음성 서버(100)는, 수신한 문자 데이터를 송신한 자에 대한 정보가 음성 데이터베이스(110)에 존재하는지 조회한다(S303). 음성 서버(100)의 조회 결과, 음성 데이터베이스(110)에 문자 데이터 송신자에 대한 정보가 저장되어 있으면, 문자 데이터에 상응하는 송신자의 음성 데이터를 추출하는 과정을 수행하고, 그렇지 않을 경우, 문자 데이터를 기계음성으로 변환하는 과정을 수행한다(S315).
보다 구체적으로, 음성 서버(100)의 조회 결과, 음성 데이터베이스(110)에 문자 데이터 송신자에 대한 정보가 저장되어 있을 경우, 음성 서버(100)는, 문자 데이터의 문장과 상응하는 문장이 음성 데이터베이스(110)에 존재하는지 조회한다(S305). 문자 데이터의 문장과 상응하는 문장이 음성 데이터베이스(110)에 존재할 경우, 음성 서버(100)는, 음성 데이터베이스(110)로부터 문자 데이터의 문장과 매칭되는 음성 데이터(문장)를 추출한다(S307). 이와 달리, 문자 데이터의 문장과 상응하는 문장이 음성 데이터베이스(110)에 존재하지 않을 경우, 음성 서버(100)는, 문자 데이터의 어절과 상응하는 어절이 음성 데이터베이스(110)에 존재하는지 조회한다(S309). 문자 데이터의 어절과 상응하는 어절이 음성 데이터베이스(110)에 존재할 경우, 음성 서버(100)는, 음성 데이터베이스(110)로부터 문자 데이터의 어절과 매칭되는 음성 데이터(어절)를 추출한다(S311). 이와 달리, 문자 데이터의 어절과 상응하는 어절이 음성 데이터베이스(110)에 존재하지 않을 경우, 음성 서버(100)는, 문자 데이터의 음절과 매칭되는 음성 데이터(음절)를 추출한다(S313).
음성 데이터베이스(110)에 송신자의 정보가 존재할 경우, 음성 서버(100)는, 문자 데이터의 문장별로 전술한 과정(S305 ~ S313)을 반복하여 문자 데이터 전부에 대한 음성 데이터를 추출할 수 있다. 음성 서버(100)는, 추출된 음성 데이터를 수신 단말(20)에 전송하여, 수신 단말(20)이 송신자의 음성으로 문자를 출력할 수 있도록 한다.
한편, 문자 데이터의 음절과 매칭되는 음성 데이터가 음성 데이터베이스(110)에 존재하지 않을 경우, 음성 서버(100)는, 음성 자료가 부족하여 음성 변환이 수행될 수 없다는 메시지를 수신 단말(20)에 전송하거나, 문자 데이터를 기 저장된 기계 음성으로 변환하여, 이를 수신 단말(20)에 전송할 수 있다. 문자 데이터를 기계 음성으로 변환함에 있어서, 음성 서버(100)는 음성 자료가 부족한 음절에 대해서만 기계 음성으로 변환할 수도 있고, 문장 전체를 기계 음성으로 변환할 수도 있으며, 부족한 음절에 대해서는 음성 변환을 수행하지 않을 수도 있다. 상기 기계 음성은, 송신자별 음성 데이터와 마찬가지로 음성 데이터베이스(110)에 저장되어 있을 수 있으며, 알려진 다양한 음절, 어절, 문장에 대한 음성 데이터가 문자 데이터와 매칭된 상태로 음성 데이터베이스(110)에 저장되어 있을 수 있다.
또한, 음성 데이터베이스(110)에 송신자의 정보가 존재하는지 판단한 결과, 음성 데이터베이스(110)에 송신자의 정보가 존재하지 않을 경우에는, 문자 데이터를 기 저장된 기계 음성으로 변환할 수 있다. 상기 기계 음성은, 음성 데이터베이스(110)에 미리 저장되어 있을 수 있다.
도 4는, 본 발명의 일 실시예에 따른 문자를 음성으로 변환하는 시스템을 이용하여 송신 단말(10)이 송신한 문자 메시지의 한 문장을 수신 단말(20)이 음성으로 출력하는 과정을 예시적으로 나타낸 도면이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 문자를 음성으로 변환하는 시스템은, 송신 단말(10), 수신 단말(20), 이동 통신망(30)을 포함하고 있다. 상기 이동 통신망(30)은, 문자 서버(200), 음성 서버(100)를 포함하며, 상기 음성 서버(100)에는 음성 데이터베이스(110)가 구비된다. 도 4의 예시에서 음성 서버(100)에 구비된 음성 데이터베이스(110)는, 화자별로 문자 데이터가 음성 데이터에 매칭된 상태로 구축되어 있을 뿐만 아니라, 문자 데이터와 음성 데이터는, 문장별, 어절별, 음절별로 각각 음성 데이터와 매칭된 상태로 구축되어 있다. 또한, 도 4의 예시에서, 화자 A와 관련된 음성 데이터베이스(110)는, "안녕하세요"라는 문장 내지 어절과, "요즘", "잘"라는 어절과, "안","녕","하","세","요", "잘", "지", "내", "시", "죠" 라는 음절에 각각 매칭되는 음성 데이터를 각 문장, 어절, 음절에 매칭된 상태로 저장하고 있다.
먼저, 송신 단말(10)이 "안녕하세요? 요즘 잘 지내시죠?"라는 문자 메시지를 수신 단말(20)로 전송하면, 문자 데이터는 문자 서버(200)로 전송되고, 문자 서버(200)는 수신한 문자 데이터를 수신 단말(20)과 음성 서버(100)로 전송한다. 음성 서버(100)는, 수신한 문자 데이터를 전송한 송신자인 A의 정보가 데이터베이스에 존재하는지 조회한다. 전제한 바와 같이, A의 정보가 데이터베이스에 존재하므로, 음성 서버(100)는, 문장 매칭을 수행한다. 즉, 음성 서버(100)는, 수신한 문자 데이터에 포함된 문장이 음성 데이터베이스(110)에 존재하는지 조회한다. 전제한 바와 같이, 첫번째 문장인 "안녕하세요"가 음성 데이터베이스(110)에 존재하므로, 음성 서버(100)는, "안녕하세요"에 매칭되는 음성 데이터(A음성_문장1)를 추출한다. 다음으로, 음성 서버(100)는, 두번째 문장인 "요즘 잘 지내시죠"가 음성 데이터베이스(110)에 존재하는지 조회한다. 전제한 바와 같이, 음성 데이터베이스(110)에는, "요즘 잘 지내시죠"라는 문장에 상응하는 정보가 존재하지 않으므로, 음성 서버(100)는, 어절 매칭을 수행한다. 즉, 음성 서버(100)는, 수신한 문자 데이터에 포함된 어절이 음성 데이터베이스(110)에 존재하는지 조회한다. 전제한 바와 같이 두번째 문장인 "요즘 잘 지내시죠"에서 첫번째 어절과 두번째 어절이 음성 데이터베이스(110)에 존재하므로, 음성 서버(100)는, "요즘"에 매칭되는 음성 데이터(A음성_어절1)와 "잘"에 매칭되는 음성 데이터(A음성_어절2)를 추출한다. 그러나, "지내시죠"에 매칭되는 음성 데이터가 음성 데이터베이스(110)에 존재하지 않으므로, 음성 서버(100)는 두번째 문장의 세번째 어절에 대해서는 음절 매칭을 수행한다. 즉, 음성 서버(100)는, 세번째 어절인 "지내시죠"를 구성하는 음절인 "지", "내", "시", "죠"와 각각 매칭되는 음성 데이터인 A음성_음절8, A음성_음절9, A음성_음절10, A음성_음절11을 추출한다.
이하, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 방법에 대해 설명하도록 한다. 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 방법은 상술한 문자를 음성으로 출력하는 시스템을 이용한 방법일 수 있다. 즉, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 방법의 주체는 전술한 시스템을 구성하는 구성요소 중 적어도 하나일 수 있다.
도 5는, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 방법을 개략적으로 나타낸 순서도이다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 문자를 음성으로 출력하는 방법은 도시된 각 단계에 따라 수행될 수 있다.
먼저, 상기 방법은, 화자별로 문자 데이터와 음성 데이터가 매칭된 음성 데이터베이스(110)를 구축하는 단계를 수행한다(S510). 여기서, 상기 음성 데이터는 각 화자에 대해, 문장별, 어절별 및 음절별로 문자 데이터와 매칭된 상태로 저장될 수 있다. 상기 음성 데이터베이스(110)는 다양한 방법에 의해 구축될 수 있다. 바람직하게는, 상기 음성 데이터베이스(110)는, 수신 단말(20)과 송신 단말(10)을 통해 이루어지는 음성 통화 중에 전송되는 음성 데이터를 이용하여 구축될 수 있다.
이어서, 송신 단말(10)이 문자 데이터를 수신 단말(20)로 전송한다(S520). 이때, 송신 단말(10)이 전송한 문자 데이터는, 문자 서버(200)를 통해 수신 단말(20)로 전송될 수 있고, 문자 서버(200)를 통해 음성 서버(100)로 전송될 수 있다. 다음으로, 음성 서버(100)는, 송신 단말(10)이 전송한 문자 데이터를 전송한 송신자 내지 송신 단말(10)에 대한 정보가 음성 데이터베이스(110)에 존재하는지를 조회한다. 음성 서버(100)는, 문자 데이터를 전송한 송신자에 대한 정보가 음성 데이터베이스(110)에 존재하는 경우, 음성 데이터베이스(110)로부터 상기 문자 데이터에 매칭되는 음성 데이터를 추출해 낸다(S530). 바람직하게는, 상기 음성 서버(100)는, 문자 데이터에 매칭되는 음성 데이터를 문장별, 어절별, 음절별로 순차적으로 조회하여 실제 화자의 음성에 근접한 음성 데이터를 추출해내는 것이 좋다. 그 다음으로, 음성 서버(100)는, 문자 데이터에 매칭되는 음성 데이터를 수신 단말(20)로 전송한다. 그 다음으로, 수신 단말(20)은, 문자 데이터에 매칭되는 음성 데이터를 스피커를 통해 출력한다(S540). 이를 통해, 수신 단말(20)은 문자 데이터를 전송한 자의 음성으로 문자 데이터에 상응하는 음성을 출력할 수 있다. 선택적으로, 수신 단말(20)은, 문자를 디스플레이부를 통해 출력함과 아울러 음성을 스피커를 통해 출력할 수 있다. 이때, 수신 단말(20)에는 음성 출력 여부를 선택할 수 있는 버튼 또는 아이콘 등이 존재하여, 버튼이 눌러지거나 아이콘이 선택되었을 때 수신 단말(20)이 음성을 출력하도록 구성될 수 있다. 또한, 수신 단말(20)은, 음성 데이터베이스(110)의 구축 정도를 나타내는 등급에 상응하는 시각 정보를 디스플레이부를 통해 출력하여, 음성 데이터베이스(110)의 구축 정도를 수신 단말(20) 사용자에게 보여줄 수 있다. 수신 단말(20)의 사용자는, 음성 데이터베이스(110)의 구축 정도를 나타내는 시각 정보를 통해, 음성 데이터베이스(110)의 구축 정도를 직관적으로 파악할 수 있다. 또한, 수신 단말(20)의 사용자는, 음성 데이터베이스(110)의 구축 정도를 통해 송신 단말(10)의 사용자와의 음성 통화를 통한 교류 정도를 간접적으로 파악할 수 있다. 따라서, 수신 단말(20)의 사용자와 송신 단말(10)의 사용자 사이의 음성 통화를 유도할 수 있다.
한편, 상기의 방법에 의해 데이터 베이스화된 송신 단말(10)의 화자의 음성 정보는, 송신 단말(10)로부터 전송된 문자 데이터 뿐만 아니라, 이외의 다른 어떠한 문자 데이터의 변환에 이용될 수도 있다. 일 예로, 수신 단말(20)은, 수신 단말(20)에 저장된 책, 문서 등을 데이터 베이스화된 송신 단말(10)의 화자의 음성으로 출력할 수도 있다. 다른 예로, 수신 단말(20)은, 데이터 베이스화된 송신 단말(10)의 화자의 음성으로 노래를 출력할 수도 있다. 또 다른 예로, 질문에 답변하는 어플리케이션에서, 출력되는 목소리를 데이터 베이스화된 송신 단말(10)의 화자의 음성으로 변경할 수도 있다. 예를 들어, iOS용 어플리케이션인 시리(siri)의 응답을 송신 단말(10)의 화자의 음성으로 변경할 수 있다.
이를 통해, 수신 단말(20)의 사용자는, 송신 단말(10)의 화자와 실제로 대화하는 것처럼 느낄 수 있어, 통신 단말을, 반려동물과 같이, 반려기기화 할 수 있다.
한편, 상술한, 방법은 프로그램화되어 컴퓨터로 읽을 수 있는 기록매체에 저장되는 형태로 구현될 수도 있다.
한편, 상술한 예시에서 음성 변환 및 데이터 베이스화 작업은, 이동 통신망(30)에서 수행되는 것으로 기재되어 있으나, 본 발명이 이에 한정되는 것은 아니다. 즉, 상기 작업은, 송신 단말(10) 또는 수신 단말(20) 내에서 수행될 수도 있으며, 일부는 이동 통신망(30)의 서버 상에서 수행되고 나머지 일부는, 송신 단말(10) 또는 수신 단말(20)에서 수행될 수도 있다.
이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
10: 송신 단말 20: 수신 단말 30: 이동 통신망
100: 음성 서버 110: 음성 데이터베이스
200: 문자 서버 210: 문자 데이터베이스

Claims (42)

  1. 통신 단말을 통해 음성을 출력하는 방법에 있어서,
    문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축하는 단계;
    송신 단말이, 문자 데이터를 수신 단말로 전송하는 단계;
    상기 수신 단말이, 상기 송신 단말이 전송한 문자 데이터에 매칭되는 것으로 추출되는 음성 데이터를 통해, 상기 문자 데이터의 문자 내용을 상기 문자 데이터 송신자의 음성으로 출력하는 단계; 및
    상기 음성 데이터베이스를 구축하는 단계 이후에, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 통해 구축되는 상기 음성 데이터베이스의 구축 정도를 정량화하는 단계;
    를 포함하는 문자를 음성으로 출력하는 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 음성 데이터베이스를 구축하는 단계는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 매칭시킨 상태로 저장하는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  4. 제 3 항에 있어서,
    상기 음성 데이터베이스를 구축하는 단계는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 문장별, 어절별 및 음절별로 구분하여 저장하는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  5. 제 4 항에 있어서,
    상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말을 이용한 음성 통화 중 송수신된 음성 데이터를 이용하여 상기 문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축하는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  6. 제 5 항에 있어서,
    상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화가 반복됨에 따라 구축되는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  7. 제 6 항에 있어서,
    상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하지 않는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 더 저장하는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  8. 제 7 항에 있어서,
    상기 음성 데이터베이스를 구축하는 단계는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 갱신 저장하는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  9. 삭제
  10. 제 1 항에 있어서,
    상기 정량화하는 단계 이후에, 상기 정량화하는 단계에서 정량화된 값에 따라 음성 데이터베이스의 구축 정도를 소정 등급으로 그레이딩하는 단계;를 더 포함하는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  11. 제 10 항에 있어서,
    상기 그레이딩하는 단계 이후에, 상기 수신 단말이, 디스플레이부를 통해 상기 그레이딩하는 단계에서 그레이딩된 등급을 출력하는 단계;를 더 포함하는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  12. 제 11 항에 있어서,
    상기 그레이딩된 등급을 출력하는 단계는, 상기 소정 등급에 따라 서로 다른 시각 정보를 출력하는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  13. 제 1 항에 있어서,
    상기 정량화하는 단계는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수를 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화하는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  14. 제 1 항에 있어서,
    상기 정량화하는 단계는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수에 각각 가중치를 부여하고, 문장별, 어절별 및 음절별 개수에 각각 가중치가 부여된 값을 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화하는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  15. 제 14 항에 있어서,
    상기 문장별 개수에 부여되는 가중치는, 상기 어절별 개수에 부여되는 가중치 보다 크거나 같고, 상기 어절별 개수에 부여되는 가중치는, 상기 음절별 개수에 부여되는 가중치보다 크거나 같은 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  16. 제 1 항에 있어서,
    상기 음성으로 출력하는 단계 이전에,
    상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지를 조회하는 단계;
    상기 조회하는 단계의 조회 결과를 기초로 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하는 단계; 및
    상기 추출하는 단계에서 추출한 음성 데이터를 수신 단말로 전송하는 단계;
    를 더 포함하는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  17. 제 16 항에 있어서,
    상기 조회하는 단계의 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는 경우, 상기 음성 데이터를 추출하는 단계는, 상기 음성 데이터베이스에 저장된 상기 문자 데이터 송신자의 음성 데이터를 추출하는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  18. 제 16 항에 있어서,
    상기 조회하는 단계의 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하지 않는 경우, 상기 음성 데이터를 추출하는 단계는, 상기 음성 데이터베이스에 저장된 기계 음성을 추출하는 단계인 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  19. 제 4 항에 있어서,
    상기 음성으로 출력하는 단계 이전에,
    상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지 조회하는 단계:
    상기 조회하는 단계의 조회 결과를 기초로 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하는 단계; 및
    상기 추출하는 단계에서 추출한 음성 데이터를 수신 단말로 전송하는 단계;
    를 더 포함하고,
    상기 음성 데이터를 추출하는 단계는,
    상기 송신 단말이 전송한 문자 데이터에 포함된 문장과 상응하는 문장에 매칭되는 음성 데이터를 음성 데이터베이스로부터 추출하는 문장 추출단계;
    상기 송신 단말이 전송한 문자 데이터에 포함된 어절과 상응하는 어절에 매칭되는 음성 데이터를 음성 데이터베이스로부터 추출하는 어절 추출단계; 및
    상기 송신 단말이 전송한 문자 데이터에 포함된 음절과 상응하는 음절에 매칭되는 음성 데이터를 음성 데이터베이스로부터 추출하는 음절 추출단계;
    를 포함하는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  20. 제 19 항에 있어서,
    상기 어절 추출단계는, 상기 문장 추출단계 이후에 수행되되,
    상기 문장 추출단계에서, 소정 문장에 대한 음성 데이터 추출이 성공적으로 수행되면, 상기 소정 문장에 대한 어절 추출단계는 수행되지 않고,
    상기 음절 추출단계는, 상기 어절 추출단계 이후에 수행되되,
    상기 어절 추출단계에서, 소정 어절에 대한 음성 데이터 추출이 성공적으로 수행되면, 상기 소정 어절에 대한 음절 추출단계는 수행되지 않는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  21. 제 20 항에 있어서,
    상기 문장 추출단계, 상기 어절 추출단계 및 상기 음절 추출단계는, 상기 송신 단말이 전송한 문자 데이터에 포함된 2 이상의 문장에 대해 반복적으로 수행되는 것을 특징으로 하는 문자를 음성으로 출력하는 방법.
  22. 문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축하는 음성 서버가 구비된 통신망;
    상기 통신망을 통해 문자 데이터를 수신 단말로 전송하는 송신 단말; 및
    상기 통신망을 통해 상기 송신 단말이 전송한 문자 데이터에 상응하는 것으로 추출되는 음성 데이터를 통해, 상기 문자 데이터의 문자 내용을 상기 문자 데이터 송신자의 음성으로 출력하는 수신 단말;
    을 포함하되,
    상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 통해 구축되는 상기 음성 데이터베이스의 구축 정도를 정량화하는 문자를 음성으로 출력하는 시스템
  23. 삭제
  24. 제 22 항에 있어서,
    상기 음성 서버는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 매칭시켜 상기 음성 데이터베이스에 저장하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  25. 제 24 항에 있어서,
    상기 음성 서버는, 상기 문자 데이터 송신자의 음성 데이터와 상기 음성 데이터에 상응하는 문자 데이터를 문장별, 어절별 및 음절별로 구분하여 저장하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  26. 제 25 항에 있어서,
    상기 음성 서버는, 상기 송신 단말과 상기 수신 단말을 이용한 음성 통화 중 송수신된 음성 데이터를 이용하여 상기 문자 데이터 송신자의 음성 데이터에 대한 음성 데이터베이스를 구축하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  27. 제 26 항에 있어서,
    상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화가 반복될 때 마다 상기 음성 데이터베이스를 구축하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  28. 제 27 항에 있어서,
    상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하지 않는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 더 저장하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  29. 제 28 항에 있어서,
    상기 음성 서버는, 상기 송신 단말과 상기 수신 단말 사이의 음성 통화를 구성하는 음성 데이터에 상응하는 문자 데이터 중에서 기 구축된 음성 데이터베이스에 존재하는 문자 데이터를 상기 음성 데이터베이스에 존재하지 않는 문자 데이터에 상응하는 음성 데이터와 문장별, 어절별 및 음절별로 구분하여 매칭시킨 상태로 갱신 저장하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  30. 삭제
  31. 제 22 항에 있어서,
    상기 음성 서버는, 상기 정량화된 값에 따라 음성 데이터베이스의 구축 정도를 소정 등급으로 그레이딩하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  32. 제 31 항에 있어서,
    상기 수신 단말은, 상기 소정 등급으로 그레이딩된 등급을 디스플레이부를 통해 출력하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  33. 제 32 항에 있어서,
    상기 수신 단말은, 상기 소정 등급에 따라 서로 다른 시각 정보를 출력하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  34. 제 22 항에 있어서,
    상기 음성 서버는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수를 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  35. 제 22 항에 있어서,
    상기 음성 서버는, 상기 음성 데이터베이스에 구분하여 저장된 음성 데이터와 문자 데이터의 문장별, 어절별 및 음절별 개수에 각각 가중치를 부여하고, 문장별, 어절별 및 음절별 개수에 각각 가중치가 부여된 값을 합산하여 음성 데이터베이스의 구축 정도를 문자 데이터 송신자 별로 정량화하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  36. 제 35 항에 있어서,
    상기 문장별 개수에 부여되는 가중치는, 상기 어절별 개수에 부여되는 가중치 보다 크거나 같고, 상기 어절별 개수에 부여되는 가중치는, 상기 음절별 개수에 부여되는 가중치보다 크거나 같은 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  37. 제 22 항에 있어서,
    상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터를 수신하고, 상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지 조회한 다음, 조회 결과를 기초로 상기 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하여, 추출한 상기 음성 데이터를 상기 수신 단말로 전송하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  38. 제 37 항에 있어서,
    상기 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는 경우, 상기 음성 서버는, 상기 음성 데이터베이스에 저장된 상기 문자 데이터 송신자의 음성 데이터를 추출하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  39. 제 37 항에 있어서,
    상기 조회 결과, 상기 음성 데이터베이스에 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하지 않는 경우, 상기 음성 서버는, 상기 음성 데이터베이스에 저장된 기계 음성을 추출하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  40. 제 36 항에 있어서,
    상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터를 수신하고, 상기 음성 데이터베이스에서 상기 문자 데이터 송신자의 정보와 일치하는 정보가 존재하는지 조회한 다음, 조회 결과를 기초로 상기 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출하여, 추출한 상기 음성 데이터를 상기 수신 단말로 전송하되,
    상기 음성 서버는, 상기 조회 결과를 기초로 상기 음성 데이터베이스로부터 상기 송신 단말이 전송한 문자 데이터에 상응하는 음성 데이터를 추출함에 있어서, 상기 송신 단말이 전송한 문자 데이터에 포함된 문자 내용을 상기 음성 데이터베이스로부터 조회하여, 상기 송신 단말이 전송한 문자 데이터에 포함된 문장과 상응하는 문장에 매칭되는 음성 데이터, 상기 송신 단말이 전송한 문자 데이터에 포함된 어절과 상응하는 어절에 매칭되는 음성 데이터 및 상기 송신 단말이 전송한 문자 데이터에 포함된 음절과 상응하는 음절에 매칭되는 음성 데이터 중 적어도 하나를 추출하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  41. 제 40 항에 있어서,
    상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터에 포함된 소정 문장과 상응하는 문장에 매칭되는 음성 데이터가 상기 음성 데이터베이스에 존재할 경우, 상기 소정 문장에 대해서는 상기 소정 문장과 상응하는 문장에 매칭되는 음성 데이터만 추출하고, 상기 송신 단말이 전송한 문자 데이터에 포함된 소정 어절과 상응하는 어절에 매칭되는 음성 데이터가 상기 음성 데이터베이스에 존재할 경우, 상기 소정 어절에 대해서는 상기 소정 어절과 상응하는 어절에 매칭되는 음성 데이터만 추출하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.
  42. 제 41 항에 있어서,
    상기 음성 서버는, 상기 송신 단말이 전송한 문자 데이터에 포함된 2 이상의 문장에 대해 음성 데이터 추출을 수행하는 것을 특징으로 하는 문자를 음성으로 출력하는 시스템.

KR1020150110072A 2014-08-06 2015-08-04 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법 Active KR101703214B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
US14/913,882 US9812121B2 (en) 2014-08-06 2015-08-05 Method of converting a text to a voice and outputting via a communications terminal
JP2016562268A JP6459080B2 (ja) 2014-08-06 2015-08-05 文字データの内容を文字データ送信者の音声で出力する方法
CN201580001904.9A CN105556999A (zh) 2014-08-06 2015-08-05 将文本数据的内容输出成发送方语音的方法
TW104125413A TWI613641B (zh) 2014-08-06 2015-08-05 將文字資料之內容輸出成發送者之語音的方法與系統
EP15830674.6A EP3035718B1 (en) 2014-08-06 2015-08-05 Method for outputting text data content as voice of text data sender
PCT/KR2015/008210 WO2016021937A1 (ko) 2014-08-06 2015-08-05 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140101232 2014-08-06
KR1020140101232 2014-08-06

Publications (2)

Publication Number Publication Date
KR20160017625A KR20160017625A (ko) 2016-02-16
KR101703214B1 true KR101703214B1 (ko) 2017-02-06

Family

ID=55448064

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150110072A Active KR101703214B1 (ko) 2014-08-06 2015-08-04 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법

Country Status (7)

Country Link
US (1) US9812121B2 (ko)
EP (1) EP3035718B1 (ko)
JP (1) JP6459080B2 (ko)
KR (1) KR101703214B1 (ko)
CN (1) CN105556999A (ko)
TW (1) TWI613641B (ko)
WO (1) WO2016021937A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101834546B1 (ko) * 2013-08-28 2018-04-13 한국전자통신연구원 핸즈프리 자동 통역 서비스를 위한 단말 장치 및 핸즈프리 장치와, 핸즈프리 자동 통역 서비스 방법
CA2966613C (en) 2014-12-11 2021-01-19 Bitdefender Ipr Management Ltd User interface for security protection and remote management of network endpoints
CN105096934B (zh) * 2015-06-30 2019-02-12 百度在线网络技术(北京)有限公司 构建语音特征库的方法、语音合成方法、装置及设备
CN105868419A (zh) * 2016-06-02 2016-08-17 泉港区奇妙工业设计服务中心 一种童伴机器人搜索学习装置
CN106603573A (zh) * 2017-01-17 2017-04-26 国家电网公司 一种对非智能话机终端推送文本消息的装置和方法
US10147415B2 (en) * 2017-02-02 2018-12-04 Microsoft Technology Licensing, Llc Artificially generated speech for a communication session
TWI690814B (zh) * 2017-12-15 2020-04-11 鴻海精密工業股份有限公司 文字資訊處理裝置及方法、電腦存儲介質及移動終端
US10726843B2 (en) * 2017-12-20 2020-07-28 Facebook, Inc. Methods and systems for responding to inquiries based on social graph information
US11398218B1 (en) * 2018-04-26 2022-07-26 United Services Automobile Association (Usaa) Dynamic speech output configuration
CN110634466B (zh) * 2018-05-31 2024-03-15 微软技术许可有限责任公司 具有高感染力的tts处理技术
WO2020145428A1 (ko) * 2019-01-08 2020-07-16 엘지전자 주식회사 단말기
CN109979440B (zh) * 2019-03-13 2021-05-11 广州市网星信息技术有限公司 关键词样本确定方法、语音识别方法、装置、设备和介质
CN113096645A (zh) * 2021-03-31 2021-07-09 闽江学院 电话语音的处理方法
CN113268981B (zh) * 2021-05-27 2023-04-28 咪咕音乐有限公司 一种信息处理方法、装置及电子设备

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US706510A (en) * 1901-11-27 1902-08-12 Augustus Beitney Art of manufacturing plate-ice.
KR100259918B1 (ko) * 1998-03-05 2000-06-15 윤종용 핸즈프리키트의 쇼트메시지 음성합성 장치 및 방법
JP2001350490A (ja) * 2000-06-09 2001-12-21 Fujitsu Ltd テキスト音声変換装置及び方法
FI115868B (fi) * 2000-06-30 2005-07-29 Nokia Corp Puhesynteesi
KR20010035173A (ko) * 2001-01-10 2001-05-07 백종관 음성 합성 훈련 툴킷을 이용한 개인용 음성 합성기 및 그방법
KR20020091920A (ko) * 2001-06-01 2002-12-11 엘지전자 주식회사 이동통신 단말기에서의 음성 및 문자 통화 장치
US7177801B2 (en) * 2001-12-21 2007-02-13 Texas Instruments Incorporated Speech transfer over packet networks using very low digital data bandwidths
JP3806030B2 (ja) * 2001-12-28 2006-08-09 キヤノン電子株式会社 情報処理装置及び方法
CN1692403A (zh) * 2002-10-04 2005-11-02 皇家飞利浦电子股份有限公司 具有个人化语音段的语音合成设备
US20040267531A1 (en) * 2003-06-30 2004-12-30 Whynot Stephen R. Method and system for providing text-to-speech instant messaging
US8666746B2 (en) * 2004-05-13 2014-03-04 At&T Intellectual Property Ii, L.P. System and method for generating customized text-to-speech voices
KR20060061612A (ko) * 2004-12-02 2006-06-08 주식회사 팬택 문자 메시지의 음성 안내 방법 및 그에 따른 저장매체 및그에 따른 통신 단말기
US7706510B2 (en) * 2005-03-16 2010-04-27 Research In Motion System and method for personalized text-to-voice synthesis
US7716052B2 (en) * 2005-04-07 2010-05-11 Nuance Communications, Inc. Method, apparatus and computer program providing a multi-speaker database for concatenative text-to-speech synthesis
KR20070010360A (ko) * 2005-07-18 2007-01-24 주식회사 팬택앤큐리텔 이동 통신 단말기의 음성 서비스 방법
US8224647B2 (en) * 2005-10-03 2012-07-17 Nuance Communications, Inc. Text-to-speech user's voice cooperative server for instant messaging clients
KR20070049730A (ko) * 2005-11-09 2007-05-14 엘지전자 주식회사 무선 통신망을 통한 음성 정보 서비스 방법
US7584104B2 (en) * 2006-09-08 2009-09-01 At&T Intellectual Property Ii, L.P. Method and system for training a text-to-speech synthesis system using a domain-specific speech database
JP2008129434A (ja) * 2006-11-22 2008-06-05 Oki Electric Ind Co Ltd 音声合成サーバシステム
US8886537B2 (en) * 2007-03-20 2014-11-11 Nuance Communications, Inc. Method and system for text-to-speech synthesis with personalized voice
US8107978B2 (en) 2007-04-25 2012-01-31 Kirusa Inc. Addressing voice SMS messages
JP2009025658A (ja) * 2007-07-20 2009-02-05 Oki Electric Ind Co Ltd 音声合成装置、音声合成システム
US7996473B2 (en) * 2007-07-30 2011-08-09 International Business Machines Corporation Profile-based conversion and delivery of electronic messages
CN101378530A (zh) * 2007-08-30 2009-03-04 乐金电子(中国)研究开发中心有限公司 一种短信收发方法、系统及短信服务器
CN101593516B (zh) 2008-05-28 2011-08-24 国际商业机器公司 语音合成的方法和系统
CN101605307A (zh) * 2008-06-12 2009-12-16 深圳富泰宏精密工业有限公司 文本短信语音播放系统及方法
JP2010020166A (ja) * 2008-07-11 2010-01-28 Ntt Docomo Inc 音声合成モデル生成装置、音声合成モデル生成システム、通信端末、及び音声合成モデル生成方法
EP2205010A1 (en) * 2009-01-06 2010-07-07 BRITISH TELECOMMUNICATIONS public limited company Messaging
TWI415110B (zh) * 2009-03-02 2013-11-11 Ibm 用於語音合成之方法及系統
KR20110051580A (ko) * 2009-11-10 2011-05-18 엘지전자 주식회사 음성 프로파일을 이용한 맞춤형 tts 서비스 제공 방법 및 그 단말
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
JP5423970B2 (ja) * 2010-01-26 2014-02-19 日本電気株式会社 音声メール実現システム、音声メール実現サーバ、その方法及びそのプログラム
CN102655544A (zh) 2011-03-01 2012-09-05 联想(北京)有限公司 一种发起通信的方法及通信终端
CN102740244A (zh) * 2011-04-13 2012-10-17 深圳市汉讯通科技有限公司 一种语音短信系统及其实现方法
TWI574254B (zh) 2012-01-20 2017-03-11 華碩電腦股份有限公司 用於電子系統的語音合成方法及裝置
CN103856626A (zh) * 2012-11-29 2014-06-11 北京千橡网景科技发展有限公司 个性声音的定制方法和装置
CN103281683B (zh) 2013-06-08 2016-08-17 网易(杭州)网络有限公司 一种发送语音消息的方法及装置
CN103794206B (zh) * 2014-02-24 2017-04-19 联想(北京)有限公司 将文本数据转换为语音数据的方法以及终端设备

Also Published As

Publication number Publication date
KR20160017625A (ko) 2016-02-16
CN105556999A (zh) 2016-05-04
TW201633289A (zh) 2016-09-16
US20160210960A1 (en) 2016-07-21
EP3035718A1 (en) 2016-06-22
WO2016021937A1 (ko) 2016-02-11
JP6459080B2 (ja) 2019-01-30
TWI613641B (zh) 2018-02-01
EP3035718B1 (en) 2018-03-21
EP3035718A4 (en) 2017-04-05
JP2017531197A (ja) 2017-10-19
US9812121B2 (en) 2017-11-07

Similar Documents

Publication Publication Date Title
KR101703214B1 (ko) 문자 데이터의 내용을 문자 데이터 송신자의 음성으로 출력하는 방법
KR20090085376A (ko) 문자 메시지의 음성 합성을 이용한 서비스 방법 및 장치
US20100211389A1 (en) System of communication employing both voice and text
CN101576901B (zh) 搜索请求的产生方法
CN102945120B (zh) 一种基于儿童应用中的人机交互辅助系统及交互方法
CN110493123B (zh) 即时通讯方法、装置、设备及存储介质
CN102497391A (zh) 服务器、移动终端和提示方法
CN103546623A (zh) 用于发送语音信息及其文本描述信息的方法、装置与设备
JP2014106523A (ja) 音声入力対応装置及び音声入力対応プログラム
KR101277313B1 (ko) 의사소통 보조 장치 및 방법
CN202772966U (zh) 全球无障碍交流手机
CN109545203A (zh) 语音识别方法、装置、设备和存储介质
JP4670431B2 (ja) 音声感情認識によるメール作成機能付携帯端末、携帯端末システム、及び、音声感情認識によるメール作成方法
KR20160047244A (ko) 통번역 서비스 제공 방법, 휴대 단말 및 컴퓨터 판독 가능 매체
KR102170902B1 (ko) 실시간 다자 통역 무선 이어셋 및 이를 이용한 송수신 방법
EP1804237A1 (en) System and method for personalized text to voice synthesis
KR20130106235A (ko) 청각장애인을 위한 의사 소통장치
CN112118553A (zh) 一种无人机信息提示方法及装置
CN113761136A (zh) 对话处理、信息处理、模型训练方法、设备及存储介质
KR100747689B1 (ko) 통신기기 음성인식 문자변환시스템
Tarneja et al. Voice Commands Control Recognition Android Apps
JP6434799B2 (ja) メッセージ処理装置、端末装置、及びコンピュータプログラム
KR102359228B1 (ko) 맞춤형 대화 연결 서비스 제공방법
CN105516945A (zh) 一种语音短信发送系统及方法
KR101043823B1 (ko) 문자에 소리를 대응시켜 메세지를 제공하는 장치 및 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150804

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20150818

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20150804

Comment text: Patent Application

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20160630

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20170124

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20170131

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20170131

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20200116

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20200116

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20210118

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20211220

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20221226

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20231226

Start annual number: 8

End annual number: 8