[go: up one dir, main page]

KR20040091331A - Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology - Google Patents

Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology Download PDF

Info

Publication number
KR20040091331A
KR20040091331A KR1020030025134A KR20030025134A KR20040091331A KR 20040091331 A KR20040091331 A KR 20040091331A KR 1020030025134 A KR1020030025134 A KR 1020030025134A KR 20030025134 A KR20030025134 A KR 20030025134A KR 20040091331 A KR20040091331 A KR 20040091331A
Authority
KR
South Korea
Prior art keywords
avatar
natural language
client
text message
language processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020030025134A
Other languages
Korean (ko)
Inventor
함창호
Original Assignee
홍지선
함창호
주식회사 오이렌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍지선, 함창호, 주식회사 오이렌 filed Critical 홍지선
Priority to KR1020030025134A priority Critical patent/KR20040091331A/en
Priority to PCT/KR2004/000905 priority patent/WO2004095308A1/en
Publication of KR20040091331A publication Critical patent/KR20040091331A/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 자연어처리기술에 기반을 두어 국어의 접두어, 명사, 접미어, 채팅 신조어를 분석하여 클라이언트가 채팅 및 이동통신단말기의 문자 메시지에서 입력되는 문장의 내용을 아바타(Avatar) 눈, 코, 입의 추출과 명사 및 접미어에 필요한 동작을 추출하여 만화와 같은 의사전달의 수단으로서 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타의 모습과 동작의 변화를 통해서 상대 클라이언트가 보다 효과적으로 인지할 수 있도록 하는 자연어처리기술을 이용하여 입력된 문자메시지와 그 메시지 내용에 상응하는 아바타 표현 방법 및 시스템에 관한 것이다.The present invention analyzes the prefixes, nouns, suffixes and chat synonyms of Korean language based on natural language processing technology to view the contents of sentences inputted by a client in text messages of chat and mobile communication devices. Natural language processing that extracts the motions required for extraction, nouns, and suffixes, and delivers them to the other client as a means of communication, such as comics, so that the other client can recognize them more effectively through changes in the avatar's appearance and behavior. The present invention relates to a text message input by using a technology and an avatar expression method and system corresponding to the content of the message.

Description

자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법 및 시스템{Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology}Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology}

본 발명은 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법 및 시스템에 관한 것으로, 더욱 상세하게는 자연어처리기술에 기반을 두어 국어의 접두어, 명사, 접미어, 채팅 신조어를 분석하여 클라이언트가 채팅 및 이동통신단말기의 문자메시지에서 입력되는 문장의 내용을아바타(Avatar) 눈, 코, 입의 추출과 명사 및 접미어에 필요한 동작을 추출하여 만화와 같은 의사전달의 수단으로서 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타의 모습과 동작의 변화를 통해서 상대 클라이언트가 보다 효과적으로 인지할 수 있도록 하는 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법 및 시스템에 관한 것이다.The present invention relates to a text message input using a natural language processing technology and a method and system for representing an avatar corresponding to the contents of a sentence. More specifically, the present invention relates to prefixes, nouns, suffixes, and chat synonyms based on natural language processing techniques. The client extracts the contents of the sentences inputted from the text messages of the chat and mobile communication terminals, extracts the actions of Avatar eyes, noses and mouths, and the actions required for nouns and suffixes. A method and system for expressing an avatar corresponding to a text message and a sentence content input by using a natural language processing technology that allows a client to recognize the intention to be delivered to the client more effectively by changing the appearance and motion of the avatar. It is about.

자연어처리기술이란 인간의 지능적 언어소통 행위를 시뮬레이션하는 개념과 방법들에 관한 컴퓨터의 한 분야로서, 데이터베이스에서의 컴퓨터의 동작과는 다르게, 인공지능에서는 인간의 메타 지식(지식에 대한 지식)과 heuristic(인간의 경험적 지식)을 활용할 수 있다. "이순신 장군의 신발 크기는 얼마였는가?" 라는 질문에, 인간은 쉽게 "모른다"는 답을 하지만 컴퓨터는 자신이 가진 지식을 모두 검색한 후에야 답한다. 이것이 인간과 컴퓨터의 차이점중의 하나이다.Natural language processing technology is a branch of the computer for concepts and methods that simulate human intelligent language communication behavior. Unlike artificial computer operations in a database, artificial intelligence in human intelligence and heuristic Use human empirical knowledge. "What was the size of Yi Sun-sin's shoes?" Humans easily answer "I don't know," but the computer answers only after searching for all of its knowledge. This is one of the differences between humans and computers.

인간의 지능적 과정에는 학습(learning), 추론(inference), 교정(self-correction) 등으로 구성되어 이를 컴퓨터에 구현할 수 있도록 연구되어 왔다. 더구나 무의식 중에 얻어지는 상식은 그 양이 방대하여 컴퓨터로 구현하기가 어렵지만, 이에 관한 연구도 시도되고 있다. 그러나 인간이 걷고, 말하고, 자전거를 타고, 자동차 운전을 할 때, 의식적으로 심사숙고해서 의사결정을 하는 것이 아니다. 인간의 기술은 그 자신의 일부이므로 그 기술을 인지할 필요가 없다는 것은, 마치 그가 일상적 동작에서 그 자신의 몸을 움직이는 것을 낱낱이 알 필요가 없는 것과 마찬가지이다. 따라서 인간을 궁극적으로 모방하려는 시도는 많은 한계를 가지고 있다.The human intelligent process consists of learning, inference, and self-correction, and has been studied to be implemented in a computer. Moreover, although the amount of common sense obtained during unconsciousness is huge, it is difficult to realize by computer, but research on this is also attempted. But when a person walks, talks, rides a bike, or drives a car, it is not consciously thinking and making decisions. Since human technology is part of his own, he does not need to be aware of it, just as he does not need to know every single thing he moves his body in everyday motion. Thus, attempts to ultimately imitate humans have many limitations.

자연언어처리(natural language processing)분야에서는 이미 자동번역기, 음성 인식기, OCR과 같은 시스템을 실용화하며 사용되고 있다.In the field of natural language processing, systems such as an automatic translator, a speech recognizer, and an OCR are already being used.

초기에 대부분의 게임이나 채팅 서비스 등에서는 주로 몇 가지의 캐릭터를 조합하거나 이미 완성되어 있는 아바타를 제공하기도 하였는데, 일반적으로 사용자가 아바타를 서비스회사에서 제공하는 아바타 중에서 본인의 취향이나 개성을 표현할 만한 아바타를 선택하여 사용하도록 하였다.In the early days, most games and chat services mainly provided a combination of a few characters or provided already completed avatars. Generally, avatars that can express one's taste or personality among avatars provided by a service company. It was selected to use.

최근에는 그래픽 기술 등의 발전으로 아바타를 구성하는 각 아이템(눈, 코, 입, 헤어스타일, 복장 등)을 상당수 제공함으로써, 아이템의 조합 가능한 경우의 수가 무한할 정도로 늘어나 클라이언트들이 보다 더 다양하고 차별된 아바타를 만들어 사용할 수 있게 되었다.In recent years, with the development of graphic technology and the like, each item constituting the avatar (eyes, nose, mouth, hairstyle, clothes, etc.) is provided with a large number, and the number of possible combinations of items is infinitely increased, and the clients are more diverse and differentiated. Avatar can be created and used.

그러나, 상기 기술한 아바타는 단순히 클라이언트가 E-Mail, SMS(Short Message Service) 및 채팅 등을 통해 입력 가능한 하나의 의사표현 수단에 불과하여 그 활용도가 극히 제한적이었고 아바타 역시 클라이언트 본인이 초기에 설정한 이미지나 아바타를 구성하고 있는 각 아이템들을 변경하지 않는 이상 언제나 같은 모습으로 존재하므로 식상해지기 쉽고, 아이템을 바꾸지 않는 한 감정 및 동작 등의 표현할 수 없다는 문제점이 있으며, 또 다른 방법으로 공개특허 제2000-0072569호(2000.12.05)에는 원하는 감정 및 동작을 미리 선택 후 아바타를 표현하는 방법이 기재되어 있으나 이 역시 감정 및 동작의 표현이 제한적이라는 문제점이 제기 된다.However, the avatar described above is merely a means of expressing a client that can be input through E-Mail, Short Message Service (SMS), chat, etc., and its use is extremely limited. As long as the items constituting the image or avatar are not changed, they are always present in the same shape, and thus, they are easy to get sick, and there is a problem in that emotions and actions cannot be expressed unless the items are changed. 0072569 (2000.12.05) describes a method of expressing an avatar after preselecting desired emotions and actions, but this also raises a problem that expression of emotions and actions is limited.

또 다른 방법으로는 공개특허 제2003-0026506호(2003.04.03)에는 간략히 이모티콘이나 몇몇 단어를 인식하는 수준(예 : ^^, _?_?, @.@, 하하)에 있으나 이 역시 감정의 표현이 제한적이며 동작의 표현을 할 수 없다.In another method, Korean Patent Laid-Open Publication No. 2003-0026506 (2003.04.03) has a level of recognition of emoticons or some words (for example, ^^, _? _ ?, @. @, Haha). The expression is limited and cannot express the action.

상기와 같은 제반 문제점들을 해결하기 위한 본 발명의 목적은 유무선 인터넷상에서 아바타를 이용하여 이루어지는 모든 문자메시지 입력시 클라이언트로부터 입력되는 문장을 자연어처리기술로 문장의 해석 및 파악하는 수단과, 상기 해석 및 파악된 문장을 아바타 이미지를 추출하는 수단에서 아바타의 감정의 표현과 동작을 생성하여 유·무선 인터넷상에서 클라이언트가 입력한 문자메시지와 그 메시지 내용에 맞는 감정 및 동작이 표현이 가능한 아바타를 상대 클라이언트에게 전송하는 방법 및 시스템을 제공함에 있다.An object of the present invention for solving the above problems is a means for interpreting and grasping sentences inputted from a client using natural language processing technology when inputting all text messages using avatars on the wired or wireless Internet, and the interpretation and grasping. By means of extracting the avatar sentence from the avatar image, the emotion expression and action of the avatar are generated, and the text message input by the client and the avatar capable of expressing the emotion and action corresponding to the content of the message are transmitted to the opposite client on the wired / wireless internet. To provide a method and system.

도 1은 본 발명의 실시예 따른 아바타를 표현하기 위한 아바타 서버, 자연어처리 서버를 구비한 서버와 클라이언트간의 간단한 블록도이다.1 is a simple block diagram of an avatar server for expressing an avatar and a server having a natural language processing server and a client according to an embodiment of the present invention.

도 2는 본 발명의 실시예 따른 아바타를 표현하기 위한 서버의 주 구성도이다.2 is a main configuration diagram of a server for representing an avatar according to an embodiment of the present invention.

도 3은 본 발명의 실시예 따른 아바타가 표현되는 전체적인 과정을 간단히 나타낸 흐름도이다.3 is a flowchart briefly illustrating an overall process of representing an avatar according to an embodiment of the present invention.

도 4는 본 발명의 실시예 따른 아바타를 표현하고자 하는 서버의 입장에서 클라이언트의 문자메시지 입력에서부터 아바타가 생성되기까지의 과정을 간단하게 나타낸 흐름도이다.FIG. 4 is a flowchart illustrating a process from inputting a text message of a client to generating an avatar from a server's point of view of representing an avatar according to an embodiment of the present invention.

도 5는 본 발명의 실시예 따른 자연어처리가 적용된 클라이언트의 이동통신단말기의 아바타 메시지가 상대방 클라이언트의 이동통신단말기에 표시된 결과화면 예시도이다.5 is an exemplary view of a result screen of an avatar message of a mobile communication terminal of a client to which natural language processing is applied according to an embodiment of the present invention displayed on a mobile communication terminal of a counterpart client.

*도면의 주요부분에 대한 설명** Description of the main parts of the drawings *

100 : 자연어인식 서버 105 : 아바타 서버100: natural language recognition server 105: avatar server

110 : 클라이언트 115 : 상대 클라이언트110: Client 115: Relative Client

200 : 자연어 연동부 205 : 아바타 이미지 추출부200: natural language linkage unit 205: avatar image extraction unit

210 : 아바타 이미지 적용부 215 : 아바타 제어부210: avatar image application unit 215: avatar control unit

220 : 접두어 인식부 225 : 명사 인식부220: prefix recognition unit 225: noun recognition unit

230 : 접미어 인식부 235 : 신조어 인식부230: suffix recognition unit 235: new words recognition unit

240 : 아바타 이미지 데이터베이스240: avatar image database

245 : 등록 아바타 이미지 데이터베이스245: Register Avatar Image Database

250 : 자연어 처리 데이터베이스 255 : 중앙 제어부250: natural language processing database 255: central control unit

500 : 클라이언트의 이동통신단말기의 입력화면500: input screen of the mobile communication terminal of the client

505 : 상대 클라이언트의 이동통신단말기의 결과화면505: result screen of the mobile communication terminal of the other client

상기한 목적을 달성하기 위하여, 본 발명의 실시예에 따른 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법은 클라이언트로부터 입력되는 문자메시지의 문장을 자연어처리 서버에서 각 인식부를 통해 자연어를 검색하고 자연어 처리 데이터베이스와 연동하여 검색된 문자메시지의 내용을 분석하는 제1 과정과; 상기 제1 과정에서 분석된 문자메시지의 내용에 맞게 아바타 서버에서 이미 등록된 아바타 데이터베이스를 참조하여 분석된 내용에 해당하는 아바타 이미지를 추출하는 제2 과정 및; 상기 제2 과정에서 추출된 아바타 이미지를 클라이언트의 기 등록된 아바타에 적용시키는 제3 과정; 를 포함한다.In order to achieve the above object, the text message input by using the natural language processing technology according to an embodiment of the present invention and the avatar expression method corresponding to the content of the sentence in each of the sentences of the text message input from the client in the natural language processing server A first step of searching for a natural language through a recognition unit and analyzing contents of the retrieved text message in association with a natural language processing database; A second step of extracting an avatar image corresponding to the analyzed content by referring to the avatar database already registered in the avatar server according to the content of the text message analyzed in the first step; A third step of applying the avatar image extracted in the second step to a pre-registered avatar of the client; It includes.

한편, 상기한 제1 과정에는 클라이언트 본인의 아바타가 없는 경우 본인의 아바타를 생성하는 단계를 더 포함한다.Meanwhile, the first process may further include generating an avatar of the client when there is no avatar of the client.

본 발명의 실시예에 따른 자연어처리기술을 이용하여 입력 문자메시지 내용에 상응하는 아바타의 표현 시스템은 클라이언트로부터 입력되는 문자메시지의 내용에 포함된 자연어들을 검색하고 확인하는 자연어 인식부와, 상기 자연어 인식부에서 자연어처리 데이터베이스와 연동하여 추출된 문자메시지의 내용을 분석 파악하는 자연어 처리부와를 포함하는 자연어처리 서버와; 상기 자연어처리 서버의 자연어 처리부에서 파악된 클라이언트의 입력된 문자메시지의 내용을 수신하는 자연어 연동부와, 상기 자연어 연동부에서 전송되는 문자메시지에 해당하는 아바타 이미지들을 아바타 이미지 데이터베이스로부터 추출하는 아바타 이미지 추출부와, 상기 아바타 이미지 추출부로부터 추출된 아바타 이미지들을 아바타 이미지 데이터베이스에 기 등록된 상기 클라이언트의 아바타에 적용하는 아바타 이미지 적용부와, 상가 클라이언트의 자연어 처리가 적용된 아바타를 제어하며 상기 클라이언트가 입력한 문자메시지의 의미를 연속동작의 모션을 관리하는 아바타 제어부와를 포함하는 아바타 서버와; 상기 자연어처리 서버와 아바타 서버를 제어하고 각 서버간에 인터페이스하는 중앙 제어부와; 를 구비하여 이루어지는 것을 특징으로 한다.An avatar expression system corresponding to an input text message content using a natural language processing technology according to an embodiment of the present invention includes a natural language recognition unit for searching for and confirming natural words included in content of a text message input from a client, and the natural language recognition. A natural language processing server including a natural language processing unit configured to analyze and grasp the contents of the text message extracted by interworking with the natural language processing database; Natural image interworking unit for receiving the content of the input text message of the client identified by the natural language processing unit of the natural language processing server, and avatar image extraction to extract avatar images corresponding to the text message transmitted from the natural language linker from the avatar image database And an avatar image applying unit for applying the avatar images extracted from the avatar image extractor to the avatar of the client previously registered in the avatar image database, and controlling the avatar to which the natural language processing of the shop client is applied. An avatar server including a meaning of a text message and an avatar controller for managing the motion of the continuous operation; A central control unit controlling the natural language processing server and the avatar server and interfacing between the servers; It characterized by comprising a.

따라서, 상기한 구성에 의하면, 본 발명의 아바타의 표현 방법은 본 발명을 유치하는 이동통신사 및 웹 사이트의 유·무선데이터통신을 통해 문자메시지를 실시하는 클라이언트로부터 입력되는 문장 내용을 분석하여 아바타의 얼굴 표정 및동작을 추출하고, 그 추출된 아바타 동작 이미지들을 상기 클라이언트의 아바타에 적용함으로써, 클라이언트가 입력한 문자메시지와 본인의 아바타와 연동시켜 상기 감정 및 동작이 구현된 아바타를 통해서, 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타 감정 표현 및 동작 변화를 통해서 상대 클라이언트가 보다 효과적으로 인지 할 수 있도록 한다.Therefore, according to the above configuration, the avatar expression method of the present invention analyzes the contents of the sentences inputted from the client performing the text message through the wired / wireless data communication of the mobile communication company and the web site that attracts the present invention. By extracting facial expressions and motions and applying the extracted avatar motion images to the avatars of the client, the client can interact with the text message input by the client and the avatars of the client to the other client through the avatars embodying the emotions and motions. The client's intention to convey can be perceived more effectively by expressing his / her avatar emotion and changing his behavior.

본 발명의 아바타 표현 시스템 구성은 이동통신단말기 혹은 인터넷상에서 클라이언트로부터 입력되는 문자메시지를 파악하여 상기 클라이언트의 아바타에 해당하는 의미를 표현하기 위해 아바타의 감정 표현 및 동작을 적용시키기 위해 자연어처리 서버 및 아바타 서버와 상기 이동통신단말기 혹은 인터넷을 통해 입력되는 하나 이상의 클라이언트와로 구성되어 있다.Avatar expression system configuration of the present invention is a natural language processing server and avatar to apply the emotional expression and operation of the avatar to grasp the text message input from the client on the mobile communication terminal or the Internet to express the meaning corresponding to the avatar of the client It is composed of a server and one or more clients input through the mobile communication terminal or the Internet.

또한, 본 발명은 상기와 같은 시스템의 운용을 통해 하기에 기술하는 각 단계들을 거쳐 이동통신단말기 혹은 인터넷 상의 아바타의 감정 표현 및 동작 표현 방법에 있어서 자연어처리기술에 의한 제어 방법을 제공한다.In addition, the present invention provides a control method using natural language processing technology in the emotional expression and motion expression method of the avatar on the mobile communication terminal or the Internet through the steps described below through the operation of the system as described above.

즉, 이동통신단말기 혹은 인터넷 상에서 클라이언트로부터 입력되는 문자메시지에 표현 가능한 감정 및 동작의 문장을 파악하여 상기 클라이언트의 아바타에 해당하는 의미를 나타내는 아바타의 감정 및 동작을 적용시키기 위해 자연어처리 서버, 아바타 서버를 통해 문자메시지를 입력하나, 적어도 하나 이상의 클라이언트로 구성되어 있으므로, 본 발명을 유치하는 이동통신사 및 웹 사이트의 유·무선데이터통신을 통해 아바타를 포함하는 문자메시지를 실시하는 클라이언트로부터 입력되는 문장을 자연어처리 서버에서 각 인식부(접두어 인식부, 명사 인식부, 접미어인식부, 신조어 인식부, 데이터 베이스)를 통해 분석하는 과정과, 이 분석한 자료를 아바타 서버(아바타 연동부, 아바타 이미지 추출부, 아바타 이미지 적용부, 아바타 제어부)에서 이미 구비된 아바타 데이터베이스를 참조하여 표현 가능한 감정 및 동작을 추출하는 과정 및 추출된 아바타 이미지들을 상기 클라이언트의 기 등록된 아바타에 적용하는 과정 등을 포함하여 이루어진다.That is, the natural language processing server and the avatar server to grasp a sentence of emotion and action that can be expressed in the text message input from the client on the mobile communication terminal or the Internet and apply the emotion and action of the avatar representing the meaning corresponding to the avatar of the client. The text message is input through the text message. However, since the text message is composed of at least one client, the text input from the client performing the text message including the avatar is performed through wired / wireless data communication of the mobile communication company and the web site. The natural language processing server analyzes each recognition unit (prefix recognition unit, noun recognition unit, suffix recognition unit, new word recognition unit, database), and analyzes the analyzed data by avatar server (avatar interworking unit, avatar image extraction unit). , Avatar image applier, avatar controller) And a process of extracting emotions and motions that can be expressed with reference to the avatar database, and applying the extracted avatar images to the registered avatar of the client.

또한, 상기 아바타는 클라이언트 본인을 의미할 수 있는 모든 시각적 이미지 등을 포함할 수 있음을 명기하는 바이다.In addition, it is noted that the avatar may include all visual images that may mean the client himself.

이하, 본 발명의 바람직한 실시예에 대하여 첨부도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

우선, 각 도면의 구성요소들에 대해 참조부호를 부가함에 있어서, 동일한 구성요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호로 표기되었음에 유의하여야 한다.First, in adding reference numerals to the components of each drawing, it should be noted that the same components are denoted by the same reference numerals as much as possible even if they are displayed on different drawings.

또한, 하기의 설명에서는 본 발명의 실시예를 설명하기 위하여 구체적인 구성소자 등과 같은 많은 특정사항들이 도시되어 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정사항들 없이도 본 발명이 실시될 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게 자명하다 할 것이다.In addition, in the following description, in order to explain the embodiments of the present invention, specific details such as specific elements are shown, which are provided to help a more general understanding of the present invention, and the present invention may be practiced without these specific details. It will be apparent to those skilled in the art.

그리고, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

또한, 본 발명에 보다 더 충실하도록 하기 위해서, 본 발명의 취지를 벗어나지 않는 범위 내에서 변경이나 변형이 있을 수 있음을 명기하는 바이다.In addition, in order to be more faithful to the present invention, it is noted that changes or modifications can be made within the scope without departing from the spirit of the present invention.

도 1은 본 발명의 실시예 따른 아바타를 표현하기 위한 아바타 서버, 자연어처리 서버를 구비한 서버와 클라이언트간의 간단한 블록도이다.1 is a simple block diagram of an avatar server for expressing an avatar and a server having a natural language processing server and a client according to an embodiment of the present invention.

도 1을 참조하여, 본 발명은 클라이언트(110)(115)간에 실시하는 문자메시지의 문장 내용을 분석하여 메시지를 전송 받는 클라이언트(115)들이 인식할 수 있게 해당 클라이언트(110)의 아바타의 이미지와, 상기 입력된 문장의 의미와 동일 또는 유사한 감정 및 동작을 변화시키는 것으로써, 기본적으로 자연어처리 서버(100), 아바타 서버(105)등을 구비 또는 별도로 연동하여 본 발명을 실시한다.Referring to FIG. 1, the present invention analyzes the sentence content of a text message performed between the client 110 and 115 and recognizes the image of the avatar of the client 110 so that the client 115 receiving the message can recognize the text. By changing the emotions and actions that are the same as or similar to the meaning of the input sentences, the present invention is basically provided with or separately connected with the natural language processing server 100 and the avatar server 105.

자연어처리 서버(100)는 입력 가능한 다수의 국어의 접두어, 명사, 접미어, 신조어를 데이터베이스로 저장 및 보유하고 있고, 상기 국어의 접두어, 명사, 접미어, 신조어는 자연어처리기술에 필요한 의미와 내용이 매칭되어 데이터베이스에 저장되어진다.The natural language processing server 100 stores and holds prefixes, nouns, suffixes, and new words of a plurality of Korean languages that can be input. And stored in the database.

아바타 서버(105)는 클라이언트(110)가 입력한 문장에 맞게 아바타를 제공 및 관리하는 기능과 상대 클라이언트(115)에게 아바타와 메시지 제공을 하며, 자연어처리 서버(100)와 연동하여 동작을 실시하게 된다.The avatar server 105 provides a function of providing and managing an avatar according to a sentence input by the client 110, providing an avatar and a message to the counterpart client 115, and interoperating with the natural language processing server 100. do.

도 2는 본 발명의 실시예 따른 아바타를 표현하기 위한 서버의 주 구성도이다.2 is a main configuration diagram of a server for representing an avatar according to an embodiment of the present invention.

도 2를 참조하여, 서버는 자연어처리 서버(100), 아바타 서버(105)로 구성되어 있으며, 중앙제어부(255)를 통해 서버 내에서 유용한 데이터를 교환 및 송·수신하여 본 발명을 실시하도록 한다.Referring to FIG. 2, the server is composed of a natural language processing server 100 and an avatar server 105. The central control unit 255 exchanges, transmits and receives useful data in the server to implement the present invention. .

자연어처리 서버(100)는 접두어 인식부(220), 명사 인식부(225), 접미어 인식부(230), 신조어 인식부(235), 자연어 처리부(260) 및 데이터베이스(250)등으로 구성되어 있다.The natural language processing server 100 includes a prefix recognizer 220, a noun recognizer 225, a suffix recognizer 230, a coinword recognizer 235, a natural language processor 260, a database 250, and the like. .

접두어 인식부(220)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 접두어를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 접두어를 참조한다.The prefix recognition unit 220 searches for and checks a prefix included in a sentence input by the client 110 executing a text message, and the client 110 previously stored in the natural language processing database 250 is input. Refer to as many prefixes as possible.

명사 인식부(225)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 명사를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 명사를 참조한다.The noun recognition unit 225 searches for and checks the nouns included in the sentences input by the client 110 that executes the text message, and is input by the client 110 previously stored in the natural language processing database 250. Refers to as many nouns as possible.

접미어 인식부(230)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 접미어를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 접미어를 참조한다.The suffix recognizer 230 searches for and checks the suffixes included in the sentences input by the client 110 executing the text message, and is input by the client 110 previously stored in the natural language processing database 250. Refer to as many suffixes as possible.

신조어 인식부(235)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 신조어를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 신조어를 참조한다.The new word recognition unit 235 searches and confirms a new word included in a sentence input by the client 110 executing a text message, and is input by the client 110 previously stored in the natural language processing database 250. See a number of possible new words.

자연어 처리부(260)는 상기 각 인식부(220,225,230,235)에서 데이터베이스Natural language processing unit 260 is a database in each of the recognition unit (220, 225, 230, 235)

(250)와 연동하여 추출된 문자메시지의 의미하는 해당 내용을 파악하는 역할을 한다.In conjunction with (250) serves to grasp the corresponding content of the extracted text message.

아바타 서버(105)는 자연어 연동부(200), 아바타 이미지 추출부(205), 아바타 이미지 적용부(210), 아바타 제어부(215) 및 아바타 이미지 데이터베이스(240), 등록 아바타 이미지 데이터베이스(245) 등으로 구성되어 진다.The avatar server 105 may include a natural language linker 200, an avatar image extractor 205, an avatar image applier 210, an avatar controller 215, an avatar image database 240, and a registered avatar image database 245. It consists of

자연어 연동부(200)는 자연어처리 서버(100)의 자연어 처리부(260)에서 파악된 클라이언트(110)가 입력한 문장의 의미를 수신하여 아바타 이미지 추출부(205)로 전송하는 역할을 한다.The natural language linker 200 receives a meaning of a sentence input by the client 110 identified by the natural language processor 260 of the natural language processing server 100 and transmits the meaning of the sentence to the avatar image extractor 205.

아바타 이미지 추출부(205)는 상기 문자메시지의 의미에 해당하는 아바타 이미지들을 아바타 이미지 데이터베이스(240)로부터 추출하는 역할을 한다.The avatar image extractor 205 extracts avatar images corresponding to the meaning of the text message from the avatar image database 240.

아바타 이미지 적용부(210)는 추출된 문자메시지의 의미를 상기 아바타가 의미를 표현하도록 명령을 전달하는 명령어로 변환시킨 후, 프로그램에 따라 아바타 이미지를 자동 전환시킨다.The avatar image applying unit 210 converts the meaning of the extracted text message into a command for transmitting a command for the avatar to express the meaning, and automatically converts the avatar image according to a program.

아바타 제어부(215)는 상기 클라이언트(110)의 자연어처리가 적용된 아바타를 제어하는 역할을 하며, 상기 클라이언트(110)가 입력한 문자메시지의 의미를 연속동작의 모션을 관리한다.The avatar controller 215 serves to control the avatar to which the natural language processing of the client 110 is applied, and manages the motion of the continuous operation based on the meaning of the text message input by the client 110.

아바타 이미지 데이터베이스(240)는 클라이언트가(110)가 입력한 문자메시지의 의미를 나타내기에 필요한 다수의 아바타 이미지가 저장되어 있는 데이터베이스이다.The avatar image database 240 is a database in which a plurality of avatar images necessary for displaying the meaning of the text message input by the client 110 are stored.

등록 아바타 이미지 데이터베이스(245)는 클라이언트(110)의 기본 아바타가저장되어 있는 곳으로써, 클라이언트가(110)가 입력한 문자메시지의 내용을 클라이언트(110) 본인의 아바타를 통해 나타내기 위해 추출된 아바타 이미지(눈, 코, 입, 동작 등)를 적용시키는 원본 아바타이다.The registered avatar image database 245 is a place where the default avatar of the client 110 is stored. The avatar avatar database is extracted to represent the contents of the text message input by the client 110 through the avatar of the client 110. Original avatar that applies an image (eyes, nose, mouth, motion, etc.).

중앙 제어부(255)는 각 서버(자연어처리 서버, 아바타 서버)를 제어하고 서버간의 데이터 교환 등을 주도하는 등의 인터페이스 역할을 한다.The central control unit 255 serves as an interface for controlling each server (natural language processing server, avatar server) and leading data exchange between the servers.

이와 같이 클라이언트(110)가 이동통신단말기 혹은 인터넷을 통해 문자메시지를 입력하게 되면 자연어처리 서버(100)에서 문자메시지의 의미를 확인하게 되고, 파악된 의미를 그에 해당하는 아바타 이미지를 추출하게 되며, 추출된 아바타 이미지를 상기 클라이언트(110)의 아바타에 적용을 하게 된다. 이로 인해 상기 클라이언트(110)는 상대 클라이언트(115)에게 보다 더 효과적인 의사전달 할 수 있다.As such, when the client 110 inputs a text message through a mobile communication terminal or the Internet, the natural language processing server 100 checks the meaning of the text message, and extracts the avatar image corresponding to the identified meaning. The extracted avatar image is applied to the avatar of the client 110. This allows the client 110 to communicate more effectively to the counterpart client 115.

도 3은 본 발명의 실시예 따른 아바타가 표현되는 전체적인 과정을 간단히 나타낸 흐름도이다.3 is a flowchart briefly illustrating an overall process of representing an avatar according to an embodiment of the present invention.

도 3을 참조하여, 본 발명을 포함하는 이동통신단말기 및 인터넷에서 문자메시지를 입력하면(300), 본 발명이 구현하고자 하는 아바타 분석이 시작된다. 이 시점에서 상기 클라이언트가(110) 본인의 아바타를 이미 소유하고 있다면(305), 문자메시지 분석(310)이 시작되고, 만약 본인의 아바타가 없다면 본인의 아바타를 생성하게 된다(325).Referring to FIG. 3, when a text message is input from the mobile communication terminal and the Internet including the present invention (300), an avatar analysis to be implemented by the present invention is started. At this point, if the client 110 already owns his avatar (305), the text message analysis 310 is started, and if the avatar is not there, the avatar is generated (325).

상기 입력된 문자메시지에 의미하는 아바타 이미지를 추출하여(315), 상기 클라이언트(110) 본인의 아바타에 적용시키게 된다(320).The avatar image meaning the input text message is extracted (315) and applied to the avatar of the client 110 (320).

도 4는 본 발명의 실시예 따른 아바타를 표현하고자 하는 서버의 입장에서 클라이언트의 문자메시지 입력에서부터 아바타가 생성되기까지의 과정을 간단하게 나타낸 흐름도이다.FIG. 4 is a flowchart illustrating a process from inputting a text message of a client to generating an avatar from a server's point of view of representing an avatar according to an embodiment of the present invention.

도 4를 참조하여, 클라이언트(110) 자신이 상대 클라이언트(115)에게 전달 하고자 하는 문자메시지를 입력하면(400), 자연어처리 서버(100)는 상기 문자메시지의 접두어를 검색하여 분석하고(405), 명사를 검색하여 분석하고(410), 접미어를 검색하여 분석하고(415), 신조어를 검색하여 분석하여(420), 자연어 처리를 한다(425).Referring to FIG. 4, when the client 110 itself inputs a text message to be transmitted to the counterpart client 115 (400), the natural language processing server 100 searches for and analyzes a prefix of the text message (405). Search and analyze nouns (410), search and analyze suffixes (415), and search and analyze new words (420), and perform natural language processing (425).

문자메시지 내용 중 자연어 처리가 가능하면(430) 추출된 자연어 처리 결과를 아바타 서버(105)의 자연어 연동부(200)로 전송하여(435), 문자메시지의 내용과 일치하는 감정과 동작의 아바타를 추출한다(440). 클라이언트(110)에 기 존재하는 아바타에 상기에 추출된 아바타를 삽입하고(445), 적용된 아바타를 생성하게 된다(450).If natural language processing is possible among the text message contents (430), the extracted natural language processing result is transmitted to the natural language linkage unit 200 of the avatar server 105 (435), and the avatar of emotions and actions that match the contents of the text message is displayed. Extract (440). The extracted avatar is inserted into the avatar already existing in the client 110 (445), and the applied avatar is generated (450).

생성 후 연속동작의 아바타가 있을 시(455) 상기 아바타 처리를 종료 시까지 생성하며, 생성 종료 시 연속동작의 아바타 생성 및 문자메시지 내용을 삽입한다(460).If there is an avatar of continuous operation after generation (455), the avatar processing is generated until the end of the avatar processing, and when the generation of the avatar is completed, the avatar is generated and a text message is inserted (460).

문자메시지의 내용 중 자연어 처리가 불가능 시에는(430) 기본 아바타를 생성 후 문자메시지를 삽입한다(465).When natural language processing is not possible among the contents of the text message (430), a text message is inserted after generating a basic avatar (465).

도 5는 본 발명의 실시예 따른 자연어처리가 적용된 클라이언트의 이동통신단말기의 아바타 메시지가 상대방 클라이언트의 이동통신단말기에 표시된 결과화면예시도이다.FIG. 5 is an exemplary view of a result screen of an avatar message of a mobile communication terminal of a client to which a natural language processing is applied according to an embodiment of the present invention.

도 5를 참조하여, 본 발명을 실시함에 있어서, 클라이언트(110)는 본인의 이동통신단말기 혹은 인터넷을 통하여 문자메시지를 입력하게 된다(500). 이를 본 발명의 자연어처리기술로 아바타를 처리하여 상대 클라이언트(115)에 표시된 결과 화면이다(505).Referring to FIG. 5, in the practice of the present invention, the client 110 inputs a text message through its mobile communication terminal or the Internet (500). This is a result screen displayed on the counterpart client 115 by processing the avatar using the natural language processing technology of the present invention (505).

문자메시지의 내용 중 "우산 가지고 가"라는 메시지를 입력하면(500) 이를 클라이언트(110)의 기본 아바타에 "우산"의 모양과 "가지고 가"라는 표현이 아바타로 상대 클라이언트(115)의 이동통신단말기 혹은 인터넷 화면에 표시된 예이다(505).When the message "Take Umbrella" is input among the contents of the text message (500), the shape of "Umbrella" and the expression "Take" are displayed on the default avatar of the client 110 as the avatar. This is an example displayed on the terminal or the Internet screen (505).

한편, 본 발명의 상세한 설명에서 구체적인 실시예를 들어 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다.On the other hand, while the specific embodiments have been described in the detailed description of the present invention, various modifications are possible without departing from the scope of the present invention.

상술한 바와 같이 본 발명에 따르면, 클라이언트는 이동통신단말기 혹은 인터넷을 통해 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타의 모습과 동작의 변화를 통해서 쉽게 사실적으로 표현할 수 있으므로 기존의 아바타 채팅 혹은 메시지 전송보다 흥미 있고, 확실하게 본인의 의사를 전달 할 수 있는 이점이 있다.As described above, according to the present invention, since the client can easily and realistically express the intention to deliver to the other client through the mobile communication terminal or the Internet through the change of the appearance and operation of the avatar, the existing avatar chat or message transmission. There is an advantage that can be more interesting and sure to communicate your opinion.

Claims (3)

이동통신단말기 혹은 유·무선 인터넷상에서 아바타를 표현하는 방법에 있어서,In a method of representing an avatar on a mobile communication terminal or a wired or wireless Internet, 클라이언트로부터 입력되는 문자메시지의 문장을 자연어처리 서버에서 각 인식부를 통해 자연어를 검색하고 자연어 처리 데이터베이스와 연동하여 검색된 문자메시지의 내용을 분석하는 제1 과정과;A first step of retrieving the text of the text message input from the client through a natural language processing server through each recognition unit and analyzing the content of the retrieved text message in association with the natural language processing database; 상기 제1 과정에서 분석된 문자메시지의 내용에 맞게 아바타 서버에서 이미 등록된 아바타 데이터베이스를 참조하여 분석된 내용에 해당하는 아바타 이미지를 추출하는 제2 과정 및;A second step of extracting an avatar image corresponding to the analyzed content by referring to the avatar database already registered in the avatar server according to the content of the text message analyzed in the first step; 상기 제2 과정에서 추출된 아바타 이미지를 클라이언트의 기 등록된 아바타에 적용시키는 제3 과정; 를 포함하는 것을 특징으로 하는 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법.A third step of applying the avatar image extracted in the second step to a pre-registered avatar of the client; A text message input using a natural language processing technology comprising a text message and the avatar expression method corresponding to the content of the sentence. 제 1항에 있어서, 제1 과정에는 클라이언트 본인의 아바타가 없는 경우 본인의 아바타를 생성하는 단계를 더 포함하는 것을 특징으로 하는 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법.The method of claim 1, wherein the first process further comprises generating an avatar of the client when there is no avatar of the client. The avatar corresponding to the text message and the sentence content is input using the natural language processing technique. Express way. 이동통신단말기 혹은 유·무선 인터넷상에서 아바타를 표현하는 시스템에 있어서,In a system for representing an avatar on a mobile communication terminal or a wired or wireless Internet, 클라이언트로부터 입력되는 문자메시지의 내용에 포함된 자연어들을 검색하고 확인하는 자연어 인식부(220,225,230,235)와, 상기 자연어 인식부에서 자연어처리 데이터베이스(250)와 연동하여 추출된 문자메시지의 내용을 분석 파악하는 자연어 처리부(260)와를 포함하는 자연어처리 서버(100)와;Natural language recognition unit 220, 225, 230, 235 to search and confirm the natural language included in the content of the text message input from the client, and natural language to analyze the content of the text message extracted in conjunction with the natural language processing database 250 in the natural language recognition unit A natural language processing server 100 including a processing unit 260; 상기 자연어처리 서버(100)의 자연어 처리부(260)에서 파악된 클라이언트의 입력된 문자메시지의 내용을 수신하는 자연어 연동부(200)와, 상기 자연어 연동부에서 전송되는 문자메시지에 해당하는 아바타 이미지들을 아바타 이미지 데이터베이스(240)로부터 추출하는 아바타 이미지 추출부(205)와, 상기 아바타 이미지 추출부로부터 추출된 아바타 이미지들을 아바타 이미지 데이터베이스(245)에 기 등록된 상기 클라이언트의 아바타에 적용하는 아바타 이미지 적용부(210)와, 상가 클라이언트의 자연어 처리가 적용된 아바타를 제어하며 상기 클라이언트가 입력한 문자메시지의 의미를 연속동작의 모션을 관리하는 아바타 제어부(215)와를 포함하는 아바타 서버(105)와;Natural language interworking unit 200 for receiving the content of the input text message of the client identified by the natural language processing unit 260 of the natural language processing server 100 and avatar images corresponding to the text message transmitted from the natural language interlocking unit. An avatar image extractor 205 extracting from the avatar image database 240 and an avatar image applying unit applying the avatar images extracted from the avatar image extractor to an avatar of the client previously registered in the avatar image database 245. An avatar server 105 for controlling an avatar to which the natural language processing of the mall client is applied, and an avatar controller 215 for managing the motion of the continuous motion of the text message input by the client; 상기 자연어처리 서버(100)와 아바타 서버(105)를 제어하고 각 서버간에 인터페이스하는 중앙 제어부(255)와; 를 구비하여 이루어지는 것을 특징으로 하는 자연어처리기술을 이용하여 입력 문자메시지 내용에 상응하는 아바타의 표현 시스템.A central controller 255 for controlling the natural language processing server 100 and the avatar server 105 and interfacing between the servers; Expression system of the avatar corresponding to the input text message content using a natural language processing technology, characterized in that comprising a.
KR1020030025134A 2003-04-21 2003-04-21 Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology Ceased KR20040091331A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020030025134A KR20040091331A (en) 2003-04-21 2003-04-21 Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology
PCT/KR2004/000905 WO2004095308A1 (en) 2003-04-21 2004-04-20 Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030025134A KR20040091331A (en) 2003-04-21 2003-04-21 Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology

Publications (1)

Publication Number Publication Date
KR20040091331A true KR20040091331A (en) 2004-10-28

Family

ID=33308286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030025134A Ceased KR20040091331A (en) 2003-04-21 2003-04-21 Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology

Country Status (2)

Country Link
KR (1) KR20040091331A (en)
WO (1) WO2004095308A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9665563B2 (en) 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
US11069108B2 (en) 2019-10-23 2021-07-20 Tata Consultancy Services Limited Method and system for creating an intelligent cartoon chat strip based on dynamic content

Families Citing this family (230)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9105014B2 (en) 2009-02-03 2015-08-11 International Business Machines Corporation Interactive avatar in messaging environment
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
KR102161764B1 (en) * 2013-10-31 2020-10-05 삼성전자주식회사 Method and computer readable recording medium for displaying a communication window of a messenger using a cartoon image
US10283162B2 (en) 2014-02-05 2019-05-07 Avatar Merger Sub II, LLC Method for triggering events in a video
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US10474353B2 (en) 2016-05-31 2019-11-12 Snap Inc. Application control using a gesture based trigger
US10360708B2 (en) 2016-06-30 2019-07-23 Snap Inc. Avatar based ideogram generation
US10855632B2 (en) 2016-07-19 2020-12-01 Snap Inc. Displaying customized electronic messaging graphics
US10609036B1 (en) 2016-10-10 2020-03-31 Snap Inc. Social media post subscribe requests for buffer user accounts
US10198626B2 (en) 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10242477B1 (en) 2017-01-16 2019-03-26 Snap Inc. Coded vision system
US10951562B2 (en) 2017-01-18 2021-03-16 Snap. Inc. Customized contextual media content item generation
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US20180210628A1 (en) 2017-01-23 2018-07-26 Snap Inc. Three-dimensional interaction system
US11069103B1 (en) 2017-04-20 2021-07-20 Snap Inc. Customized user interface for electronic communications
CN111010882B (en) 2017-04-27 2023-11-03 斯纳普公司 Location privacy relevance on map-based social media platforms
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US10679428B1 (en) 2017-05-26 2020-06-09 Snap Inc. Neural network-based image stream modification
US11122094B2 (en) 2017-07-28 2021-09-14 Snap Inc. Software application manager for messaging applications
US10586368B2 (en) 2017-10-26 2020-03-10 Snap Inc. Joint audio-video facial animation system
US10657695B2 (en) 2017-10-30 2020-05-19 Snap Inc. Animated chat presence
US11460974B1 (en) 2017-11-28 2022-10-04 Snap Inc. Content discovery refresh
KR102433817B1 (en) 2017-11-29 2022-08-18 스냅 인코포레이티드 Group stories in an electronic messaging application
KR102318422B1 (en) 2017-11-29 2021-10-28 스냅 인코포레이티드 Graphics rendering for electronic messaging applications
US10949648B1 (en) 2018-01-23 2021-03-16 Snap Inc. Region-based stabilized face tracking
US10726603B1 (en) 2018-02-28 2020-07-28 Snap Inc. Animated expressive icon
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US11310176B2 (en) 2018-04-13 2022-04-19 Snap Inc. Content suggestion system
KR20240027845A (en) 2018-04-18 2024-03-04 스냅 인코포레이티드 Augmented expression system
US11074675B2 (en) 2018-07-31 2021-07-27 Snap Inc. Eye texture inpainting
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
CN110880198A (en) * 2018-09-06 2020-03-13 百度在线网络技术(北京)有限公司 Animation generation method and device
US10896534B1 (en) 2018-09-19 2021-01-19 Snap Inc. Avatar style transformation using neural networks
US10895964B1 (en) 2018-09-25 2021-01-19 Snap Inc. Interface to display shared user groups
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US11245658B2 (en) 2018-09-28 2022-02-08 Snap Inc. System and method of generating private notifications between users in a communication session
US11189070B2 (en) 2018-09-28 2021-11-30 Snap Inc. System and method of generating targeted user lists using customizable avatar characteristics
US10904181B2 (en) 2018-09-28 2021-01-26 Snap Inc. Generating customized graphics having reactions to electronic message content
US10872451B2 (en) 2018-10-31 2020-12-22 Snap Inc. 3D avatar rendering
US11103795B1 (en) 2018-10-31 2021-08-31 Snap Inc. Game drawer
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
US10902661B1 (en) 2018-11-28 2021-01-26 Snap Inc. Dynamic composite user identifier
US10861170B1 (en) 2018-11-30 2020-12-08 Snap Inc. Efficient human pose tracking in videos
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
US11055514B1 (en) 2018-12-14 2021-07-06 Snap Inc. Image face manipulation
CN120894483A (en) 2018-12-20 2025-11-04 斯纳普公司 Virtual surface modification
US11516173B1 (en) 2018-12-26 2022-11-29 Snap Inc. Message composition interface
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US10984575B2 (en) 2019-02-06 2021-04-20 Snap Inc. Body pose estimation
US10656797B1 (en) 2019-02-06 2020-05-19 Snap Inc. Global event-based avatar
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US12242979B1 (en) 2019-03-12 2025-03-04 Snap Inc. Departure time estimation in a location sharing system
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11166123B1 (en) 2019-03-28 2021-11-02 Snap Inc. Grouped transmission of location data in a location sharing system
US10674311B1 (en) 2019-03-28 2020-06-02 Snap Inc. Points of interest in a location sharing system
US12070682B2 (en) 2019-03-29 2024-08-27 Snap Inc. 3D avatar plugin for third-party games
US12335213B1 (en) 2019-03-29 2025-06-17 Snap Inc. Generating recipient-personalized media content items
US10992619B2 (en) 2019-04-30 2021-04-27 Snap Inc. Messaging system with avatar generation
USD916811S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a transitional graphical user interface
USD916809S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a transitional graphical user interface
USD916871S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a transitional graphical user interface
USD916872S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a graphical user interface
USD916810S1 (en) 2019-05-28 2021-04-20 Snap Inc. Display screen or portion thereof with a graphical user interface
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11188190B2 (en) 2019-06-28 2021-11-30 Snap Inc. Generating animation overlays in a communication session
US11676199B2 (en) 2019-06-28 2023-06-13 Snap Inc. Generating customizable avatar outfits
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11455081B2 (en) 2019-08-05 2022-09-27 Snap Inc. Message thread prioritization interface
US10911387B1 (en) 2019-08-12 2021-02-02 Snap Inc. Message reminder interface
US11232646B2 (en) 2019-09-06 2022-01-25 Snap Inc. Context-based virtual object rendering
US11320969B2 (en) 2019-09-16 2022-05-03 Snap Inc. Messaging system with battery level sharing
US11343209B2 (en) 2019-09-27 2022-05-24 Snap Inc. Presenting reactions from friends
US11425062B2 (en) 2019-09-27 2022-08-23 Snap Inc. Recommended content viewed by friends
US11080917B2 (en) 2019-09-30 2021-08-03 Snap Inc. Dynamic parameterized user avatar stories
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US11544921B1 (en) 2019-11-22 2023-01-03 Snap Inc. Augmented reality items based on scan
US11063891B2 (en) 2019-12-03 2021-07-13 Snap Inc. Personalized avatar notification
US11128586B2 (en) 2019-12-09 2021-09-21 Snap Inc. Context sensitive avatar captions
US11036989B1 (en) 2019-12-11 2021-06-15 Snap Inc. Skeletal tracking using previous frames
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
US11263817B1 (en) 2019-12-19 2022-03-01 Snap Inc. 3D captions with face tracking
US11140515B1 (en) 2019-12-30 2021-10-05 Snap Inc. Interfaces for relative device positioning
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
US11356720B2 (en) 2020-01-30 2022-06-07 Snap Inc. Video generation system to render frames on demand
US11036781B1 (en) 2020-01-30 2021-06-15 Snap Inc. Video generation system to render frames on demand using a fleet of servers
WO2021155249A1 (en) 2020-01-30 2021-08-05 Snap Inc. System for generating media content items on demand
US11991419B2 (en) 2020-01-30 2024-05-21 Snap Inc. Selecting avatars to be included in the video being generated on demand
US11284144B2 (en) 2020-01-30 2022-03-22 Snap Inc. Video generation system to render frames on demand using a fleet of GPUs
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US11217020B2 (en) 2020-03-16 2022-01-04 Snap Inc. 3D cutout image modification
US11818286B2 (en) 2020-03-30 2023-11-14 Snap Inc. Avatar recommendation and reply
US11625873B2 (en) 2020-03-30 2023-04-11 Snap Inc. Personalized media overlay recommendation
US11676354B2 (en) 2020-03-31 2023-06-13 Snap Inc. Augmented reality beauty product tutorials
CN115699130A (en) 2020-03-31 2023-02-03 斯纳普公司 Augmented reality cosmetic product tutorial
US11956190B2 (en) 2020-05-08 2024-04-09 Snap Inc. Messaging system with a carousel of related entities
US11922010B2 (en) 2020-06-08 2024-03-05 Snap Inc. Providing contextual information with keyboard interface for messaging system
US11543939B2 (en) 2020-06-08 2023-01-03 Snap Inc. Encoded image based messaging system
US11423652B2 (en) 2020-06-10 2022-08-23 Snap Inc. Adding beauty products to augmented reality tutorials
US11356392B2 (en) 2020-06-10 2022-06-07 Snap Inc. Messaging system including an external-resource dock and drawer
US12184809B2 (en) 2020-06-25 2024-12-31 Snap Inc. Updating an avatar status for a user of a messaging system
CN115735229A (en) 2020-06-25 2023-03-03 斯纳普公司 Update avatar outfits in the messaging system
US11580682B1 (en) 2020-06-30 2023-02-14 Snap Inc. Messaging system with augmented reality makeup
US11863513B2 (en) 2020-08-31 2024-01-02 Snap Inc. Media content playback and comments management
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
US12284146B2 (en) 2020-09-16 2025-04-22 Snap Inc. Augmented reality auto reactions
US11452939B2 (en) 2020-09-21 2022-09-27 Snap Inc. Graphical marker generation system for synchronizing users
US11470025B2 (en) 2020-09-21 2022-10-11 Snap Inc. Chats with micro sound clips
US11910269B2 (en) 2020-09-25 2024-02-20 Snap Inc. Augmented reality content items including user avatar to share location
US11660022B2 (en) 2020-10-27 2023-05-30 Snap Inc. Adaptive skeletal joint smoothing
US11615592B2 (en) 2020-10-27 2023-03-28 Snap Inc. Side-by-side character animation from realtime 3D body motion capture
US11748931B2 (en) 2020-11-18 2023-09-05 Snap Inc. Body animation sharing and remixing
US11450051B2 (en) 2020-11-18 2022-09-20 Snap Inc. Personalized avatar real-time motion capture
US11734894B2 (en) 2020-11-18 2023-08-22 Snap Inc. Real-time motion transfer for prosthetic limbs
US12008811B2 (en) 2020-12-30 2024-06-11 Snap Inc. Machine learning-based selection of a representative video frame within a messaging application
EP4272184A1 (en) 2020-12-30 2023-11-08 Snap Inc. Selecting representative video frame by machine learning
CN116670685A (en) 2020-12-30 2023-08-29 斯纳普公司 Guided flow motion redirection
EP4271494A1 (en) 2020-12-31 2023-11-08 Snap Inc. Avatar customization system
US12106486B2 (en) 2021-02-24 2024-10-01 Snap Inc. Whole body visual effects
US11790531B2 (en) 2021-02-24 2023-10-17 Snap Inc. Whole body segmentation
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US11809633B2 (en) 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11544885B2 (en) 2021-03-19 2023-01-03 Snap Inc. Augmented reality experience based on physical items
US12067804B2 (en) 2021-03-22 2024-08-20 Snap Inc. True size eyewear experience in real time
US11562548B2 (en) 2021-03-22 2023-01-24 Snap Inc. True size eyewear in real time
US12165243B2 (en) 2021-03-30 2024-12-10 Snap Inc. Customizable avatar modification system
US12034680B2 (en) 2021-03-31 2024-07-09 Snap Inc. User presence indication data management
US12170638B2 (en) 2021-03-31 2024-12-17 Snap Inc. User presence status indicators generation and management
WO2022213088A1 (en) 2021-03-31 2022-10-06 Snap Inc. Customizable avatar generation system
US12100156B2 (en) 2021-04-12 2024-09-24 Snap Inc. Garment segmentation
US12327277B2 (en) 2021-04-12 2025-06-10 Snap Inc. Home based augmented reality shopping
US12182583B2 (en) 2021-05-19 2024-12-31 Snap Inc. Personalized avatar experience during a system boot process
US11636654B2 (en) 2021-05-19 2023-04-25 Snap Inc. AR-based connected portal shopping
US11941227B2 (en) 2021-06-30 2024-03-26 Snap Inc. Hybrid search system for customizable media
US11854069B2 (en) 2021-07-16 2023-12-26 Snap Inc. Personalized try-on ads
US11908083B2 (en) 2021-08-31 2024-02-20 Snap Inc. Deforming custom mesh based on body mesh
US11983462B2 (en) 2021-08-31 2024-05-14 Snap Inc. Conversation guided augmented reality experience
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US12198664B2 (en) 2021-09-02 2025-01-14 Snap Inc. Interactive fashion with music AR
US11673054B2 (en) 2021-09-07 2023-06-13 Snap Inc. Controlling AR games on fashion items
US11663792B2 (en) 2021-09-08 2023-05-30 Snap Inc. Body fitted accessory with physics simulation
US11900506B2 (en) 2021-09-09 2024-02-13 Snap Inc. Controlling interactive fashion based on facial expressions
US11734866B2 (en) 2021-09-13 2023-08-22 Snap Inc. Controlling interactive fashion based on voice
US11798238B2 (en) 2021-09-14 2023-10-24 Snap Inc. Blending body mesh into external mesh
US11836866B2 (en) 2021-09-20 2023-12-05 Snap Inc. Deforming real-world object using an external mesh
USD1089291S1 (en) 2021-09-28 2025-08-19 Snap Inc. Display screen or portion thereof with a graphical user interface
US11983826B2 (en) 2021-09-30 2024-05-14 Snap Inc. 3D upper garment tracking
US11636662B2 (en) 2021-09-30 2023-04-25 Snap Inc. Body normal network light and rendering control
US11836862B2 (en) 2021-10-11 2023-12-05 Snap Inc. External mesh with vertex attributes
US11651572B2 (en) 2021-10-11 2023-05-16 Snap Inc. Light and rendering of garments
US11790614B2 (en) 2021-10-11 2023-10-17 Snap Inc. Inferring intent from pose and speech input
US11763481B2 (en) 2021-10-20 2023-09-19 Snap Inc. Mirror-based augmented reality experience
US12086916B2 (en) 2021-10-22 2024-09-10 Snap Inc. Voice note with face tracking
US11996113B2 (en) 2021-10-29 2024-05-28 Snap Inc. Voice notes with changing effects
US12020358B2 (en) 2021-10-29 2024-06-25 Snap Inc. Animated custom sticker creation
US11995757B2 (en) 2021-10-29 2024-05-28 Snap Inc. Customized animation from video
US11748958B2 (en) 2021-12-07 2023-09-05 Snap Inc. Augmented reality unboxing experience
US11960784B2 (en) 2021-12-07 2024-04-16 Snap Inc. Shared augmented reality unboxing experience
US12315495B2 (en) 2021-12-17 2025-05-27 Snap Inc. Speech to entity
US12223672B2 (en) 2021-12-21 2025-02-11 Snap Inc. Real-time garment exchange
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
US12096153B2 (en) 2021-12-21 2024-09-17 Snap Inc. Avatar call platform
US12198398B2 (en) 2021-12-21 2025-01-14 Snap Inc. Real-time motion and appearance transfer
US11928783B2 (en) 2021-12-30 2024-03-12 Snap Inc. AR position and orientation along a plane
US11887260B2 (en) 2021-12-30 2024-01-30 Snap Inc. AR position indicator
US12499626B2 (en) 2021-12-30 2025-12-16 Snap Inc. AR item placement in a video
US12412205B2 (en) 2021-12-30 2025-09-09 Snap Inc. Method, system, and medium for augmented reality product recommendations
WO2023137482A1 (en) 2022-01-17 2023-07-20 Snap Inc. Ar body part tracking system
US11823346B2 (en) 2022-01-17 2023-11-21 Snap Inc. AR body part tracking system
US11954762B2 (en) 2022-01-19 2024-04-09 Snap Inc. Object replacement system
US12142257B2 (en) 2022-02-08 2024-11-12 Snap Inc. Emotion-based text to speech
US12002146B2 (en) 2022-03-28 2024-06-04 Snap Inc. 3D modeling based on neural light field
US12148105B2 (en) 2022-03-30 2024-11-19 Snap Inc. Surface normals for pixel-aligned object
US12254577B2 (en) 2022-04-05 2025-03-18 Snap Inc. Pixel depth determination for object
US12293433B2 (en) 2022-04-25 2025-05-06 Snap Inc. Real-time modifications in augmented reality experiences
US12277632B2 (en) 2022-04-26 2025-04-15 Snap Inc. Augmented reality experiences with dual cameras
US12164109B2 (en) 2022-04-29 2024-12-10 Snap Inc. AR/VR enabled contact lens
US12062144B2 (en) 2022-05-27 2024-08-13 Snap Inc. Automated augmented reality experience creation based on sample source and target images
US12020384B2 (en) 2022-06-21 2024-06-25 Snap Inc. Integrating augmented reality experiences with other components
US12020386B2 (en) 2022-06-23 2024-06-25 Snap Inc. Applying pregenerated virtual experiences in new location
US11870745B1 (en) 2022-06-28 2024-01-09 Snap Inc. Media gallery sharing and management
US12235991B2 (en) 2022-07-06 2025-02-25 Snap Inc. Obscuring elements based on browser focus
US12307564B2 (en) 2022-07-07 2025-05-20 Snap Inc. Applying animated 3D avatar in AR experiences
US12361934B2 (en) 2022-07-14 2025-07-15 Snap Inc. Boosting words in automated speech recognition
US12284698B2 (en) 2022-07-20 2025-04-22 Snap Inc. Secure peer-to-peer connections between mobile devices
US12062146B2 (en) 2022-07-28 2024-08-13 Snap Inc. Virtual wardrobe AR experience
US12472435B2 (en) 2022-08-12 2025-11-18 Snap Inc. External controller for an eyewear device
US12236512B2 (en) 2022-08-23 2025-02-25 Snap Inc. Avatar call on an eyewear device
US12051163B2 (en) 2022-08-25 2024-07-30 Snap Inc. External computer vision for an eyewear device
US12154232B2 (en) 2022-09-30 2024-11-26 Snap Inc. 9-DoF object tracking
US12229901B2 (en) 2022-10-05 2025-02-18 Snap Inc. External screen streaming for an eyewear device
US12499638B2 (en) 2022-10-17 2025-12-16 Snap Inc. Stylizing a whole-body of a person
US12288273B2 (en) 2022-10-28 2025-04-29 Snap Inc. Avatar fashion delivery
US11893166B1 (en) 2022-11-08 2024-02-06 Snap Inc. User avatar movement control using an augmented reality eyewear device
US12504866B2 (en) 2022-11-29 2025-12-23 Snap Inc Automated tagging of content items
US12429953B2 (en) 2022-12-09 2025-09-30 Snap Inc. Multi-SoC hand-tracking platform
US12475658B2 (en) 2022-12-09 2025-11-18 Snap Inc. Augmented reality shared screen space
US12243266B2 (en) 2022-12-29 2025-03-04 Snap Inc. Device pairing using machine-readable optical label
US12530847B2 (en) 2023-01-23 2026-01-20 Snap Inc. Image generation from text and 3D object
US12417562B2 (en) 2023-01-25 2025-09-16 Snap Inc. Synthetic view for try-on experience
US12499483B2 (en) 2023-01-25 2025-12-16 Snap Inc. Adaptive zoom try-on experience
US12340453B2 (en) 2023-02-02 2025-06-24 Snap Inc. Augmented reality try-on experience for friend
US12299775B2 (en) 2023-02-20 2025-05-13 Snap Inc. Augmented reality experience with lighting adjustment
US12149489B2 (en) 2023-03-14 2024-11-19 Snap Inc. Techniques for recommending reply stickers
US12530852B2 (en) 2023-04-06 2026-01-20 Snap Inc. Optical character recognition for augmented images
US12394154B2 (en) 2023-04-13 2025-08-19 Snap Inc. Body mesh reconstruction from RGB image
US12475621B2 (en) 2023-04-20 2025-11-18 Snap Inc. Product image generation based on diffusion model
US12436598B2 (en) 2023-05-01 2025-10-07 Snap Inc. Techniques for using 3-D avatars in augmented reality messaging
US12518437B2 (en) 2023-05-11 2026-01-06 Snap Inc. Diffusion model virtual try-on experience
US20240395028A1 (en) 2023-05-26 2024-11-28 Snap Inc. Latent diffusion model autodecoders
US12513098B2 (en) 2023-06-13 2025-12-30 Snap Inc. Sticker search icon providing dynamic previews
US12517626B2 (en) 2023-06-13 2026-01-06 Snap Inc. Sticker search icon with multiple states
US12047337B1 (en) 2023-07-03 2024-07-23 Snap Inc. Generating media content items during user interaction
US12482131B2 (en) 2023-07-10 2025-11-25 Snap Inc. Extended reality tracking using shared pose data
US12536751B2 (en) 2023-08-16 2026-01-27 Snap Inc. Pixel-based deformation of fashion items
US12541930B2 (en) 2023-12-28 2026-02-03 Snap Inc. Pixel-based multi-view garment transfer

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880731A (en) * 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6453294B1 (en) * 2000-05-31 2002-09-17 International Business Machines Corporation Dynamic destination-determined multimedia avatars for interactive on-line communications
KR20010025161A (en) * 2000-06-02 2001-04-06 조양일 Method for providing an avatar maker
KR20010034987A (en) * 2000-06-22 2001-05-07 문경수 Method of using animated characters working together word in electronic mail or chatting on internet basis
KR20020042248A (en) * 2000-11-30 2002-06-05 한가람 Method and system for perceiving emotion from the text and visualizing the perceived emotion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9665563B2 (en) 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
US11069108B2 (en) 2019-10-23 2021-07-20 Tata Consultancy Services Limited Method and system for creating an intelligent cartoon chat strip based on dynamic content

Also Published As

Publication number Publication date
WO2004095308A1 (en) 2004-11-04

Similar Documents

Publication Publication Date Title
KR20040091331A (en) Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology
KR101925440B1 (en) Method for providing vr based live video chat service using conversational ai
US20090058860A1 (en) Method for Transforming Language Into a Visual Form
KR20220127471A (en) Device, Method and program for providing psychological counseling using VR
CN109086860B (en) Interaction method and system based on virtual human
US8645479B2 (en) Chatting system, method and apparatus for virtual pet
CN119047578B (en) Character dialogue method, agent, device and storage medium based on large model
CN111062207B (en) Expression image processing method and device, computer storage medium and electronic equipment
CN107817799B (en) Method and system for intelligent interaction by combining virtual maze
Hasani et al. Immersive experience with non-player characters dynamic dialogue
Badura et al. System supporting poetry generation using text generation and style transfer methods
Arifi et al. Potentials of Chatbots for Spell Check among Youngsters.
KR20230099936A (en) A dialogue friends porviding system based on ai dialogue model
CN116226411B (en) Interactive information processing method and device for interactive project based on animation
JP2000259601A (en) Conversation device and its method
KR102101311B1 (en) Method and apparatus for providing virtual reality including virtual pet
JP2022146699A (en) Program, device, and method for agent performing dialog using a plurality of characters
KR20030026506A (en) System and method for interlocking process between emoticon and avatar
JP2025044246A (en) system
KR20060104980A (en) Method and system for processing emoticons and avatars
Boutet The dual origin of gesture: Semiotic preconditions for the emergence of two kinds of symbolic gestures
JP7525207B1 (en) Information processing system, information processing method, and program
JP7773605B2 (en) system
KR20060104981A (en) Method and system for processing emoticons and avatars
JP2025049275A (en) system

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20030421

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20050222

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20060116

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20050222

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I