KR20040091331A - Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology - Google Patents
Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology Download PDFInfo
- Publication number
- KR20040091331A KR20040091331A KR1020030025134A KR20030025134A KR20040091331A KR 20040091331 A KR20040091331 A KR 20040091331A KR 1020030025134 A KR1020030025134 A KR 1020030025134A KR 20030025134 A KR20030025134 A KR 20030025134A KR 20040091331 A KR20040091331 A KR 20040091331A
- Authority
- KR
- South Korea
- Prior art keywords
- avatar
- natural language
- client
- text message
- language processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 자연어처리기술에 기반을 두어 국어의 접두어, 명사, 접미어, 채팅 신조어를 분석하여 클라이언트가 채팅 및 이동통신단말기의 문자 메시지에서 입력되는 문장의 내용을 아바타(Avatar) 눈, 코, 입의 추출과 명사 및 접미어에 필요한 동작을 추출하여 만화와 같은 의사전달의 수단으로서 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타의 모습과 동작의 변화를 통해서 상대 클라이언트가 보다 효과적으로 인지할 수 있도록 하는 자연어처리기술을 이용하여 입력된 문자메시지와 그 메시지 내용에 상응하는 아바타 표현 방법 및 시스템에 관한 것이다.The present invention analyzes the prefixes, nouns, suffixes and chat synonyms of Korean language based on natural language processing technology to view the contents of sentences inputted by a client in text messages of chat and mobile communication devices. Natural language processing that extracts the motions required for extraction, nouns, and suffixes, and delivers them to the other client as a means of communication, such as comics, so that the other client can recognize them more effectively through changes in the avatar's appearance and behavior. The present invention relates to a text message input by using a technology and an avatar expression method and system corresponding to the content of the message.
Description
본 발명은 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법 및 시스템에 관한 것으로, 더욱 상세하게는 자연어처리기술에 기반을 두어 국어의 접두어, 명사, 접미어, 채팅 신조어를 분석하여 클라이언트가 채팅 및 이동통신단말기의 문자메시지에서 입력되는 문장의 내용을아바타(Avatar) 눈, 코, 입의 추출과 명사 및 접미어에 필요한 동작을 추출하여 만화와 같은 의사전달의 수단으로서 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타의 모습과 동작의 변화를 통해서 상대 클라이언트가 보다 효과적으로 인지할 수 있도록 하는 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법 및 시스템에 관한 것이다.The present invention relates to a text message input using a natural language processing technology and a method and system for representing an avatar corresponding to the contents of a sentence. More specifically, the present invention relates to prefixes, nouns, suffixes, and chat synonyms based on natural language processing techniques. The client extracts the contents of the sentences inputted from the text messages of the chat and mobile communication terminals, extracts the actions of Avatar eyes, noses and mouths, and the actions required for nouns and suffixes. A method and system for expressing an avatar corresponding to a text message and a sentence content input by using a natural language processing technology that allows a client to recognize the intention to be delivered to the client more effectively by changing the appearance and motion of the avatar. It is about.
자연어처리기술이란 인간의 지능적 언어소통 행위를 시뮬레이션하는 개념과 방법들에 관한 컴퓨터의 한 분야로서, 데이터베이스에서의 컴퓨터의 동작과는 다르게, 인공지능에서는 인간의 메타 지식(지식에 대한 지식)과 heuristic(인간의 경험적 지식)을 활용할 수 있다. "이순신 장군의 신발 크기는 얼마였는가?" 라는 질문에, 인간은 쉽게 "모른다"는 답을 하지만 컴퓨터는 자신이 가진 지식을 모두 검색한 후에야 답한다. 이것이 인간과 컴퓨터의 차이점중의 하나이다.Natural language processing technology is a branch of the computer for concepts and methods that simulate human intelligent language communication behavior. Unlike artificial computer operations in a database, artificial intelligence in human intelligence and heuristic Use human empirical knowledge. "What was the size of Yi Sun-sin's shoes?" Humans easily answer "I don't know," but the computer answers only after searching for all of its knowledge. This is one of the differences between humans and computers.
인간의 지능적 과정에는 학습(learning), 추론(inference), 교정(self-correction) 등으로 구성되어 이를 컴퓨터에 구현할 수 있도록 연구되어 왔다. 더구나 무의식 중에 얻어지는 상식은 그 양이 방대하여 컴퓨터로 구현하기가 어렵지만, 이에 관한 연구도 시도되고 있다. 그러나 인간이 걷고, 말하고, 자전거를 타고, 자동차 운전을 할 때, 의식적으로 심사숙고해서 의사결정을 하는 것이 아니다. 인간의 기술은 그 자신의 일부이므로 그 기술을 인지할 필요가 없다는 것은, 마치 그가 일상적 동작에서 그 자신의 몸을 움직이는 것을 낱낱이 알 필요가 없는 것과 마찬가지이다. 따라서 인간을 궁극적으로 모방하려는 시도는 많은 한계를 가지고 있다.The human intelligent process consists of learning, inference, and self-correction, and has been studied to be implemented in a computer. Moreover, although the amount of common sense obtained during unconsciousness is huge, it is difficult to realize by computer, but research on this is also attempted. But when a person walks, talks, rides a bike, or drives a car, it is not consciously thinking and making decisions. Since human technology is part of his own, he does not need to be aware of it, just as he does not need to know every single thing he moves his body in everyday motion. Thus, attempts to ultimately imitate humans have many limitations.
자연언어처리(natural language processing)분야에서는 이미 자동번역기, 음성 인식기, OCR과 같은 시스템을 실용화하며 사용되고 있다.In the field of natural language processing, systems such as an automatic translator, a speech recognizer, and an OCR are already being used.
초기에 대부분의 게임이나 채팅 서비스 등에서는 주로 몇 가지의 캐릭터를 조합하거나 이미 완성되어 있는 아바타를 제공하기도 하였는데, 일반적으로 사용자가 아바타를 서비스회사에서 제공하는 아바타 중에서 본인의 취향이나 개성을 표현할 만한 아바타를 선택하여 사용하도록 하였다.In the early days, most games and chat services mainly provided a combination of a few characters or provided already completed avatars. Generally, avatars that can express one's taste or personality among avatars provided by a service company. It was selected to use.
최근에는 그래픽 기술 등의 발전으로 아바타를 구성하는 각 아이템(눈, 코, 입, 헤어스타일, 복장 등)을 상당수 제공함으로써, 아이템의 조합 가능한 경우의 수가 무한할 정도로 늘어나 클라이언트들이 보다 더 다양하고 차별된 아바타를 만들어 사용할 수 있게 되었다.In recent years, with the development of graphic technology and the like, each item constituting the avatar (eyes, nose, mouth, hairstyle, clothes, etc.) is provided with a large number, and the number of possible combinations of items is infinitely increased, and the clients are more diverse and differentiated. Avatar can be created and used.
그러나, 상기 기술한 아바타는 단순히 클라이언트가 E-Mail, SMS(Short Message Service) 및 채팅 등을 통해 입력 가능한 하나의 의사표현 수단에 불과하여 그 활용도가 극히 제한적이었고 아바타 역시 클라이언트 본인이 초기에 설정한 이미지나 아바타를 구성하고 있는 각 아이템들을 변경하지 않는 이상 언제나 같은 모습으로 존재하므로 식상해지기 쉽고, 아이템을 바꾸지 않는 한 감정 및 동작 등의 표현할 수 없다는 문제점이 있으며, 또 다른 방법으로 공개특허 제2000-0072569호(2000.12.05)에는 원하는 감정 및 동작을 미리 선택 후 아바타를 표현하는 방법이 기재되어 있으나 이 역시 감정 및 동작의 표현이 제한적이라는 문제점이 제기 된다.However, the avatar described above is merely a means of expressing a client that can be input through E-Mail, Short Message Service (SMS), chat, etc., and its use is extremely limited. As long as the items constituting the image or avatar are not changed, they are always present in the same shape, and thus, they are easy to get sick, and there is a problem in that emotions and actions cannot be expressed unless the items are changed. 0072569 (2000.12.05) describes a method of expressing an avatar after preselecting desired emotions and actions, but this also raises a problem that expression of emotions and actions is limited.
또 다른 방법으로는 공개특허 제2003-0026506호(2003.04.03)에는 간략히 이모티콘이나 몇몇 단어를 인식하는 수준(예 : ^^, _?_?, @.@, 하하)에 있으나 이 역시 감정의 표현이 제한적이며 동작의 표현을 할 수 없다.In another method, Korean Patent Laid-Open Publication No. 2003-0026506 (2003.04.03) has a level of recognition of emoticons or some words (for example, ^^, _? _ ?, @. @, Haha). The expression is limited and cannot express the action.
상기와 같은 제반 문제점들을 해결하기 위한 본 발명의 목적은 유무선 인터넷상에서 아바타를 이용하여 이루어지는 모든 문자메시지 입력시 클라이언트로부터 입력되는 문장을 자연어처리기술로 문장의 해석 및 파악하는 수단과, 상기 해석 및 파악된 문장을 아바타 이미지를 추출하는 수단에서 아바타의 감정의 표현과 동작을 생성하여 유·무선 인터넷상에서 클라이언트가 입력한 문자메시지와 그 메시지 내용에 맞는 감정 및 동작이 표현이 가능한 아바타를 상대 클라이언트에게 전송하는 방법 및 시스템을 제공함에 있다.An object of the present invention for solving the above problems is a means for interpreting and grasping sentences inputted from a client using natural language processing technology when inputting all text messages using avatars on the wired or wireless Internet, and the interpretation and grasping. By means of extracting the avatar sentence from the avatar image, the emotion expression and action of the avatar are generated, and the text message input by the client and the avatar capable of expressing the emotion and action corresponding to the content of the message are transmitted to the opposite client on the wired / wireless internet. To provide a method and system.
도 1은 본 발명의 실시예 따른 아바타를 표현하기 위한 아바타 서버, 자연어처리 서버를 구비한 서버와 클라이언트간의 간단한 블록도이다.1 is a simple block diagram of an avatar server for expressing an avatar and a server having a natural language processing server and a client according to an embodiment of the present invention.
도 2는 본 발명의 실시예 따른 아바타를 표현하기 위한 서버의 주 구성도이다.2 is a main configuration diagram of a server for representing an avatar according to an embodiment of the present invention.
도 3은 본 발명의 실시예 따른 아바타가 표현되는 전체적인 과정을 간단히 나타낸 흐름도이다.3 is a flowchart briefly illustrating an overall process of representing an avatar according to an embodiment of the present invention.
도 4는 본 발명의 실시예 따른 아바타를 표현하고자 하는 서버의 입장에서 클라이언트의 문자메시지 입력에서부터 아바타가 생성되기까지의 과정을 간단하게 나타낸 흐름도이다.FIG. 4 is a flowchart illustrating a process from inputting a text message of a client to generating an avatar from a server's point of view of representing an avatar according to an embodiment of the present invention.
도 5는 본 발명의 실시예 따른 자연어처리가 적용된 클라이언트의 이동통신단말기의 아바타 메시지가 상대방 클라이언트의 이동통신단말기에 표시된 결과화면 예시도이다.5 is an exemplary view of a result screen of an avatar message of a mobile communication terminal of a client to which natural language processing is applied according to an embodiment of the present invention displayed on a mobile communication terminal of a counterpart client.
*도면의 주요부분에 대한 설명** Description of the main parts of the drawings *
100 : 자연어인식 서버 105 : 아바타 서버100: natural language recognition server 105: avatar server
110 : 클라이언트 115 : 상대 클라이언트110: Client 115: Relative Client
200 : 자연어 연동부 205 : 아바타 이미지 추출부200: natural language linkage unit 205: avatar image extraction unit
210 : 아바타 이미지 적용부 215 : 아바타 제어부210: avatar image application unit 215: avatar control unit
220 : 접두어 인식부 225 : 명사 인식부220: prefix recognition unit 225: noun recognition unit
230 : 접미어 인식부 235 : 신조어 인식부230: suffix recognition unit 235: new words recognition unit
240 : 아바타 이미지 데이터베이스240: avatar image database
245 : 등록 아바타 이미지 데이터베이스245: Register Avatar Image Database
250 : 자연어 처리 데이터베이스 255 : 중앙 제어부250: natural language processing database 255: central control unit
500 : 클라이언트의 이동통신단말기의 입력화면500: input screen of the mobile communication terminal of the client
505 : 상대 클라이언트의 이동통신단말기의 결과화면505: result screen of the mobile communication terminal of the other client
상기한 목적을 달성하기 위하여, 본 발명의 실시예에 따른 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장 내용에 상응하는 아바타 표현 방법은 클라이언트로부터 입력되는 문자메시지의 문장을 자연어처리 서버에서 각 인식부를 통해 자연어를 검색하고 자연어 처리 데이터베이스와 연동하여 검색된 문자메시지의 내용을 분석하는 제1 과정과; 상기 제1 과정에서 분석된 문자메시지의 내용에 맞게 아바타 서버에서 이미 등록된 아바타 데이터베이스를 참조하여 분석된 내용에 해당하는 아바타 이미지를 추출하는 제2 과정 및; 상기 제2 과정에서 추출된 아바타 이미지를 클라이언트의 기 등록된 아바타에 적용시키는 제3 과정; 를 포함한다.In order to achieve the above object, the text message input by using the natural language processing technology according to an embodiment of the present invention and the avatar expression method corresponding to the content of the sentence in each of the sentences of the text message input from the client in the natural language processing server A first step of searching for a natural language through a recognition unit and analyzing contents of the retrieved text message in association with a natural language processing database; A second step of extracting an avatar image corresponding to the analyzed content by referring to the avatar database already registered in the avatar server according to the content of the text message analyzed in the first step; A third step of applying the avatar image extracted in the second step to a pre-registered avatar of the client; It includes.
한편, 상기한 제1 과정에는 클라이언트 본인의 아바타가 없는 경우 본인의 아바타를 생성하는 단계를 더 포함한다.Meanwhile, the first process may further include generating an avatar of the client when there is no avatar of the client.
본 발명의 실시예에 따른 자연어처리기술을 이용하여 입력 문자메시지 내용에 상응하는 아바타의 표현 시스템은 클라이언트로부터 입력되는 문자메시지의 내용에 포함된 자연어들을 검색하고 확인하는 자연어 인식부와, 상기 자연어 인식부에서 자연어처리 데이터베이스와 연동하여 추출된 문자메시지의 내용을 분석 파악하는 자연어 처리부와를 포함하는 자연어처리 서버와; 상기 자연어처리 서버의 자연어 처리부에서 파악된 클라이언트의 입력된 문자메시지의 내용을 수신하는 자연어 연동부와, 상기 자연어 연동부에서 전송되는 문자메시지에 해당하는 아바타 이미지들을 아바타 이미지 데이터베이스로부터 추출하는 아바타 이미지 추출부와, 상기 아바타 이미지 추출부로부터 추출된 아바타 이미지들을 아바타 이미지 데이터베이스에 기 등록된 상기 클라이언트의 아바타에 적용하는 아바타 이미지 적용부와, 상가 클라이언트의 자연어 처리가 적용된 아바타를 제어하며 상기 클라이언트가 입력한 문자메시지의 의미를 연속동작의 모션을 관리하는 아바타 제어부와를 포함하는 아바타 서버와; 상기 자연어처리 서버와 아바타 서버를 제어하고 각 서버간에 인터페이스하는 중앙 제어부와; 를 구비하여 이루어지는 것을 특징으로 한다.An avatar expression system corresponding to an input text message content using a natural language processing technology according to an embodiment of the present invention includes a natural language recognition unit for searching for and confirming natural words included in content of a text message input from a client, and the natural language recognition. A natural language processing server including a natural language processing unit configured to analyze and grasp the contents of the text message extracted by interworking with the natural language processing database; Natural image interworking unit for receiving the content of the input text message of the client identified by the natural language processing unit of the natural language processing server, and avatar image extraction to extract avatar images corresponding to the text message transmitted from the natural language linker from the avatar image database And an avatar image applying unit for applying the avatar images extracted from the avatar image extractor to the avatar of the client previously registered in the avatar image database, and controlling the avatar to which the natural language processing of the shop client is applied. An avatar server including a meaning of a text message and an avatar controller for managing the motion of the continuous operation; A central control unit controlling the natural language processing server and the avatar server and interfacing between the servers; It characterized by comprising a.
따라서, 상기한 구성에 의하면, 본 발명의 아바타의 표현 방법은 본 발명을 유치하는 이동통신사 및 웹 사이트의 유·무선데이터통신을 통해 문자메시지를 실시하는 클라이언트로부터 입력되는 문장 내용을 분석하여 아바타의 얼굴 표정 및동작을 추출하고, 그 추출된 아바타 동작 이미지들을 상기 클라이언트의 아바타에 적용함으로써, 클라이언트가 입력한 문자메시지와 본인의 아바타와 연동시켜 상기 감정 및 동작이 구현된 아바타를 통해서, 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타 감정 표현 및 동작 변화를 통해서 상대 클라이언트가 보다 효과적으로 인지 할 수 있도록 한다.Therefore, according to the above configuration, the avatar expression method of the present invention analyzes the contents of the sentences inputted from the client performing the text message through the wired / wireless data communication of the mobile communication company and the web site that attracts the present invention. By extracting facial expressions and motions and applying the extracted avatar motion images to the avatars of the client, the client can interact with the text message input by the client and the avatars of the client to the other client through the avatars embodying the emotions and motions. The client's intention to convey can be perceived more effectively by expressing his / her avatar emotion and changing his behavior.
본 발명의 아바타 표현 시스템 구성은 이동통신단말기 혹은 인터넷상에서 클라이언트로부터 입력되는 문자메시지를 파악하여 상기 클라이언트의 아바타에 해당하는 의미를 표현하기 위해 아바타의 감정 표현 및 동작을 적용시키기 위해 자연어처리 서버 및 아바타 서버와 상기 이동통신단말기 혹은 인터넷을 통해 입력되는 하나 이상의 클라이언트와로 구성되어 있다.Avatar expression system configuration of the present invention is a natural language processing server and avatar to apply the emotional expression and operation of the avatar to grasp the text message input from the client on the mobile communication terminal or the Internet to express the meaning corresponding to the avatar of the client It is composed of a server and one or more clients input through the mobile communication terminal or the Internet.
또한, 본 발명은 상기와 같은 시스템의 운용을 통해 하기에 기술하는 각 단계들을 거쳐 이동통신단말기 혹은 인터넷 상의 아바타의 감정 표현 및 동작 표현 방법에 있어서 자연어처리기술에 의한 제어 방법을 제공한다.In addition, the present invention provides a control method using natural language processing technology in the emotional expression and motion expression method of the avatar on the mobile communication terminal or the Internet through the steps described below through the operation of the system as described above.
즉, 이동통신단말기 혹은 인터넷 상에서 클라이언트로부터 입력되는 문자메시지에 표현 가능한 감정 및 동작의 문장을 파악하여 상기 클라이언트의 아바타에 해당하는 의미를 나타내는 아바타의 감정 및 동작을 적용시키기 위해 자연어처리 서버, 아바타 서버를 통해 문자메시지를 입력하나, 적어도 하나 이상의 클라이언트로 구성되어 있으므로, 본 발명을 유치하는 이동통신사 및 웹 사이트의 유·무선데이터통신을 통해 아바타를 포함하는 문자메시지를 실시하는 클라이언트로부터 입력되는 문장을 자연어처리 서버에서 각 인식부(접두어 인식부, 명사 인식부, 접미어인식부, 신조어 인식부, 데이터 베이스)를 통해 분석하는 과정과, 이 분석한 자료를 아바타 서버(아바타 연동부, 아바타 이미지 추출부, 아바타 이미지 적용부, 아바타 제어부)에서 이미 구비된 아바타 데이터베이스를 참조하여 표현 가능한 감정 및 동작을 추출하는 과정 및 추출된 아바타 이미지들을 상기 클라이언트의 기 등록된 아바타에 적용하는 과정 등을 포함하여 이루어진다.That is, the natural language processing server and the avatar server to grasp a sentence of emotion and action that can be expressed in the text message input from the client on the mobile communication terminal or the Internet and apply the emotion and action of the avatar representing the meaning corresponding to the avatar of the client. The text message is input through the text message. However, since the text message is composed of at least one client, the text input from the client performing the text message including the avatar is performed through wired / wireless data communication of the mobile communication company and the web site. The natural language processing server analyzes each recognition unit (prefix recognition unit, noun recognition unit, suffix recognition unit, new word recognition unit, database), and analyzes the analyzed data by avatar server (avatar interworking unit, avatar image extraction unit). , Avatar image applier, avatar controller) And a process of extracting emotions and motions that can be expressed with reference to the avatar database, and applying the extracted avatar images to the registered avatar of the client.
또한, 상기 아바타는 클라이언트 본인을 의미할 수 있는 모든 시각적 이미지 등을 포함할 수 있음을 명기하는 바이다.In addition, it is noted that the avatar may include all visual images that may mean the client himself.
이하, 본 발명의 바람직한 실시예에 대하여 첨부도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
우선, 각 도면의 구성요소들에 대해 참조부호를 부가함에 있어서, 동일한 구성요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호로 표기되었음에 유의하여야 한다.First, in adding reference numerals to the components of each drawing, it should be noted that the same components are denoted by the same reference numerals as much as possible even if they are displayed on different drawings.
또한, 하기의 설명에서는 본 발명의 실시예를 설명하기 위하여 구체적인 구성소자 등과 같은 많은 특정사항들이 도시되어 있는데, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정사항들 없이도 본 발명이 실시될 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게 자명하다 할 것이다.In addition, in the following description, in order to explain the embodiments of the present invention, specific details such as specific elements are shown, which are provided to help a more general understanding of the present invention, and the present invention may be practiced without these specific details. It will be apparent to those skilled in the art.
그리고, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
또한, 본 발명에 보다 더 충실하도록 하기 위해서, 본 발명의 취지를 벗어나지 않는 범위 내에서 변경이나 변형이 있을 수 있음을 명기하는 바이다.In addition, in order to be more faithful to the present invention, it is noted that changes or modifications can be made within the scope without departing from the spirit of the present invention.
도 1은 본 발명의 실시예 따른 아바타를 표현하기 위한 아바타 서버, 자연어처리 서버를 구비한 서버와 클라이언트간의 간단한 블록도이다.1 is a simple block diagram of an avatar server for expressing an avatar and a server having a natural language processing server and a client according to an embodiment of the present invention.
도 1을 참조하여, 본 발명은 클라이언트(110)(115)간에 실시하는 문자메시지의 문장 내용을 분석하여 메시지를 전송 받는 클라이언트(115)들이 인식할 수 있게 해당 클라이언트(110)의 아바타의 이미지와, 상기 입력된 문장의 의미와 동일 또는 유사한 감정 및 동작을 변화시키는 것으로써, 기본적으로 자연어처리 서버(100), 아바타 서버(105)등을 구비 또는 별도로 연동하여 본 발명을 실시한다.Referring to FIG. 1, the present invention analyzes the sentence content of a text message performed between the client 110 and 115 and recognizes the image of the avatar of the client 110 so that the client 115 receiving the message can recognize the text. By changing the emotions and actions that are the same as or similar to the meaning of the input sentences, the present invention is basically provided with or separately connected with the natural language processing server 100 and the avatar server 105.
자연어처리 서버(100)는 입력 가능한 다수의 국어의 접두어, 명사, 접미어, 신조어를 데이터베이스로 저장 및 보유하고 있고, 상기 국어의 접두어, 명사, 접미어, 신조어는 자연어처리기술에 필요한 의미와 내용이 매칭되어 데이터베이스에 저장되어진다.The natural language processing server 100 stores and holds prefixes, nouns, suffixes, and new words of a plurality of Korean languages that can be input. And stored in the database.
아바타 서버(105)는 클라이언트(110)가 입력한 문장에 맞게 아바타를 제공 및 관리하는 기능과 상대 클라이언트(115)에게 아바타와 메시지 제공을 하며, 자연어처리 서버(100)와 연동하여 동작을 실시하게 된다.The avatar server 105 provides a function of providing and managing an avatar according to a sentence input by the client 110, providing an avatar and a message to the counterpart client 115, and interoperating with the natural language processing server 100. do.
도 2는 본 발명의 실시예 따른 아바타를 표현하기 위한 서버의 주 구성도이다.2 is a main configuration diagram of a server for representing an avatar according to an embodiment of the present invention.
도 2를 참조하여, 서버는 자연어처리 서버(100), 아바타 서버(105)로 구성되어 있으며, 중앙제어부(255)를 통해 서버 내에서 유용한 데이터를 교환 및 송·수신하여 본 발명을 실시하도록 한다.Referring to FIG. 2, the server is composed of a natural language processing server 100 and an avatar server 105. The central control unit 255 exchanges, transmits and receives useful data in the server to implement the present invention. .
자연어처리 서버(100)는 접두어 인식부(220), 명사 인식부(225), 접미어 인식부(230), 신조어 인식부(235), 자연어 처리부(260) 및 데이터베이스(250)등으로 구성되어 있다.The natural language processing server 100 includes a prefix recognizer 220, a noun recognizer 225, a suffix recognizer 230, a coinword recognizer 235, a natural language processor 260, a database 250, and the like. .
접두어 인식부(220)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 접두어를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 접두어를 참조한다.The prefix recognition unit 220 searches for and checks a prefix included in a sentence input by the client 110 executing a text message, and the client 110 previously stored in the natural language processing database 250 is input. Refer to as many prefixes as possible.
명사 인식부(225)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 명사를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 명사를 참조한다.The noun recognition unit 225 searches for and checks the nouns included in the sentences input by the client 110 that executes the text message, and is input by the client 110 previously stored in the natural language processing database 250. Refers to as many nouns as possible.
접미어 인식부(230)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 접미어를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 접미어를 참조한다.The suffix recognizer 230 searches for and checks the suffixes included in the sentences input by the client 110 executing the text message, and is input by the client 110 previously stored in the natural language processing database 250. Refer to as many suffixes as possible.
신조어 인식부(235)는 문자메시지를 실시하는 클라이언트(110)가 입력하는 문장 중에 포함된 신조어를 검색 및 확인하는 역할을 하며, 자연어처리 데이터베이스(250)에 기 저장되어 있던 클라이언트(110)가 입력 가능한 다수의 신조어를 참조한다.The new word recognition unit 235 searches and confirms a new word included in a sentence input by the client 110 executing a text message, and is input by the client 110 previously stored in the natural language processing database 250. See a number of possible new words.
자연어 처리부(260)는 상기 각 인식부(220,225,230,235)에서 데이터베이스Natural language processing unit 260 is a database in each of the recognition unit (220, 225, 230, 235)
(250)와 연동하여 추출된 문자메시지의 의미하는 해당 내용을 파악하는 역할을 한다.In conjunction with (250) serves to grasp the corresponding content of the extracted text message.
아바타 서버(105)는 자연어 연동부(200), 아바타 이미지 추출부(205), 아바타 이미지 적용부(210), 아바타 제어부(215) 및 아바타 이미지 데이터베이스(240), 등록 아바타 이미지 데이터베이스(245) 등으로 구성되어 진다.The avatar server 105 may include a natural language linker 200, an avatar image extractor 205, an avatar image applier 210, an avatar controller 215, an avatar image database 240, and a registered avatar image database 245. It consists of
자연어 연동부(200)는 자연어처리 서버(100)의 자연어 처리부(260)에서 파악된 클라이언트(110)가 입력한 문장의 의미를 수신하여 아바타 이미지 추출부(205)로 전송하는 역할을 한다.The natural language linker 200 receives a meaning of a sentence input by the client 110 identified by the natural language processor 260 of the natural language processing server 100 and transmits the meaning of the sentence to the avatar image extractor 205.
아바타 이미지 추출부(205)는 상기 문자메시지의 의미에 해당하는 아바타 이미지들을 아바타 이미지 데이터베이스(240)로부터 추출하는 역할을 한다.The avatar image extractor 205 extracts avatar images corresponding to the meaning of the text message from the avatar image database 240.
아바타 이미지 적용부(210)는 추출된 문자메시지의 의미를 상기 아바타가 의미를 표현하도록 명령을 전달하는 명령어로 변환시킨 후, 프로그램에 따라 아바타 이미지를 자동 전환시킨다.The avatar image applying unit 210 converts the meaning of the extracted text message into a command for transmitting a command for the avatar to express the meaning, and automatically converts the avatar image according to a program.
아바타 제어부(215)는 상기 클라이언트(110)의 자연어처리가 적용된 아바타를 제어하는 역할을 하며, 상기 클라이언트(110)가 입력한 문자메시지의 의미를 연속동작의 모션을 관리한다.The avatar controller 215 serves to control the avatar to which the natural language processing of the client 110 is applied, and manages the motion of the continuous operation based on the meaning of the text message input by the client 110.
아바타 이미지 데이터베이스(240)는 클라이언트가(110)가 입력한 문자메시지의 의미를 나타내기에 필요한 다수의 아바타 이미지가 저장되어 있는 데이터베이스이다.The avatar image database 240 is a database in which a plurality of avatar images necessary for displaying the meaning of the text message input by the client 110 are stored.
등록 아바타 이미지 데이터베이스(245)는 클라이언트(110)의 기본 아바타가저장되어 있는 곳으로써, 클라이언트가(110)가 입력한 문자메시지의 내용을 클라이언트(110) 본인의 아바타를 통해 나타내기 위해 추출된 아바타 이미지(눈, 코, 입, 동작 등)를 적용시키는 원본 아바타이다.The registered avatar image database 245 is a place where the default avatar of the client 110 is stored. The avatar avatar database is extracted to represent the contents of the text message input by the client 110 through the avatar of the client 110. Original avatar that applies an image (eyes, nose, mouth, motion, etc.).
중앙 제어부(255)는 각 서버(자연어처리 서버, 아바타 서버)를 제어하고 서버간의 데이터 교환 등을 주도하는 등의 인터페이스 역할을 한다.The central control unit 255 serves as an interface for controlling each server (natural language processing server, avatar server) and leading data exchange between the servers.
이와 같이 클라이언트(110)가 이동통신단말기 혹은 인터넷을 통해 문자메시지를 입력하게 되면 자연어처리 서버(100)에서 문자메시지의 의미를 확인하게 되고, 파악된 의미를 그에 해당하는 아바타 이미지를 추출하게 되며, 추출된 아바타 이미지를 상기 클라이언트(110)의 아바타에 적용을 하게 된다. 이로 인해 상기 클라이언트(110)는 상대 클라이언트(115)에게 보다 더 효과적인 의사전달 할 수 있다.As such, when the client 110 inputs a text message through a mobile communication terminal or the Internet, the natural language processing server 100 checks the meaning of the text message, and extracts the avatar image corresponding to the identified meaning. The extracted avatar image is applied to the avatar of the client 110. This allows the client 110 to communicate more effectively to the counterpart client 115.
도 3은 본 발명의 실시예 따른 아바타가 표현되는 전체적인 과정을 간단히 나타낸 흐름도이다.3 is a flowchart briefly illustrating an overall process of representing an avatar according to an embodiment of the present invention.
도 3을 참조하여, 본 발명을 포함하는 이동통신단말기 및 인터넷에서 문자메시지를 입력하면(300), 본 발명이 구현하고자 하는 아바타 분석이 시작된다. 이 시점에서 상기 클라이언트가(110) 본인의 아바타를 이미 소유하고 있다면(305), 문자메시지 분석(310)이 시작되고, 만약 본인의 아바타가 없다면 본인의 아바타를 생성하게 된다(325).Referring to FIG. 3, when a text message is input from the mobile communication terminal and the Internet including the present invention (300), an avatar analysis to be implemented by the present invention is started. At this point, if the client 110 already owns his avatar (305), the text message analysis 310 is started, and if the avatar is not there, the avatar is generated (325).
상기 입력된 문자메시지에 의미하는 아바타 이미지를 추출하여(315), 상기 클라이언트(110) 본인의 아바타에 적용시키게 된다(320).The avatar image meaning the input text message is extracted (315) and applied to the avatar of the client 110 (320).
도 4는 본 발명의 실시예 따른 아바타를 표현하고자 하는 서버의 입장에서 클라이언트의 문자메시지 입력에서부터 아바타가 생성되기까지의 과정을 간단하게 나타낸 흐름도이다.FIG. 4 is a flowchart illustrating a process from inputting a text message of a client to generating an avatar from a server's point of view of representing an avatar according to an embodiment of the present invention.
도 4를 참조하여, 클라이언트(110) 자신이 상대 클라이언트(115)에게 전달 하고자 하는 문자메시지를 입력하면(400), 자연어처리 서버(100)는 상기 문자메시지의 접두어를 검색하여 분석하고(405), 명사를 검색하여 분석하고(410), 접미어를 검색하여 분석하고(415), 신조어를 검색하여 분석하여(420), 자연어 처리를 한다(425).Referring to FIG. 4, when the client 110 itself inputs a text message to be transmitted to the counterpart client 115 (400), the natural language processing server 100 searches for and analyzes a prefix of the text message (405). Search and analyze nouns (410), search and analyze suffixes (415), and search and analyze new words (420), and perform natural language processing (425).
문자메시지 내용 중 자연어 처리가 가능하면(430) 추출된 자연어 처리 결과를 아바타 서버(105)의 자연어 연동부(200)로 전송하여(435), 문자메시지의 내용과 일치하는 감정과 동작의 아바타를 추출한다(440). 클라이언트(110)에 기 존재하는 아바타에 상기에 추출된 아바타를 삽입하고(445), 적용된 아바타를 생성하게 된다(450).If natural language processing is possible among the text message contents (430), the extracted natural language processing result is transmitted to the natural language linkage unit 200 of the avatar server 105 (435), and the avatar of emotions and actions that match the contents of the text message is displayed. Extract (440). The extracted avatar is inserted into the avatar already existing in the client 110 (445), and the applied avatar is generated (450).
생성 후 연속동작의 아바타가 있을 시(455) 상기 아바타 처리를 종료 시까지 생성하며, 생성 종료 시 연속동작의 아바타 생성 및 문자메시지 내용을 삽입한다(460).If there is an avatar of continuous operation after generation (455), the avatar processing is generated until the end of the avatar processing, and when the generation of the avatar is completed, the avatar is generated and a text message is inserted (460).
문자메시지의 내용 중 자연어 처리가 불가능 시에는(430) 기본 아바타를 생성 후 문자메시지를 삽입한다(465).When natural language processing is not possible among the contents of the text message (430), a text message is inserted after generating a basic avatar (465).
도 5는 본 발명의 실시예 따른 자연어처리가 적용된 클라이언트의 이동통신단말기의 아바타 메시지가 상대방 클라이언트의 이동통신단말기에 표시된 결과화면예시도이다.FIG. 5 is an exemplary view of a result screen of an avatar message of a mobile communication terminal of a client to which a natural language processing is applied according to an embodiment of the present invention.
도 5를 참조하여, 본 발명을 실시함에 있어서, 클라이언트(110)는 본인의 이동통신단말기 혹은 인터넷을 통하여 문자메시지를 입력하게 된다(500). 이를 본 발명의 자연어처리기술로 아바타를 처리하여 상대 클라이언트(115)에 표시된 결과 화면이다(505).Referring to FIG. 5, in the practice of the present invention, the client 110 inputs a text message through its mobile communication terminal or the Internet (500). This is a result screen displayed on the counterpart client 115 by processing the avatar using the natural language processing technology of the present invention (505).
문자메시지의 내용 중 "우산 가지고 가"라는 메시지를 입력하면(500) 이를 클라이언트(110)의 기본 아바타에 "우산"의 모양과 "가지고 가"라는 표현이 아바타로 상대 클라이언트(115)의 이동통신단말기 혹은 인터넷 화면에 표시된 예이다(505).When the message "Take Umbrella" is input among the contents of the text message (500), the shape of "Umbrella" and the expression "Take" are displayed on the default avatar of the client 110 as the avatar. This is an example displayed on the terminal or the Internet screen (505).
한편, 본 발명의 상세한 설명에서 구체적인 실시예를 들어 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다.On the other hand, while the specific embodiments have been described in the detailed description of the present invention, various modifications are possible without departing from the scope of the present invention.
상술한 바와 같이 본 발명에 따르면, 클라이언트는 이동통신단말기 혹은 인터넷을 통해 상대 클라이언트에게 전달하고자 하는 의도를 본인의 아바타의 모습과 동작의 변화를 통해서 쉽게 사실적으로 표현할 수 있으므로 기존의 아바타 채팅 혹은 메시지 전송보다 흥미 있고, 확실하게 본인의 의사를 전달 할 수 있는 이점이 있다.As described above, according to the present invention, since the client can easily and realistically express the intention to deliver to the other client through the mobile communication terminal or the Internet through the change of the appearance and operation of the avatar, the existing avatar chat or message transmission. There is an advantage that can be more interesting and sure to communicate your opinion.
Claims (3)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020030025134A KR20040091331A (en) | 2003-04-21 | 2003-04-21 | Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology |
| PCT/KR2004/000905 WO2004095308A1 (en) | 2003-04-21 | 2004-04-20 | Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020030025134A KR20040091331A (en) | 2003-04-21 | 2003-04-21 | Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20040091331A true KR20040091331A (en) | 2004-10-28 |
Family
ID=33308286
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020030025134A Ceased KR20040091331A (en) | 2003-04-21 | 2003-04-21 | Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR20040091331A (en) |
| WO (1) | WO2004095308A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9665563B2 (en) | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
| US11069108B2 (en) | 2019-10-23 | 2021-07-20 | Tata Consultancy Services Limited | Method and system for creating an intelligent cartoon chat strip based on dynamic content |
Families Citing this family (230)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9105014B2 (en) | 2009-02-03 | 2015-08-11 | International Business Machines Corporation | Interactive avatar in messaging environment |
| US10155168B2 (en) | 2012-05-08 | 2018-12-18 | Snap Inc. | System and method for adaptable avatars |
| KR102161764B1 (en) * | 2013-10-31 | 2020-10-05 | 삼성전자주식회사 | Method and computer readable recording medium for displaying a communication window of a messenger using a cartoon image |
| US10283162B2 (en) | 2014-02-05 | 2019-05-07 | Avatar Merger Sub II, LLC | Method for triggering events in a video |
| US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
| US10474353B2 (en) | 2016-05-31 | 2019-11-12 | Snap Inc. | Application control using a gesture based trigger |
| US10360708B2 (en) | 2016-06-30 | 2019-07-23 | Snap Inc. | Avatar based ideogram generation |
| US10855632B2 (en) | 2016-07-19 | 2020-12-01 | Snap Inc. | Displaying customized electronic messaging graphics |
| US10609036B1 (en) | 2016-10-10 | 2020-03-31 | Snap Inc. | Social media post subscribe requests for buffer user accounts |
| US10198626B2 (en) | 2016-10-19 | 2019-02-05 | Snap Inc. | Neural networks for facial modeling |
| US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
| US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
| US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
| US11616745B2 (en) | 2017-01-09 | 2023-03-28 | Snap Inc. | Contextual generation and selection of customized media content |
| US10242477B1 (en) | 2017-01-16 | 2019-03-26 | Snap Inc. | Coded vision system |
| US10951562B2 (en) | 2017-01-18 | 2021-03-16 | Snap. Inc. | Customized contextual media content item generation |
| US10454857B1 (en) | 2017-01-23 | 2019-10-22 | Snap Inc. | Customized digital avatar accessories |
| US20180210628A1 (en) | 2017-01-23 | 2018-07-26 | Snap Inc. | Three-dimensional interaction system |
| US11069103B1 (en) | 2017-04-20 | 2021-07-20 | Snap Inc. | Customized user interface for electronic communications |
| CN111010882B (en) | 2017-04-27 | 2023-11-03 | 斯纳普公司 | Location privacy relevance on map-based social media platforms |
| US11893647B2 (en) | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
| US10212541B1 (en) | 2017-04-27 | 2019-02-19 | Snap Inc. | Selective location-based identity communication |
| US10679428B1 (en) | 2017-05-26 | 2020-06-09 | Snap Inc. | Neural network-based image stream modification |
| US11122094B2 (en) | 2017-07-28 | 2021-09-14 | Snap Inc. | Software application manager for messaging applications |
| US10586368B2 (en) | 2017-10-26 | 2020-03-10 | Snap Inc. | Joint audio-video facial animation system |
| US10657695B2 (en) | 2017-10-30 | 2020-05-19 | Snap Inc. | Animated chat presence |
| US11460974B1 (en) | 2017-11-28 | 2022-10-04 | Snap Inc. | Content discovery refresh |
| KR102433817B1 (en) | 2017-11-29 | 2022-08-18 | 스냅 인코포레이티드 | Group stories in an electronic messaging application |
| KR102318422B1 (en) | 2017-11-29 | 2021-10-28 | 스냅 인코포레이티드 | Graphics rendering for electronic messaging applications |
| US10949648B1 (en) | 2018-01-23 | 2021-03-16 | Snap Inc. | Region-based stabilized face tracking |
| US10726603B1 (en) | 2018-02-28 | 2020-07-28 | Snap Inc. | Animated expressive icon |
| US10979752B1 (en) | 2018-02-28 | 2021-04-13 | Snap Inc. | Generating media content items based on location information |
| US11310176B2 (en) | 2018-04-13 | 2022-04-19 | Snap Inc. | Content suggestion system |
| KR20240027845A (en) | 2018-04-18 | 2024-03-04 | 스냅 인코포레이티드 | Augmented expression system |
| US11074675B2 (en) | 2018-07-31 | 2021-07-27 | Snap Inc. | Eye texture inpainting |
| US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
| CN110880198A (en) * | 2018-09-06 | 2020-03-13 | 百度在线网络技术(北京)有限公司 | Animation generation method and device |
| US10896534B1 (en) | 2018-09-19 | 2021-01-19 | Snap Inc. | Avatar style transformation using neural networks |
| US10895964B1 (en) | 2018-09-25 | 2021-01-19 | Snap Inc. | Interface to display shared user groups |
| US10698583B2 (en) | 2018-09-28 | 2020-06-30 | Snap Inc. | Collaborative achievement interface |
| US11245658B2 (en) | 2018-09-28 | 2022-02-08 | Snap Inc. | System and method of generating private notifications between users in a communication session |
| US11189070B2 (en) | 2018-09-28 | 2021-11-30 | Snap Inc. | System and method of generating targeted user lists using customizable avatar characteristics |
| US10904181B2 (en) | 2018-09-28 | 2021-01-26 | Snap Inc. | Generating customized graphics having reactions to electronic message content |
| US10872451B2 (en) | 2018-10-31 | 2020-12-22 | Snap Inc. | 3D avatar rendering |
| US11103795B1 (en) | 2018-10-31 | 2021-08-31 | Snap Inc. | Game drawer |
| US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
| US10902661B1 (en) | 2018-11-28 | 2021-01-26 | Snap Inc. | Dynamic composite user identifier |
| US10861170B1 (en) | 2018-11-30 | 2020-12-08 | Snap Inc. | Efficient human pose tracking in videos |
| US11199957B1 (en) | 2018-11-30 | 2021-12-14 | Snap Inc. | Generating customized avatars based on location information |
| US11055514B1 (en) | 2018-12-14 | 2021-07-06 | Snap Inc. | Image face manipulation |
| CN120894483A (en) | 2018-12-20 | 2025-11-04 | 斯纳普公司 | Virtual surface modification |
| US11516173B1 (en) | 2018-12-26 | 2022-11-29 | Snap Inc. | Message composition interface |
| US11032670B1 (en) | 2019-01-14 | 2021-06-08 | Snap Inc. | Destination sharing in location sharing system |
| US10939246B1 (en) | 2019-01-16 | 2021-03-02 | Snap Inc. | Location-based context information sharing in a messaging system |
| US11294936B1 (en) | 2019-01-30 | 2022-04-05 | Snap Inc. | Adaptive spatial density based clustering |
| US10984575B2 (en) | 2019-02-06 | 2021-04-20 | Snap Inc. | Body pose estimation |
| US10656797B1 (en) | 2019-02-06 | 2020-05-19 | Snap Inc. | Global event-based avatar |
| US10936066B1 (en) | 2019-02-13 | 2021-03-02 | Snap Inc. | Sleep detection in a location sharing system |
| US10964082B2 (en) | 2019-02-26 | 2021-03-30 | Snap Inc. | Avatar based on weather |
| US10852918B1 (en) | 2019-03-08 | 2020-12-01 | Snap Inc. | Contextual information in chat |
| US12242979B1 (en) | 2019-03-12 | 2025-03-04 | Snap Inc. | Departure time estimation in a location sharing system |
| US11868414B1 (en) | 2019-03-14 | 2024-01-09 | Snap Inc. | Graph-based prediction for contact suggestion in a location sharing system |
| US11852554B1 (en) | 2019-03-21 | 2023-12-26 | Snap Inc. | Barometer calibration in a location sharing system |
| US11166123B1 (en) | 2019-03-28 | 2021-11-02 | Snap Inc. | Grouped transmission of location data in a location sharing system |
| US10674311B1 (en) | 2019-03-28 | 2020-06-02 | Snap Inc. | Points of interest in a location sharing system |
| US12070682B2 (en) | 2019-03-29 | 2024-08-27 | Snap Inc. | 3D avatar plugin for third-party games |
| US12335213B1 (en) | 2019-03-29 | 2025-06-17 | Snap Inc. | Generating recipient-personalized media content items |
| US10992619B2 (en) | 2019-04-30 | 2021-04-27 | Snap Inc. | Messaging system with avatar generation |
| USD916811S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
| USD916809S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
| USD916871S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
| USD916872S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
| USD916810S1 (en) | 2019-05-28 | 2021-04-20 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
| US10893385B1 (en) | 2019-06-07 | 2021-01-12 | Snap Inc. | Detection of a physical collision between two client devices in a location sharing system |
| US11188190B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | Generating animation overlays in a communication session |
| US11676199B2 (en) | 2019-06-28 | 2023-06-13 | Snap Inc. | Generating customizable avatar outfits |
| US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
| US11307747B2 (en) | 2019-07-11 | 2022-04-19 | Snap Inc. | Edge gesture interface with smart interactions |
| US11455081B2 (en) | 2019-08-05 | 2022-09-27 | Snap Inc. | Message thread prioritization interface |
| US10911387B1 (en) | 2019-08-12 | 2021-02-02 | Snap Inc. | Message reminder interface |
| US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
| US11320969B2 (en) | 2019-09-16 | 2022-05-03 | Snap Inc. | Messaging system with battery level sharing |
| US11343209B2 (en) | 2019-09-27 | 2022-05-24 | Snap Inc. | Presenting reactions from friends |
| US11425062B2 (en) | 2019-09-27 | 2022-08-23 | Snap Inc. | Recommended content viewed by friends |
| US11080917B2 (en) | 2019-09-30 | 2021-08-03 | Snap Inc. | Dynamic parameterized user avatar stories |
| US11218838B2 (en) | 2019-10-31 | 2022-01-04 | Snap Inc. | Focused map-based context information surfacing |
| US11544921B1 (en) | 2019-11-22 | 2023-01-03 | Snap Inc. | Augmented reality items based on scan |
| US11063891B2 (en) | 2019-12-03 | 2021-07-13 | Snap Inc. | Personalized avatar notification |
| US11128586B2 (en) | 2019-12-09 | 2021-09-21 | Snap Inc. | Context sensitive avatar captions |
| US11036989B1 (en) | 2019-12-11 | 2021-06-15 | Snap Inc. | Skeletal tracking using previous frames |
| US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
| US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
| US11140515B1 (en) | 2019-12-30 | 2021-10-05 | Snap Inc. | Interfaces for relative device positioning |
| US11128715B1 (en) | 2019-12-30 | 2021-09-21 | Snap Inc. | Physical friend proximity in chat |
| US11169658B2 (en) | 2019-12-31 | 2021-11-09 | Snap Inc. | Combined map icon with action indicator |
| US11356720B2 (en) | 2020-01-30 | 2022-06-07 | Snap Inc. | Video generation system to render frames on demand |
| US11036781B1 (en) | 2020-01-30 | 2021-06-15 | Snap Inc. | Video generation system to render frames on demand using a fleet of servers |
| WO2021155249A1 (en) | 2020-01-30 | 2021-08-05 | Snap Inc. | System for generating media content items on demand |
| US11991419B2 (en) | 2020-01-30 | 2024-05-21 | Snap Inc. | Selecting avatars to be included in the video being generated on demand |
| US11284144B2 (en) | 2020-01-30 | 2022-03-22 | Snap Inc. | Video generation system to render frames on demand using a fleet of GPUs |
| US11619501B2 (en) | 2020-03-11 | 2023-04-04 | Snap Inc. | Avatar based on trip |
| US11217020B2 (en) | 2020-03-16 | 2022-01-04 | Snap Inc. | 3D cutout image modification |
| US11818286B2 (en) | 2020-03-30 | 2023-11-14 | Snap Inc. | Avatar recommendation and reply |
| US11625873B2 (en) | 2020-03-30 | 2023-04-11 | Snap Inc. | Personalized media overlay recommendation |
| US11676354B2 (en) | 2020-03-31 | 2023-06-13 | Snap Inc. | Augmented reality beauty product tutorials |
| CN115699130A (en) | 2020-03-31 | 2023-02-03 | 斯纳普公司 | Augmented reality cosmetic product tutorial |
| US11956190B2 (en) | 2020-05-08 | 2024-04-09 | Snap Inc. | Messaging system with a carousel of related entities |
| US11922010B2 (en) | 2020-06-08 | 2024-03-05 | Snap Inc. | Providing contextual information with keyboard interface for messaging system |
| US11543939B2 (en) | 2020-06-08 | 2023-01-03 | Snap Inc. | Encoded image based messaging system |
| US11423652B2 (en) | 2020-06-10 | 2022-08-23 | Snap Inc. | Adding beauty products to augmented reality tutorials |
| US11356392B2 (en) | 2020-06-10 | 2022-06-07 | Snap Inc. | Messaging system including an external-resource dock and drawer |
| US12184809B2 (en) | 2020-06-25 | 2024-12-31 | Snap Inc. | Updating an avatar status for a user of a messaging system |
| CN115735229A (en) | 2020-06-25 | 2023-03-03 | 斯纳普公司 | Update avatar outfits in the messaging system |
| US11580682B1 (en) | 2020-06-30 | 2023-02-14 | Snap Inc. | Messaging system with augmented reality makeup |
| US11863513B2 (en) | 2020-08-31 | 2024-01-02 | Snap Inc. | Media content playback and comments management |
| US11360733B2 (en) | 2020-09-10 | 2022-06-14 | Snap Inc. | Colocated shared augmented reality without shared backend |
| US12284146B2 (en) | 2020-09-16 | 2025-04-22 | Snap Inc. | Augmented reality auto reactions |
| US11452939B2 (en) | 2020-09-21 | 2022-09-27 | Snap Inc. | Graphical marker generation system for synchronizing users |
| US11470025B2 (en) | 2020-09-21 | 2022-10-11 | Snap Inc. | Chats with micro sound clips |
| US11910269B2 (en) | 2020-09-25 | 2024-02-20 | Snap Inc. | Augmented reality content items including user avatar to share location |
| US11660022B2 (en) | 2020-10-27 | 2023-05-30 | Snap Inc. | Adaptive skeletal joint smoothing |
| US11615592B2 (en) | 2020-10-27 | 2023-03-28 | Snap Inc. | Side-by-side character animation from realtime 3D body motion capture |
| US11748931B2 (en) | 2020-11-18 | 2023-09-05 | Snap Inc. | Body animation sharing and remixing |
| US11450051B2 (en) | 2020-11-18 | 2022-09-20 | Snap Inc. | Personalized avatar real-time motion capture |
| US11734894B2 (en) | 2020-11-18 | 2023-08-22 | Snap Inc. | Real-time motion transfer for prosthetic limbs |
| US12008811B2 (en) | 2020-12-30 | 2024-06-11 | Snap Inc. | Machine learning-based selection of a representative video frame within a messaging application |
| EP4272184A1 (en) | 2020-12-30 | 2023-11-08 | Snap Inc. | Selecting representative video frame by machine learning |
| CN116670685A (en) | 2020-12-30 | 2023-08-29 | 斯纳普公司 | Guided flow motion redirection |
| EP4271494A1 (en) | 2020-12-31 | 2023-11-08 | Snap Inc. | Avatar customization system |
| US12106486B2 (en) | 2021-02-24 | 2024-10-01 | Snap Inc. | Whole body visual effects |
| US11790531B2 (en) | 2021-02-24 | 2023-10-17 | Snap Inc. | Whole body segmentation |
| US11978283B2 (en) | 2021-03-16 | 2024-05-07 | Snap Inc. | Mirroring device with a hands-free mode |
| US11798201B2 (en) | 2021-03-16 | 2023-10-24 | Snap Inc. | Mirroring device with whole-body outfits |
| US11809633B2 (en) | 2021-03-16 | 2023-11-07 | Snap Inc. | Mirroring device with pointing based navigation |
| US11908243B2 (en) | 2021-03-16 | 2024-02-20 | Snap Inc. | Menu hierarchy navigation on electronic mirroring devices |
| US11734959B2 (en) | 2021-03-16 | 2023-08-22 | Snap Inc. | Activating hands-free mode on mirroring device |
| US11544885B2 (en) | 2021-03-19 | 2023-01-03 | Snap Inc. | Augmented reality experience based on physical items |
| US12067804B2 (en) | 2021-03-22 | 2024-08-20 | Snap Inc. | True size eyewear experience in real time |
| US11562548B2 (en) | 2021-03-22 | 2023-01-24 | Snap Inc. | True size eyewear in real time |
| US12165243B2 (en) | 2021-03-30 | 2024-12-10 | Snap Inc. | Customizable avatar modification system |
| US12034680B2 (en) | 2021-03-31 | 2024-07-09 | Snap Inc. | User presence indication data management |
| US12170638B2 (en) | 2021-03-31 | 2024-12-17 | Snap Inc. | User presence status indicators generation and management |
| WO2022213088A1 (en) | 2021-03-31 | 2022-10-06 | Snap Inc. | Customizable avatar generation system |
| US12100156B2 (en) | 2021-04-12 | 2024-09-24 | Snap Inc. | Garment segmentation |
| US12327277B2 (en) | 2021-04-12 | 2025-06-10 | Snap Inc. | Home based augmented reality shopping |
| US12182583B2 (en) | 2021-05-19 | 2024-12-31 | Snap Inc. | Personalized avatar experience during a system boot process |
| US11636654B2 (en) | 2021-05-19 | 2023-04-25 | Snap Inc. | AR-based connected portal shopping |
| US11941227B2 (en) | 2021-06-30 | 2024-03-26 | Snap Inc. | Hybrid search system for customizable media |
| US11854069B2 (en) | 2021-07-16 | 2023-12-26 | Snap Inc. | Personalized try-on ads |
| US11908083B2 (en) | 2021-08-31 | 2024-02-20 | Snap Inc. | Deforming custom mesh based on body mesh |
| US11983462B2 (en) | 2021-08-31 | 2024-05-14 | Snap Inc. | Conversation guided augmented reality experience |
| US11670059B2 (en) | 2021-09-01 | 2023-06-06 | Snap Inc. | Controlling interactive fashion based on body gestures |
| US12198664B2 (en) | 2021-09-02 | 2025-01-14 | Snap Inc. | Interactive fashion with music AR |
| US11673054B2 (en) | 2021-09-07 | 2023-06-13 | Snap Inc. | Controlling AR games on fashion items |
| US11663792B2 (en) | 2021-09-08 | 2023-05-30 | Snap Inc. | Body fitted accessory with physics simulation |
| US11900506B2 (en) | 2021-09-09 | 2024-02-13 | Snap Inc. | Controlling interactive fashion based on facial expressions |
| US11734866B2 (en) | 2021-09-13 | 2023-08-22 | Snap Inc. | Controlling interactive fashion based on voice |
| US11798238B2 (en) | 2021-09-14 | 2023-10-24 | Snap Inc. | Blending body mesh into external mesh |
| US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
| USD1089291S1 (en) | 2021-09-28 | 2025-08-19 | Snap Inc. | Display screen or portion thereof with a graphical user interface |
| US11983826B2 (en) | 2021-09-30 | 2024-05-14 | Snap Inc. | 3D upper garment tracking |
| US11636662B2 (en) | 2021-09-30 | 2023-04-25 | Snap Inc. | Body normal network light and rendering control |
| US11836862B2 (en) | 2021-10-11 | 2023-12-05 | Snap Inc. | External mesh with vertex attributes |
| US11651572B2 (en) | 2021-10-11 | 2023-05-16 | Snap Inc. | Light and rendering of garments |
| US11790614B2 (en) | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
| US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
| US12086916B2 (en) | 2021-10-22 | 2024-09-10 | Snap Inc. | Voice note with face tracking |
| US11996113B2 (en) | 2021-10-29 | 2024-05-28 | Snap Inc. | Voice notes with changing effects |
| US12020358B2 (en) | 2021-10-29 | 2024-06-25 | Snap Inc. | Animated custom sticker creation |
| US11995757B2 (en) | 2021-10-29 | 2024-05-28 | Snap Inc. | Customized animation from video |
| US11748958B2 (en) | 2021-12-07 | 2023-09-05 | Snap Inc. | Augmented reality unboxing experience |
| US11960784B2 (en) | 2021-12-07 | 2024-04-16 | Snap Inc. | Shared augmented reality unboxing experience |
| US12315495B2 (en) | 2021-12-17 | 2025-05-27 | Snap Inc. | Speech to entity |
| US12223672B2 (en) | 2021-12-21 | 2025-02-11 | Snap Inc. | Real-time garment exchange |
| US11880947B2 (en) | 2021-12-21 | 2024-01-23 | Snap Inc. | Real-time upper-body garment exchange |
| US12096153B2 (en) | 2021-12-21 | 2024-09-17 | Snap Inc. | Avatar call platform |
| US12198398B2 (en) | 2021-12-21 | 2025-01-14 | Snap Inc. | Real-time motion and appearance transfer |
| US11928783B2 (en) | 2021-12-30 | 2024-03-12 | Snap Inc. | AR position and orientation along a plane |
| US11887260B2 (en) | 2021-12-30 | 2024-01-30 | Snap Inc. | AR position indicator |
| US12499626B2 (en) | 2021-12-30 | 2025-12-16 | Snap Inc. | AR item placement in a video |
| US12412205B2 (en) | 2021-12-30 | 2025-09-09 | Snap Inc. | Method, system, and medium for augmented reality product recommendations |
| WO2023137482A1 (en) | 2022-01-17 | 2023-07-20 | Snap Inc. | Ar body part tracking system |
| US11823346B2 (en) | 2022-01-17 | 2023-11-21 | Snap Inc. | AR body part tracking system |
| US11954762B2 (en) | 2022-01-19 | 2024-04-09 | Snap Inc. | Object replacement system |
| US12142257B2 (en) | 2022-02-08 | 2024-11-12 | Snap Inc. | Emotion-based text to speech |
| US12002146B2 (en) | 2022-03-28 | 2024-06-04 | Snap Inc. | 3D modeling based on neural light field |
| US12148105B2 (en) | 2022-03-30 | 2024-11-19 | Snap Inc. | Surface normals for pixel-aligned object |
| US12254577B2 (en) | 2022-04-05 | 2025-03-18 | Snap Inc. | Pixel depth determination for object |
| US12293433B2 (en) | 2022-04-25 | 2025-05-06 | Snap Inc. | Real-time modifications in augmented reality experiences |
| US12277632B2 (en) | 2022-04-26 | 2025-04-15 | Snap Inc. | Augmented reality experiences with dual cameras |
| US12164109B2 (en) | 2022-04-29 | 2024-12-10 | Snap Inc. | AR/VR enabled contact lens |
| US12062144B2 (en) | 2022-05-27 | 2024-08-13 | Snap Inc. | Automated augmented reality experience creation based on sample source and target images |
| US12020384B2 (en) | 2022-06-21 | 2024-06-25 | Snap Inc. | Integrating augmented reality experiences with other components |
| US12020386B2 (en) | 2022-06-23 | 2024-06-25 | Snap Inc. | Applying pregenerated virtual experiences in new location |
| US11870745B1 (en) | 2022-06-28 | 2024-01-09 | Snap Inc. | Media gallery sharing and management |
| US12235991B2 (en) | 2022-07-06 | 2025-02-25 | Snap Inc. | Obscuring elements based on browser focus |
| US12307564B2 (en) | 2022-07-07 | 2025-05-20 | Snap Inc. | Applying animated 3D avatar in AR experiences |
| US12361934B2 (en) | 2022-07-14 | 2025-07-15 | Snap Inc. | Boosting words in automated speech recognition |
| US12284698B2 (en) | 2022-07-20 | 2025-04-22 | Snap Inc. | Secure peer-to-peer connections between mobile devices |
| US12062146B2 (en) | 2022-07-28 | 2024-08-13 | Snap Inc. | Virtual wardrobe AR experience |
| US12472435B2 (en) | 2022-08-12 | 2025-11-18 | Snap Inc. | External controller for an eyewear device |
| US12236512B2 (en) | 2022-08-23 | 2025-02-25 | Snap Inc. | Avatar call on an eyewear device |
| US12051163B2 (en) | 2022-08-25 | 2024-07-30 | Snap Inc. | External computer vision for an eyewear device |
| US12154232B2 (en) | 2022-09-30 | 2024-11-26 | Snap Inc. | 9-DoF object tracking |
| US12229901B2 (en) | 2022-10-05 | 2025-02-18 | Snap Inc. | External screen streaming for an eyewear device |
| US12499638B2 (en) | 2022-10-17 | 2025-12-16 | Snap Inc. | Stylizing a whole-body of a person |
| US12288273B2 (en) | 2022-10-28 | 2025-04-29 | Snap Inc. | Avatar fashion delivery |
| US11893166B1 (en) | 2022-11-08 | 2024-02-06 | Snap Inc. | User avatar movement control using an augmented reality eyewear device |
| US12504866B2 (en) | 2022-11-29 | 2025-12-23 | Snap Inc | Automated tagging of content items |
| US12429953B2 (en) | 2022-12-09 | 2025-09-30 | Snap Inc. | Multi-SoC hand-tracking platform |
| US12475658B2 (en) | 2022-12-09 | 2025-11-18 | Snap Inc. | Augmented reality shared screen space |
| US12243266B2 (en) | 2022-12-29 | 2025-03-04 | Snap Inc. | Device pairing using machine-readable optical label |
| US12530847B2 (en) | 2023-01-23 | 2026-01-20 | Snap Inc. | Image generation from text and 3D object |
| US12417562B2 (en) | 2023-01-25 | 2025-09-16 | Snap Inc. | Synthetic view for try-on experience |
| US12499483B2 (en) | 2023-01-25 | 2025-12-16 | Snap Inc. | Adaptive zoom try-on experience |
| US12340453B2 (en) | 2023-02-02 | 2025-06-24 | Snap Inc. | Augmented reality try-on experience for friend |
| US12299775B2 (en) | 2023-02-20 | 2025-05-13 | Snap Inc. | Augmented reality experience with lighting adjustment |
| US12149489B2 (en) | 2023-03-14 | 2024-11-19 | Snap Inc. | Techniques for recommending reply stickers |
| US12530852B2 (en) | 2023-04-06 | 2026-01-20 | Snap Inc. | Optical character recognition for augmented images |
| US12394154B2 (en) | 2023-04-13 | 2025-08-19 | Snap Inc. | Body mesh reconstruction from RGB image |
| US12475621B2 (en) | 2023-04-20 | 2025-11-18 | Snap Inc. | Product image generation based on diffusion model |
| US12436598B2 (en) | 2023-05-01 | 2025-10-07 | Snap Inc. | Techniques for using 3-D avatars in augmented reality messaging |
| US12518437B2 (en) | 2023-05-11 | 2026-01-06 | Snap Inc. | Diffusion model virtual try-on experience |
| US20240395028A1 (en) | 2023-05-26 | 2024-11-28 | Snap Inc. | Latent diffusion model autodecoders |
| US12513098B2 (en) | 2023-06-13 | 2025-12-30 | Snap Inc. | Sticker search icon providing dynamic previews |
| US12517626B2 (en) | 2023-06-13 | 2026-01-06 | Snap Inc. | Sticker search icon with multiple states |
| US12047337B1 (en) | 2023-07-03 | 2024-07-23 | Snap Inc. | Generating media content items during user interaction |
| US12482131B2 (en) | 2023-07-10 | 2025-11-25 | Snap Inc. | Extended reality tracking using shared pose data |
| US12536751B2 (en) | 2023-08-16 | 2026-01-27 | Snap Inc. | Pixel-based deformation of fashion items |
| US12541930B2 (en) | 2023-12-28 | 2026-02-03 | Snap Inc. | Pixel-based multi-view garment transfer |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5880731A (en) * | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
| US6453294B1 (en) * | 2000-05-31 | 2002-09-17 | International Business Machines Corporation | Dynamic destination-determined multimedia avatars for interactive on-line communications |
| KR20010025161A (en) * | 2000-06-02 | 2001-04-06 | 조양일 | Method for providing an avatar maker |
| KR20010034987A (en) * | 2000-06-22 | 2001-05-07 | 문경수 | Method of using animated characters working together word in electronic mail or chatting on internet basis |
| KR20020042248A (en) * | 2000-11-30 | 2002-06-05 | 한가람 | Method and system for perceiving emotion from the text and visualizing the perceived emotion |
-
2003
- 2003-04-21 KR KR1020030025134A patent/KR20040091331A/en not_active Ceased
-
2004
- 2004-04-20 WO PCT/KR2004/000905 patent/WO2004095308A1/en not_active Ceased
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9665563B2 (en) | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
| US11069108B2 (en) | 2019-10-23 | 2021-07-20 | Tata Consultancy Services Limited | Method and system for creating an intelligent cartoon chat strip based on dynamic content |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2004095308A1 (en) | 2004-11-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR20040091331A (en) | Method and system for expressing avatar that correspond to message and sentence inputted of using natural language processing technology | |
| KR101925440B1 (en) | Method for providing vr based live video chat service using conversational ai | |
| US20090058860A1 (en) | Method for Transforming Language Into a Visual Form | |
| KR20220127471A (en) | Device, Method and program for providing psychological counseling using VR | |
| CN109086860B (en) | Interaction method and system based on virtual human | |
| US8645479B2 (en) | Chatting system, method and apparatus for virtual pet | |
| CN119047578B (en) | Character dialogue method, agent, device and storage medium based on large model | |
| CN111062207B (en) | Expression image processing method and device, computer storage medium and electronic equipment | |
| CN107817799B (en) | Method and system for intelligent interaction by combining virtual maze | |
| Hasani et al. | Immersive experience with non-player characters dynamic dialogue | |
| Badura et al. | System supporting poetry generation using text generation and style transfer methods | |
| Arifi et al. | Potentials of Chatbots for Spell Check among Youngsters. | |
| KR20230099936A (en) | A dialogue friends porviding system based on ai dialogue model | |
| CN116226411B (en) | Interactive information processing method and device for interactive project based on animation | |
| JP2000259601A (en) | Conversation device and its method | |
| KR102101311B1 (en) | Method and apparatus for providing virtual reality including virtual pet | |
| JP2022146699A (en) | Program, device, and method for agent performing dialog using a plurality of characters | |
| KR20030026506A (en) | System and method for interlocking process between emoticon and avatar | |
| JP2025044246A (en) | system | |
| KR20060104980A (en) | Method and system for processing emoticons and avatars | |
| Boutet | The dual origin of gesture: Semiotic preconditions for the emergence of two kinds of symbolic gestures | |
| JP7525207B1 (en) | Information processing system, information processing method, and program | |
| JP7773605B2 (en) | system | |
| KR20060104981A (en) | Method and system for processing emoticons and avatars | |
| JP2025049275A (en) | system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20030421 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20050222 Patent event code: PE09021S01D |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20060116 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20050222 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |