JP4854424B2 - Chat system, communication apparatus, control method thereof, and program - Google Patents
Chat system, communication apparatus, control method thereof, and program Download PDFInfo
- Publication number
- JP4854424B2 JP4854424B2 JP2006210866A JP2006210866A JP4854424B2 JP 4854424 B2 JP4854424 B2 JP 4854424B2 JP 2006210866 A JP2006210866 A JP 2006210866A JP 2006210866 A JP2006210866 A JP 2006210866A JP 4854424 B2 JP4854424 B2 JP 4854424B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- character string
- message
- message character
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims 3
- 230000008451 emotion Effects 0.000 claims 32
Images
Landscapes
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明はチャットシステム、チャットシステムに用いる通信装置、通信装置の制御方法及びプログラムに関し、特にユーザの感情を表す画像等を出力するシステムに関する。 The present invention relates to a chat system, a communication device used in the chat system, a communication device control method, and a program, and more particularly to a system that outputs an image or the like representing a user's emotion.
チャットシステムにおいては、メッセージ送信者の感情を相手方に伝達するために感情の内容を示す情報を入力させ、それをメッセージとともに、或いはメッセージとは別に送信して、受信側において、その情報に応じて感情の内容を示す画像、例えばメッセージ送信者が入力した情報に応じた表情のアバター(分身)画像を表示させるものがあった。こうしたシステムによれば、メッセージ送信者の感情の内容を相手方に伝達することができ、それにより円滑なコミュニケーションを実現することができる。 In the chat system, in order to transmit the message sender's emotion to the other party, the information indicating the content of the emotion is input and transmitted together with the message or separately from the message. There is an image that displays an emotion content, for example, an avatar (another image) image of an expression corresponding to information input by a message sender. According to such a system, the content of the emotion of the message sender can be transmitted to the other party, thereby realizing smooth communication.
しかしながら、上記背景技術に係るシステムでは、メッセージ送信者は感情の内容を示す情報をいちいち入力しなければ、それを相手方に伝達することができず、大変煩わしいものとなっていた。 However, in the system according to the background art described above, unless the message sender inputs information indicating the content of emotions one by one, it cannot be transmitted to the other party, which is very troublesome.
本発明は上記課題に鑑みてなされたものであって、その目的は、メッセージ送信者の感情の変化を簡易な構成で判断し、それを受信側で出力させることができるチャットシステム、チャットシステムに用いる通信装置、通信装置の制御方法及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to a chat system and a chat system capable of judging a change in emotion of a message sender with a simple configuration and outputting it on the receiving side. To provide a communication device to be used, a communication device control method, and a program.
上記課題を解決するために、本発明に係るチャットシステムは、複数の装置を含んで構成され、各装置においてメッセージ文字列を入力するとともに、他の装置に送信し、該他の装置において前記メッセージ文字列を受信するとともに、出力するチャットシステムにおいて、あるメッセージ文字列の入力タイミングから他のメッセージ文字列の入力タイミングまでの経過時間に応じて感情レベルを決定する手段と、前記他の装置において、決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含むことを特徴とする。 In order to solve the above-described problem, a chat system according to the present invention includes a plurality of devices, and each device inputs a message character string and transmits the message character string to another device. In the chat system that receives and outputs a character string, in the other device, a means for determining an emotion level according to an elapsed time from an input timing of a certain message character string to an input timing of another message character string, And means for outputting at least one of an image or a sound according to the determined emotion level.
本発明によれば、あるメッセージ文字列の入力タイミングから別のメッセージ文字列の入力タイミングまでの経過時間に応じて感情レベルが決定され、それに応じた画像や音が第2装置において出力されるので、メッセージ送信者に負担を掛けることなく、その感情をメッセージ受信者が直感的に把握できるようになる。なお、音は、例えば音声や音楽等である(以下、同様)。 According to the present invention, the emotion level is determined according to the elapsed time from the input timing of one message character string to the input timing of another message character string, and the image and sound corresponding to that are output in the second device. The message receiver can intuitively grasp the emotion without imposing a burden on the message sender. The sound is, for example, voice or music (hereinafter the same).
また、本発明に係るチャットシステムは、第1装置及び第2装置を含むチャットシステムにおいて、前記第1装置は、メッセージ文字列を入力する手段と、感情の種類を示す感情種類データを入力する手段と、入力される前記メッセージ文字列を前記第2装置に送信する手段と、入力される前記感情種類データを前記第2装置に送信する手段と、を含み、前記第2装置は、前記第1装置から前記メッセージ文字列を受信する手段と、前記第1装置から前記感情種類データを受信する手段と、受信される前記メッセージ文字列を出力する手段と、前記第1装置における前記メッセージ文字列の入力タイミングに応じて決定される感情レベルを取得する手段と、受信される前記感情種類データ及び取得される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含むことを特徴とする。 The chat system according to the present invention is a chat system including a first device and a second device, wherein the first device inputs means for inputting a message character string and means for inputting emotion type data indicating the type of emotion. And means for transmitting the input message character string to the second device, and means for transmitting the emotion type data to be input to the second device, wherein the second device includes the first device Means for receiving the message character string from a device, means for receiving the emotion type data from the first device, means for outputting the received message character string, and the message character string in the first device. Means for acquiring an emotion level determined according to the input timing; and the received emotion type data and the image or sound corresponding to the acquired emotion level. It means for outputting at least one Chi, characterized in that it comprises a.
本発明によれば、第1装置において入力される感情種類データ、及び第1装置におけるメッセージ文字列の入力タイミングに応じて決定される感情レベルに応じた画像や音が第2装置において出力されるので、メッセージ送信者に負担を掛けることなく、その感情をメッセージ受信者に直感的に把握させることができるようになる。 According to the present invention, the second device outputs images and sounds corresponding to the emotion type data input in the first device and the emotion level determined according to the input timing of the message character string in the first device. Therefore, the message receiver can intuitively grasp the emotion without imposing a burden on the message sender.
ここで、「感情種類データ」は、例えば喜怒哀楽等のメッセージ送信者の感情の種類を示すデータである。また、「前記第1装置における前記メッセージ文字列の入力タイミング」は、第1装置においてメッセージ文字列の入力が完了したタイミング、第1装置から第2装置に宛ててメッセージ文字列が送信されるタイミング、第2装置においてメッセージ文字列が受信又は出力されるタイミング、第1装置と第2装置との通信を中継する中継装置においてメッセージ文字列が受信又は送信されるタイミング等、第1装置におけるメッセージ文字列の入力タイミングに対応するあらゆるタイミングを含む。 Here, “emotion type data” is data indicating the type of emotion of the message sender such as emotions. Further, “the input timing of the message character string in the first device” refers to the timing when the input of the message character string is completed in the first device, and the timing when the message character string is transmitted from the first device to the second device. The message character in the first device, such as the timing at which the second device receives or outputs the message character string, the timing at which the message character string is received or transmitted by the relay device that relays communication between the first device and the second device, etc. Includes any timing corresponding to the input timing of the column.
また、本発明に係る通信装置は、チャットシステムに用いられる通信装置であって、メッセージ文字列を入力する手段と、感情の種類を示す感情種類データを入力する手段と、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段と、入力される前記メッセージ文字列を送信する手段と、入力される前記感情種類データを送信する手段と、決定される前記感情レベルを送信する手段と、を含むことを特徴とする。 The communication device according to the present invention is a communication device used in a chat system, wherein the message character string is input, the emotion type data indicating the type of emotion is input, and the message character string is input. Means for determining an emotion level according to timing; means for transmitting the input message character string; means for transmitting the input emotion type data; means for transmitting the determined emotion level; It is characterized by including.
また、本発明に係る方法は、チャットシステムに用いられる通信装置の制御方法であって、メッセージ文字列の入力を受け付けるステップと、感情の種類を示す感情種類データの入力を受け付けるステップと、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定するステップと、入力される前記メッセージ文字列を送信するステップと、入力される前記感情種類データを送信するステップと、決定される前記感情レベルを送信するステップと、を含むことを特徴とする。 The method according to the present invention is a method for controlling a communication device used in a chat system, the step of receiving an input of a message character string, the step of receiving an input of emotion type data indicating the type of emotion, and the message A step of determining an emotion level according to a character string input timing; a step of transmitting the input message character string; a step of transmitting the emotion type data to be input; and transmitting the emotion level to be determined And a step of performing.
また、本発明に係るプログラムは、メッセージ文字列を入力する手段、感情の種類を示す感情種類データを入力する手段、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段、入力される前記メッセージ文字列を送信する手段、入力される前記感情種類データを送信する手段、及び決定される前記感情レベルを送信する手段としてコンピュータを機能させるためのプログラムである。 Further, the program according to the present invention is inputted with means for inputting a message character string, means for inputting emotion type data indicating the type of emotion, means for determining an emotion level according to the input timing of the message character string, A program for causing a computer to function as means for transmitting the message character string, means for transmitting the inputted emotion type data, and means for transmitting the determined emotion level.
本発明によれば、メッセージ文字列の入力・送信側において感情レベルを決定することができる。 According to the present invention, the emotion level can be determined on the message character string input / transmission side.
また、本発明に係る通信装置は、チャットシステムに用いられる通信装置であって、メッセージ文字列を受信する手段と、感情種類データを受信する手段と、受信される前記メッセージ文字列を出力する手段と、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段と、受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含むことを特徴とする。 Further, the communication device according to the present invention is a communication device used in a chat system, a means for receiving a message character string, a means for receiving emotion type data, and a means for outputting the received message character string. Means for determining an emotion level according to the input timing of the message character string; means for outputting at least one of the received emotion type data and an image or sound according to the determined emotion level; It is characterized by including.
また、本発明に係る方法は、チャットシステムに用いられる通信装置の制御方法であって、メッセージ文字列を受信するステップと、感情種類データを受信するステップと、受信される前記メッセージ文字列を出力するステップと、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定するステップと、受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力するステップと、を含むことを特徴とする。 The method according to the present invention is a method for controlling a communication device used in a chat system, the step of receiving a message character string, the step of receiving emotion type data, and outputting the received message character string. A step of determining an emotion level according to the input timing of the message character string, and a step of outputting at least one of the received emotion type data and an image or sound according to the determined emotion level It is characterized by including these.
また、本発明に係るプログラムは、メッセージ文字列を受信する手段、感情種類データを受信する手段、受信される前記メッセージ文字列を出力する手段、前記メッセージ文字列の入力タイミングに応じて感情レベルを決定する手段、及び受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段としてコンピュータを機能させるためのプログラムである。 The program according to the present invention includes a means for receiving a message character string, a means for receiving emotion type data, a means for outputting the received message character string, and an emotion level according to the input timing of the message character string. A program for causing a computer to function as means for determining, and means for outputting at least one of an image or sound corresponding to the received emotion type data and the determined emotion level.
本発明によれば、メッセージ文字列の受信・出力側において感情レベルを決定することができる。 According to the present invention, the emotion level can be determined on the message character string reception / output side.
本発明の一態様では、前記感情レベルは、前記メッセージ文字列の文字量にさらに応じて決定される。メッセージ文字列の文字量は、例えばメッセージ文字列の文字数自体、或いは特殊漢字等の入力し難い文字について重み付けした文字数等である。この態様によれば、メッセージ文字列を急いで入力したか、或いは逆にゆっくりと入力したか等を適切に評価でき、それに応じて適切な感情レベルを決定することができる。 In one aspect of the present invention, the emotion level is determined further according to the amount of characters in the message character string. The character amount of the message character string is, for example, the number of characters in the message character string, or the number of characters weighted with respect to characters that are difficult to input such as special Kanji characters. According to this aspect, it is possible to appropriately evaluate whether the message character string has been input quickly or conversely, and an appropriate emotion level can be determined accordingly.
また、本発明の一態様では、前記感情レベルは、前記第1装置における前記メッセージ文字列の入力間隔に応じて決定される。こうすれば、メッセージ送信者がメッセージ文字列を次々と入力している場合等に、例えばとても喜んでいる、或いはとても怒っている等と感情レベルを判断することができる。 In the aspect of the invention, the emotion level is determined according to an input interval of the message character string in the first device. In this way, when the message sender is inputting message character strings one after another, the emotion level can be determined as being very happy or very angry, for example.
また、本発明の一態様では、前記第2装置は、メッセージ文字列を入力する手段と、入力されるメッセージ文字列を前記第1装置に送信する手段と、をさらに含み、前記第1装置は、前記第2装置から前記メッセージ文字列を受信する手段と、受信される前記メッセージ文字列を出力する手段と、をさらに含み、前記感情レベルは、前記第2装置におけるメッセージ文字列の入力タイミングと、前記第1装置におけるメッセージ文字列の入力タイミングと、の差に応じて決定される。 In the aspect of the invention, the second device further includes means for inputting a message character string, and means for transmitting the input message character string to the first device, wherein the first device is And means for receiving the message character string from the second device; and means for outputting the received message character string, wherein the emotion level is the input timing of the message character string in the second device; , And the input timing of the message character string in the first device.
「前記第2装置における前記メッセージ文字列の入力タイミング」は、第2装置においてメッセージ文字列の入力が完了したタイミング、第2装置から第1装置に宛ててメッセージ文字列が送信されるタイミング、第1装置においてメッセージ文字列が受信又は出力されるタイミング、第1装置と第2装置との通信を中継する中継装置においてメッセージ文字列が受信又は送信されるタイミング等、第2装置におけるメッセージ文字列の入力タイミングに対応するあらゆるタイミングを含む。 “Input timing of the message character string in the second device” is the timing at which the input of the message character string is completed in the second device, the timing at which the message character string is transmitted from the second device to the first device, The timing of the message character string in the second device, such as the timing of receiving or outputting the message character string in one device, the timing of receiving or transmitting the message character string in the relay device that relays communication between the first device and the second device, etc. Includes any timing corresponding to input timing.
この態様によれば、例えばメッセージ文字列を受信又は出力するタイミング等から、それに応じてメッセージ文字列を入力又は送信するタイミング等までの間が短い場合に、例えばとても喜んでいる、或いはとても怒っている等と感情レベルを判断することができる。 According to this aspect, for example, when the time between receiving or outputting a message character string and the timing for inputting or transmitting a message character string is short, for example, the user is very pleased or very angry. Emotion level can be judged as being.
以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態に係るチャットシステムの全体構成を示す図である。同図に示すように、このチャットシステムは、サーバ12とクライアント16A,16Bとを含んで構成されている。サーバ12、クライアント16A,16Bは、いずれもインターネット等のデータ通信ネットワーク14に通信接続されており、相互にデータ通信可能となっている。以下では、特にクライアント16A,16Bを区別する必要の無い場合には、単にクライアント16と記す。
FIG. 1 is a diagram showing an overall configuration of a chat system according to an embodiment of the present invention. As shown in the figure, the chat system includes a
サーバ12は、プロセッサ、各種記憶装置及びデータ通信装置を中心として構成された公知のサーバコンピュータによって実現されるものであり、クライアント16Aとクライアント16Bで行われるチャットを管理・中継するものである。一方、クライアント16は、モニタ、キーボード等の入力手段、プロセッサ、各種記憶装置及びデータ通信装置を中心として構成された公知のパーソナルコンピュータ或いは公知のコンピュータゲームシステム等の各種コンピュータシステムによって実現されるものであり、各ユーザがチャット(メッセージ文字列の授受による会話)をするのに用いる。
The
図2は、クライアント16Aのモニタに表示されるチャット画面の一例を示している。クライアント16Bのモニタにも同様のチャット画面が表示される。同図に示すように、このチャット画面には、当該クライアント16Aのユーザ(以下では、「ユーザA」と記す。)に対応する本人情報表示領域20Aと、チャット相手、すなわちクライアント16Bのユーザ(以下では、「ユーザB」と記す。)に対応する相手情報表示領域20Bと、メッセージ文字列を入力するためのメッセージ文字列入力欄26と、感情種類入力欄18と、が設けられている。本人情報表示領域20Aには、ユーザAを表象するアバター画像24Aが表示されている。また、本人情報表示領域20Aの下方には吹き出し画像22Aが表示されており、この吹き出し画像22Aの中にユーザAにより入力されるメッセージ文字列が順次表示されるようになっている。同様に、相手情報表示領域20Bには、ユーザBを表象するアバター画像24Bが表示されている。また、相手情報表示領域20Bの下方には吹き出し画像22Bが表示されており、この吹き出し画像22Bの中にユーザBにより入力されるメッセージ文字列が順次表示されるようになっている。メッセージ文字列入力欄26は、ユーザAがキーボード等の文字入力手段によりメッセージ文字列(相手へのメッセージである文字列)を入力するのに用いる文字列編集領域であり、同欄に表示されたカーソル位置に文字を順に入力することにより、メッセージ文字列を完成させることができるようになっている。そして、リターンキー等の入力完了操作を行うことにより、同欄に表示されたメッセージ文字列をチャット相手であるユーザBに向けて送信できるようになっている。また、感情種類入力欄18には、「喜楽」、「怒」、「哀」の文字が表示されており、所定の感情種類切替操作によっていずれかを選択することで、ユーザAを表象するアバター画像24Aの感情種類を設定入力できるようになっている。これにより、アバター画像24Aの表情を変化させることができる。
FIG. 2 shows an example of a chat screen displayed on the monitor of the
上述したように、チャット相手が用いるクライアント16Bにも、同図に示したのと同様のチャット画面が表示されており、そこにはアバター画像24Aと同一の画像が、相手情報表示領域に表示されている。また、アバター画像24Bと同一の画像が、本人情報表示領域に表示されている。このため、ユーザAが感情種類入力欄18によりアバター画像24Aの感情種類を設定入力し、アバター画像24Aの表情を変化させると、それに連動してクライアント16Bのチャット画面の相手情報表示領域に表されたアバター画像も、同様の表情変化を見せるようになっている。こうして、文字だけでなく、アバター画像を用いてチャット相手、すなわちユーザBに感情を伝えることができるようになっている。
As described above, the
クライアント16では、特定の操作を行うことにより、チャットログをモニタに表示させることができるようになっている。図3は、このチャットログの一例を示している。同図に示すように、チャットログは、チャット当事者であるユーザA及びユーザBを識別する文字(ここでは「A」又は「B」)と、そのチャット当事者の発言であるメッセージ文字列と、そのメッセージ文字列が表示された時点での当該メッセージ文字列を入力したチャット当事者に対応する感情種類及び感情レベルに対応する画像と、を対応づけて時系列に表示するものである。既に説明したチャット画面では、最新の発言のみが吹き出し画像22A,22Bに表示されるのみであり、過去の発言については表示されないが、同図に示すチャットログを表示させることで、直ちにそれを把握できるようになっている。
The client 16 can display a chat log on a monitor by performing a specific operation. FIG. 3 shows an example of this chat log. As shown in the figure, the chat log includes a character (“A” or “B” in this case) for identifying users A and B who are chat parties, a message character string which is a statement of the chat party, The images corresponding to the emotion type and the emotion level corresponding to the chat party who input the message character string at the time when the message character string is displayed are displayed in time series in association with each other. In the chat screen already explained, only the latest utterance is displayed in the
アバター画像24A,24Bは、予めクライアント16の記憶手段に記憶されており、該記憶手段から選択的に読み出されてモニタに表示されるようになっている。図4乃至図6は、クライアント16の記憶手段に記憶されているアバター画像群を示している。図4には、感情種類「喜楽」に対応するアバター画像群が示されている。具体的には、同図(a)には、感情種類「喜楽」及び感情レベル「1」に対応するアバター画像群が示されている。同様に、同図(b)には、感情種類「喜楽」及び感情レベル「2」に対応するアバター画像群が示されており、同図(c)には、感情種類「喜楽」及び感情レベル「3」に対応するアバター画像群が示されており、同図(d)には、感情種類「喜楽」及び感情レベル「4」に対応するアバター画像群が示されている。同図を見て分かるように、同じ感情種類であっても、感情レベルが上昇するにつれて、その感情の強さが増加するようになっており、それに応じてアバター画像の表情が変化するようになっている。
The
クライアント16には、同一の感情種類及び同一の感情レベルに対応づけて複数のアバター画像が記憶されているが、これらは異なるキャラクタを示すアバター画像である。すなわち、このチャットシステムでは、例えば「20代男性」、「10代女性」、「40代女性」等を描いた複数のキャラクタが用意されており、各キャラクタに対応づけて、各感情種類及び各感情レベルに対応する画像(アバター画像)が予め作成されている。本実施形態では、予めユーザは自分のアバター画像として使用するキャラクタを指定するようになっており、図2に示すチャット画面においては、こうしてユーザにより指定されたキャラクタの画像が同ユーザのアバター画像として表示されるようになっている。 The client 16 stores a plurality of avatar images in association with the same emotion type and the same emotion level. These are avatar images indicating different characters. That is, in this chat system, for example, a plurality of characters depicting “male in their 20s”, “female in their teens”, “female in their 40s”, etc. are prepared, and each emotion type and each character are associated with each character. An image (avatar image) corresponding to the emotion level is created in advance. In this embodiment, the user designates a character to be used as his / her avatar image in advance, and in the chat screen shown in FIG. 2, the character image thus designated by the user is used as the user's avatar image. It is displayed.
感情種類「喜楽」の場合と同様に、図5には、感情種類「怒」に対応するアバター画像群が示されている。具体的には、同図(a)には、感情種類「怒」及び感情レベル「1」に対応するアバター画像群が示されている。同様に、同図(b)には、感情種類「怒」及び感情レベル「2」に対応するアバター画像群が示されており、同図(c)には、感情種類「怒」及び感情レベル「3」に対応するアバター画像群が示されており、同図(d)には、感情種類「怒」及び感情レベル「4」に対応するアバター画像群が示されている。また、図6には、感情種類「哀」に対応するアバター画像群が示されている。具体的には、同図(a)には、感情種類「哀」及び感情レベル「1」に対応するアバター画像群が示されている。同様に、同図(b)には、感情種類「哀」及び感情レベル「2」に対応するアバター画像群が示されており、同図(c)には、感情種類「哀」及び感情レベル「3」に対応するアバター画像群が示されており、同図(d)には、感情種類「哀」及び感情レベル「4」に対応するアバター画像群が示されている。 As in the case of the emotion type “Kiraku”, FIG. 5 shows a group of avatar images corresponding to the emotion type “anger”. Specifically, FIG. 5A shows an avatar image group corresponding to the emotion type “anger” and the emotion level “1”. Similarly, FIG. 6B shows an avatar image group corresponding to the emotion type “anger” and the emotion level “2”, and FIG. 10C shows the emotion type “anger” and the emotion level. An avatar image group corresponding to “3” is shown, and FIG. 9D shows an avatar image group corresponding to the emotion type “anger” and the emotion level “4”. FIG. 6 shows an avatar image group corresponding to the emotion type “sorrow”. Specifically, FIG. 9A shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “1”. Similarly, FIG. 7B shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “2”, and FIG. An avatar image group corresponding to “3” is shown, and FIG. 9D shows an avatar image group corresponding to the emotion type “sorrow” and the emotion level “4”.
ここで、アバター画像の表情変化について、さらに詳細に説明する。図7は、ユーザA及びユーザBに対応するアバター画像の表情変化を説明する図である。同図の第1列には、メッセージ文字列を送信し、又は感情種類切替操作を行ったユーザを識別する文字(「A」又は「B」)が記されている。また、第2列には、送信したメッセージ文字列の内容、又は感情種類切替操作を行った旨が記されている。第3列には、ユーザAに対応するアバター画像の表情、第4列には、ユーザBに対応するアバター画像の表情が記されている。第3列及び第4列において、例えば「笑」は感情種類「喜楽」を表しており、「怒」は感情種類「怒」を表しており、「1」等の数値は感情レベルを表している。同図では、例えばユーザAによる「こんにちは。」から、ユーザBによる「こんにちは!」までの入力間隔が短いので、感情レベルが上昇し、ユーザBに対応するアバター画像の表情は、「笑1」から「笑2」に変化している。また、ユーザAが「ところで○○で事件があって…。」と入力した後に感情種類切替操作を行うと、ユーザAに対応するアバター画像の表情は「怒1」に変化している。すなわち、本実施形態では、感情種類切替操作を行うと、それに応じて感情レベルが1にリセットされるようになっている。
Here, the expression change of the avatar image will be described in more detail. FIG. 7 is a diagram for explaining facial expression changes of avatar images corresponding to user A and user B. FIG. In the first column of the figure, a character (“A” or “B”) that identifies a user who transmitted a message character string or performed an emotion type switching operation is described. In the second column, the content of the transmitted message character string or the fact that the emotion type switching operation has been performed is described. The expression of the avatar image corresponding to the user A is written in the third column, and the expression of the avatar image corresponding to the user B is written in the fourth column. In the third and fourth columns, for example, “laugh” represents the emotion type “Kuraku”, “anger” represents the emotion type “anger”, and a numerical value such as “1” represents the emotion level. Yes. In the figure, for example, from due to user A, "Hello.", Because due to user B input interval of up to "Hello!" Is short, the emotion level is raised, the facial expression of the avatar image corresponding to the user B, "laughs 1" Has changed to "
以下、本システムの構成・動作について、さらに詳細に説明する Hereinafter, the configuration and operation of this system will be described in more detail.
図8は、サーバ12の機能的構成を示す図である。同図に示すようにサーバ12は、機能的には通信部30、感情データ管理部32及び感情データ記憶部34を含んでいる。これらの機能ブロックは、サーバ12において所定のプログラムが実行されることにより実現されている。通信部30は、例えば公知のデータ通信カードを含んで構成されており、データ通信ネットワーク14を介したクライアント16とのデータ通信を行うものであり、特にクライアント16Aから送信されるメッセージ文字列を受信し、それをクライアント16Bに転送する。また、クライアント16Bから送信されるメッセージ文字列を受信し、それをクライアント16Aに転送する。このとき、各クライアント16からメッセージ文字列を受信した時刻を、クライアント16におけるメッセージ文字列の入力タイミングとして感情データ管理部32に通知するようにしている。
FIG. 8 is a diagram illustrating a functional configuration of the
また、通信部30は、クライアント16A又は16Bから感情種類データを受信すると、それを感情データ管理部32に渡す。また、感情データ管理部32から、感情データの更新内容を表す感情データ更新要求を受け取り、それをクライアント16Aやクライアント16Bに送信する。なお、感情データは、感情種類データ及び感情レベルのいずれか少なくとも一方を含むデータである。
Further, when the
感情データ管理部32は、感情データ記憶部34に記憶された感情データの管理・配信を行うものである。すなわち、感情データ記憶部34は、ハードディスク記憶装置やRAM等の記憶手段を含んで構成されており、感情データを記憶している。図9は、この感情データ記憶部34に記憶された感情データの一例を示している。同図に示すように、感情データは、チャットを行っている各ユーザを識別する情報と、そのユーザが前回メッセージ文字列を入力した時刻と、現在設定(指定)されている感情種類と、現在の感情レベルとを対応づけてなる。ここでは、ユーザAの現在の感情種類は「喜楽」であり、感情レベルは「2」であること、直前のメッセージ文字列の入力は18時30分25秒に行われたことが記されている。また、ユーザBの現在の感情種類は「怒」であり、感情レベルは「1」であること、直前のメッセージ文字列の入力は18時30分14秒に行われたことが記されている。
The emotion
感情データ管理部32は、まずクライアント16から感情種類データを受信すると、そのクライアント16のユーザに対応づけて感情データ記憶部34に記憶されている感情種類を、その感情種類データが示すものに変更する。このとき、同ユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1に初期化する。
When emotion
また、クライアント16からメッセージ文字列を受信し、メッセージ文字列の入力タイミングが通信部30から通知されると、その時刻と、同メッセージ文字列を送信したユーザのチャット相手に対応づけて感情データ記憶部34に記憶されている前回入力時刻と、の差を演算する。そして、この差をクライアント16から受信したメッセージ文字列の文字量で除し、単位文字量当たりの時間差を演算する。そして、この単位文字量当たりの時間差が第1の所定値未満であれば、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ上昇させる。なお、感情レベルが既に最大値である場合には同レベル上昇処理を行わない。一方、単位文字量あたりの時間差が前記第1の所定値とは異なる第2の所定値以上であれば、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ下降させる。なお、感情レベルが既に最低値である場合には同レベル下降処理を行わない。以上のようにすれば、チャット相手から入力されるメッセージ文字列に応答して、速やかにそれに応じたメッセージ文字列を入力した場合に、そのユーザの感情レベルを上昇させることができる。また、応答が鈍い場合には、そのユーザの感情レベルを下降させることができる。
When the message character string is received from the client 16 and the input timing of the message character string is notified from the
その後、通信部から通知があった時刻を、メッセージ文字列の送信者であるユーザに対応づけて感情データ記憶部34に記憶させ、それにより前回入力時刻を更新する。そして、感情データ記憶部34に記憶された感情データの更新内容、すなわち感情種類データ又は感情レベルの少なくとも一方を表す感情データ更新要求を、クライアント16A及びクライアント16Bの両方に対して送信する。
Thereafter, the time notified by the communication unit is stored in the emotion
なお、クライアント16からメッセージ文字列を受信し、メッセージ文字列の入力タイミングが通信部30から通知される場合、その時刻と、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている前回入力時刻と、の差を演算してもよい。そして、この差をクライアント16から受信したメッセージ文字列の文字量で除し、単位文字量あたりの時間差を演算する。そして、この時間差が第1の所定値未満であれば、メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ上昇させ、第1の所定値とは異なる第2の所定値以上であれば、同メッセージ文字列を送信したユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを1だけ下降させるようにすればよい。こうすれば、次々とメッセージ文字列を送信するユーザについては、その感情レベルを高くし、逆にメッセージ文字列を送信する間隔の長い場合、或いはメッセージ文字列の入力作業そのものが遅い場合には、ユーザの感情レベルを低くすることができる。
When the message character string is received from the client 16 and the input timing of the message character string is notified from the
図10は、クライアント16の機能的構成を示す図である。同図に示すように、クライアント16は、機能的には通信部40、メッセージ入力部42、表示部44、アバター画像記憶部46、感情データ記憶部50及び感情種類入力部48を含んで構成されている。これらの機能は、クライアント16において所定のプログラムが実行されることにより実現されるものである。
FIG. 10 is a diagram illustrating a functional configuration of the client 16. As shown in the figure, the client 16 functionally includes a
まず、通信部40は、サーバ12から受信するメッセージ文字列を受信して、それを表示部44に供給する。また、サーバ12から感情データを受信する場合に、その内容を感情データ記憶部50の記憶内容に反映させる。また、メッセージ入力部42によりメッセージ文字列が入力されると、そのメッセージ文字列をサーバ12に送信する。また、通信部40には、感情種類入力部48から感情種類データが入力されるようになっており、この感情種類データを受信すると、それをサーバ12に送信する。
First, the
メッセージ入力部42は、特にキーボード等の文字入力手段を含んでおり、チャット画面のメッセージ文字列入力欄26にメッセージ文字列を入力させる。入力されたメッセージ文字列は、表示部44においてチャット画面における吹き出し画像22に合成され、モニタにより表示出力される。
The
アバター画像記憶部46は、例えばハードディスク記憶装置等を含んで構成されており、図4乃至図6に記載された各種アバター画像が記憶されている。感情データ記憶部50は、チャット当事者である各ユーザに対応づけて、感情種類及び感情レベルを記憶している。このうち、特に当該クライアント16のユーザに対応する感情種類については、感情種類入力部48により設定入力できるようになっている。この場合、感情種類入力欄18の各感情種類を示す文字を選択することにより、その文字に対応する感情種類を、当該クライアント16のユーザに対応づけて感情データ記憶部50に格納することができるようになっている。また、感情データ記憶部50は、通信部40がサーバ12から感情データ更新要求を受信した場合に、その内容に従って更新されるようになっている。
The avatar
表示部44では、感情データ記憶部50から各ユーザの感情種類及び感情レベルを読み出し、それに対応するアバター画像をアバター画像記憶部46から読み出すようになっている。このとき、表示部44は予め各ユーザのキャラクタ指定を取得しており、指定されたキャラクタに対応するアバター画像を読み出すようにしている。読み出されたアバター画像は、表示部44により、本人情報表示領域20A及び相手情報表示領域20Bにそれぞれ表示される。
The
ここで、サーバ12の処理についてさらに説明する。図11は、サーバ12による感情データ管理処理を示すフロー図である。同図に示すように、サーバ12では、いずれかのクライアント16からメッセージ文字列を受信するか否かを監視しており(S101)、メッセージ文字列を受信した場合には、図示しない計時手段から現在時刻を取得する(S102)。さらに、感情データ記憶部34から、チャット相手であるユーザに対応する前回入力時刻を読み出し、そこから現在時刻までの経過時間t1を算出する(S103)。そして、この経過時間t1が第1の所定値TA未満であれば、メッセージ文字列の送信者であるユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを、1だけ上昇させるよう更新する(S105)。このとき、既に感情レベルが最大値に達していれば、S105での処理は行わない。一方、経過時間t1が第1の所定値TA以上であれば、S105の処理をスキップする。さらに、経過時間t1が第2の所定値TB(TB>TA)より大きいか否かを判断する(S106)。もし大きければ、メッセージ文字列の送信者であるユーザに対応づけて感情データ記憶部34に記憶されている感情レベルを、1だけ下降させるよう更新する(S107)。このとき、既に感情レベルが最低値に達していれば、S107での処理は行わない。一方、経過時間t1が第2の所定値TB以下であれば、S107の処理をスキップする。
Here, the processing of the
その後、以上のようにして更新した感情レベルを感情データ更新要求として、各クライアント16に送信する(S108)。また、S102で取得した現在時刻を、感情データ記憶部34に、メッセージ文字列の送信者であるユーザに対応づけて記憶させる。こうして、前回入力時刻を更新するようにしている。
Thereafter, the emotion level updated as described above is transmitted to each client 16 as an emotion data update request (S108). Further, the current time acquired in S102 is stored in the emotion
以上説明したチャットシステムによれば、メッセージ文字列の入力タイミングに応じてアバター画像の表情が自動的に変化するので、アバター画像の表情を変化させるための特別の入力を必要とせず、ユーザの利便性を大幅に向上できる。 According to the chat system described above, the expression of the avatar image automatically changes according to the input timing of the message character string. Therefore, no special input for changing the expression of the avatar image is required, and user convenience Can greatly improve performance.
なお、本発明は上記実施形態に限定されるものではない。 The present invention is not limited to the above embodiment.
例えば、以上の説明では、メッセージ文字列の入力タイミングに応じてアバター画像を変化させるようにしたが、クライアント16において音を出力させ、この音をメッセージ文字列の入力タイミングに応じて変化させるようにしてもよい。この場合の音は、音楽や、例えばメッセージ文字列を読み上げる音声等である。こうしても、音の変化から、チャット相手の感情を判断することができる。 For example, in the above description, the avatar image is changed according to the input timing of the message character string. However, the client 16 outputs a sound, and this sound is changed according to the input timing of the message character string. May be. The sound in this case is music or a voice that reads out a message character string, for example. Even in this way, the emotion of the chat partner can be determined from the change in sound.
また、以上の説明では、サーバ12における受信タイミングを、クライアント16におけるメッセージ文字列の入力タイミングとして取り扱ったが、クライアント16においてメッセージ文字列が入力されたときに現在時刻を取得しておき、それをサーバ12に送信させるようにすれば、メッセージ文字列が入力されたタイミングにさらに近いタイミングを、クライアント16におけるメッセージ文字列の入力タイミングとして取り扱うことができる。
In the above description, the reception timing in the
また、ここでは直前のメッセージ文字列の入力タイミングから今回のメッセージ文字列の入力タイミングまでの経過時間に応じて、感情レベルを上下させるようにしたが、同経過時間、或いはそれを文字量で除した値の範囲に感情レベルを対応づけておいてもよい。こうすれば感情レベルを急激に変化させることができる。また、経過時間、或いはそれを文字量で除した値の平均等その他の統計量を算出し、それに応じて感情レベルを決定するようにしてもよい。 Also, here, the emotion level is raised or lowered according to the elapsed time from the input timing of the immediately preceding message character string to the input timing of the current message character string, but the same elapsed time or it is divided by the amount of characters. The emotion level may be associated with the range of values. In this way, the emotion level can be changed rapidly. Further, other statistics such as an elapsed time or an average of values obtained by dividing the elapsed time by the amount of characters may be calculated, and the emotion level may be determined accordingly.
さらに、ここではサーバ12において感情データの管理を行うようにしたが、各クライアント16において行うようにしてもよい。図12は、この変形例に係るクライアント16の機能的構成を示す図である。同図に示すように、この例では、クライアント16に感情データ管理部52が設けられる点が特徴的である。他の構成については、図10の場合と同様であり、ここでは同一符号を付して詳細な説明を省略する。
Furthermore, although the
感情データ管理部52には、メッセージ入力部42からメッセージ文字列が入力されており、さらに通信部40から他のクライアント16から受信したメッセージ文字列が入力されている。そして、メッセージ入力部42からメッセージ文字列が入力された場合には、図示しない計時手段により現在時刻を取得し、さらに感情データ記憶部50に記憶されたチャット相手に対応する前回入力時刻を読み出し、そこから現在時刻までの経過時間を読み出す。そして、図11の場合と同様にして、この経過時間に応じて感情レベルを変更する。また、通信部40からメッセージ文字列が入力された場合には、図示しない計時手段により現在時刻を取得し、さらに感情データ記憶部50に記憶された当該クライアント16のユーザに対応する前回入力時刻を読み出し、そこから現在時刻までの経過時間を読み出す。そして、図11の場合と同様にして、この経過時間に応じて感情レベルを変更する。この場合は、クライアント16においてメッセージ文字列が受信されたタイミングが、当該メッセージ文字列の入力タイミングとして取り扱われる。
The emotion
12 サーバ、14 データ通信ネットワーク、16A,16B クライアント、18 感情種類入力欄、20A 本人情報表示領域、20B 相手情報表示領域、22A,22B 吹き出し画像、24A,24B アバター画像、26 メッセージ文字列入力欄、30,40 通信部、32,52 感情データ管理部、34,50 感情データ記憶部、42 メッセージ入力部、44 表示部、46 アバター画像記憶部、48 感情種類入力部。 12 server, 14 data communication network, 16A, 16B client, 18 emotion type input field, 20A personal information display area, 20B partner information display area, 22A, 22B balloon image, 24A, 24B avatar image, 26 message character string input field, 30, 40 Communication unit, 32, 52 Emotion data management unit, 34, 50 Emotion data storage unit, 42 Message input unit, 44 Display unit, 46 Avatar image storage unit, 48 Emotion type input unit.
Claims (5)
前記第1装置は、
メッセージ文字列を入力する手段と、
感情の種類を示す感情種類データを入力する手段と、
入力される前記メッセージ文字列を前記第2装置に送信する手段と、
入力される前記感情種類データを前記第2装置に送信する手段と、を含み、
前記第2装置は、
前記第1装置から前記メッセージ文字列を受信する手段と、
前記第1装置から前記感情種類データを受信する手段と、
受信される前記メッセージ文字列を出力する手段と、
前記第1装置における前記メッセージ文字列の入力タイミングに応じて決定される、感情の強さを示す数値である感情レベルを取得する手段と、
受信される前記感情種類データ及び取得される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、を含み、
前記第2装置は、
メッセージ文字列を入力する手段と、
入力されるメッセージ文字列を前記第1装置に送信する手段と、をさらに含み、
前記第1装置は、
前記第2装置から前記メッセージ文字列を受信する手段と、
受信される前記メッセージ文字列を出力する手段と、をさらに含み、
前記感情レベルは、前記第2装置におけるメッセージ文字列の入力タイミングと、前記第1装置におけるメッセージ文字列の入力タイミングと、の差に応じて、所定の最大値に達するまで1ずつ上昇、又は所定の最小値に達するまで1ずつ下降するとともに、前記感情の種類の変更に応じて所定値に初期化するよう決定される、
ことを特徴とするチャットシステム。 In a chat system including a first device and a second device,
The first device includes:
A means for entering a message string;
Means for inputting emotion type data indicating the type of emotion;
Means for transmitting the input message string to the second device;
Means for transmitting the inputted emotion type data to the second device,
The second device includes:
Means for receiving the message string from the first device;
Means for receiving the emotion type data from the first device;
Means for outputting the received message string;
Means for obtaining an emotion level, which is a numerical value indicating the strength of emotion, determined according to the input timing of the message character string in the first device;
Means for outputting at least one of an image or sound corresponding to the received emotion type data and the acquired emotion level,
The second device includes:
A means for entering a message string;
Means for transmitting an input message string to the first device,
The first device includes:
Means for receiving the message string from the second device;
Means for outputting the received message string;
The emotion level increases by one until reaching a predetermined maximum value, depending on the difference between the input timing of the message character string in the second device and the input timing of the message character string in the first device , or predetermined Decrease by 1 until the minimum value is reached , and is determined to be initialized to a predetermined value according to the change of the emotion type ,
A chat system characterized by that.
前記感情レベルは、前記メッセージ文字列の文字量にさらに応じて決定される、
ことを特徴とするチャットシステム。 The chat system according to claim 1,
The emotion level is further determined according to a character amount of the message character string.
A chat system characterized by that.
当該通信装置から他の装置に対して送信されるメッセージ文字列に応じて該他の装置から送信されるメッセージ文字列を該他の装置から受信する手段と、
感情種類データを前記他の装置から受信する手段と、
受信される前記メッセージ文字列を出力する手段と、
当該通信装置におけるメッセージ文字列の入力タイミングと、前記他の装置におけるメッセージ文字列の入力タイミングと、の差に応じて、所定の最大値に達するまで1ずつ上昇、又は所定の最小値に達するまで1ずつ下降するとともに、前記感情種類データにより示される感情の種類の変更に応じて所定値に初期化するよう、感情の強さを示す数値である感情レベルを決定する手段と、
受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、
を含むことを特徴とする通信装置。 A communication device used in a chat system,
Means for receiving from the other device a message character string transmitted from the other device in response to a message character string transmitted from the communication device to the other device;
Means for receiving emotion type data from the other device;
Means for outputting the received message string;
An input timing of the message character string in the communication device, in accordance with the difference between the input timing of the message character string in the previous SL other devices, increase by 1 until it reaches a predetermined maximum value, or reaches a predetermined minimum value Means for determining an emotion level, which is a numerical value indicating the strength of the emotion, so as to be initialized to a predetermined value in accordance with a change in the type of emotion indicated by the emotion type data ,
Means for outputting at least one of an image or sound according to the received emotion type data and the determined emotion level;
A communication device comprising:
当該通信装置から他の装置に対して送信されるメッセージ文字列に応じて該他の装置から送信されるメッセージ文字列を該他の装置から受信するステップと、
感情種類データを前記他の装置から受信するステップと、
受信される前記メッセージ文字列を出力するステップと、
当該通信装置におけるメッセージ文字列の入力タイミングと、前記他の装置におけるメッセージ文字列の入力タイミングと、の差に応じて、所定の最大値に達するまで1ずつ上昇、又は所定の最小値に達するまで1ずつ下降するとともに、前記感情種類データにより示される感情の種類の変更に応じて所定値に初期化するよう、感情の強さを示す数値である感情レベルを決定するステップと、
受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力するステップと、
を含むことを特徴とする通信装置の制御方法。 A method of controlling a communication device used in a chat system,
Receiving a message character string transmitted from the other device in response to a message character string transmitted from the communication device to the other device;
Receiving emotion type data from the other device;
Outputting the received message string;
An input timing of the message character string in the communication device, in accordance with the difference between the input timing of the message character string in the previous SL other devices, increase by 1 until it reaches a predetermined maximum value, or reaches a predetermined minimum value Determining the emotion level, which is a numerical value indicating the strength of the emotion, so as to be initialized to a predetermined value in accordance with a change in the emotion type indicated by the emotion type data ,
Outputting at least one of an image or sound according to the received emotion type data and the determined emotion level;
A control method for a communication apparatus, comprising:
当該コンピュータから他の装置に対して送信されるメッセージ文字列に応じて該他の装置から送信されるメッセージ文字列を該他の装置から受信する手段と、
感情種類データを前記他の装置から受信する手段と、
受信される前記メッセージ文字列を出力する手段と、
当該コンピュータにおけるメッセージ文字列の入力タイミングと、前記他の装置におけるメッセージ文字列の入力タイミングと、の差に応じて、所定の最大値に達するまで1ずつ上昇、又は所定の最小値に達するまで1ずつ下降するとともに、前記感情種類データにより示される感情の種類の変更に応じて所定値に初期化するよう、感情の強さを示す数値である感情レベルを決定する手段と、
受信される前記感情種類データ及び決定される前記感情レベルに応じた画像又は音のうち少なくとも一方を出力する手段と、
として前記コンピュータを機能させるためのプログラム。
A program executed by a computer,
Means for receiving a message character string transmitted from the other device in response to a message character string transmitted from the computer to the other device;
Means for receiving emotion type data from the other device;
Means for outputting the received message string;
An input timing of the message character string in the computer, the input timing of the message character string in the previous SL other devices, depending on the difference between the rise by 1 until it reaches a predetermined maximum value, or until a predetermined minimum value Means for determining an emotion level, which is a numerical value indicating the strength of emotion, so as to be lowered by one and initialized to a predetermined value in accordance with a change in the type of emotion indicated by the emotion type data ;
Means for outputting at least one of an image or sound according to the received emotion type data and the determined emotion level;
A program for causing the computer to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006210866A JP4854424B2 (en) | 2006-08-02 | 2006-08-02 | Chat system, communication apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006210866A JP4854424B2 (en) | 2006-08-02 | 2006-08-02 | Chat system, communication apparatus, control method thereof, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004108023A Division JP3930489B2 (en) | 2004-03-31 | 2004-03-31 | Chat system, communication apparatus, control method thereof, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006338685A JP2006338685A (en) | 2006-12-14 |
JP2006338685A5 JP2006338685A5 (en) | 2007-05-17 |
JP4854424B2 true JP4854424B2 (en) | 2012-01-18 |
Family
ID=37559128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006210866A Expired - Fee Related JP4854424B2 (en) | 2006-08-02 | 2006-08-02 | Chat system, communication apparatus, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4854424B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101267006B1 (en) * | 2011-12-21 | 2013-05-30 | (주)카카오 | A method of linking online document and instnt message and a mobile terminal linking online document and instnt message in a chatting window of instnt messaging service |
CN104780093B (en) | 2014-01-15 | 2018-05-01 | 阿里巴巴集团控股有限公司 | Expression information processing method and processing device during instant messaging |
US20170093785A1 (en) * | 2014-06-06 | 2017-03-30 | Sony Corporation | Information processing device, method, and program |
CN105119812B (en) * | 2015-08-26 | 2018-05-18 | 小米科技有限责任公司 | In the method, apparatus and terminal device of chat interface change emoticon |
JP6563466B2 (en) * | 2017-11-30 | 2019-08-21 | 株式会社サイバーエージェント | Chat system, server, chat method, terminal device and computer program |
JP2024028023A (en) * | 2022-08-19 | 2024-03-01 | ソニーセミコンダクタソリューションズ株式会社 | Expression processing apparatus, expression processing method and expression processing program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09138767A (en) * | 1995-11-14 | 1997-05-27 | Fujitsu Ten Ltd | Communication equipment for feeling expression |
JP3216084B2 (en) * | 1998-01-19 | 2001-10-09 | 株式会社ネットワークコミュニティクリエイション | Chat screen display method |
JP2001160021A (en) * | 1999-12-03 | 2001-06-12 | Sony Corp | Communication system in virtual space |
JP4395687B2 (en) * | 2000-12-20 | 2010-01-13 | ソニー株式会社 | Information processing device |
JP2002236656A (en) * | 2001-02-08 | 2002-08-23 | Nifty Corp | Chatting system and server device |
JP2002325965A (en) * | 2001-04-27 | 2002-11-12 | Sega Corp | Input character processing method |
JP2003271277A (en) * | 2002-03-12 | 2003-09-26 | Sony Corp | Information processor and information input method |
-
2006
- 2006-08-02 JP JP2006210866A patent/JP4854424B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006338685A (en) | 2006-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3930489B2 (en) | Chat system, communication apparatus, control method thereof, and program | |
US7343561B1 (en) | Method and apparatus for message display | |
JP4199665B2 (en) | Rich communication via the Internet | |
US5880731A (en) | Use of avatars with automatic gesturing and bounded interaction in on-line chat session | |
US20180011841A1 (en) | Enabling an im user to navigate a virtual world | |
EP4027614A1 (en) | Automated messaging reply-to | |
US20070124387A1 (en) | Previous communication updating in instant messaging | |
US20060010240A1 (en) | Intelligent collaborative expression in support of socialization of devices | |
JP4854424B2 (en) | Chat system, communication apparatus, control method thereof, and program | |
US20090157223A1 (en) | Robot chatting system and method | |
KR20160112260A (en) | Method and device for serching emoticon | |
JP2007520005A (en) | Method and system for telecommunications using virtual agents | |
KR101310274B1 (en) | Method and server for providing message service | |
JP2001160021A (en) | Communication system in virtual space | |
JP4072900B2 (en) | Terminal device | |
KR20140054487A (en) | Group conversation method and computer-readable recording meduim having recorded group conversation program therein | |
JP2001325200A (en) | Chat system | |
KR20090075397A (en) | How to send and receive communication messages including emoticons | |
KR101200559B1 (en) | System, apparatus and method for providing a flashcon in a instant messenger of a mobile device | |
KR20070008477A (en) | Robot chat system with motion with emotional delivery | |
JP7419849B2 (en) | Information processing equipment and programs | |
CN101599917A (en) | system, method and interface for providing instant information service | |
JP4586063B2 (en) | Terminal device | |
KR100396755B1 (en) | Toy performance apparatus and method using chatting | |
JP3792974B2 (en) | Communication support method and conversation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080630 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090213 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090219 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20090313 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111025 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141104 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4854424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |