JP2004287613A - コミュニティ環境提供システム - Google Patents
コミュニティ環境提供システム Download PDFInfo
- Publication number
- JP2004287613A JP2004287613A JP2003076450A JP2003076450A JP2004287613A JP 2004287613 A JP2004287613 A JP 2004287613A JP 2003076450 A JP2003076450 A JP 2003076450A JP 2003076450 A JP2003076450 A JP 2003076450A JP 2004287613 A JP2004287613 A JP 2004287613A
- Authority
- JP
- Japan
- Prior art keywords
- user
- comment
- utterance
- community
- topic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
Abstract
【効果】非言語情報に基づいて発言を評価するので、この評価に基づいて自由なコミュニティ環境におけるコミュニケーションを解析できる。
【選択図】 図1
Description
【産業上の利用分野】
この発明はコミュニティ環境提供システムに関し、特にたとえば、ネットワークを介して接続される少なくとも2以上のユーザコンピュータおよびユーザコンピュータを操作するユーザに対してコミュニティ環境を提供するコミュニティサーバを備える、コミュニティ環境提供システムに関する。
【0002】
【従来の技術】
この種の従来技術の一例が特許文献1に開示される。この特許文献1に開示されるコミュニティ環境提供システムでは、BBS(Bulletin Board System :電子掲示板システム)において、単に情報やURLをテキストデータで示すだけでなく、各ユーザの代理であるキャラクタをウェブページ上で移動し、動作し、台詞を発言させるようにしたものである。これにより、多次元の表現手段によってより質の高い、正確な情報交換をスムーズに行っていた。
【0003】
【特許文献1】
特開2002−082894号公報
【0004】
【発明が解決しようとする課題】
しかし、従来技術のような電子掲示板システムやニュースグループにおける自由な対話形式の会話ログを機械的に解析して自動編集するような知識ベースシステムは実現されていなかった。この理由としては、自然言語解析の問題から会話ログの解析が非常に困難であることや会話ログに含まれる膨大な非社会的で非生産的な発言や議論(いわゆるフレーミング)によって本質的な議論が埋没してしまうことが挙げられる。つまり、一般の電子掲示板システムに見られるような、いわゆる関心共有型のオンラインコミュニティにおける対話や議論のような社会的コミュニケーションの構造を解析することができなかった。
【0005】
それゆえに、この発明の主たる目的は、社会的コミュニケーションの構造を解析することができる、コミュニティ環境提供システムを提供することである。
【0006】
【課題を解決するための手段】
この発明は、ネットワークを介して接続される少なくとも2以上のユーザコンピュータおよびユーザコンピュータを操作するユーザに対してコミュニティ環境を提供するコミュニティサーバを備えるコミュニティ環境提供システムであって、ユーザコンピュータは、少なくとも非言語情報を含む発言内容を入力する入力手段、および入力手段によって入力された発言内容をコミュニティサーバに送信する送信手段を備え、コミュニティサーバは、送信手段によって送信された発言内容を受信して記憶する記憶手段、および記憶手段に記憶された発言内容に含まれる非言語情報に基づいて当該発言内容の前段に在る発言内容について評価する評価手段を備える、コミュニティ環境提供システムである。
【0007】
【作用】
コミュニティ環境システムは、ネットワークを介して接続される少なくとも2以上のユーザコンピュータと当該ユーザコンピュータを操作するユーザに対して電子掲示板のようなコミュニティ環境を提供するコミュニティサーバとによって構成される。ユーザコンピュータを操作して、ユーザがコミュニティに参加すると、たとえば、当該コミュニティのウェブページがユーザコンピュータのディスプレイに表示され、このウェブページ上で、話題や話題に対する発言についての感想などを投稿することができる。入力手段は、投稿する発言内容を入力し、送信手段は、入力手段によって入力された発言内容をコミュニティサーバに送信する。この発言内容には、非言語情報が含まれる。一方、コミュニティサーバでは、記憶手段が、ユーザコンピュータから送信された発言内容を受信して記憶する。評価手段は、記憶手段に記憶された発言内容に含まれる非言語情報に基づいて、当該発言内容の前段に在る発言内容を評価する。つまり、或るユーザの発言に対する他のユーザの評価が、当該他のユーザの発言に含まれる非言語情報に基づいて行われる。
【0008】
たとえば、コミュニティサーバでは、記憶手段は複数の発言内容を記憶し、評価手段は、最前段の発言内容についての評価を、その発言内容以外の発言内容、すなわち最前段の発言内容に後続するすべての発言内容の非言語情報に基づいて行う。つまり、ユーザがコミュニティのウェブページに投稿した話題などについての様々なユーザの評価を取り入れることができる。
【0009】
また、非言語情報は、ユーザの発話についての遂行動詞、ユーザの感情(情動)およびユーザの対人態度の少なくとも1つを含むので、発言内容についての話題性や発言内容を投稿したユーザに対する他のユーザの関心度や興味度などを評価することができる。
【0010】
さらに、コミュニティには、各ユーザに対応する擬人化エージェントが存在し、ユーザがユーザコンピュータを操作して所望の発言内容についての再生指示を入力すると、再生手段が当該発言内容を再生する。すると、当該発言内容を投稿したユーザに対応する擬人化エージェントは、発言内容に含まれる遂行動詞、感情、対人態度の少なくとも1つに応じたアニメーションを実行する。一般に見られるような電子掲示板システムのように、発話内容のテキストを表示するだけでなく、その発話内容に付随するユーザの表情や身振り手振りをアニメーションで表現することができるのである。
【0011】
【発明の効果】
この発明によれば、発言内容に含まれる非言語情報に基づいて前段に在る発言内容を評価するので、その評価に基づいて自己表現の自由なコミュニティ環境におけるコミュニケーションの構造に基づいたコミュニケーションの内容を解析することができる。
【0012】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0013】
【実施例】
図1を参照して、この実施例のコミュニティ環境提供システム10(以下、単に「システム」という。)は、サーバ12を含む。サーバ12は、インターネット、LAN、WAN或いは電話回線等のネットワーク14を介して、ユーザコンピュータとしてのパーソナルコンピュータ(PC)16およびPC18に接続される。ただし、ユーザコンピュータはワークステーション或いはPDA等の携帯端末であってもよい。
【0014】
なお、この実施例では、簡単のため、2台のPCがネットワークに接続されているように示してあるが、3台以上接続されてもよい。
【0015】
また、サーバ12には、4つのデータベース(DB)が接続される。具体的には、ユーザ情報DB20、キャラクタDB22、発言DB24およびウェブページDB26が接続される。ただし、図面においては、DB20、22、24および26が直接サーバ12に接続されるように示してあるが、ネットワーク14を介して接続されてもよく、また、サーバ12内部に設けるようにしてもよい。
【0016】
ユーザ情報DB20は、コミュニティの会員であるユーザ(会員ユーザ)のユーザ情報を記憶するDBであり、図2(A)に示すように、ユーザ情報は、たとえば、ユーザID、パスワード、個人情報およびキャラクタ情報を含む。このようなユーザ情報がユーザ毎に記録される。ユーザIDは、ユーザの識別情報であり、後述するように、サーバ12によって提供されるコミュニティ(電子掲示板)にログインするためのログインIDである。パスワードは、コミュニティにログインするために必要な暗証番号(記号)である。個人情報は、当該ユーザに関する情報であり、たとえば、ユーザの氏名、性別、連絡先(住所、電話番号、ファクシミリ番号、電子メールアドレスなど)を含む。キャラクタ情報は、ユーザがコミュニティにおいて擬人化エージェントとして使用するキャラクタの情報であり、たとえば、キャラクタの識別情報(キャラクタID)が記述される。図示は省略するが、キャラクタIDに対応して、当該キャラクタの名前も記憶(記述)される。
【0017】
キャラクタDB22は、図2(B)に示すように、デフォルトキャラクタ記憶領域22aを含み、このデフォルトキャラクタ記憶領域22aには、予めサーバ12の管理者等により作成および登録されたキャラクタデータが記憶されており、各キャラクタデータはキャラクタID(キャラクタ名)によって識別される。
【0018】
なお、コミュニティの会員ユーザが自ら作成した(オリジナルの)キャラクタデータを登録しておくようにしてもよい。
【0019】
したがって、ユーザは、予め用意されたデフォルトキャラクタを、擬人化エージェントとして使用することができる。このようなキャラクタは、PC16(PC18も同じ。)に記録(インストール)されている専用のプログラムによって、ウェブページ上に表示される。つまり、キャラクタデータは、当該プログラムの仕様に従ったデータ形式である。
【0020】
なお、専用のプログラムとしは、たとえば、「Microsoft(登録商標)Agent 」を利用することができる。
【0021】
発言DB24は、コミュニティにおいて、或るユーザが投稿した話題およびそれに対する他のユーザ等の発言についてのデータ(発言データ)をまとめたスレッドデータを、図2(C)に示すように、話題(たとえば、話題1,話題2、話題3,…)毎に記憶するDBである。具体的な発言DB24に記憶されるスレッドデータ24a(スレッドデータ24b、24cも同様)のデータ構造は、図3のように示される。この図3を参照して、スレッドデータ24aは、或るユーザが投稿した話題(話題1)についての発言データを記憶する発話フォルダ240を含み、当該話題に対する他のユーザ等の発言(説明の便宜上、「コメント」という。)を場面ごとのフォルダ(場面1フォルダ242a、場面2フォルダ242b、場面3フォルダ242c…)に記憶してある。また、当該話題(場面も含む。)に登場するキャラクタの情報(登場キャラクタ情報)が登場キャラクタ情報フォルダ244に記憶される。
【0022】
このスレッドデータ24aでは、話題1に対して、場面1、場面2、場面3、…というように、時系列に従ってコメントされたことを示してある。さらに、そのコメントに対する発言(説明の便宜上、「リアクション」という。)が、時系列に従って記録される。たとえば、場面1では、話題に対する発言(コメント)に対するリアクションが、リアクション1およびリアクション3、…のように、時系列に従って記憶される。また、コメントに対するリアクション1に対してのリアクション2、…のように、リアクションに対するリアクションも、同様に、時系列に従って記憶される。つまり、場面フォルダ242aでは、コメントおよびリアクションがいずれの発言(コメントやリアクション)に対する発言であり、しかもその時系列が分かるように、階層構造とされるのである。このように、話題、コメント、リアクションのつながりのことを「スレッドデータ」と呼んでいる。
【0023】
なお、説明の便宜上、ここでは、話題に対する直接の発言をコメントといい、コメントに対する発言をリアクションというようにしてあるが、話題、コメントおよびリアクションのそれぞれを発言という場合もある。
【0024】
また、スレッドデータ24aでは、話題フォルダ240には、話題の内容、当該話題を投稿したユーザのユーザ名および当該話題を投稿した時刻(日時)がラベルとして付されており、また、場面フォルダ242a、242b、242c、…では、コメントおよびリアクションすなわち発言のそれぞれについて、当該発言を投稿したユーザのユーザ名および当該発言を投稿した日時がラベルとして付されている。
【0025】
ウェブページDB26は、図2(D)に示すように、各ウェブページを生成するための雛型ウェブページのデータ(雛型データ)26aおよび生成されたウェブページのデータ(ウェブページデータ)26bを記憶するDBである。
【0026】
たとえば、サーバ12は、コミュニティ環境を提供し、当該コミュニティ環境において、ユーザはPC16(PC18)を操作して、話題を投稿したり、他の話題や発言に対して、発言したりすることができる。つまり、サーバ12が提供するコミュニティ環境において、ユーザは情報を交換し、また自己表現を行う。また、コミュニティ環境においては、ユーザが使用する擬人化エージェントとしてのキャラクタが存在し、各キャラクタは、コミュニティ環境におけるウェブページ上で、移動したり、表情を表現したり、さらには、身振り手振りをしたりする。つまり、テキストによる言語表現だけでなく、擬人化メディアによる、ジェスチャや表情などの非言語情報を組み合わせたメッセージを作成することができるのである。
【0027】
さらに言うと、この実施例では、発言を行動として捉えており、発言には発話する内容(発話内容)だけでなく、それに関連する或いは付随するジェスチャも含まれる。このジェスチャ(キャラクタの表情や身振り手振り)には、ユーザ自身の感情(情動)を表現する場合と特定の対象である他のユーザ(キャラクタ)等に対して態度を表明(表現)する場合とが含まれる。また、発言には、所望のウェブページや画像のようなウェブコンテンツを資料として提示することも含まれる。さらには、発話内容について、非言語情報としての遂行動詞を選択(入力)することもできる。
【0028】
ここで、遂行動詞(performative verb) とは、発言によって遂行される行為の効力の種類を、その発話を含む文の中で明示的に表す動詞をいい、たとえば、“〜主張する”、“〜と説明する”、“〜と賛成する”、“〜と反対する”、…などが該当する(図41参照)。つまり、発話には、状況や事象を記述(描写)するといった主に真偽が問題となる真実確認的(constative)な側面だけでなく、言葉を発することがそのまま行為とみなされる行為遂行的(performative)な側面があり、個々の発言によって遂行される行為の効力はそれぞれ異なっていると考えられるからである。
【0029】
以下、システム10について、図9〜図40に示すフロー図に従って、詳細に説明するが、或るユーザがPC16を操作してコミュニティに参加する場合について説明することとし、PC18についてはPC16と同じであるため、その説明を割愛する。また、サーバ12とPC16との間で連携して処理を実行する場合には、いずれの処理かを明確にするため、破線を設けてそれぞれの処理を区別するようにしてある。
【0030】
図9および図10はシステム10の全体処理を示すフロー図であり、破線の左側がサーバ12の処理であり、破線の右側がPC16の処理である。
【0031】
図9に示すように、或るユーザがPC16を操作してサーバ12にアクセス要求の指示を入力すると処理を開始し、PC16は、ステップS1で、アクセス要求をサーバ12に送信する。これに応じて、サーバ12は、ステップS3で、ログインまたはユーザ登録の処理を実行する。ただし、ステップS3の処理は、実際には、サーバ12とPC16との間で実行される。
【0032】
簡単に説明すると、サーバ12は、コミュニティにアクセスするためのログインページ(ウェブページ)のデータをPC16に送信する。したがって、PC16では、ログインページのデータを受信して、ディスプレイ(図示せず)にログインページを表示する。図示は省略するが、たとえば、ログインページには、ユーザID(ログインID)およびパスワードの入力欄および会員登録ボタン等が表示され、当該ユーザがコミュニティの会員ユーザであれば、割り当てられたユーザIDおよびパスワードを入力して、ユーザ認証が行われた後に、コミュニティにログインする。一方、当該ユーザがコミュニティの会員ユーザでなければ、会員登録ボタンをオンして、会員登録を行った後に、コミュニティにログインする。
【0033】
なお、ログインまたは会員登録(ユーザ登録)の処理については、本件発明者が既に出願し、公開されている特開2002−082894号公報に詳細に開示されているため、ここでは詳細な説明は省略することにする。
【0034】
また、会員登録の処理において、ユーザ情報DB20に記憶されるユーザ情報がすべて登録される。
【0035】
ログインまたはユーザ登録の処理を終えると、ステップS5で、サーバ12は、コミュニティのページ (コミュニティページ)30のデータおよびキャラクタデータをPC16に送信する。したがって、PC16は、ステップS7で、コミュニティページ30のデータおよびキャラクタデータを受信して、ステップS9で、図4に示すように、コミュニティページ30およびキャラクタ(説明の便宜上、「第1キャラクタ」という。)32aをディスプレイに表示する。ここで表示される第1キャラクタ32aは、ユーザ情報に登録されたキャラクタ情報に対応するキャラクタであり、ログイン時に、第1キャラクタ32aがディスプレイに表示されると、“○○(ユーザ名)さん、こんにちは”と吹き出し(バルーン)をディスプレイに表示するとともに、当該内容の合成音声をスピーカ(図示せず)から出力する。つまり、第1キャラクタ32aは、ユーザに挨拶する。このとき、擬人化メディアによって、挨拶するアニメーションが実行され、たとえば、図4に示すように、第1キャラクタ32aは、両手を挙げる身体動作(身振り手振り)をするとともに、笑顔の表情を表現する。
【0036】
なお、コミュニティページ30は、サーバ12が発言DB24に記憶されるスレッドデータに含まれる話題フォルダ240のラベルを、ウェブページDB26に記憶される雛型データ26aに当て嵌めて生成される。
【0037】
コミュニティページ30は、コミュニティにおけるウェブページなどのウェブコンテンツを表示するためのコンテンツ表示部32および話題や発言のスレッドを表示するためのスレッド表示部34を含む。コンテンツ表示部32の上部には、ウェブコンテンツの表示等を操作するためのボタン36、38、40、42、44、46および入力欄48が設けられる。ボタン36は戻るボタンであり、ボタン38は進むボタンであり、ボタン40は中止ボタンであり、ボタン42は更新ボタンであり、ボタン44はホームページ表示ボタンであり、ボタン46は入力欄48に入力されたURLが示すウェブコンテンツを表示するためのボタンである。これらについては、既に周知であるため、詳細な説明は省略する。
【0038】
また、スレッド表示部34の上部には、ボタン50、52、54、56、58および60が設けられる。ボタン50は新規作成ボタンであり、この新規作成ボタンを操作することにより、後述する発言エディタ(図7および図8参照)が表示され、話題や発言を作成することができる。ボタン52は前へボタンであり、この前へボタンを操作することにより、話題や発言の再生中に1つ前の話題や発言にジャンプする(戻る)ことができる。ボタン54は再生(リプレイ)ボタンであり、このリプレイボタンを操作することにより、所望の話題および発言を再生することができる。ボタン56は停止(ストップ)ボタンであり、このストップボタンを操作することにより、話題や発言の再生を停止することができる。ボタン58は次へボタンであり、この次へボタンを操作することにより、話題や発言の再生中に次の話題や発言にジャンプする(進む)ことができる。ボタン60はキャラON/OFFボタンであり、このキャラON/OFFボタンを操作することにより、コンテンツ表示部32(ウェブコンテンツ)の前面に表示されるキャラクタを画面から消したり、画面に表示したりすることができる。
【0039】
このコミュニティページ30においては、ユーザは、PC16に接続されるキーボードやコンピュータマウスのような入力装置(図示せず)を用いて、当該コミュニティページ30に設けられた各種ボタンを選択することにより、上述したように、話題を投稿したり、既に投稿されている話題や発言を再生したり、既に投稿された話題や発言に興味があれば、さらに自分の感想(発言)を投稿したりなどすることができる。
【0040】
なお、図4においては、スレッド表示部34では、異なるユーザが異なる話題を投稿している状態を示してあるが、同じユーザが異なる話題を投稿することも可能である。以下、この実施例において同じである。
【0041】
図9に戻って、ステップS11では、既に投稿されている話題があるかどうかを判断する。つまり、スレッド表示部34に話題が表示されているかどうかを判断する。ステップS11で“NO”であれば、つまり投稿されている話題がなければ、そのままステップS19に進む。一方、ステップS11で“YES”であれば、つまり既に投稿された話題があれば、ステップS13で話題の参照かどうかを判断する。つまり、ユーザが入力装置を用いて、スレッド表示部34に表示された話題を選択したかどうかを判断する。
【0042】
ステップS13で“YES”であれば、つまり話題の参照であれば、図示は省略するが、選択された話題の全発言の内容についての送信要求がサーバ12に送信される。これに対して、サーバ12は、ステップS15で、送信要求に従って、選択された話題についての全発言の内容(ラベル)をPC16に送信する。つまり、当該話題を記憶するスレッドデータに含まれるすべての場面フォルダ内に記憶されるコメントおよびリアクションのラベルを送信するのである。そして、PC16は、ステップS17で、選択された話題内の発言全体を木(ツリー)構造で表示して、図10に示すステップS21に進む。
【0043】
図5には、“紅葉ライトアップ”の話題が選択された場合に、当該話題内の発言全体を、スレッド表示部34に木構造で表示したコミュニティページ30の一例が示される。ただし、スレッド表示部34では、一度に木構造のすべてを表示することができないが、スクロールバー等を操作することにより、現在表示されていない部分についても表示することができる。この図5では、“紅葉ライトアップ”の話題に対して、ユーザCおよびユーザDがコメントしていることが示される。また、ユーザCのコメントに対してユーザBがリアクションし、そのユーザBのリアクションに対してユーザAがさらにリアクションしていることが示される。さらに、ユーザDのコメントに対して、ユーザE等がリアクションし、ユーザEのリアクションに対しても他のユーザがリアクションしていることが示される。
【0044】
また、図9のフロー図においては省略したが、図5に示すように、木構造を表示した際には、ユーザが使用する第1キャラクタ32aは、当該話題を指差すように振る舞う。また、当該話題の内容および当該話題に参加している人数が吹き出し表示されるとともに、その吹き出しの内容の合成音声がスピーカから出力され、ユーザに伝達される。
【0045】
なお、図5においては、選択中の話題であることを表現するために、四角枠のカーソルを表示してある。以下、この実施例において同じであり、選択中或いは再生中の話題や発言を表現する場合も同様である。
【0046】
図9に戻って、ステップS19では、話題の投稿かどうかを判断する。具体的には、話題や発言が何ら選択されていない状態で、新規作成ボタン50が操作(オン)されたかどうかを判断する。ステップS19で“NO”であれば、つまり話題や発言が何ら選択されていない状態で、新規作成ボタン50がオンされなければ、そのままステップS13に戻る。一方、ステップS19で“YES”であれば、つまり話題や発言が何ら選択されていない状態で、新規作成ボタン50がオンされれば、図10に示すように、ステップS21に進む。
【0047】
図10に示すように、PC16は、ステップS21で、話題内の発言を見るかどうかを判断する。つまり、話題内のいずれかの発言が選択され、リプレイボタン54がオンされたかどうかを判断する。ステップS21で“NO”であれば、つまり話題内の発言を見ないのであれば、図9に示したステップS13に戻る。一方、ステップS21で“YES”であれば、つまり話題内の発言を見るのであれば、選択した発言についての再生指示をサーバ12に送信して、これに応じて、サーバ12は、ステップS23で、選択された発言のシナリオ情報を含む話題内の発言全体の内容をPC16に送信する。
【0048】
ここで、シナリオ情報とは、後で詳細に説明するが、発言に含まれる発話(テキスト)データ、アニメーションデータおよびURLデータなどをいい、これらの少なくとも1つで構成され、または、同種或いは異種の2つ以上で構成される。また、このようなシナリオ情報は、XML(eXetensible Markup Language) 構造(形式)のスクリプトデータで記述される。
【0049】
したがって、PC16では、ステップS25において、選択された発言のシナリオ情報を含む話題内の発言全体の内容をスレッド表示部34に表示して、ステップS27で、選択された発言について、後述する再生処理(図30、図31参照)を実行する。そして、ステップS29で、続きの発言を投稿するかどうかを判断する。つまり、或る話題や発言が選択された状態で新規作成ボタン50がオンされたかどうかに応じて、再生した話題や発言に対する発言すなわちコメントやリアクションを投稿するかどうかを判断するのである。
【0050】
ステップS29で“NO”であれば、つまり続きの発言を投稿しないのであれば、そのままステップS21に戻る。一方、ステップS29で“YES”であれば、つまり続きの発言を投稿するのであれば、ステップS31で、後述する発言の作成と投稿処理(図11および図12参照)を実行してから、ステップS13に戻る。
【0051】
図11および図12は、発言の作成と投稿処理(ステップS31)のフロー図であり、図11に示すように、PC16が発言の作成と投稿処理を開始すると、ステップS41で、新規話題の入力かどうかを判断する。具体的には、スレッド表示部34に表示される話題や発言を何ら選択せずに、新規作成ボタン50がオンされたかどうかを判断する。ステップS41で“NO”であれば、つまり既に投稿された話題や発言に対する発言の入力(投稿)であれば、ステップS43で、図7に示すような発言投稿用の発言エディタ70を表示して、ステップS49に進む。
【0052】
なお、発言エディタ70(後述する発言エディタ200も同じ。)は、図4および図5に示したコミュニティページ30の前面であり、画面の一部或いは全体を用いて表示される。
【0053】
ここで、発言エディタ70は、そのほぼ中央に、発言の内容を入力および表示するための表示部72が設けられ、この表示部72の上方に、タイトル(話題)が記述される。ただし、この発言エディタ70は、すでに投稿された話題や発言に対する発言を入力するため、タイトルは予め入力されている。また、タイトルの上方には、ボタン74、76、78、80、82および84が設けられ、表示部72の下方には、ボタン86、88、90、92、94、96および98が設けられる。
【0054】
ボタン74は、しゃべるボタンであり、発話する内容を入力する場合に用いられる。ボタン76は、きもちボタンであり、ユーザの気持ち(感情、情動)を入力する場合に用いられる。ボタン78は、たいどボタンであり、自身のキャラクタが他のキャラクタに対して行う態度を入力する場合に用いられる。ボタン80は、ウェブボタンであり、ウェブコンテンツのURLを入力する場合に用いられる。ボタン82は、画像UPボタンであり、ウェブコンテンツとしての画像ファイル等をアップロードする場合に用いられる。ボタン84は、画像指さしボタンであり、コンテンツ表示部32に表示されるウェブページに表示される画像やコンテンツ表示部32上に別ウインドウ(図示せず)で表示される画像についてのコメント(論評)を入力する場合に用いられる。
【0055】
また、ボタン86は、1行削除ボタンであり、入力したコンポーネント(発話する内容、気持ち、態度およびウェブコンテンツのURLを入力するためのコンポーネントであり、後述する。)を削除する場合に用いられる。ボタン88およびボタン90は、行移動ボタンであり、入力したコンポーネントを並べ替える(ソートする)場合に用いられる。ボタン92は、1行再生ボタンであり、入力したコンポーネントの1つ(1行)を確認する場合に用いられる。ボタン94は、確認ボタンであり、入力した発言(すべてのコンポーネント)の内容に基づくシナリオ情報を作成し、作成したシナリオ情報を表示する場合に用いられる。ボタン96は、ストップボタンであり、1行再生を停止(中止)する場合に用いられる。ボタン98は送信ボタンであり、入力した発言の内容に基づくシナリオ情報をサーバ12に送信する場合に用いられる。
【0056】
図11に戻って、ステップS41で“YES”であれば、つまり新規話題の入力であれば、ステップS45で、図8に示すような話題投稿用の発言エディタ200を表示する。続くステップS47では、ユーザによって投稿する話題のタイトルを入力され、ステップS49に進む。
【0057】
なお、図8に示す、話題投稿用の発言エディタ200は、タイトルの入力欄202が設けられる以外は、図7に示した発言エディタ70と同じであるため、重複した説明は省略することにする。
【0058】
ステップS49では、後述する発言内容の入力処理(図13、図14参照)を実行し、ステップS51では、発言内容の追加かどうかを判断する。つまり、ボタン74、76、78、80、82および84のいずれかがオンされたか否かを判断する。ステップS51で“YES”であれば、つまり発言内容の追加であれば、ステップS49に戻る。一方、ステップS51で“NO”であれば、つまり発言内容の追加がなければ、ステップS53で、発言内容の修正かどうかを判断する。つまり、入力したコンポーネントのいずれか1つを選択し、ボタン86、88、90および92のいずれかがオンされたかどうかを判断する。ステップS53で“YES”であれば、つまり発言内容の修正であれば、ステップS55で、発言内容の修正処理を実行して、ステップS51に戻る。発言内容の修正処理の詳細な説明は省略するが、この処理においては、入力したコンポーネントを1行ごとに削除したり、コンポーネントを並べ替えたり、1行ごとに再生したりすることができる。
【0059】
一方、ステップS53で“NO”であれば、つまり発言内容の修正がなければ、ステップS57で発言内容の確認かどうかを判断する。つまり、確認ボタン94がオンされたかどうかを判断する。ステップS57で“YES”であれば、つまり発言内容の確認であれば、ステップS59で、後で詳細に説明するシナリオ情報の作成処理(図22および図23参照)を実行し、ステップS61で、発言内容の再生処理(図30および図31参照)を実行して、ステップS51に戻る。一方、ステップS57で“NO”であれば、つまり発言内容の確認がなければ、ステップS63で、発言内容の投稿であるかどうかを判断する。つまり、送信ボタン98がオンされたかどうかを判断する。
【0060】
ステップS63で“NO”であれば、つまり発言内容の投稿がなければ、図12に示すステップS65で、発言を中止するかどうかを判断する。つまり、発言エディタ70または発言エディタ200を閉じるかどうかを判断する。ステップS65で“NO”であれば、つまり発言を中止しなければ、図11に示したステップS51にそのまま戻る。一方、ステップS65で“YES”であれば、つまり発言を中止するのであれば、ステップS67で、発言エディタ70または発言エディタ200のウインドウを閉じて、発言の作成と投稿処理をリターンする。
【0061】
一方、ステップS63で“YES”であれば、つまり発言内容の投稿であれば、図12に示すステップS69で、発言内容をサーバ12に送信し、ステップS71で、スレッド一覧に投稿された発言のシナリオ情報を含む発言を表示し、ステップS73で、発言内容の再生処理(図30および図31参照)を実行して、つまり、投稿されたばかりの発言を再生して、発言の作成と投稿処理をリターンする。
【0062】
なお、ステップS69で、発言内容がサーバ12に送信されると、これに応じて、サーバ12は、後で詳細に説明する発言データの登録処理(図34参照)を実行する。
【0063】
次に発言内容の入力処理(ステップS49)の詳細を説明する。図13に示すように、PC16は発言内容の入力処理を開始すると、ステップS81で、発話の入力かどうかを判断する。つまり、しゃべるボタン74がオンされたかどうかを判断する。ステップS81で“YES”であれば、つまり発話の入力であれば、ステップS83で、表示部72に発話コンポーネント100を追加し、ステップS85で、後述する発話内容の入力処理(図15参照)を実行して、図14に示すように、発言内容の入力処理をリターンする。
【0064】
発話コンポーネント100は、図7および図8に示すように、当該コンポーネントの種類を示すための標識100a、発話内容を入力するためのテキスト入力欄100bおよび発話内容についての遂行動詞を選択するためのプルダウンメニュー100cを含む。ユーザは、キーボードのような入力装置を用いて入力欄100bに所望の発話内容(テキスト)を入力することができる。また、プルダウンメニュー100cには、上述したような遂行動詞が複数用意されており、いずれか1つを選択することができる。
【0065】
一方、ステップS81で“NO”であれば、つまり発話の入力でなければ、ステップS87で、感情の入力かどうかを判断する。つまり、きもちボタン76がオンされたかどうかを判断する。ステップS87で“YES”であれば、つまり感情の入力であれば、ステップS89で、表示部72に感情コンポーネント102を追加し、ステップS91で、後述する感情の選択処理(図16参照)を実行して、発言内容の入力処理をリターンする。
【0066】
感情コンポーネント102は、図7に示すように、当該コンポーネントの種類を識別するための標識102aおよび感情(情動)を選択するためのプルダウンメニュー102bを含む。このプルダウンメニュー102bには、感情(情動)を表す単語が複数種類登録されており、いずれか1つを選択することができる。この実施例では、“嬉しい”、“楽しい”、“悲しい”、“怒り”、“悔しい”、…などの単語が予め登録されている(図41参照)。
【0067】
また、ステップS87で“NO”であれば、つまり感情の入力でなければ、ステップS93で、態度の入力かどうかを判断する。ステップS93で“YES”であれば、つまり態度の入力であれば、ステップS95で、表示部72に態度コンポーネント104を追加し、ステップS97で、後述する態度の選択処理(図17参照)を実行して、発言内容の入力処理をリターンする。
【0068】
態度コンポーネント104は、図8に示すように、当該コンポーネントの種類を識別するための標識104a、態度の内容を選択するためのプルダウンメニュー104b、態度を取る対象のキャラクタを入力する入力欄104cおよび態度を取るキャラクタとの距離を選択するプルダウンメニュー104dを含む。プルダウンメニュー104bには、態度に内在する意識等を表す単語が複数種類登録されており、いずれか1つを選択することができる。この実施例では、“親和的”、“依存的”、“服従的”、“回避的”、“拒否的”、…などの単語が予め登録されている(図41参照)。また、入力欄104cには、キーボードのような入力装置を用いて、態度を取る対象のキャラクタ名或いはキャラクタIDを入力することができる。さらに、プルダウンメニュー104dには、距離の大小を示す単語が複数登録されており、いずれか1つを選択することができる。たとえば、この実施例では、“遠い”、“普通”および“近い”が予め登録されている。
【0069】
なお、この実施例では、感情コンポーネント102と態度コンポーネント104とは、いずれもキャラクタのアニメーションについてのコンポーネントであるため、同じ標識で示されるが、異なる標識で示すようにしてもよい。
【0070】
一方、ステップS93で“NO”であれば、ステップS99で、参照するウェブページの入力かどうかを判断する。つまり、ウェブボタン80がオンされたかどうかを判断する。ステップS99で“YES”であれば、つまり参照するウェブページの入力であれば、ステップS101で、表示部72にURLコンポーネント106を追加し、ステップS103で、後述するURLの入力処理(図18参照)を実行して、発言内容の入力処理をリターンする。
【0071】
URLコンポーネント106は、図8に示すように、当該コンポーネントの種類を識別するための標識106a、URLを入力するための入力欄106bおよび入力欄106bに入力されたURLが示すウェブページを開くための開くボタン106cを含む。入力欄106bには、所望のウェブページのURLを入力することができる。
【0072】
また、ステップS99で“NO”であれば、つまり参照するウェブページの入力でなければ、図14に示すステップS105で、画像ファイルのアップロードかどうかを判断する。つまり、画像UPボタン82がオンされたかどうかを判断する。ステップS105で“YES”であれば、つまり画像ファイルのアップロードであれば、ステップS107で、表示部72にURLコンポーネント106を追加して、ステップS109で、後述する画像ファイルの選択処理(図19参照)を実行して、発言内容の入力処理をリターンする。
【0073】
なお、画像UPボタン82がオンされた場合にも、ウェブボタン80がオンされた場合と同様のURLコンポーネント106を追加するようにしてあるが、かかる場合には、後述するプロキシ処理(図21参照)済みの画像ファイルについてのURLが入力欄106bに入力される。
【0074】
一方、ステップS105で“NO”であれば、画像ファイルのアップロードでなければ、ステップS111で、画像についてのコメント入力かどうかを判断する。つまり、画像指さしボタン84がオンされたかどうかを判断する。ステップS111で“NO”であれば、つまり画像についてのコメント入力でなければ、図13に示したステップS81に戻る。一方、ステップS111で“YES”であれば、つまり画像についてのコメント入力であれば、ステップS113で、表示部72にコメントコンポーネント108を追加し、ステップS115で、後述するコメントの入力処理(図20参照)を実行して、発言内容の入力処理をリターンする。
【0075】
コメントコンポーネント108は、図7に示すように、当該コンポーネントの種類を識別するための標識108aとコメントを入力するための入力欄108bとを含む。入力欄108bには、キーボードのような入力装置を用いて、所望の画像のようなウェブコンテンツに対する感想や意見などのコメントをテキストで入力することができる。ただし、図7からも分かるように、コメントコンポーネント108を表示する場合には、ウェブコンテンツについてのコメントを入力するため、前提として、その直前(直近上位)にウェブコンポーネント106が表示されている必要がある。
【0076】
図15は発話内容の入力処理(ステップS85)のフロー図を示しており、PC16が発話内容の入力処理を開始すると、ステップS121で、ユーザによって、発話内容がキーボードのような入力装置より入力欄102aに入力される。続いて、ステップS123では、発話の種類がプルダウンメニュー100cから選択される。つまり、遂行動詞が選択される。次にステップS125で、ユーザのキャラクタが発話の種類すなわち遂行動詞に応じたアニメーションを再生しながら、入力欄100bに入力された発話内容を合成音声で再生する。
【0077】
詳細な説明は省略するが、各遂行動詞には特定の動作(アニメーション)が割り当てられており、遂行動詞に応じたアニメーションがキャラクタによって実行される。たとえば、遂行動詞として“〜と同意する”が選択された場合には、キャラクタは表情を変えずに頷く動作をする。
【0078】
ただし、遂行動詞とアニメーションとは、必ずしも一対一対応でなくてもよく、たとえば、“〜と挨拶する”と“〜と宣言する”とでは、同じ片手を挙げるアニメーションであったり、“〜と非難する”が涙を流すアニメーションとふくれっ面をするアニメーションの2種類に対応したりしてもよい。
【0079】
そして、ステップS127では、入力終了かどうかを判断する。たとえば、ボタン74〜98のいずれかがオンされたかどうかを判断する。ステップS127で“NO”であれば、つまり入力終了でなければ、そのままステップS121に戻る。一方、ステップS127で“YES”であれば、つまり入力終了であれば、発話内容の入力処理をリターンする。
【0080】
図16は感情の選択処理(ステップS91)のフロー図を示しており、PC16が感情の選択処理を開始すると、ステップS131で、ユーザによって、感情を表す単語(感情の種類)がプルダウンメニュー102bから選択される。続くステップS133では、ユーザのキャラクタが感情の種類に応じたアニメーションを再生する。
【0081】
詳細な説明は省略するが、感情の種類のそれぞれについても、遂行動詞と同様に、キャラクタのアニメーションが割り当てられており、選択された感情の種類に応じたアニメーションが実行される。たとえば、感情の種類として、“嬉しい”が選択された場合には、キャラクタは笑顔で両手を挙げる動作をする。
【0082】
そして、ステップS135では、選択終了かどうかを判断する。たとえば、ボタン74〜98のいずれかがオンされたかどうかを判断する。ステップS135で“NO”であれば、つまり選択終了でなければ、そのままステップS131に戻る。一方、ステップS135で“YES”であれば、つまり選択終了であれば、感情の選択処理をリターンする。
【0083】
図17は態度の選択処理(ステップS97)のフロー図を示しており、PC16が態度の選択処理を開始すると、ステップS141で、ユーザによって、態度に内在する意識等を表す単語(態度の種類)がプルダウンメニュー104bから選択され、態度を取る対象のキャラクタ(キャラクタ名)が入力欄104cに入力され、当該キャラクタとの距離がプルダウンメニュー104dから選択される。続くステップS143で、ユーザのキャラクタが、対象となるキャラクタと、選択した距離となるように移動し、態度の種類に応じたアニメーションを再生する。
【0084】
なお、この実施例では、距離をユーザが選択可能な構成にしてあるが、態度に応じて予め距離を決定するようにしておいてもよい。または、ユーザが入力装置を操作して、当該態度を取る場合の位置をコミュニティページ30上で入力可能な構成としてもよい。
【0085】
また、詳細な説明は省略するが、態度の種類のそれぞれについても、遂行動詞や感情を表す単語と同様に、キャラクタのアニメーションが割り当てられており、選択された態度の種類に応じたアニメーションが実行される。たとえば、態度の種類として、“親和的”が選択されると、当該キャラクタは笑顔で対象のキャラクタの方を向く動作をする。
【0086】
そして、ステップS145で、選択終了かどうかを判断する。たとえば、ボタン74〜98のいずれかがオンされたかどうかを判断する。ステップS145で“NO”であれば、つまり選択終了でなければ、ステップS141に戻る。一方、ステップS145で“YES”であれば、つまり選択終了であれば、態度の選択処理をリターンする。
【0087】
図18はURLの入力処理(ステップS103)を示すフロー図であり、PC16がURLの入力処理を開始すると、ステップS151で、ユーザによって、開きたいウェブページのURLが入力欄106bに入力される。続いて、ステップS153で、ユーザによって、コンポーネント内の開くボタン106cがオンされると、ステップS155で、プロキシサーバ(この実施例では、サーバ12)に、URLを送信し、ステップS157で、プロキシ処理済みのページをコンテンツ表示部32に表示する。
【0088】
なお、ステップS155で、プロキシサーバすなわちサーバ12にURLが送信されると、サーバ12において、後述するプロキシ処理(図21参照)が実行される。プロキシ処理が施されると、当該ウェブページはコミュニティページ30と同様の機能を備えることができる。たとえば、プロキシ処理が施されたウェブページ上の画像がクリックされると、当該画像の位置がキャラクタを移動させる位置情報として取り込まれるとともに、当該画像の位置までキャラクタが移動される。
【0089】
そして、ステップS159では、入力終了かどうかを判断する。たとえば、ボタン74〜98のいずれかがオンされたかどうかを判断する。ステップS159で“NO”であれば、つまり入力終了でなければ、ステップS151に戻る。一方、ステップS159で“YES”であれば、つまり入力終了であれば、URLの入力処理をリターンする。
【0090】
図19は画像ファイルの選択処理(ステップS109)を示すフロー図であり、PC16が画像ファイルの選択処理を開始すると、ステップS161で、図示は省略するが、OS(Operating System)のファイルシステムのファイル選択ダイアログを、たとえば発言エディタ70(または発言エディタ200)の前面に表示する。続くステップS163では、ユーザによって、アップロードする画像ファイルが選択される。次にステップS165で、サーバ12に当該画像ファイルを送信するとともに、ステップS167で、登録されたファイルのURL(厳密には、URN)をサーバ12に送信する。そして、ステップS169では、プロキシ処理済みの画像を、たとえばコンテンツ表示部32の前面に別ウィンドウで表示して、ステップS171で、URLコンポーネント106の入力欄106bに、プロキシ処理済みの画像ファイルについてのURLを挿入(入力)して、画像ファイルの選択処理をリターンする。
【0091】
なお、ステップS165で、サーバ12に画像ファイルが送信されると、サーバ12はウェブページDB26にユーザIDとともに、当該画像ファイルを登録し、ステップS167で、登録された画像ファイルのURNがプロキシサーバに送信されると、プロキシサーバでは、後述するプロキシ処理が実行される。
【0092】
図20はコメントの入力処理(ステップS115)を示すフロー図であり、PC16がコメントの入力処理を開始すると、ステップS181で、ユーザによって、コメントがキーボードのような入力装置より入力欄108bに入力される。続くステップS183では、ユーザのキャラクタが対象となる画像の側に移動して、指差しながらコメントを合成音声で再生する。そして、ステップS185では、入力終了かどうかを判断する。たとえば、ボタン74〜98のいずれかがオンされたかどうかを判断する。ステップS185で“NO”であれば、つまり入力終了でなければ、ステップS181に戻る。一方、ステップS185で“YES”であれば、つまり入力終了であれば、コメントの入力処理をリターンする。
【0093】
図21はプロキシ処理(ステップS155,S167)を示すフロー図であり、プロキシサーバ(この実施例では、サーバ12)がプロキシ処理を開始すると、ステップS191でURLを受け取り、ステップ193で、URLが示す場所からデータを受信する。
【0094】
なお、図示は省略するが、画像ファイルがアップロードされる場合には、当該画像ファイルのデータおよびそのURNを受信する。これが、ステップS191およびS193の処理に相当する。
【0095】
続くステップS195では、データのコメントタイプを判断し、ステップS197で、HTML(Hyper Text Markup Language)データかどうかを判断する。ステップS197で“YES”であれば、つまりHTMLデータであれば、ステップS199で、HTMLデータにJava(登録商標)Scriptを挿入し、データ内のリンクをすべてプロキシ経由に書き換える。次に、ステップS201で、JavaScriptによって、全画像の位置をスクリプトから判別可能にし、ステップS203で、JavaScriptコードを含んだ処理済みHTMLデータをPC16に送信して、プロキシ処理をリターンする。
【0096】
一方、ステップS197で“NO”であれば、つまりHTMLデータでなければ、ステップS205で、画像データ(画像ファイル)かどうかを判断する。ステップS205で“YES”であれば、つまり画像データであれば、ステップS207で、JavaScriptを含むHTMLで当該画像データを囲み、画像位置をスクリプトから判別可能にし、ステップS203に進む。一方、ステップS205で“NO”であれば、つまり画像データでなければ、ステップS209で、送信されたURL(画像ファイル)が正しくない旨のエラーメッセージをPC16に送信して、プロキシ処理をリターンする。
【0097】
なお、メッセージがPC16に送信されると、当該メッセージがPC16に接続されるディスプレイに表示される。これに応じて、ユーザは、適切なURLを入力し直したり、画像ファイルを選択し直したりすることができる。
【0098】
図22および図23はシナリオ情報の作成処理(ステップS59)を示すフロー図であり、図22に示すように、PC16がシナリオ情報の作成処理を開始すると、ステップS211で、デフォルトのXML構造を読み出し、ステップS213で、<script>要素のactor属性に当該ユーザのユーザIDを挿入する。続くステップS215では、発言作成時に当該話題に登場しているキャラクタのリストを作成し、ステップS217で、後述する<cast>要素として<pm>エレメントおよび<dm>エレメントの挿入処理(図22参照)を実行し、ステップS219で、発言作成エリア(表示部72)内の一番上のコンポーネントを読み出す。そして、ステップS221で、当該コンポーネントの種類を判別する。
【0099】
なお、コンポーネントの種類は、各コンポーネントに含まれる標識100a、102a、104a、106aおよび108aを調べることにより、容易に識別することができる。
【0100】
続くステップS223では、発話コンポーネント100かどうかを判断する。ステップS223で“YES”であれば、つまり発話コンポーネント100であれば、ステップS225で、後述する<script>要素として<speech>エレメントの追加処理(図25参照)を実行して、図23に示すステップS241に進む。一方、ステップS223で“NO”であれば、つまり発話コンポーネント100でなければ、ステップS227で、感情コンポーネント102かどうかを判断する。
【0101】
ステップS227で“YES”であれば、つまり感情コンポーネント102であれば、ステップS229で、後述する<script>要素として<feeling>エレメントの追加処理(図26参照)を実行して、ステップS241に進む。一方、ステップS227で“NO”であれば、つまり感情コンポーネント102でなければ、図23に示すステップS231で、態度コンポーネント104かどうかを判断する。
【0102】
ステップS231で“YES”であれば、つまり態度コンポーネント104であれば、ステップS233で、後述する<script>要素として<attitude>エレメントの追加処理(図27参照)を実行して、ステップS241に進む。一方、ステップS231で“NO”であれば、つまり態度コンポーネント104でなければ、ステップS235で、URLコンポーネント106かどうかを判断する。
【0103】
ステップS235で“YES”であれば、つまりURLコンポーネント106であれば、ステップS237で、後述する<script>要素として<citation>エレメントの追加処理(図28参照)を実行して、ステップS241に進む。一方、ステップS235で“NO”であれば、つまりURLコンポーネント106でなければ、コメントコンポーネント108であると判断して、ステップS239で、後述する<script>要素として<comment>エレメントの追加処理(図29参照)を実行して、ステップS241に進む。
【0104】
ステップS241では、最後のコンポーネントかどうかを判断する。つまり、表示部74に表示されるすべてのコンポーネントについてのXML形式への変換が終了したかどうかを判断する。ステップS241で“NO”であれば、つまり、最後のコンポーネントでなければ、ステップS243で次のコンポーネントを読み出して、図22に示したステップS221に戻る。一方、ステップS241で“YES”であれば、つまり最後のコンポーネントであれば、ステップS245で、XML形式によるシナリオ情報を出力して、シナリオ情報の作成処理をリターンする。
【0105】
図24は、<cast>要素として<pm>エレメントおよび<dm>エレメントの挿入処理(ステップS217)を示すフロー図である。図24に示すように、PC16が<cast>要素として<pm>エレメントおよび<dm>エレメントの挿入処理を開始すると、ステップS251で、親ノードに対する発言(子ノード)の最後の状態で表示されているすべてのキャラクタについてのユーザIDのリストを作成する。ここで、親ノードとは、スレッド表示部34に表示される話題をいい、これに対して、発言(コメントおよびリアクション)を子ノードという。
【0106】
なお、<pm>エレメントは話題に参加しているユーザについての要素を意味し、<dm>エレメントは話題内で表示されるウェブコンテンツについての要素を意味する。
【0107】
続くステップS253では、1以上のキャラクタが存在するかどうかを判断する。つまり、ユーザIDのリストにユーザIDが1つ以上存在するかどうかを判断する。ステップS253で“NO”であれば、つまりキャラクタが存在しなければ、そのままステップS261に進む。一方、ステップS253で“YES”であれば、つまりキャラクタが存在すれば、ステップS255で、<cast>内に、<pm id=””type=””location_x=””location_y=””/を追加する。
【0108】
次にステップS257で、キャラクタの名前をid属性に、キャラクタの種類(キュラクタID)をtype属性に、キャラクタの表示位置のx座標をlocation_xに、y座標をlocation_yにそれぞれ挿入する。つまり、対応する箇所の2つのダブルクォーテンションマーク内に、該当する内容をそれぞれ入力するのである。以下、この実施例において同様である。
【0109】
そして、ステップS259で、他のキャラクタが存在するかどうかを判断する。ステップS259で“YES”であれば、つまり他のキャラクタが存在する場合には、当該キャラクタについてステップS255およびステップS257の処理を実行する。一方、ステップS259で“NO”であれば、つまり他のキャラクタが存在しなければ、ステップS261に進む。
【0110】
ステップS261では、親ノードに対する発言の最後の状態で、すなわち話題内で最後に発言された状態において、表示(提示)されているすべてのウェブコンテンツについてのURLのリストを作成する。次にステップS263では、1つ以上のURLが存在するかどうかを判断する。ステップS263で“NO”であれば、つまりURLが存在しなければ、<cast>要素として<pm>エレメントおよび<dm>エレメントの挿入処理をリターンする。
【0111】
一方、ステップS263で“YES”であれば、つまりURLが存在すれば、ステップS265で、<cast>内に<dm url=””/>を追加し、ステップS267で、ウェブコンテンツのURLをurl属性に挿入する。
【0112】
そして、ステップS269では、他のウェブコンテンツが存在するかどうかを判断する。ステップS269で“YES”であれば、つまり他のウェブコンテンツが存在する場合には、当該ウェブコンテンツについてステップS265およびステップS267の処理を実行する。一方、ステップS269で“NO”であれば、つまり他のウェブコンテンツが存在しなければ、<cast>要素として<pm>エレメントおよび<dm>エレメントの挿入処理をリターンする。
【0113】
図25は、<script>要素として<speech>エレメントの追加処理(ステップS217)を示すフロー図である。図25に示すように、PC16が<script>要素として<speech>エレメントの追加処理を開始すると、ステップS271で、<script>内に、<speech utterance=””performative=””animation=””/>を追加する。そして、ステップS273で、発話内容(テキスト)をutterance属性に、発話内容の種類(遂行動詞)をperformative属性に、実行されるアニメーションの名前をanimation属性に、それぞれ挿入して、<script>要素として<speech>エレメントの追加処理をリターンする。
【0114】
なお、アニメーションの名前とは、遂行動詞(感情の種類および態度の種類についても同じ)のそれぞれに対応して割り当てられたアニメーションの名称(名前)であり、当該コミュニティの設計者或いは開発者等によって予め決定される。
【0115】
図26は、<script>要素として<feeling>エレメントの追加処理(ステップS229)を示すフロー図である。図26に示すように、PC16が<script>要素として<feeling>エレメントの追加処理を開始すると、ステップS281で、<script>内に、<feeling type=””animation=””/>を追加する。そして、ステップS283で、感情の種類をtype属性に、実行されるアニメーションの名前をanimation属性に、それぞれ挿入して、<script>要素として<feeling>エレメントの追加処理をリターンする。
【0116】
図27は、<script>要素として<attitude>エレメントの追加処理(ステップS233)を示すフロー図である。図27に示すように、PC16が<script>要素として<attitude>エレメントの追加処理を開始すると、ステップS291で、<script>内に、<speech opposite=””type=””distance=””animation=””/>を追加する。そして、ステップS293で、態度を取る相手のユーザID(またはキャラクタID)をopposite属性に、態度の種類をtype属性に、相手との距離をdistance属性に、実行されるアニメーションの名前をanimation属性に、それぞれ挿入して、<script>要素として<attitude>エレメントの追加処理をリターンする。
【0117】
図28は、<script>要素として<citation>エレメントの追加処理(ステップS237)を示すフロー図である。図28に示すように、CPU16が<script>要素として<citation>エレメントの追加処理を開始すると、ステップS301で、<script>内に、<citation url=””/>を追加する。そして、ステップS303で、引用するウェブコンテンツのURLをurl属性に挿入して、<script>要素として<citation>エレメントの追加処理をリターンする。
【0118】
図29は、<script>要素として<comment>エレメントの追加処理(ステップS239)を示すフロー図である。図29に示すように、CPU16が<script>要素として<comment>エレメントの追加処理を開始すると、ステップS311で、<script>内に、<comment target=””utterance=””/>を追加する。そして、ステップS313で、コメントする対象のウェブコンテンツのID(ウェブコンテンツID)をtarget属性に、発話内容をutterance属性に、それぞれ挿入して、<script>要素として<comment>エレメントの追加処理をリターンする。
【0119】
なお、プロキシ処理においては省略したが、ウェブコンテンツIDは、コメントコンポーネント108の直前に追加されたURLコンポーネント106の入力欄106bに記述されるURLに対応づけられたウェブコンテンツの識別情報であり、発言エディタ70または200上には現れないが、入力欄106bに入力されたURLのラベルとして付されている。
【0120】
図30および図31は、発言の再生処理(ステップS27)を示すフロー図である。図30に示すように、PC16が発言の再生処理を開始すると、ステップ321で、選択された発言のシナリオ情報を読み込む。続くステップS323で、後述する会話状態の初期化処理(図32、図33参照)を実行して、ステップS325で、<script>要素内の最初のエレメントを読み出し、ステップS327で、読み出したエレメントの種類を判別する。
【0121】
続くステップS329では、speechエレメントかどうかを判断する。ステップS329で“YES”であれば、つまりspeechエレメントであれば、ステップS331で、animation属性に示されたアニメーションを実行し、utterance属性の内容を吹き出しと合成音声とを再生して、図31に示すステップS347に進む。
【0122】
図6は、表示部34に表示される或る発言を再生した場合の状態を示す図解図である。この図6を参照して、当該発言を投稿したユーザAの使用する第1キャラクタ32aは、コンテンツ表示部32の前面に表示され、考える(悩む)ような表情するとともに、腕を組む動作をする。また、発話内容である“なぜでしょう?”というテキストが吹き出し表示され、スピーカからその内容の合成音声が出力される。また、当該話題に登場する他のユーザのキャラクタとして、第2キャラクタ32bおよび第3キュラクタがコンテンツ表示部32の前面に表示される。
【0123】
つまり、図6に示す例では、選択された発言に含まれるエレメントがspeechエレメントであり、animation属性には“reject(〜と拒絶する)”が記述され、utterance属性には“なぜでしょう?”に相当するテキストデータが記述されているのである。
【0124】
一方、ステップS329で“NO”であれば、つまりspeechエレメントでなければ、ステップS333で、feelingエレメントかどうかを判断する。ステップS333で“YES”であれば、つまりfeelingエレメントであれば、ステップS335で、animation属性に示されたアニメーションを実行してからステップS347に進む。一方、ステップS333で“NO”であれば、つまりfeelingエレメントでなければ、図31に示すステップS337で、attitudeエレメントかどうかを判断する。
【0125】
ステップS337で“YES”であれば、つまりattitudeエレメントであれば、ステップS339で、opposite属性に示されたキャラクタに対して、distance属性で示された距離(表示位置)に移動し、animation属性に示されたアニメーションを実行する。一方、ステップS337で“NO”であれば、つまりattitudeエレメントでなければ、ステップS341で、webエレメントかどうかを判断する。
【0126】
ステップS341で“YES”であれば、つまりwebエレメントであれば、ステップS343で、url属性に示されたウェブコンテンツを別ウインドウすなわちコンテンツ表示部32に開く(表示する)。ただし、ウェブコンテンツが画像データである場合には、コンテンツ表示部32の前面に別ウインドウで開く。一方、ステップS341で“NO”であれば、つまりwebエレメントでなければ、commentエレメントであると判断して、ステップS345で、target属性に示されたウェブコンテンツの横にキャラクタを移動し、utterance属性の内容を吹き出しで表示し、当該内容の音声合成をスピーカから出力する。
【0127】
そして、ステップS347では、<script>要素内の最後のエレメントかどうかを判断する。つまり、再生指示を入力した発言或いは登録されたばかりの発言の内容をすべて再生したかどうかを判断する。ステップS347で“NO”であれば、つまり最後のエレメントでなければ、ステップS349で、次のエレメントを読み出して、図30に示したステップS327に戻る。一方、ステップS347で“YES”であれば、つまり最後のエレメントであれば、発言の再生処理をリターンする。
【0128】
図32および図33は、会話状態の初期化処理(ステップS323)を示すフロー図である。図32に示すように、PC16が会話状態の初期化処理を開始すると、ステップS351で、<cast>要素内容の最初のpmエレメントを読み出し、ステップS353で、id属性のキャラクタが出現済みかどうかを判断する。ステップS353で“YES”であれば、つまりid属性のキャラクタが出現済みであれば、そのままステップS357に進む。一方、ステップS353で“NO”であれば、つまりid属性のキャラクタが出現済みでなければ、ステップS355で、画面外すなわちコンテンツ表示部32および表示部34の外にキャラクタを出現させて、ステップS357に進む。
【0129】
なお、id属性には、キャラクタの名前が記述されるため、当該キャラクタの名前に対応して記述されるキャラクタIDをユーザ情報から取得し、取得したキャラクタIDが示すキャラクタが出現される。
【0130】
ステップS357では、出現させたキャラクタを、location_x,location_y属性の示す座標に移動させる。続くステップS359では、最後のpmエレメントかどうかを判断する。つまり、当該話題に参加しているユーザが使用するキャラクタをすべて出現させたかどうかを判断する。ステップS359で“YES”であれば、つまり最後のpmエレメントであれば、そのままステップS363に進む。一方、ステップS359で“NO”であれば、つまり最後のpmエレメントでなければ、ステップS361で、次のpmエレメントを読み出し、ステップS353に戻る。
【0131】
ステップS363では、<cast>要素内容の最初のdmエレメントを読み出し、図33に示すステップS365で、url属性のウェブコンテンツが出現済みかどうかを判断する。ステップS365で“YES”であれば、つまりurl属性のウェブコンテンツが出現済みであれば、そのままステップS369に進む。一方、ステップS365で“NO”であれば、つまりurl属性のウェブコンテンツが出現済みでなければ、ステップS367で、別ウインドにウェブコンテンツを表示してからステップS369に進む。
【0132】
ステップS369では、最後のdmエレメントかどうかを判断する。つまり、当該話題に含まれるウェブコンテンツをすべて表示したかどうかを判断する。ステップS369で“YES”であれば、つまり最後のdmエレメントであれば、そのままステップS373に進む。一方、ステップS369で“NO”であれば、つまり最後のdmエレメントでなければ、ステップS371で、次のdmエレメントを読み出して、ステップS365に戻る。
【0133】
なお、当該話題に複数のウェブコンテンツが含まれる場合には、コンテンツ表示部32の前面であり、キャラクタ(図6では、第1キャラクタ32a、第2キャラクタ32b、第3キャラクタ32c)の背面に別ウィンドウを開いて、重ねて表示するようにすればよい。
【0134】
ステップS373では、<script>要素内容のactor属性の示すキャラクタが出現済みかどうかを判断する。ステップS373で“YES”であれば、つまり、<script>要素内容のactor属性の示すキャラクタが出現済みであれば、そのまま会話状態の初期化処理をリターンする。一方、ステップS373で“NO”であれば、つまり<script>要素内容のactor属性の示すキャラクタが出現済みでなければ、ステップS375で、actor属性の示すキャラクタを画面外すなわちコンテンツ表示部32および表示部34の外に出現させ、ステップS377で、当該キャラクタを、location_x,location_y属性の示す座標に移動させて、会話状態の初期化処理をリターンする。
【0135】
図34に示すように、サーバ12は発言データの登録処理を開始すると、ステップS381で、投稿された発言の種類を判別する。続くステップS383では、新規話題かどうかを判断する。ここで、新規話題かどうかは、発言エディタ70または発言エディタ200のいずれによって、発言が投稿されたかで容易に知ることができる。ステップS383で“YES”であれば、つまり新規話題であれば、ステップS385で、発言DB24に新しい木構造のルートノード(親ノード)として登録して、ステップS393に進む。つまり、ステップS385では、新しいスレッドデータを作成し、発言DB24に登録する。このとき、ラベル付きの話題フォルダが作成され、当該話題フォルダに話題のデータすなわち発言データが記憶される。
【0136】
一方、ステップS383で“NO”であれば、つまり新規話題でなければ、ステップS387で、発言DB24に発言作成時における直前の発言の子ノードとして登録する。つまり、直前の発言が話題であれば、場面フォルダを作成するとともに、当該場面フォルダ内にラベル付きのコメントのデータ(発言データ)を記憶する。ただし、直前の発言がコメント或いはリアクションであれば、それに続く発言(リアクション)として、ラベル付きのリアクションのデータ(発言データ)を既に存在する場面フォルダ内に記憶する。
【0137】
続くステップS389では、後述する発言のシナリオ情報の解析処理(図35および図36参照)を実行し、次いで、ステップS391において、後述するリンクデータの解析処理(図37および図38参照)を実行して、ステップS393に進む。
【0138】
ステップS393では、話題の木構造と登録された発言のシナリオ情報とを含むHTMLデータを作成し、ステップS395で、作成したHTMLデータをPC16に送信して、発言データの登録処理をリターンする。
【0139】
なお、後述するように、発言のシナリオ情報の解析処理およびリンクデータの解析処理は、処理に比較的時間がかかるため、サーバの管理者等の指示に従って、別途実行するようにしてもよい。
【0140】
図35および図36は、発言のシナリオ情報の解析処理(ステップS389)を示すフロー図である。図35に示すように、サーバ12が発言のシナリオ情報の解析処理を開始すると、ステップS401で、<script>要素内の最初のエレメントを読み出し、ステップS403で、エレメントの種類を判別する。続くステップS405では、attitudeエレメントかどうかを判断する。ステップS405で“YES”であれば、つまりattitudeエレメントであれば、ステップS407で、opposite属性に示されたユーザを「発言相手メモリ」に登録する。この発言相手メモリは、サーバ12に設けられるHDD12aの記憶領域の一部である。そして、ステップS409では、話題の木構造における祖先ノードの中で、「発言相手メモリ」に登録されたユーザによる一番近い発言に対し、attitudeエレメントをプロパティとしたリンクデータを作成して、図36に示すステップS433に進む。
【0141】
ここで、先祖ノードとは、話題に含まれる子ノードのうち、今回登録された発言より前に発言DB24に登録された子ノードをいう。また、リンクデータとは、個々の発言をノードとする有向グラフでの新しい辺(矢印)をいい、この辺にエレメントが属性情報として記憶される。以下、同様である。さらに、一番近い発言とは、今回登録した発言の直前の発言をいう。
【0142】
一方、ステップS405で“NO”であれば、つまりattitudeエレメントでなければ、ステップS411で、webエレメントかどうかを判断する。ステップ411で“YES”であれば、つまりwebエレメントであれば、ステップS413で、url属性に示されたURLを「発言対象メモリ」に登録して、ステップS433に進む。ここで、発言対象メモリは、サーバ12に設けられるHDD12aの記憶領域の一部であり、発言相手メモリとは異なる領域である。一方、ステップS411で“NO”であれば、つまりwebエレメントでなければ、ステップS415で、feelingエレメントかどうかを判断する。
【0143】
ステップS415で“YES”であれば、つまりfeelingエレメントであれば、ステップS417で、feelingエレメントをプロパティとした自身へのリンクデータを作成し、ステップS433に進む。一方、ステップS415で“NO”であれば、つまりfeelingエレメントでなければ、図36に示すステップS419で、speechエレメントかどうかを判断する。
【0144】
ステップS419で“NO”であれば、つまりspeechエレメントでなければ、commentエレメントであると判断して、ステップS421で、target属性に示されたウェブコンテンツに対し、commentエレメントをプロパティとしてリンクデータを作成し、ステップS433に進む。一方、ステップS419で“YES”であれば、つまりspeechエレメントであれば、ステップS423で、発言対象メモリにデータが在るかどうかを判断する。
【0145】
ステップS423で“YES”であれば、つまり発言対象メモリにデータがあれば、ステップS425で、「発言対象メモリ」に在るウェブコンテンツに対し、speechエレメントをプロパティとしたリンクデータを作成し、「発言対象メモリ」を消去して、ステップS433に進む。一方、ステップS423で“NO”であれば、つまり発言対象メモリにデータがなければ、ステップS427で、発言相手メモリにデータが在るかどうかを判断する。
【0146】
ステップS427で“YES”であれば、つまり発言相手メモリにデータがあれば、ステップS429で、話題の木構造の中に祖先ノードの中で「発言相手メモリ」に登録されたユーザによる一番近い発言に対し、speechエレメントをプロパティとしたリンクデータを作成し、ステップS433に進む。一方、ステップS427で“NO”であれば、つまり発言相手メモリにデータがなければ、ステップS431で、speechエレメントをプロパティとした自身へのリンクデータを作成して、ステップS433に進む。
【0147】
ステップS433では、最後のエレメントかどうかを判断する。つまり、<script>要素内のすべてのエレメントについて、解析処理を終了したかどうかを判断する。ステップS433で“NO”であれば、つまり最後のエレメントでなければ、ステップS435で、次のエレメントを読み出して、図35に示したステップS403に戻る。一方、ステップS433で“YES”であれば、つまり最後のエレメントであれば、発言のシナリオ情報の解析処理をリターンする。
【0148】
図37および図38は、リンクデータの評価処理(ステップS391)を示すフロー図である。図37に示すように、サーバ12がリンクデータの評価処理を開始すると、ステップS441で、最初のリンクデータについてのプロパティの種類を判別し、ステップS443で、speechエレメントかどうかを判断する。ステップS443で“YES”であれば、つまりspeechエレメントであれば、ステップS445で、performative属性を読み出し、ステップS455に進む。一方、ステップS443で“NO”であれば、つまりspeechエレメントでなければ、ステップS447で、feelingエレメントかどうかを判断する。
【0149】
ステップS447で“YES”であれば、つまりfeelingエレメントであれば、ステップS449で、type属性を読み出し、ステップS455に進む。一方、ステップS447で“NO”であれば、つまりfeelingエレメントでなければ、ステップS451で、attitudeエレメントかどうかを判断する。ステップS451で“YES”であれば、つまりattitudeエレメントであれば、ステップS453で、type属性を読み出しし、ステップS455に進む。
【0150】
ステップS455では、図41に示す点数表を用いて点数を求め、ステップS459に進む。この点数表は予め設計者或いは開発者が決定したものであり、たとえば、サーバ12のHDD12aに記憶される。ただし、図41に示す点数表は単なる一例であり、実際にはさらに多数の遂行動詞、感情(情動)の種類および態度の種類についての点数が記述される。また、点数表では、遂行動詞、感情の種類および態度の種類のそれぞれについて、肯定的、否定的、驚き度の項目を設けて、0または1の点数を付けてある。ここで、点数「0」は肯定度、否定度、驚き度がないことを意味し、点数「1」は肯定度、否定度、驚き度があることを意味する。たとえば、遂行動詞“〜と賛成する”では、肯定度が点数「1」であり、否定度および驚き度が点数「0」である。また、感情の種類“感激”では、肯定度および驚き度が点数「1」であり、否定度が点数「0」である。さらに、態度の種類“回避的”では、否定度が点数「1」であり、肯定度および驚き度が点数「0」である。
【0151】
一方、ステップS451で“NO”であれば、つまりattitudeエレメントでなければ、commentエレメントであると判断し、ステップS457で、対象のウェブコンテンツのコメントリストにutterance属性を追加して、ステップS459に進む。
【0152】
ステップS459では、最後のリンクデータかどうかを判断する。つまり、すべてのリンクデータについて点数を求めたかどうかを判断する。ステップS459で“NO”であれば、つまり最後のリンクデータでなければ、ステップS461で次のリンクデータについてのプロパティの種類を判別して、ステップS443に戻る。一方、ステップS459で“YES”であれば、つまり最後のリンクデータであれば、図38に示すステップS463で、後述するリンク先の発言やウェブコンテンツの評価値の修正処理(図39参照)を実行し、ステップS465で、後述するユーザ全員の評価値の修正処理(図40参照)を実行する。
【0153】
続くステップS467では、評価、コメントを編集して、ランキングリストをHTML形式で作成し、ステップS469で、PC16から当該リストの送信要求があるかどうかを判断する。ステップS469で“NO”であれば、つまりリストの送信要求がなければ、そのままリンクデータの評価処理をリターンする。一方、ステップS469で“YES”であれば、つまりリストの送信要求があれば、ステップS471で、作成したリストをPC16に送信して、リンクデータの評価処理をリターンする。
【0154】
図示等は省略するが、作成したリストがPC16に送信されると、PC16はディスプレイに当該リストを表示する。つまり、ユーザが投稿した話題についての情報性や当該話題を投稿したユーザについての他人の関心度や興味度などの評価を数値化するので、ユーザは自身が投稿した話題(発言)や自分自身についての客観的な評価を知ることができる。
【0155】
図39は、リンク先の発言やウェブコンテンツの評価値の修正処理(ステップS463)を示すフロー図である。図39に示すように、サーバ12がリンク先の発言やウェブコンテンツの評価値の修正処理を開始すると、ステップS481で、pefortiveやtypeの肯定度・否定度・驚き度に、後述するユーザ会員の評価値の修正処理で算出するユーザの評価値(ユーザ評価値)Vnを乗じた値を算出する。続くステップS483では、リンク先の発言やウェブコンテンツの評価値に新しい発言による値を加算する。そして、ステップS485で、修正した評価値を出力して、リンク先の発言やウェブコンテンツの評価値の修正処理をリターンする。
【0156】
図40は、ユーザ会員の評価値の修正処理(ステップS465)を示すフロー図である。図40に示すように、サーバ12はユーザ会員の評価値の修正処理を開始すると、ステップS491で、それぞれのユーザに対し、ユーザの全発言についての肯定度の合計値から否定度の合計値を引いた値Vを算出する。次にステップS493で、最大値Vmax と最小値Vmin を検出し、ステップS495で、正規化されたユーザの評価値Vnを数1に従って算出する。
【0157】
【数1】
Vn=(V−Vmin )/(Vmax −Vmin )
そして、ステップS497で、算出した評価値Vnを出力して、ユーザ会員の評価値の修正処理をリターンする。この評価値Vnが上述したリンクデータの解析処理のステップS481において用いられる。つまり、ステップS481においては、前回算出した評価値Vnが用いられるのである。
【0158】
この実施例によれば、或るユーザが投稿した話題に対する他のユーザの発言に含まれる非言語情報に基づいて当該話題の評価をするので、その評価に基づいて自己表現の自由なコミュニティ環境における社会的なコミュニケーションの構造を解析することができる。さらには、そのコミュニケーションの構造に基づいてコミュニケーションの内容を解析することができる。
【0159】
なお、この実施例で示した評価値の算出方法は単なる一例であり、これに限定される必要はない。
【0160】
また、リンクデータの解析処理および評価値の算出処理をサーバで実行するようにしたが、発言DBからスレッドデータを読み出してPC側でこれらの処理を実行するようにしてもよい。
【0161】
さらに、この実施例では、投稿された話題についての評価値を算出するようにしてあるが、コメントやリアクションのような発言についての評価値を算出するようにしてもよい。たとえば、所望のコメントやリアクションを選択して、リンクデータの解析処理および評価値の算出処理を実行させることにより、選択されたコメントやリアクションに続く(対する)発言の非言語情報に基づいて、選択されたコメントやリアクションについての評価値を算出することができる。
【図面の簡単な説明】
【図1】この発明のコミュニティ環境提供システムの一例を示す図解図である。
【図2】図1実施例に示すデータベースの内容の一例を示す図解図である。
【図3】図1および図2に示す発言データベースのデータ構造の一例を示す図解図である。
【図4】図1実施例に示すサーバによって提供されるコミュニティのウェブページの一例を示す図解図である。
【図5】図1実施例に示すサーバによって提供されるコミュニティのウェブページの他の一例を示す図解図である。
【図6】図1実施例に示すサーバによって提供されるコミュニティのウェブページのその他の一例を示す図解図である。
【図7】図1実施例に示すサーバによって提供されるコミュニティのウェブページにおいて、発言を投稿する場合の発言エディタの一例を示す図解図である。
【図8】図1実施例に示すサーバによって提供されるコミュニティのウェブページにおいて、話題を投稿する場合の発言エディタの一例を示す図解図である。
【図9】図1実施例に示すサーバによって提供されるコミュニティにおけるサーバとPCとの全体処理の一部を示すフロー図である。
【図10】図1実施例に示すサーバによって提供されるコミュニティにおけるサーバとPCとの全体処理の他の一部を示すフロー図である。
【図11】図1実施例に示すPCの発言の作成と投稿処理の一部を示すフロー図である。
【図12】図1実施例に示すPCの発言の作成と投稿処理の他の一部を示すフロー図である。
【図13】図1実施例に示すPCの発言内容の入力処理の一部を示すフロー図である。
【図14】図1実施例に示すPCの発言内容の入力処理の他の一部を示すフロー図である。
【図15】図1実施例に示すPCの発話内容の入力処理を示すフロー図である。
【図16】図1実施例に示すPCの感情の選択処理を示すフロー図である。
【図17】図1実施例に示すPCの態度の選択処理を示すフロー図である。
【図18】図1実施例に示すPCのURLの入力処理を示すフロー図である。
【図19】図1実施例に示すPCの画像ファイルの選択処理を示すフロー図である。
【図20】図1実施例に示すPCのコメントの入力処理を示すフロー図である。
【図21】図1実施例に示すサーバのプロキシ処理を示すフロー図である。
【図22】図1実施例に示すPCのシナリオ情報の作成処理の一部を示すフロー図である。
【図23】図1実施例に示すPCのシナリオ情報の作成処理の他の一部を示すフロー図である。
【図24】図1実施例に示すPCの<cast>要素として<pm>エレメントおよび<dm>エレメントの挿入処理を示すフロー図である。
【図25】図1実施例に示すPCの<script>要素として<speech>エレメントの追加処理を示すフロー図である。
【図26】図1実施例に示すPCの<script>要素として<feeling>エレメントの追加処理を示すフロー図である。
【図27】図1実施例に示すPCの<script>要素として<attitude>エレメントの追加処理を示すフロー図である。
【図28】図1実施例に示すPCの<script>要素として<citation>エレメントの追加処理を示すフロー図である。
【図29】図1実施例に示すPCの<script>要素として<comment>エレメントの追加処理を示すフロー図である。
【図30】図1実施例に示すPCの発言の再生処理の一部を示すフロー図である。
【図31】図1実施例に示すPCの発言の再生処理の他の一部を示すフロー図である。
【図32】図1実施例に示すPCの会話状態の初期化処理の一部を示すフロー図である。
【図33】図1実施例に示すPCの会話状態の初期化処理の他の一部を示すフロー図である。
【図34】図1実施例に示すサーバの発言データの登録処理を示すフロー図である。
【図35】図1実施例に示すサーバの発言のシナリオ情報の解析処理の一部を示すフロー図である。
【図36】図1実施例に示すサーバの発言のシナリオ情報の解析処理の他の一部を示すフロー図である。
【図37】図1実施例に示すサーバのリンクデータの評価処理の一部を示すフロー図である。
【図38】図1実施例に示すサーバのリンクデータの評価処理の他の一部を示すフロー図である。
【図39】図1実施例に示すサーバのリンク先の発言やウェブコンテンツの評価値の修正処理を示すフロー図である。
【図40】図1実施例に示すサーバのユーザ会員の評価値の修正処理を示すフロー図である。
【図41】図37および図38におけるリンクデータの評価処理に用いられる点数表の一例を示す図解図である。
【符号の説明】
10 …コミュニティ環境提供システム
12 …サーバ
14 …ネットワーク
16,18 …PC
20,22,24,26 …データベース
Claims (4)
- ネットワークを介して接続される少なくとも2以上のユーザコンピュータおよびユーザコンピュータを操作するユーザに対してコミュニティ環境を提供するコミュニティサーバを備えるコミュニティ環境提供システムであって、
前記ユーザコンピュータは、
少なくとも非言語情報を含む発言内容を入力する入力手段、および
前記入力手段によって入力された前記発言内容を前記コミュニティサーバに送信する送信手段を備え、
前記コミュニティサーバは、
前記送信手段によって送信された前記発言内容を受信して記憶する記憶手段、および
前記記憶手段に記憶された発言内容に含まれる非言語情報に基づいて当該発言内容の前段に在る発言内容について評価する評価手段を備える、コミュニティ環境提供システム。 - 前記記憶手段は複数の発言内容を記憶し、
前記評価手段は最前段に在る発言内容を、当該発言内容以外の発言内容に含まれる非言語情報に基づいて評価する、請求項1記載のコミュニティ環境提供システム。 - 前記非言語情報は、遂行動詞、感情および対人態度の少なくとも1つを含む、請求項1または2記載のコミュニティ環境提供システム。
- コミュニティ環境には各ユーザに対応する擬人化エージェントが存在し、
前記ユーザコンピュータは、前記発言内容を再生する再生手段をさらに備え、
前記再生手段によって前記発言内容が再生されると、前記擬人化エージェントは、対応するユーザの前記発言内容に含まれる遂行動詞、感情および対人態度の少なくとも1つに応じたアニメーションを実行する、請求項3記載のコミュニティ環境提供システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003076450A JP3916579B2 (ja) | 2003-03-19 | 2003-03-19 | コミュニティ環境提供システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003076450A JP3916579B2 (ja) | 2003-03-19 | 2003-03-19 | コミュニティ環境提供システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004287613A true JP2004287613A (ja) | 2004-10-14 |
JP3916579B2 JP3916579B2 (ja) | 2007-05-16 |
Family
ID=33291507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003076450A Expired - Fee Related JP3916579B2 (ja) | 2003-03-19 | 2003-03-19 | コミュニティ環境提供システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3916579B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006155431A (ja) * | 2004-11-30 | 2006-06-15 | Fuji Xerox Co Ltd | 分析装置及び分析方法 |
JP2010533902A (ja) * | 2007-06-27 | 2010-10-28 | カレン ノウルズ エンタープライゼズ ピーティーワイ リミテッド | 通信方法、システムおよび製品 |
JP2013168184A (ja) * | 2011-12-05 | 2013-08-29 | Konami Digital Entertainment Co Ltd | メッセージ管理システム、メッセージ表示装置、メッセージの表示方法、及びプログラム |
JP2018136597A (ja) * | 2017-02-20 | 2018-08-30 | 国立大学法人 名古屋工業大学 | web上での大規模議論におけるファシリテータ支援システム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09138767A (ja) * | 1995-11-14 | 1997-05-27 | Fujitsu Ten Ltd | 感情表現の通信装置 |
JP2000259512A (ja) * | 1999-03-04 | 2000-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 非同期分散型コミュニケーション支援装置および非同期分散型コミュニケーション支援プログラムを記録した記録媒体 |
JP2002190034A (ja) * | 2000-12-20 | 2002-07-05 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2002351806A (ja) * | 2001-05-28 | 2002-12-06 | Namco Ltd | チャット情報、情報記憶媒体、コンピュータシステム、及び、サーバシステム |
-
2003
- 2003-03-19 JP JP2003076450A patent/JP3916579B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09138767A (ja) * | 1995-11-14 | 1997-05-27 | Fujitsu Ten Ltd | 感情表現の通信装置 |
JP2000259512A (ja) * | 1999-03-04 | 2000-09-22 | Nippon Telegr & Teleph Corp <Ntt> | 非同期分散型コミュニケーション支援装置および非同期分散型コミュニケーション支援プログラムを記録した記録媒体 |
JP2002190034A (ja) * | 2000-12-20 | 2002-07-05 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2002351806A (ja) * | 2001-05-28 | 2002-12-06 | Namco Ltd | チャット情報、情報記憶媒体、コンピュータシステム、及び、サーバシステム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006155431A (ja) * | 2004-11-30 | 2006-06-15 | Fuji Xerox Co Ltd | 分析装置及び分析方法 |
JP4525318B2 (ja) * | 2004-11-30 | 2010-08-18 | 富士ゼロックス株式会社 | 分析装置及び分析プログラム |
JP2010533902A (ja) * | 2007-06-27 | 2010-10-28 | カレン ノウルズ エンタープライゼズ ピーティーワイ リミテッド | 通信方法、システムおよび製品 |
JP2013168184A (ja) * | 2011-12-05 | 2013-08-29 | Konami Digital Entertainment Co Ltd | メッセージ管理システム、メッセージ表示装置、メッセージの表示方法、及びプログラム |
JP2018136597A (ja) * | 2017-02-20 | 2018-08-30 | 国立大学法人 名古屋工業大学 | web上での大規模議論におけるファシリテータ支援システム |
Also Published As
Publication number | Publication date |
---|---|
JP3916579B2 (ja) | 2007-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6388665B1 (en) | Software platform having a real world interface with animated characters | |
US11823074B2 (en) | Intelligent communication manager and summarizer | |
US8156060B2 (en) | Systems and methods for generating and implementing an interactive man-machine web interface based on natural language processing and avatar virtual agent based character | |
Jokinen | Constructive dialogue modelling: Speech interaction and rational agents | |
US20090254836A1 (en) | Method and system of providing a personalized performance | |
JP5563190B2 (ja) | モジュール方式のコンピュータ支援の言語学習方法及びシステム | |
US20070294619A1 (en) | Generating media presentations | |
US9361589B2 (en) | System and a method for providing a dialog with a user | |
CA2835368A1 (en) | System and method for providing a dialog with a user | |
O’Shea et al. | Systems engineering and conversational agents | |
CN113518160A (zh) | 视频生成方法、装置、设备及存储介质 | |
Rozga | Practical bot development: Designing and building bots with Node. js and microsoft bot framework | |
JP3916579B2 (ja) | コミュニティ環境提供システム | |
JP3293763B2 (ja) | 絵文字コミュニケーション装置 | |
JP2004139446A (ja) | 日常言語コンピュータシステムで用いられる秘書エージェントシステム、秘書エージェントプログラムおよび対話プランニング方法 | |
JP7629254B1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP2002342764A (ja) | 行動履歴表現装置 | |
Valério | Chatbots and communication: a qualitative analysis of communicative aspects of conversational interfaces | |
JP3787623B2 (ja) | 会話表現生成装置、及び会話表現生成プログラム | |
Mateo Navarro et al. | Run-time model based framework for automatic evaluation of multimodal interfaces | |
Lennartsson et al. | Chat Bots & Voice Control: Applications and limitations of combining Microsoft’s Azure Bot Service and Cognitive Services’ Speech API | |
KR20250015762A (ko) | 3차원 아바타 커뮤니케이션을 위한 서비스 제공 방법, 장치 및 시스템 | |
Chmielowiec | Prototyping a Literary Analysis Tool for Creatives that Doesn’t Use Cloud Computing and Develops New Analysis Metrics | |
Götzer | Engineering and user experience of chatbots in the context of damage recording for insurance companies | |
Mori et al. | Leveraging LLMs with Iterative Loop Structure for Enhanced Social Intelligence in Video Question Answering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070206 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100216 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110216 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |