JP3792882B2 - 感情生成装置及び感情生成方法 - Google Patents
感情生成装置及び感情生成方法 Download PDFInfo
- Publication number
- JP3792882B2 JP3792882B2 JP06731098A JP6731098A JP3792882B2 JP 3792882 B2 JP3792882 B2 JP 3792882B2 JP 06731098 A JP06731098 A JP 06731098A JP 6731098 A JP6731098 A JP 6731098A JP 3792882 B2 JP3792882 B2 JP 3792882B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- information
- situation
- unit
- reaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
【発明の属する技術分野】
本発明は、インタフェースエージェントの感情表現を制御する感情生成装置及び感情生成方法に関する。
【0002】
【従来の技術】
従来より、システムとユーザとを結ぶヒューマンインタフェースとして、スイッチとメーターの並んだ計器盤、キーボードから命令を打ち込むコマンドラインインタフェース、ポインティングデバイスとアイコンから成るグラフィカル・ユーザ・インタフェース(GUI)などが提案され、かつ実用に供されている。また最近では、音声による命令を受け付け、音声で応答を返す音声インタフェースも研究段階から実用段階に移りつつある。さらに、近年ではシステム内部とユーザとの間に介在させるインタフェースエージェント(自律的なインタフェース)として、執事/秘書/店員/愛犬などを模した生物的メタファ(仮想的な人間/ロボット/動物)を実現する技術が研究されている。
【0003】
インタフェースエージェントとして執事や愛犬などの生物的メタファを採用することは、無機的なシステムに対するユーザの抵抗感を軽減して親しみを覚えさせる効果を生む。特に、電子フレンドや電子ペットのようなアプリケーションでは、ユーザとインタフェースエージェントとの感情を交えたやりとりによる両者の心理的結び付きを演出することがシステムの本質となる。したがって、このようなアプリケーションでは、インタフェースエージェントの知的有能性より感情面でのリアリティを向上させることが重要である。
【0004】
感情は生物の目に見えない内部状態の一種であるが、表情、声の調子、言葉遣い/鳴き声、動作の様子、態度、行動などから我々はそれを伺い知ることができる。特に感情に対応した人間の表情を画像化する技術に関しては、文献“A muscle model for animating three dimensional facial expression”(Computer Graphics, vol.4, 1987年)に開示される3次元CGによる表情合成の研究に始まり、これまでにコンピュータグラフィックスやヒューマンインタフェースの分野で多くの成果が成されている。しかしながら、これらの研究は感情表現そのものをリアルに生成することを主眼とするものであり、感情表現の推移を与えるタイムテーブルや、特定の条件と特定の感情表現のマッピングによる直接的な感情表現生成を行うのみで、その中間に位置するはずの感情そのものを模擬するものではなかった。
【0005】
感情そのものに踏み込んだ研究例としては、文献“CGアニメーションのための人間行動シミュレーション”(NICOGRAPH論文集、1992年)に開示される人間行動シミュレーションや、文献“ニューロベビー 感情モデルを持つ表情合成システム”(画像ラボ、Sep.,1992)に開示されるニューロベビーがある。
【0006】
前者の人間行動シミュレーションは、内部状態として魅力度というパラメータを導入して、人が他の人や自動車との衝突を避けながら距離を保って移動するCGアニメーションを生成可能にしている。魅力度の与え方によって保とうとする距離が変化する効果は、人間が嫌いな相手を回避し、好きな相手に接近する行動をよく再現しており、魅力度とは相手に対する好悪感情に相当するものであると考えることができる。この例では、好悪感情とも見なすことのできる魅力度というパラメータにより行動(接近行動/回避行動)を制御しているが、感情表現として表情などは扱っていない。
【0007】
後者のニューロベビーは、独自の感情パラメータを持ち、怒鳴ったりなだめたりするユーザの音声に応じて自己の感情パラメータを変化させ、その感情パラメータ値に基づいて喜怒哀楽の様子をCGキャラクタの表情、顔色、声、動作に乗せて演じることができる。他の多くの従来技術と異なり、ニューロベビーは、入力に基づいて内部状態である感情パラメータを操作し、次に該感情パラメータに基づいて感情表現を生成するという2段階を経て、入力から感情表現を生成する。
【0008】
しかしながら、感情パラメータを持つニューロベビーは、ユーザとのやりとりの中で感情パラメータを変化させることは可能であっても、特定のユーザとのやりとりの積み重ねに応じて、感情パラメータの変化のしかたや、同じ感情パラメータ値に対する表現のしかたを変えることはできなかった。その結果、システムの示す感情パラメータの変化と、それに基づく感情表現は時と相手を選ばず固定的かつ反復的であり、あるユーザがあるインタフェースエージェントとどう接してきたかという歴史を、そのユーザに対するそのインタフェースエージェント独自の感情表現として生成することはできなかった。これは、従来例の人間行動シミュレーションでも同様である。魅力度は予め与えられるが、それが経験により変化するという機能と効果については一切示唆されていない。すなわち、電子フレンドや電子ペットでは、ユーザとインタフェースエージェントとの対話の積み重ねの歴史により、両者の心理的結び付きが醸成可能であることがシステムの大きな目的となり得るにも関わらず、従来技術によるシステムではそのような機能を実現することができなかった。
【0009】
【発明が解決しようとする課題】
以上説明してきたように、従来の技術では、インタフェースエージェントには、予め定められた入力に対して予め定められた感情的反応を示させることしかできなかった。
【0010】
また、特定のユーザと特定のインタフェースエージェントとの間での過去のやり取り(かかわり)を反映させた形で、当該特定のインタフェースエージェントにおける感情表現を制御することができなかった。
【0011】
また、複数のインタフェースエージェント間における感情表現に関する特性に個体差を持たせることや、あるインタフェースエージェントに付与した個性を別の個性に変更することが困難であった。
【0012】
本発明は、上記事情を考慮してなされたもので、実際の運用場面において、所定の感情を発生させる状況に特有に現われる予測不可能な付帯条件を学習し、学習された付帯条件を満たす新たな状況下で該所定の感情を想起させることが可能な感情生成装置及び感情生成方法を提供することを目的とする。
【0013】
また、本発明は、状況が満たす付帯条件とそれに伴い想起される感情として、特定の人物や特定の事物への好悪感情を学習でき、電子フレンドや電子ペットなど、ユーザとの心理的関係構築を重視するインタフェースエージェントに必要な機能、すなわちユーザ毎に異なる感情的応答を示し、この応答をユーザがインタフェースエージェントと如何に接するかで調整可変である感情生成装置及び感情生成方法を提供することを目的とする。
【0014】
また、本発明は、感情の現われ方に関して、インタフェースエージェント毎の性格付けを容易に行うことのできる感情生成装置及び感情生成方法を提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明に係る感情生成装置は、周囲の状況を認識して複数種類の情報から成る状況情報を生成する状況認識手段と、前記状況情報を現在から過去にさかのぼる所定期間分まとめた状況情報列を生成して保持する状況記述手段と、前記状況情報列から予め定められた種類の情報を検出すると、該情報に応じた反応感情情報を生成する反応感情生成手段と、前記反応感情情報の強度が所定閾値以上となった場合に、該反応感情情報と前記状況情報列とを関連付けて状況感情対情報として記憶する感情的記憶記述手段と、状況情報列の入力に対して、前記記憶された状況感情対情報に関連付けられた前記状況情報列との一致の度合いに応じて、該状況感情対情報に関連付けられた反応感情情報を想起感情情報として想起する想起感情生成手段と、新たに想起された前記想起感情情報と新たに生成された前記反応感情情報とを合成して自己感情情報を生成する自己感情記述手段と、前記自己感情情報に応じた信号を生成出力する感情表現手段とを具備し、前記状況情報が、前記反応感情情報を生成させる前記予め定められた種類の情報とそれ以外の種類の情報とから成るか、または、前記予め定められた種類の情報を複数種類含むことを特徴とする。
また、本発明に係る感情生成方法は、周囲の状況を認識して複数種類の情報から成る状況情報を生成するステップと、前記状況情報を現在から過去にさかのぼる所定期間分まとめた状況情報列を生成し記憶手段に保持するステップと、前記状況情報列から予め定められた種類の情報を検出すると、該情報に応じた最新の反応感情情報を生成するステップと、前記反応感情情報の強度が所定閾値以上となった場合に、該反応感情情報と前記状況情報列とを関連付けて状況感情対情報として学習し、この学習結果を記憶手段に保持するステップと、状況情報列の入力に対して、前記学習された状況感情対情報に関連付けられた前記状況情報列との一致の度合いに応じて、該状況感情対情報に関連付けられた反応感情情報を想起した想起感情情報を生成するステップと、新たに生成された前記想起感情情報と新たに生成された前記反応感情情報とを合成して自己感情情報を生成するステップと、前記自己感情情報に応じた信号を生成出力するステップとを有し、前記状況情報が、前記反応感情情報を生成させる前記予め定められた種類の情報とそれ以外の種類の情報とから成るか、または、前記予め定められた種類の情報を複数種類含むことを特徴とする。
【0020】
なお、装置に係る本発明は方法に係る発明としても成立し、方法に係る本発明は装置に係る発明としても成立する。
また、装置または方法に係る本発明は、コンピュータに当該発明に相当する手順を実行させるための(あるいはコンピュータを当該発明に相当する手段として機能させるための、あるいはコンピュータに当該発明に相当する機能を実現させるための)プログラムを記録したコンピュータ読取り可能な記録媒体としても成立する。
【0021】
本発明では、予測可能な条件に照らして状況を評価して装置自身の感情を発生させる機構を与え、該機構により実際に経験した感情とそのときの状況から、該状況に特有な予測不可能の付帯条件を学習させる。学習した付帯条件を満たす新しい状況の入力に対しては、該付帯条件に一致する記憶された感情を想起することにより、実際にその状況に至らずとも、付帯条件の検出のみで感情を変化させることを可能にする。この結果、付帯条件としてユーザやユーザの行動を学習して感情的に応答できる、すなわちユーザ毎に感情表現を変え、ユーザの接し方でこれを調整可変な(生成される感情が経験により変化する)インタフェースエージェントを実現することができる。また、感情の現われ方に関して、インタフェースエージェント毎の性格付けを容易に行うことができる。
【0022】
【発明の実施の形態】
以下、図面を参照しながら発明の実施の形態を説明する。
本実施形態に係る感情生成装置は、概略的には、ユーザとの対話機能もしくはユーザへの情報提示機能を有しかつその手段として擬人的(もしくは擬生物的)な形態を有するインタフェースエージェント(例えば、擬人的な外観がCGなどにより表現されるインタフェースエージェント、外観自体を擬人化したロボット、など)における主として視聴覚的に感知され得る出力(例えば、インタフェースエージェントを表現する画像表示や音声出力、ロボットの動きや音声出力、など)に対して感情表現を付与するためのものである。
【0023】
そして、本実施形態は、その感情表現をより高度に擬人化させるためのものである。また、その感情表現の生成の仕組みをより自律化させ、かつ人間で言う個性に相当するような、インタフェースエージェントの感情表現に関する特性の個体差、を容易に設定・変更可能とするものである。
【0024】
本実施形態では、感情生成装置は、インタフェースエージェントに個別に搭載するものとして説明する。従って、例えば、以下で装置独自と言った場合には、本感情生成装置独自であり、かつ、当該インタフェースエージェント独自である。また例えば、以下で装置周囲と言った場合には、本感情生成装置の周囲であり、かつ、当該インタフェースエージェントの位置する場所の周囲である。
【0025】
図1に、本発明の一実施形態に係る感情生成装置の基本構成を示す。図1に示されるように、この感情生成装置は、外部状況認識部1、状況記述部2、反応感情生成部3、感情的記憶生成部4、感情的記憶記述部5、想起感情生成部6、自己感情記述部7、感情表現部8、制御情報生成部9を備えている。
【0026】
外部状況認識部1は、概略的には、画像や音声やその他の情報を入力し、これを解析して装置周囲の現在の状況を表わす外部状況情報を逐次生成する。
状況記述部2は、概略的には、外部状況認識部1にて生成された外部状況情報(人物IDコード、人物表情コード、発話コード、明るさなど)を定期的に読み出して、読み出し時刻とともに所定期間分の最新の外部状況情報を状況情報列として保持する。
【0027】
反応感情生成部3は、概略的には、状況記述部2による指定期間分の状況情報列に直接反応して変化する装置独自の感情(反応感情情報)を生成出力する。
感情的記憶生成部4は、概略的には、反応感情記述部3による反応感情情報と状況記述部2による指定期間内の状況情報列とを対応付けた状況感情対情報を生成して、これを記憶する感情的記憶記述部5に受け渡す(ただし、後述するように、そのときの反応感情情報が十分な強度を持つ場合にのみ状況感情対情報を生成するものとする)。
【0028】
感情的記憶記述部5は、概略的には、感情的記憶生成部4による(強い)状況感情対情報を、状況記述部2が保持できるよりも長期間保持する。
想起感情生成部6は、概略的には、状況記述部2から指定期間内の状況情報列を読み出し、該状況情報列に対応する感情情報を感情的記憶記述部5から検索して想起感情情報として出力する。
【0029】
自己感情記述部7は、概略的には、反応感情生成部3による反応感情情報と、想起感情生成部6による想起感情情報とを合成して得られる感情情報を現在の自己感情情報として保持する。
【0030】
感情表現部8は、概略的には、自己感情記述部7に記述される現在の自己感情情報にしたがって、インタフェースエージェント等の感情表現を、例えば画像や音声などにより出力する。
【0031】
制御情報生成部9は、概略的には、感受性制御情報を反応感情生成部3に、記銘制御閾値情報を感情的記憶生成部4に、学習強度制御情報を感情的記憶記述部5に、想起強度制御情報を想起感情生成部6に、感情表出制御情報を感情表現部8に各々供給する。なお、これらの情報は、インタフェースエージェント等の感情面での個性や性格を決定するパラメータである。
【0032】
さて以下では、外部状況認識部1から制御情報生成部9のそれぞれについて順番に詳細に説明していく。
最初に、外部状況認識部1について説明する。
【0033】
外部状況認識部1は、TVカメラやマイクロフォンやその他のセンサを通じて、画像や音声やその他の情報を入力し、これを解析して装置周囲の現在の状況を表わす外部状況情報を逐次生成する。
【0034】
なお、本実施形態では、画像および音声およびその他の情報(例えば、温度など)を扱うものとして説明するが、これに限定されず、画像や音声を含めて扱うべき物理量(インタフェースエージェント等にとっての外界からの刺激となるもの)の組み合わせは適宜修正可能である。
【0035】
図2に、外部状況認識部1の構成例を示す。この外部状況認識部1は、画像情報入力部11、人物画像検出部12、人物認識部13、人物表情認識部14、人物動作認識部15、音声情報入力部16、人物音声検出部17、発声内容認識部18、語気認識部19、変化速度検出部20、明るさ検出部21、その他情報入力部22、外部状況情報出力部23を含む。
【0036】
画像情報入力部11は、TVカメラなどにより画像を取り込んで画像データとして出力する。
人物画像検出部12は、該画像データ中から人物の映っている画像領域を検出して出力する。この検出は、予め記憶されている、顔らしい画像特徴を記述した顔テンプレートを画像データ中で走査しつつ照合し、所定の基準値以上の類似度を有する領域を顔のある箇所と認定し、さらに該顔のある箇所を含むその周囲を人物領域として抽出する。人物領域として抽出された部分画像データは人物画像データとして出力される。
【0037】
人物認識部13は、該人物画像データの顔領域を、予め記憶されている、人物別の顔テンプレートと照合して該人物が誰であるのかを特定し、この人物を表わす人物IDコード(既知のテンプレートに該当しない人物の場合は、未知人物を表わす特別なIDコード)を外部状況情報出力部23の所定のバッファ24−1に出力する。なお、人物画像データが検出されない場合には、人物ID情報として人物なしを表わす特別なIDコードを出力する。
【0038】
人物表情認識部14は、上記の人物画像データの顔領域を、予め記憶されている、表情別のテンプレートと照合して該表情の種別(例えば、平常、笑う、怒る、悲しむなど)を特定し、この種別を表わす人物表情コード(既知のテンプレートに該当しない表情の場合は、未知表情を表わす特別なIDコード)を外部状況情報出力部23の所定のバッファ24−2に出力する。なお、人物画像データが検出されない場合には、人物表情コードとして表情なしを表わす特別なIDコードを出力する。
【0039】
人物動作認識部15は、上記の人物画像データの全域をオプティカルフロー解析して得た動きベクトルをもとめ、予め記憶されている、動作別のテンプレートと照合して該動作の種別(例えば、発話動作、頷き動作、手招き動作など)を特定し、この種別を表わす人物動作コード(既知のテンプレートに該当しない動作の場合は、未知動作を表わす特別なIDコード)を外部状況情報出力部23の所定のバッファ24−3に出力する。なお、人物画像データが検出されない場合には、人物動作コードとして動作なしを表わす特別なIDコードを出力する。
【0040】
音声情報入力部16は、マイクロフォンなどにより音声を入力して音声データとして出力する。
人物音声検出部17は、人物動作認識部15と音声情報入力部16の出力を監視し、音声情報入力部16の音声データが大きなパワーを有し、かつ、人物動作認識部15が人物の発話動作(口が開閉しているなど)を検出した場合に、該音声データを人物音声データとして検出出力する。
【0041】
発声内容認識部18は、該人物音声データを、予め記憶されている、単語音声別のテンプレートと照合して該音声中の単語を特定し、この単語を表わす発話内容コード(既知のテンプレートに該当しない単語の場合は、未知単語を表わす特別なIDコード)を外部状況情報出力部23の所定のバッファ24−4に出力する。
【0042】
語気認識部19は、上記の人物音声データをスペクトル解析して得た音声パラメータを、予め記憶されている、語気別のテンプレートと照合して語気の種別(例えば、優しい、怒鳴っているなど)を特定し、この種別を表わす語気コード(既知のテンプレートに該当しない語気の場合は、未知語気を表わす特別なIDコード)を外部状況情報出力部23の所定のバッファ24−5に出力する。
【0043】
変化速度検出部20は、上記の画像データの時間差分の最大絶対値と上記の音声データの時間差分の最大絶対値の合計値を計算し、状況変化速度として外部状況情報出力部23の所定のバッファ24−6に出力する。
【0044】
明るさ検出部21は、上記の画像データの画像全体の明るさを計算して、外部状況情報出力部23の所定のバッファ24−7に出力する。なお、明るさは、照度計などのセンサにより得るようにしてもよい。
【0045】
その他情報入力部22は、温度センサやスイッチ類などの他の入力手段による入力データから温度やその他の情報を抽出し、その他情報として外部状況情報出力部23の所定のバッファ24−8に出力する。
【0046】
外部状況情報出力部23は、以上の人物識別部13〜明るさ検出部21の各ブロックにより生成された各種情報を保持するバッファ(24−1〜24−8)の集合からなり、必要に応じて各バッファの値を一括して外部状況情報として出力する。一般に、外部状況情報は、人物の有無、人物の別、人物の動作、人物の発話内容、人物の発話語気、状況の急な変化、人物以外の例えば部屋の明るさや温度などから構成されるマルチトラック情報であり、画像処理や音声処理に要する時間がトラック毎に異なる。したがって、バッファ(24−1〜24−8)への各トラックの情報更新は非同期的に行われるが、バッファ(24−1〜24−8)の先では、常に次の更新前の最新の情報を読み出すことができる。
【0047】
なお、以上で使用する各種テンプレートは、予め多数の実サンプルを収集し、これを統計的に解析(例えば、主成分分析など)するなどして生成する。
また、外部状況認識部1の生成する外部状況情報の種類は以上の例に限定されず、必要に応じて種々選択/拡張可能であり、それに応じて外部状況情報出力部23の持つバッファの数と種類も種々選択/拡張可能である。
【0048】
また、人物音声検出部17に、人物識別部13から出力される人物IDコードを与え、人物音声検出部17では人物IDコードに応じた特定話者音声検出処理を行うようにしてもよい。同様に、発話内容認識部18に人物IDコードを与え、発話内容認識部18では人物IDコードに応じた特定話者発話内容認識処理を行うようにしてもよい。同様に、語気認識部19に人物IDコードを与え、語気認識部19では人物IDコードに応じた特定話者語気認識処理を行うようにしてもよい。このようにすることで、話者が既知の場合には、各認識処理の精度や速度を向上させることができる。
【0049】
次に、状況記述部2について説明する。
状況記述部2は、外部状況認識部1にて生成された外部状況情報(人物IDコード、人物表情コード、発話内容コード、明るさなど)を定期的に読み出して、読み出し時刻とともに所定期間分の最新の外部状況情報を状況情報列として保持する。また、状況記述部2は、保持する状況情報列が必要とされる他のブロック(反応感情生成部3、感情的記憶生成部4、想起感情生成部6)に対して、該ブロックからの期間指定情報に応じた期間の状況情報列を出力することができる。
【0050】
図3に、状況記述部2の構成例を示す。この状況記述部2は、外部状況情報取得部31、状況情報蓄積部32、状況情報列出力部33を含む。
外部状況情報取得部31は、外部状況認識部1の外部状況情報出力部23の各バッファ(24−1〜24−8)に保持される外部状況情報を定期的に一括して読み出し、これに該取得時点の時刻を付加して出力する。
【0051】
状況情報蓄積部32は、内蔵するリングバッファ34の最も古い記憶を削除して、そこに新たに取得された外部状況情報および取得時刻の最新値を書き込む。このようにすることで、状況情報蓄積部32は、最新一定期間分(図3の例ではT−0からT−11まで)の状況情報の列とその取得時刻とを保持することが可能になる(T−0を最新時刻としている)。
【0052】
状況情報列出力部33は、外部から入力される期間指定情報の定める期間分だけの状況情報と取得時刻とをリングバッファ34から読み出し、列バッファ35に状況情報列として編集出力する。
【0053】
状況情報列を利用する他のブロックが状況情報列を読み出す際に期間指定情報を与えられるようにすることで、状況情報列を読み出すブロックがどの期間に注目して処理を行うかを調整可変とすることができる。これを処理の時間感度と呼ぶことにする。一般に、状況に迅速に応じる必要のあるブロックでは指定期間は現在に近く、やや過去に遡った状況を利用するブロックでは指定期間は過去にシフトしている。
【0054】
なお、上記では、一定期間分の外部状況情報および取得時刻の保持にリングバッファを用いたが、その代わりにFIFOバッファを用いてもよい。この場合、FIFOバッファを外部状況情報の各トラック毎に設け、最新の外部状況情報を取得したならば、各FIFOバッファの先頭のデータを破棄し、最新の外部状況情報を各FIFOバッファの最後尾にそれぞれ投入する。
【0055】
次に、反応感情生成部3について説明する。
反応感情生成部3は、状況記述部2による指定期間分の状況情報列に直接反応して変化する装置独自の感情(反応感情情報)を生成出力する。反応感情情報の強さは別に与える感受性制御情報の大きさに応じて制御可能である。この感受性制御情報は装置が状況に対してどれくらい感情的に反応しやすいかを決定する制御パラメータであり、制御情報生成部9により与えられる。なお、反応感情生成部3は、状況の変化に迅速に応答するために、時間感度として例えば図3のT−0からT−4までの期間のような最新の比較的短期間を指定する期間指定情報を状況記述部2に対して出力する。
【0056】
図4に、反応感情生成部3の一構成例を示す。この反応感情生成部3は、反応感情用状況情報列取得部41、状況感情変換部42、反応感情スケール変換部43を含む。
【0057】
反応感情用状況情報列取得部41は、期間指定情報に対応する状況情報列を状況記述部2より読み出す。読み出された状況情報列には、各時刻における人物IDコード(例えば、Aさんを示す人物番号、など)や発話内容コード(例えば、「おはよう」を示す単語番号、など)や人物動作コード(例えば、手招きを示す動作番号、など)等のコード量と、明るさや状況変化速度等の数値量とが含まれる。
【0058】
状況感情変換部42は、入力層44と中間層45と出力層46の3層からなる階層型ニューラルネットワークを用いて構成され、各層(44、45、46)はそれぞれ所定数のユニット(47)により形成されている。入力層44の全てのユニットからはそれぞれ中間層45の全てのユニットに荷重結合(48)が張られ、該当ユニットの出力値に荷重をかけた値が結合先のユニットに入力される。同様に中間層45の全てのユニットからもそれぞれ出力層46の全てのユニットに荷重結合が張られ、入力層44のユニットの出力値は各々の経路にしたがった荷重をかけられて出力層46に伝播される。
【0059】
入力層44には外部状況情報のトラックに対応したユニット群があり、各ユニット群には必要な数のユニットが用意されている。
例えば、人物IDに対応するユニット群の場合、装置が「Aさん」、「Bさん」、「Cさん」の3人の人物を見分けられる(すなわち、この3人の顔テンプレートが登録されている)とするならば、当該ユニット群に必要なユニットの数は、「Aさん」「Bさん」「Cさん」「未知人物」「誰もいない」の5つのコードに対応した5個に、指定期間数(状況情報列の列の長さ;例えば図3のT−0からT−4までの期間を指定する場合には5)を乗じて得た個数となる。
【0060】
もし、状況情報列の「ある時刻」に人物IDとして「Aさん」があれば、『対応する時刻のAさんのユニット』を活性化(1.0などの所定値を代入)させる。逆に、該当するコードのないユニットについては、これを非活性化(0.0を代入)させる。
【0061】
また、明るさなどの数値量に対応するユニット群に必要なユニットの数は、該数値を入れる1個に、指定期間数(状況情報列の列の長さ)を乗じて得た個数となる。
【0062】
このように、状況情報列は、時刻とトラックと、場合によってはコードに応じた入力層44の所定のユニットに代入される。代入された値はそのままユニットの出力値となる。
【0063】
入力層44の各ユニットの値は荷重結合を経て中間層45のユニットに入力される。中間層45のユニットでは入力層44の全てのユニットから入力された値の総和を求め、この値に対応したシグモイド関数の値を出力する。中間層45の各ユニットの出力値はさらに荷重結合を経て出力層46のユニットに入力される。そして、出力層46のユニットでも中間層45の全てのユニットから入力された値の総和を求め、この値に対応したシグモイド関数の値を出力する。
【0064】
出力層46の各ユニットは、本実施形態では、それぞれ、「幸福」、「怒り」、「悲しみ」、「嫌悪」、「驚き」、「恐れ」の6つの感情パラメータに対応するものとしている。そのため、状況感情変換部42の階層型ニューラルネットワークは、状況情報列を入力とし、6つの感情パラメータの強度を出力とするパタン変換器として機能する。
【0065】
もちろん、感情パラメータのバリエーションはこの例に限定されるものではないが、以下、この6種類の感情パラメータを例に説明を続ける。
ニュートラルネットワークにこのようなパタン変換能力を与えるために、所定の入出力関係を満たすサンプルデータをニューラルネットワークに与え、バックプロパゲーションアルゴリズムなどによりオフラインで学習させる。例えば、装置周囲が暗かったり(明るさを参照)、見知らぬ人物が検出された(人物IDコードを参照)ならば、恐れパラメータに所定強度を与えたり、あるいは大きな音声が入力されたり(状況変化速度を参照)、怒鳴られたり(発話内容コードも加味)したならば、驚きパラメータに所定強度を与えたり、あるいは見知った人物がいたり(人物IDコードを参照)、優しく声を掛けられた(語気コードを参照)ならば、幸福パラメータに所定強度を与えたり、あるいはまた発話内容コードによって怒りや悲しみや嫌悪のパラメータにも所定強度を与えたりした入出力サンプルデータを与える。
【0066】
反応感情スケール変換部43は、出力層46のユニットに現われる感情パラメータを感受性制御情報の定めるゲイン(感情パラメータ毎に設定可能)をかけて出力する。この結果、ニューラルネットワークの学習後であっても、最終的に出力される反応感情情報の大きさとパラメータ間のバランスが制御可能になる。
【0067】
この感受性制御情報は、同じニューラルネットワークを持ちかつ同じ状況情報列を与えられた各々の装置(各々の個別のインタフェースエージェント等)に、互いに異なる強さとバランスの反応感情を生成させる制御パラメータである、と考えることができる。そして、ゲインを調整することにより、所望の個性を演出することが可能になる。例えば、ゲインの絶対値を大きく設定すればより感動し易いエージェントを、小さく設定すればより冷めたエージェントをそれぞれ演出できる。また、悲しみや恐れのバランスを大きくすれば、めそめそしたり、おどおどしたエージェントを、幸福のバランスを大きくすればニコニコしたエージェントをそれぞれ演出できる。
【0068】
ところで、従来技術に係るニューロベビーも、ニューラルネットワークを用いて状況に関する情報の系列から感情情報を誘導するような構成を持つが、得られた感情情報に任意のスケール変換をかけられないため、ニューロベビーの個性を個別に演出させるためには、ニューラルネットワークの入出力関係を該個性に適うように再学習させる必要があり、そのための学習データを別途用意する手間がかかる。また、従来技術に係るニューロベビーでは、この学習作業を装置(ニューロベビー)の運用以前に予め済ませておく必要があり、本実施形態のように運用中に感受性制御情報を変更するだけで直ちに個性を変更させられるような柔軟性を持たない。
【0069】
以上、状況感情変換部にニューラルネットワークを用いた反応感情生成部3の一構成例を示したが、以下では、状況感情変換部にif−thenルールを用いた反応感情生成部3の他の構成例について説明する。
【0070】
図5に、反応感情生成部3の他の構成例を示す。この反応感情生成部3は、反応感情用状況情報列取得部111、状況感情変換部112、反応感情スケール変換部113を含む。
【0071】
反応感情用状況情報列取得部111、反応感情スケール変換部113はそれぞれ前述の反応感情用状況情報取得部41、反応感情スケール部43と同じである。
【0072】
状況感情変換部112は、前述の状況感情変換部42と同じ機能を果たすものであるが、内部構成が相違する。
ここでは、この状況感情変換部112を中心に説明する。
【0073】
図5に示されるように、状況感情変換部112は、変換規則格納部114、規則照合部115、反応感情合成部116を含む。
変換規則格納部114は、状況に基づいて感情パラメータをどのように決定すべきかを定めた変換規則を格納する。
【0074】
変換規則の例としては以下のようなものがある。これらは怒鳴られた場合と周囲が暗い場合の規則の例であり、各規則は条件部と述部とを持つif−thenルールの形式で記述される。
規則照合部115は、変換規則格納部114に格納される変換規則の各々を、入力される状況情報列により与えられる所定期間の状況と照合して、その一致の度合を計算するとともに、当該規則が定める感情パラメータ値に該一致度をかけた感情パラメータ値を出力する。一致度の計算は、各規則の条件部が成立する累計期間長を求め、状況情報列の期間長に対するこの累計期間長の割合として求められる。このようにすることで、条件部に示される条件が所定期間の状況情報列に現れ始めてから消え去るまでの間、その現れている期間に応じた強さの感情パラメータ値が出力される。
【0075】
反応感情合成部116は、規則照合部115が出力する一致度に応じた感情パラメータ値を、上記の変換規則格納部114が擁する全ての変換規則について加え合わせた結果を、入力された状況情報列に対応した反応感情情報として出力する。
【0076】
なお、図4や図5の反応感情生成部3は、怒鳴られれば恐れ驚くというように、装置の運用以前から知られている一般的な条件(例えば、怒鳴られた)から反応的に発生する感情を誘導する(例えば、怒鳴られた場合は恐れ驚くという事実)機能を担うものである。したがって、誰が怒鳴ったとか、いつ怒鳴ったなどという、怒鳴られたという条件に付帯する運用以降に判明する詳細な他の条件については関知しない。
【0077】
一方、後述する感情的記憶生成部4と感情的記憶記述部5と想起感情生成部6による感情想起の仕組みは、過去に怒鳴られた状況に付帯する、「誰が」とか「いつ」などの詳細な条件を記憶から思い出し、状況情報列中にそのような付帯条件(いつぞや怒鳴ったあの人がいるなど)が現れると、怒鳴られていなくても恐れの感情(驚きの感情は刹那的なものなので、想起の対象からはずしている)を発生させるのである。この仕組みは、将来似たような状況に遭遇した装置(インタフェースエージェント)が、過去の経験に基づいてより強く迅速な感情的反応を示すために必要なだけでなく、たった今怒鳴られたばかりの状況にあっても、従来とは異なった効果を奏することになる。すなわち、反応感情生成部3が対象とする状況情報列から「怒鳴られた」という条件が消え去っても、該怒鳴った人物が目前にいれば想起感情生成部6が恐れの感情を維持してくれる。このような反応は従来技術に係るニューロベビーでは達成されておらず、該従来技術では、怒鳴られたという条件が消え去るとともに、直ちに恐れの感情も消え去ってしまい、妙に立ち直りの早いエージェントが演出されてしまうことになる(これによって天真爛漫なベビーを演出することができたとしても、その他の個性を演出することはできない)。
【0078】
次に、感情的記憶生成部4について説明する。
感情的記憶生成部4は、反応感情生成部3による反応感情情報と状況記述部2による指定期間内の状況情報列とを対応付けた状況感情対情報を生成して、これを記憶する感情的記憶記述部5に受け渡す。ただし、感情的記憶生成部4はそのときの反応感情パラメータの少なくとも1つが十分な強度を持つ場合にのみ状況感情対情報を生成する。これは、強い感情を覚えた状況だけを記憶し、それ以外の些末な状況を記憶しないためである。
【0079】
図6に、感情的記憶生成部4の構成例を示す。この感情的記憶生成部4は、感情強度評価部51、状況感情対情報生成部52を含む。
感情強度評価部51は、反応感情記述部3から反応感情情報を読み出し、その擁する感情パラメータのいずれかが、制御情報生成部9による記銘制御閾値情報の指定する強度以上の値を持つか否かを評価する。もし、十分な強度を持つパラメータが検出されれば、当該反応感情情報は状況とともに記憶されるべきと判断して、検出情報をオンにし、次段の状況感情対情報生成部52に検出情報を送出する。
【0080】
状況感情対情報生成部52は、記憶すべき反応感情情報が検出された場合(検出情報がオンの場合)に、感情強度評価部51から当該反応感情情報を取得するとともに、期間指定情報を状況記述部2に送出して指定期間分の状況情報列を読み出し、取得した当該反応感情情報と当該状況情報列とを組み合わせた状況感情対情報として、複合バッファ53の状況情報列用バッファ54と反応感情情報用バッファ55に格納出力する。なお、状況感情対情報生成部52は、反応感情の変化が起こる以前の比較的長い状況情報列が得られるように、時間感度として例えば図3のT−1からT−8までの期間のような、現在時刻よりもやや過去に遡ってからの比較的長期間を指定する期間指定情報を状況記述部2に対して出力する。
【0081】
次に、感情的記憶記述部5について説明する。
感情的記憶記述部5は、感情的記憶生成部4による(強い)状況感情対情報を、状況記述部2が保持できるよりも長期間保持する。
【0082】
図7に、感情的記憶記述部5の一構成例を示す。この感情的記憶記述部5は、状況感情対記憶部61、状況感情対更新部62、状況感情対検索部63を含む。
状況感情対記憶部61は、図4に例示した状況感情変換部42と同様の構造を持つ階層型ニューラルネットワークを用いて構成され、ここでの階層型ニューラルネットワークは、状況感情対情報中の状況情報列に対応する入力層64と、状況感情対情報中の感情情報に対応する出力層66と、中間層65の3層により形成され、隣接する階層間の各ユニット(67)同士が荷重結合(68)で結ばれている。
【0083】
図4の状況感情変換部42における入力層(44)や出力層(46)と同様に、図7の状況感情対記憶部61における入力層64のユニットは、状況情報列の時刻、トラック、コード別に用意されており、出力層66のユニットは、装置が感じる感情パラメータ(本例では、6つの感情パラメータ)に対応して用意されている。各荷重結合の初期値は、いかなる入力に対しても出力を出さないように0に設定されている。
【0084】
状況感情対更新部62は、感情的記憶生成部4による状況感情対情報を受け取ると、これを記銘用状況情報列と記銘用感情情報とに分解し、記銘用状況情報列に対応する入力層64のユニットと記銘用感情情報に対応する出力層66のユニットを活性化/非活性化させたり、数値を代入したりする。この結果入出力層66に与えられる活性値のパタンは、装置が実際に抱いた強い反応感情とその原因となった(比較的長期の)状況を示していることになる。本感情的記憶記述部5は、この活性値パタンをサンプルデータとして、ニューラルネットワークが与えられた入出力関係を満たす方向に結合荷重を調整する。この調整の大きさは別に与えられる学習強度制御情報に比例しており、この値が大きければ学習は進み、小さければあまり進まない。そのため、学習強度制御情報は学習の強さを与えるパラメータであると言える。この調整の結果、ニューラルネットワークは以後、記銘用状況情報列に似た状況に対して、記銘用感情情報に似た反応感情を出力するようになる。
【0085】
状況感情対検索部63は、外部から与えられる想起用状況情報列を状況感情対記憶部61の入力層64に与え、その結果出力層66に現われる感情パラメータ値を想起感情情報として外部に出力する(状況感情対検索部63は、いわば記憶検索機構として機能する)。
【0086】
以上、状況感情対記憶部にニューラルネットワークを用いた感情的記憶記述部5の一構成例を示したが、以下では、状況感情対記憶部にパターン・マッチング的手法を用いた感情的記憶記述部5の他の構成例について説明する。
【0087】
図8に、感情的記憶記述部5の他の構成例を示す。この感情的記憶記述部5は、状況感情対記憶部121、状況感情対更新部122、状況感情対検索部123を含む。
【0088】
状況感情対更新部122、状況感情対検索部123はそれぞれ前述の状況感情対更新部62、状況感情対検索部63と同じである。
状況感情対記憶部121は、前述の状況感情対記憶部61と同じ機能を果たすものであるが、内部構成が相違する。
【0089】
ここでは、この状況感情対記憶部121を中心に説明する。
図8に示されるように、状況感情対記述部121は、状況感情対バッファ部124、バッファ更新部125、状況情報列照合部126、想起感情合成部127を含む。
【0090】
状況感情対バッファ部124は、状況情報列とそのときの感情情報とを組にして記憶する複合バッファ(128)を所定数擁している記憶手段である。なお、各複合バッファは、図6の状況感情対情報生成部52におけるものと同様、それぞれ状況情報列用バッファ129と感情情報用バッファ130から構成される。
【0091】
バッファ更新部125は、状況感情対更新部122からの記銘用状況情報列と、記銘用感情情報とを組にして、状況感情対バッファ部124の空いている複合バッファに書き込む。このとき、空いている複合バッファがなければ、最も古い時刻の情報を保持する複合バッファの内容を棄却してこれに新しい情報を上書き更新する。また、バッファ更新部125は、記銘用感情情報の各感情パラメータ値をそのまま書き込むのではなく、学習強度制御情報の示すゲインでスケール変換した感情パラメータ値を書き込む。この結果、全ての状況感情対情報は一旦記憶されるものの、記憶される感情パラメータ値は学習強度制御情報によってその大きさとバランスが調整可能になる。
【0092】
状況情報列照合部126は、状況感情対検索部123からの想起用状況情報列を受け、この状況情報列と各複合バッファ128に記憶される状況情報とを照合して、その一致の度合を計算するとともに、当該複合バッファに記憶される感情パラメータ値に該一致度をかけた感情パラメータ値を出力する。一致度の計算は、まず想起用状況情報列の各時刻の各トラック値と、記憶される状況情報列の各時刻の対応するトラック値の差分(コード量なら一致する場合に0/不一致の場合に1、数値量なら値の差の絶対値を正規化した値)を求める。数値量に対する正規化は差の絶対値が0から1の間に収まるようなスケール変換である。この結果、全てのトラックについて、その差分は0から1の間に収まるようになる。このような差分値を想起用状況情報列と記憶される状況情報列の全時刻と全トラックについて合計してさらに正規化する。この正規化は、該差分の合計値を、想起用状況情報列の期間長×記憶される状況情報列の期間長×トラック数、で割ることで行われる。この結果、差分の合計値は0から1の間の数値となる。一致度は、この正規化された差分の合計値を1から差し引いて得た値すると、最も一致した場合に1、全く一致しない場合に0となる。
【0093】
最後に想起感情合成部127は、状況情報列用照合部126が出力する感情パラメータ値を上記の状況感情対バッファ部124が擁する全ての複合バッファについて加え合わせた結果を、状況情報列に対応した想起感情情報として出力する。
【0094】
なお、反応感情生成部3が感情を発生させる短期的な状況に反応するのに対して、図7や図8の感情的記憶記述部5では、感情的記憶生成部4が比較的長い時間感度に基づく状況感情対情報を生成することから、強い感情が起こる前の比較的長期間の状況を学習する。
【0095】
次に、想起感情生成部6について説明する。
想起感情生成部6は、状況記述部2から指定期間内の状況情報列を読み出し、該状況情報列に対応する感情情報を感情的記憶記述部5から検索して想起感情情報として出力する。
【0096】
図9に、想起感情生成部6の構成例を示す。この想起感情生成部6は、想起用状況情報列取得部71、想起感情スケール変換部72を含む。
想起感情用状況情報列取得部71は、状況記述部2に期間指定情報を送出して指定期間分の状況情報列を読み出し、さらに、感情的記憶記述部5の状況感情対検索部63にこれを送り出す。
【0097】
状況感情対検索部63では、受け取った状況情報列を想起用状況情報列として状況感情対記憶部61の入力層64に入力し、これに呼応して出力層66に現われる記憶された感情パラメータ値を送り返す。
【0098】
想起感情スケール変換部72は、状況感情対検索部63により返される感情パラメータ値を受け取り、想起強度制御情報の定めるゲイン(感情パラメータ毎に設定可能)をかけ、想起感情として出力する。
【0099】
この結果、出力される想起感情情報の大きさとパラメータ間のバランスが制御可能になり、どのような感情を強く思い出すか、あるいはどのような感情をあまり思い出さないかという、エージェントの想起上の性格が演出可能になる。
【0100】
なお、このとき、驚きのような反応感情生成部3のみで生成されるべき刹那的な感情を想起しないように、驚きに対する想起強度制御情報のゲインを低く設定しておくのが好ましい。
【0101】
ところで、従来技術に係るニューロベビーでは、例えば怒鳴られて怖かったというように、状況が確定した場合に対応する感情を生成する。これは大声で怒鳴られれば怖いという自然かつ生得的な反応を実現するが、誰がよく怒鳴る人なのかを予め教えておくことはできない。人が皆怒鳴ってくるのであれば、そのことを予め学習させても良いが、実際には怒鳴る人は一部である。したがって、従来技術に係るニューロベビーでは誰に怒鳴られたのかあるいは誰がよく怒鳴る人なのかなどといった情報を扱うことも、そのような情報にニューロベビーを反応させることもできない。
【0102】
これに対して、本実施形態における感情的記憶生成部4と感情的記憶記述部5による記憶の仕組みでは、実際にAさんに怒鳴られて驚いたり恐ろしかった経験から、怒鳴られたときの状況として「Aさんが居た」という付帯条件を学習する。さらに、想起感情生成部6は、過去に怒鳴られた状況の付帯条件であるAさんを検出するだけで、怒鳴られそうな状況を察知するかのごとく恐れの感情を思い出すのである。これは、Aさんに対する好悪感情を学習したものと看做せる。また、例えば、周囲が暗くなり、雷の大音響が鳴り響いて恐ろしかったという場合も考えられるが、このような場合には、周囲の暗さという人物以外の付帯条件に対する好悪感情を学習することも可能である。
【0103】
繰り返しになるが、反応感情生成部3は、装置に予め与えておくことができるよくわかった感情的反応を生成するための機構であるのに対して、感情的記憶生成部4と感情的記憶記述部5と想起感情生成部6からなる記憶と想起の仕組みは、反応感情生成部3による生得的な感情的反応を拠り所にしつつ、その感情的反応が生まれた状況に対応するさらに細かい条件を学習して、将来これに反応するための機構である。
【0104】
なお、反応感情生成部3が注目する状況情報列の期間(時間感度)は現在から遡る短期間(例えば図3のT−0からT−4まで)であり、感情的記憶生成部4が注目する状況情報列の期間は現在よりやや遡った比較的長期間の過去(例えば図3のT−1からT−8まで)であることは既に述べた通りである。想起感情生成部6の目的は実際に状況が確定する前に付帯条件を評価し、来たるべき状況を予見した感情状態を装置に作ることである。したがって、想起感情生成部6が注目する状況情報列の期間は、感情的記憶生成部4の期間よりもさらに過去に遡った同じ長さの期間(例えば図3のT−4からT−11まで)とするのが妥当である。
【0105】
次に、自己感情記述部7について説明する。
自己感情記述部7は、反応感情生成部3による反応感情情報と、想起感情生成部6による想起感情情報とを合成して得られる感情情報を現在の自己感情情報として保持する。
【0106】
図10に、自己感情記述部8の構成例を示す。この自己感情記述部8は、自己感情合成部81、自己感情保持部82を含む。
自己感情合成部81は、反応感情生成部3による反応感情情報と、想起感情生成部6による想起感情情報とを入力し、両者を合成して自己感情情報として出力する。合成は、例えば、同じ感情パラメータ毎にその値を加え合わせて自己感情情報の感情パラメータ値とすることで行われる。
【0107】
自己感情保持部82は、自己感情合成部81により求められた自己感情情報のパラメータ値を対応する内蔵のバッファ(83−1〜83−6)に格納保持する。
【0108】
次に、感情表現部8について説明する。
感情表現部8は、自己感情記述部7に記述される現在の自己感情情報にしたがって、インタフェースエージェントの感情表現を画像や音声等により出力する。
【0109】
図11に、感情表現部8の構成例を示す。この感情表現部8は、反応生成部91、行動生成部92、エージェント合成部93を含む。
反応生成部91は、自己感情情報(心理反応源)と外部状況情報(生理反応源)に応じたエージェントの表情反応、身体反応などを表わす反応情報を生成する。表情反応や身体反応とは、例えば、嬉しいときに笑顔になったり、暑いときに発汗したり、恐ろしいときに青ざめた表情になったりする、自己感情や外部状況に応じて非意図的に起こる反応のことである。生成される反応情報は、例えば、笑顔70%、発汗20%、青顔色40%などのように、後段のエージェント合成部93が制御可能なパラメータのコードとその強度等で表現される。
【0110】
行動生成部92は、自己感情情報(心理的動機)と外部状況情報(行動制約条件)に応じたエージェントの行動を表わす行動情報を生成する。ここで言う行動とは、例えば、嫌な相手に愛想笑い(幸福感から笑うのとは別物)をしたり、好きな相手に近づいたりする、自己感情や、外部状況に応じて意図的に起こされる行動のことである。生成される行動情報は、反応情報と同様、距離2m、笑顔20%などのように、後段のエージェント合成部93が制御可能なパラメータのコードとその強度等で表現される。
【0111】
反応は心理反応源と生理反応源とにより自動的に発生するが、行動は意図的に為されるものであるから必ず動機が必要である。感情パラメータは、概ね、快(幸福)、不快(悲しみ、嫌悪、驚き、恐れ)、不定(怒り)に大別される。このうち、不快に分類される自己感情が強い場合には、装置はその状況を回避する行動を起こす。また、快に分類される自己感情が強い場合には、装置はその状況を維持する行動を起こす。したがって、自己感情は行動のための心理的動機であると言える。
【0112】
行動生成部92は予め幾つかの行動パタンを与えられている。各行動パタンには、適用可能な感情状態および外部状況と、試行する優先順位とが、行動適用規則として与えられている。動機が発生すると、行動生成部92は該行動適用規則を用いて行動パタンを1つ選択する。選択された行動パタンには当該行動パタンを実現するのに必要な行動情報が付加されているので、行動生成部92は該行動情報をエージェント合成部93に出力すれば良い。行動を行って所定期間経過しても状況が改善されない場合には、行動生成部92は次の順位を与えられている適用可能な行動パタンを試す。
【0113】
エージェント合成部93は、以上のようにして前段から与えられる反応情報と行動情報を受け、これらに応じたエージェントの形状、色彩、ポーズ、動作軌道、声の調子などを計算し、エージェントの姿(映像あるいはロボットの身体)と声を実現する。
【0114】
なお、制御情報生成部9により外部から与えられる感情表出制御情報は、反応生成部91と行動生成部92の両方に働きかけ、反応や行動の現われる大きさ、すなわち、エージェント合成部93が制御可能なパラメータのゲインを調節する。この結果、同じ条件であっても、感情表出制御情報を様々に調整することで、例えば、顔には出ないが行動に出るとか、顔にすぐ出るがなかなか行動しないというような、エージェントの性格を演出することが可能となる。
【0115】
次に、制御情報生成部9について説明する。
制御情報生成部9は、感受性制御情報を反応感情生成部3に、記銘制御閾値情報を感情的記憶生成部4に、学習強度制御情報を感情的記憶記述部5に、想起強度制御情報を想起感情生成部6に、感情表出制御情報を感情表現部8に各々供給する。これらの情報は、インタフェースエージェントの感情面での個性や性格を決定するパラメータである。すなわち、このパラメータを調整することにより、インタフェースエージェントに付与する感情面での個性や性格を設定・変更することができる。
【0116】
次に、本感情生成装置の処理手順について説明する。
図12に、本感情生成装置の処理手順の一例を示す。図12の手順例では、外部状況認識処理S1と、状況情報列更新処理S2と、反応感情更新処理S3と、感情的記憶更新処理S4と、想起感情更新処理S5と、自己感情更新処理S6と、感情表現処理S7が実行される。
【0117】
外部状況認識処理S1は、外部状況認識部1における処理に対応しており、画像、音声、その他の観測データ等に基づいて外部状況情報を生成する処理である。
【0118】
状況情報列更新処理S2は、状況記述部2における処理に対応しており、外部状況認識処理S1の処理結果である最新の外部状況情報を受け、状況情報列から最も古い時刻の外部状況情報を破棄して、最新の外部状況情報に置き換える処理である。
【0119】
反応感情更新処理S3は、反応感情生成部3における処理に対応しており、状況情報列更新処理S2による最新の状況情報列から所定の期間の状況情報列を取り出し、これに対する最新の反応感情情報を生成する処理である。
【0120】
感情的記憶更新処理S4は、感情的記憶生成部4と感情的記憶記述部5における処理に対応しており、新しく生成された反応感情情報を記憶すべきか否かを、該感情の強さによって決定し、記憶すべき十分な強さを有するときには、これを所定期間の状況情報列とともに記憶する処理である。
【0121】
想起感情更新処理S5は、想起感情生成部6における処理に対応しており、状況情報列更新処理S2において更新された所定期間の状況情報列に類似した過去の状況情報列に対する最新の想起感情情報を想起する処理である。
【0122】
自己感情更新処理S6は、自己感情記述部7における処理に対応しており、最新の反応感情情報と最新の想起感情情報とを合成した最新の自己感情情報を生成する処理である。
【0123】
感情表現処理S7は、感情表現部8における処理に対応しており、最新の自己感情情報に応じて反応と行動を表現する画像や音声などの信号を出力する処理である。
【0124】
さて、従来技術に係るニューロベビーは、所定の期間内(可変期間ではなく最新の固定期間)の状況に関する情報の系列(20m秒の間隔をあけてとられる10m秒間のユーザ音声の最大振幅とゼロ交差回数を10周期分採取した計20個のパラメータ;語気に関する情報)を抽出し、これを入力層20、中間層24、出力層2の階層型ニューラルネットワークに入力して2個の感情に関するパラメータを求め、このパラメータに基づいてニューロベビーの映像と音声を制御している。
【0125】
一方、本実施形態では、現在の外界からの刺激に対する直接的な感情的反応を実現するだけでなく、過去に経験した状況/感情についての記憶との関連で想起される感情的反応をも実現することを可能としている。すなわち、感情的記憶生成部4と感情的記憶記述部5と想起感情生成部6とにより、状況記述部2の保持期間より過去に装置が経験した状況と感情を状況感情対情報として記憶・想起可能にすることで、強い感情を伴う状況が満たしている付帯条件を経験により学習可能としている。特に、状況が満たす付帯条件とそれに伴い想起される感情として、特定の人物や特定の事物もしくは事象への好悪感情を学習できることが、ユーザとの心理的関係構築を重視するインタフェースエージェントに必要な機能、すなわちユーザ毎に異なる感情的応答を示し、この応答をユーザがエージェントと如何に接するかで調整可変であるという性質を実現する。
【0126】
また、本実施形態では、制御情報生成部9により各種制御情報を供給可能とすることで、反応感情情報の強さとバランス、状況感情対情報の選択的記憶ならびに想起、経験による学習の強さ、想起感情情報の強さとバランス、感情表現の強さを制御可能にしている。この結果、インタフェースエージェントの個性として、例えば、感情的に反応しやすいか否か(感受性制御情報による)、懲りるたちか否かもしくは過去の経験が感情の想起に反映され易いか否か(記銘制御閾値情報、学習強度制御情報、想起強度制御情報による)、感情を表に出すたちが否か(感情表現制御情報による)等を調整可変とすることができる。
【0127】
なお、本実施形態に係る感情生成装置および感情生成方法は以上の例に限定されるものではない。
例えば、状況記述部2および状況情報列更新処理S2において生成される状況情報列として、外部状況情報に加えて、自己感情情報や反応情報、行動情報などの装置自身の内部状態(内部状況情報)を記述するようにしても良い。このようにすることで、感情を生成する予測不可能な付帯条件を、外部状況情報の他に内部状況情報をも手がかりにして学習することが可能になる。
【0128】
また、図4または図5の反応感情生成部3の構成と、図7または図8の感情的記憶記述部5の構成は、任意の組み合わせで実施可能である。
なお、以上の各機能は、ソフトウェアとしても実現可能である。
【0129】
また、本実施形態は、コンピュータに所定の手順を実行させるための(あるいはコンピュータを所定の手段として機能させるための、あるいはコンピュータに所定の機能を実現させるための)プログラムを記録したコンピュータ読取り可能な記録媒体として実施することもできる。
【0130】
例えば、図13に例示するように、本発明に係る感情生成装置および感情生成方法を実現する情報(例えばプログラム)を記録媒体104に記録し、該記録した情報を該記録媒体104を経由して装置101や装置103に適用したり、通信回線105や106を経由して、装置102や103に適用することも可能である。
本発明は、上述した実施の形態に限定されるものではなく、その技術的範囲において種々変形して実施することができる。
【0131】
【発明の効果】
本発明によれば、過去に経験した感情とそのときの状況から該状況に特有な予測不可能の付帯条件を学習し、学習した付帯条件を満たす新しい状況の入力に対しては該付帯条件に一致する記憶された感情を想起することにより、実際にその状況に至らずとも、付帯条件の検出のみで感情を変化させることを可能にする。この結果、付帯条件としてユーザやユーザの行動を学習して感情的に応答できる、すなわちユーザ毎に感情表現を変え、ユーザの接し方でこれを調整可変なインタフェースエージェントを実現することができる。また、感情の現われ方に関して、インタフェースエージェント毎の性格付けを容易に行うことができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る感情生成装置の基本構成を示す図
【図2】同実施形態に係る感情生成装置の外部状況認識部の構成例を示す図
【図3】同実施形態に係る感情生成装置の状況記述部の構成例を示す図
【図4】同実施形態に係る感情生成装置の反応感情生成部の構成例を示す図
【図5】同実施形態に係る感情生成装置の反応感情生成部の他の構成例を示す図
【図6】同実施形態に係る感情生成装置の感情的記憶生成部の構成例を示す図
【図7】同実施形態に係る感情生成装置の感情的記憶記述部の構成例を示す図
【図8】同実施形態に係る感情生成装置の感情的記憶記述部の他の構成例を示す図
【図9】同実施形態に係る感情生成装置の想起感情生成部の構成例を示す図
【図10】同実施形態に係る感情生成装置の自己感情記述部の構成例を示す図
【図11】同実施形態に係る感情生成装置の感情表現部の構成例を示す図
【図12】同実施形態に係る感情生成装置における処理手順の一例を示すフローチャート
【図13】本発明を記録媒体等により実施する場合について説明するための図
【符号の説明】
1…外部状況認識部
2…状況記述部
3…反応感情生成部
4…感情的記憶生成部
5…感情的記憶記述部
6…想起感情生成部
7…自己感情記述部
8…感情表現部
9…制御情報生成部
11…画像情報入力部
12…人物画像検出部
13…人物認識部
14…人物表情認識部
15…人物動作認識部
16…音声情報入力部
17…人物音声検出部
18…発声内容認識部
19…語気認識部
20…変化速度検出部
21…明るさ検出部
22…その他情報入力部
23…外部状況情報出力部
31…外部状況情報取得部
32…状況情報蓄積部
33…状況情報列出力部
41…反応感情用状況情報列取得部
42…状況感情変換部
43…反応感情スケール変換部
51…感情強度評価部
52…状況感情対情報生成部
61…状況感情対記憶部
62……状況感情対更新部
63…状況感情対検索部
71…想起感情用状況情報列取得部
72…想起感情スケール変換部
81…自己感情合成部
82…自己感情保持部
91…反応生成部
92…行動生成部
93…エージェント合成部
101〜103…装置
104…記録媒体
105,106…通信回路
111…反応感情用状況情報列取得部
112…状況感情変換部
113…反応感情スケール変換部
114…変換規則格納部
115…規則照合部
116…反応感情合成部
121…状況感情対記憶部
122…状況感情対更新部
123…状況感情対検索部
124…状況感情対バッファ部
125…バッファ更新部
126…状況情報列照合部
127…想起感情合成部
Claims (6)
- 周囲の状況を認識して複数種類の情報から成る状況情報を生成する状況認識手段と、
前記状況情報を現在から過去にさかのぼる所定期間分まとめた状況情報列を生成して保持する状況記述手段と、
前記状況情報列から予め定められた種類の情報を検出すると、該情報に応じた反応感情情報を生成する反応感情生成手段と、
前記反応感情情報の強度が所定閾値以上となった場合に、該反応感情情報と前記状況情報列とを関連付けて状況感情対情報として記憶する感情的記憶記述手段と、
状況情報列の入力に対して、前記記憶された状況感情対情報に関連付けられた前記状況情報列との一致の度合いに応じて、該状況感情対情報に関連付けられた反応感情情報を想起感情情報として想起する想起感情生成手段と、
新たに想起された前記想起感情情報と新たに生成された前記反応感情情報とを合成して自己感情情報を生成する自己感情記述手段と、
前記自己感情情報に応じた信号を生成出力する感情表現手段とを具備し、
前記状況情報が、前記反応感情情報を生成させる前記予め定められた種類の情報とそれ以外の種類の情報とから成るか、または、前記予め定められた種類の情報を複数種類含むことを特徴とする感情生成装置。 - 前記感情表現手段は、予め与えられている行動パタンの中で、前記自己感情情報と前記状況情報に適した行動パタンから、該行動パタンに与えられている優先順位の最も高いもの選択し、該行動パタンに付与される行動情報を信号化して出力する手段を含むことを特徴とする請求項1に記載の感情生成装置。
- 前記感情表現手段は、前記自己感情情報が快に分類されるものである場合に、前記行動パタンの選択と、該行動パタンに付与された行動情報の出力を行い、かつその出力後所定期間経過以内に快に分類されない状態へと自己感情状態が遷移した場合には、当該行動パタンの前記優先順位を下げることを特徴とする請求項2に記載の感情生成装置。
- 前記感情表現手段は、前記自己感情情報が不快に分類されるものである場合に、前記行動パタンの選択と、該行動パタンに付与された行動情報の出力を行い、かつその出力後所定期間経過以内に快に分類される状態へと自己感情状態が遷移しない場合には、当該行動パタンの前記優先順位を下げることを特徴とする請求項2に記載の感情生成装置。
- 前記反応感情生成手段が生成する反応感情情報の強さ、前記感情的記憶記述手段が記憶対象とする反応感情情報の強さの下限、前記想起感情生成手段が生成する想起感情情報の強さ、または前記感情表現手段が出力する信号の強さのうちの少なくとも1つを個性として調整可能とする手段をさらに備えたことを特徴とする請求項1に記載の感情生成装置。
- 周囲の状況を認識して複数種類の情報から成る状況情報を生成するステップと、
前記状況情報を現在から過去にさかのぼる所定期間分まとめた状況情報列を生成し記憶手段に保持するステップと、
前記状況情報列から予め定められた種類の情報を検出すると、該情報に応じた最新の反応感情情報を生成するステップと、
前記反応感情情報の強度が所定閾値以上となった場合に、該反応感情情報と前記状況情報列とを関連付けて状況感情対情報として学習し、この学習結果を記憶手段に保持するステップと、
状況情報列の入力に対して、前記学習された状況感情対情報に関連付けられた前記状況情報列との一致の度合いに応じて、該状況感情対情報に関連付けられた反応感情情報を想起した想起感情情報を生成するステップと、
新たに生成された前記想起感情情報と新たに生成された前記反応感情情報とを合成して自己感情情報を生成するステップと、
前記自己感情情報に応じた信号を生成出力するステップとを有し、
前記状況情報が、前記反応感情情報を生成させる前記予め定められた種類の情報とそれ以外の種類の情報とから成るか、または、前記予め定められた種類の情報を複数種類含むことを特徴とする感情生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06731098A JP3792882B2 (ja) | 1998-03-17 | 1998-03-17 | 感情生成装置及び感情生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06731098A JP3792882B2 (ja) | 1998-03-17 | 1998-03-17 | 感情生成装置及び感情生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11265239A JPH11265239A (ja) | 1999-09-28 |
JP3792882B2 true JP3792882B2 (ja) | 2006-07-05 |
Family
ID=13341326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06731098A Expired - Fee Related JP3792882B2 (ja) | 1998-03-17 | 1998-03-17 | 感情生成装置及び感情生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3792882B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3501729B2 (ja) * | 2000-06-05 | 2004-03-02 | 株式会社タイトー | ブラウジングアシスト装置、プログラムが記録された記録媒体 |
TWI221574B (en) | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
JP3988121B2 (ja) * | 2002-03-15 | 2007-10-10 | ソニー株式会社 | 学習装置、記憶方法及びロボット装置 |
JP4204839B2 (ja) | 2002-10-04 | 2009-01-07 | 株式会社エイ・ジー・アイ | 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム |
KR100680191B1 (ko) * | 2003-09-05 | 2007-02-08 | 삼성전자주식회사 | 감정 있는 에이전트를 갖는 사전 행동적 사용자 인터페이스 시스템 |
US8226417B2 (en) | 2004-03-26 | 2012-07-24 | A.G.I. Inc. | Will expression model device, psychological effect program, and will expression simulation method |
EP2063416B1 (en) | 2006-09-13 | 2011-11-16 | Nippon Telegraph And Telephone Corporation | Feeling detection method, feeling detection device, feeling detection program containing the method, and recording medium containing the program |
CA3231419A1 (en) * | 2013-08-02 | 2015-02-05 | Soul Machines Limited | System for neurobehavioural animation |
JP6359478B2 (ja) * | 2015-03-31 | 2018-07-18 | シャープ株式会社 | ロボット |
CN106471572B (zh) * | 2016-07-07 | 2019-09-03 | 深圳狗尾草智能科技有限公司 | 一种同步语音及虚拟动作的方法、系统及机器人 |
CN106463118B (zh) * | 2016-07-07 | 2019-09-03 | 深圳狗尾草智能科技有限公司 | 一种同步语音及虚拟动作的方法、系统及机器人 |
CN110134935B (zh) * | 2018-02-08 | 2023-08-11 | 株式会社理光 | 一种提取字形特征的方法、装置及设备 |
WO2024236779A1 (ja) * | 2023-05-17 | 2024-11-21 | 日本電信電話株式会社 | 行動認識装置、方法およびプログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0774980B2 (ja) * | 1989-12-15 | 1995-08-09 | 富士通株式会社 | ニューロコンピュータを用いた手の姿勢認識方式 |
JPH0612401A (ja) * | 1992-06-26 | 1994-01-21 | Fuji Xerox Co Ltd | 感情模擬装置 |
JP3018865B2 (ja) * | 1993-10-07 | 2000-03-13 | 富士ゼロックス株式会社 | 感情表出装置 |
JPH0981632A (ja) * | 1995-09-13 | 1997-03-28 | Toshiba Corp | 情報公開装置 |
JPH08339446A (ja) * | 1995-06-09 | 1996-12-24 | Sharp Corp | 対話装置 |
JPH09212480A (ja) * | 1996-01-31 | 1997-08-15 | Yamaha Corp | 雰囲気情報生成装置およびカラオケ装置 |
JP3002136B2 (ja) * | 1996-08-06 | 2000-01-24 | 株式会社エイ・ティ・アール知能映像通信研究所 | 感情変換装置 |
-
1998
- 1998-03-17 JP JP06731098A patent/JP3792882B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11265239A (ja) | 1999-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
André et al. | Integrating models of personality and emotions into lifelike characters | |
Paiva | Affective interactions: Toward a new generation of computer interfaces? | |
US6526395B1 (en) | Application of personality models and interaction with synthetic characters in a computing system | |
KR101604593B1 (ko) | 이용자 명령에 기초하여 리프리젠테이션을 수정하기 위한 방법 | |
JP7173031B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP3792882B2 (ja) | 感情生成装置及び感情生成方法 | |
CN107053191A (zh) | 一种机器人,服务器及人机互动方法 | |
KR100813668B1 (ko) | 안드로이드 로봇의 감정표현 방법 | |
JP2018014094A (ja) | 仮想ロボットのインタラクション方法、システム及びロボット | |
US20230173683A1 (en) | Behavior control device, behavior control method, and program | |
KR20040014123A (ko) | 가상인격체의 감정표현과 동작구현 시스템 및 그 방법 | |
KR20160072621A (ko) | 학습과 추론이 가능한 로봇 서비스 시스템 | |
Pelachaud et al. | Multimodal behavior modeling for socially interactive agents | |
Esposito et al. | Modeling emotions in robotic socially believable behaving systems | |
CN111949773A (zh) | 一种阅读设备、服务器以及数据处理的方法 | |
Volpe | Computational models of expressive gesture in multimedia systems. | |
Kopp et al. | The fabric of socially interactive agents: Multimodal interaction architectures | |
He | Robotgpt: From chatgpt to robot intelligence | |
Álvarez et al. | An emotional model for a guide robot | |
CN112182194A (zh) | 电视虚拟形象情绪动作表达方法、系统和可读存储介质 | |
JP7156300B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Varshavskaya | Behavior-based early language development on a humanoid robot | |
Usman et al. | Skeleton-based motion prediction: A survey | |
Nie et al. | A review of affective generation models | |
Cui et al. | Master of puppets: an animation-by-demonstration computer puppetry authoring framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060406 |
|
LAPS | Cancellation because of no payment of annual fees |