JP3018865B2 - 感情表出装置 - Google Patents
感情表出装置Info
- Publication number
- JP3018865B2 JP3018865B2 JP5251462A JP25146293A JP3018865B2 JP 3018865 B2 JP3018865 B2 JP 3018865B2 JP 5251462 A JP5251462 A JP 5251462A JP 25146293 A JP25146293 A JP 25146293A JP 3018865 B2 JP3018865 B2 JP 3018865B2
- Authority
- JP
- Japan
- Prior art keywords
- expression
- emotion
- style
- unit
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
【0001】
【産業上の利用分野】本発明は人工感情を持ち、その感
情状態に従って表情や音声を変化させて出力する感情表
出装置に関する。
情状態に従って表情や音声を変化させて出力する感情表
出装置に関する。
【0002】
【従来の技術】『心をもった機械』という著書の中で、
戸田正直が指摘しているように(1987年)、コンピ
ュータやロボット等の機械が、人間と同じような感情を
もち、喜んだり、悲しんだり、人を思いやったりするこ
とができれば、人間と機械とのコミュニケーションは、
いまよりずっと暖かで、楽しくなり、また人間にとって
親しみやすいものになるものと思われる。
戸田正直が指摘しているように(1987年)、コンピ
ュータやロボット等の機械が、人間と同じような感情を
もち、喜んだり、悲しんだり、人を思いやったりするこ
とができれば、人間と機械とのコミュニケーションは、
いまよりずっと暖かで、楽しくなり、また人間にとって
親しみやすいものになるものと思われる。
【0003】機械、特に対話システムに人工感情を与え
ようという試みの背後には、このような実用的な期待が
ある。現在までに様々な感情表出装置が提案されている
が、それらの多くは、基本的には次のような構成をとっ
ている。以下、図14を用いて、従来の感情表出装置の
一例について簡単に説明する。
ようという試みの背後には、このような実用的な期待が
ある。現在までに様々な感情表出装置が提案されている
が、それらの多くは、基本的には次のような構成をとっ
ている。以下、図14を用いて、従来の感情表出装置の
一例について簡単に説明する。
【0004】なお、この種の感情表出装置は音声対話装
置などの対話システムに組み込まれて利用されるが、こ
こでは煩雑を避けるために対話システムについては言及
しない。図14は従来の感情表出装置の一例を説明する
基本構成図であって、01は入力、02は認識部、03
は感情喚起部、04は表情・音声合成部、05は出力で
ある。
置などの対話システムに組み込まれて利用されるが、こ
こでは煩雑を避けるために対話システムについては言及
しない。図14は従来の感情表出装置の一例を説明する
基本構成図であって、01は入力、02は認識部、03
は感情喚起部、04は表情・音声合成部、05は出力で
ある。
【0005】同図において、感情表出装置への入力情報
01は認識部02においてその意味が認識される。認識
された意味が予め規定された感情喚起入力に該当する場
合には、感情喚起部03において、例えば、「感情喚起
入力Xを認知したなら、感情成分Yの強度をZだけ増加
せよ」等の規則に従って、感情喚起部03に内在する感
情状態レジスタの強度値の書き換えを行なう。
01は認識部02においてその意味が認識される。認識
された意味が予め規定された感情喚起入力に該当する場
合には、感情喚起部03において、例えば、「感情喚起
入力Xを認知したなら、感情成分Yの強度をZだけ増加
せよ」等の規則に従って、感情喚起部03に内在する感
情状態レジスタの強度値の書き換えを行なう。
【0006】ここで、感情状態レジスタとは、例えば、
“驚き、恐れ、嫌悪、怒り、幸福、悲しみ”といった感
情成分の強度値を記憶するレジスタのことである。感情
状態レジスタの強度値は、上記したように感情喚起入力
が認知される度に感情喚起規則に従って変更されるが、
先行感情の状態や各基本感情間の相互作用などの要因に
よっても変動するように設定される場合もある。
“驚き、恐れ、嫌悪、怒り、幸福、悲しみ”といった感
情成分の強度値を記憶するレジスタのことである。感情
状態レジスタの強度値は、上記したように感情喚起入力
が認知される度に感情喚起規則に従って変更されるが、
先行感情の状態や各基本感情間の相互作用などの要因に
よっても変動するように設定される場合もある。
【0007】また、通常、喚起された感情を定常状態に
戻すために、感情状態レジスタの強度値を時間経過に伴
って減衰させる工夫が施されることが多い。さて、表情
・音声合成部04は、感情状態レジスタ内のいずれかの
感情成分の強度値が前もって規定された表出閾値を越え
た場合にはその感情に対応した表情や音声を合成する
が、そうでない場合には無感情の表情と感情的な抑揚の
ない音声を合成する。合成された表情や音声は、表示装
置や音声出力装置を介して対話者に出力(05)され
る。
戻すために、感情状態レジスタの強度値を時間経過に伴
って減衰させる工夫が施されることが多い。さて、表情
・音声合成部04は、感情状態レジスタ内のいずれかの
感情成分の強度値が前もって規定された表出閾値を越え
た場合にはその感情に対応した表情や音声を合成する
が、そうでない場合には無感情の表情と感情的な抑揚の
ない音声を合成する。合成された表情や音声は、表示装
置や音声出力装置を介して対話者に出力(05)され
る。
【0008】なお、このような感情表出装置に関する技
術の詳細は、例えば、「情報処理学会第45回(平成4
年度後期)全国大会講演論文集、2」の『擬人化エージ
ェントの感情モデル』(川本浩史、大村賢悟著)の記事
や、「日本認知科学会1992年度定例シンポジウム論
文集、感情の認知科学」の『調和理論による人工感情』
(原文雄、茂木秀介著)に報告されている。
術の詳細は、例えば、「情報処理学会第45回(平成4
年度後期)全国大会講演論文集、2」の『擬人化エージ
ェントの感情モデル』(川本浩史、大村賢悟著)の記事
や、「日本認知科学会1992年度定例シンポジウム論
文集、感情の認知科学」の『調和理論による人工感情』
(原文雄、茂木秀介著)に報告されている。
【0009】
【発明が解決しようとする課題】しかし、上記従来の感
情表出装置においては、以下のような問題点がある。 (1)従来の感情表出装置には、利用者が自分の好み
や、好みの変化に合わせて当該感情表出装置の感情表出
スタイルを自在に設定、変更できるような手段が提供さ
れていない。
情表出装置においては、以下のような問題点がある。 (1)従来の感情表出装置には、利用者が自分の好み
や、好みの変化に合わせて当該感情表出装置の感情表出
スタイルを自在に設定、変更できるような手段が提供さ
れていない。
【0010】例えば、喜びの感情は頻繁に表出するが、
嫌悪、怒り、悲しみの感情は滅多に表出しないようなス
タイルに変更したくとも、それを許さないのである。そ
こで、本発明の第1の目的は、感情表出装置の感情表出
スタイルを利用者が自在に設定、変更できるようにする
点にある。 (2)従来の感情表出装置は、対話相手、状況、話題、
過去の対話量等の違いに基づき、感情表出の傾向を適切
なものに自動的に変化させることができない。すなわ
ち、所謂「表示規則」に基づく感情表出の制御機能を具
備しない。
嫌悪、怒り、悲しみの感情は滅多に表出しないようなス
タイルに変更したくとも、それを許さないのである。そ
こで、本発明の第1の目的は、感情表出装置の感情表出
スタイルを利用者が自在に設定、変更できるようにする
点にある。 (2)従来の感情表出装置は、対話相手、状況、話題、
過去の対話量等の違いに基づき、感情表出の傾向を適切
なものに自動的に変化させることができない。すなわ
ち、所謂「表示規則」に基づく感情表出の制御機能を具
備しない。
【0011】ここで「表示規則」とは、本来、様々な社
会的な場面や役割などのもとで、人がどのように感情表
出を行えばよいかについての社会的、文化的規範や因習
をいう。感情表出装置も人間と対話する以上、表示規則
を遵守することが好ましいが、既存の装置ではそれがで
きないのである。なお、上記したように、表示規則は本
来社会的に規定されるものであるが、感情表出装置の場
合には、利用者自身がその表示規則を規定できれば便利
である。
会的な場面や役割などのもとで、人がどのように感情表
出を行えばよいかについての社会的、文化的規範や因習
をいう。感情表出装置も人間と対話する以上、表示規則
を遵守することが好ましいが、既存の装置ではそれがで
きないのである。なお、上記したように、表示規則は本
来社会的に規定されるものであるが、感情表出装置の場
合には、利用者自身がその表示規則を規定できれば便利
である。
【0012】そこで、本発明の第2の目的は、対話相
手、状況、過去の対話量等の違いに基づき、感情表出の
傾向を適切なものに自動的に変更することができるよう
にする点にある。
手、状況、過去の対話量等の違いに基づき、感情表出の
傾向を適切なものに自動的に変更することができるよう
にする点にある。
【0013】
【課題を解決するための手段】上記第1の目的を達成す
るために、本発明の感情表出装置は、図1に示すよう
に、予め規定された感情喚起情報を認知する感情喚起情
報認識手段2と、“驚き、恐れ、嫌悪、怒り、幸福、悲
しみ”等の各感情成分に感情強度を反映させた数量を与
えることで全体の感情状態を表現し、感情喚起情報が認
知された場合には、予め規定された感情状態遷移規則に
則してその感情状態を遷移せしめる感情喚起手段3と、
感情喚起手段により規定された感情状態に対応づけて表
情や音声の韻律を変化させて出力する表情・音声合成手
段4と、感情成分別にそれぞれの表出閾値を指定するこ
とにより装置の感情表出スタイルの設定または変更を行
なう表出スタイル設定手段6−1と、前記表出スタイル
設定手段に6−1おいて設定された表出閾値を保持する
表出スタイル記憶手段6−21を内在し、そこに保持さ
れた表出閾値と前記感情喚起手段3において規定された
感情状態とを比較して表出すべき表情や音声を決定する
表出内容決定手段6−2と、前記表出スタイル設定手段
において設定された表出閾値を複数記憶・保存すること
ができる表出スタイル群保持手段6−3を備えたことを
特徴とする。
るために、本発明の感情表出装置は、図1に示すよう
に、予め規定された感情喚起情報を認知する感情喚起情
報認識手段2と、“驚き、恐れ、嫌悪、怒り、幸福、悲
しみ”等の各感情成分に感情強度を反映させた数量を与
えることで全体の感情状態を表現し、感情喚起情報が認
知された場合には、予め規定された感情状態遷移規則に
則してその感情状態を遷移せしめる感情喚起手段3と、
感情喚起手段により規定された感情状態に対応づけて表
情や音声の韻律を変化させて出力する表情・音声合成手
段4と、感情成分別にそれぞれの表出閾値を指定するこ
とにより装置の感情表出スタイルの設定または変更を行
なう表出スタイル設定手段6−1と、前記表出スタイル
設定手段に6−1おいて設定された表出閾値を保持する
表出スタイル記憶手段6−21を内在し、そこに保持さ
れた表出閾値と前記感情喚起手段3において規定された
感情状態とを比較して表出すべき表情や音声を決定する
表出内容決定手段6−2と、前記表出スタイル設定手段
において設定された表出閾値を複数記憶・保存すること
ができる表出スタイル群保持手段6−3を備えたことを
特徴とする。
【0014】また、上記第2の目的を達成するために、
本発明の感情表出装置は、図1に示すように、対話相手
を識別,同定する話者同定手段6−41と、前記話者同
定手段6−41により同定された話者との過去の対話回
数又は対話総時間を計測しそれを記録する対話量記憶手
段6−42と、予め範疇化された複数の状況から目下の
状況を特定する状況認識手段6−43と、対話相手,対
話量,状況の違いに基づいて前記表出スタイル群保持手
段6−3に記憶されている表出閾値集合の中から特定の
表出閾値を読み出して、前記表出スタイル記憶手段6−
21にセットする表出スタイル変更手段6−5とを備え
たことを特徴とする。なお、ここで、表出スタイル変更
手段6−5は、予め規定されたいくつかの変換式の中か
ら特定の変換式を選択して、それを前記表出スタイル記
憶手段6−21に記憶されている表出閾値に適応するこ
とにより直接書き換える方式をとることもできる。
本発明の感情表出装置は、図1に示すように、対話相手
を識別,同定する話者同定手段6−41と、前記話者同
定手段6−41により同定された話者との過去の対話回
数又は対話総時間を計測しそれを記録する対話量記憶手
段6−42と、予め範疇化された複数の状況から目下の
状況を特定する状況認識手段6−43と、対話相手,対
話量,状況の違いに基づいて前記表出スタイル群保持手
段6−3に記憶されている表出閾値集合の中から特定の
表出閾値を読み出して、前記表出スタイル記憶手段6−
21にセットする表出スタイル変更手段6−5とを備え
たことを特徴とする。なお、ここで、表出スタイル変更
手段6−5は、予め規定されたいくつかの変換式の中か
ら特定の変換式を選択して、それを前記表出スタイル記
憶手段6−21に記憶されている表出閾値に適応するこ
とにより直接書き換える方式をとることもできる。
【0015】
【作用】前記第1の目的を達成するための感情表出装置
において、感情喚起情報認識手段2は、入力情報1の中
から予め規定された感情喚起情報を認識する。感情喚起
手段3は、前記感情喚起情報認識手段2の認識結果と予
め規定された感情状態遷移規則に基づいて、“驚き、恐
れ、嫌悪、怒り、幸福、悲しみ”等の各感情成分に付与
された強度値パターンを変化せしめ、これにより現在の
感情状態を規定する。
において、感情喚起情報認識手段2は、入力情報1の中
から予め規定された感情喚起情報を認識する。感情喚起
手段3は、前記感情喚起情報認識手段2の認識結果と予
め規定された感情状態遷移規則に基づいて、“驚き、恐
れ、嫌悪、怒り、幸福、悲しみ”等の各感情成分に付与
された強度値パターンを変化せしめ、これにより現在の
感情状態を規定する。
【0016】一方、表出スタイル設定手段6−1は、各
感情成分に対応する表出閾値の設定を利用者7に許し、
それによって全体の表出スタイルを規定する。表出スタ
イル記憶手段6−21は前記表出スタイル設定手段6−
1において設定された表出閾値を保持する。表出内容決
定手段6−2は、前記感情喚起手段3によって規定され
た各感情成分の強度値と前記表出スタイル記憶手段6−
21において保持された各感情成分の表出閾値を比較参
照して予め規定された規則に従って、表出すべき表情と
音声の種類を決定する。
感情成分に対応する表出閾値の設定を利用者7に許し、
それによって全体の表出スタイルを規定する。表出スタ
イル記憶手段6−21は前記表出スタイル設定手段6−
1において設定された表出閾値を保持する。表出内容決
定手段6−2は、前記感情喚起手段3によって規定され
た各感情成分の強度値と前記表出スタイル記憶手段6−
21において保持された各感情成分の表出閾値を比較参
照して予め規定された規則に従って、表出すべき表情と
音声の種類を決定する。
【0017】表情・音声合成手段4は、前記表出内容決
定手段6−2の決定に基づいて表情と音声を合成して出
力する。なお、表出スタイル群保持手段6−3は、幾つ
かの代表的な表出スタイルを反映するような表出閾値パ
ターンを保持するとともに、前記表出スタイル設定手段
6−1において設定された表出閾値パターンも保持す
る。
定手段6−2の決定に基づいて表情と音声を合成して出
力する。なお、表出スタイル群保持手段6−3は、幾つ
かの代表的な表出スタイルを反映するような表出閾値パ
ターンを保持するとともに、前記表出スタイル設定手段
6−1において設定された表出閾値パターンも保持す
る。
【0018】利用者7は、前記表出スタイル設定手段6
−1を介して、表出スタイル群保持手段6−3から特定
の表出閾値パターンを読み出して、前記表出スタイル記
憶手段6−21にセットすることができる。また、前記
第2の目的を達成するための感情表出装置において、話
者同定手段6−41は、対話相手を識別,同定する。
−1を介して、表出スタイル群保持手段6−3から特定
の表出閾値パターンを読み出して、前記表出スタイル記
憶手段6−21にセットすることができる。また、前記
第2の目的を達成するための感情表出装置において、話
者同定手段6−41は、対話相手を識別,同定する。
【0019】対話量記憶手段6−42は、前記話者同定
手段6−41により同定された話者との過去の対話回数
又は対話総時間を計測しそれを記録する。また、状況認
識手段6−43は、予め範疇化された複数の状況から目
下の状況を認識する。表出スタイル変更手段6−5は、
これらの認識結果と予め規定された規則(表示規則)に
則して、前記表出スタイル群保持手段に記憶された表出
閾値集合の中から特定の表出閾値を読み出してそれを前
記表出スタイル記憶手段6−21にセットするか、ある
いは、予め規定されたいくつかの変換式の中から特定の
変換式を適用して、前記表出スタイル記憶手段6−21
に記憶されている表出閾値を直接書き換えることによっ
て、対話相手、対話量、状況の違いに基づいて、表示ス
タイルを自動変更することができる。
手段6−41により同定された話者との過去の対話回数
又は対話総時間を計測しそれを記録する。また、状況認
識手段6−43は、予め範疇化された複数の状況から目
下の状況を認識する。表出スタイル変更手段6−5は、
これらの認識結果と予め規定された規則(表示規則)に
則して、前記表出スタイル群保持手段に記憶された表出
閾値集合の中から特定の表出閾値を読み出してそれを前
記表出スタイル記憶手段6−21にセットするか、ある
いは、予め規定されたいくつかの変換式の中から特定の
変換式を適用して、前記表出スタイル記憶手段6−21
に記憶されている表出閾値を直接書き換えることによっ
て、対話相手、対話量、状況の違いに基づいて、表示ス
タイルを自動変更することができる。
【0020】
【実施例】以下、本発明の実施例につき、図面を参照し
て詳細に説明する。本実施例は、本発明による感情表出
システムを、音声対話型電子秘書に応用したものであ
る。図2は音声対話型電子秘書のシステムを説明するブ
ロック図であって、7は利用者、8は話者特定部、9は
発話理解部、10は意図推定部、11はタスク遂行部、
12は秘書タスク管理情報データベース、13は感情管
理部、14は音声合成/画像表示部、15は音声データ
格納部、16は表情画像データ格納部である。
て詳細に説明する。本実施例は、本発明による感情表出
システムを、音声対話型電子秘書に応用したものであ
る。図2は音声対話型電子秘書のシステムを説明するブ
ロック図であって、7は利用者、8は話者特定部、9は
発話理解部、10は意図推定部、11はタスク遂行部、
12は秘書タスク管理情報データベース、13は感情管
理部、14は音声合成/画像表示部、15は音声データ
格納部、16は表情画像データ格納部である。
【0021】同図において、話者特定部8は発話者を特
定するサブシステム、発話理解部9は発話の記号内容を
認識するサブシステム、意図推定部10は発話の意味内
容を推定するサブシステム、タスク遂行部11は利用者
7の意図からタスクに関する行為をプラン・遂行するサ
ブシステム、秘書タスク管理情報データベース12はタ
スクに関わる諸情報を格納するデータべース、感情管理
部13は人工感情の生成・表出管理を行うサブシステ
ム、音声合成/画像表示部14はタスク遂行に基づく音
声応答/画像表示を行うサブシステム、音声データ格納
部15は感情タイプ別に構成された音声応答情報を格納
するデータべース、表情画像データ格納部16は感情タ
イプ別に構成された秘書動画像情報を格納するデータべ
ースである。
定するサブシステム、発話理解部9は発話の記号内容を
認識するサブシステム、意図推定部10は発話の意味内
容を推定するサブシステム、タスク遂行部11は利用者
7の意図からタスクに関する行為をプラン・遂行するサ
ブシステム、秘書タスク管理情報データベース12はタ
スクに関わる諸情報を格納するデータべース、感情管理
部13は人工感情の生成・表出管理を行うサブシステ
ム、音声合成/画像表示部14はタスク遂行に基づく音
声応答/画像表示を行うサブシステム、音声データ格納
部15は感情タイプ別に構成された音声応答情報を格納
するデータべース、表情画像データ格納部16は感情タ
イプ別に構成された秘書動画像情報を格納するデータべ
ースである。
【0022】まず、上記ブロック図にもとづいて、電子
秘書全体の機構を概説し、その次にシステムを構成する
各サブシステムについて説明する。 [全体構成]利用者7から電子秘書への音声入力は、話
者特定部8と発話理解部9へ渡されて発話者が特定され
ると同時に、発話の記号的内容が認識される。
秘書全体の機構を概説し、その次にシステムを構成する
各サブシステムについて説明する。 [全体構成]利用者7から電子秘書への音声入力は、話
者特定部8と発話理解部9へ渡されて発話者が特定され
ると同時に、発話の記号的内容が認識される。
【0023】この発話の記号的内容から、意図推定部1
0において、さらに利用者のタスク要求意図が推定さ
れ、タスク遂行部11へ渡される。一方、話者の特定情
報と発話内容は、話者特定部8と発話理解部9から感情
管理部13へ入力される。感情管理部13では、これら
2つの情報とタスク遂行部11でのイベント発生状態に
より、感情の生成および表出が管理される。ここでの表
出管理とは、生成した感情状態を、対話者や対話状況の
考慮によりどれほど表出するかを制御する機構である。
0において、さらに利用者のタスク要求意図が推定さ
れ、タスク遂行部11へ渡される。一方、話者の特定情
報と発話内容は、話者特定部8と発話理解部9から感情
管理部13へ入力される。感情管理部13では、これら
2つの情報とタスク遂行部11でのイベント発生状態に
より、感情の生成および表出が管理される。ここでの表
出管理とは、生成した感情状態を、対話者や対話状況の
考慮によりどれほど表出するかを制御する機構である。
【0024】タスク遂行部11では、推定された利用者
の意図に従って、秘書タスク管理情報データベース12
を参照しながら、スケジュール・文書管理等のタスクを
プラン実行する。同時に、感情管理部13に対して利用
者の意図にもとづく感情変動の要求が送られる。また逆
に、感情管理部13における感情状態はタスク遂行部1
1に伝えられ、プラン選択や実行に影響をおよぼす。
の意図に従って、秘書タスク管理情報データベース12
を参照しながら、スケジュール・文書管理等のタスクを
プラン実行する。同時に、感情管理部13に対して利用
者の意図にもとづく感情変動の要求が送られる。また逆
に、感情管理部13における感情状態はタスク遂行部1
1に伝えられ、プラン選択や実行に影響をおよぼす。
【0025】すなわち、計画された一連のアクションが
遂行される(或るいは失敗する)と、その結果は感情管
理部13に伝えられ、感情状態の変化をひきおこす。感
情管理部13において表出の決定された感情内容は、音
声データ格納部15と表情画像データ格納部16に格納
されている音声データと表情画像データに基づいて音声
合成/画像表示部14が生成する動画像や発話音声とし
て出力される。
遂行される(或るいは失敗する)と、その結果は感情管
理部13に伝えられ、感情状態の変化をひきおこす。感
情管理部13において表出の決定された感情内容は、音
声データ格納部15と表情画像データ格納部16に格納
されている音声データと表情画像データに基づいて音声
合成/画像表示部14が生成する動画像や発話音声とし
て出力される。
【0026】感情管理部13で決定された感情表出内容
は、音声合成/画像表示部14において具体的出力とな
り、利用者7に提示される。以下、本発明の主たる構成
要素である感情管理部について詳説する。 [感情管理部]図3は関連するシステム・モジュールと
共に感情管理部の構成を説明するブロツク図であって、
13は感情管理部、13−1は感情生成部、13−2は
感情表出制御部、前記図2と同一符号は同一部分に対応
する。
は、音声合成/画像表示部14において具体的出力とな
り、利用者7に提示される。以下、本発明の主たる構成
要素である感情管理部について詳説する。 [感情管理部]図3は関連するシステム・モジュールと
共に感情管理部の構成を説明するブロツク図であって、
13は感情管理部、13−1は感情生成部、13−2は
感情表出制御部、前記図2と同一符号は同一部分に対応
する。
【0027】同図において、感情管理部13は、感情生
成部13−1と感情表出制御部13−2から構成され
る。感情生成部13−1は、電子秘書の活動する環境か
らの刺激により人工感情を生成・保持するシステムであ
り、例えば本発明者等の出願に係る特願平4−1695
74号に開示されているような構成を採用することが可
能である。
成部13−1と感情表出制御部13−2から構成され
る。感情生成部13−1は、電子秘書の活動する環境か
らの刺激により人工感情を生成・保持するシステムであ
り、例えば本発明者等の出願に係る特願平4−1695
74号に開示されているような構成を採用することが可
能である。
【0028】感情表出制御部13−2は、感情生成部1
3−1で保持される感情状態をどのように表出するかを
自動的/強制的に制御するシステムである。自動的な制
御とは、電子秘書の対話相手や、活動時間、対話履歴な
どの状況に応じて、自動的に表出スタイルを適応・変化
させる制御である。この適応変化により、電子秘書の対
話態度を状況に適した自然なスタイルへ導くことが可能
となる。
3−1で保持される感情状態をどのように表出するかを
自動的/強制的に制御するシステムである。自動的な制
御とは、電子秘書の対話相手や、活動時間、対話履歴な
どの状況に応じて、自動的に表出スタイルを適応・変化
させる制御である。この適応変化により、電子秘書の対
話態度を状況に適した自然なスタイルへ導くことが可能
となる。
【0029】一方、強制的な制御とは、電子秘書の対話
者すなわち利用者が、自分自身の好みにより電子秘書の
感情表出傾向を調整するための機構である。この制御機
構により、感情表出のきらいな利用者が完全にクールな
電子秘書を設定したり、あるいは、電子秘書が怒ること
を許さない利用者は怒りだけは表出しないよう設定する
ことができる。
者すなわち利用者が、自分自身の好みにより電子秘書の
感情表出傾向を調整するための機構である。この制御機
構により、感情表出のきらいな利用者が完全にクールな
電子秘書を設定したり、あるいは、電子秘書が怒ること
を許さない利用者は怒りだけは表出しないよう設定する
ことができる。
【0030】感情表出制御部13−2では、このような
2種の制御のもとで、感情生成部13−1における感情
状態を音声合成/画像表示部14に伝達する。 [感情表出制御部]図4は感情表出制御部の構成を説明
するブロツク図であって、13−21は表出値決定部、
13−22はシーン構成部、13−23は人工感情値レ
ジスタ(Re)、13−24は表出値レジスタ(R
r)、13−25は表出特性閾値レジスタ(Rt)、1
3−26は表示モード・フラグ(Fm)レジスタ、13
−27は表出特性編集器、13−271は表出特性閾値
設定変更器、13−272は表示モード・フラグ設定変
更器、13−273は表出特性規則編集器、13−27
4は表出特性閾値パタン編集器、13−28は表出特性
規則インタプリタ、13−29は表出特性規則データベ
ース、13−30は表出特性閾値パタンデータベースで
ある。
2種の制御のもとで、感情生成部13−1における感情
状態を音声合成/画像表示部14に伝達する。 [感情表出制御部]図4は感情表出制御部の構成を説明
するブロツク図であって、13−21は表出値決定部、
13−22はシーン構成部、13−23は人工感情値レ
ジスタ(Re)、13−24は表出値レジスタ(R
r)、13−25は表出特性閾値レジスタ(Rt)、1
3−26は表示モード・フラグ(Fm)レジスタ、13
−27は表出特性編集器、13−271は表出特性閾値
設定変更器、13−272は表示モード・フラグ設定変
更器、13−273は表出特性規則編集器、13−27
4は表出特性閾値パタン編集器、13−28は表出特性
規則インタプリタ、13−29は表出特性規則データベ
ース、13−30は表出特性閾値パタンデータベースで
ある。
【0031】同図において、この感情表出制御部を構成
するサブシステムは、(1)感情状態や表示モード、表
出特性、最終的な表出値をそれぞれ保持するためのレジ
スタ群(人工感情値レジスタ(Re)13−23,表出
値レジスタ(Rr)13−24,表出特性閾値レジスタ
(Rt)13−25)と、(2)話者特定部8,発話理
解部9,意図推定部10,タスク特定部11からの状況
情報から、表出特性閾値を自動的に決定・変更するため
の表出特性規則インタプリタ13−28および表出特性
規則データベース13−29および表出特性閾値パタン
データベース13−30と、(3)最終的な表出値を決
定する表出値決定部13−21と、(4)表出特性や表
示モードに関する利用者の設定をうけつける表出特性編
集器13−27と、(5)決定された表出値から出力す
るシーンを構成するシーン構成部13−22と、から構
成される。
するサブシステムは、(1)感情状態や表示モード、表
出特性、最終的な表出値をそれぞれ保持するためのレジ
スタ群(人工感情値レジスタ(Re)13−23,表出
値レジスタ(Rr)13−24,表出特性閾値レジスタ
(Rt)13−25)と、(2)話者特定部8,発話理
解部9,意図推定部10,タスク特定部11からの状況
情報から、表出特性閾値を自動的に決定・変更するため
の表出特性規則インタプリタ13−28および表出特性
規則データベース13−29および表出特性閾値パタン
データベース13−30と、(3)最終的な表出値を決
定する表出値決定部13−21と、(4)表出特性や表
示モードに関する利用者の設定をうけつける表出特性編
集器13−27と、(5)決定された表出値から出力す
るシーンを構成するシーン構成部13−22と、から構
成される。
【0032】以下、このサブシステム上でのプロセスを
説明する。 1.表出特性規則インタプリタ13−28上でのプロセ
ス 話者特定部8、発話理解部9、意図推定部10、タスク
遂行部11から得られた情報は、表出特性規則インタプ
リタ13−28に送られる。表出特性規則とは、上記の
状況情報に応じて表出特性を自動的に変化させるための
規則群であり、表出特性規則インタプリタ13−28
は、表出特性規則データベース13−29における表出
特性規則に諸条件を設定し、各時点において条件を満た
す規則を随時適用する機構である。
説明する。 1.表出特性規則インタプリタ13−28上でのプロセ
ス 話者特定部8、発話理解部9、意図推定部10、タスク
遂行部11から得られた情報は、表出特性規則インタプ
リタ13−28に送られる。表出特性規則とは、上記の
状況情報に応じて表出特性を自動的に変化させるための
規則群であり、表出特性規則インタプリタ13−28
は、表出特性規則データベース13−29における表出
特性規則に諸条件を設定し、各時点において条件を満た
す規則を随時適用する機構である。
【0033】下記の[数1]〜[数6]は、表出特性規
則データベース13−29における表出特性規則(ディ
スプレイルール)の一例である。
則データベース13−29における表出特性規則(ディ
スプレイルール)の一例である。
【0034】
【数1】
【0035】ルールの意味 IF:発話者が利用者リストに含まれない、すなわち未
知の話者に対応している場合である。 THEN:表出閾値Θ1,2 に抑制係数DEPRESS
RATE(>1.0)を乗ずる。表出抑制を開始したこ
とを示すフラグcontrol flgをオンにする。)
知の話者に対応している場合である。 THEN:表出閾値Θ1,2 に抑制係数DEPRESS
RATE(>1.0)を乗ずる。表出抑制を開始したこ
とを示すフラグcontrol flgをオンにする。)
【0036】
【数2】
【0037】ルールの意味 IF:発話者が利用者リストに含まれる。すなわち現在
応対している相手は、既知の話者である。 THEN:表出閾値Θ1,2 に利用者リストにおける該当
者(発話者)の閾値を設定する。さらに、該当者の閾値
にFRIEDLY RATE(<1.0)を乗じて、感
情表出の頻度を高める。対話回数contact ti
meに1を加算しておく。
応対している相手は、既知の話者である。 THEN:表出閾値Θ1,2 に利用者リストにおける該当
者(発話者)の閾値を設定する。さらに、該当者の閾値
にFRIEDLY RATE(<1.0)を乗じて、感
情表出の頻度を高める。対話回数contact ti
meに1を加算しておく。
【0038】ANDIF:発話者がMY MASTE
R’S FRIENDすなわち主たる利用者の友人リス
トに含まれる。 THEN:表出抑制フラグをオフにして表出抑制を解除
する。
R’S FRIENDすなわち主たる利用者の友人リス
トに含まれる。 THEN:表出抑制フラグをオフにして表出抑制を解除
する。
【0039】
【数3】
【0040】ルールの意味 IF:時刻区分設定(current time ty
pe)が定義から外れている。すなわち、時間タイプ
(勤務中、勤務外)の設定が正しくない。 THEN:時刻区分設定を勤務中(または勤務外)に再
設定する。表出特性閾値にFORMAL RATE(ま
たはRELAX RATE)を乗じ、変更する。
pe)が定義から外れている。すなわち、時間タイプ
(勤務中、勤務外)の設定が正しくない。 THEN:時刻区分設定を勤務中(または勤務外)に再
設定する。表出特性閾値にFORMAL RATE(ま
たはRELAX RATE)を乗じ、変更する。
【0041】
【数4】
【0042】ルールの意味 IF:感情モデルにおける要素感情が怒りまたは嫌悪に
おいて最大であり、かつ、その値が表出閾値Θ1,2 にお
ける強閾値を越えており、かつ、利用者発話語にNEG
ATIVEWORDが含まれている。 THEN:表出閾値における怒りと嫌悪の成分にANG
ER DEPRESS RATE(>1.0)を乗じて引
き上げる。
おいて最大であり、かつ、その値が表出閾値Θ1,2 にお
ける強閾値を越えており、かつ、利用者発話語にNEG
ATIVEWORDが含まれている。 THEN:表出閾値における怒りと嫌悪の成分にANG
ER DEPRESS RATE(>1.0)を乗じて引
き上げる。
【0043】表出抑制フラグをオンにして表出抑制を開
始する。利用者リストにおける現在の対話者の閾値にC
LOSE RATE(>1.0)を乗じて、引き上げ
る。
始する。利用者リストにおける現在の対話者の閾値にC
LOSE RATE(>1.0)を乗じて、引き上げ
る。
【0044】
【数5】
【0045】ルールの意味 IF:タスク遂行部により「タスクの失敗が継続」のシ
グナルを受信。 THEN:表出閾値にDEPRES RATE(>1.
0)を乗じて、閾値全体を引き上げる。表出抑制フラグ
をオンにして表出抑制を開始する。
グナルを受信。 THEN:表出閾値にDEPRES RATE(>1.
0)を乗じて、閾値全体を引き上げる。表出抑制フラグ
をオンにして表出抑制を開始する。
【0046】
【数6】
【0047】ルールの意味 IF:利用者の発話語にPOSITIVEWORDが含
まれている。 THEN:表出閾値にOPEN DEPRESS RA
TE(<1.0)を乗じて引き下げる。表出抑制フラグ
をオフにして表出抑制を解除する。
まれている。 THEN:表出閾値にOPEN DEPRESS RA
TE(<1.0)を乗じて引き下げる。表出抑制フラグ
をオフにして表出抑制を解除する。
【0048】なお、〔数1〕における「USER LI
ST〕は、下記〔表1〕に示したようなフォーマットで
構成される。
ST〕は、下記〔表1〕に示したようなフォーマットで
構成される。
【0049】
【表1】
【0050】また、Θ1,2 は表出特性閾値で、下記〔表
2〕に示したようなものである。
2〕に示したようなものである。
【0051】
【表2】
【0052】これらの規則は条件部をみたすものすべて
が順次実行され、最終的な表出特性閾値の変更が表出値
決定部に提案される。 2.表出値決定部上のプロセス 表出値決定部13−21には、以下の信号が送られる。 (1)表出特性規則インタプリタ13−28からの表出
特性変更。 (2)感情生成部13−1からの感情変化通報。 (3)タスク遂行部11からのタスク遂行イベント発
生。
が順次実行され、最終的な表出特性閾値の変更が表出値
決定部に提案される。 2.表出値決定部上のプロセス 表出値決定部13−21には、以下の信号が送られる。 (1)表出特性規則インタプリタ13−28からの表出
特性変更。 (2)感情生成部13−1からの感情変化通報。 (3)タスク遂行部11からのタスク遂行イベント発
生。
【0053】表出値決定部13−21では、これらの要
求と、表示モードフラグの設定により、表出を決定す
る。図5はモードフラグFmの説明図であって、感情表
出許可fe 、manual<−>オート優先fp の2種
からなる。また、表出値決定部13−21には、図6に
示した3つのレジスタと1つのフラグ・レジスタがあ
る。
求と、表示モードフラグの設定により、表出を決定す
る。図5はモードフラグFmの説明図であって、感情表
出許可fe 、manual<−>オート優先fp の2種
からなる。また、表出値決定部13−21には、図6に
示した3つのレジスタと1つのフラグ・レジスタがあ
る。
【0054】図6は感情表出制御部におけるレジスタ群
と格納値の一例の説明図であって、人工感情値レジスタ
(Re)、表出特性閾値レジスタ(Rt)、表出値レジ
スタ(Rr)の3つのレジスタからなる。人工感情値レ
ジスタ(Re)とは、感情生成部13−1から送られて
くる感情状態値を保存するものである。また、表出特性
閾値レジスタ(Rt)とは、感情表出を行うべきか否か
を判断するための閾値を保持するものである。そして、
表出値レジスタ(Rr)とは、表出値決定部が主に人工
感情値レジスタ(Re)と表出特性閾値レジスタ(R
t)とを比較することで決定した感情の表出値を格納す
るものである。
と格納値の一例の説明図であって、人工感情値レジスタ
(Re)、表出特性閾値レジスタ(Rt)、表出値レジ
スタ(Rr)の3つのレジスタからなる。人工感情値レ
ジスタ(Re)とは、感情生成部13−1から送られて
くる感情状態値を保存するものである。また、表出特性
閾値レジスタ(Rt)とは、感情表出を行うべきか否か
を判断するための閾値を保持するものである。そして、
表出値レジスタ(Rr)とは、表出値決定部が主に人工
感情値レジスタ(Re)と表出特性閾値レジスタ(R
t)とを比較することで決定した感情の表出値を格納す
るものである。
【0055】なお、図4における表示モード・フラグ・
レジスタ(Fm)は、前記図5に示したような表示に関
する様々な制御情報を設定するものである。図7は表出
特性規則インタプリタ上のプロセスを説明するフローチ
ヤートであって、表示モード・フラグレジスタ(Rm)
からプロセスの起動/停止を指示する表示モード・フラ
グfe が出力されると、表出特性制御プロセスが起動し
(S−1)、話者特定部,発話理解部,意図推定部,タ
スク遂行部からのイベント・シグナルを待つ(S−
2)。
レジスタ(Fm)は、前記図5に示したような表示に関
する様々な制御情報を設定するものである。図7は表出
特性規則インタプリタ上のプロセスを説明するフローチ
ヤートであって、表示モード・フラグレジスタ(Rm)
からプロセスの起動/停止を指示する表示モード・フラ
グfe が出力されると、表出特性制御プロセスが起動し
(S−1)、話者特定部,発話理解部,意図推定部,タ
スク遂行部からのイベント・シグナルを待つ(S−
2)。
【0056】上記各部からのイベント・シグナルの入力
に応じて、規則条件部を設定し(S−3)、設定した規
則を表出特性規則データべースと表出特性閾値パタンデ
ータべースのデータとの規則照合を実行する(S−
4)。規則照合を実行した結果を表出値決定部に渡す
(S−5)。次に、表出値決定部において基本となる表
出特性変更信号からのプロセスを説明する。
に応じて、規則条件部を設定し(S−3)、設定した規
則を表出特性規則データべースと表出特性閾値パタンデ
ータべースのデータとの規則照合を実行する(S−
4)。規則照合を実行した結果を表出値決定部に渡す
(S−5)。次に、表出値決定部において基本となる表
出特性変更信号からのプロセスを説明する。
【0057】表出値決定プロセス 図8は表出値決定部上のプロセスの概略を説明するフロ
ーチヤートであって、表出値決定部上のプロセスS−1
0は、感情生成部13−1からの感情変化発生信号と表
出特性規則インタプリタ13−28からの表出特性変更
要求に基づいて表出特性値書き換えを行う表出値決定プ
ロセスS−102、およびタスク遂行部11からのタス
ク情報に基づいてタスク遂行シーンへの感情付与を行う
タスク遂行への感情付与プロセスS−103とからな
る。
ーチヤートであって、表出値決定部上のプロセスS−1
0は、感情生成部13−1からの感情変化発生信号と表
出特性規則インタプリタ13−28からの表出特性変更
要求に基づいて表出特性値書き換えを行う表出値決定プ
ロセスS−102、およびタスク遂行部11からのタス
ク情報に基づいてタスク遂行シーンへの感情付与を行う
タスク遂行への感情付与プロセスS−103とからな
る。
【0058】この表出値決定部上のプロセスS−10の
プロセス実行結果は、シーン構成部13−22に与えら
れる。以下、上記表出値決定部上のプロセスを構成する
微表情要求プロセス、表出値決定プロセスおよびタスク
遂行への感情付与プロセスの詳細を順次説明する。表出値決定プロセス 図9と図10は表出特性値書き換えプロセスを説明する
フローチヤートであって、感情生成部13−1から感情
変化を通報されたとき(S−36)、および表出特性規
則インタプリタ13−28より表出特性の変更を要求さ
れたとき(S−30)に起動する。
プロセス実行結果は、シーン構成部13−22に与えら
れる。以下、上記表出値決定部上のプロセスを構成する
微表情要求プロセス、表出値決定プロセスおよびタスク
遂行への感情付与プロセスの詳細を順次説明する。表出値決定プロセス 図9と図10は表出特性値書き換えプロセスを説明する
フローチヤートであって、感情生成部13−1から感情
変化を通報されたとき(S−36)、および表出特性規
則インタプリタ13−28より表出特性の変更を要求さ
れたとき(S−30)に起動する。
【0059】表出特性の変更は、モード・フラグの感情
表出許可feがオンであり、かつ表出特性閾値レジスタ
Rtのユーザ指定フラグがオフの場合、あるいはユーザ
指定フラグがオンであるがモード・フラグのfpがオン
である場合にのみ許可され、表出特性閾値レジスタRt
における表出特性閾値が書き換えられる(S−33)。
表出許可feがオンであり、かつ表出特性閾値レジスタ
Rtのユーザ指定フラグがオフの場合、あるいはユーザ
指定フラグがオンであるがモード・フラグのfpがオン
である場合にのみ許可され、表出特性閾値レジスタRt
における表出特性閾値が書き換えられる(S−33)。
【0060】このように表出特性閾値が書き換えられた
とき、および感情変化の通報を受けたときには、人工感
情値レジスタReの最大値検出が行われる(S−3
5)。求められた最大値と、表出特性閾値レジスタRt
における強・弱閾値とが比較され(S−37)、最大値
となった第i感情の表出値が弱−強度(S−38)また
は強−強度(S−39)に決定され、表出値レジスタR
iに格納されると共に、ただちにシーン構成部13−2
2に送信される。
とき、および感情変化の通報を受けたときには、人工感
情値レジスタReの最大値検出が行われる(S−3
5)。求められた最大値と、表出特性閾値レジスタRt
における強・弱閾値とが比較され(S−37)、最大値
となった第i感情の表出値が弱−強度(S−38)また
は強−強度(S−39)に決定され、表出値レジスタR
iに格納されると共に、ただちにシーン構成部13−2
2に送信される。
【0061】タスク遂行部および感情生成部の通報によ
るプロセス 図11と図12はタスク遂行シーンへの感情付与プロセ
スを説明するフローチヤートである。タスク遂行部にお
いてタスク遂行イベントが発生すると、表出値決定部に
その旨の通報信号が届く。タスク遂行にともなう画像表
示および音声合成を決定するためには、感情情報が必要
である。そのため、先述のプロセスにおいて特性閾値の
書き換えを省略した感情表出値決定プロセスが起動され
る。
るプロセス 図11と図12はタスク遂行シーンへの感情付与プロセ
スを説明するフローチヤートである。タスク遂行部にお
いてタスク遂行イベントが発生すると、表出値決定部に
その旨の通報信号が届く。タスク遂行にともなう画像表
示および音声合成を決定するためには、感情情報が必要
である。そのため、先述のプロセスにおいて特性閾値の
書き換えを省略した感情表出値決定プロセスが起動され
る。
【0062】タスク遂行発生信号受信待機(S−41)
がタスク遂行の発生を検知すると、モード・フラグfe
がチェックされる(S−42)。feがオフの場合、す
なわち感情表出をしない場合には、以降のプロセスは行
わずにタスク番号のみをシーン構成部13−22に送信
する。feがオン0場合には、人工感情値レジスタにお
ける最大値検出がなされる(S−43)。
がタスク遂行の発生を検知すると、モード・フラグfe
がチェックされる(S−42)。feがオフの場合、す
なわち感情表出をしない場合には、以降のプロセスは行
わずにタスク番号のみをシーン構成部13−22に送信
する。feがオン0場合には、人工感情値レジスタにお
ける最大値検出がなされる(S−43)。
【0063】求められた最大値と、表出特性閾値レジス
タRtにおける強−弱閾値とが比較され(S−44)、
最大値となった第i感情の表出が弱−強度以下であった
場合にはタスク番号のみがシーン構成部に送信される
が、そうでないときには弱−強度(S−45)または強
−強度(S−46)に決定され、表出値レジスタRiに
格納される。
タRtにおける強−弱閾値とが比較され(S−44)、
最大値となった第i感情の表出が弱−強度以下であった
場合にはタスク番号のみがシーン構成部に送信される
が、そうでないときには弱−強度(S−45)または強
−強度(S−46)に決定され、表出値レジスタRiに
格納される。
【0064】そしてただちに、表出値レジスタRiの内
容とタスク番号とがシーン構成部に奏しされる(S−7
およびS−8)。 3.ユーザの表出特性編集器による表出制御指定 図4の感情表出制御部のブロック図における表出特性編
集器13−27は、利用者すなわち電子秘書の対話者
が、電子秘書の感情表出を強制的に制御するための編集
装置である。
容とタスク番号とがシーン構成部に奏しされる(S−7
およびS−8)。 3.ユーザの表出特性編集器による表出制御指定 図4の感情表出制御部のブロック図における表出特性編
集器13−27は、利用者すなわち電子秘書の対話者
が、電子秘書の感情表出を強制的に制御するための編集
装置である。
【0065】表出特性編集器13−27は、表出特性閾
値設定変更器13−271,表示モード・フラグ設定変
更器13−272,表出特性規則編集器13−283,
表出特性閾値パタン編集器13−274の4つのサブモ
ジュールより構成される。表出特性閾値設定変更器13
−271の機能は、表出特性閾値レジスタ上の値を希望
値に固定するものである。この固定をうけた値は表出特
性閾値レジスタに付与されたユーザ指定フラグによって
識別される。
値設定変更器13−271,表示モード・フラグ設定変
更器13−272,表出特性規則編集器13−283,
表出特性閾値パタン編集器13−274の4つのサブモ
ジュールより構成される。表出特性閾値設定変更器13
−271の機能は、表出特性閾値レジスタ上の値を希望
値に固定するものである。この固定をうけた値は表出特
性閾値レジスタに付与されたユーザ指定フラグによって
識別される。
【0066】表示モード・フラグ設定変更器13−27
2の機能は、表出値決定部13−21の制御情報である
表示モード・フラグを指定するためのものである。この
フラグは微表情の表出許可/不許可や状況による表出特
性の適応を指定したりする。表出特性規則編集器13−
273の機能は、表出特性規則データベース13−29
中の規則を編集するためのエディタである。これらの規
則は、システムが表出特性値を自動的に書き換えるため
のものである。
2の機能は、表出値決定部13−21の制御情報である
表示モード・フラグを指定するためのものである。この
フラグは微表情の表出許可/不許可や状況による表出特
性の適応を指定したりする。表出特性規則編集器13−
273の機能は、表出特性規則データベース13−29
中の規則を編集するためのエディタである。これらの規
則は、システムが表出特性値を自動的に書き換えるため
のものである。
【0067】表出特性閾値パタン編集器13−274の
機能は、表出特性閾値パタンデータベース13−30中
のパタン群を編集・登録するためのエディタである。表
出特性閾値パタンの編集により、ユーザは好みの表出特
性を設定することができる。 4.シーン構成部上のプロセス 表出値決定部13−21において、感情表出すべき要素
感情のタイプと強度が決定されると、シーン構成部に出
力構成が要求される。
機能は、表出特性閾値パタンデータベース13−30中
のパタン群を編集・登録するためのエディタである。表
出特性閾値パタンの編集により、ユーザは好みの表出特
性を設定することができる。 4.シーン構成部上のプロセス 表出値決定部13−21において、感情表出すべき要素
感情のタイプと強度が決定されると、シーン構成部に出
力構成が要求される。
【0068】図13はシーン構成部上のプロセスを説明
するフローチヤートである。同図における表出値決定部
13−21の各機能を順に説明する。 a.タスク遂行要求 タスク遂行シーンが要求された場合には、指定感情およ
び強度の遂行シーンがシーンデータベース15から検索
される。 b.感情変化要求 感情変化表出が要求された場合には、まずタスク遂行シ
ーン構成(S−51)がビジー(busy)でないか確
認され(S−52)、現状の表示状態に関するシーンが
新しい感情モードでシーンデータベース15から検索さ
れ構成される(S−53)。ここで構成されるシーン
は、画像コードおよび発話データコードのシーケンスか
らなっており、ただちに音声合成/画像表示部14に送
られる。
するフローチヤートである。同図における表出値決定部
13−21の各機能を順に説明する。 a.タスク遂行要求 タスク遂行シーンが要求された場合には、指定感情およ
び強度の遂行シーンがシーンデータベース15から検索
される。 b.感情変化要求 感情変化表出が要求された場合には、まずタスク遂行シ
ーン構成(S−51)がビジー(busy)でないか確
認され(S−52)、現状の表示状態に関するシーンが
新しい感情モードでシーンデータベース15から検索さ
れ構成される(S−53)。ここで構成されるシーン
は、画像コードおよび発話データコードのシーケンスか
らなっており、ただちに音声合成/画像表示部14に送
られる。
【0069】
【発明の効果】以上説明したように、本発明による感情
表出装置は、各感情成分ごとに表出のための閾値を設定
できるために、利用者は装置の感情表出スタイルを自分
の好みにあわせて自在に調節することができる。また、
本発明による感情表出装置では、話者、過去の対話量、
状況などの表出制御情報を認識するとともに、それらの
認識結果に対応づけて表出閾値を変更するので、話者、
親密度、状況の違いに合わせて、感情表示スタイルを自
発的かつ適切に切り換えることができる。
表出装置は、各感情成分ごとに表出のための閾値を設定
できるために、利用者は装置の感情表出スタイルを自分
の好みにあわせて自在に調節することができる。また、
本発明による感情表出装置では、話者、過去の対話量、
状況などの表出制御情報を認識するとともに、それらの
認識結果に対応づけて表出閾値を変更するので、話者、
親密度、状況の違いに合わせて、感情表示スタイルを自
発的かつ適切に切り換えることができる。
【図1】 本発明による感情表出装置の基本構成を説明
するブロック図である。
するブロック図である。
【図2】 本発明による感情表出装置の1実施例の構成
を説明するブロック図である。
を説明するブロック図である。
【図3】 図2に示した実施例における感情管理部の構
成を説明するブロック図である。
成を説明するブロック図である。
【図4】 図3に示した感情管理部における感情表出制
御部の構成を説明するブロック図である。
御部の構成を説明するブロック図である。
【図5】 図5は図4に示した感情表出制御部における
モードフラグの説明図である。
モードフラグの説明図である。
【図6】 図4に示した感情表出制御部におけるレジス
タ群の説明図である。
タ群の説明図である。
【図7】 表出特性規則インタプリタ上のプロセスを説
明するフローチヤートである。
明するフローチヤートである。
【図8】 表出値決定部上のプロセスの概略を説明する
フローチヤートである。
フローチヤートである。
【図9】 表出特性値書き換えプロセスを説明する部分
フローチヤートである。
フローチヤートである。
【図10】 表出特性値書き換えプロセスを説明する図
9に続く部分フローチヤートである。
9に続く部分フローチヤートである。
【図11】 タスク遂行シーンへの感情付与プロセスを
説明する部分フローチヤートである。
説明する部分フローチヤートである。
【図12】 タスク遂行シーンへの感情付与プロセスを
説明する図11に続く部分フローチヤートである。
説明する図11に続く部分フローチヤートである。
【図13】 シーン構成部上のプロセスを説明するフロ
ーチヤートである。
ーチヤートである。
【図14】 従来の感情表出装置の一例を説明する基本
構成図である。
構成図である。
1・・・・入力、2・・・・感情喚起情報認識手段、3
・・・・感情喚起手段、4・・・・表情・音声合成手
段、5・・・・出力、6・・・・感情表出制御部、7・
・・・利用者、6−1・・・・表出スタイル設定手段、
6−2・・・・表出内容決定手段、6−21・・・・表
出スタイル記憶手段、6−3・・・・表出スタイル群保
持手段、6−4・・・・表出制御情報認識手段、6−4
1・・・・話者同定手段、6−42・・・・対話量記録
手段、6−43・・・・状況認識手段。
・・・・感情喚起手段、4・・・・表情・音声合成手
段、5・・・・出力、6・・・・感情表出制御部、7・
・・・利用者、6−1・・・・表出スタイル設定手段、
6−2・・・・表出内容決定手段、6−21・・・・表
出スタイル記憶手段、6−3・・・・表出スタイル群保
持手段、6−4・・・・表出制御情報認識手段、6−4
1・・・・話者同定手段、6−42・・・・対話量記録
手段、6−43・・・・状況認識手段。
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−144799(JP,A) 特開 平2−183371(JP,A) 特開 平4−199098(JP,A) 特開 平5−100692(JP,A) 特開 平5−216618(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 3/00 G06F 3/16 G06T 13/00
Claims (2)
- 【請求項1】 予め規定された感情喚起情報を認知する
感情喚起情報認識手段と、“驚き、恐れ、嫌悪、怒り、
幸福、悲しみ”等の各感情成分に感情強度を反映させた
数量を与えることで全体の感情状態を表現し、感情喚起
情報が認知された場合には、予め規定された感情状態遷
移規則に即してその感情状態を遷移せしめる感情喚起手
段と、感情喚起手段により規定された感情状態に対応づ
けて表情や音声の韻律を変化させて出力する表情・音声
合成手段とを備えた感情表出装置において、 前記感情成分別にそれぞれの表出閾値を指定することに
より装置の感情表出スタイルの設定または変更を行なう
表出スタイル設定手段と、 前記表出スタイル設定手段において設定された表出閾値
を保持する表出スタイル記憶手段を内在し、そこに保持
された表出閾値と前記感情喚起手段において規定された
感情状態とを比較して表出すべき表情や音声を決定する
表出内容決定手段と、 前記表出スタイル設定手段において設定された表出閾値
を複数記憶し、保存することができる表出スタイル群保
持手段とを具備することを特徴とする感情表出装置。 - 【請求項2】 請求項1において、対話相手を識別、同
定する話者同定手段と、 前記話者同定手段により同定された話者との過去の対話
回数又は対話総時間を計測しそれを記録する対話量記憶
手段と、 予め範疇化された複数の状況から目下の状況を特定する
状況認識手段と、 対話相手、対話量、状況の違いに基づいて、前記表出ス
タイル群保持手段に予め記憶されている表出閾値集合の
中から特定の表出閾値を読み出して、前記表出スタイル
記憶手段にセットするか、もしくは予め規定されたいく
つかの変換式の中から特定の変換式を適応して前記表出
スタイル記憶手段に記憶されている表出閾値を直接書き
換える表出スタイル変更手段とを備えたことを特徴とす
る感情表出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5251462A JP3018865B2 (ja) | 1993-10-07 | 1993-10-07 | 感情表出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5251462A JP3018865B2 (ja) | 1993-10-07 | 1993-10-07 | 感情表出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07104778A JPH07104778A (ja) | 1995-04-21 |
JP3018865B2 true JP3018865B2 (ja) | 2000-03-13 |
Family
ID=17223187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5251462A Expired - Fee Related JP3018865B2 (ja) | 1993-10-07 | 1993-10-07 | 感情表出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3018865B2 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6337552B1 (en) * | 1999-01-20 | 2002-01-08 | Sony Corporation | Robot apparatus |
JP3337588B2 (ja) * | 1995-03-31 | 2002-10-21 | 松下電器産業株式会社 | 音声応答装置 |
JPH0916800A (ja) * | 1995-07-04 | 1997-01-17 | Fuji Electric Co Ltd | 顔画像付き音声対話システム |
JPH0973382A (ja) * | 1995-09-04 | 1997-03-18 | Fujitsu Ltd | コンピュータシステム |
JP3595041B2 (ja) * | 1995-09-13 | 2004-12-02 | 株式会社東芝 | 音声合成システムおよび音声合成方法 |
KR19980065482A (ko) * | 1997-01-10 | 1998-10-15 | 김광호 | 스피킹 스타일을 변경하는 음성 합성 방법 |
JP3159242B2 (ja) * | 1997-03-13 | 2001-04-23 | 日本電気株式会社 | 感情生成装置およびその方法 |
JP3353651B2 (ja) * | 1997-06-23 | 2002-12-03 | 松下電器産業株式会社 | エージェントインタフェース装置 |
JPH11161298A (ja) * | 1997-11-28 | 1999-06-18 | Toshiba Corp | 音声合成方法及び装置 |
JP3681145B2 (ja) * | 1997-12-11 | 2005-08-10 | 株式会社東芝 | 発話装置及び発話方法 |
JPH11237971A (ja) * | 1998-02-23 | 1999-08-31 | Nippon Telegr & Teleph Corp <Ntt> | 音声応答装置 |
JP3792882B2 (ja) * | 1998-03-17 | 2006-07-05 | 株式会社東芝 | 感情生成装置及び感情生成方法 |
JP3513397B2 (ja) * | 1998-07-29 | 2004-03-31 | 日本電信電話株式会社 | キャラクタのアニメーション化実現方法及びそのプログラムを記録した記録媒体 |
WO2000067959A1 (fr) * | 1999-05-10 | 2000-11-16 | Sony Corporation | Dispositif robotique et procede de commande associe |
US6519506B2 (en) | 1999-05-10 | 2003-02-11 | Sony Corporation | Robot and control method for controlling the robot's emotions |
JP3514372B2 (ja) * | 1999-06-04 | 2004-03-31 | 日本電気株式会社 | マルチモーダル対話装置 |
CN1151016C (zh) | 1999-11-30 | 2004-05-26 | 索尼公司 | 机器人设备及其控制方法,和机器人性格判别方法 |
JP3592194B2 (ja) * | 2000-01-21 | 2004-11-24 | 株式会社リコー | 映像内容説明文生成方法、映像内容説明文生成装置及び記録媒体 |
JP2001209820A (ja) * | 2000-01-25 | 2001-08-03 | Nec Corp | 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体 |
JP2001277163A (ja) * | 2000-04-03 | 2001-10-09 | Sony Corp | ロボットの制御装置及び制御方法 |
JP2002268699A (ja) * | 2001-03-09 | 2002-09-20 | Sony Corp | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 |
JP2002304188A (ja) * | 2001-04-05 | 2002-10-18 | Sony Corp | 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体 |
JP2003233388A (ja) * | 2002-02-07 | 2003-08-22 | Sharp Corp | 音声合成装置および音声合成方法、並びに、プログラム記録媒体 |
KR100564740B1 (ko) * | 2002-12-14 | 2006-03-27 | 한국전자통신연구원 | 화행 정보를 이용한 음성 합성 방법 및 장치 |
WO2006030533A1 (ja) * | 2004-09-17 | 2006-03-23 | National Institute Of Advanced Industrial Science And Technology | 生理的刺激飽和手段を備えた模擬生物装置 |
JP2007264284A (ja) * | 2006-03-28 | 2007-10-11 | Brother Ind Ltd | 感情付加装置、感情付加方法及び感情付加プログラム |
JP2007271655A (ja) * | 2006-03-30 | 2007-10-18 | Brother Ind Ltd | 感情付加装置、感情付加方法及び感情付加プログラム |
JP4974788B2 (ja) | 2007-06-29 | 2012-07-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、及び記憶媒体 |
KR101594057B1 (ko) | 2009-08-19 | 2016-02-15 | 삼성전자주식회사 | 텍스트 데이터의 처리 방법 및 장치 |
JP2016090776A (ja) * | 2014-11-04 | 2016-05-23 | トヨタ自動車株式会社 | 応答生成装置、応答生成方法およびプログラム |
CN105654949B (zh) * | 2016-01-07 | 2019-05-07 | 北京云知声信息技术有限公司 | 一种语音唤醒方法及装置 |
-
1993
- 1993-10-07 JP JP5251462A patent/JP3018865B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07104778A (ja) | 1995-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3018865B2 (ja) | 感情表出装置 | |
US6513011B1 (en) | Multi modal interactive system, method, and medium | |
JP3950802B2 (ja) | 顔情報送信システム、顔情報送信方法、顔情報送信プログラム、及びコンピュータ読取可能な記録媒体 | |
CN107077840B (zh) | 语音合成装置和方法 | |
JP6774018B2 (ja) | 対話装置 | |
WO2000038808A1 (en) | Information processor, portable device, electronic pet device, recorded medium on which information processing procedure is recorded, and information processing method | |
JP7192222B2 (ja) | 発話システム | |
CN105247609A (zh) | 利用言语合成对话语进行响应的技术 | |
CN107871502A (zh) | 语音对话系统以及语音对话方法 | |
KR20190046371A (ko) | 얼굴 표정 생성 장치 및 방법 | |
KR20210117827A (ko) | 인공지능을 활용한 음성 서비스 제공 시스템 및 제공 방법 | |
JP2004021121A (ja) | 音声対話制御装置 | |
JP2002041084A (ja) | 対話処理システム | |
JP2009151314A (ja) | 情報処理装置及び情報処理方法 | |
JP7496128B2 (ja) | 仮想人物対話システム、映像生成方法、映像生成プログラム | |
CN110908576A (zh) | 车辆系统/车辆应用显示方法、装置及电子设备 | |
JP6787472B2 (ja) | 対話制御装置、対話制御方法及びプログラム | |
JP7020390B2 (ja) | 制御装置、音声対話装置、音声認識サーバ及びプログラム | |
JP2018132623A (ja) | 音声対話装置 | |
US20190392814A1 (en) | Voice dialogue method and voice dialogue apparatus | |
JP2001188788A5 (ja) | ||
CN111968632A (zh) | 通话语音获取方法、装置、计算机设备和存储介质 | |
JPWO2020089961A1 (ja) | 音声処理装置、およびプログラム | |
JP7462995B1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP6064718B2 (ja) | 情報処理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080107 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090107 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |