JP2018147288A - 対話破壊特徴量抽出装置、対話破壊モデル学習装置、対話破壊力推定装置、対話破壊特徴量抽出方法、プログラム - Google Patents
対話破壊特徴量抽出装置、対話破壊モデル学習装置、対話破壊力推定装置、対話破壊特徴量抽出方法、プログラム Download PDFInfo
- Publication number
- JP2018147288A JP2018147288A JP2017042710A JP2017042710A JP2018147288A JP 2018147288 A JP2018147288 A JP 2018147288A JP 2017042710 A JP2017042710 A JP 2017042710A JP 2017042710 A JP2017042710 A JP 2017042710A JP 2018147288 A JP2018147288 A JP 2018147288A
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- feature
- destruction
- word
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
(参考非特許文献1:東中竜一郎,船越孝太郎,“Project Next NLP対話タスクにおける雑談対話データの収集と対話破綻アノテーション”,人工知能学会 言語・音声理解と対話処理研究会 第72回,pp.45-50, 2014.)
こうした対話を破綻させる可能性のある発話を実際に発話する前に予め検出し、出力を抑制することができれば、雑談対話システムにおける対話の継続が容易になると考えられる。
まず、各実施形態で用いる用語について簡単に説明する。
対話とは、過去N個(Nは1以上の整数)の一連の発話のことをいう。つまり、発話とはユーザとシステムによる発話の時系列のことである。
対話の破綻に影響を及ぼす要因は様々あり、各要因に関連する特徴量も多様である。以下、対話が破綻しているか否かの特徴を示す特徴量について説明していく。その際、各特徴量の定義に加えて、各特徴量がどのような観点で対話破壊力に影響しているかについても説明する。なお、一般に、特徴量は、対話に含まれるいくつかの発話から抽出されるものであり、ベクトルとして表現される。
現在の対話システムでは、ユーザの発話と関係のない話題の発話を生成してしまい、対話を破綻させてしまう場合がある。また逆に、1つの話題に固執し何度も同じ内容や話題の発話を繰り返すことで、対話を破綻させてしまう場合もある。
単語組合せ特徴量とは、対話内の最後の発話とそれ以外の発話との間または最後の発話内において共起している単語Ngram、単語クラスNgram、単語集合、述語項構造のいずれかの組合せ(以下、単語組合せという)の出現結果を要素とするBag-of-wordsベクトルとして表現される特徴量である。
(対話例1)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
ただし、記号“/”は単語の区切りを表す。
例えば、対話例1において、ユーザ発話からは「こんにちは」「。」「旅行」「は」「好き」「です」「か」「?」の8個の単語が得られ、システム発話からは「はい」「。」「先日」「京都」「に」「行き」「まし」「た」「。」の9個の単語が得られた場合、単語Ngram(N=1)の組合せとして、ユーザ発話とシステム発話の間で「はい-こんにちは」「はい-。」「はい-旅行」…「。-?」の9x8=72通りの組合せが得られ、システム発話内で9C2=9x8/2=36通りの組合せが得られる。つまり、対話内の最後の発話とそれ以外の発話との間において共起している単語Ngramの組合せが72通り、最後の発話内において共起している単語Ngramの組合せが36通り得られる。
発話間類似度特徴量とは、対話内の最後の発話とそれ以外の発話がどの程度似ているかを表す特徴量であり、後述する類似度のうち、1つ以上の類似度を要素として並べたベクトルである。ここで用いる各類似度は、発話と発話の間の類似の程度を測るものである。
(参考非特許文献2:T. Mikolov, K. Chen, G. Corrado, J. Dean, “Efficient Estimation of Word Representations in Vector Space”, arXiv preprint arXiv:1301.3781, 2013.)
(参考非特許文献3:M. J. Kusner, Y. Sun, N. I. Kolkin, K. Q. Weinberger, “From Word Embeddings To Document Distances”, Proceedings of the 32nd International Conference on Machine Learning (ICML-15), pp.957-966, 2015.)
(参考非特許文献4:平尾努,磯崎秀樹,須藤克仁,Duh Kevin,塚田元,永田昌明,“語順の相関に基づく機械翻訳の自動評価法”,自然言語処理,vol.21, no.3, pp.421-444, 2014.)
(参考非特許文献5:池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦,“日本語語彙大系”,岩波書店,1997.)
(対話例2)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
例えば、対話例2において、内容語(名詞・動詞・形容詞・独立詞など)に限定したword2vecの平均ベクトル間距離を考える。ユーザ発話からは、「こんにちは」「旅行」「好き」の3個の内容語が得られ、システム発話からは「はい」「先日」「京都」「行き」の4個の内容語が得られる。word2vecを用いて得られた単語をベクトルへ変換する。例えば、3次元のベクトルとして、「こんにちは」は(0.1,0.7,0.2)、「旅行」は(0.8,0.1,0.1)、「好き」は(0.3,0.4,0.3)、「はい」は(0.2,0.6,0.2)、「先日」は(0.1,0.1,0.8)、「京都」は(0.6,0.3,0.1)、「行き」は(0.7,0.2,0.1)が得られたとする。このとき、ユーザ発話の平均ベクトルは((0.1,0.7,0.2)+(0.8,0.1,0.1)+(0.3,0.4,0.3))/3 = (0.4,0.4,0.2)、システム発話の平均ベクトルは((0.2,0.6,0.2)+(0.1,0.1,0.8)+(0.6,0.3,0.1)+(0.7,0.2,0.1))/4 = (0.4,0.3,0.3)となる。これらのコサイン類似度(≒0.97)などを計算することで、上記ユーザ発話1と上記システム発話2との間の類似度を得ることができる。こうして得られた類似度を1つ以上並べたベクトル(0.97,…)が発話間類似度特徴量となる。
話題繰り返し数特徴量とは、対話内での話題の繰り返し数を表す特徴量である。ここで、話題とは、焦点となっている単語、焦点となっている述語項構造のことである。
(対話例3)
1 システム: こんにちは。熱中症に気をつけて。
2 ユーザ: はい。ありがとう。あなたも気を付けて。
3 システム: 熱中症に気をつけないんですか?
4 ユーザ: 小まめに水を飲んだりして、気を付けていますよ。
5 システム:熱中症に気をつけたいんでしょう?
対話例3の場合、システムは「熱中症」という単語や「熱中症に気をつける」という述語項構造を繰り返して発話している。このとき、最後の発話である5のシステム発話における話題繰り返し数特徴量は3として計算する。
対話行為特徴量とは、対話に含まれる発話が表す対話行為から生成される特徴量である。ここで、対話行為とは、質問・挨拶・自己開示・賞賛・謝罪などのユーザ等の発話意図のことである(参考非特許文献6)。対話行為は、後述するようにBag-of-wordsベクトルとして表すことができる。
(参考非特許文献6:T. Meguro, Y. Minami, R. Higashinaka, K. Dohsaka, “Controlling listening-oriented dialogue using partially observable Markov decision processes”, Proceedings of the 23rd international conference on computational linguistics. Association for Computational Linguistics (COLING 10), pp.761-769, 2010.)
対話行為列特徴量とは、対話に含まれる各発話が表す対話行為を推定した結果(以下、推定対話行為という)を要素とするベクトルとして表現される特徴量である。推定結果(推定対話行為)はBag-of-wordsベクトルとして表すことができる。具体的には、各発話の推定対話行為に対応するBag-of-wordsベクトルは、1bestの対話行為の値を1、それ以外の対話行為の値を0とする1-of-Kベクトルとしたり、推定された対話行為らしさを表す確率分布(確率分布ベクトル)としたりすることで表現できる。なお、対話行為を推定する最後の発話を含み発話は、最後の発話を含む直前のM個の発話である。なお、Mは1〜4程度が好ましい。
予測対話行為特徴量とは、対話に含まれる発話から最後の発話が持つべき対話行為を予測した結果(以下、予測対話行為という)を表す予測結果ベクトル、予測結果ベクトルと最後の発話が表す対話行為を推定した結果を表す推定結果ベクトルを並べたベクトル、予測結果ベクトルと推定結果ベクトルの差分ベクトル、予測結果ベクトルと推定結果ベクトルの1bestが一致しているか否かの真偽値のうち、いずれか1つ以上からなる特徴量である。予測結果ベクトルと推定結果ベクトルの1bestが一致するとは、各ベクトルの要素のうち最大となる要素の次元が一致することをいう。
文字列共起特徴量とは、対話内の最後の発話とそれ以外の発話との間において共起している文字列Ngram(ただし、Nは3以上の整数)の組合せの出現結果を要素とするBag-of-wordsベクトルとして表現される特徴量である。
語尾の文字列は対話行為を表すことが多いため、それらの共起を見ることにより、対話行為の共起関係をとらえることができる。
(対話例4)
1 ユーザ: どこから来たんですか?
2 システム: フォレストアドベンチャーと竹田城跡なら、どちらに関心がありますか?
例えば、N=3として文字列Ngramを抽出すると、ユーザ発話からは「どこか」「こから」「から来」…「すか?」が得られ、システム発話からは「フォレ」「ォレス」…「すか?」が得られる。ここで、特に語尾に着目して共起を取ると、「すか?-すか?」という組合せが得られる。
(3-1)質問タイプ特徴量
質問タイプ特徴量とは、対話内の最後の発話の直前の発話が質問である場合、推定される質問タイプを表す特徴量である。質問タイプの例として、話者の具体的な嗜好や経験を問うパーソナリティ質問、具体的な事物を問うファクトイド質問、(ニュースなど)ある事象の5W1Hを問う質問などが挙げられる。また、“レストランの場所”のように、話題に紐付いた形で質問タイプを定義してもよい。
質問クラス特徴量とは、対話内の最後の発話の直前の発話が質問である場合、質問が回答に要求していると推定される単語クラスを表すベクトル、回答(最後の発話)に含まれる単語クラスを表すベクトル、それらの差分ベクトル、それらの2つのベクトルが表す単語クラスが一致しているか否かを表す真偽値のうち、いずれか1つ以上からなる特徴量である。推定される単語クラスを表すベクトル、回答に含まれる単語クラスを表すベクトルは、確率分布ベクトルや1-of-Kベクトルとして表現することができる。
(対話例5)
1 ユーザ: どこから来たんですか?
2 システム:京都から来ました
例えば、対話例5において、ユーザ発話が回答に要求している単語クラスが「場所」であると推定され、システム発話に「場所」の単語クラスが含まれていると推定された場合を考える。単語クラスの集合を固有物、場所、数量としたとき、ユーザ発話から得られる1-of-Kベクトル(つまり、質問が回答に要求していると推定される単語クラスを表すベクトル)は(0,1,0)となり、システム発話から得られる1-of-Kベクトル(つまり、回答(最後の発話)に含まれる単語クラスを表すベクトル)は(0,1,0)となる。例えば、これらのベクトルを結合したベクトルを質問クラス特徴量とすると、ベクトル(0,1,0,0,1,0)が質問クラス特徴量として得られることになる。
(4-1)パープレキシティ特徴量
パープレキシティ特徴量とは、対話に含まれる各発話について言語モデルを用いて計算したパープレキシティを表す特徴量である。パープレキシティは、単語間の連なりの自然さを表現しており、文法的に不自然な発話を検出することができる。また、言語モデルは、単語Ngramや文字Ngram(Nは1〜7程度が多い)を利用したもの、Recurrent Neural Networkを利用したものが知られている。パープレキシティを計算できるものであればどのような言語モデルを用いてもよい。パープレキシティ特徴量は、パープレキシティの値そのものを直接特徴量とする方法のほか、適当な個数に量子化した1-of-Kベクトルを特徴量としてもよい。
単語特徴量とは、対話に含まれる各発話の単語N-gram(Nは1〜5程度)を並べたBag-of-wordsベクトルとして表現される特徴量である。
単語特徴量を利用することにより、ある対話システムが出力しやすい誤りパターンをとらえることが可能になる。
(対話例6)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
例えば、対話例6において、ユーザ発話からは、「こんにちは」「。」「旅行」「は」「好き」「です」「か」「?」の8個の単語が得られ、システム発話からは「はい」「。」「先日」「京都」「に」「行き」「まし」「た」「。」の9個の単語が得られた場合、単語Ngram(N=1)のBag-of-wordsベクトルは、ユーザ発話からは「こんにちは」「。」「旅行」「は」「好き」「です」「か」「?」に対応する次元の要素が1、それ以外が0となるベクトルが単語特徴量として得られる。一方、システム発話からは「はい」「。」「先日」「京都」「に」「行き」「まし」「た」「。」に対応する次元の要素が1、それ以外が0となるベクトルが単語特徴量として得られる。
単語クラス特徴量とは、対話に含まれる各発話の単語に対応する単語クラスを並べたBag-of-classesベクトルとして表現される特徴量である。単語クラスとは、その単語のおおまかな意味を表すものである。
(対話例7)
1 ユーザ: どこから来たんですか?
2 システム: 京都から来ました
例えば、対話例7において、単語クラスを人名、場所、金額に限定した場合を考える。このとき、ユーザ発話には単語クラスに変換可能な単語が含まれていないため、(0,0,0)が単語クラス特徴量として得られる。一方、システム発話には「場所」の単語クラスが含まれていると推定されるため、(0,1,0)が単語クラス特徴量として得られる。
単語ベクトル特徴量とは、対話に含まれる各発話の単語N-gram(Nは1〜5程度)を表すベクトルから生成されるベクトルとして表現される特徴量である。例えば、重み付き平均や要素ごとの掛け合わせを用いて生成することができる。
(対話例8)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
例えば、対話例8において、内容語(名詞・動詞・形容詞・独立詞など)に限定したword2vecの平均ベクトルを単語ベクトル特徴量として考える。ユーザ発話からは、「こんにちは」「旅行」「好き」の3個の内容語が得られ、システム発話からは、「はい」「先日」「京都」「行き」の4個の内容語が得られる。word2vecを用いて得られた単語をベクトルへ変換する。例えば、3次元のベクトルとして、「こんにちは」は(0.1,0.7,0.2)、「旅行」は(0.8,0.1,0.1)、「好き」は(0.3,0.4,0.3)、「はい」は(0.2,0.6,0.2)、「先日」は(0.1,0.1,0.8)、「京都」は(0.6,0.3,0.1)、「行き」は(0.7,0.2,0.1)が得られたとする。このとき、ユーザ発話の平均ベクトル(単語ベクトル特徴量)は、((0.1,0.7,0.2)+(0.8,0.1,0.1)+(0.3,0.4,0.3))/3 = (0.4,0.4,0.2)、システム発話の平均ベクトル(単語ベクトル特徴量)は((0.2,0.6,0.2)+(0.1,0.1,0.8)+(0.6,0.3,0.1)+(0.7,0.2,0.1))/4 = (0.4,0.3,0.3)となる。
文長特徴量とは、対話内の最後の発話の単語長および文字長を表す特徴量である。
現在の対話システムでは、ユーザ発話の内容とシステム発話の内容との一貫性を誤りなく推定することは困難である。そのため、システム発話が長ければ長いほど、無関係な部分が含まれる可能性が多くなってしまうという問題がある。これを対話破壊力の推定に反映させるため、文長特徴量を用いることができる。
例えば、対話内の最後の発話が“買い物は一緒が楽しいですね”である場合、単語長は7、文字長は13となり、文長特徴量は(7,13)となる。
ターン数特徴量とは、対話開始からの経過ターン数を表す特徴量である。
これは、いずれの対話システムも対話の冒頭部分では比較的適切な発話を生成しているものの、対話が経過するごとに不適切な発話の割合が増えていく傾向がみられるという特徴を表すためのものである。
例えば、図5の入力にある対話の場合、ターン数は5であるため、ターン数特徴量は(5)となる。
(5-1)頻出単語列特徴量
頻出単語列特徴量とは、対話内に所定の頻度T以上出現する単語Ngramの文字列を要素とする特徴量である。ここで、Nは4〜7程度、Tは10以上が好ましい。
[対話破壊モデル学習装置100]
以下、図1〜図2を参照して対話破壊モデル学習装置100について説明する。図1に示すように対話破壊モデル学習装置100は、対話破壊特徴量抽出部110、モデル生成部120、記録部190を含む。記録部190は、対話破壊モデル学習装置100の処理に必要な情報を適宜記録する構成部である。例えば、学習中の対話破壊モデル(対話破壊モデルパラメータ)を記録する。
ここでの発話間類似度特徴量は、単語コサイン距離以外の類似度をベクトルの要素とする。
この組合せは、単語特徴量、単語クラス特徴量、単語組合せ特徴量、頻出単語列特徴量の4つの特徴量のうち、少なくともいずれか1つの特徴量を含まない。例えば、対話行為特徴量、発話間類似度特徴量に加えて、単語特徴量、単語クラス特徴量、単語組合せ特徴量の3つを含む組合せは対話破壊特徴量として適切であるが、対話行為特徴量、発話間類似度特徴量に加えて、単語特徴量、単語クラス特徴量、単語組合せ特徴量、頻出単語列特徴量の4つすべてを含む組合せは適切ではない。したがって、この組合せを用いると、特徴量数を押さえつつ、対話行為の不自然な遷移による破綻と話題の急激な遷移による破綻を効果的に推定することが可能になる。
この組合せを用いると、特徴量数を押さえつつ、対話行為の不自然な遷移による破綻、話題の急激な遷移による破綻、長過ぎる発話による無関係な話題の混入による破綻を効果的に推定することが可能になる。つまり、2)よりも好ましい特徴を備えた組合せになる。
この組合せを用いると、対話開始時の破綻しにくさを反映しかつ特徴量数を押さえつつ、対話行為の不自然な遷移による破綻、話題の急激な遷移による破綻、長過ぎる発話による無関係な話題の混入による破綻を効果的に推定することが可能になる。つまり、3)よりも好ましい特徴を備えた組合せになる。
この組合せは、4)の組合せをより制限したものになっている。
この組合せは、5)の組合せをより制限したものになっている。
この組合せを用いると、対話開始時の破綻しにくさ及び発話自体の構文の自然さを反映しかつ特徴量数を押さえつつ、対話行為の不自然な遷移による破綻、話題の急激な遷移による破綻、長過ぎる発話による無関係な話題の混入による破綻を効果的に推定することが可能になる。つまり、4)よりも好ましい特徴を備えた組合せになる。
この組合せは、シナリオに基づいて動作する対話システムの固有の振る舞いを捉えるために頻出単語列特徴量を、効率的な話題遷移を捉えるために単語組合せ特徴量を利用する。
少なくとも、単語特徴量、単語クラス特徴量のいずれかを特徴量として含むことにより、この組合せはデータ量を十分に確保できる場合により性能を高めることが可能となる。
以下、図3〜図4を参照して対話破壊力推定装置200について説明する。図3に示すように対話破壊力推定装置200は、対話破壊特徴量抽出部110、対話破壊力計算部220を含む。
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
Claims (15)
- Jを1以上の整数、第j種特徴量(1≦j≦J)を対話が破綻しているか否かの特徴を示す特徴量とし、
一連の発話からなる対話から、前記第j種特徴量(1≦j≦J)の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出部と
を含む対話破壊特徴量抽出装置であって、
前記対話破壊特徴量抽出部は、1≦j≦Jを満たす各jについて、前記対話から前記第j種特徴量を計算する第j種特徴量計算部を含み、
頻出単語列特徴量を、対話内に所定の頻度以上出現する単語Ngramの文字列を要素とする特徴量、
発話間類似度特徴量を、対話内の最後の発話とそれ以外の発話がどの程度似ているかを表す特徴量、
文長特徴量を、対話内の最後の発話の単語長および文字長を表す特徴量、
ターン数特徴量を、対話開始からの経過ターン数を表す特徴量、
単語ベクトル特徴量を、対話に含まれる各発話の単語N-gramを表すベクトルから生成されるベクトルとして表現される特徴量、
質問タイプ特徴量を、対話内の最後の発話の直前の発話が質問である場合、推定される質問タイプを表す特徴量、
質問クラス特徴量を、対話内の最後の発話の直前の発話が質問である場合、質問が回答に要求していると推定される単語クラスを表すベクトル、最後の発話に含まれる単語クラスを表すベクトル、それらの差分ベクトル、それらの2つのベクトルが表す単語クラスが一致しているか否かを表す真偽値のうち、いずれか1つ以上からなる特徴量、
話題繰り返し数特徴量を、対話内での話題の繰り返し数を表す特徴量とし、
前記対話破壊特徴量は、頻出単語列特徴量、発話間類似度特徴量、文長特徴量、ターン数特徴量、単語ベクトル特徴量、質問タイプ特徴量、質問クラス特徴量、話題繰り返し数特徴量のうち、いずれか1つ以上の特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出装置。 - Jを1以上の整数、第j種特徴量(1≦j≦J)を対話が破綻しているか否かの特徴を示す特徴量とし、
一連の発話からなる対話から、前記第j種特徴量(1≦j≦J)の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出部と
を含む対話破壊特徴量抽出装置であって、
前記対話破壊特徴量抽出部は、1≦j≦Jを満たす各jについて、前記対話から前記第j種特徴量を計算する第j種特徴量計算部を含み、
対話行為特徴量を、対話に含まれる発話が表す対話行為から生成される特徴量、
発話間類似度特徴量を、対話内の最後の発話とそれ以外の発話がどの程度似ているかを表す特徴量、
単語特徴量を、対話に含まれる各発話の単語N-gramを並べたBag-of-wordsベクトルとして表現される特徴量、
単語クラス特徴量を、対話に含まれる各発話の単語に対応する単語クラスを並べたBag-of-classesベクトルとして表現される特徴量、
単語組合せ特徴量を、対話内の最後の発話とそれ以外の発話との間または最後の発話内において共起している単語Ngram、単語クラスNgram、単語集合、述語項構造のいずれかの組合せの出現結果を要素とするBag-of-wordsベクトルとして表現される特徴量、
頻出単語列特徴量を、対話内に所定の頻度以上出現する単語Ngramの文字列を要素とする特徴量とし、
前記対話破壊特徴量は、対話行為特徴量、発話間類似度特徴量を含み、単語特徴量、単語クラス特徴量、単語組合せ特徴量、頻出単語列特徴量のうち少なくともいずれか1つの特徴量を含まない組合せであることを特徴とする対話破壊特徴量抽出装置。 - 請求項2に記載の対話破壊特徴量抽出装置であって、
文長特徴量を、対話内の最後の発話の単語長および文字長を表す特徴量とし、
前記対話破壊特徴量は、更に文長特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出装置。 - 請求項3に記載の対話破壊特徴量抽出装置であって、
ターン数特徴量を、対話開始からの経過ターン数を表す特徴量とし、
前記対話破壊特徴量は、更にターン数特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出装置。 - 請求項4に記載の対話破壊特徴量抽出装置であって、
前記対話破壊特徴量は、単語特徴量、単語クラス特徴量、単語組合せ特徴量、頻出単語列特徴量のいずれも含まない組合せであることを特徴とする対話破壊特徴量抽出装置。 - 請求項5に記載の対話破壊特徴量抽出装置であって、
文字列共起特徴量を、対話内の最後の発話とそれ以外の発話との間において共起している文字列Ngramの組合せの出現結果を要素とするBag-of-wordsベクトルとして表現される特徴量とし、
前記対話破壊特徴量は、更に文字列共起特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出装置。 - 請求項4に記載の対話破壊特徴量抽出装置であって、
パープレキシティ特徴量を、対話に含まれる各発話について言語モデルを用いて計算したパープレキシティを表す特徴量とし、
前記対話破壊特徴量は、更にパープレキシティ特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出装置。 - Jを1以上の整数、第j種特徴量(1≦j≦J)を対話が破綻しているか否かの特徴を示す特徴量とし、
一連の発話からなる対話から、前記第j種特徴量(1≦j≦J)の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出部と
を含む対話破壊特徴量抽出装置であって、
前記対話破壊特徴量抽出部は、1≦j≦Jを満たす各jについて、前記対話から前記第j種特徴量を計算する第j種特徴量計算部を含み、
発話間類似度特徴量を、対話内の最後の発話とそれ以外の発話がどの程度似ているかを表す特徴量、
頻出単語列特徴量を、対話内に所定の頻度以上出現する単語Ngramの文字列を要素とする特徴量、
対話行為特徴量を、対話に含まれる発話が表す対話行為から生成される特徴量、
文長特徴量を、対話内の最後の発話の単語長および文字長を表す特徴量、
単語組合せ特徴量を、対話内の最後の発話とそれ以外の発話との間または最後の発話内において共起している単語Ngram、単語クラスNgram、単語集合、述語項構造のいずれかの組合せの出現結果を要素とするBag-of-wordsベクトルとして表現される特徴量とし、
前記対話破壊特徴量は、発話間類似度特徴量、頻出単語列特徴量、対話行為特徴量、文長特徴量、単語組合せ特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出装置。 - Jを1以上の整数、第j種特徴量(1≦j≦J)を対話が破綻しているか否かの特徴を示す特徴量とし、
一連の発話からなる対話から、前記第j種特徴量(1≦j≦J)の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出部と
を含む対話破壊特徴量抽出装置であって、
前記対話破壊特徴量抽出部は、1≦j≦Jを満たす各jについて、前記対話から前記第j種特徴量を計算する第j種特徴量計算部を含み、
対話行為特徴量を、対話に含まれる発話が表す対話行為から生成される特徴量、
発話間類似度特徴量を、対話内の最後の発話とそれ以外の発話がどの程度似ているかを表す特徴量、
単語特徴量を、対話に含まれる各発話の単語N-gramを並べたBag-of-wordsベクトルとして表現される特徴量、
単語クラス特徴量を、対話に含まれる各発話の単語に対応する単語クラスを並べたBag-of-classesベクトルとして表現される特徴量とし、
前記対話破壊特徴量は、対話行為特徴量、発話間類似度特徴量を含み、更に単語特徴量、単語クラス特徴量のうちいずれか1つ以上の特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出装置。 - 請求項1ないし9のいずれか1項に記載の対話破壊特徴量抽出装置であって、
前記対話破壊特徴量が発話間類似度特徴量を含む場合、当該発話間類似度特徴量は、word2vecの平均ベクトル間距離を用いて計算される類似度、WordMoversDistance距離を用いて計算される類似度、BLEUスコアを用いて計算される類似度、ROUGEスコアを用いて計算される類似度のいずれか1つ以上の類似度を要素として並べたベクトルであることを特徴とする対話破壊特徴量抽出装置。 - 請求項2ないし9のいずれか1項に記載の対話破壊特徴量抽出装置であって、
対話行為列特徴量を、対話に含まれる各発話が表す対話行為を推定した結果を要素とするベクトルとして表現される特徴量、
予測対話行為特徴量を、対話に含まれる発話から最後の発話が持つべき対話行為を予測した結果を表す予測結果ベクトル、前記予測結果ベクトルと前記最後の発話が表す対話行為を推定した結果を表す推定結果ベクトルを並べたベクトル、前記予測結果ベクトルと前記推定結果ベクトルの差分ベクトル、前記予測結果ベクトルと前記推定結果ベクトルの1bestが一致しているか否かの真偽値のうち、いずれか1つ以上からなる特徴量とし、
前記対話行為特徴量は、対話行為列特徴量または予測対話行為特徴量であることを特徴とする対話破壊特徴量抽出装置。 - 請求項1ないし11のいずれか1項に記載の対話破壊特徴量抽出装置を用いて、一連の発話からなる対話から、前記対話の対話破壊特徴量を抽出する対話破壊特徴量抽出部と、
前記対話破壊特徴量と前記対話が破綻しているか否かを示す正解データの組から、対話が破綻しているか否かの程度を示す対話破壊力を推定するために用いる対話破壊モデルを生成するモデル生成部と
を含む対話破壊モデル学習装置。 - 一連の発話からなる対話から、前記対話が破綻しているか否かの特徴を示す特徴量の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出部と、
請求項12に記載の対話破壊モデル学習装置が生成した対話破壊モデルを用いて、前記対話破壊特徴量から、前記対話が破綻しているか否かの程度を示す対話破壊力を計算する対話破壊力計算部と
を含む対話破壊力推定装置。 - Jを1以上の整数、第j種特徴量(1≦j≦J)を対話が破綻しているか否かの特徴を示す特徴量とし、
対話破壊特徴量抽出装置が、一連の発話からなる対話から、前記第j種特徴量(1≦j≦J)の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出ステップと
を含む対話破壊特徴量抽出方法であって、
前記対話破壊特徴量抽出ステップは、1≦j≦Jを満たす各jについて、前記対話から前記第j種特徴量を計算する第j種特徴量計算ステップを含み、
頻出単語列特徴量を、対話内に所定の頻度以上出現する単語Ngramの文字列を要素とする特徴量、
発話間類似度特徴量を、対話内の最後の発話とそれ以外の発話がどの程度似ているかを表す特徴量、
文長特徴量を、対話内の最後の発話の単語長および文字長を表す特徴量、
ターン数特徴量を、対話開始からの経過ターン数を表す特徴量、
単語ベクトル特徴量を、対話に含まれる各発話の単語N-gramを表すベクトルから生成されるベクトルとして表現される特徴量、
質問タイプ特徴量を、対話内の最後の発話の直前の発話が質問である場合、推定される質問タイプを表す特徴量、
質問クラス特徴量を、対話内の最後の発話の直前の発話が質問である場合、質問が回答に要求していると推定される単語クラスを表すベクトル、最後の発話に含まれる単語クラスを表すベクトル、それらの差分ベクトル、それらの2つのベクトルが表す単語クラスが一致しているか否かを表す真偽値のうち、いずれか1つ以上からなる特徴量、
話題繰り返し数特徴量を、対話内での話題の繰り返し数を表す特徴量とし、
前記対話破壊特徴量は、頻出単語列特徴量、発話間類似度特徴量、文長特徴量、ターン数特徴量、単語ベクトル特徴量、質問タイプ特徴量、質問クラス特徴量、話題繰り返し数特徴量のうち、いずれか1つ以上の特徴量を含む組合せであることを特徴とする対話破壊特徴量抽出方法。 - 請求項1ないし11のいずれか1項に記載の対話破壊特徴量抽出装置、請求項12に記載の対話破壊モデル学習装置、請求項13に記載の対話破壊力推定装置のいずれかの装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042710A JP6630304B2 (ja) | 2017-03-07 | 2017-03-07 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042710A JP6630304B2 (ja) | 2017-03-07 | 2017-03-07 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019140495A Division JP6788077B2 (ja) | 2019-07-31 | 2019-07-31 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018147288A true JP2018147288A (ja) | 2018-09-20 |
JP6630304B2 JP6630304B2 (ja) | 2020-01-15 |
Family
ID=63592000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017042710A Active JP6630304B2 (ja) | 2017-03-07 | 2017-03-07 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6630304B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102024845B1 (ko) * | 2018-11-26 | 2019-09-24 | 서강대학교 산학협력단 | 화행 분석 장치 및 방법 |
CN111177386A (zh) * | 2019-12-27 | 2020-05-19 | 安徽商信政通信息技术股份有限公司 | 一种提案分类方法及系统 |
JP2020098534A (ja) * | 2018-12-19 | 2020-06-25 | Kddi株式会社 | 評価装置、評価方法及びプログラム |
JP2021022317A (ja) * | 2019-07-30 | 2021-02-18 | Kddi株式会社 | 分類装置、学習装置、分類方法及びプログラム |
-
2017
- 2017-03-07 JP JP2017042710A patent/JP6630304B2/ja active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102024845B1 (ko) * | 2018-11-26 | 2019-09-24 | 서강대학교 산학협력단 | 화행 분석 장치 및 방법 |
JP2020098534A (ja) * | 2018-12-19 | 2020-06-25 | Kddi株式会社 | 評価装置、評価方法及びプログラム |
JP7092653B2 (ja) | 2018-12-19 | 2022-06-28 | Kddi株式会社 | 評価装置、評価方法及びプログラム |
JP2021022317A (ja) * | 2019-07-30 | 2021-02-18 | Kddi株式会社 | 分類装置、学習装置、分類方法及びプログラム |
JP7175244B2 (ja) | 2019-07-30 | 2022-11-18 | Kddi株式会社 | 分類装置、学習装置、分類方法及びプログラム |
CN111177386A (zh) * | 2019-12-27 | 2020-05-19 | 安徽商信政通信息技术股份有限公司 | 一种提案分类方法及系统 |
CN111177386B (zh) * | 2019-12-27 | 2021-05-14 | 安徽商信政通信息技术股份有限公司 | 一种提案分类方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
JP6630304B2 (ja) | 2020-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cahn | CHATBOT: Architecture, design, & development | |
Guzmán et al. | Metrics for Modeling Code-Switching Across Corpora. | |
KR102388042B1 (ko) | 대화 시스템 및 그것을 위한 컴퓨터 프로그램 | |
Ralston et al. | A voice interactive multilingual student support system using IBM Watson | |
US12210832B2 (en) | Method of responding based on sentence paraphrase recognition for dialog system | |
CN1321401C (zh) | 语音识别设备、语音识别方法、会话控制设备以及会话控制方法 | |
US8204751B1 (en) | Relevance recognition for a human machine dialog system contextual question answering based on a normalization of the length of the user input | |
Kumar et al. | A review on chatbot design and implementation techniques | |
US7949531B2 (en) | Conversation controller | |
US7949532B2 (en) | Conversation controller | |
CN110728997A (zh) | 一种基于情景感知的多模态抑郁症检测方法和系统 | |
CN113239666B (zh) | 一种文本相似度计算方法及系统 | |
JP6630304B2 (ja) | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム | |
El Janati et al. | Adaptive e-learning AI-powered chatbot based on multimedia indexing | |
Schmitt et al. | Towards adaptive spoken dialog systems | |
CN115497465A (zh) | 语音交互方法、装置、电子设备和存储介质 | |
Fernau et al. | Towards Automated Dialog Personalization using MBTI Personality Indicators. | |
Hara et al. | Estimation Method of User Satisfaction Using N-gram-based Dialog History Model for Spoken Dialog System. | |
JP6788077B2 (ja) | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム | |
JP2014224857A (ja) | 対話制御学習装置と対話制御装置とそれらの方法とプログラム | |
JP6962424B2 (ja) | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム | |
JP7212888B2 (ja) | 自動対話装置、自動対話方法、およびプログラム | |
Elmadany et al. | Improving dialogue act classification for spontaneous Arabic speech and instant messages at utterance level | |
CN118378623A (zh) | 一种基于跨模态大模型的全局视觉引导图像描述生成方法 | |
US20240126991A1 (en) | Automated interaction processing systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20170314 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190618 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6630304 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |