JP2019128654A - System, method, and program for processing information - Google Patents
System, method, and program for processing information Download PDFInfo
- Publication number
- JP2019128654A JP2019128654A JP2018008209A JP2018008209A JP2019128654A JP 2019128654 A JP2019128654 A JP 2019128654A JP 2018008209 A JP2018008209 A JP 2018008209A JP 2018008209 A JP2018008209 A JP 2018008209A JP 2019128654 A JP2019128654 A JP 2019128654A
- Authority
- JP
- Japan
- Prior art keywords
- output
- user
- information
- voice
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】利用者に違和感を与えないように情報を提供すること。【解決手段】本発明の一態様は、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを出力部に出力させる応答部と、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御する制御部と、を備える情報処理システムである。【選択図】図1PROBLEM TO BE SOLVED: To provide information so as not to give a feeling of strangeness to a user. SOLUTION: One aspect of the present invention is a response unit for outputting a response content to a voice emitted by a user and specific information different from the response content to an output unit, and a voice as an input or output target. It is an information processing system including a control unit that controls an output mode of the specific information according to the degree of use of the user device. [Selection diagram] Fig. 1
Description
本発明は、情報処理システム、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program.
従来、目的地までの経路探索を行い、探索結果に応じて誘導経路を案内するナビゲーション処理中に、ユーザとの対話に基づいて、音声広告又は音声広告に係るアンケートを、音声出力手段により音声出力させる出力制御手段を備える情報処理装置が開示されている(例えば、特許文献1)。 Conventionally, during a navigation process of searching for a route to a destination and guiding a guided route according to a search result, a voice advertisement or a questionnaire related to a voice advertisement is output by voice output means based on dialogue with the user. An information processing apparatus including an output control unit is disclosed (for example, Patent Document 1).
しかしながら、従来の技術では、音声の出力が利用者に違和感を与える場合があった。 However, in the conventional technique, there are cases where the output of the sound gives the user a feeling of strangeness.
本発明は、このような事情を考慮してなされたものであり、利用者に違和感を与えないように情報を提供することができる情報処理システム、情報処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in view of such circumstances, and an object thereof is to provide an information processing system, an information processing method, and a program capable of providing information so as not to give a user a sense of incongruity. One of them.
本発明の一態様は、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを出力部に出力させる応答部と、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御する制御部と、を備える情報処理システムである。 One aspect of the present invention is a response unit that causes an output unit to output response contents for voices uttered by a user and specific information different from the response contents, and a user device for which sound is input or output It is an information processing system provided with the control part which controls the output mode of the above-mentioned specific information according to the use degree.
本発明の一態様によれば、利用者に違和感を与えないように情報を提供することができる。 According to one embodiment of the present invention, information can be provided so as not to give the user a sense of incongruity.
以下、図面を参照し、本発明の情報処理システム、情報処理方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of an information processing system, an information processing method, and a program according to the present invention will be described with reference to the drawings.
<概要(共通事項)>
情報処理システムは、一以上のプロセッサにより実現される。情報処理システムは、利用者により発せられた音声に対する応答内容と、応答内容とは異なる特定情報とを出力部に出力させる。「応答内容」は、例えば、AI(Artificial Intelligence;人工知能)や、深層学習などの機械学習されたモデルにより動作する自動応答装置が決定する情報である。「特定情報」とは、例えば、広告や、挨拶、会話のきっかけとなる発話、お知らせ(例えばレコメンドやパスワード変更の要求)等の、利用者により発せられた音声に対する応答に該当しない情報である。
<Overview (common items)>
An information processing system is implemented by one or more processors. The information processing system causes the output unit to output the response content to the voice uttered by the user and the specific information different from the response content. The “response content” is, for example, information determined by an automatic response device operating by a machine-learned model such as artificial intelligence (AI) or deep learning. The “specific information” is information that does not correspond to a response to a voice uttered by the user, such as an advertisement, a greeting, an utterance that triggers a conversation, or an announcement (for example, a request for a recommendation or a password change).
[概要(その1)]
情報処理システムは、音声が入力または出力の対象とされたユーザデバイス(例えば、マイクやスピーカ)の利用度合に応じて、特定情報の出力態様を制御する。「利用度合」とは、例えば、音声をユーザデバイスに入力した回数または頻度に基づく値、または音声をユーザデバイスに出力させた回数または頻度に基づく値である。例えば、ユーザデバイスの利用度合が高いほど、特定情報の出力量を多くする。すなわち、音声入力または出力を普段から多用するユーザには自動応答装置からの話しかけや音声広告を多く出力する。また、ユーザデバイスの利用度合が高いほど、特定情報の出力態様を利用者が聞き取りやすいように制御する。「出力態様」とは、例えば、音の大きさや、音の高低、情報が出力されるテンポである。概要(その1)については、後述する第1実施形態を中心に説明する。
[Overview (Part 1)]
The information processing system controls the output mode of the specific information in accordance with the usage degree of the user device (for example, a microphone or a speaker) to which audio is input or output. The “degree of use” is, for example, a value based on the number or frequency of voice input to the user device, or a value based on the number or frequency of voice output to the user device. For example, the output amount of the specific information is increased as the usage degree of the user device is higher. That is, a large number of talks and voice advertisements from the automatic response device are output to a user who frequently uses voice input or output. In addition, the higher the degree of use of the user device, the more control is performed so that the user can easily hear the output mode of the specific information. The “output mode” is, for example, the volume of the sound, the pitch of the sound, and the tempo at which information is output. The outline (part 1) will be described focusing on the first embodiment described later.
[概要(その2)]
情報処理システムは、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を第2出力態様に変更して、特定情報を出力部に出力させる。「第2出力態様」は、第1出力態様よりも利用者が聞き取りやすい出力態様である。すなわち、自動応答装置との対話において特定情報(例えば音声広告)のみの音量を小さくし利用者からの要望や操作に応じて音量をアップする。概要(その2)については、後述する第2実施形態を中心に説明する。
[Overview (Part 2)]
When the information processing system receives an instruction from the user after changing the output mode of the specific information to the first output mode in which the user is less likely to hear than the third output mode of the response content and causing the output unit to output The output mode of the specific information is changed to the second output mode, and the specific information is output to the output unit. The “second output mode” is an output mode that is easier for the user to hear than the first output mode. That is, the volume of only the specific information (for example, voice advertisement) is reduced in the dialogue with the automatic response device, and the volume is increased according to the request or operation from the user. The outline (No. 2) will be described focusing on a second embodiment described later.
[概要(その3)]
情報処理システムは、第1のキャラクターに応じた出力態様によって応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって特定情報を出力部に出力させる。更に、情報処理システムは、第1のキャラクターと第2のキャラクターとの会話を出力部に出力させる。「第1のキャラクター」は、例えば、日常において、利用者と対話したり、利用者の発話に対して応答したりするキャラクターである。「第2のキャラクター」は、例えば、第1のキャラクターとは異なるキャラクターであって、特定情報(例えば広告)に対応付けられたキャラクターである。このように、利用者と対話する第1のキャラクターと、音声広告に対応した第2のキャラクターとが、会話することで利用者の広告に対する興味を喚起させる。概要(その3)については、後述する第3実施形態を中心に説明する。
[Overview (Part 3)]
The information processing system causes the output unit to output the contents of the response in accordance with the output mode corresponding to the first character, and causes the output unit to output the specific information in accordance with the output mode corresponding to the second character. Furthermore, the information processing system causes the output unit to output a conversation between the first character and the second character. The “first character” is, for example, a character that interacts with the user or responds to the user's speech in everyday life. The “second character” is, for example, a character that is different from the first character and is associated with specific information (for example, an advertisement). In this way, the first character interacting with the user and the second character corresponding to the voice advertisement arouse the user's interest in the advertisement. The outline (No. 3) will be described focusing on a third embodiment described later.
<第1実施形態>
[全体構成]
図1は、情報処理システム1の構成を示す図である。情報処理システム1は、例えば、端末装置10と、自動応答装置40と、広告提供装置80とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。本実施形態では、自動応答装置40が、「情報処理システム」の一例である。また、「情報処理システム」は、端末装置10および/または広告提供装置80を含んでもよい。
First Embodiment
[overall structure]
FIG. 1 is a diagram showing the configuration of the
[端末装置の機能構成]
端末装置10は、例えば、スマートスピーカ(Artificial intelligenceスピーカ)や、スマートフォン、タブレット端末、パーソナルコンピュータ等である。第1実施形態では端末装置10は、スマートスピーカであるものとして説明する。
[Functional configuration of terminal device]
The
端末装置10は、例えば、マイク12と、スピーカ14と、音声認識部16と、音声生成部18と、端末制御部20と、端末装置側通信部22と、記憶部30とを備える。音声認識部16、音声生成部18、および端末制御部20は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサが、フラッシュメモリなどの記憶部30に記憶されたアプリケーションプログラム(アプリ32)を実行することにより実現される。アプリ32は、例えば、ネットワークを介してサーバ装置等からダウンロードされてもよいし、予め端末装置10にプリインストールされていてもよい。なお、アプリケーションプログラムに代えて、以下に説明するものと同様の機能を有するブラウザがUA(User Agent)として用いられてもよい。なお、端末装置10に含まれる一部または全部の機能は、自動応答装置40に含まれてもよい。
The
マイク12は、利用者によって発せられた音声、または端末装置10が存在する環境の環境音を取得する。スピーカは、音声生成部18により生成された情報に応じた音声を出力する。
The
音声認識部16は、マイク12により取得された音声をデジタルデータ(音声データ)に変換する。音声生成部18は、自動応答装置40により送信された情報に基づいて、スピーカ14に出力させる音声に応じた情報を生成する。
The
端末制御部20は、音声認識部16により変換されたデジタルデータを、端末装置側通信部22を用いて、自動応答装置40に送信する。端末制御部20は、自動応答装置40により送信された情報を、端末装置側通信部22を介して取得する。
The
端末装置側通信部22は、例えば、無線通信インターフェースである。端末装置側通信部22は、自動応答装置40により送信された情報を取得したり、端末装置10において処理された処理結果を自動応答装置40に送信したりする。
The terminal device
[自動応答装置の機能構成]
自動応答装置40は、例えば、利用者特定部42と、環境解析部43と、パターン特定部44と、解釈部46と、応答部48と、提供制御部50と、学習部52と、応答装置側通信部54と、第1記憶部60と、第2記憶部70とを備える。利用者特定部42、環境解析部43、パターン特定部44、解釈部46、応答部48、提供制御部50、および学習部52は、例えば、CPU等のハードウェアプロセッサが、記憶装置(例えば第1記憶部60)に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が自動応答装置40のドライブ装置に装着されることで記憶装置にインストールされてもよい。第1記憶部60および第2記憶部70は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、レジスタ等によって実現される。
[Functional configuration of automatic answering device]
The
第1記憶部60には、例えば、後述する、利用者特定情報62、環境特定情報63、環境パターン情報64、正規表現情報66、およびシナリオ情報68が記憶されている。第2記憶部70には、例えば、後述する、出力度合情報72、および利用情報74が記憶されている。第1記憶部60と第2記憶部70は、必ずしも別体の記憶装置により実現される必要はなく、一体の記憶装置における異なる記憶領域であってもよい。
For example,
利用者特定部42は、例えば、端末装置10により送信された音声データから人の声を表すと推定される音声データの成分(以下、発話成分)を抽出する。利用者特定部42は、抽出した発話成分と、利用者特定情報62に含まれる情報とを照合して、抽出した発話成分により表される音声を発した人物を特定する。利用者特定情報62は、利用者の識別情報と、その利用者の声の特徴を示す情報(例えば、声紋パターンや周波数パターン)が対応付けられた情報である。
For example, the
また、利用者特定部42は、利用者特定情報62を参照し、音声を発した利用者の周辺に存在する人物の種別を特定してもよい。この場合、利用者特定情報62には、予め利用者の家族や友人などの声の特徴を示す情報が含まれている。また、利用者特定部42は、端末装置側通信部22を介して、家族等が保有する端末装置とWi-Fiルーターとの接続状態を示す情報を取得し、取得した情報に基づいて、端末装置の保有者がWi-Fiルーターが設置された位置付近に存在するか否かを判定してもよい。
The
環境解析部43は、例えば、端末装置10により送信された音声データから人の声以外の環境音を表すと推定される音声データの成分(以下、環境音成分)を抽出する。環境解析部43は、抽出した環境音成分と、環境特定情報63に含まれる情報とを照合して、抽出した環境音成分により表される環境音の大きさや、その環境音の発生要因を特定する。環境特定情報63は、環境音の発生要因の識別情報と、環境音の発生要因ごとの音の特徴とが互いに対応付けられた情報である。
For example, the
パターン特定部44は、例えば、環境パターン情報64と、利用者特定部42の処理結果、および環境解析部43の処理結果に基づいて、環境パターンを特定する。環境パターンとは、利用者が存在している環境について、所定の基準に従って分類されたパターンである。詳細は後述する。
The
解釈部46は、例えば、人の声に対応する音声データを、テキスト情報に変換し、更に、テキスト情報と正規表現情報66とを照合して、利用者の発話の意味を解釈する。例えば、利用者により「新宿から渋谷までの行き方を教えて」と発話されたものとする。解釈部46は、上記の発話を形態素解析し、発話を品詞に分割する。そして、解釈部46は、固有名詞かつ場所名に該当する新宿および渋谷を符号に変換した検索キーを生成し、正規表現情報68を検索する。正規表現情報68には、固有名詞を抽象化した符号に変換した情報(正規表現)が登録されている。例えば、「〇〇から××への行き方を教えて」、「〇〇から××までの行き方を教えて」などのテキストが付与された情報が正規表現として登録されている。
For example, the
応答部48は、例えば、正規表現情報68に含まれる「(固有名詞、場所)から(固有名詞、場所)までの行き方を教えて」に対応するテキスト情報を取得し、〇〇から××までの行き方を提供すればよいことを認識する。
The
そして、応答部48は、(固有名詞、場所)の部分に、符号化された元情報である「新宿」および「渋谷」を埋め込むことで、「新宿から渋谷までの行き方を知りたい」という利用者の意思を認識する。応答部48は、ネットワーク検索などを行い、新宿から渋谷までの行き方を取得する。応答部48は、例えば、シナリオ情報68を参照し、新宿から渋谷までの行き方を示す、端末装置10において出力するための音声元情報を生成する。シナリオ情報68は、例えば、利用者の発話に対して応答すべき内容が予め保持されている。すなわち、利用者が「〇〇から××までの行き方を知りたい」という意思を有する発話に対する応答内容が保持されている。シナリオ情報68は、例えば、応答内容が利用者の嗜好等に合致するように利用者ごとに用意されている。
Then, the
なお、上記の応答部48などの自動応答装置40に含まれる一部または全部の機能は、端末装置10に備えられてもよい。また、正規表現情報66やシナリオ情報68などの情報も端末装置10の記憶装置に記憶されていてもよい。
Note that some or all of the functions included in the
提供制御部50は、応答部48により生成された音声元情報を、端末装置10に出力させるために、応答装置側通信部54を用いて、音声元情報を端末装置10に送信する。更に、提供制御部50は、広告提供装置80により送信された音声元情報を端末装置10に出力させるために、応答装置側通信部54を用いて、その音声元情報を端末装置10に送信する。
The
また、提供制御部50は、応答内容または特定情報の出力態様を指定し、指定した出力態様で応答内容または特定情報を端末装置10のスピーカ14に出力させるために、指定した出力態様と応答内容または特定情報とを対応付けた情報を、応答装置側通信部54を用いて端末装置10に送信する。この提供制御部50の機能は、端末装置10に備えられてもよい。
Further, the
学習部52は、端末装置10のスピーカ14に出力させた応答内容または特定情報の内容、出力させた情報の出力態様、利用者の反応、および環境パターンを学習する。学習とは、例えば、人工知能を用いた学習や、深層学習などの機械学習等である。
The
応答装置側通信部54は、ネットワークインターフェースカード(Network Interface Card)等の通信インターフェースを含む。応答装置側通信部54は、端末装置10または広告提供装置80により送信された情報を取得したり、自動応答装置40において処理された処理結果を端末装置10または広告提供装置80に送信したりする。
The response device
[広告提供装置]
広告提供装置80は、例えば、情報提供部82と、広告提供装置側通信部84と、広告提供装置側記憶部90とを備える。情報提供部82は、利用者の発話により入力された情報、または自動応答装置40の応答内容に基づいて、利用者に提供する広告を抽出し、抽出した広告に関する情報(例えば音声元情報および音声を出力する出力態様)を自動応答装置40に提供する。
[Advertising equipment]
The
広告提供装置側通信部84は、ネットワークインターフェースカード等の通信インターフェースを含む。広告提供装置側通信部84は、自動応答装置40により送信された情報を取得したり、広告提供装置80において処理された処理結果を自動応答装置40に送信したりする。広告提供装置側記憶部90には、後述する広告情報92が記憶されている。なお、広告提供装置80と自動応答装置40とは一体の装置として設けられてもよい。
The advertisement providing device
[フローチャート(出力度合を決定する処理)]
図2は、情報処理システム1により実行される処理の流れの一例を示すフローチャートである。本処理は、利用者による音声UI(ユーザインタフェース/ユーザデバイス)の利用の量に応じ、人工物からの音声出力の量を制御する処理である。この音声UIは音声認識である。
[Flowchart (processing to determine output degree)]
FIG. 2 is a flowchart showing an example of the flow of processing executed by the
まず、端末装置10は、利用者により音声が入力されたか否かを判定する(S10)。利用者により音声が入力された場合(利用者と自動応答装置40との会話が開始された場合)、入力された音声データ(発話成分および環境音成分)は、自動応答装置40に送信される。
First, the
自動応答装置40は、発話成分を取得し、取得した発話成分と利用者特定情報62に基づいて、利用者を特定する(S20)。自動応答装置40は、環境音成分を取得し、取得した環境音成分と環境パターン情報64に基づいて、環境パターンを特定する(S22)。
The
図3は、環境パターン情報64の内容の一例を示す図である。環境パターン情報64は、複数の環境パターンと、分類基準とが対応付けられた情報である。環境パターンの分類基準は、例えば、曜日や、時間、利用者の周囲に存在している人物の数、人物の種別、利用者が存在している環境音の大きさ、利用者が存在している環境(自宅、オフィス、街)、利用者が存在している位置、および利用者のスケジュール(事前に登録された現在の予定)等のうち、少なくとも一以上の項目に基づいて、分類されるパターンである。
FIG. 3 is a diagram showing an example of the contents of the
利用者が存在している環境、利用者が存在している位置、または利用者のスケジュールは、例えば予め利用者により設定された情報である。また、利用者が存在している環境、または利用者が存在している位置は、不図示のGPS(Global Positioning System)を利用した位置測位装置により測位された情報に基づいて特定されてもよい。また、利用者のスケジュールは、端末装置10が他の装置からネットワークNWを介して取得した情報であってもよい。
The environment where the user exists, the position where the user exists, or the schedule of the user are, for example, information set in advance by the user. Further, the environment where the user exists or the position where the user exists may be specified based on information measured by a positioning device using a GPS (Global Positioning System) (not shown). . The user's schedule may be information acquired by the
次に、自動応答装置40は、特定した利用者に提供する広告の内容を決定するように広告提供装置80に依頼する(S24)。この際、自動応答装置40は、端末装置10に入力された音声に含まれる情報をテキスト情報に変換したテキスト情報を広告提供装置80に送信する。
Next, the
広告提供装置80は、自動応答装置40の依頼に応じて、広告情報92を参照して、テキスト情報に対応する利用者に提供する広告の内容を決定する(S30)。なお、広告提供装置80は、利用者に提供する広告が存在しない場合、その旨を自動応答装置40に送信する。
In response to the request from the
図4は、広告情報92の内容の一例を示す図である。広告情報92は、広告IDに対して、キャラクター、商品(またはサービス)、シナリオ、およびキーワードが対応付けられた情報である。「キャラクター」とは、所定の特徴を有する人物や、人に見立てた動物、植物、創作物、人工物などである。キャラクターは、商品ごとに設けられてもよいし、複数の商品ごとや、キャンペーンごとに設けられてもよい。
FIG. 4 is a diagram showing an example of the contents of the
「シナリオ」とは、キャラクターが発する言葉(または言動)の内容や順序を規定したものである。シナリオは、例えば、キャラクターごとに設けられている。また、広告情報92には、シナリオに加え、音声のトーンや、テンポ等のキャラクターの特徴がキャラクターに対して対応付けられている。商品やキャンペーンごとのキャラクターは、シナリオ(行動ルール)を基に自律的に行動する。
A “scenario” defines the content and order of words (or actions) issued by a character. A scenario is provided, for example, for each character. Further, in the
「キーワード」は、広告に関連付けられた言葉である。[キーワード]は、商品を示す言葉の意味(意味情報)と同一の意味を有する言葉、または商品を示す言葉の意味に関連する言葉である。関連する言葉とは、商品を示す言葉から一般的に想起される言葉である。例えば、広告提供装置80は、利用者により入力された言葉または自動応答装置40により発せられた音声に含まれる言葉と、広告情報92のキーワードとが合致する場合に、合致するキーワードに対応付けられた広告IDに対応する情報(キャラクターが発話する音声元情報等)を自動応答装置40に送信する。なお、広告提供装置80は、人工知能や、深層学習などの機械学習されたモデルにより利用者に提供する情報を決定してもよい。
“Keyword” is a word associated with an advertisement. [Keyword] is a word having the same meaning as the meaning (semantic information) of a word indicating a product, or a word related to the meaning of a word indicating a product. Related words are words that are generally recalled from words that describe products. For example, the
次に、自動応答装置40は、後述する出力度合情報72を参照して、環境パターンに応じた広告の出力度合を決定し、決定した出力度合で広告を出力するように端末装置10に指示をする(S26)。次に、端末装置10は、自動応答装置40の指示に基づいて、広告を出力する(S12)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
図5は、出力度合情報72の内容の一例を示す図である。出力度合情報72は、例えば、環境パターンごとに用意されている。また、出力度合情報72は、利用者IDに対して、環境パターンにおける過去の利用度合および広告を出力する出力度合が対応付けられた情報である。
FIG. 5 is a diagram showing an example of the content of the
「過去の利用度合」とは、利用者が過去にスピーカ14から音声による情報(例えば広告)の提供を受けた度合、または利用者が過去にマイク12に音声を用いて情報を入力した度合である。「出力度合」とは、スピーカ14を用いて利用者に情報を出力する場合に、出力される音の大きさである。「出力度合」は、「出力態様」の一例である。出力度合は、例えば、過去の利用度合が多いほど、出力される音の大きさは大きくなるように設定されている。なお、「スピーカ14から音声による情報の提供を受けた度合」において、音楽を出力させた度合は除かれてもよい。
“Past usage” refers to the degree to which a user has been provided with voice information (for example, an advertisement) from the
また、出力度合情報72において、出力度合に代えて、他の出力に関する態様が対応付けられていてもよい。出力に関する態様とは、例えば、音の大きさ加え、音の高低、広告の内容が出力されるテンポ等である。出力に関する態様は、例えば、過去の利用度合が多いほど、利用者が聞き取りやすいように設定されている。
Further, in the
また、利用者が存在する環境の環境音が所定の大きさ以上の場合、環境音が所定の大きさ未満の場合よりも、特定情報の出力態様の変化度合を小さくしてもよい。すなわち、もともと環境音が大きい環境においては、特定情報の出力を大きくさせなくてもよい。 Further, when the environmental sound of the environment where the user exists is greater than or equal to a predetermined level, the degree of change in the output mode of the specific information may be smaller than when the environmental sound is less than the predetermined level. That is, in an environment where the environmental sound is originally large, the output of the specific information may not be increased.
上述したように、自動応答装置40が、出力度合情報72を参照することにより、利用者に違和感を与えないように情報を提供することができる。
As described above, by referring to the
なお、上述した説明では、一例として、利用者が音声を入力した場合に、利用度合に基づいて出力態様を制御する例について説明したが、単に自動応答装置40が発話したり、情報を出力したりする場合において利用度合に基づいて出力態様を制御してもよい。
In the above description, as an example, an example in which the output mode is controlled based on the degree of use when the user inputs voice is described. However, the
[具体例(その1)]
図6は、利用者と自動応答装置40との会話の一例を示す図である。例えば、図6(A)に示すように、(1)利用者が「新しい車が欲しいな。」とマイク12に入力する。
(2)自動応答装置40は、第1キャラクターの出力態様で、「どんな車が欲しいの?」と応答する。
[Specific example (1)]
FIG. 6 is a view showing an example of the conversation between the user and the
(2) The
次に、図6(B)に示すように、(3)利用者が「燃費のいい車がいいな。」とマイク12に入力する。(4)自動応答装置40は、第1キャラクターの出力態様で、「節約できるからいいよね。」と応答する。そして、(5)自動応答装置40は、第2キャラクターの出力態様で、「車Aが燃費いいよ。」と発話する。この第2キャラクターの出力態様は、ユーザデバイスの利用度合に応じた出力態様である。
Next, as shown in FIG. 6 (B), (3) the user inputs to the
次に、図6(C)に示すように、(6)利用者が「詳しく教えて。」とマイク12に入力する。(7)自動応答装置40は、第2キャラクターの出力態様で、「車Aは電気自動車だよ。フル充電で〇〇キロ走行可能だよ。」と応答する。
Next, as shown in FIG. 6C, the user inputs (6) “Tell me in detail” to the
このように、第1キャラクターと利用者との会話において、キーワードが出現した場合、自動応答装置40は、ユーザデバイスの利用度合に応じた出力態様で、キーワードに基づく広告を第2キャラクターの出力態様で、利用者に提供する。この結果、利用者に違和感を与えないように情報を提供することができる。
Thus, when a keyword appears in the conversation between the first character and the user, the
なお、上記の(6)で、車Aに興味を示さなかった場合、第2キャラクターは、その後、発話しなくてもよい。また、車Aに興味を示さなかった場合、他の車に対応するキャラクターの出力態様で、他の車を紹介してもよい。 Note that if the car A does not show interest in (6) above, the second character may not speak after that. In addition, when the car A does not show an interest, another car may be introduced in the output mode of the character corresponding to the other car.
また、車の広告を提供したい場合、自動応答装置40は、第1キャラクターに車の話題で会話するような発話や応答を行ってもよい。この場合、例えば、自動応答装置40は、上述したキーワード、キーワードを誘導するような発話を行う。例えば、出力したい特定情報に基づいて、キャラクターの会話が選択される。
In addition, when it is desired to provide a car advertisement, the
また、上述した例では、第2キャラクターの発話の出力度合を変更するものとしたが、第1キャラクターの発話の出力度合が変更されてもよい。また、出力度合は、利用者とキャラクターとの会話の度合に基づいて変更されてもよい。例えば、第1キャラクターと利用者との会話の度合が、第Nキャラクター(Nは任意の自然数)と利用者との会話の度合よりも高い場合、第1キャラクターが利用者に話し掛ける度合を、第Nキャラクターが利用者に話しかける度合よりも多くする。 In the above-described example, the output level of the second character's utterance is changed. However, the output level of the first character's utterance may be changed. The output level may be changed based on the degree of conversation between the user and the character. For example, when the degree of conversation between the first character and the user is higher than the degree of conversation between the Nth character (N is an arbitrary natural number) and the user, the degree to which the first character talks to the user is Make it more than the N character talks to the user.
[フローチャート(学習する処理)]
図7は、端末装置10および自動応答装置40により実行される処理の流れの一例を示すフローチャートである。図6のフローチャートのS40、S50、およびS52の処理は、図2のフローチャートのS10、S20、およびS22の処理と同様のため説明を省略する。
[Flowchart (learning process)]
FIG. 7 is a flowchart showing an example of the flow of processing executed by the
S52の処理後に、自動応答装置40は、自装置が情報を利用者に提供したか否かを判定する(S54)。情報を利用者に提供した場合、自動応答装置40は、提供した情報の内容、および情報の提供後の利用者の反応を取得し、取得した反応を利用情報74として第2記憶部70に記憶させる(S56)。
After the processing of S52, the
図8は、利用情報74の内容の一例を示す図である。利用情報74は、利用者ごとに、過去に利用者により入力された情報、または過去に利用者に対して出力された情報と、入力された情報、または出力された情報の出力態様と、環境パターンと、出力された情報に対する利用者の反応(例えば指示)とが互いに対応付けられた情報である。
FIG. 8 is a diagram showing an example of the contents of the
次に、自動応答装置40は、所定のタイミングに到達したか否かを判定する(S58)。所定のタイミングに到達していない場合、本フローチャートの1ルーチンの処理が終了する。所定のタイミングに到達した場合、自動応答装置40は、利用情報74を学習データとして学習する(S60)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
上述したように、利用者に情報を提供した際の利用者の反応や、環境パターン、情報の出力態様、情報の内容が学習されることにより、利用者の好みを把握することができる。そして、学習部52は、利用者の好みを反映させて出力度合情報72を生成したり、更新したりすることができる。
As described above, the user's preference can be grasped by learning the reaction of the user when providing information to the user, the environmental pattern, the output mode of the information, and the content of the information. Then, the
例えば、土曜日や、時間帯が7時〜8時、利用者の周囲に親が存在している場合、利用者が自宅にいる場合、またはプライベートのスケジュールが予定されている時間帯において、他の状況の場合よりも抑制するように特定情報が出力されるように指示されたことを示す情報が、利用情報74に含まれているものとする。この場合、学習部52は、上述した状況に対応する環境パターンでは、特定情報の出力を抑制するように、出力度合情報72を生成する。
For example, if a parent is present around the user on a Saturday, 7 o'clock to 8 o'clock, or if the user is at home, or if the private schedule is scheduled, It is assumed that the
上述したように、利用者と音声インタラクションするスマートスピーカなどの人工物が、音声広告や話し掛けを過剰に行うと利用者は煩雑に感じる場合があるが、本実施形態では、利用者の音声インタラクションの利用度合や、インタラクションが行われた状況に応じて、音声広告や話し掛けを調整するため、利用者に違和感を与えないように情報を提供することができる。 As described above, an artificial object such as a smart speaker that performs voice interaction with a user may feel complicated if the user performs excessive voice advertisement or talking, but in this embodiment, the user's voice interaction Since the voice advertisement and the conversation are adjusted according to the degree of use and the situation in which the interaction is performed, information can be provided so as not to give the user a sense of incongruity.
なお、上述した例では、提供制御部50が、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、特定情報の出力態様を制御するものとして説明したが、これに代えて(或いは加えて)、以下のように変更されてもよい。すなわち、提供制御部50は、ユーザデバイスの利用度合に応じて、第2応答内容の出力態様を制御する。この「第2応答内容」は、利用者により発せられた音声に対する応答内容であって広告を含む内容である。例えば、この場合、自動応答装置40は、広告を含む応答内容を決定し、決定した応答内容をユーザデバイスの利用度合に応じた出力態様で端末装置10に出力させる。このように、応答内容そのものが広告となり、且つ応答内容の制御態様が制御されるため、利用者に違和感を与えないように情報を提供することができる。
In the example described above, the
以上説明した第1実施形態によれば、提供制御部50が、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、特定情報の出力態様を制御することにより、利用者に違和感を与えないように情報を提供することができる。
According to the first embodiment described above, the
<第2実施形態>
以下、第2実施形態について説明する。提供制御部50は、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を出力部に出力させる。第1実施形態との相違点を中心に説明する。
Second Embodiment
The second embodiment will be described below. The
図9は、第2実施形態の情報処理システム1Aに含まれる自動応答装置40Aの機能構成の一例を示す図である。自動応答装置40Aは、第2記憶部70に代えて、第2記憶部70Aを備える。第2記憶部70Aは、例えば、出力度合情報72および利用情報74に加え、更に指示対応情報76(詳細は後述する)を備える。
FIG. 9 is a diagram illustrating an example of a functional configuration of an
第2実施形態の応答部48は、特定情報を端末装置10に出力させる場合、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1態様に変更して、特定情報を端末装置10に出力させる。
When outputting the specific information to the
上記のように特定情報を端末装置10に出力させた後、自動応答装置40Aは、利用者の指示を受け付けた場合に、特定情報の出願態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を端末装置10に出力させる。第2出力態様は、例えば、第1出力態様よりも、音量が大きい、音の周波数帯が利用者にとって聞き取りやすい、情報が出力されるテンポが適切である態様である。
After the specific information is output to the
なお、利用者が聞き取りにくい第1態様に変更する処理において、利用者が存在する環境の環境音が所定の大きさ以上の場合、環境音が所定の大きさ未満の場合よりも、特定情報の出力態様を変化させなくてもよいし、出力態様の変化度合を小さくしてもよい。もともと環境音が大きい環境で出力態様を変更しても利用者に対する影響が小さいためである。 In the process of changing to the first mode in which the user hardly hears, if the environmental sound of the environment in which the user is present is greater than or equal to the predetermined size, the specific information is more specific than if the environmental sound is less than the predetermined size. The output mode may not be changed, or the change degree of the output mode may be reduced. This is because even if the output mode is changed in an environment where the environmental sound is large originally, the influence on the user is small.
[フローチャート]
図10は、端末装置10および第2実施形態の自動応答装置40Aにより実行される処理の流れの一例を示すフローチャートである。本処理は、第1出力態様で特定情報が出力された後に実行される処理である。図10のフローチャートのS60、S70、およびS72の処理は、図2のフローチャートのS10、S20、およびS22の処理と同様のため説明を省略する。
[flowchart]
FIG. 10 is a flow chart showing an example of the flow of processing executed by the
次に、自動応答装置40Aは、指示対応情報76を参照し、特定された利用者と、特定された環境パターンと、入力された音声に含まれる情報(指示の内容)との組み合わせに合致する広告の情報の出力態様を決定する(S74)。指示の内容とは、利用者が情報の出力に関して求めた指示の情報である。指示の内容とは、例えば、ボリュームを上げることや、ゆっくりと情報を出力させること、高い音で情報を出力させること、数秒前に出力された情報を出力すること等、またはこれらの組み合わせである。
Next, the
図11は、指示対応情報76の内容の一例を示す図である。指示対応情報76は、利用者によって行われた指示に対して、どのような出力態様で情報を出力するかを決定するのに用いられる情報である。指示対応情報76は、例えば、環境パターンごとに、利用者ID、指示の内容、および出力態様が互いに対応付けられた情報である。
FIG. 11 is a diagram showing an example of the content of the
次に、自動応答装置40Aは、端末装置10に決定した出力態様で広告の情報を出力するように指示する(S76)。次に、端末装置10は、自動応答装置40Aの指示に基づいて、決定された出力態様で広告の情報をスピーカ14に出力させる(S62)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
上述したように、自動応答装置40が、利用者の求めに応じて出力態様を変更するため、利用者に違和感を与えないように情報を提供することができる。
As described above, since the
[具体例(その2−1)]
図12は、第2実施形態の利用者と自動応答装置40Aとの会話の一例を示す図である。例えば、図12(A)に示すように、(1)利用者が「新しい車が欲しいな。」とマイク12に入力する。(2)自動応答装置40Aは、第1キャラクターの出力態様で、「どんな車が欲しいの?」と応答する。
[Specific example (part 2-1)]
FIG. 12 is a diagram illustrating an example of a conversation between the user of the second embodiment and the
次に、図12(B)に示すように、(3)利用者が「燃費のいい車がいいな。」とマイク12に入力する。(4)自動応答装置40Aは、第1キャラクターの出力態様で、「節約できるからいいよね。」と応答する。
Next, as shown in FIG. 12 (B), (3) the user inputs to the
次に、例えば、数秒程度、利用者によって発話がされない場合、図12(C)に示すように、(5)自動応答装置40Aは、第2キャラクターの出力態様であり、且つ第1出力態様で、「車Aをおすすめします。・・・・」と発話する。
Next, for example, when the user does not make a speech for several seconds, as shown in FIG. 12C, (5) the
(6)利用者は、上記(5)で出力された情報に興味を持っていたが音量が小さいため聞こえなかったことから、「聞こえないよ。」と発話する。そうすると、(7)自動応答装置40Aは、第2キャラクターの出力態様であり、且つ音量を上げて、上記(5)で出力させた情報を端末装置10に出力させる。すなわち、第2キャラクターが「車Aをおすすめします。・・・」と、再度、発話する。
(6) The user is interested in the information output in (5) but can not hear it because the volume is small, so he utters "I can not hear it." Then, (7) the
このように、第2キャラクターが情報を出力する場合の出力態様を、第1キャラクターが情報を出力する場合の出力態様よりも、利用者が聞き取りにくくすることにより、利用者に煩わしさを感じさせることを抑制することができる。また、利用者の求めに応じ、第2キャラクターが情報を出力する場合の出力態様を、利用者が聞き取りやすいようにすることにより、利用者にとっての利便性を向上させることができる。 In this way, the output mode when the second character outputs information is made more difficult for the user to hear than the output mode when the first character outputs information. Can be suppressed. Further, convenience for the user can be improved by making it easy for the user to hear the output mode when the second character outputs information in response to the user's request.
なお、上述した説明では、一例として、利用者が音声を入力した場合に、特定情報が出力される例について説明したが、単に自動応答装置40Aが特定情報を出力する場合において、上記のように出力態様が制御されてもよい。また、例えば、出力したい特定情報に基づいて、第1のキャラクターと第2のキャラクターの会話が選択されてもよい。
In the above description, the example in which the specific information is output when the user inputs a voice has been described as an example. However, when the
[具体例(その2−2)]
図13は、広告の情報が出力される際の音量の変化を示す図である。図13の縦軸は音の大きさを示し、図13の横軸は時間を示している。以下で説明する広告A〜Cの各広告の長さ(時間)は、例えば所定秒(例えば15秒程度)である。広告A〜Cの順で広告の情報が出力される予定であるものとする。この場合において、例えば、広告Aが出力され、広告Bが出力され、広告Bの内容が出力されている途中(図13の時刻T)で、利用者が音量を上げることを指示した。自動応答装置40Aは、時刻Tにおいて、広告Bの内容を最初から端末装置10に出力させる。すなわち、所定時間遡った部分や音量を絞った部分から、広告Bが再出力される。また、その後、自動応答装置40Aは、図示するように広告Bの内容が出力された後、音量を上げる前の音量に下げてもよいし、音量を上げた状態を維持してもよい。
[Specific example (2-2)]
FIG. 13 is a diagram showing a change in volume when advertisement information is output. The vertical axis in FIG. 13 indicates the magnitude of sound, and the horizontal axis in FIG. 13 indicates time. The length (time) of each advertisement of advertisements A to C described below is, for example, a predetermined second (for example, about 15 seconds). It is assumed that advertisement information is scheduled to be output in the order of advertisements A to C. In this case, for example, the advertisement A is output, the advertisement B is output, and the user instructs to increase the volume while the content of the advertisement B is being output (time T in FIG. 13). At time T, the
上述したように、自動応答装置40Aが、利用者により指示がされた場合に、指示された際に出力していた広告を最初から出力させるため、利用者は所望の情報を取得することができる。
As described above, when the
なお、上述した例では、利用者の指示に基づいて、内容Bを最初から出力するものとしたが、広告Aの最初から出力してもよいし、利用者の指示がされたときから所定時間前に出力されていた情報から出力してもよい。また、利用者の発話の内容(例えば切迫度)に基づいて、再出力させる情報が決定されてもよい。また、自動応答装置40Aは、過去の利用者の指示の傾向または予め設定された条件に基づいて、利用者の指示がされたときから、どの程度前から広告を再度再生するかを決定してもよい。
In the example described above, the content B is output from the beginning based on the user's instruction, but may be output from the beginning of the advertisement A, or a predetermined time from when the user's instruction is given You may output from the information output previously. Information to be re-outputted may be determined based on the content of the user's utterance (for example, the degree of urgency). Further, the
[その他]
提供制御部50は、特定情報の属性に基づいて、特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。特定情報の属性とは、広告に関する情報、機器の操作に関する情報、楽曲、およびユーザに関連する期限に関する情報(パスワードの変更期限などの情報)のうち、少なくとも一つを含む。例えば、提供制御部50は、広告に関する情報の出力態様を第1出力態様に変更し、他の属性の特定情報は出力態様を変更しなくてもよい。
[Others]
The
提供制御部50は、広告の種別に基づいて特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。広告の種別とは、例えば、広告に対応する商品の種別である。例えば、提供制御部50は、車の広告の出力態様については、第1出力態様に変更するが、不動産の広告の出力態様については、第1出力態様に変更せずに、出力部に出力させてもよい。
The
また、提供制御部50は、広告の種別と、過去に行われた利用者の指示の結果とに基づいて、特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。例えば、学習部52が、広告の種別と、過去に行われた利用者の指示の結果とを学習する。例えば、学習部52は、車の広告が出力された場合、利用者はボリュームのアップを指示したが、不動産の広告が出力された場合、利用者はボリュームのダウンを指示したことを学習する。この場合、例えば、提供制御部50は、車の広告の出力態様については、第1出力態様に変更するが、不動産の広告の出力態様については、第1出力態様に変更せずに、出力部に出力させてもよい。
Further, the
また、提供制御部50は、上記の考え方を採用して、利用者に対応する環境パターンに基づいて、特定情報の出力態様を、第1出力態様に変更してもよい。例えば、ある環境においては、第1出力態様で特定情報が出力されることが利用者にとって好ましいことが学習部52により学習される。提供制御部50は、学習結果に基づいて、特定情報を第1出力態様で出力する。
Further, the
また、利用者により指定された情報(例えば所定の属性の情報)の出力態様については、第1出力態様に変更し、指定されていない情報の出力態様については第1出力態様に変更しなくてもよい。 Further, the output mode of information specified by the user (for example, information of a predetermined attribute) is changed to the first output mode, and the output mode of information not specified is not changed to the first output mode. Also good.
また、指示対応情報76は、学習部52により生成される。例えば、学習部52は、第1出力態様で特定情報が出力部に出力された後、環境パターンごとに、利用者により受けた指示の内容および指示に基づいて変更された特定情報の出力態様を学習する。そして、学習部52は、所定の環境パターンにおいて、特定情報の出力態様をどのように変更させたかを学習して、利用者の嗜好に合致する指示対応情報76を生成する。
The
例えば、学習部52は、土曜日や、時間帯が7時〜8時、利用者の周囲に親が存在している場合、利用者が自宅にいる場合、またはプライベートのスケジュールが予定されている時間帯において、利用者により受けた指示の内容および指示に基づいて変更した特定情報の出力態様を学習し、学習結果に基づいて、指示対応情報76を生成する。例えば、利用者が、所定の環境パターンにおいてボリューム「10」で特定情報の出力させる傾向にある場合、指示対応情報76において、ボリュームの変更指示がされた場合の第2出力態様はボリューム「10」に設定される。
For example, if a parent is present around the user on a Saturday, 7 o'clock to 8 o'clock, the
以上説明した第2実施形態によれば、提供制御部50は、特定情報の出力態様を、応答内容の出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を出力部に出力させることにより、利用者に違和感を与えないように情報を提供することができる。
According to the second embodiment described above, the
例えば、自動応答装置と利用者との対話の延長にそのまま音声広告を出力すると、煩わしく思われたり、ステルスマーケティング(ステマ)とみなされてしまったりする場合があるが、本実施形態のように、特定情報を利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示によって特定情報を第2出力態様に変更して出力部に出力させることにより、煩わしいと感じさせることを抑制したり、ステルスマーケティングとみなされること抑制する。 For example, if the voice advertisement is output as it is for the extension of the dialogue between the automatic response device and the user, it may seem annoying or regarded as stealth marketing (stemmer), but as in this embodiment, After the specific information is changed to the first output mode that is difficult for the user to hear and output to the output unit, the specific information is changed to the second output mode according to the user's instruction and output to the output unit. Suppress what you feel, or what is considered stealth marketing.
<第3実施形態>
以下、第3実施形態について説明する。提供制御部50は、応答内容を出力する第1のキャラクターと、特定情報を出力する第2のキャラクターとの会話を出力部に出力させる。第1実施形態との相違点を中心に説明する。
Third Embodiment
The third embodiment will be described below. The providing
図14は、第3実施形態の情報処理システム1Bの機能構成の一例を示す図である。情報処理システム1Bは、例えば、端末装置10Bと、自動応答装置40Bと、広告提供装置80Bとを備える。
FIG. 14 is a diagram illustrating an example of a functional configuration of the
端末装置10Bは、第1実施形態の端末装置10の機能構成に加え、更に表示部15と、画像生成部19とを備える。表示部15は、画像生成部19の制御に基づいて、画像を表示する。画像生成部19は、自動応答装置40Bにより送信された情報に基づいて、表示部15に画像を表示させる。例えば、音声生成部18と画像生成部19とは、自動応答装置40Bにより送信された情報に基づいて、表示部15に表示される画像の内容と、スピーカ14に出力される音声の内容とが意図したタイミングになるように協調して、スピーカ14および表示部15を制御する。以下、音声生成部18と画像生成部19とを合わせたものを、「生成部17」と称する。
The
自動応答装置40Bは、第1実施形態の自動応答装置40の機能構成に加え、更に画像提供部49を備え、第1実施形態の第1記憶部60に代えて、第1記憶部60Bを備える。第1記憶部60Bは、例えば、第1実施形態の第1記憶部60に記憶された情報に加え、更にモーション情報69が記憶されている。モーション情報69は、利用者と会話するキャラクターの動きが規定された情報である。画像提供部49は、モーション情報69に含まれる情報、または広告提供装置80Bにより提供された情報に基づいて、端末装置10Bに表示される画像を生成するための情報を端末装置10に提供する。画像を生成するための情報には、スピーカ14に出力される発話に対して、画像を変化させるタイミングが対応付けられている。以下、応答部48と画像提供部49とを合わせたものを、「応答提供部47」と称する。
In addition to the functional configuration of the
広告提供装置80Bは、第1実施形態の広告提供装置側記憶部90に代えて、広告提供装置側記憶部90Bを備える。広告提供装置側記憶部90は、例えば、広告情報92Bを備える。広告情報92Bは、第1実施形態の広告情報92の情報に加え、更に広告モーション情報93を備える。広告モーション情報93は、広告IDに対応付けられたキャラクターの動きが規定された情報である。
The
[フローチャート]
図15は、自動応答装置40Bにより実行される処理の流れの一例を示すフローチャートである。まず、応答提供部47が、第1キャラクターと第2キャラクターとを会話させる(S80)。次に、広告提供部47は、第2キャラクターに広告の情報を出力させる(S82)。
[flowchart]
FIG. 15 is a flowchart showing an example of the flow of processing executed by the
次に、自動応答装置40Bは、出力された広告の情報(第1の特定情報)に応じて利用者が音声を入力したか否かを判定する(S84)。なお、音声に代えて、所定の操作がされたか否かが判定されてもよい。利用者が音声を入力していない場合、本フローチャートの1ルーチンの処理が終了する。
Next, the
利用者が音声を入力した場合、自動応答装置40Bは、利用者が広告の情報の出力に対して煩わしいと感じているか否かを判定する(S86)。「煩わしいと感じている」とは、例えば、入力された音声に含まれる情報が広告の情報の出力に関して、否定的な意味を有していることである。より具体的には、例えば、「静かにして」、「やめて」、「音を下げて」などの意味を有する発話がされた場合、利用者が煩わしいと感じていると判定される。利用者が煩わしいと感じていない場合、本フローチャートの1ルーチンの処理が終了する。なお、S86で煩わしいと感じていない場合、自動応答装置40Bは、第1の特定情報よりも詳細な情報である第2の特定情報を出力部に出力させる。詳細な情報とは、例えば、第1の特定情報が商品名や商品の属性である場合、その説明的な内容である。
When the user inputs a voice, the
利用者が煩わしいと感じている場合、応答提供部47は、広告の情報を出力させることを停止する(S88)。なお、停止に代えて、利用者の反応に基づいて出力態様を変更させてもよい。例えば、利用者が「音を下げて」と入力した場合、広告の情報が出力される音が小さく制御される。これにより本フローチャートの1ルーチンの処理が終了する。
When the user feels troublesome, the
上述したように、キャラクター同士が会話をして広告の情報を出力させることにより、利用者に対して、より情報に対する興味を持たせることができる。また、利用者の反応に応じて、情報の出力を抑制するため、利用者にとっての利便性が向上する。 As described above, it is possible for the user to have more interest in information by causing the characters to have a conversation and output the information of the advertisement. In addition, since the output of information is suppressed according to the reaction of the user, the convenience for the user is improved.
[具体例(その3−1)]
図16は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その1)である。提供制御部は、利用者に提供した情報に基づいて、第1キャラクターと第2キャラクターとを会話させる。例えば、図16に示すように、(1)第2キャラクターCR2が「今日の天気はどう?」と発話する。(2)第1キャラクターCR1が、「予報では快晴だよ。」と応答する。
[Specific example (3-1)]
FIG. 16 is a diagram (part 1) illustrating an example of an image displayed on the conversation and
次に、(3)第2キャラクターCR2が「ドライブ日和だね。」と発話する。次に、(4)第1キャラクターCR1が、「そうだね。」と応答する。次に、(5)第2キャラクターCR2が、「そういえば、ドライブするのに最適な車が発売されたよ。」と発話する。 Next, (3) the second character CR2 utters, "It's a driving weather." Next, (4) the first character CR1 responds with "Yes." Next, (5) the second character CR2 utters, "If it says so, a car best suited for driving has been released."
このように、キャラクター同士で会話させて、商品を紹介することにより、利用者により自然に商品に興味を持たせることができる。 In this way, by letting the characters talk and introduce the product, the user can naturally have an interest in the product.
[具体例(その3−2)]
例えば、自動応答装置40Bは、第1キャラクターと利用者との会話に基づいて、利用者の好みや、嗜好、行動予定等の嗜好情報を取得する。嗜好情報とは、例えば、利用者の趣味や、利用頻度が高い施設または場所、購入頻度が高い商品、購入を希望している商品またはサービス等の情報である。
[Specific example (3-2)]
For example, based on the conversation between the first character and the user, the
図17は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その2)である。提供制御部50は、例えば、利用者と第1キャラクターとの会話に含まれる会話情報を第2キャラクターにより出力される特定情報の内容に反映させるか否かを利用者に問い合わせ、利用者に許諾を得た場合、会話情報を特定情報の内容に反映させる。
FIG. 17 is a diagram (part 2) illustrating an example of an image displayed on the conversation and
例えば、図17に示すように、(1)第1キャラクターCR1が「利用者Aさん。利用者Aさんが車の購入を考えていること他の人に教えていい?」と発話する。この発話に対して、利用者Aさんが「いいよ。」と回答したものとする。(2)第1キャラクターCR1が、「いいんだね。他の人に教えておくね。きっといい車が見つかるよ!」と応答する。このように、第1キャラクターが利用者の興味関心、傾向などの情報を第2キャラクターに提供することで、第2キャラクターが出力する情報を最適化する。 For example, as shown in FIG. 17, (1) the first character CR1 utters "User A. Can you tell other people that User A is thinking of purchasing a car?" Assume that user A answers "Yes" to this utterance. (2) The first character CR1 responds, "It's good. I will tell other people. I will surely find a good car!" As described above, the first character provides information such as the user's interest and tendency to the second character, thereby optimizing the information output by the second character.
図18は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その3)である。前述した図17の(2)の応答後、所定のタイミングで以下の会話が行われる。(1)第2キャラクターCR2が、例えば表示部15に表示されていない状態で「ごめんください。」と発話する。次に、(2)第1キャラクターCR1が、「どなたですか?」と応答する。次に、(3)第2キャラクターCR2が、「少しお時間よろしいでしょうか?」と発話する。次に、(4)第1キャラクターCR1が、「利用者Aさん、どなたか尋ねてきましたよ。入れてもいいですか?」と発話する。この発話に対して、利用者Aさんが、「入れていいよ。」と回答したものとする。次に、(5)第1キャラクターCR1が、利用者Aさんの発話に応じて、「お入りください。」と発話する。その後、表示部15に図19に示す画像が表示される。
FIG. 18 is a diagram (part 3) illustrating an example of an image displayed on the conversation and
図19は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その4)である。(1)第2キャラクターCR2が、例えば表示部15に表示された状態で「お車をお探しであることをお伺いしたので、ご紹介に参りました。」と発話する。次に、(2)第1キャラクターCR1が、「利用者Aさん、お話聞いてみますか?」と応答する。この応答に対して、利用者が肯定的な発話を行った場合、例えば、第2キャラクターCR2は、商品を紹介する。この応答に対して、利用者が否定的な発話を行った場合、例えば、第2キャラクターCR2は、商品の紹介を行わず、姿を消す。
FIG. 19 is a diagram (part 4) illustrating an example of an image displayed on the conversation and
このように、嗜好情報の取扱いについて、許可が得られた場合に、利用者の嗜好情報に応じた広告の情報が出力されるため、利用者に煩わしさを感じさせることを抑制しつつ、利用者にとっての利便性を向上させることができる。 As described above, when permission is obtained for the handling of preference information, advertisement information corresponding to the preference information of the user is output, so that it is possible to prevent the user from feeling annoying. It is possible to improve the convenience for the disabled.
なお、上述した例では、第1キャラクターCR1と第2キャラクターCR2とが会話する例について説明したが、これに代えて(または加えて)第2キャラクターCR2と、第3キャラクターとが会話してもよい。第3キャラクターは、例えば、第2キャラクターCR2がおすすめする商品(またはサービス)と競合する(または関連する)商品(またはサービス)を宣伝するキャラクターである。 In the example described above, an example in which the first character CR1 and the second character CR2 talk is described, but instead (or in addition) the second character CR2 and the third character talk Good. The third character is, for example, a character promoting a product (or service) that competes (or is associated with) a product (or service) recommended by the second character CR2.
以上説明した第3実施形態によれば、提供制御部50は、第1のキャラクターに応じた出力態様によって応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって特定情報を出力部に出力させ、第1のキャラクターと第2のキャラクターとの会話を出力部に出力させることにより、よりユーザに情報に対する興味を喚起させることができる。
According to the third embodiment described above, the
なお、上述した各実施形態の情報処理システム1では、端末装置10は一台であるものとして説明したが、二以上の端末装置10が設けられてもよい。この場合、自動応答装置40は、例えば、第1の端末装置10または第2の端末装置10から、その装置の識別情報と共に端末装置10に入力された音声データを取得する。そして、自動応答装置40は、取得した識別情報を参照して、第1の端末装置10に第1キャラクターの出力態様で応答内容を出力させ、第2の端末装置10に第2キャラクターの出力態様で特定情報を出力させる。
In addition, in the
以上説明した実施形態によれば、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを出力部に出力させる応答部と、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御する制御部とを備えることにより、利用者に違和感を与えないように情報を提供することができる。 According to the embodiment described above, the response unit for causing the output unit to output the response content for the voice emitted by the user and the specific information different from the response content, and the voice is the target of input or output By providing a control unit that controls the output mode of the specific information according to the usage degree of the user device, it is possible to provide information so as not to give the user a sense of discomfort.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for carrying out the present invention was explained using an embodiment, the present invention is not limited at all by such an embodiment, and various modification and substitution within the range which does not deviate from the gist of the present invention Can be added.
1,1A、1B…情報処理システム、10…端末装置、12…マイク、14…スピーカ、15…表示部、16…音声認識部、18…音声生成部、19…画像生成部、40、40A、40B…自動応答装置、42…利用者特定部、43…環境解析部、46…解釈部、48…応答部、49…画像提供部、50…提供制御部、52…学習部、80…広告提供装置、82…情報提供部
1, 1A, 1B: information processing system, 10: terminal device, 12: microphone, 14: speaker, 15: display unit, 16: voice recognition unit, 18: voice generation unit, 19: image generation unit, 40, 40A, DESCRIPTION OF
Claims (21)
音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御する制御部と、
を備える情報処理システム。 A response unit that outputs a response content to a voice uttered by the user and specific information different from the response content to the output unit;
A control unit configured to control an output mode of the specific information according to a usage degree of a user device to which voice is input or output;
An information processing system comprising:
請求項1に記載の情報処理システム。 The control unit increases the output degree of the specific information as the usage degree of the user device to which voice is input or output is increased.
The information processing system according to claim 1.
請求項1または2に記載の情報処理システム。 The degree of usage includes a value based on the number or frequency of user's input of voice to the user device.
The information processing system according to claim 1.
請求項1から3のうちいずれか1項に記載の情報処理システム。 The degree of use includes a value based on the number or frequency of user's voice output to the user device.
The information processing system according to any one of claims 1 to 3.
請求項1から4のうちいずれか1項に記載の情報処理システム。 The degree of having the user device output the sound is the degree of having the user device output the sound related to the advertisement.
The information processing system according to any one of claims 1 to 4.
請求項1から5のうちいずれか1項に記載の情報処理システム。 The degree of outputting the audio to the user device excludes the degree of outputting the music to the user device,
The information processing system according to any one of claims 1 to 5.
請求項1から6のうちいずれか1項に記載の情報処理システム。 The specific information is information on an advertisement,
The information processing system according to any one of claims 1 to 6.
請求項7に記載の情報処理システム。 The information related to the advertisement is information on a product having the same meaning as a voice or a word included in the response content issued by the user, or information on a product related to a word included in the voice or the response content. is there,
The information processing system according to claim 7.
請求項1から8のうちいずれか1項に記載の情報処理システム。 The control unit controls an output mode of the specific information based on a usage level of a user device to which a voice by the user is input or output and a time zone.
The information processing system according to any one of claims 1 to 8.
請求項1から9のうちいずれか1項に記載の情報処理システム。 The control unit controls an output mode of the specific information based on a usage level of a user device to which a voice by the user is input or output and an environment in which the user exists.
The information processing system according to any one of claims 1 to 9.
請求項1から10のうちいずれか1項に記載の情報処理システム。 The control unit controls an output mode of the specific information based on a usage level of a user device to which a voice by the user is input or output and a position where the user exists.
The information processing system according to any one of claims 1 to 10.
請求項1から11のうちいずれか1項に記載の情報処理システム。 The control unit controls an output mode of the specific information based on a use degree of a user device to which a voice by the user is input or output and a person existing around the user. To
The information processing system according to any one of claims 1 to 11.
請求項1から12のうちいずれか1項に記載の情報処理システム。 The control unit controls the output mode of the specific information based on the use degree of the user device to which the voice by the user is input or output and the schedule information of the user.
The information processing system according to any one of claims 1 to 12.
請求項1から13のうちいずれか1項に記載の情報処理システム。 The control unit controls an output mode of the specific information based on a use degree of a user device to which a voice by the user is input or output and an environmental sound of an environment where the user exists. ,
The information processing system according to any one of claims 1 to 13.
請求項14に記載の情報処理システム。 The control unit reduces the degree of change in the output mode of the specific information when the environmental sound of the environment where the user is present is greater than or equal to a predetermined level than when the environmental sound is less than the predetermined level. ,
The information processing system according to claim 14.
請求項1から15のうちいずれか1項に記載の情報処理システム。 The control unit controls the output mode of the specific information so that the user can easily hear the higher the usage level of the user device to which the voice by the user is input or output,
The information processing system according to any one of claims 1 to 15.
請求項1から16うちいずれか1項に記載の情報処理システム。 The output mode of the specific information is the size of the sound, the pitch of the sound, or the tempo at which the specific information is output.
The information processing system according to any one of claims 1 to 16.
請求項1から17のうちいずれか1項に記載の情報処理システム。 The control unit causes the output unit to output the response content in an output mode according to the first character, and causes the output unit to output the specific information in an output mode according to a second character.
The information processing system according to any one of claims 1 to 17.
音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記第2応答内容の出力態様を制御する制御部と、
を備える情報処理システム。 A response unit that causes the output unit to output a first response content to a voice uttered by the user and a second response content that is a response content to the voice uttered by the user and includes an advertisement;
A control unit configured to control an output mode of the second response content according to a usage degree of a user device to which voice is input or output.
An information processing system comprising:
利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報を出力部に出力させ、
音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御する、
情報処理方法。 One or more computers
The output unit is made to output, to an output unit, specific information different from the content of the response to the voice emitted by the user and the content of the response,
The output mode of the specific information is controlled according to the degree of use of the user device to which voice is input or output.
Information processing method.
利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報を出力部に出力させ、
音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御させる、
プログラム。 On one or more computers,
The output unit is made to output, to an output unit, specific information different from the content of the response to the voice emitted by the user and the content of the response,
The output mode of the specific information is controlled according to the degree of use of the user device to which voice is input or output.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008209A JP6774438B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008209A JP6774438B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019128654A true JP2019128654A (en) | 2019-08-01 |
JP6774438B2 JP6774438B2 (en) | 2020-10-21 |
Family
ID=67471402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018008209A Active JP6774438B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6774438B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020067877A (en) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | Interactive device and control program of interactive device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326176A (en) * | 1997-05-23 | 1998-12-08 | Oki Hokuriku Syst Kaihatsu:Kk | Voice conversation control method |
JP2002163171A (en) * | 2000-11-28 | 2002-06-07 | Sanyo Electric Co Ltd | Device and system for supporting user |
JP2003256421A (en) * | 2002-02-28 | 2003-09-12 | Jackpot:Kk | Character-type conversation system |
JP2004184788A (en) * | 2002-12-05 | 2004-07-02 | Casio Comput Co Ltd | Spoken dialogue system and program |
WO2016158792A1 (en) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, control method, and program |
-
2018
- 2018-01-22 JP JP2018008209A patent/JP6774438B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326176A (en) * | 1997-05-23 | 1998-12-08 | Oki Hokuriku Syst Kaihatsu:Kk | Voice conversation control method |
JP2002163171A (en) * | 2000-11-28 | 2002-06-07 | Sanyo Electric Co Ltd | Device and system for supporting user |
JP2003256421A (en) * | 2002-02-28 | 2003-09-12 | Jackpot:Kk | Character-type conversation system |
JP2004184788A (en) * | 2002-12-05 | 2004-07-02 | Casio Comput Co Ltd | Spoken dialogue system and program |
WO2016158792A1 (en) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, control method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020067877A (en) * | 2018-10-25 | 2020-04-30 | トヨタ自動車株式会社 | Interactive device and control program of interactive device |
JP7010193B2 (en) | 2018-10-25 | 2022-01-26 | トヨタ自動車株式会社 | Dialogue device and control program for dialogue unit |
Also Published As
Publication number | Publication date |
---|---|
JP6774438B2 (en) | 2020-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10783872B2 (en) | Integration of third party virtual assistants | |
AU2021286360B2 (en) | Systems and methods for integrating third party services with a digital assistant | |
US11575784B1 (en) | System and method for modifying the operational state of a telecommunication application using conversational processing | |
EP3766066B1 (en) | Generating response in conversation | |
US20220284896A1 (en) | Electronic personal interactive device | |
US9847084B2 (en) | Personality-based chatbot and methods | |
RU2637874C2 (en) | Generation of interactive recommendations for chat information systems | |
US11610092B2 (en) | Information processing system, information processing apparatus, information processing method, and recording medium | |
KR20240007261A (en) | Use large-scale language models to generate automated assistant response(s) | |
WO2015089336A2 (en) | Computer control of online social interactions based on conversation processing | |
JP6310796B2 (en) | Control device, control method, and control program | |
WO2020213468A1 (en) | Information processing system, information processing method, and program | |
CN111369275A (en) | Group identification and description method, coordination device and computer readable storage medium | |
CN111557001A (en) | Method, computer device and computer readable storage medium for providing natural language dialog by providing instant responsive language response | |
JP6774438B2 (en) | Information processing systems, information processing methods, and programs | |
US11922930B1 (en) | System and method for contextualized communication events and notifications for project management based on conversation processing | |
JP6788620B2 (en) | Information processing systems, information processing methods, and programs | |
JP6776284B2 (en) | Information processing systems, information processing methods, and programs | |
JP7420109B2 (en) | Information output system, server device and information output method | |
JP4741817B2 (en) | Audio output device, character image display device, audio output method, and character image display method | |
US20250124091A1 (en) | Proactive Multi-Modal Automotive Concierge | |
JP2022190870A (en) | Virtual assistant device and program for virtual assistant device | |
WO2019054009A1 (en) | Information processing device, information processing method and program | |
JP2018041494A (en) | Control device, control method, and control program | |
Fröhlich | Auditory human-computer interaction: An integrated approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190319 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6774438 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |