JP6776284B2 - Information processing systems, information processing methods, and programs - Google Patents
Information processing systems, information processing methods, and programs Download PDFInfo
- Publication number
- JP6776284B2 JP6776284B2 JP2018008211A JP2018008211A JP6776284B2 JP 6776284 B2 JP6776284 B2 JP 6776284B2 JP 2018008211 A JP2018008211 A JP 2018008211A JP 2018008211 A JP2018008211 A JP 2018008211A JP 6776284 B2 JP6776284 B2 JP 6776284B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- information
- unit
- character
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 44
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000004044 response Effects 0.000 claims description 184
- 238000000034 method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 230000007613 environmental effect Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 18
- 230000008859 change Effects 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003891 environmental analysis Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000002716 delivery method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、情報処理システム、情報処理方法、およびプログラムに関する。 The present invention relates to information processing systems, information processing methods, and programs.
従来、コミュニケーションシステムを用いた利用端末間のコミュニケーション中に、利用端末におけるコミュニケーション画面に利用端末が選択したキャラクターを表示するとともに,そのキャラクターに関連付けられた広告をサービス提供サーバ装置から配信し表示する広告配信方法が開示されている(例えば、特許文献1)。 Conventionally, during communication between user terminals using a communication system, an advertisement selected by the user terminal is displayed on the communication screen of the user terminal, and an advertisement associated with the character is distributed and displayed from a service providing server device. The delivery method is disclosed (for example, Patent Document 1).
しかしながら、従来の技術では、情報に対する興味を利用者に喚起させることができない場合があった。例えば、利用者が利用するキャラクターに応じた広告を出力する従来技術では、広告は固定された義務的な受領対象であったため、利用者の自発的関心の喚起に限界があった。 However, with the conventional technology, there are cases where it is not possible to arouse the user's interest in information. For example, in the conventional technology that outputs an advertisement according to a character used by a user, the advertisement is a fixed and obligatory receiving target, so that there is a limit to arousing the voluntary interest of the user.
本発明は、このような事情を考慮してなされたものであり、情報に対する興味をより利用者に喚起させることができる情報処理システム、情報処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects of the present invention is to provide an information processing system, an information processing method, and a program capable of arousing more interest in information to users. To do.
本発明の一態様は、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報を出力部に出力させる応答部と、第1のキャラクターに応じた出力態様によって前記応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって前記特定情報を出力部に出力させ、更に、前記第1のキャラクターと前記第2のキャラクターとの会話を示す情報を出力部に出力させる提供制御部とを備える情報処理システムである。 One aspect of the present invention is the response content according to the response content to the voice uttered by the user, the response unit that outputs specific information different from the response content to the output unit, and the output mode according to the first character. Is output to the output unit, the specific information is output to the output unit according to the output mode according to the second character, and further, information indicating a conversation between the first character and the second character is output to the output unit. It is an information processing system including a providing control unit for outputting.
本発明の一態様によれば、情報に対する興味をより利用者に喚起させることができる。 According to one aspect of the present invention, it is possible to arouse the user's interest in information.
以下、図面を参照し、本発明の情報処理システム、情報処理方法、およびプログラムの実施形態について説明する。 Hereinafter, the information processing system, the information processing method, and the embodiment of the program of the present invention will be described with reference to the drawings.
<概要(共通事項)>
情報処理システムは、一以上のプロセッサにより実現される。情報処理システムは、利用者により発せられた音声に対する応答内容と、応答内容とは異なる特定情報とを出力部に出力させる。「応答内容」は、例えば、AI(Artificial Intelligence;人工知能)や、深層学習などの機械学習されたモデルにより動作する自動応答装置が決定する情報である。「特定情報」とは、例えば、広告や、挨拶、会話のきっかけとなる発話、お知らせ(例えばレコメンドやパスワード変更の要求)等の、利用者により発せられた音声に対する応答に該当しない情報である。
<Overview (common matters)>
The information processing system is realized by one or more processors. The information processing system outputs the response content to the voice uttered by the user and specific information different from the response content to the output unit. The "response content" is information determined by an automatic response device that operates by a machine-learned model such as AI (Artificial Intelligence) or deep learning. The "specific information" is information that does not correspond to a response to a voice uttered by a user, such as an advertisement, a greeting, an utterance that triggers a conversation, or a notification (for example, a recommendation or a request for changing a password).
[概要(その1)]
情報処理システムは、音声が入力または出力の対象とされたユーザデバイス(例えば、マイクやスピーカ)の利用度合に応じて、特定情報の出力態様を制御する。「利用度合」とは、例えば、音声をユーザデバイスに入力した回数または頻度に基づく値、または音声をユーザデバイスに出力させた回数または頻度に基づく値である。例えば、ユーザデバイスの利用度合が高いほど、特定情報の出力量を多くする。すなわち、音声入力または出力を普段から多用するユーザには自動応答装置からの話しかけや音声広告を多く出力する。また、ユーザデバイスの利用度合が高いほど、特定情報の出力態様を利用者が聞き取りやすいように制御する。「出力態様」とは、例えば、音の大きさや、音の高低、情報が出力されるテンポである。概要(その1)については、後述する第1実施形態を中心に説明する。
[Overview (1)]
The information processing system controls the output mode of specific information according to the degree of utilization of a user device (for example, a microphone or a speaker) whose voice is input or output. The "utilization degree" is, for example, a value based on the number or frequency of inputting voice to the user device, or a value based on the number of times or frequency of outputting voice to the user device. For example, the higher the usage of the user device, the larger the output amount of specific information. That is, a lot of talks and voice advertisements from the automatic response device are output to the user who usually uses voice input or output a lot. Further, the higher the degree of use of the user device, the easier it is to control the output mode of the specific information so that the user can easily hear it. The "output mode" is, for example, the loudness of a sound, the pitch of a sound, and the tempo at which information is output. The outline (No. 1) will be described focusing on the first embodiment described later.
[概要(その2)]
情報処理システムは、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を第2出力態様に変更して、特定情報を出力部に出力させる。「第2出力態様」は、第1出力態様よりも利用者が聞き取りやすい出力態様である。すなわち、自動応答装置との対話において特定情報(例えば音声広告)のみの音量を小さくし利用者からの要望や操作に応じて音量をアップする。概要(その2)については、後述する第2実施形態を中心に説明する。
[Overview (Part 2)]
When the information processing system receives the user's instruction after changing the output mode of the specific information to the first output mode that is harder for the user to hear than the third output mode of the response content and outputting it to the output unit. The output mode of the specific information is changed to the second output mode, and the specific information is output to the output unit. The "second output mode" is an output mode that is easier for the user to hear than the first output mode. That is, in the dialogue with the automatic response device, the volume of only specific information (for example, voice advertisement) is reduced, and the volume is increased in response to a request or operation from the user. The outline (No. 2) will be described focusing on the second embodiment described later.
[概要(その3)]
情報処理システムは、第1のキャラクターに応じた出力態様によって応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって特定情報を出力部に出力させる。更に、情報処理システムは、第1のキャラクターと第2のキャラクターとの会話を出力部に出力させる。「第1のキャラクター」は、例えば、日常において、利用者と対話したり、利用者の発話に対して応答したりするキャラクターである。「第2のキャラクター」は、例えば、第1のキャラクターとは異なるキャラクターであって、特定情報(例えば広告)に対応付けられたキャラクターである。このように、利用者と対話する第1のキャラクターと、音声広告に対応した第2のキャラクターとが、会話することで利用者の広告に対する興味を喚起させる。概要(その3)については、後述する第3実施形態を中心に説明する。
[Summary (3)]
The information processing system outputs the response content to the output unit according to the output mode according to the first character, and outputs the specific information to the output unit according to the output mode according to the second character. Further, the information processing system causes the output unit to output the conversation between the first character and the second character. The "first character" is, for example, a character that interacts with the user and responds to the user's utterance in daily life. The "second character" is, for example, a character different from the first character and associated with specific information (for example, an advertisement). In this way, the first character interacting with the user and the second character corresponding to the voice advertisement arouse the user's interest in the advertisement by having a conversation. The outline (No. 3) will be described focusing on the third embodiment described later.
<第1実施形態>
[全体構成]
図1は、情報処理システム1の構成を示す図である。情報処理システム1は、例えば、端末装置10と、自動応答装置40と、広告提供装置80とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。本実施形態では、自動応答装置40が、「情報処理システム」の一例である。また、「情報処理システム」は、端末装置10および/または広告提供装置80を含んでもよい。
<First Embodiment>
[overall structure]
FIG. 1 is a diagram showing a configuration of an
[端末装置の機能構成]
端末装置10は、例えば、スマートスピーカ(Artificial intelligenceスピーカ)や、スマートフォン、タブレット端末、パーソナルコンピュータ等である。第1実施形態では端末装置10は、スマートスピーカであるものとして説明する。
[Functional configuration of terminal device]
The
端末装置10は、例えば、マイク12と、スピーカ14と、音声認識部16と、音声生成部18と、端末制御部20と、端末装置側通信部22と、記憶部30とを備える。音声認識部16、音声生成部18、および端末制御部20は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサが、フラッシュメモリなどの記憶部30に記憶されたアプリケーションプログラム(アプリ32)を実行することにより実現される。アプリ32は、例えば、ネットワークを介してサーバ装置等からダウンロードされてもよいし、予め端末装置10にプリインストールされていてもよい。なお、アプリケーションプログラムに代えて、以下に説明するものと同様の機能を有するブラウザがUA(User Agent)として用いられてもよい。なお、端末装置10に含まれる一部または全部の機能は、自動応答装置40に含まれてもよい。
The
マイク12は、利用者によって発せられた音声、または端末装置10が存在する環境の環境音を取得する。スピーカは、音声生成部18により生成された情報に応じた音声を出力する。
The
音声認識部16は、マイク12により取得された音声をデジタルデータ(音声データ)に変換する。音声生成部18は、自動応答装置40により送信された情報に基づいて、スピーカ14に出力させる音声に応じた情報を生成する。
The
端末制御部20は、音声認識部16により変換されたデジタルデータを、端末装置側通信部22を用いて、自動応答装置40に送信する。端末制御部20は、自動応答装置40により送信された情報を、端末装置側通信部22を介して取得する。
The
端末装置側通信部22は、例えば、無線通信インターフェースである。端末装置側通信部22は、自動応答装置40により送信された情報を取得したり、端末装置10において処理された処理結果を自動応答装置40に送信したりする。
The terminal device
[自動応答装置の機能構成]
自動応答装置40は、例えば、利用者特定部42と、環境解析部43と、パターン特定部44と、解釈部46と、応答部48と、提供制御部50と、学習部52と、応答装置側通信部54と、第1記憶部60と、第2記憶部70とを備える。利用者特定部42、環境解析部43、パターン特定部44、解釈部46、応答部48、提供制御部50、および学習部52は、例えば、CPU等のハードウェアプロセッサが、記憶装置(例えば第1記憶部60)に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が自動応答装置40のドライブ装置に装着されることで記憶装置にインストールされてもよい。第1記憶部60および第2記憶部70は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、レジスタ等によって実現される。
[Functional configuration of interactive voice response]
The
第1記憶部60には、例えば、後述する、利用者特定情報62、環境特定情報63、環境パターン情報64、正規表現情報66、およびシナリオ情報68が記憶されている。第2記憶部70には、例えば、後述する、出力度合情報72、および利用情報74が記憶されている。第1記憶部60と第2記憶部70は、必ずしも別体の記憶装置により実現される必要はなく、一体の記憶装置における異なる記憶領域であってもよい。
The
利用者特定部42は、例えば、端末装置10により送信された音声データから人の声を表すと推定される音声データの成分(以下、発話成分)を抽出する。利用者特定部42は、抽出した発話成分と、利用者特定情報62に含まれる情報とを照合して、抽出した発話成分により表される音声を発した人物を特定する。利用者特定情報62は、利用者の識別情報と、その利用者の声の特徴を示す情報(例えば、声紋パターンや周波数パターン)が対応付けられた情報である。
For example, the
また、利用者特定部42は、利用者特定情報62を参照し、音声を発した利用者の周辺に存在する人物の種別を特定してもよい。この場合、利用者特定情報62には、予め利用者の家族や友人などの声の特徴を示す情報が含まれている。また、利用者特定部42は、端末装置側通信部22を介して、家族等が保有する端末装置とWi-Fiルーターとの接続状態を示す情報を取得し、取得した情報に基づいて、端末装置の保有者がWi-Fiルーターが設置された位置付近に存在するか否かを判定してもよい。
Further, the
環境解析部43は、例えば、端末装置10により送信された音声データから人の声以外の環境音を表すと推定される音声データの成分(以下、環境音成分)を抽出する。環境解析部43は、抽出した環境音成分と、環境特定情報63に含まれる情報とを照合して、抽出した環境音成分により表される環境音の大きさや、その環境音の発生要因を特定する。環境特定情報63は、環境音の発生要因の識別情報と、環境音の発生要因ごとの音の特徴とが互いに対応付けられた情報である。
For example, the
パターン特定部44は、例えば、環境パターン情報64と、利用者特定部42の処理結果、および環境解析部43の処理結果に基づいて、環境パターンを特定する。環境パターンとは、利用者が存在している環境について、所定の基準に従って分類されたパターンである。詳細は後述する。
The
解釈部46は、例えば、人の声に対応する音声データを、テキスト情報に変換し、更に、テキスト情報と正規表現情報66とを照合して、利用者の発話の意味を解釈する。例えば、利用者により「新宿から渋谷までの行き方を教えて」と発話されたものとする。解釈部46は、上記の発話を形態素解析し、発話を品詞に分割する。そして、解釈部46は、固有名詞かつ場所名に該当する新宿および渋谷を符号に変換した検索キーを生成し、正規表現情報68を検索する。正規表現情報68には、固有名詞を抽象化した符号に変換した情報(正規表現)が登録されている。例えば、「〇〇から××への行き方を教えて」、「〇〇から××までの行き方を教えて」などのテキストが付与された情報が正規表現として登録されている。
For example, the
応答部48は、例えば、正規表現情報68に含まれる「(固有名詞、場所)から(固有名詞、場所)までの行き方を教えて」に対応するテキスト情報を取得し、〇〇から××までの行き方を提供すればよいことを認識する。
The
そして、応答部48は、(固有名詞、場所)の部分に、符号化された元情報である「新宿」および「渋谷」を埋め込むことで、「新宿から渋谷までの行き方を知りたい」という利用者の意思を認識する。応答部48は、ネットワーク検索などを行い、新宿から渋谷までの行き方を取得する。応答部48は、例えば、シナリオ情報68を参照し、新宿から渋谷までの行き方を示す、端末装置10において出力するための音声元情報を生成する。シナリオ情報68は、例えば、利用者の発話に対して応答すべき内容が予め保持されている。すなわち、利用者が「〇〇から××までの行き方を知りたい」という意思を有する発話に対する応答内容が保持されている。シナリオ情報68は、例えば、応答内容が利用者の嗜好等に合致するように利用者ごとに用意されている。
Then, the
なお、上記の応答部48などの自動応答装置40に含まれる一部または全部の機能は、端末装置10に備えられてもよい。また、正規表現情報66やシナリオ情報68などの情報も端末装置10の記憶装置に記憶されていてもよい。
Note that some or all of the functions included in the
提供制御部50は、応答部48により生成された音声元情報を、端末装置10に出力させるために、応答装置側通信部54を用いて、音声元情報を端末装置10に送信する。更に、提供制御部50は、広告提供装置80により送信された音声元情報を端末装置10に出力させるために、応答装置側通信部54を用いて、その音声元情報を端末装置10に送信する。
The providing
また、提供制御部50は、応答内容または特定情報の出力態様を指定し、指定した出力態様で応答内容または特定情報を端末装置10のスピーカ14に出力させるために、指定した出力態様と応答内容または特定情報とを対応付けた情報を、応答装置側通信部54を用いて端末装置10に送信する。この提供制御部50の機能は、端末装置10に備えられてもよい。
Further, the
学習部52は、端末装置10のスピーカ14に出力させた応答内容または特定情報の内容、出力させた情報の出力態様、利用者の反応、および環境パターンを学習する。学習とは、例えば、人工知能を用いた学習や、深層学習などの機械学習等である。
The
応答装置側通信部54は、ネットワークインターフェースカード(Network Interface Card)等の通信インターフェースを含む。応答装置側通信部54は、端末装置10または広告提供装置80により送信された情報を取得したり、自動応答装置40において処理された処理結果を端末装置10または広告提供装置80に送信したりする。
The
[広告提供装置]
広告提供装置80は、例えば、情報提供部82と、広告提供装置側通信部84と、広告提供装置側記憶部90とを備える。情報提供部82は、利用者の発話により入力された情報、または自動応答装置40の応答内容に基づいて、利用者に提供する広告を抽出し、抽出した広告に関する情報(例えば音声元情報および音声を出力する出力態様)を自動応答装置40に提供する。
[Advertising provider]
The
広告提供装置側通信部84は、ネットワークインターフェースカード等の通信インターフェースを含む。広告提供装置側通信部84は、自動応答装置40により送信された情報を取得したり、広告提供装置80において処理された処理結果を自動応答装置40に送信したりする。広告提供装置側記憶部90には、後述する広告情報92が記憶されている。なお、広告提供装置80と自動応答装置40とは一体の装置として設けられてもよい。
The
[フローチャート(出力度合を決定する処理)]
図2は、情報処理システム1により実行される処理の流れの一例を示すフローチャートである。本処理は、利用者による音声UI(ユーザインタフェース/ユーザデバイス)の利用の量に応じ、人工物からの音声出力の量を制御する処理である。この音声UIは音声認識である。
[Flowchart (process to determine the degree of output)]
FIG. 2 is a flowchart showing an example of the flow of processing executed by the
まず、端末装置10は、利用者により音声が入力されたか否かを判定する(S10)。利用者により音声が入力された場合(利用者と自動応答装置40との会話が開始された場合)、入力された音声データ(発話成分および環境音成分)は、自動応答装置40に送信される。
First, the
自動応答装置40は、発話成分を取得し、取得した発話成分と利用者特定情報62に基づいて、利用者を特定する(S20)。自動応答装置40は、環境音成分を取得し、取得した環境音成分と環境パターン情報64に基づいて、環境パターンを特定する(S22)。
The
図3は、環境パターン情報64の内容の一例を示す図である。環境パターン情報64は、複数の環境パターンと、分類基準とが対応付けられた情報である。環境パターンの分類基準は、例えば、曜日や、時間、利用者の周囲に存在している人物の数、人物の種別、利用者が存在している環境音の大きさ、利用者が存在している環境(自宅、オフィス、街)、利用者が存在している位置、および利用者のスケジュール(事前に登録された現在の予定)等のうち、少なくとも一以上の項目に基づいて、分類されるパターンである。
FIG. 3 is a diagram showing an example of the contents of the
利用者が存在している環境、利用者が存在している位置、または利用者のスケジュールは、例えば予め利用者により設定された情報である。また、利用者が存在している環境、または利用者が存在している位置は、不図示のGPS(Global Positioning System)を利用した位置測位装置により測位された情報に基づいて特定されてもよい。また、利用者のスケジュールは、端末装置10が他の装置からネットワークNWを介して取得した情報であってもよい。
The environment in which the user exists, the location in which the user exists, or the schedule of the user is, for example, information set in advance by the user. Further, the environment in which the user exists or the position where the user exists may be specified based on the information positioned by the positioning device using GPS (Global Positioning System) (not shown). .. Further, the user's schedule may be information acquired by the
次に、自動応答装置40は、特定した利用者に提供する広告の内容を決定するように広告提供装置80に依頼する(S24)。この際、自動応答装置40は、端末装置10に入力された音声に含まれる情報をテキスト情報に変換したテキスト情報を広告提供装置80に送信する。
Next, the
広告提供装置80は、自動応答装置40の依頼に応じて、広告情報92を参照して、テキスト情報に対応する利用者に提供する広告の内容を決定する(S30)。なお、広告提供装置80は、利用者に提供する広告が存在しない場合、その旨を自動応答装置40に送信する。
In response to the request of the
図4は、広告情報92の内容の一例を示す図である。広告情報92は、広告IDに対して、キャラクター、商品(またはサービス)、シナリオ、およびキーワードが対応付けられた情報である。「キャラクター」とは、所定の特徴を有する人物や、人に見立てた動物、植物、創作物、人工物などである。キャラクターは、商品ごとに設けられてもよいし、複数の商品ごとや、キャンペーンごとに設けられてもよい。
FIG. 4 is a diagram showing an example of the content of the
「シナリオ」とは、キャラクターが発する言葉(または言動)の内容や順序を規定したものである。シナリオは、例えば、キャラクターごとに設けられている。また、広告情報92には、シナリオに加え、音声のトーンや、テンポ等のキャラクターの特徴がキャラクターに対して対応付けられている。商品やキャンペーンごとのキャラクターは、シナリオ(行動ルール)を基に自律的に行動する。
The "scenario" defines the content and order of words (or words and actions) uttered by the character. The scenario is provided for each character, for example. Further, in the
「キーワード」は、広告に関連付けられた言葉である。[キーワード]は、商品を示す言葉の意味(意味情報)と同一の意味を有する言葉、または商品を示す言葉の意味に関連する言葉である。関連する言葉とは、商品を示す言葉から一般的に想起される言葉である。例えば、広告提供装置80は、利用者により入力された言葉または自動応答装置40により発せられた音声に含まれる言葉と、広告情報92のキーワードとが合致する場合に、合致するキーワードに対応付けられた広告IDに対応する情報(キャラクターが発話する音声元情報等)を自動応答装置40に送信する。なお、広告提供装置80は、人工知能や、深層学習などの機械学習されたモデルにより利用者に提供する情報を決定してもよい。
A "keyword" is a word associated with an advertisement. A [keyword] is a word having the same meaning as the meaning (semantic information) of a word indicating a product, or a word related to the meaning of a word indicating a product. Related words are words that are commonly recalled from words that indicate a product. For example, the
次に、自動応答装置40は、後述する出力度合情報72を参照して、環境パターンに応じた広告の出力度合を決定し、決定した出力度合で広告を出力するように端末装置10に指示をする(S26)。次に、端末装置10は、自動応答装置40の指示に基づいて、広告を出力する(S12)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
図5は、出力度合情報72の内容の一例を示す図である。出力度合情報72は、例えば、環境パターンごとに用意されている。また、出力度合情報72は、利用者IDに対して、環境パターンにおける過去の利用度合および広告を出力する出力度合が対応付けられた情報である。
FIG. 5 is a diagram showing an example of the contents of the
「過去の利用度合」とは、利用者が過去にスピーカ14から音声による情報(例えば広告)の提供を受けた度合、または利用者が過去にマイク12に音声を用いて情報を入力した度合である。「出力度合」とは、スピーカ14を用いて利用者に情報を出力する場合に、出力される音の大きさである。「出力度合」は、「出力態様」の一例である。出力度合は、例えば、過去の利用度合が多いほど、出力される音の大きさは大きくなるように設定されている。なお、「スピーカ14から音声による情報の提供を受けた度合」において、音楽を出力させた度合は除かれてもよい。
The "past usage degree" is the degree to which the user has received voice information (for example, advertisement) from the
また、出力度合情報72において、出力度合に代えて、他の出力に関する態様が対応付けられていてもよい。出力に関する態様とは、例えば、音の大きさ加え、音の高低、広告の内容が出力されるテンポ等である。出力に関する態様は、例えば、過去の利用度合が多いほど、利用者が聞き取りやすいように設定されている。
Further, in the
また、利用者が存在する環境の環境音が所定の大きさ以上の場合、環境音が所定の大きさ未満の場合よりも、特定情報の出力態様の変化度合を小さくしてもよい。すなわち、もともと環境音が大きい環境においては、特定情報の出力を大きくさせなくてもよい。 Further, when the environmental sound of the environment in which the user exists is equal to or larger than a predetermined loudness, the degree of change in the output mode of the specific information may be smaller than that when the environmental sound is less than the predetermined loudness. That is, in an environment where the environmental sound is originally loud, it is not necessary to increase the output of specific information.
上述したように、自動応答装置40が、出力度合情報72を参照することにより、利用者に違和感を与えないように情報を提供することができる。
As described above, the
なお、上述した説明では、一例として、利用者が音声を入力した場合に、利用度合に基づいて出力態様を制御する例について説明したが、単に自動応答装置40が発話したり、情報を出力したりする場合において利用度合に基づいて出力態様を制御してもよい。
In the above description, as an example, when the user inputs voice, the output mode is controlled based on the degree of use, but the
[具体例(その1)]
図6は、利用者と自動応答装置40との会話の一例を示す図である。例えば、図6(A)に示すように、(1)利用者が「新しい車が欲しいな。」とマイク12に入力する。
(2)自動応答装置40は、第1キャラクターの出力態様で、「どんな車が欲しいの?」と応答する。
[Specific example (1)]
FIG. 6 is a diagram showing an example of a conversation between the user and the
(2) The
次に、図6(B)に示すように、(3)利用者が「燃費のいい車がいいな。」とマイク12に入力する。(4)自動応答装置40は、第1キャラクターの出力態様で、「節約できるからいいよね。」と応答する。そして、(5)自動応答装置40は、第2キャラクターの出力態様で、「車Aが燃費いいよ。」と発話する。この第2キャラクターの出力態様は、ユーザデバイスの利用度合に応じた出力態様である。
Next, as shown in FIG. 6 (B), (3) the user inputs to the
次に、図6(C)に示すように、(6)利用者が「詳しく教えて。」とマイク12に入力する。(7)自動応答装置40は、第2キャラクターの出力態様で、「車Aは電気自動車だよ。フル充電で〇〇キロ走行可能だよ。」と応答する。
Next, as shown in FIG. 6 (C), (6) the user inputs "Tell me in detail." To the
このように、第1キャラクターと利用者との会話において、キーワードが出現した場合、自動応答装置40は、ユーザデバイスの利用度合に応じた出力態様で、キーワードに基づく広告を第2キャラクターの出力態様で、利用者に提供する。この結果、利用者に違和感を与えないように情報を提供することができる。
In this way, when a keyword appears in the conversation between the first character and the user, the
なお、上記の(6)で、車Aに興味を示さなかった場合、第2キャラクターは、その後、発話しなくてもよい。また、車Aに興味を示さなかった場合、他の車に対応するキャラクターの出力態様で、他の車を紹介してもよい。 If the car A is not interested in the above (6), the second character does not have to speak after that. Further, if the car A is not interested, the other car may be introduced in the output mode of the character corresponding to the other car.
また、車の広告を提供したい場合、自動応答装置40は、第1キャラクターに車の話題で会話するような発話や応答を行ってもよい。この場合、例えば、自動応答装置40は、上述したキーワード、キーワードを誘導するような発話を行う。例えば、出力したい特定情報に基づいて、キャラクターの会話が選択される。
Further, when it is desired to provide an advertisement for a car, the
また、上述した例では、第2キャラクターの発話の出力度合を変更するものとしたが、第1キャラクターの発話の出力度合が変更されてもよい。また、出力度合は、利用者とキャラクターとの会話の度合に基づいて変更されてもよい。例えば、第1キャラクターと利用者との会話の度合が、第Nキャラクター(Nは任意の自然数)と利用者との会話の度合よりも高い場合、第1キャラクターが利用者に話し掛ける度合を、第Nキャラクターが利用者に話しかける度合よりも多くする。 Further, in the above-described example, the output degree of the utterance of the second character is changed, but the output degree of the utterance of the first character may be changed. Further, the output degree may be changed based on the degree of conversation between the user and the character. For example, if the degree of conversation between the first character and the user is higher than the degree of conversation between the Nth character (N is an arbitrary natural number) and the user, the degree of conversation between the first character and the user is determined to be the first. Make it more than the N character talks to the user.
[フローチャート(学習する処理)]
図7は、端末装置10および自動応答装置40により実行される処理の流れの一例を示すフローチャートである。図6のフローチャートのS40、S50、およびS52の処理は、図2のフローチャートのS10、S20、およびS22の処理と同様のため説明を省略する。
[Flowchart (learning process)]
FIG. 7 is a flowchart showing an example of the flow of processing executed by the
S52の処理後に、自動応答装置40は、自装置が情報を利用者に提供したか否かを判定する(S54)。情報を利用者に提供した場合、自動応答装置40は、提供した情報の内容、および情報の提供後の利用者の反応を取得し、取得した反応を利用情報74として第2記憶部70に記憶させる(S56)。
After the processing of S52, the
図8は、利用情報74の内容の一例を示す図である。利用情報74は、利用者ごとに、過去に利用者により入力された情報、または過去に利用者に対して出力された情報と、入力された情報、または出力された情報の出力態様と、環境パターンと、出力された情報に対する利用者の反応(例えば指示)とが互いに対応付けられた情報である。
FIG. 8 is a diagram showing an example of the contents of the
次に、自動応答装置40は、所定のタイミングに到達したか否かを判定する(S58)。所定のタイミングに到達していない場合、本フローチャートの1ルーチンの処理が終了する。所定のタイミングに到達した場合、自動応答装置40は、利用情報74を学習データとして学習する(S60)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
上述したように、利用者に情報を提供した際の利用者の反応や、環境パターン、情報の出力態様、情報の内容が学習されることにより、利用者の好みを把握することができる。そして、学習部52は、利用者の好みを反映させて出力度合情報72を生成したり、更新したりすることができる。
As described above, the user's preference can be grasped by learning the user's reaction when the information is provided to the user, the environmental pattern, the information output mode, and the content of the information. Then, the
例えば、土曜日や、時間帯が7時〜8時、利用者の周囲に親が存在している場合、利用者が自宅にいる場合、またはプライベートのスケジュールが予定されている時間帯において、他の状況の場合よりも抑制するように特定情報が出力されるように指示されたことを示す情報が、利用情報74に含まれているものとする。この場合、学習部52は、上述した状況に対応する環境パターンでは、特定情報の出力を抑制するように、出力度合情報72を生成する。
For example, on Saturdays, from 7:00 to 8:00, when there are parents around the user, when the user is at home, or when a private schedule is scheduled, other times. It is assumed that the
上述したように、利用者と音声インタラクションするスマートスピーカなどの人工物が、音声広告や話し掛けを過剰に行うと利用者は煩雑に感じる場合があるが、本実施形態では、利用者の音声インタラクションの利用度合や、インタラクションが行われた状況に応じて、音声広告や話し掛けを調整するため、利用者に違和感を与えないように情報を提供することができる。 As described above, the user may feel complicated when an artificial object such as a smart speaker that interacts with the user excessively voice advertisements or talks, but in the present embodiment, the voice interaction of the user is performed. Since the voice advertisement and the conversation are adjusted according to the degree of use and the situation in which the interaction is performed, it is possible to provide information so as not to give the user a sense of discomfort.
なお、上述した例では、提供制御部50が、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、特定情報の出力態様を制御するものとして説明したが、これに代えて(或いは加えて)、以下のように変更されてもよい。すなわち、提供制御部50は、ユーザデバイスの利用度合に応じて、第2応答内容の出力態様を制御する。この「第2応答内容」は、利用者により発せられた音声に対する応答内容であって広告を含む内容である。例えば、この場合、自動応答装置40は、広告を含む応答内容を決定し、決定した応答内容をユーザデバイスの利用度合に応じた出力態様で端末装置10に出力させる。このように、応答内容そのものが広告となり、且つ応答内容の制御態様が制御されるため、利用者に違和感を与えないように情報を提供することができる。
In the above-described example, the
以上説明した第1実施形態によれば、提供制御部50が、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、特定情報の出力態様を制御することにより、利用者に違和感を与えないように情報を提供することができる。
According to the first embodiment described above, the
<第2実施形態>
以下、第2実施形態について説明する。提供制御部50は、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を出力部に出力させる。第1実施形態との相違点を中心に説明する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. The
図9は、第2実施形態の情報処理システム1Aに含まれる自動応答装置40Aの機能構成の一例を示す図である。自動応答装置40Aは、第2記憶部70に代えて、第2記憶部70Aを備える。第2記憶部70Aは、例えば、出力度合情報72および利用情報74に加え、更に指示対応情報76(詳細は後述する)を備える。
FIG. 9 is a diagram showing an example of the functional configuration of the
第2実施形態の応答部48は、特定情報を端末装置10に出力させる場合、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1態様に変更して、特定情報を端末装置10に出力させる。
When the
上記のように特定情報を端末装置10に出力させた後、自動応答装置40Aは、利用者の指示を受け付けた場合に、特定情報の出願態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を端末装置10に出力させる。第2出力態様は、例えば、第1出力態様よりも、音量が大きい、音の周波数帯が利用者にとって聞き取りやすい、情報が出力されるテンポが適切である態様である。
After outputting the specific information to the
なお、利用者が聞き取りにくい第1態様に変更する処理において、利用者が存在する環境の環境音が所定の大きさ以上の場合、環境音が所定の大きさ未満の場合よりも、特定情報の出力態様を変化させなくてもよいし、出力態様の変化度合を小さくしてもよい。もともと環境音が大きい環境で出力態様を変更しても利用者に対する影響が小さいためである。 In the process of changing to the first mode, which is difficult for the user to hear, when the environmental sound of the environment in which the user exists is equal to or larger than the predetermined loudness, the specific information is more important than when the environmental sound is less than the predetermined loudness. The output mode may not be changed, or the degree of change in the output mode may be reduced. This is because even if the output mode is changed in an environment where the environmental sound is originally loud, the influence on the user is small.
[フローチャート]
図10は、端末装置10および第2実施形態の自動応答装置40Aにより実行される処理の流れの一例を示すフローチャートである。本処理は、第1出力態様で特定情報が出力された後に実行される処理である。図10のフローチャートのS60、S70、およびS72の処理は、図2のフローチャートのS10、S20、およびS22の処理と同様のため説明を省略する。
[flowchart]
FIG. 10 is a flowchart showing an example of a processing flow executed by the
次に、自動応答装置40Aは、指示対応情報76を参照し、特定された利用者と、特定された環境パターンと、入力された音声に含まれる情報(指示の内容)との組み合わせに合致する広告の情報の出力態様を決定する(S74)。指示の内容とは、利用者が情報の出力に関して求めた指示の情報である。指示の内容とは、例えば、ボリュームを上げることや、ゆっくりと情報を出力させること、高い音で情報を出力させること、数秒前に出力された情報を出力すること等、またはこれらの組み合わせである。
Next, the
図11は、指示対応情報76の内容の一例を示す図である。指示対応情報76は、利用者によって行われた指示に対して、どのような出力態様で情報を出力するかを決定するのに用いられる情報である。指示対応情報76は、例えば、環境パターンごとに、利用者ID、指示の内容、および出力態様が互いに対応付けられた情報である。
FIG. 11 is a diagram showing an example of the contents of the
次に、自動応答装置40Aは、端末装置10に決定した出力態様で広告の情報を出力するように指示する(S76)。次に、端末装置10は、自動応答装置40Aの指示に基づいて、決定された出力態様で広告の情報をスピーカ14に出力させる(S62)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
上述したように、自動応答装置40が、利用者の求めに応じて出力態様を変更するため、利用者に違和感を与えないように情報を提供することができる。
As described above, since the
[具体例(その2−1)]
図12は、第2実施形態の利用者と自動応答装置40Aとの会話の一例を示す図である。例えば、図12(A)に示すように、(1)利用者が「新しい車が欲しいな。」とマイク12に入力する。(2)自動応答装置40Aは、第1キャラクターの出力態様で、「どんな車が欲しいの?」と応答する。
[Specific example (No. 2-1)]
FIG. 12 is a diagram showing an example of a conversation between the user of the second embodiment and the
次に、図12(B)に示すように、(3)利用者が「燃費のいい車がいいな。」とマイク12に入力する。(4)自動応答装置40Aは、第1キャラクターの出力態様で、「節約できるからいいよね。」と応答する。
Next, as shown in FIG. 12 (B), (3) the user inputs to the
次に、例えば、数秒程度、利用者によって発話がされない場合、図12(C)に示すように、(5)自動応答装置40Aは、第2キャラクターの出力態様であり、且つ第1出力態様で、「車Aをおすすめします。・・・・」と発話する。
Next, for example, when the user does not speak for about several seconds, (5) the
(6)利用者は、上記(5)で出力された情報に興味を持っていたが音量が小さいため聞こえなかったことから、「聞こえないよ。」と発話する。そうすると、(7)自動応答装置40Aは、第2キャラクターの出力態様であり、且つ音量を上げて、上記(5)で出力させた情報を端末装置10に出力させる。すなわち、第2キャラクターが「車Aをおすすめします。・・・」と、再度、発話する。
(6) The user was interested in the information output in (5) above, but could not hear it because the volume was low, so he said, "I can't hear it." Then, (7) the
このように、第2キャラクターが情報を出力する場合の出力態様を、第1キャラクターが情報を出力する場合の出力態様よりも、利用者が聞き取りにくくすることにより、利用者に煩わしさを感じさせることを抑制することができる。また、利用者の求めに応じ、第2キャラクターが情報を出力する場合の出力態様を、利用者が聞き取りやすいようにすることにより、利用者にとっての利便性を向上させることができる。 In this way, the output mode when the second character outputs the information is harder for the user to hear than the output mode when the first character outputs the information, which makes the user feel annoyed. Can be suppressed. In addition, the convenience for the user can be improved by making the output mode when the second character outputs the information in response to the user's request easy for the user to hear.
なお、上述した説明では、一例として、利用者が音声を入力した場合に、特定情報が出力される例について説明したが、単に自動応答装置40Aが特定情報を出力する場合において、上記のように出力態様が制御されてもよい。また、例えば、出力したい特定情報に基づいて、第1のキャラクターと第2のキャラクターの会話が選択されてもよい。
In the above description, as an example, when the user inputs voice, the specific information is output. However, when the
[具体例(その2−2)]
図13は、広告の情報が出力される際の音量の変化を示す図である。図13の縦軸は音の大きさを示し、図13の横軸は時間を示している。以下で説明する広告A〜Cの各広告の長さ(時間)は、例えば所定秒(例えば15秒程度)である。広告A〜Cの順で広告の情報が出力される予定であるものとする。この場合において、例えば、広告Aが出力され、広告Bが出力され、広告Bの内容が出力されている途中(図13の時刻T)で、利用者が音量を上げることを指示した。自動応答装置40Aは、時刻Tにおいて、広告Bの内容を最初から端末装置10に出力させる。すなわち、所定時間遡った部分や音量を絞った部分から、広告Bが再出力される。また、その後、自動応答装置40Aは、図示するように広告Bの内容が出力された後、音量を上げる前の音量に下げてもよいし、音量を上げた状態を維持してもよい。
[Specific example (2-2)]
FIG. 13 is a diagram showing a change in volume when advertising information is output. The vertical axis of FIG. 13 indicates loudness, and the horizontal axis of FIG. 13 indicates time. The length (time) of each of the advertisements A to C described below is, for example, a predetermined second (for example, about 15 seconds). It is assumed that the advertisement information is to be output in the order of advertisements A to C. In this case, for example, the user instructed to raise the volume while the advertisement A was output, the advertisement B was output, and the content of the advertisement B was being output (time T in FIG. 13). At time T, the
上述したように、自動応答装置40Aが、利用者により指示がされた場合に、指示された際に出力していた広告を最初から出力させるため、利用者は所望の情報を取得することができる。
As described above, when the
なお、上述した例では、利用者の指示に基づいて、内容Bを最初から出力するものとしたが、広告Aの最初から出力してもよいし、利用者の指示がされたときから所定時間前に出力されていた情報から出力してもよい。また、利用者の発話の内容(例えば切迫度)に基づいて、再出力させる情報が決定されてもよい。また、自動応答装置40Aは、過去の利用者の指示の傾向または予め設定された条件に基づいて、利用者の指示がされたときから、どの程度前から広告を再度再生するかを決定してもよい。
In the above example, the content B is output from the beginning based on the user's instruction, but the content B may be output from the beginning of the advertisement A, or a predetermined time from the time when the user's instruction is given. You may output from the information that was output before. In addition, the information to be re-output may be determined based on the content of the user's utterance (for example, the degree of urgency). In addition, the
[その他]
提供制御部50は、特定情報の属性に基づいて、特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。特定情報の属性とは、広告に関する情報、機器の操作に関する情報、楽曲、およびユーザに関連する期限に関する情報(パスワードの変更期限などの情報)のうち、少なくとも一つを含む。例えば、提供制御部50は、広告に関する情報の出力態様を第1出力態様に変更し、他の属性の特定情報は出力態様を変更しなくてもよい。
[Other]
The
提供制御部50は、広告の種別に基づいて特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。広告の種別とは、例えば、広告に対応する商品の種別である。例えば、提供制御部50は、車の広告の出力態様については、第1出力態様に変更するが、不動産の広告の出力態様については、第1出力態様に変更せずに、出力部に出力させてもよい。
The
また、提供制御部50は、広告の種別と、過去に行われた利用者の指示の結果とに基づいて、特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。例えば、学習部52が、広告の種別と、過去に行われた利用者の指示の結果とを学習する。例えば、学習部52は、車の広告が出力された場合、利用者はボリュームのアップを指示したが、不動産の広告が出力された場合、利用者はボリュームのダウンを指示したことを学習する。この場合、例えば、提供制御部50は、車の広告の出力態様については、第1出力態様に変更するが、不動産の広告の出力態様については、第1出力態様に変更せずに、出力部に出力させてもよい。
Further, the
また、提供制御部50は、上記の考え方を採用して、利用者に対応する環境パターンに基づいて、特定情報の出力態様を、第1出力態様に変更してもよい。例えば、ある環境においては、第1出力態様で特定情報が出力されることが利用者にとって好ましいことが学習部52により学習される。提供制御部50は、学習結果に基づいて、特定情報を第1出力態様で出力する。
Further, the
また、利用者により指定された情報(例えば所定の属性の情報)の出力態様については、第1出力態様に変更し、指定されていない情報の出力態様については第1出力態様に変更しなくてもよい。 Further, the output mode of the information specified by the user (for example, the information of a predetermined attribute) is changed to the first output mode, and the output mode of the information not specified is not changed to the first output mode. May be good.
また、指示対応情報76は、学習部52により生成される。例えば、学習部52は、第1出力態様で特定情報が出力部に出力された後、環境パターンごとに、利用者により受けた指示の内容および指示に基づいて変更された特定情報の出力態様を学習する。そして、学習部52は、所定の環境パターンにおいて、特定情報の出力態様をどのように変更させたかを学習して、利用者の嗜好に合致する指示対応情報76を生成する。
Further, the
例えば、学習部52は、土曜日や、時間帯が7時〜8時、利用者の周囲に親が存在している場合、利用者が自宅にいる場合、またはプライベートのスケジュールが予定されている時間帯において、利用者により受けた指示の内容および指示に基づいて変更した特定情報の出力態様を学習し、学習結果に基づいて、指示対応情報76を生成する。例えば、利用者が、所定の環境パターンにおいてボリューム「10」で特定情報の出力させる傾向にある場合、指示対応情報76において、ボリュームの変更指示がされた場合の第2出力態様はボリューム「10」に設定される。
For example, the
以上説明した第2実施形態によれば、提供制御部50は、特定情報の出力態様を、応答内容の出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を出力部に出力させることにより、利用者に違和感を与えないように情報を提供することができる。
According to the second embodiment described above, the
例えば、自動応答装置と利用者との対話の延長にそのまま音声広告を出力すると、煩わしく思われたり、ステルスマーケティング(ステマ)とみなされてしまったりする場合があるが、本実施形態のように、特定情報を利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示によって特定情報を第2出力態様に変更して出力部に出力させることにより、煩わしいと感じさせることを抑制したり、ステルスマーケティングとみなされること抑制する。 For example, if a voice advertisement is output as it is as an extension of the dialogue between the automatic response device and the user, it may seem annoying or may be regarded as stealth marketing (stemmer), but as in the present embodiment, It is troublesome to change the specific information to the first output mode, which is difficult for the user to hear, and output it to the output unit, and then change the specific information to the second output mode and output it to the output unit according to the user's instruction. Suppress what makes you feel or what is considered stealth marketing.
<第3実施形態>
以下、第3実施形態について説明する。提供制御部50は、応答内容を出力する第1のキャラクターと、特定情報を出力する第2のキャラクターとの会話を出力部に出力させる。第1実施形態との相違点を中心に説明する。
<Third Embodiment>
Hereinafter, the third embodiment will be described. The
図14は、第3実施形態の情報処理システム1Bの機能構成の一例を示す図である。情報処理システム1Bは、例えば、端末装置10Bと、自動応答装置40Bと、広告提供装置80Bとを備える。
FIG. 14 is a diagram showing an example of the functional configuration of the
端末装置10Bは、第1実施形態の端末装置10の機能構成に加え、更に表示部15と、画像生成部19とを備える。表示部15は、画像生成部19の制御に基づいて、画像を表示する。画像生成部19は、自動応答装置40Bにより送信された情報に基づいて、表示部15に画像を表示させる。例えば、音声生成部18と画像生成部19とは、自動応答装置40Bにより送信された情報に基づいて、表示部15に表示される画像の内容と、スピーカ14に出力される音声の内容とが意図したタイミングになるように協調して、スピーカ14および表示部15を制御する。以下、音声生成部18と画像生成部19とを合わせたものを、「生成部17」と称する。
The
自動応答装置40Bは、第1実施形態の自動応答装置40の機能構成に加え、更に画像提供部49を備え、第1実施形態の第1記憶部60に代えて、第1記憶部60Bを備える。第1記憶部60Bは、例えば、第1実施形態の第1記憶部60に記憶された情報に加え、更にモーション情報69が記憶されている。モーション情報69は、利用者と会話するキャラクターの動きが規定された情報である。画像提供部49は、モーション情報69に含まれる情報、または広告提供装置80Bにより提供された情報に基づいて、端末装置10Bに表示される画像を生成するための情報を端末装置10に提供する。画像を生成するための情報には、スピーカ14に出力される発話に対して、画像を変化させるタイミングが対応付けられている。以下、応答部48と画像提供部49とを合わせたものを、「応答提供部47」と称する。
The
広告提供装置80Bは、第1実施形態の広告提供装置側記憶部90に代えて、広告提供装置側記憶部90Bを備える。広告提供装置側記憶部90は、例えば、広告情報92Bを備える。広告情報92Bは、第1実施形態の広告情報92の情報に加え、更に広告モーション情報93を備える。広告モーション情報93は、広告IDに対応付けられたキャラクターの動きが規定された情報である。
The
[フローチャート]
図15は、自動応答装置40Bにより実行される処理の流れの一例を示すフローチャートである。まず、応答提供部47が、第1キャラクターと第2キャラクターとを会話させる(S80)。次に、広告提供部47は、第2キャラクターに広告の情報を出力させる(S82)。
[flowchart]
FIG. 15 is a flowchart showing an example of the flow of processing executed by the
次に、自動応答装置40Bは、出力された広告の情報(第1の特定情報)に応じて利用者が音声を入力したか否かを判定する(S84)。なお、音声に代えて、所定の操作がされたか否かが判定されてもよい。利用者が音声を入力していない場合、本フローチャートの1ルーチンの処理が終了する。
Next, the
利用者が音声を入力した場合、自動応答装置40Bは、利用者が広告の情報の出力に対して煩わしいと感じているか否かを判定する(S86)。「煩わしいと感じている」とは、例えば、入力された音声に含まれる情報が広告の情報の出力に関して、否定的な意味を有していることである。より具体的には、例えば、「静かにして」、「やめて」、「音を下げて」などの意味を有する発話がされた場合、利用者が煩わしいと感じていると判定される。利用者が煩わしいと感じていない場合、本フローチャートの1ルーチンの処理が終了する。なお、S86で煩わしいと感じていない場合、自動応答装置40Bは、第1の特定情報よりも詳細な情報である第2の特定情報を出力部に出力させる。詳細な情報とは、例えば、第1の特定情報が商品名や商品の属性である場合、その説明的な内容である。
When the user inputs a voice, the
利用者が煩わしいと感じている場合、応答提供部47は、広告の情報を出力させることを停止する(S88)。なお、停止に代えて、利用者の反応に基づいて出力態様を変更させてもよい。例えば、利用者が「音を下げて」と入力した場合、広告の情報が出力される音が小さく制御される。これにより本フローチャートの1ルーチンの処理が終了する。
When the user feels annoyed, the
上述したように、キャラクター同士が会話をして広告の情報を出力させることにより、利用者に対して、より情報に対する興味を持たせることができる。また、利用者の反応に応じて、情報の出力を抑制するため、利用者にとっての利便性が向上する。 As described above, by having the characters talk with each other and output the information of the advertisement, it is possible to make the user more interested in the information. In addition, since the output of information is suppressed according to the reaction of the user, the convenience for the user is improved.
[具体例(その3−1)]
図16は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その1)である。提供制御部は、利用者に提供した情報に基づいて、第1キャラクターと第2キャラクターとを会話させる。例えば、図16に示すように、(1)第2キャラクターCR2が「今日の天気はどう?」と発話する。(2)第1キャラクターCR1が、「予報では快晴だよ。」と応答する。
[Specific example (No. 3-1)]
FIG. 16 is a diagram (No. 1) showing an example of an image displayed on the conversation and
次に、(3)第2キャラクターCR2が「ドライブ日和だね。」と発話する。次に、(4)第1キャラクターCR1が、「そうだね。」と応答する。次に、(5)第2キャラクターCR2が、「そういえば、ドライブするのに最適な車が発売されたよ。」と発話する。 Next, (3) the second character CR2 utters, "It's a good day to drive." Next, (4) the first character CR1 responds with "That's right." Next, (5) the second character CR2 says, "By the way, the best car to drive has been released."
このように、キャラクター同士で会話させて、商品を紹介することにより、利用者により自然に商品に興味を持たせることができる。 In this way, by having the characters talk to each other and introducing the product, the user can naturally become interested in the product.
[具体例(その3−2)]
例えば、自動応答装置40Bは、第1キャラクターと利用者との会話に基づいて、利用者の好みや、嗜好、行動予定等の嗜好情報を取得する。嗜好情報とは、例えば、利用者の趣味や、利用頻度が高い施設または場所、購入頻度が高い商品、購入を希望している商品またはサービス等の情報である。
[Specific example (3-2)]
For example, the
図17は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その2)である。提供制御部50は、例えば、利用者と第1キャラクターとの会話に含まれる会話情報を第2キャラクターにより出力される特定情報の内容に反映させるか否かを利用者に問い合わせ、利用者に許諾を得た場合、会話情報を特定情報の内容に反映させる。
FIG. 17 is a diagram (No. 2) showing an example of an image displayed on the conversation and
例えば、図17に示すように、(1)第1キャラクターCR1が「利用者Aさん。利用者Aさんが車の購入を考えていること他の人に教えていい?」と発話する。この発話に対して、利用者Aさんが「いいよ。」と回答したものとする。(2)第1キャラクターCR1が、「いいんだね。他の人に教えておくね。きっといい車が見つかるよ!」と応答する。このように、第1キャラクターが利用者の興味関心、傾向などの情報を第2キャラクターに提供することで、第2キャラクターが出力する情報を最適化する。 For example, as shown in FIG. 17, (1) the first character CR1 utters "User A. Can I tell other people that User A is thinking about purchasing a car?" It is assumed that user A replies "OK" to this utterance. (2) The first character CR1 responds, "I like it. I'll tell other people. I'm sure you'll find a good car!" In this way, the first character provides the second character with information such as the user's interests and tendencies, thereby optimizing the information output by the second character.
図18は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その3)である。前述した図17の(2)の応答後、所定のタイミングで以下の会話が行われる。(1)第2キャラクターCR2が、例えば表示部15に表示されていない状態で「ごめんください。」と発話する。次に、(2)第1キャラクターCR1が、「どなたですか?」と応答する。次に、(3)第2キャラクターCR2が、「少しお時間よろしいでしょうか?」と発話する。次に、(4)第1キャラクターCR1が、「利用者Aさん、どなたか尋ねてきましたよ。入れてもいいですか?」と発話する。この発話に対して、利用者Aさんが、「入れていいよ。」と回答したものとする。次に、(5)第1キャラクターCR1が、利用者Aさんの発話に応じて、「お入りください。」と発話する。その後、表示部15に図19に示す画像が表示される。
FIG. 18 is a diagram (No. 3) showing an example of an image displayed on the conversation and
図19は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その4)である。(1)第2キャラクターCR2が、例えば表示部15に表示された状態で「お車をお探しであることをお伺いしたので、ご紹介に参りました。」と発話する。次に、(2)第1キャラクターCR1が、「利用者Aさん、お話聞いてみますか?」と応答する。この応答に対して、利用者が肯定的な発話を行った場合、例えば、第2キャラクターCR2は、商品を紹介する。この応答に対して、利用者が否定的な発話を行った場合、例えば、第2キャラクターCR2は、商品の紹介を行わず、姿を消す。
FIG. 19 is a diagram (No. 4) showing an example of an image displayed on the conversation and
このように、嗜好情報の取扱いについて、許可が得られた場合に、利用者の嗜好情報に応じた広告の情報が出力されるため、利用者に煩わしさを感じさせることを抑制しつつ、利用者にとっての利便性を向上させることができる。 In this way, regarding the handling of preference information, when permission is obtained, advertisement information according to the user's preference information is output, so that the user can be used while suppressing annoyance. It is possible to improve the convenience for the person.
なお、上述した例では、第1キャラクターCR1と第2キャラクターCR2とが会話する例について説明したが、これに代えて(または加えて)第2キャラクターCR2と、第3キャラクターとが会話してもよい。第3キャラクターは、例えば、第2キャラクターCR2がおすすめする商品(またはサービス)と競合する(または関連する)商品(またはサービス)を宣伝するキャラクターである。 In the above-mentioned example, an example in which the first character CR1 and the second character CR2 talk to each other has been described, but instead (or in addition), the second character CR2 and the third character may talk to each other. Good. The third character is, for example, a character that promotes a product (or service) that competes with (or is related to) a product (or service) recommended by the second character CR2.
以上説明した第3実施形態によれば、提供制御部50は、第1のキャラクターに応じた出力態様によって応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって特定情報を出力部に出力させ、第1のキャラクターと第2のキャラクターとの会話を出力部に出力させることにより、よりユーザに情報に対する興味を喚起させることができる。
According to the third embodiment described above, the
なお、上述した各実施形態の情報処理システム1では、端末装置10は一台であるものとして説明したが、二以上の端末装置10が設けられてもよい。この場合、自動応答装置40は、例えば、第1の端末装置10または第2の端末装置10から、その装置の識別情報と共に端末装置10に入力された音声データを取得する。そして、自動応答装置40は、取得した識別情報を参照して、第1の端末装置10に第1キャラクターの出力態様で応答内容を出力させ、第2の端末装置10に第2キャラクターの出力態様で特定情報を出力させる。
Although the
以上説明した実施形態によれば、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを出力部に出力させる応答部と、第1のキャラクターに応じた出力態様によって前記応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって前記特定情報を出力部に出力させ、更に、前記第1のキャラクターと前記第2のキャラクターとの会話を示す情報を出力部に出力させる提供制御部とを備えることにより、情報に対する興味をより利用者に喚起させることができる。 According to the embodiment described above, the response content to the voice uttered by the user, the response unit that outputs specific information different from the response content to the output unit, and the output mode according to the first character The response content is output to the output unit, the specific information is output to the output unit according to the output mode according to the second character, and information indicating a conversation between the first character and the second character is further output. By providing the provision control unit for outputting to the output unit, it is possible to arouse the user's interest in the information.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
1,1A、1B…情報処理システム、10…端末装置、12…マイク、14…スピーカ、15…表示部、16…音声認識部、18…音声生成部、19…画像生成部、40、40A、40B…自動応答装置、42…利用者特定部、43…環境解析部、46…解釈部、48…応答部、49…画像提供部、50…提供制御部、52…学習部、80…広告提供装置、82…情報提供部 1,1A, 1B ... Information processing system, 10 ... Terminal device, 12 ... Microphone, 14 ... Speaker, 15 ... Display unit, 16 ... Voice recognition unit, 18 ... Voice generation unit, 19 ... Image generation unit, 40, 40A, 40B ... Automatic response device, 42 ... User identification unit, 43 ... Environmental analysis unit, 46 ... Interpretation unit, 48 ... Response unit, 49 ... Image provision unit, 50 ... Provision control unit, 52 ... Learning unit, 80 ... Advertisement provision Equipment, 82 ... Information provision department
Claims (16)
前記応答部に指示することで、第1のキャラクターに応じた出力態様によって前記応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって前記特定情報を出力部に出力させ、更に、前記第1のキャラクターと前記第2のキャラクターとの会話を示す情報を出力部に出力させる提供制御部と、を備え、
前記提供制御部は、
前記利用者と第1のキャラクターとの会話に含まれる会話情報を前記第2のキャラクターにより出力される特定情報の内容に反映させるか否かを利用者に問い合わせを行うことを前記応答部に指示することで、前記応答部に前記出力部を用いた前記問い合わせを行わせ、
前記問い合わせに対する前記利用者により発せられた音声に対応する音声データに含まれる情報が、前記利用者が許諾したことを示す情報である場合、前記会話情報を前記特定情報の内容に反映させた前記特定情報を出力させることを前記応答部に指示することで、前記応答部に前記出力部を用いた前記特定情報の出力を行わせる、
情報処理システム。 A response unit that outputs the response content to the voice uttered by the user and specific information different from the response content to the output unit that outputs the voice or image as the voice or image .
By instructing the response unit, the response content is output to the output unit according to the output mode according to the first character, the specific information is output to the output unit according to the output mode according to the second character, and further. , A providing control unit that outputs information indicating a conversation between the first character and the second character to an output unit .
The provided control unit
Instructs the response unit to inquire whether or not to reflect the conversation information included in the conversation between the user and the first character in the content of the specific information output by the second character. By doing so, the response unit is made to make the inquiry using the output unit.
When the information contained in the voice data corresponding to the voice issued by the user in response to the inquiry is information indicating that the user has licensed, the conversation information is reflected in the content of the specific information. By instructing the response unit to output specific information, the response unit is made to output the specific information using the output unit.
Information processing system.
請求項1に記載の情報処理システム。 The provided control unit outputs the conversation between the first character and the second character to the output unit, and then outputs the specific information to the output unit according to the output mode according to the second character.
The information processing system according to claim 1.
請求項1または2に記載の情報処理システム。 When the providing control unit determines that the information included in the voice emitted by the user is preset information, the output mode according to the second character is based on the result of the determination . To output the specific information to the output unit,
The information processing system according to claim 1 or 2.
請求項1から3のうちいずれか1項に記載の情報処理システム。 The provided control unit responds to the second character based on the utterance uttered by the user after outputting the first specific information to the output unit according to the output mode corresponding to the second character. The output unit is made to output the second specific information, which is more detailed information than the first specific information, depending on the output mode.
The information processing system according to any one of claims 1 to 3.
請求項1から4のうちいずれか1項に記載の情報処理システム。 The specific information is information about an advertisement,
The information processing system according to any one of claims 1 to 4.
請求項5に記載の情報処理システム。 The information related to the advertisement is information on a product having the same meaning as the word contained in the voice uttered by the user, or information on the product related to the word included in the response content.
The information processing system according to claim 5.
請求項6に記載の情報処理システム。 The second character exists for each product.
The information processing system according to claim 6.
請求項1から7のうちいずれか1項に記載の情報処理システム。 The second character exists for each type of the specific information.
The information processing system according to any one of claims 1 to 7.
請求項1から8のうちいずれか1項に記載の情報処理システム。 The second character exists for each advertising campaign.
The information processing system according to any one of claims 1 to 8.
請求項1から9のうちいずれか1項に記載の情報処理システム。 Based on the scenario set for the second character, the provided control unit causes the output unit to output the specific information according to the output mode according to the second character.
The information processing system according to any one of claims 1 to 9.
前記提供制御部は、前記取得部により取得された意味情報に基づいて、前記第2のキャラクターに応じた出力態様によって出力部に出力させる特定情報を選択する、
請求項1から10のうちいずれか1項に記載の情報処理システム。 It also has an acquisition unit that acquires the semantic information contained in the voice emitted by the user.
Based on the semantic information acquired by the acquisition unit, the provision control unit selects specific information to be output to the output unit according to the output mode according to the second character.
The information processing system according to any one of claims 1 to 10.
前記提供制御部は、前記取得部により取得された意味情報に基づいて、前記第1のキャラクターに応じた出力態様によって出力部に出力させる特定情報を選択する、
請求項1から10のうちいずれか1項に記載の情報処理システム。 It also has an acquisition unit that acquires the semantic information contained in the voice emitted by the user.
The providing control unit selects specific information to be output to the output unit according to the output mode according to the first character, based on the semantic information acquired by the acquisition unit.
The information processing system according to any one of claims 1 to 10.
前記提供制御部は、前記取得部により取得された意味情報に基づいて、出力部に出力させる前記第1のキャラクターと前記第2のキャラクターとの会話を選択する、
請求項1から10のうちいずれか1項に記載の情報処理システム。 It also has an acquisition unit that acquires the semantic information contained in the voice emitted by the user.
The providing control unit selects a conversation between the first character and the second character to be output to the output unit based on the semantic information acquired by the acquisition unit.
The information processing system according to any one of claims 1 to 10.
請求項1から13のうちいずれか1項に記載の情報処理システム。 The output unit that outputs the response content to the voice uttered by the user and the output unit that outputs specific information different from the response content are mounted on different devices.
The information processing system according to any one of claims 1 to 13.
利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを音声または画像を出力する出力部に音声または画像として出力させる応答部に指示することで、第1のキャラクターに応じた出力態様によって前記応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって前記特定情報を出力部に出力させ、更に、前記第1のキャラクターと前記第2のキャラクターとの会話を示す情報を出力部に出力させる処理と、
前記利用者と第1のキャラクターとの会話に含まれる会話情報を前記第2のキャラクターにより出力される特定情報の内容に反映させるか否かを利用者に問い合わせを行うことを前記応答部に指示することで、前記応答部に前記出力部を用いた前記問い合わせを行わせる処理と、
前記問い合わせに対する前記利用者により発せられた音声に対応する音声データに含まれる情報が、前記利用者が許諾したことを示す情報である場合、前記会話情報を前記特定情報の内容に反映させた前記特定情報を出力させることを前記応答部に指示することで、前記応答部に前記出力部を用いた前記特定情報の出力を行わせる処理と、
を備える情報処理方法。 One or more computers
By instructing the response unit that outputs the response content to the voice emitted by the user and the specific information different from the response content to the output unit that outputs the voice or image as the voice or image , the first character is assigned. The response content is output to the output unit according to the corresponding output mode, the specific information is output to the output unit according to the output mode according to the second character, and further, the first character and the second character Processing to output information indicating conversation to the output section ,
Instructs the response unit to inquire whether or not to reflect the conversation information included in the conversation between the user and the first character in the content of the specific information output by the second character. By doing so, the process of causing the response unit to make the inquiry using the output unit, and
When the information contained in the voice data corresponding to the voice issued by the user in response to the inquiry is information indicating that the user has licensed, the conversation information is reflected in the content of the specific information. By instructing the response unit to output specific information, the response unit is made to output the specific information using the output unit.
Information processing method comprising a.
利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを音声または画像を出力する出力部に音声または画像として出力させる応答部に指示することで、第1のキャラクターに応じた出力態様によって前記応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって前記特定情報を出力部に出力させ、更に、前記第1のキャラクターと前記第2のキャラクターとの会話を示す情報を出力部に出力させる処理と、
前記利用者と第1のキャラクターとの会話に含まれる会話情報を前記第2のキャラクターにより出力される特定情報の内容に反映させるか否かを利用者に問い合わせを行うことを前記応答部に指示することで、前記応答部に前記出力部を用いた前記問い合わせを行わせる処理と、
前記問い合わせに対する前記利用者により発せられた音声に対応する音声データに含まれる情報が、前記利用者が許諾したことを示す情報である場合、前記会話情報を前記特定情報の内容に反映させた前記特定情報を出力させることを前記応答部に指示することで、前記応答部に前記出力部を用いた前記特定情報の出力を行わせる処理と、
を実行させるプログラム。 On one or more computers
By instructing the response unit that outputs the response content to the voice emitted by the user and the specific information different from the response content to the output unit that outputs the voice or image as the voice or image , the first character is assigned. The response content is output to the output unit according to the corresponding output mode, the specific information is output to the output unit according to the output mode according to the second character, and further, the first character and the second character Processing to output information indicating conversation to the output section ,
Instructs the response unit to inquire whether or not to reflect the conversation information included in the conversation between the user and the first character in the content of the specific information output by the second character. By doing so, the process of causing the response unit to make the inquiry using the output unit, and
When the information contained in the voice data corresponding to the voice issued by the user in response to the inquiry is information indicating that the user has licensed, the conversation information is reflected in the content of the specific information. By instructing the response unit to output specific information, the response unit is made to output the specific information using the output unit.
A program that executes .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008211A JP6776284B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008211A JP6776284B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019128655A JP2019128655A (en) | 2019-08-01 |
JP6776284B2 true JP6776284B2 (en) | 2020-10-28 |
Family
ID=67472577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018008211A Active JP6776284B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6776284B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3898440B2 (en) * | 2000-12-22 | 2007-03-28 | 株式会社エヌ・ティ・ティ・ドコモ | Information provision system |
JP2002297626A (en) * | 2001-03-30 | 2002-10-11 | Just Syst Corp | Device, program, and method for presenting information |
JP2003256421A (en) * | 2002-02-28 | 2003-09-12 | Jackpot:Kk | Character-type conversation system |
JP2003323388A (en) * | 2002-05-01 | 2003-11-14 | Omron Corp | Information providing method and information providing system |
JP6242359B2 (en) * | 2015-03-19 | 2017-12-06 | ヤフー株式会社 | Information processing apparatus and method |
-
2018
- 2018-01-22 JP JP2018008211A patent/JP6776284B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019128655A (en) | 2019-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11790114B2 (en) | Threshold-based assembly of automated assistant responses | |
US12148421B2 (en) | Using large language model(s) in generating automated assistant response(s | |
US10783872B2 (en) | Integration of third party virtual assistants | |
US10748534B2 (en) | Personality-based chatbot and methods including non-text input | |
EP3766066B1 (en) | Generating response in conversation | |
KR102155977B1 (en) | Systems and methods for integrating third party services with a digital assistant | |
US20250037711A1 (en) | Using large language model(s) in generating automated assistant response(s) | |
US20210125610A1 (en) | Ai-driven personal assistant with adaptive response generation | |
JP2014515853A (en) | Conversation dialog learning and conversation dialog correction | |
CN111369275A (en) | Group identification and description method, coordination device and computer readable storage medium | |
JP2024510698A (en) | Contextual suppression of assistant commands | |
CN111557001A (en) | Method, computer device and computer readable storage medium for providing natural language dialog by providing instant responsive language response | |
JP7095684B2 (en) | Information processing equipment, information processing method, program | |
JP6774438B2 (en) | Information processing systems, information processing methods, and programs | |
JP6776284B2 (en) | Information processing systems, information processing methods, and programs | |
JP6788620B2 (en) | Information processing systems, information processing methods, and programs | |
JP2024154422A (en) | Agent System | |
CN118541751A (en) | Method for providing speech synthesis service and system thereof | |
JP2022190870A (en) | Virtual assistant device and program for virtual assistant device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190319 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6776284 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |