JP6774438B2 - Information processing systems, information processing methods, and programs - Google Patents
Information processing systems, information processing methods, and programs Download PDFInfo
- Publication number
- JP6774438B2 JP6774438B2 JP2018008209A JP2018008209A JP6774438B2 JP 6774438 B2 JP6774438 B2 JP 6774438B2 JP 2018008209 A JP2018008209 A JP 2018008209A JP 2018008209 A JP2018008209 A JP 2018008209A JP 6774438 B2 JP6774438 B2 JP 6774438B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- user
- information
- voice
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000004044 response Effects 0.000 claims description 176
- 230000007613 environmental effect Effects 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 15
- 238000000034 method Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 14
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003891 environmental analysis Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、情報処理システム、情報処理方法、およびプログラムに関する。 The present invention relates to information processing systems, information processing methods, and programs.
従来、目的地までの経路探索を行い、探索結果に応じて誘導経路を案内するナビゲーション処理中に、ユーザとの対話に基づいて、音声広告又は音声広告に係るアンケートを、音声出力手段により音声出力させる出力制御手段を備える情報処理装置が開示されている(例えば、特許文献1)。 Conventionally, during a navigation process in which a route search to a destination is performed and a guidance route is guided according to the search result, a voice advertisement or a questionnaire related to the voice advertisement is output by voice output means based on a dialogue with a user. An information processing device including an output control means for making the device is disclosed (for example, Patent Document 1).
しかしながら、従来の技術では、音声の出力が利用者に違和感を与える場合があった。 However, in the conventional technology, the audio output may give the user a sense of discomfort.
本発明は、このような事情を考慮してなされたものであり、利用者に違和感を与えないように情報を提供することができる情報処理システム、情報処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an information processing system, an information processing method, and a program capable of providing information so as not to give a sense of discomfort to the user. It is one of.
本発明の一態様は、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを出力部に出力させる応答部と、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御する制御部と、を備える情報処理システムである。 One aspect of the present invention is a response unit that outputs a response content to a voice emitted by a user and specific information different from the response content to an output unit, and a user device to which the voice is input or output. This is an information processing system including a control unit that controls an output mode of the specific information according to the degree of utilization of the information.
本発明の一態様によれば、利用者に違和感を与えないように情報を提供することができる。 According to one aspect of the present invention, information can be provided so as not to give the user a sense of discomfort.
以下、図面を参照し、本発明の情報処理システム、情報処理方法、およびプログラムの実施形態について説明する。 Hereinafter, the information processing system, the information processing method, and the embodiment of the program of the present invention will be described with reference to the drawings.
<概要(共通事項)>
情報処理システムは、一以上のプロセッサにより実現される。情報処理システムは、利用者により発せられた音声に対する応答内容と、応答内容とは異なる特定情報とを出力部に出力させる。「応答内容」は、例えば、AI(Artificial Intelligence;人工知能)や、深層学習などの機械学習されたモデルにより動作する自動応答装置が決定する情報である。「特定情報」とは、例えば、広告や、挨拶、会話のきっかけとなる発話、お知らせ(例えばレコメンドやパスワード変更の要求)等の、利用者により発せられた音声に対する応答に該当しない情報である。
<Overview (common matters)>
The information processing system is realized by one or more processors. The information processing system outputs the response content to the voice uttered by the user and specific information different from the response content to the output unit. The "response content" is information determined by an automatic response device that operates by a machine-learned model such as AI (Artificial Intelligence) or deep learning. The "specific information" is information that does not correspond to a response to a voice uttered by a user, such as an advertisement, a greeting, an utterance that triggers a conversation, or a notification (for example, a recommendation or a request for changing a password).
[概要(その1)]
情報処理システムは、音声が入力または出力の対象とされたユーザデバイス(例えば、マイクやスピーカ)の利用度合に応じて、特定情報の出力態様を制御する。「利用度合」とは、例えば、音声をユーザデバイスに入力した回数または頻度に基づく値、または音声をユーザデバイスに出力させた回数または頻度に基づく値である。例えば、ユーザデバイスの利用度合が高いほど、特定情報の出力量を多くする。すなわち、音声入力または出力を普段から多用するユーザには自動応答装置からの話しかけや音声広告を多く出力する。また、ユーザデバイスの利用度合が高いほど、特定情報の出力態様を利用者が聞き取りやすいように制御する。「出力態様」とは、例えば、音の大きさや、音の高低、情報が出力されるテンポである。概要(その1)については、後述する第1実施形態を中心に説明する。
[Overview (1)]
The information processing system controls the output mode of specific information according to the degree of utilization of a user device (for example, a microphone or a speaker) whose voice is input or output. The "utilization degree" is, for example, a value based on the number or frequency of inputting voice to the user device, or a value based on the number of times or frequency of outputting voice to the user device. For example, the higher the usage of the user device, the larger the output amount of specific information. That is, a lot of talks and voice advertisements from the automatic response device are output to the user who usually uses voice input or output a lot. Further, the higher the degree of use of the user device, the easier it is to control the output mode of the specific information so that the user can easily hear it. The "output mode" is, for example, the loudness of a sound, the pitch of a sound, and the tempo at which information is output. The outline (No. 1) will be described focusing on the first embodiment described later.
[概要(その2)]
情報処理システムは、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を第2出力態様に変更して、特定情報を出力部に出力させる。「第2出力態様」は、第1出力態様よりも利用者が聞き取りやすい出力態様である。すなわち、自動応答装置との対話において特定情報(例えば音声広告)のみの音量を小さくし利用者からの要望や操作に応じて音量をアップする。概要(その2)については、後述する第2実施形態を中心に説明する。
[Overview (Part 2)]
When the information processing system receives the user's instruction after changing the output mode of the specific information to the first output mode that is harder for the user to hear than the third output mode of the response content and outputting it to the output unit. The output mode of the specific information is changed to the second output mode, and the specific information is output to the output unit. The "second output mode" is an output mode that is easier for the user to hear than the first output mode. That is, in the dialogue with the automatic response device, the volume of only specific information (for example, voice advertisement) is reduced, and the volume is increased in response to a request or operation from the user. The outline (No. 2) will be described focusing on the second embodiment described later.
[概要(その3)]
情報処理システムは、第1のキャラクターに応じた出力態様によって応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって特定情報を出力部に出力させる。更に、情報処理システムは、第1のキャラクターと第2のキャラクターとの会話を出力部に出力させる。「第1のキャラクター」は、例えば、日常において、利用者と対話したり、利用者の発話に対して応答したりするキャラクターである。「第2のキャラクター」は、例えば、第1のキャラクターとは異なるキャラクターであって、特定情報(例えば広告)に対応付けられたキャラクターである。このように、利用者と対話する第1のキャラクターと、音声広告に対応した第2のキャラクターとが、会話することで利用者の広告に対する興味を喚起させる。概要(その3)については、後述する第3実施形態を中心に説明する。
[Summary (3)]
The information processing system outputs the response content to the output unit according to the output mode according to the first character, and outputs the specific information to the output unit according to the output mode according to the second character. Further, the information processing system causes the output unit to output the conversation between the first character and the second character. The "first character" is, for example, a character that interacts with the user and responds to the user's utterance in daily life. The "second character" is, for example, a character different from the first character and associated with specific information (for example, an advertisement). In this way, the first character interacting with the user and the second character corresponding to the voice advertisement arouse the user's interest in the advertisement by having a conversation. The outline (No. 3) will be described focusing on the third embodiment described later.
<第1実施形態>
[全体構成]
図1は、情報処理システム1の構成を示す図である。情報処理システム1は、例えば、端末装置10と、自動応答装置40と、広告提供装置80とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。本実施形態では、自動応答装置40が、「情報処理システム」の一例である。また、「情報処理システム」は、端末装置10および/または広告提供装置80を含んでもよい。
<First Embodiment>
[overall structure]
FIG. 1 is a diagram showing a configuration of an
[端末装置の機能構成]
端末装置10は、例えば、スマートスピーカ(Artificial intelligenceスピーカ)や、スマートフォン、タブレット端末、パーソナルコンピュータ等である。第1実施形態では端末装置10は、スマートスピーカであるものとして説明する。
[Functional configuration of terminal device]
The
端末装置10は、例えば、マイク12と、スピーカ14と、音声認識部16と、音声生成部18と、端末制御部20と、端末装置側通信部22と、記憶部30とを備える。音声認識部16、音声生成部18、および端末制御部20は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサが、フラッシュメモリなどの記憶部30に記憶されたアプリケーションプログラム(アプリ32)を実行することにより実現される。アプリ32は、例えば、ネットワークを介してサーバ装置等からダウンロードされてもよいし、予め端末装置10にプリインストールされていてもよい。なお、アプリケーションプログラムに代えて、以下に説明するものと同様の機能を有するブラウザがUA(User Agent)として用いられてもよい。なお、端末装置10に含まれる一部または全部の機能は、自動応答装置40に含まれてもよい。
The
マイク12は、利用者によって発せられた音声、または端末装置10が存在する環境の環境音を取得する。スピーカは、音声生成部18により生成された情報に応じた音声を出力する。
The
音声認識部16は、マイク12により取得された音声をデジタルデータ(音声データ)に変換する。音声生成部18は、自動応答装置40により送信された情報に基づいて、スピーカ14に出力させる音声に応じた情報を生成する。
The
端末制御部20は、音声認識部16により変換されたデジタルデータを、端末装置側通信部22を用いて、自動応答装置40に送信する。端末制御部20は、自動応答装置40により送信された情報を、端末装置側通信部22を介して取得する。
The
端末装置側通信部22は、例えば、無線通信インターフェースである。端末装置側通信部22は、自動応答装置40により送信された情報を取得したり、端末装置10において処理された処理結果を自動応答装置40に送信したりする。
The terminal device
[自動応答装置の機能構成]
自動応答装置40は、例えば、利用者特定部42と、環境解析部43と、パターン特定部44と、解釈部46と、応答部48と、提供制御部50と、学習部52と、応答装置側通信部54と、第1記憶部60と、第2記憶部70とを備える。利用者特定部42、環境解析部43、パターン特定部44、解釈部46、応答部48、提供制御部50、および学習部52は、例えば、CPU等のハードウェアプロセッサが、記憶装置(例えば第1記憶部60)に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が自動応答装置40のドライブ装置に装着されることで記憶装置にインストールされてもよい。第1記憶部60および第2記憶部70は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、レジスタ等によって実現される。
[Functional configuration of interactive voice response]
The
第1記憶部60には、例えば、後述する、利用者特定情報62、環境特定情報63、環境パターン情報64、正規表現情報66、およびシナリオ情報68が記憶されている。第2記憶部70には、例えば、後述する、出力度合情報72、および利用情報74が記憶されている。第1記憶部60と第2記憶部70は、必ずしも別体の記憶装置により実現される必要はなく、一体の記憶装置における異なる記憶領域であってもよい。
The
利用者特定部42は、例えば、端末装置10により送信された音声データから人の声を表すと推定される音声データの成分(以下、発話成分)を抽出する。利用者特定部42は、抽出した発話成分と、利用者特定情報62に含まれる情報とを照合して、抽出した発話成分により表される音声を発した人物を特定する。利用者特定情報62は、利用者の識別情報と、その利用者の声の特徴を示す情報(例えば、声紋パターンや周波数パターン)が対応付けられた情報である。
For example, the
また、利用者特定部42は、利用者特定情報62を参照し、音声を発した利用者の周辺に存在する人物の種別を特定してもよい。この場合、利用者特定情報62には、予め利用者の家族や友人などの声の特徴を示す情報が含まれている。また、利用者特定部42は、端末装置側通信部22を介して、家族等が保有する端末装置とWi-Fiルーターとの接続状態を示す情報を取得し、取得した情報に基づいて、端末装置の保有者がWi-Fiルーターが設置された位置付近に存在するか否かを判定してもよい。
Further, the
環境解析部43は、例えば、端末装置10により送信された音声データから人の声以外の環境音を表すと推定される音声データの成分(以下、環境音成分)を抽出する。環境解析部43は、抽出した環境音成分と、環境特定情報63に含まれる情報とを照合して、抽出した環境音成分により表される環境音の大きさや、その環境音の発生要因を特定する。環境特定情報63は、環境音の発生要因の識別情報と、環境音の発生要因ごとの音の特徴とが互いに対応付けられた情報である。
For example, the
パターン特定部44は、例えば、環境パターン情報64と、利用者特定部42の処理結果、および環境解析部43の処理結果に基づいて、環境パターンを特定する。環境パターンとは、利用者が存在している環境について、所定の基準に従って分類されたパターンである。詳細は後述する。
The
解釈部46は、例えば、人の声に対応する音声データを、テキスト情報に変換し、更に、テキスト情報と正規表現情報66とを照合して、利用者の発話の意味を解釈する。例えば、利用者により「新宿から渋谷までの行き方を教えて」と発話されたものとする。解釈部46は、上記の発話を形態素解析し、発話を品詞に分割する。そして、解釈部46は、固有名詞かつ場所名に該当する新宿および渋谷を符号に変換した検索キーを生成し、正規表現情報68を検索する。正規表現情報68には、固有名詞を抽象化した符号に変換した情報(正規表現)が登録されている。例えば、「〇〇から××への行き方を教えて」、「〇〇から××までの行き方を教えて」などのテキストが付与された情報が正規表現として登録されている。
For example, the
応答部48は、例えば、正規表現情報68に含まれる「(固有名詞、場所)から(固有名詞、場所)までの行き方を教えて」に対応するテキスト情報を取得し、〇〇から××までの行き方を提供すればよいことを認識する。
The
そして、応答部48は、(固有名詞、場所)の部分に、符号化された元情報である「新宿」および「渋谷」を埋め込むことで、「新宿から渋谷までの行き方を知りたい」という利用者の意思を認識する。応答部48は、ネットワーク検索などを行い、新宿から渋谷までの行き方を取得する。応答部48は、例えば、シナリオ情報68を参照し、新宿から渋谷までの行き方を示す、端末装置10において出力するための音声元情報を生成する。シナリオ情報68は、例えば、利用者の発話に対して応答すべき内容が予め保持されている。すなわち、利用者が「〇〇から××までの行き方を知りたい」という意思を有する発話に対する応答内容が保持されている。シナリオ情報68は、例えば、応答内容が利用者の嗜好等に合致するように利用者ごとに用意されている。
Then, the
なお、上記の応答部48などの自動応答装置40に含まれる一部または全部の機能は、端末装置10に備えられてもよい。また、正規表現情報66やシナリオ情報68などの情報も端末装置10の記憶装置に記憶されていてもよい。
Note that some or all of the functions included in the
提供制御部50は、応答部48により生成された音声元情報を、端末装置10に出力させるために、応答装置側通信部54を用いて、音声元情報を端末装置10に送信する。更に、提供制御部50は、広告提供装置80により送信された音声元情報を端末装置10に出力させるために、応答装置側通信部54を用いて、その音声元情報を端末装置10に送信する。
The providing
また、提供制御部50は、応答内容または特定情報の出力態様を指定し、指定した出力態様で応答内容または特定情報を端末装置10のスピーカ14に出力させるために、指定した出力態様と応答内容または特定情報とを対応付けた情報を、応答装置側通信部54を用いて端末装置10に送信する。この提供制御部50の機能は、端末装置10に備えられてもよい。
Further, the
学習部52は、端末装置10のスピーカ14に出力させた応答内容または特定情報の内容、出力させた情報の出力態様、利用者の反応、および環境パターンを学習する。学習とは、例えば、人工知能を用いた学習や、深層学習などの機械学習等である。
The
応答装置側通信部54は、ネットワークインターフェースカード(Network Interface Card)等の通信インターフェースを含む。応答装置側通信部54は、端末装置10または広告提供装置80により送信された情報を取得したり、自動応答装置40において処理された処理結果を端末装置10または広告提供装置80に送信したりする。
The
[広告提供装置]
広告提供装置80は、例えば、情報提供部82と、広告提供装置側通信部84と、広告提供装置側記憶部90とを備える。情報提供部82は、利用者の発話により入力された情報、または自動応答装置40の応答内容に基づいて、利用者に提供する広告を抽出し、抽出した広告に関する情報(例えば音声元情報および音声を出力する出力態様)を自動応答装置40に提供する。
[Advertising provider]
The
広告提供装置側通信部84は、ネットワークインターフェースカード等の通信インターフェースを含む。広告提供装置側通信部84は、自動応答装置40により送信された情報を取得したり、広告提供装置80において処理された処理結果を自動応答装置40に送信したりする。広告提供装置側記憶部90には、後述する広告情報92が記憶されている。なお、広告提供装置80と自動応答装置40とは一体の装置として設けられてもよい。
The
[フローチャート(出力度合を決定する処理)]
図2は、情報処理システム1により実行される処理の流れの一例を示すフローチャートである。本処理は、利用者による音声UI(ユーザインタフェース/ユーザデバイス)の利用の量に応じ、人工物からの音声出力の量を制御する処理である。この音声UIは音声認識である。
[Flowchart (process to determine the degree of output)]
FIG. 2 is a flowchart showing an example of the flow of processing executed by the
まず、端末装置10は、利用者により音声が入力されたか否かを判定する(S10)。利用者により音声が入力された場合(利用者と自動応答装置40との会話が開始された場合)、入力された音声データ(発話成分および環境音成分)は、自動応答装置40に送信される。
First, the
自動応答装置40は、発話成分を取得し、取得した発話成分と利用者特定情報62に基づいて、利用者を特定する(S20)。自動応答装置40は、環境音成分を取得し、取得した環境音成分と環境パターン情報64に基づいて、環境パターンを特定する(S22)。
The
図3は、環境パターン情報64の内容の一例を示す図である。環境パターン情報64は、複数の環境パターンと、分類基準とが対応付けられた情報である。環境パターンの分類基準は、例えば、曜日や、時間、利用者の周囲に存在している人物の数、人物の種別、利用者が存在している環境音の大きさ、利用者が存在している環境(自宅、オフィス、街)、利用者が存在している位置、および利用者のスケジュール(事前に登録された現在の予定)等のうち、少なくとも一以上の項目に基づいて、分類されるパターンである。
FIG. 3 is a diagram showing an example of the contents of the
利用者が存在している環境、利用者が存在している位置、または利用者のスケジュールは、例えば予め利用者により設定された情報である。また、利用者が存在している環境、または利用者が存在している位置は、不図示のGPS(Global Positioning System)を利用した位置測位装置により測位された情報に基づいて特定されてもよい。また、利用者のスケジュールは、端末装置10が他の装置からネットワークNWを介して取得した情報であってもよい。
The environment in which the user exists, the location in which the user exists, or the schedule of the user is, for example, information set in advance by the user. Further, the environment in which the user exists or the position where the user exists may be specified based on the information positioned by the positioning device using GPS (Global Positioning System) (not shown). .. Further, the user's schedule may be information acquired by the
次に、自動応答装置40は、特定した利用者に提供する広告の内容を決定するように広告提供装置80に依頼する(S24)。この際、自動応答装置40は、端末装置10に入力された音声に含まれる情報をテキスト情報に変換したテキスト情報を広告提供装置80に送信する。
Next, the
広告提供装置80は、自動応答装置40の依頼に応じて、広告情報92を参照して、テキスト情報に対応する利用者に提供する広告の内容を決定する(S30)。なお、広告提供装置80は、利用者に提供する広告が存在しない場合、その旨を自動応答装置40に送信する。
In response to the request of the
図4は、広告情報92の内容の一例を示す図である。広告情報92は、広告IDに対して、キャラクター、商品(またはサービス)、シナリオ、およびキーワードが対応付けられた情報である。「キャラクター」とは、所定の特徴を有する人物や、人に見立てた動物、植物、創作物、人工物などである。キャラクターは、商品ごとに設けられてもよいし、複数の商品ごとや、キャンペーンごとに設けられてもよい。
FIG. 4 is a diagram showing an example of the content of the
「シナリオ」とは、キャラクターが発する言葉(または言動)の内容や順序を規定したものである。シナリオは、例えば、キャラクターごとに設けられている。また、広告情報92には、シナリオに加え、音声のトーンや、テンポ等のキャラクターの特徴がキャラクターに対して対応付けられている。商品やキャンペーンごとのキャラクターは、シナリオ(行動ルール)を基に自律的に行動する。
The "scenario" defines the content and order of words (or words and actions) uttered by the character. The scenario is provided for each character, for example. Further, in the
「キーワード」は、広告に関連付けられた言葉である。[キーワード]は、商品を示す言葉の意味(意味情報)と同一の意味を有する言葉、または商品を示す言葉の意味に関連する言葉である。関連する言葉とは、商品を示す言葉から一般的に想起される言葉である。例えば、広告提供装置80は、利用者により入力された言葉または自動応答装置40により発せられた音声に含まれる言葉と、広告情報92のキーワードとが合致する場合に、合致するキーワードに対応付けられた広告IDに対応する情報(キャラクターが発話する音声元情報等)を自動応答装置40に送信する。なお、広告提供装置80は、人工知能や、深層学習などの機械学習されたモデルにより利用者に提供する情報を決定してもよい。
A "keyword" is a word associated with an advertisement. A [keyword] is a word having the same meaning as the meaning (semantic information) of a word indicating a product, or a word related to the meaning of a word indicating a product. Related words are words that are commonly recalled from words that indicate a product. For example, the
次に、自動応答装置40は、後述する出力度合情報72を参照して、環境パターンに応じた広告の出力度合を決定し、決定した出力度合で広告を出力するように端末装置10に指示をする(S26)。次に、端末装置10は、自動応答装置40の指示に基づいて、広告を出力する(S12)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
図5は、出力度合情報72の内容の一例を示す図である。出力度合情報72は、例えば、環境パターンごとに用意されている。また、出力度合情報72は、利用者IDに対して、環境パターンにおける過去の利用度合および広告を出力する出力度合が対応付けられた情報である。
FIG. 5 is a diagram showing an example of the contents of the
「過去の利用度合」とは、利用者が過去にスピーカ14から音声による情報(例えば広告)の提供を受けた度合、または利用者が過去にマイク12に音声を用いて情報を入力した度合である。「出力度合」とは、スピーカ14を用いて利用者に情報を出力する場合に、出力される音の大きさである。「出力度合」は、「出力態様」の一例である。出力度合は、例えば、過去の利用度合が多いほど、出力される音の大きさは大きくなるように設定されている。なお、「スピーカ14から音声による情報の提供を受けた度合」において、音楽を出力させた度合は除かれてもよい。
The "past usage degree" is the degree to which the user has received voice information (for example, advertisement) from the
また、出力度合情報72において、出力度合に代えて、他の出力に関する態様が対応付けられていてもよい。出力に関する態様とは、例えば、音の大きさ加え、音の高低、広告の内容が出力されるテンポ等である。出力に関する態様は、例えば、過去の利用度合が多いほど、利用者が聞き取りやすいように設定されている。
Further, in the
また、利用者が存在する環境の環境音が所定の大きさ以上の場合、環境音が所定の大きさ未満の場合よりも、特定情報の出力態様の変化度合を小さくしてもよい。すなわち、もともと環境音が大きい環境においては、特定情報の出力を大きくさせなくてもよい。 Further, when the environmental sound of the environment in which the user exists is equal to or larger than a predetermined loudness, the degree of change in the output mode of the specific information may be smaller than that when the environmental sound is less than the predetermined loudness. That is, in an environment where the environmental sound is originally loud, it is not necessary to increase the output of specific information.
上述したように、自動応答装置40が、出力度合情報72を参照することにより、利用者に違和感を与えないように情報を提供することができる。
As described above, the
なお、上述した説明では、一例として、利用者が音声を入力した場合に、利用度合に基づいて出力態様を制御する例について説明したが、単に自動応答装置40が発話したり、情報を出力したりする場合において利用度合に基づいて出力態様を制御してもよい。
In the above description, as an example, when the user inputs voice, the output mode is controlled based on the degree of use, but the
[具体例(その1)]
図6は、利用者と自動応答装置40との会話の一例を示す図である。例えば、図6(A)に示すように、(1)利用者が「新しい車が欲しいな。」とマイク12に入力する。
(2)自動応答装置40は、第1キャラクターの出力態様で、「どんな車が欲しいの?」と応答する。
[Specific example (1)]
FIG. 6 is a diagram showing an example of a conversation between the user and the
(2) The
次に、図6(B)に示すように、(3)利用者が「燃費のいい車がいいな。」とマイク12に入力する。(4)自動応答装置40は、第1キャラクターの出力態様で、「節約できるからいいよね。」と応答する。そして、(5)自動応答装置40は、第2キャラクターの出力態様で、「車Aが燃費いいよ。」と発話する。この第2キャラクターの出力態様は、ユーザデバイスの利用度合に応じた出力態様である。
Next, as shown in FIG. 6 (B), (3) the user inputs to the
次に、図6(C)に示すように、(6)利用者が「詳しく教えて。」とマイク12に入力する。(7)自動応答装置40は、第2キャラクターの出力態様で、「車Aは電気自動車だよ。フル充電で〇〇キロ走行可能だよ。」と応答する。
Next, as shown in FIG. 6 (C), (6) the user inputs "Tell me in detail." To the
このように、第1キャラクターと利用者との会話において、キーワードが出現した場合、自動応答装置40は、ユーザデバイスの利用度合に応じた出力態様で、キーワードに基づく広告を第2キャラクターの出力態様で、利用者に提供する。この結果、利用者に違和感を与えないように情報を提供することができる。
In this way, when a keyword appears in the conversation between the first character and the user, the
なお、上記の(6)で、車Aに興味を示さなかった場合、第2キャラクターは、その後、発話しなくてもよい。また、車Aに興味を示さなかった場合、他の車に対応するキャラクターの出力態様で、他の車を紹介してもよい。 If the car A is not interested in the above (6), the second character does not have to speak after that. Further, if the car A is not interested, the other car may be introduced in the output mode of the character corresponding to the other car.
また、車の広告を提供したい場合、自動応答装置40は、第1キャラクターに車の話題で会話するような発話や応答を行ってもよい。この場合、例えば、自動応答装置40は、上述したキーワード、キーワードを誘導するような発話を行う。例えば、出力したい特定情報に基づいて、キャラクターの会話が選択される。
Further, when it is desired to provide an advertisement for a car, the
また、上述した例では、第2キャラクターの発話の出力度合を変更するものとしたが、第1キャラクターの発話の出力度合が変更されてもよい。また、出力度合は、利用者とキャラクターとの会話の度合に基づいて変更されてもよい。例えば、第1キャラクターと利用者との会話の度合が、第Nキャラクター(Nは任意の自然数)と利用者との会話の度合よりも高い場合、第1キャラクターが利用者に話し掛ける度合を、第Nキャラクターが利用者に話しかける度合よりも多くする。 Further, in the above-described example, the output degree of the utterance of the second character is changed, but the output degree of the utterance of the first character may be changed. Further, the output degree may be changed based on the degree of conversation between the user and the character. For example, if the degree of conversation between the first character and the user is higher than the degree of conversation between the Nth character (N is an arbitrary natural number) and the user, the degree of conversation between the first character and the user is determined to be the first. Make it more than the N character talks to the user.
[フローチャート(学習する処理)]
図7は、端末装置10および自動応答装置40により実行される処理の流れの一例を示すフローチャートである。図6のフローチャートのS40、S50、およびS52の処理は、図2のフローチャートのS10、S20、およびS22の処理と同様のため説明を省略する。
[Flowchart (learning process)]
FIG. 7 is a flowchart showing an example of the flow of processing executed by the
S52の処理後に、自動応答装置40は、自装置が情報を利用者に提供したか否かを判定する(S54)。情報を利用者に提供した場合、自動応答装置40は、提供した情報の内容、および情報の提供後の利用者の反応を取得し、取得した反応を利用情報74として第2記憶部70に記憶させる(S56)。
After the processing of S52, the
図8は、利用情報74の内容の一例を示す図である。利用情報74は、利用者ごとに、過去に利用者により入力された情報、または過去に利用者に対して出力された情報と、入力された情報、または出力された情報の出力態様と、環境パターンと、出力された情報に対する利用者の反応(例えば指示)とが互いに対応付けられた情報である。
FIG. 8 is a diagram showing an example of the contents of the
次に、自動応答装置40は、所定のタイミングに到達したか否かを判定する(S58)。所定のタイミングに到達していない場合、本フローチャートの1ルーチンの処理が終了する。所定のタイミングに到達した場合、自動応答装置40は、利用情報74を学習データとして学習する(S60)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the
上述したように、利用者に情報を提供した際の利用者の反応や、環境パターン、情報の出力態様、情報の内容が学習されることにより、利用者の好みを把握することができる。そして、学習部52は、利用者の好みを反映させて出力度合情報72を生成したり、更新したりすることができる。
As described above, the user's preference can be grasped by learning the user's reaction when the information is provided to the user, the environmental pattern, the information output mode, and the content of the information. Then, the
例えば、土曜日や、時間帯が7時〜8時、利用者の周囲に親が存在している場合、利用者が自宅にいる場合、またはプライベートのスケジュールが予定されている時間帯において、他の状況の場合よりも抑制するように特定情報が出力されるように指示されたことを示す情報が、利用情報74に含まれているものとする。この場合、学習部52は、上述した状況に対応する環境パターンでは、特定情報の出力を抑制するように、出力度合情報72を生成する。
For example, on Saturdays, from 7:00 to 8:00, when there are parents around the user, when the user is at home, or when a private schedule is scheduled, other times. It is assumed that the
上述したように、利用者と音声インタラクションするスマートスピーカなどの人工物が、音声広告や話し掛けを過剰に行うと利用者は煩雑に感じる場合があるが、本実施形態では、利用者の音声インタラクションの利用度合や、インタラクションが行われた状況に応じて、音声広告や話し掛けを調整するため、利用者に違和感を与えないように情報を提供することができる。 As described above, the user may feel complicated when an artificial object such as a smart speaker that interacts with the user excessively voice advertisements or talks, but in the present embodiment, the voice interaction of the user is performed. Since the voice advertisement and the conversation are adjusted according to the degree of use and the situation in which the interaction is performed, it is possible to provide information so as not to give the user a sense of discomfort.
なお、上述した例では、提供制御部50が、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、特定情報の出力態様を制御するものとして説明したが、これに代えて(或いは加えて)、以下のように変更されてもよい。すなわち、提供制御部50は、ユーザデバイスの利用度合に応じて、第2応答内容の出力態様を制御する。この「第2応答内容」は、利用者により発せられた音声に対する応答内容であって広告を含む内容である。例えば、この場合、自動応答装置40は、広告を含む応答内容を決定し、決定した応答内容をユーザデバイスの利用度合に応じた出力態様で端末装置10に出力させる。このように、応答内容そのものが広告となり、且つ応答内容の制御態様が制御されるため、利用者に違和感を与えないように情報を提供することができる。
In the above-described example, the
以上説明した第1実施形態によれば、提供制御部50が、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、特定情報の出力態様を制御することにより、利用者に違和感を与えないように情報を提供することができる。
According to the first embodiment described above, the
<第2実施形態>
以下、第2実施形態について説明する。提供制御部50は、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を出力部に出力させる。第1実施形態との相違点を中心に説明する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. The
図9は、第2実施形態の情報処理システム1Aに含まれる自動応答装置40Aの機能構成の一例を示す図である。自動応答装置40Aは、第2記憶部70に代えて、第2記憶部70Aを備える。第2記憶部70Aは、例えば、出力度合情報72および利用情報74に加え、更に指示対応情報76(詳細は後述する)を備える。
FIG. 9 is a diagram showing an example of the functional configuration of the automatic response device 40A included in the information processing system 1A of the second embodiment. The automatic response device 40A includes a second storage unit 70A instead of the
第2実施形態の応答部48は、特定情報を端末装置10に出力させる場合、特定情報の出力態様を、応答内容の第3出力態様よりも利用者が聞き取りにくい第1態様に変更して、特定情報を端末装置10に出力させる。
When the
上記のように特定情報を端末装置10に出力させた後、自動応答装置40Aは、利用者の指示を受け付けた場合に、特定情報の出願態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を端末装置10に出力させる。第2出力態様は、例えば、第1出力態様よりも、音量が大きい、音の周波数帯が利用者にとって聞き取りやすい、情報が出力されるテンポが適切である態様である。
After outputting the specific information to the
なお、利用者が聞き取りにくい第1態様に変更する処理において、利用者が存在する環境の環境音が所定の大きさ以上の場合、環境音が所定の大きさ未満の場合よりも、特定情報の出力態様を変化させなくてもよいし、出力態様の変化度合を小さくしてもよい。もともと環境音が大きい環境で出力態様を変更しても利用者に対する影響が小さいためである。 In the process of changing to the first mode, which is difficult for the user to hear, when the environmental sound of the environment in which the user exists is equal to or larger than the predetermined loudness, the specific information is more important than when the environmental sound is less than the predetermined loudness. The output mode may not be changed, or the degree of change in the output mode may be reduced. This is because even if the output mode is changed in an environment where the environmental sound is originally loud, the influence on the user is small.
[フローチャート]
図10は、端末装置10および第2実施形態の自動応答装置40Aにより実行される処理の流れの一例を示すフローチャートである。本処理は、第1出力態様で特定情報が出力された後に実行される処理である。図10のフローチャートのS60、S70、およびS72の処理は、図2のフローチャートのS10、S20、およびS22の処理と同様のため説明を省略する。
[flowchart]
FIG. 10 is a flowchart showing an example of a processing flow executed by the
次に、自動応答装置40Aは、指示対応情報76を参照し、特定された利用者と、特定された環境パターンと、入力された音声に含まれる情報(指示の内容)との組み合わせに合致する広告の情報の出力態様を決定する(S74)。指示の内容とは、利用者が情報の出力に関して求めた指示の情報である。指示の内容とは、例えば、ボリュームを上げることや、ゆっくりと情報を出力させること、高い音で情報を出力させること、数秒前に出力された情報を出力すること等、またはこれらの組み合わせである。
Next, the automatic response device 40A refers to the
図11は、指示対応情報76の内容の一例を示す図である。指示対応情報76は、利用者によって行われた指示に対して、どのような出力態様で情報を出力するかを決定するのに用いられる情報である。指示対応情報76は、例えば、環境パターンごとに、利用者ID、指示の内容、および出力態様が互いに対応付けられた情報である。
FIG. 11 is a diagram showing an example of the contents of the
次に、自動応答装置40Aは、端末装置10に決定した出力態様で広告の情報を出力するように指示する(S76)。次に、端末装置10は、自動応答装置40Aの指示に基づいて、決定された出力態様で広告の情報をスピーカ14に出力させる(S62)。これにより本フローチャートの1ルーチンの処理が終了する。
Next, the automatic response device 40A instructs the
上述したように、自動応答装置40が、利用者の求めに応じて出力態様を変更するため、利用者に違和感を与えないように情報を提供することができる。
As described above, since the
[具体例(その2−1)]
図12は、第2実施形態の利用者と自動応答装置40Aとの会話の一例を示す図である。例えば、図12(A)に示すように、(1)利用者が「新しい車が欲しいな。」とマイク12に入力する。(2)自動応答装置40Aは、第1キャラクターの出力態様で、「どんな車が欲しいの?」と応答する。
[Specific example (No. 2-1)]
FIG. 12 is a diagram showing an example of a conversation between the user of the second embodiment and the automatic response device 40A. For example, as shown in FIG. 12 (A), (1) the user inputs "I want a new car" to the
次に、図12(B)に示すように、(3)利用者が「燃費のいい車がいいな。」とマイク12に入力する。(4)自動応答装置40Aは、第1キャラクターの出力態様で、「節約できるからいいよね。」と応答する。
Next, as shown in FIG. 12 (B), (3) the user inputs to the
次に、例えば、数秒程度、利用者によって発話がされない場合、図12(C)に示すように、(5)自動応答装置40Aは、第2キャラクターの出力態様であり、且つ第1出力態様で、「車Aをおすすめします。・・・・」と発話する。 Next, for example, when the user does not speak for about several seconds, (5) the automatic response device 40A is the output mode of the second character and in the first output mode, as shown in FIG. 12 (C). , "I recommend car A ...."
(6)利用者は、上記(5)で出力された情報に興味を持っていたが音量が小さいため聞こえなかったことから、「聞こえないよ。」と発話する。そうすると、(7)自動応答装置40Aは、第2キャラクターの出力態様であり、且つ音量を上げて、上記(5)で出力させた情報を端末装置10に出力させる。すなわち、第2キャラクターが「車Aをおすすめします。・・・」と、再度、発話する。
(6) The user was interested in the information output in (5) above, but could not hear it because the volume was low, so he said, "I can't hear it." Then, (7) the automatic response device 40A is the output mode of the second character, and the volume is raised to output the information output in (5) above to the
このように、第2キャラクターが情報を出力する場合の出力態様を、第1キャラクターが情報を出力する場合の出力態様よりも、利用者が聞き取りにくくすることにより、利用者に煩わしさを感じさせることを抑制することができる。また、利用者の求めに応じ、第2キャラクターが情報を出力する場合の出力態様を、利用者が聞き取りやすいようにすることにより、利用者にとっての利便性を向上させることができる。 In this way, the output mode when the second character outputs the information is harder for the user to hear than the output mode when the first character outputs the information, which makes the user feel annoyed. Can be suppressed. In addition, the convenience for the user can be improved by making the output mode when the second character outputs the information in response to the user's request easy for the user to hear.
なお、上述した説明では、一例として、利用者が音声を入力した場合に、特定情報が出力される例について説明したが、単に自動応答装置40Aが特定情報を出力する場合において、上記のように出力態様が制御されてもよい。また、例えば、出力したい特定情報に基づいて、第1のキャラクターと第2のキャラクターの会話が選択されてもよい。 In the above description, as an example, when the user inputs voice, the specific information is output. However, when the automatic response device 40A simply outputs the specific information, as described above. The output mode may be controlled. Further, for example, a conversation between the first character and the second character may be selected based on the specific information to be output.
[具体例(その2−2)]
図13は、広告の情報が出力される際の音量の変化を示す図である。図13の縦軸は音の大きさを示し、図13の横軸は時間を示している。以下で説明する広告A〜Cの各広告の長さ(時間)は、例えば所定秒(例えば15秒程度)である。広告A〜Cの順で広告の情報が出力される予定であるものとする。この場合において、例えば、広告Aが出力され、広告Bが出力され、広告Bの内容が出力されている途中(図13の時刻T)で、利用者が音量を上げることを指示した。自動応答装置40Aは、時刻Tにおいて、広告Bの内容を最初から端末装置10に出力させる。すなわち、所定時間遡った部分や音量を絞った部分から、広告Bが再出力される。また、その後、自動応答装置40Aは、図示するように広告Bの内容が出力された後、音量を上げる前の音量に下げてもよいし、音量を上げた状態を維持してもよい。
[Specific example (2-2)]
FIG. 13 is a diagram showing a change in volume when advertising information is output. The vertical axis of FIG. 13 indicates loudness, and the horizontal axis of FIG. 13 indicates time. The length (time) of each of the advertisements A to C described below is, for example, a predetermined second (for example, about 15 seconds). It is assumed that the advertisement information is to be output in the order of advertisements A to C. In this case, for example, the user instructed to raise the volume while the advertisement A was output, the advertisement B was output, and the content of the advertisement B was being output (time T in FIG. 13). At time T, the automatic response device 40A causes the
上述したように、自動応答装置40Aが、利用者により指示がされた場合に、指示された際に出力していた広告を最初から出力させるため、利用者は所望の情報を取得することができる。 As described above, when the automatic response device 40A is instructed by the user, the advertisement output at the time of the instruction is output from the beginning, so that the user can acquire desired information. ..
なお、上述した例では、利用者の指示に基づいて、内容Bを最初から出力するものとしたが、広告Aの最初から出力してもよいし、利用者の指示がされたときから所定時間前に出力されていた情報から出力してもよい。また、利用者の発話の内容(例えば切迫度)に基づいて、再出力させる情報が決定されてもよい。また、自動応答装置40Aは、過去の利用者の指示の傾向または予め設定された条件に基づいて、利用者の指示がされたときから、どの程度前から広告を再度再生するかを決定してもよい。 In the above example, the content B is output from the beginning based on the user's instruction, but the content B may be output from the beginning of the advertisement A, or a predetermined time from the time when the user's instruction is given. You may output from the information that was output before. In addition, the information to be re-output may be determined based on the content of the user's utterance (for example, the degree of urgency). In addition, the automatic response device 40A determines how long before the advertisement is replayed from the time when the user's instruction is given, based on the tendency of the user's instruction in the past or the preset conditions. May be good.
[その他]
提供制御部50は、特定情報の属性に基づいて、特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。特定情報の属性とは、広告に関する情報、機器の操作に関する情報、楽曲、およびユーザに関連する期限に関する情報(パスワードの変更期限などの情報)のうち、少なくとも一つを含む。例えば、提供制御部50は、広告に関する情報の出力態様を第1出力態様に変更し、他の属性の特定情報は出力態様を変更しなくてもよい。
[Other]
The
提供制御部50は、広告の種別に基づいて特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。広告の種別とは、例えば、広告に対応する商品の種別である。例えば、提供制御部50は、車の広告の出力態様については、第1出力態様に変更するが、不動産の広告の出力態様については、第1出力態様に変更せずに、出力部に出力させてもよい。
The
また、提供制御部50は、広告の種別と、過去に行われた利用者の指示の結果とに基づいて、特定情報の出力態様を、第1出力態様に変更して特定情報を出力部に出力させてもよい。例えば、学習部52が、広告の種別と、過去に行われた利用者の指示の結果とを学習する。例えば、学習部52は、車の広告が出力された場合、利用者はボリュームのアップを指示したが、不動産の広告が出力された場合、利用者はボリュームのダウンを指示したことを学習する。この場合、例えば、提供制御部50は、車の広告の出力態様については、第1出力態様に変更するが、不動産の広告の出力態様については、第1出力態様に変更せずに、出力部に出力させてもよい。
Further, the
また、提供制御部50は、上記の考え方を採用して、利用者に対応する環境パターンに基づいて、特定情報の出力態様を、第1出力態様に変更してもよい。例えば、ある環境においては、第1出力態様で特定情報が出力されることが利用者にとって好ましいことが学習部52により学習される。提供制御部50は、学習結果に基づいて、特定情報を第1出力態様で出力する。
Further, the
また、利用者により指定された情報(例えば所定の属性の情報)の出力態様については、第1出力態様に変更し、指定されていない情報の出力態様については第1出力態様に変更しなくてもよい。 Further, the output mode of the information specified by the user (for example, the information of a predetermined attribute) is changed to the first output mode, and the output mode of the information not specified is not changed to the first output mode. May be good.
また、指示対応情報76は、学習部52により生成される。例えば、学習部52は、第1出力態様で特定情報が出力部に出力された後、環境パターンごとに、利用者により受けた指示の内容および指示に基づいて変更された特定情報の出力態様を学習する。そして、学習部52は、所定の環境パターンにおいて、特定情報の出力態様をどのように変更させたかを学習して、利用者の嗜好に合致する指示対応情報76を生成する。
Further, the
例えば、学習部52は、土曜日や、時間帯が7時〜8時、利用者の周囲に親が存在している場合、利用者が自宅にいる場合、またはプライベートのスケジュールが予定されている時間帯において、利用者により受けた指示の内容および指示に基づいて変更した特定情報の出力態様を学習し、学習結果に基づいて、指示対応情報76を生成する。例えば、利用者が、所定の環境パターンにおいてボリューム「10」で特定情報の出力させる傾向にある場合、指示対応情報76において、ボリュームの変更指示がされた場合の第2出力態様はボリューム「10」に設定される。
For example, the
以上説明した第2実施形態によれば、提供制御部50は、特定情報の出力態様を、応答内容の出力態様よりも利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示を受け付けた場合に、特定情報の出力態様を、第1出力態様よりも利用者が聞き取りやすい第2出力態様に変更して、特定情報を出力部に出力させることにより、利用者に違和感を与えないように情報を提供することができる。
According to the second embodiment described above, the
例えば、自動応答装置と利用者との対話の延長にそのまま音声広告を出力すると、煩わしく思われたり、ステルスマーケティング(ステマ)とみなされてしまったりする場合があるが、本実施形態のように、特定情報を利用者が聞き取りにくい第1出力態様に変更して出力部に出力させた後、利用者の指示によって特定情報を第2出力態様に変更して出力部に出力させることにより、煩わしいと感じさせることを抑制したり、ステルスマーケティングとみなされること抑制する。 For example, if a voice advertisement is output as it is as an extension of the dialogue between the automatic response device and the user, it may seem annoying or may be regarded as stealth marketing (stemmer), but as in the present embodiment, It is troublesome to change the specific information to the first output mode, which is difficult for the user to hear, and output it to the output unit, and then change the specific information to the second output mode and output it to the output unit according to the user's instruction. Suppress what makes you feel or what is considered stealth marketing.
<第3実施形態>
以下、第3実施形態について説明する。提供制御部50は、応答内容を出力する第1のキャラクターと、特定情報を出力する第2のキャラクターとの会話を出力部に出力させる。第1実施形態との相違点を中心に説明する。
<Third Embodiment>
Hereinafter, the third embodiment will be described. The
図14は、第3実施形態の情報処理システム1Bの機能構成の一例を示す図である。情報処理システム1Bは、例えば、端末装置10Bと、自動応答装置40Bと、広告提供装置80Bとを備える。
FIG. 14 is a diagram showing an example of the functional configuration of the
端末装置10Bは、第1実施形態の端末装置10の機能構成に加え、更に表示部15と、画像生成部19とを備える。表示部15は、画像生成部19の制御に基づいて、画像を表示する。画像生成部19は、自動応答装置40Bにより送信された情報に基づいて、表示部15に画像を表示させる。例えば、音声生成部18と画像生成部19とは、自動応答装置40Bにより送信された情報に基づいて、表示部15に表示される画像の内容と、スピーカ14に出力される音声の内容とが意図したタイミングになるように協調して、スピーカ14および表示部15を制御する。以下、音声生成部18と画像生成部19とを合わせたものを、「生成部17」と称する。
The
自動応答装置40Bは、第1実施形態の自動応答装置40の機能構成に加え、更に画像提供部49を備え、第1実施形態の第1記憶部60に代えて、第1記憶部60Bを備える。第1記憶部60Bは、例えば、第1実施形態の第1記憶部60に記憶された情報に加え、更にモーション情報69が記憶されている。モーション情報69は、利用者と会話するキャラクターの動きが規定された情報である。画像提供部49は、モーション情報69に含まれる情報、または広告提供装置80Bにより提供された情報に基づいて、端末装置10Bに表示される画像を生成するための情報を端末装置10に提供する。画像を生成するための情報には、スピーカ14に出力される発話に対して、画像を変化させるタイミングが対応付けられている。以下、応答部48と画像提供部49とを合わせたものを、「応答提供部47」と称する。
The
広告提供装置80Bは、第1実施形態の広告提供装置側記憶部90に代えて、広告提供装置側記憶部90Bを備える。広告提供装置側記憶部90は、例えば、広告情報92Bを備える。広告情報92Bは、第1実施形態の広告情報92の情報に加え、更に広告モーション情報93を備える。広告モーション情報93は、広告IDに対応付けられたキャラクターの動きが規定された情報である。
The advertisement providing device 80B includes an advertisement providing device
[フローチャート]
図15は、自動応答装置40Bにより実行される処理の流れの一例を示すフローチャートである。まず、応答提供部47が、第1キャラクターと第2キャラクターとを会話させる(S80)。次に、広告提供部47は、第2キャラクターに広告の情報を出力させる(S82)。
[flowchart]
FIG. 15 is a flowchart showing an example of the flow of processing executed by the
次に、自動応答装置40Bは、出力された広告の情報(第1の特定情報)に応じて利用者が音声を入力したか否かを判定する(S84)。なお、音声に代えて、所定の操作がされたか否かが判定されてもよい。利用者が音声を入力していない場合、本フローチャートの1ルーチンの処理が終了する。
Next, the
利用者が音声を入力した場合、自動応答装置40Bは、利用者が広告の情報の出力に対して煩わしいと感じているか否かを判定する(S86)。「煩わしいと感じている」とは、例えば、入力された音声に含まれる情報が広告の情報の出力に関して、否定的な意味を有していることである。より具体的には、例えば、「静かにして」、「やめて」、「音を下げて」などの意味を有する発話がされた場合、利用者が煩わしいと感じていると判定される。利用者が煩わしいと感じていない場合、本フローチャートの1ルーチンの処理が終了する。なお、S86で煩わしいと感じていない場合、自動応答装置40Bは、第1の特定情報よりも詳細な情報である第2の特定情報を出力部に出力させる。詳細な情報とは、例えば、第1の特定情報が商品名や商品の属性である場合、その説明的な内容である。
When the user inputs a voice, the
利用者が煩わしいと感じている場合、応答提供部47は、広告の情報を出力させることを停止する(S88)。なお、停止に代えて、利用者の反応に基づいて出力態様を変更させてもよい。例えば、利用者が「音を下げて」と入力した場合、広告の情報が出力される音が小さく制御される。これにより本フローチャートの1ルーチンの処理が終了する。 When the user feels annoyed, the response providing unit 47 stops outputting the advertisement information (S88). Instead of stopping, the output mode may be changed based on the reaction of the user. For example, when the user inputs "lower the sound", the sound at which the advertisement information is output is controlled to be small. As a result, the processing of one routine of this flowchart is completed.
上述したように、キャラクター同士が会話をして広告の情報を出力させることにより、利用者に対して、より情報に対する興味を持たせることができる。また、利用者の反応に応じて、情報の出力を抑制するため、利用者にとっての利便性が向上する。 As described above, by having the characters talk with each other and output the information of the advertisement, it is possible to make the user more interested in the information. In addition, since the output of information is suppressed according to the reaction of the user, the convenience for the user is improved.
[具体例(その3−1)]
図16は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その1)である。提供制御部は、利用者に提供した情報に基づいて、第1キャラクターと第2キャラクターとを会話させる。例えば、図16に示すように、(1)第2キャラクターCR2が「今日の天気はどう?」と発話する。(2)第1キャラクターCR1が、「予報では快晴だよ。」と応答する。
[Specific example (No. 3-1)]
FIG. 16 is a diagram (No. 1) showing an example of an image displayed on the conversation and
次に、(3)第2キャラクターCR2が「ドライブ日和だね。」と発話する。次に、(4)第1キャラクターCR1が、「そうだね。」と応答する。次に、(5)第2キャラクターCR2が、「そういえば、ドライブするのに最適な車が発売されたよ。」と発話する。 Next, (3) the second character CR2 utters, "It's a good day to drive." Next, (4) the first character CR1 responds with "That's right." Next, (5) the second character CR2 says, "By the way, the best car to drive has been released."
このように、キャラクター同士で会話させて、商品を紹介することにより、利用者により自然に商品に興味を持たせることができる。 In this way, by having the characters talk to each other and introducing the product, the user can naturally become interested in the product.
[具体例(その3−2)]
例えば、自動応答装置40Bは、第1キャラクターと利用者との会話に基づいて、利用者の好みや、嗜好、行動予定等の嗜好情報を取得する。嗜好情報とは、例えば、利用者の趣味や、利用頻度が高い施設または場所、購入頻度が高い商品、購入を希望している商品またはサービス等の情報である。
[Specific example (3-2)]
For example, the
図17は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その2)である。提供制御部50は、例えば、利用者と第1キャラクターとの会話に含まれる会話情報を第2キャラクターにより出力される特定情報の内容に反映させるか否かを利用者に問い合わせ、利用者に許諾を得た場合、会話情報を特定情報の内容に反映させる。
FIG. 17 is a diagram (No. 2) showing an example of an image displayed on the conversation and
例えば、図17に示すように、(1)第1キャラクターCR1が「利用者Aさん。利用者Aさんが車の購入を考えていること他の人に教えていい?」と発話する。この発話に対して、利用者Aさんが「いいよ。」と回答したものとする。(2)第1キャラクターCR1が、「いいんだね。他の人に教えておくね。きっといい車が見つかるよ!」と応答する。このように、第1キャラクターが利用者の興味関心、傾向などの情報を第2キャラクターに提供することで、第2キャラクターが出力する情報を最適化する。 For example, as shown in FIG. 17, (1) the first character CR1 utters "User A. Can I tell other people that User A is thinking about purchasing a car?" It is assumed that user A replies "OK" to this utterance. (2) The first character CR1 responds, "I like it. I'll tell other people. I'm sure you'll find a good car!" In this way, the first character provides the second character with information such as the user's interests and tendencies, thereby optimizing the information output by the second character.
図18は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その3)である。前述した図17の(2)の応答後、所定のタイミングで以下の会話が行われる。(1)第2キャラクターCR2が、例えば表示部15に表示されていない状態で「ごめんください。」と発話する。次に、(2)第1キャラクターCR1が、「どなたですか?」と応答する。次に、(3)第2キャラクターCR2が、「少しお時間よろしいでしょうか?」と発話する。次に、(4)第1キャラクターCR1が、「利用者Aさん、どなたか尋ねてきましたよ。入れてもいいですか?」と発話する。この発話に対して、利用者Aさんが、「入れていいよ。」と回答したものとする。次に、(5)第1キャラクターCR1が、利用者Aさんの発話に応じて、「お入りください。」と発話する。その後、表示部15に図19に示す画像が表示される。
FIG. 18 is a diagram (No. 3) showing an example of an image displayed on the conversation and
図19は、第3実施形態の会話および表示部15に表示される画像の一例を示す図(その4)である。(1)第2キャラクターCR2が、例えば表示部15に表示された状態で「お車をお探しであることをお伺いしたので、ご紹介に参りました。」と発話する。次に、(2)第1キャラクターCR1が、「利用者Aさん、お話聞いてみますか?」と応答する。この応答に対して、利用者が肯定的な発話を行った場合、例えば、第2キャラクターCR2は、商品を紹介する。この応答に対して、利用者が否定的な発話を行った場合、例えば、第2キャラクターCR2は、商品の紹介を行わず、姿を消す。
FIG. 19 is a diagram (No. 4) showing an example of an image displayed on the conversation and
このように、嗜好情報の取扱いについて、許可が得られた場合に、利用者の嗜好情報に応じた広告の情報が出力されるため、利用者に煩わしさを感じさせることを抑制しつつ、利用者にとっての利便性を向上させることができる。 In this way, regarding the handling of preference information, when permission is obtained, advertisement information according to the user's preference information is output, so that the user can be used while suppressing the annoyance. It is possible to improve the convenience for the person.
なお、上述した例では、第1キャラクターCR1と第2キャラクターCR2とが会話する例について説明したが、これに代えて(または加えて)第2キャラクターCR2と、第3キャラクターとが会話してもよい。第3キャラクターは、例えば、第2キャラクターCR2がおすすめする商品(またはサービス)と競合する(または関連する)商品(またはサービス)を宣伝するキャラクターである。 In the above-mentioned example, an example in which the first character CR1 and the second character CR2 talk to each other has been described, but instead (or in addition), the second character CR2 and the third character may talk to each other. Good. The third character is, for example, a character that promotes a product (or service) that competes with (or is related to) a product (or service) recommended by the second character CR2.
以上説明した第3実施形態によれば、提供制御部50は、第1のキャラクターに応じた出力態様によって応答内容を出力部に出力させ、第2のキャラクターに応じた出力態様によって特定情報を出力部に出力させ、第1のキャラクターと第2のキャラクターとの会話を出力部に出力させることにより、よりユーザに情報に対する興味を喚起させることができる。
According to the third embodiment described above, the
なお、上述した各実施形態の情報処理システム1では、端末装置10は一台であるものとして説明したが、二以上の端末装置10が設けられてもよい。この場合、自動応答装置40は、例えば、第1の端末装置10または第2の端末装置10から、その装置の識別情報と共に端末装置10に入力された音声データを取得する。そして、自動応答装置40は、取得した識別情報を参照して、第1の端末装置10に第1キャラクターの出力態様で応答内容を出力させ、第2の端末装置10に第2キャラクターの出力態様で特定情報を出力させる。
Although the
以上説明した実施形態によれば、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報とを出力部に出力させる応答部と、音声が入力または出力の対象とされたユーザデバイスの利用度合に応じて、前記特定情報の出力態様を制御する制御部とを備えることにより、利用者に違和感を与えないように情報を提供することができる。 According to the embodiment described above, the response unit for outputting the response content to the voice emitted by the user and the specific information different from the response content to the output unit, and the voice are the targets of input or output. By providing a control unit that controls the output mode of the specific information according to the degree of use of the user device, it is possible to provide information so as not to give a sense of discomfort to the user.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
1,1A、1B…情報処理システム、10…端末装置、12…マイク、14…スピーカ、15…表示部、16…音声認識部、18…音声生成部、19…画像生成部、40、40A、40B…自動応答装置、42…利用者特定部、43…環境解析部、46…解釈部、48…応答部、49…画像提供部、50…提供制御部、52…学習部、80…広告提供装置、82…情報提供部 1,1A, 1B ... Information processing system, 10 ... Terminal device, 12 ... Microphone, 14 ... Speaker, 15 ... Display unit, 16 ... Voice recognition unit, 18 ... Voice generation unit, 19 ... Image generation unit, 40, 40A, 40B ... Automatic response device, 42 ... User identification unit, 43 ... Environmental analysis unit, 46 ... Interpretation unit, 48 ... Response unit, 49 ... Image provision unit, 50 ... Provision control unit, 52 ... Learning unit, 80 ... Advertisement provision Equipment, 82 ... Information provision department
Claims (20)
記憶装置に記憶された音声が入力または出力の対象とされたユーザデバイスの利用度合を示す情報を参照し、前記参照した利用度合に応じて、前記応答部が前記出力部に出力させる前記広告の出力頻度を制御する制御部と、を備え、
前記制御部は、前記応答部が前記広告を前記出力部に出力させている途中で、前記利用者に発せられた音声に対応する音声データに含まれる音量を上げることを示す情報を取得した場合、前記応答部に前記広告を冒頭から出力させることを指示し、
前記応答部は、前記広告を冒頭から前記出力部に出力させる、
情報処理システム。 A response unit that outputs the response content to the voice emitted by the user and an advertisement that is specific information different from the response content to the output unit that outputs the voice as voice .
The voice stored in the storage device refers to information indicating the usage degree of the user device whose input or output is the target, and the response unit outputs the advertisement to the output unit according to the reference usage degree . Equipped with a control unit that controls the output frequency
When the control unit acquires information indicating that the volume included in the voice data corresponding to the voice emitted to the user is increased while the response unit is outputting the advertisement to the output unit. , Instruct the response unit to output the advertisement from the beginning,
The response unit outputs the advertisement to the output unit from the beginning.
Information processing system.
前記応答部は、前記冒頭から前記広告を前記出力部に出力させる際の音声の音量を上昇させて、前記冒頭から前記広告を前記出力部に出力させる、
請求項1に記載の情報処理システム。 When the control unit acquires the information indicating that the volume is to be increased, in addition to instructing the response unit to output the advertisement from the beginning, the volume of the advertisement to be output from the beginning is set to the volume. Instruct the response unit to raise the volume higher than before acquiring the information indicating that the volume should be raised.
The response unit raises the volume of the voice when the advertisement is output to the output unit from the beginning, and outputs the advertisement to the output unit from the beginning.
The information processing system according to claim 1.
請求項1または2に記載の情報処理システム。 The control unit refers to the degree of use of the user device whose voice stored in the storage device is the target of input or output, and the higher the degree of use, the greater the degree of output of the specific information.
The information processing system according to claim 1 or 2 .
請求項1から3のうちいずれか1項に記載の情報処理システム。 The usage includes a value based on the number or frequency of voice inputs to the user device by the user.
The information processing system according to any one of claims 1 to 3 .
請求項1から4のうちいずれか1項に記載の情報処理システム。 The degree of utilization includes a value based on the number of times or frequency that the user has made the user device output voice.
The information processing system according to any one of claims 1 to 4 .
請求項1から5のうちいずれか1項に記載の情報処理システム。 The use degree is a degree of speech is output to the user device for advertising,
The information processing system according to any one of claims 1 to 5 .
請求項1から5のうちいずれか1項に記載の情報処理システム。 The use degree, except for degree of music is output to the user device,
The information processing system according to any one of claims 1 to 5.
請求項1から7のうちいずれか1項に記載の情報処理システム。 The advertisement is information on a product having the same meaning as the voice uttered by the user or the words contained in the response content, or information on the product related to the voice or the words contained in the response content.
The information processing system according to any one of claims 1 to 7 .
請求項1から8のうちいずれか1項に記載の情報処理システム。 The control unit controls the output mode of the specific information based on the usage degree of the user device whose voice by the user stored in the storage device is the target of input or output and the time zone.
The information processing system according to any one of claims 1 to 8.
請求項1から9のうちいずれか1項に記載の情報処理システム。 The control unit receives the specific information based on the degree of use of the user device whose voice by the user stored in the storage device is the target of input or output and the environment in which the user exists. Control the output mode,
The information processing system according to any one of claims 1 to 9.
請求項1から10のうちいずれか1項に記載の情報処理システム。 The control unit sets the specific information based on the degree of use of the user device whose voice by the user stored in the storage device is the target of input or output and the position where the user exists. Control the output mode,
The information processing system according to any one of claims 1 to 10.
請求項1から11のうちいずれか1項に記載の情報処理システム。 The control unit identifies the user device based on the degree of use of the user device for which the voice of the user stored in the storage device is input or output, and a person existing in the vicinity of the user. Control the output mode of information,
The information processing system according to any one of claims 1 to 11.
請求項1から12のうちいずれか1項に記載の情報処理システム。 The control unit determines an output mode of the specific information based on the degree of use of the user device whose voice by the user is input or output stored in the storage device and the schedule information of the user. Control,
The information processing system according to any one of claims 1 to 12.
請求項1から13のうちいずれか1項に記載の情報処理システム。 The control unit has the specific information based on the degree of use of the user device whose voice by the user is input or output stored in the storage device and the environmental sound of the environment in which the user exists. Control the output mode of
The information processing system according to any one of claims 1 to 13.
請求項14に記載の情報処理システム。 The control unit makes the degree of change in the output mode of the specific information smaller when the environmental sound in the environment in which the user is present is equal to or larger than a predetermined loudness, as compared with the case where the environmental sound is less than a predetermined loudness. ,
The information processing system according to claim 14.
請求項1から15のうちいずれか1項に記載の情報処理システム。 The control unit controls the output mode of the specific information so that the user can easily hear the output mode of the specific information as the degree of use of the user device whose voice by the user is input or output is higher.
The information processing system according to any one of claims 1 to 15.
請求項9から16うちいずれか1項に記載の情報処理システム。 The output mode of the specific information is the loudness of the sound, the pitch of the sound, or the tempo at which the specific information is output.
The information processing system according to any one of claims 9 to 16.
請求項1から17のうちいずれか1項に記載の情報処理システム。 The control unit outputs the response content to the output unit according to the output mode according to the first character, and outputs the specific information to the output unit according to the output mode according to the second character.
The information processing system according to any one of claims 1 to 17.
記憶装置に記憶された音声が入力または出力の対象とされたユーザデバイスの利用度合を示す情報を参照する処理と、
前記参照した利用度合に応じて、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報である広告とを音声を出力する出力部に音声として出力させる応答部を制御して、前記出力部に出力させる前記広告の出力頻度を制御する処理と、
前記応答部が前記広告を前記出力部に出力させている途中で、前記利用者に発せられた音声に対応する音声データに含まれる音量を上げることを示す情報を取得した場合、前記応答部に前記広告を冒頭から出力させることを指示し、前記応答部の制御によって前記広告を冒頭から前記出力部に出力させる処理と、
を備える情報処理方法。 One or more computers
A process in which the voice stored in the storage device refers to information indicating the usage level of the user device whose input or output is the target, and
Depending on the degree of use referred to above, the response unit that outputs the response content to the voice emitted by the user and the advertisement that is specific information different from the response content to the output unit that outputs the voice is controlled. The process of controlling the output frequency of the advertisement to be output to the output unit ,
When the response unit acquires information indicating that the volume included in the voice data corresponding to the voice emitted to the user is increased while the advertisement is being output to the output unit, the response unit receives information. A process of instructing the output of the advertisement from the beginning and outputting the advertisement from the beginning to the output unit by controlling the response unit.
Information processing method comprising a.
記憶装置に記憶された音声が入力または出力の対象とされたユーザデバイスの利用度合を示す情報を参照する処理と、
前記参照した利用度合に応じて、利用者により発せられた音声に対する応答内容と、前記応答内容とは異なる特定情報である広告とを音声を出力する出力部に音声として出力させる応答部を制御して、前記出力部に出力させる前記広告の出力頻度を制御する処理と、
前記応答部が前記広告を前記出力部に出力させている途中で、前記利用者に発せられた音声に対応する音声データに含まれる音量を上げることを示す情報を取得した場合、前記応答部に前記広告を冒頭から出力させることを指示し、前記応答部の制御によって前記広告を冒頭から前記出力部に出力させる処理と、
を実行させるプログラム。 On one or more computers
A process in which the voice stored in the storage device refers to information indicating the usage level of the user device whose input or output is the target, and
Depending on the degree of use referred to above, the response unit that outputs the response content to the voice emitted by the user and the advertisement that is specific information different from the response content to the output unit that outputs the voice is controlled. The process of controlling the output frequency of the advertisement to be output to the output unit ,
When the response unit acquires information indicating that the volume included in the voice data corresponding to the voice emitted to the user is increased while the advertisement is being output to the output unit, the response unit receives information. A process of instructing the output of the advertisement from the beginning and outputting the advertisement from the beginning to the output unit by controlling the response unit.
A program that executes .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008209A JP6774438B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008209A JP6774438B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019128654A JP2019128654A (en) | 2019-08-01 |
JP6774438B2 true JP6774438B2 (en) | 2020-10-21 |
Family
ID=67471402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018008209A Active JP6774438B2 (en) | 2018-01-22 | 2018-01-22 | Information processing systems, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6774438B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7010193B2 (en) * | 2018-10-25 | 2022-01-26 | トヨタ自動車株式会社 | Dialogue device and control program for dialogue unit |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10326176A (en) * | 1997-05-23 | 1998-12-08 | Oki Hokuriku Syst Kaihatsu:Kk | Voice conversation control method |
JP2002163171A (en) * | 2000-11-28 | 2002-06-07 | Sanyo Electric Co Ltd | Device and system for supporting user |
JP2003256421A (en) * | 2002-02-28 | 2003-09-12 | Jackpot:Kk | Character-type conversation system |
JP2004184788A (en) * | 2002-12-05 | 2004-07-02 | Casio Comput Co Ltd | Voice interaction system and program |
WO2016157658A1 (en) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, control method, and program |
-
2018
- 2018-01-22 JP JP2018008209A patent/JP6774438B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019128654A (en) | 2019-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2021286360B2 (en) | Systems and methods for integrating third party services with a digital assistant | |
US10783872B2 (en) | Integration of third party virtual assistants | |
JP7247271B2 (en) | Proactively Incorporating Unsolicited Content Within Human-to-Computer Dialogs | |
EP3766066B1 (en) | Generating response in conversation | |
KR102112814B1 (en) | Parameter collection and automatic dialog generation in dialog systems | |
US9847084B2 (en) | Personality-based chatbot and methods | |
JP6310796B2 (en) | Control device, control method, and control program | |
CN111369275A (en) | Group identification and description method, coordination device and computer readable storage medium | |
JP2024510698A (en) | Contextual suppression of assistant commands | |
JP7095684B2 (en) | Information processing equipment, information processing method, program | |
JP6774438B2 (en) | Information processing systems, information processing methods, and programs | |
JP6788620B2 (en) | Information processing systems, information processing methods, and programs | |
JP6776284B2 (en) | Information processing systems, information processing methods, and programs | |
JP2024154422A (en) | Agent System | |
CN118541751A (en) | Method for providing speech synthesis service and system thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190319 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6774438 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |