JP7132206B2 - GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM - Google Patents
GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP7132206B2 JP7132206B2 JP2019225540A JP2019225540A JP7132206B2 JP 7132206 B2 JP7132206 B2 JP 7132206B2 JP 2019225540 A JP2019225540 A JP 2019225540A JP 2019225540 A JP2019225540 A JP 2019225540A JP 7132206 B2 JP7132206 B2 JP 7132206B2
- Authority
- JP
- Japan
- Prior art keywords
- action
- variables
- information
- executing
- guidance system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000009471 action Effects 0.000 claims description 182
- 230000008569 process Effects 0.000 claims description 7
- 230000001939 inductive effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 9
- 230000002194 synthesizing effect Effects 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Navigation (AREA)
Description
本開示は、案内システム等に関する。 The present disclosure relates to guidance systems and the like.
電話による問合せの際に、音声ガイダンスによってユーザに番号を指定して電話の番号ボタンを操作させる問合せシステムが存在する。また、駅や銀行において、ユーザに反応して、音声により情報を提供する会話ロボットが存在する。 There is an inquiry system that allows a user to designate a number by voice guidance and operate number buttons on the telephone when making an inquiry by telephone. In addition, there are conversational robots in stations and banks that provide information by voice in response to users.
特許文献1には、ユーザとの対話を行う対話インタフェースを提供する対話システムが開示されており、ユーザの発話内容を特定し、ユーザの発話内容に対してシステムの出力する発話内容を選択することが記載されている。 Patent Literature 1 discloses a dialogue system that provides a dialogue interface for dialogue with a user. is described.
特許文献2には、機械と人間の対話方法が開示されており、ロボットは、対話を通じて話者のプロファイルを充実させ、更新された話者のプロファイルを用いて応答文を生成することが記載されている。 Patent Literature 2 discloses a dialogue method between a machine and a human, and describes that the robot enriches the speaker's profile through dialogue and generates a response sentence using the updated speaker's profile. ing.
音声ガイダンスを利用した問合せシステムでは、システムのシーケンスに従う必要があるから、ユーザは音声ガイダンスをよく聞いて、問合せ事項を特定する要素をシステムに入力する必要がある。したがって、問合せ事項の特定はシステム主体となる。さらに、ユーザはシステムのシーケンスにひとつずつ従っていると、問合せ事項の特定に時間がかかる。 In an inquiry system using voice guidance, since it is necessary to follow the sequence of the system, the user needs to listen carefully to the voice guidance and input the elements specifying the query into the system. Therefore, the specification of inquiry items is system-driven. Furthermore, it takes a long time for the user to identify the query if the user follows the system's sequence step by step.
特許文献1および2の開示では、システムとユーザの対話において、ユーザの発話内容はシステムの質問内容に捕らわれるから、対話はシステム主体となる。 In the disclosures of Patent Literatures 1 and 2, in the interaction between the system and the user, the content of the user's utterance is captured by the question content of the system, so the interaction is system-driven.
本開示は、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。 The present disclosure enables user-based query utterances when receiving guidance services by the system.
本開示に係る案内システムは、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する記憶手段と、音声から認識した単語が関係する前記変数を推定する推定手段と、前記アクション情報を参照し、前記変数の値として、前記認識した単語を設定する設定手段と、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行手段と、を有する。 A guidance system according to the present disclosure includes storage means for storing action information that defines the correspondence between an action and a plurality of variables necessary for executing the action, and estimation means for estimating the variables related to words recognized from voice. setting means for referring to the action information and setting the recognized words as the values of the variables; and an execution means for executing.
本開示に係る案内システムの制御方法は、音声から認識した単語が関係する変数を推定し、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定し、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する。 A guidance system control method according to the present disclosure estimates variables related to words recognized from voice, refers to action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, The recognized word is set as the value of a variable necessary for execution of the above, and when the values of the plurality of necessary variables are set, the action is executed based on the set word.
本開示に係る案内プログラムは、音声から認識した単語が関係する変数を推定する推定処理と、アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定する設定処理と、前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行処理と、をコンピュータに実行させる。 A guidance program according to the present disclosure refers to an estimation process for estimating variables related to words recognized from speech, and action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, setting processing for setting the recognized word as a value of a variable necessary for execution of; and execution processing for executing the action based on the set word when the values of the plurality of necessary variables are set. , is executed by the computer.
本開示によれば、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。 According to the present disclosure, it is possible for a user to utter an inquiry when receiving a guidance service provided by the system.
以下、本開示の実施形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[第1実施形態]
〔ハードウエア構成〕
図1は、第1実施形態における案内システムと周辺機器を含む情報処理システムのハードウエア構成例を概念的に示す図である。第1実施形態における案内システムは、例えば、コンピュータ90によって構成される。コンピュータ90は、CPU(Central Processing Unit)91、メモリ92を有する。コンピュータ90には、音声認識装置60、マイク70、出力装置80が接続される。これら各ハードウエア要素は、例えば、バス等により接続される。メモリ92は、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置(ハードディスク等)等である。
[First embodiment]
[Hardware configuration]
FIG. 1 is a diagram conceptually showing a hardware configuration example of an information processing system including a guidance system and peripheral devices according to the first embodiment. The guidance system in the first embodiment is configured by a
マイク70は、ユーザの音声を取得して音声認識装置60に音声データを送信する。音声認識装置60は、マイク70から入力された音声データを音声認識してテキストに変換し、当該テキストをコンピュータ90に送信する。出力装置80は、例えばスピーカーやディスプレイであり、ユーザに対し検索結果を提供する。なお、出力装置80は、スピーカー、ディスプレイに限られない。
The
〔処理構成〕
図2は、コンピュータ90によって構成される、第1実施形態に係る案内システム100の機能的構成を例示するブロック図である。案内システム100はユーザの問合せに応じてアクションを実行し、種々の情報をユーザに提供する。案内システム100が実行するアクションは、情報の検索であり、例えば、ユーザが手ごろな日本料理店を知りたい場合、案内システム100はアクションとして、所定の価格帯の日本料理店に関する情報を検索する。
[Processing configuration]
FIG. 2 is a block diagram illustrating the functional configuration of the
案内システム100は、記憶部111、推定部112、設定部113、実行部114を有する。推定部112、設定部113、実行部114は、例えばCPU91がメモリ92に格納されるプログラムを実行することによりソフトウェア要素として実現される。記憶部111は例えばメモリ92である。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワークを介して他のコンピュータからインストールされ、メモリ92に格納されてもよい。また、案内システム100は、図2に示されていない他の機能を実行するソフトウェア要素を有してもよい。
記憶部111は、アクションとアクションの実行に必要な複数の変数との対応関係を定めるアクション情報を記憶する。図3は、第1実施形態において記憶部111が記憶するアクション情報の例を示す図である。図3において、記憶部111は、例えばアクション「列車検索」に必要な、3つの変数「乗車駅」「降車駅」「日時」を記憶する。なお、アクションに必要となる変数の数は2つでもよく、3つより多くてもよい。
The
推定部112は、ユーザの音声データから音声認識した単語をテキストとして受け付け、単語が関係する変数を推定する。音声認識は、既存の技術を用いて音声データをテキストに変換する。推定部112は、既存の技術を用いて、例えば文章構造から変数を推定してもよい。推定部112は、文章構造や単語と変数との関係を記憶するデータベースを参照して、単語と関係する変数を推定してもよい。推定部112は、抜き出した単語が関係する変数の推定に機械学習を用いてもよい。推定部112はテキスト含意認識技術を用いて、文の意味を捉えてもよい。
The estimating
設定部113は、記憶されたアクション情報を参照し、アクションの実行に必要な変数の値として、音声認識した単語を設定する。設定部113は、認識された単語と同じ意味を持つ別の単語をデータベースから検索して設定してもよい。実行部114は、必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。案内システム100が実行するアクションの例は次に説明する。
The
〔動作例〕
以下、第1実施形態における案内システム100の制御方法について、図4を用いて説明する。図4は、第1実施形態における案内システム100の動作例を示すフローチャートである。以下において、ユーザがアクションの実行に必要な変数を、一文で発話した例について説明する。
[Example of operation]
A method of controlling the
ユーザが「5日9時に新大阪から東京まで行く。」と発声すると、音声認識装置60は、マイク70を介してユーザの音声データを取得する。音声認識装置60は、マイク70から取得した音声データを音声認識処理によってテキストに変換し、当該テキストを案内システム100に送信する。
When the user utters, “I will go from Shin-Osaka to Tokyo at 9:00 on the 5th,” the
推定部112は、音声から認識した単語が関係する変数を推定する(ステップS11)。例えば、推定部112は、テキストに変換された音声から認識した単語「新大阪」が、変数「乗車駅」に関係することを、テキスト含意認識技術を用いて推定する。同様に、推定部112は、単語「東京」が変数「降車駅」に関係し、「5日9時」が変数「日時」に関係することを推定する。
The
設定部113は、記憶部111が記憶するアクションとアクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し(ステップS12)、アクションの実行に必要な変数の値として、認識した単語を設定する(ステップS13)。
The
例えば、設定部113は、図3に示すアクション情報を参照し(ステップS12)、推定した変数「乗車駅」を要するアクションである、アクション「列車検索」および「天気予報1」を選択する。設定部113は、選択されたアクションの実行に必要な変数の値を設定する第1設定情報を生成する。図5Aは、変数「乗車駅」の値が設定された第1設定情報の例を示す図である。設定部113は、図5Aに示すように、変数「乗車駅」の値として、認識した単語「新大阪」を設定する(ステップS13)。
For example, the
次に、実行部114は、設定部113が選択したアクションが必要とする変数の値が設定済みであるか判定する(ステップS14)。実行部114は、アクションが必要とする変数の値が設定されていないと判定すると(ステップS14;No)、案内システム100は、他の推定された変数でステップS12からステップS14を繰り返す。
Next, the
例えば、実行部114は、図5Aの第1設定情報より、アクション「列車検索」に必要な変数「降車駅」および「日時」の値が設定されていないことを判定する(ステップS14;No)と、設定部113は、前述のステップS12と同様に、アクション情報を参照(ステップS12)し、他の推定した変数「降車駅」を要するアクション「列車検索」、「天気予報2」を選択する。
For example, the
設定部113は、変数「降車駅」の値が設定された第1設定情報を生成する。さらに、設定部113は、先に生成した変数「乗車駅」の第1設定情報に加え、変数「降車駅」の第1設定情報をマージして変数「乗車駅」と変数「降車駅」の値を設定する第1設定情報を生成する。図5Bは、変数「乗車駅」、変数「降車駅」の値が設定された第1設定情報の例を示す図である。図5Bに示すように、設定部113は、変数「乗車駅」の値として「新大阪」を設定し、変数「降車駅」の値として「東京」を設定する(ステップS13)。
The
実行部114は、図5Bに示す第1設定情報より、アクション「列車検索」、「天気予報1」、「天気予報2」に対して変数「日時」の値が設定されていないことを判定する(ステップS14;No)と、案内システム100は、他の推定された変数でステップS12からステップS14を繰り返す。
The
設定部113は、前述のステップS12と同様に、アクション情報を参照(ステップS12)し、他の推定した変数「日時」を要するアクション「列車検索」、「天気予報1」、「天気予報2」を選択する。
The
設定部113は、変数「日時」の値が設定された第1設定情報を生成する。さらに、設定部113は、先に生成した変数「乗車駅」と変数「降車駅」の第1設定情報に加え、変数「日時」の第1設定情報をマージして変数「乗車駅」、「降車駅」、「日時」の値を設定する第1設定情報を生成する。図5Cは、変数「乗車駅」、「降車駅」、「日時」の値が設定された第1設定情報の例を示す図である。図5Cに示すように、設定部113は、変数「乗車駅」、「降車駅」、「日時」の値として、それぞれ「新大阪」、「東京」、「5日9時」を設定する。
The
実行部114は、アクションに必要な複数の変数の値が設定されたことを判定すると(ステップS14;Yes)、設定された単語に基づいてアクションを実行する(ステップS15)。例えば、実行部114は、アクション「列車検索」の変数の値がコンプリートされたことを判定し、単語「新大阪」、「東京」、「5日9時」に基づきアクション「列車検索」を実行し、列車に関する情報を検索する。案内システム100は、列車に関する情報を出力装置80に送信し、出力装置80は列車の発車時刻や運賃などの情報を提供する。出力装置80はユーザが乗車する列車の切符の購入画面を表示してもよい。
When the
同様に、実行部114は、アクションに必要な変数が設定された「天気予報1」および「天気予報2」を実行する(ステップS14、ステップS15)。実行部114が実行するアクション「天気予報1」は、例えば乗車駅における天気の情報の検索であり、アクション「天気予報2」は、例えば降車駅における天気の情報の検索である。出力装置80は検索された天気の情報を提供する。
Similarly, the
なお、記憶部111は、アクションに必要となる変数の数が1つであるアクションを記憶してもよい。例えば図3において、記憶部111はアクション「挨拶発話」に必要な変数「挨拶」を記憶している。ユーザが「こんにちは」と発声すると、変数「挨拶」に値「こんにちは」が設定され、実行部114は「挨拶発話」を実行する。実行部114は音声「こんにちは」を出力装置80であるスピーカーから出力するよう指示してもよい。
Note that the
〔第1実施形態の効果〕
第1実施形態では、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。その理由は、案内システム100が、複数の変数を必要とするアクションについて、音声から認識した単語が関係する変数を推定し、変数に値を設定し、複数の変数の値が設定されるとアクションを実行するからである。
[Effect of the first embodiment]
In the first embodiment, when receiving guidance service by the system, it is possible for the user to utter an inquiry. The reason for this is that, for an action that requires multiple variables, the
[第2実施形態]
〔処理構成〕
図6は、第2実施形態に係る案内システム200の構成を例示するブロック図である。案内システム200は、記憶部211、推定部212、設定部213、実行部214、音声認識部220、音声合成部221を有する。第2実施形態に係る案内システム200のハードウエア構成は、第1実施形態において説明した図1のコンピュータ90と同様であってもよい。推定部212、設定部213、実行部214、音声認識部220および音声合成部221は、例えばCPU91がメモリ92に格納されるプログラムを実行することによりソフトウェア要素として実現される。
[Second embodiment]
[Processing configuration]
FIG. 6 is a block diagram illustrating the configuration of a
記憶部211、推定部212、設定部213、実行部214は、第1実施形態における記憶部111、推定部112、設定部113、実行部114と同様の機能を有し、さらに他の機能も有する。案内システム200の具体的な動作については後述する。
The
音声認識部220は、マイクを介して入力されたユーザの音声データをテキストに変換する。音声合成部221は、ユーザに情報を提供するために、音声を合成する。例えば、音声合成部221は、実行部214がアクションとして検索した結果を音声合成する。
The
第2実施形態の案内システム200は、音声認識部220および音声合成部221を案内システム200に内装した例で説明するが、これに限られない。音声認識部220および音声合成部221の少なくとも一方が外部装置として案内システム200に接続された構成でもよい。
The
推定部212は、音声認識部220からユーザの音声データが変換されたテキストを受け付け、テキストに含まれる単語が関係する変数を推定する。設定部213は、記憶されたアクション情報を参照し、アクションの実行に必要な変数の値として、ユーザの音声を認識した単語を設定する。また設定部213は以下の機能を有する。
The estimating
設定部213は、アクションの実行に必要な変数の値を設定する第2設定情報を生成する。第1実施形態の第1設定情報が、選択されたアクションの実行に必要な変数の値を設定する設定情報である。これに対し、第2実施形態の第2設定情報はアクションの実行に必要な変数の値を設定する設定情報ではあるが、第2設定情報には変数に対応づけられるアクションは含まれていない。
The
次に設定部213は、推定部212が推定した変数の値は設定済みであるか判定する。すなわち、設定部213は推定した変数のうち、値を設定していない変数(以下、未設定変数と記す)が存在するか判定する。未設定変数が存在する場合、設定部213は、第2設定情報に変数の値を設定する。
Next, the
設定部213は、第2設定情報の変数に値が設定されると、第2設定情報に含まれる値が設定された変数が、アクション情報に含まれるアクションの実行に必要な変数に該当するかを確認する。該当する場合、設定部213は、第2設定情報の変数を含むアクションを選択する。なお、該当するアクションが複数ある場合、設定部213は、該当するアクションがアクション情報に残っているか確認する。
When a value is set to the variable of the second setting information, the
実行部214は、アクションの実行に必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。また実行部214は以下の機能を有する。
When the values of a plurality of variables required for action execution are set, the
実行部214は、設定部213が選択したアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部214は、第2設定情報に設定済みであればアクションを実行する。実行部214は、アクションを実行した結果を音声合成部221に出力する。
The
また、実行部214は、設定部213が選択したアクションが複数ある場合、実行されていないアクションがあるか確認する。実行部214は、残っているアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部214は、第2設定情報に設定済みであればアクションを実行する。
Also, when there are a plurality of actions selected by the
〔動作例〕
以下、第2実施形態における案内システム200の制御方法について、図7を用いて説明する。図7は、第2実施形態における案内システム200の動作例を示すフローチャートである。
[Example of operation]
A method of controlling the
以下において、ユーザが二回に分けて、アクションの実行に必要な変数を含む発話する場合の例について説明する。また、第1実施形態における動作例では、設定部113は認識した単語を一つずつ設定する例について説明したが、以下の例において、設定部213は、認識した単語を一度に複数設定する場合について説明する。
In the following, an example in which the user makes two utterances containing variables necessary for executing an action will be described. In addition, in the operation example of the first embodiment, an example in which the
ユーザが例えば「新大阪から新幹線で東京まで行く。」と発声すると、音声認識部220は、マイクを介してユーザの音声データを取得する(ステップS21)。音声認識部220は、取得した音声データをテキストに変換する(ステップS22)。推定部212は、テキストから単語「新大阪」と「新幹線」と「東京」を抜き出し、記憶部211に記憶された図3に示すアクション情報を参照して、これらの単語が関係する変数が「乗車駅」と「降車駅」であると推定する(ステップS23)。
When the user utters, for example, "From Shin-Osaka to Tokyo by Shinkansen," the
設定部213は、推定部212が推定した変数のうち、未設定変数が存在するか判定する。ステップS23において、推定部212は変数「乗車駅」と「降車駅」を推定しており、設定部213はまだこれらの値を設定した設定情報を生成していない。したがって設定部213は推定した変数の値は設定済みでないことを判定する(ステップS24;No)。設定部213は、アクションの実行に必要な変数の値を設定する第2設定情報において、変数「乗車駅」に値「新大阪」を設定し、変数「降車駅」に値「東京」を設定する(ステップS25)。例えば、設定部213は図8Aに示す第2設定情報を生成することで、値を設定する。
The
設定部213は、図3に示すアクション情報を参照し、変数「乗車駅」または変数「降車駅」を含む、アクション「列車検索」と「天気予報1」と「天気予報2」を選択する(ステップS26)。例えば、設定部213は図8Bに示す態様でアクションを選択してもよい。
The
実行部214は、アクションの実行に必要な変数の値は設定されたかを判定する(ステップS27)。例えば、実行部214は、アクション情報と第2設定情報より、アクション「列車検索」が要求する変数「乗車駅」と「降車駅」以外の他の変数として変数「日時」の値が設定されていないことを判定する(ステップS27;No)。
The
図8Aに示す第2設定情報ではアクション「列車検索」を実行できないため、実行部214は、アクション情報を参照し、変数「乗車駅」と「降車駅」を含む実行されていないアクションが残っているか確認する(ステップS29)。実行部214はアクション「天気予報1」と「天気予報2」が存在することを確認する(ステップS29;Yes)。実行部214は、アクション「天気予報1」の必要とする変数が全て設定されているか確認し(ステップS27)、変数「日時」の値が設定されていないことを判定する(ステップS27;No)。
Since the action "train search" cannot be executed with the second setting information shown in FIG. It is confirmed whether there is (step S29). The
実行部214はアクション「天気予報2」についても、アクション「天気予報1」と同様に、ステップS27の判定を行う。実行部214は、再度アクション情報を参照し、変数「乗車駅」を含む実行されていないアクションが残っているか確認し(ステップS29)、他にアクションがないことを確認する(ステップS29;No)。
The
設定部213は、推定部212が推定した変数のうち、未設定変数が存在するか判定する。設定部213は変数「乗車駅」と「降車駅」の値を設定した第2設定情報を生成済みである。したがって設定部213は推定した変数の値は設定済みであることを判定する(ステップS24;Yes)。
The
ここで、音声認識部220が、新たに音声「週末の5日の朝9時に出掛ける」の音声データを取得する(ステップS21)。音声認識部220は音声データをテキスト変換する(ステップS22)。推定部212は、「5日」「朝9時」が変数「日時」に関係すると推定する(ステップS23)。設定部213は、新たに推定された変数「日時」の値は第2設定情報に設定されていないことを判定し(ステップS24;No)、値「5日9時」を設定する(ステップS25)。例えば、設定部213は図8Aの第2設定情報を更新し、図8Cに示す第2設定情報を生成することで、値を設定する。
Here, the
設定部213は、アクション「列車検索」と「天気予報1」と「天気予報2」を選択する(ステップS26)。例えば、設定部213は図8Dに示す態様でアクションを選択してもよい。変数「日時」を含み、変数「乗車駅」「降車駅」を含まないアクションは、図3に示したアクション情報の例には存在しない。したがって、図8Dと図8Bを比較すると、設定部213が選択するアクションに変化はない。
The
実行部214は、「列車検索」に必要な変数の値が充足していることを判定し(ステップS27;Yes)、アクション「列車検索」を実行する(ステップS28)。実行部214は、列車検索の結果を音声合成部221に送信し、音声合成部221は、例えば検索結果に関する「9時6分のぞみ4号があります」の音声を合成する。
The
次に、実行部214は、変数「日時」を含むアクション「天気予報1」が残っていることを確認する(ステップS29;Yes)。実行部14は、「天気予報1」に必要な変数が揃っていることを判定する(ステップS27;Yes)。実行部214はアクション「天気予報1」を実行し(ステップS28)、例えば新大阪駅5日の天気予報を検索する。
Next, the
さらに、実行部214は、変数「日時」を含むアクション「天気予報2」が実行されずに残っていることを確認する(ステップS29;Yes)。実行部214は、「天気予報2」に必要な変数が揃っていることを判定する(ステップS27;Yes)。実行部214はアクション「天気予報2」を実行し、東京駅の5日の天気予報を検索する(ステップS28)。実行部214は、変数「日時」を含むアクションが全て実行されたことを判定し(ステップS29;No)、処理ステップはステップS24に戻る。
Further, the
案内システム200は、推定した変数は設定済みであり(ステップS24;Yes)、所定時間内にユーザから音声入力が無い場合、発話したユーザへの案内を終了する。ユーザが追加で発話した場合にはステップS21からステップS29の処理を繰り返す。
The
第2実施形態において、設定部213は、推定された変数を含むアクションを全て選択したが、アクションの選択方法はこれに限られない。設定部213が選択するアクションの数には制限を設けてもよい。また、推定された変数を含むアクションが複数存在する場合、設定部213は、複数のアクションのうち不足している変数が少ないアクションを優先して選択してもよい。設定部213は、第2設定情報に含まれる変数を全て必要とするアクションを選択してもよい。さらに、推定部212は、ユーザの発話内容に基づいて、推定された変数を含む複数のアクションのうちユーザが求めるアクションを推定してもよい。
In the second embodiment, the
〔第2実施形態の効果〕
第2実施形態では、システムによる案内サービスを受けるときに、ユーザ主体の問合せの発話を可能にする。その理由は、案内システム200が、ユーザが追加で発話した音声についても、音声から認識した単語が関係する変数を推定し、変数に値を設定し、アクション情報が定める複数の変数の値が設定されるとアクションを実行するからである。
[Effect of Second Embodiment]
In the second embodiment, when receiving guidance service by the system, it is possible for the user to utter an inquiry. The reason for this is that the
音声認識部220と音声合成部221を備えた自動音声応答(Interactive Voice Response, IVR)システムを利用することで、ユーザはシステムとの対話を通じて問合せをすることが可能になる。
Using an interactive voice response (IVR) system with a
[第3実施形態]
〔処理構成〕
図9は、第3実施形態に係る案内システム300の構成を例示するブロック図である。案内システム300は、記憶部311、推定部312、設定部313、実行部314、音声認識部320、音声合成部321、タイマー322を有する。第3実施形態に係る案内システム300のハードウエア構成は、第1および第2実施形態において説明した、図1のコンピュータ90と同様であってもよい。
[Third embodiment]
[Processing configuration]
FIG. 9 is a block diagram illustrating the configuration of a
記憶部311、推定部312、設定部313、実行部314、音声認識部320、音声合成部321は、第2実施形態における記憶部211、推定部212、設定部213、実行部214、音声認識部220、音声合成部221と同様の機能を有する。以下において、第2実施形態における機能と相違する点を説明する。
The
設定部313は、第2設定情報に変数の値として、単語を第2設定情報に設定した後、値を設定した変数を含むアクションを選択する。第3実施形態において、実行部314は、設定部313が選択したアクションに対して、図3に示すアクション情報を参照し、第2設定情報の変数でアクションが実行できるか判定する。例えば、実行部314は、第2設定情報にアクションの実行に不足している変数の値がある場合、案内システム300のユーザに対してアクションの実行に必要な変数に関する発話を促す情報を出力する。
After setting a word in the second setting information as the value of the variable in the second setting information, the
さらに、設定部313が選択したアクションの実行に必要な変数が不足している場合に、実行部314は、タイマー322をセットする。タイマー322は、所定時間の経過を計測する。タイマー322の計測する所定の時間が経過すると、実行部314は、不足している変数が設定されたか判定する。不足している変数が設定されていない場合、実行部314はユーザの発話を誘導する情報を案内システム300に出力する。
Furthermore, the
実行部314は、例えば、誘導する情報として、質問文を出力してもよい。案内システム300は合成音声の質問文を出力してもいいし、ディスプレイに誘導する情報を表示してもよい。
The
実行部314は、値が入力されていない変数が所定の個数以下となったアクションのタイマー322をセットしてもよい。これにより実行部314が実行するアクションを絞り込むことが可能になる。値が揃った実行可能なアクションが複数存在する場合、実行部314は、アクション情報に予め定められた優先順位が高い順に、実行するアクションを決定してもよい。また、実行部314は、実行可能なアクションが複数ある場合、ユーザに実行する前記アクションの決定する発話を誘導する情報を出力してもよい。実行部314は、図3に示すアクション情報の「提供情報」を参照し、「「列車」と「天気」、どちらについて知りたいですか?」と出力してもよい。
The
タイマー322による所定時間の経過は、ユーザが発話を終えた時点から計測してもいいし、設定部313が値の設定を終えた時点から計測してもよいが、これらに限られない。例えば実行部314は、変数「日時」が不足していることを判定した時点でタイマー322をセットしてもよい。タイマー322は、例えばセットされた時点から5秒を計測する。タイマー322は実行部314に変数「日時」が不足していることを判定した時点から5秒が経過したことを通知してもよい。
The elapse of the predetermined time by the
実行部314は、ユーザの発話に基づいて、アクションの実行に必要な複数の変数の値が設定されると、設定された単語に基づいてアクションを実行する。実行部314はさらに以下の機能を有する。実行部314は、アクションを実行した結果を音声合成部321に出力する。
When the values of a plurality of variables necessary for executing an action are set based on the user's utterance, the
また、実行部314は、設定部313が選択したアクションが複数ある場合、実行されていないアクションがあるか確認する。実行部314は、残っているアクションに対して、図3に示すアクション情報を参照し、アクションの実行に必要な変数の値が第2設定情報に設定済みであるか判定する。実行部314は、変数の値が第2設定情報に設定済みであればアクションを実行する。
Also, when there are a plurality of actions selected by the
記憶部311は、アクションの実行に不足している変数と質問文との対応関係を定める質問情報を記憶していてもよい。実行部314は記憶された質問情報を参照し、質問文を選択してもよい。図11は、質問情報の例を示す図である。実行部314は、変数「乗車駅」の値が不足している場合、質問文「どこから乗りますか?」を選択し、案内システム300に出力する。
The
〔動作例〕
以下、第3実施形態における案内システム300の制御方法について、図10Aおよび図10Bを用いて説明する。図10Aおよび図10Bは、第3実施形態における案内システム300の動作例を示すフローチャートである。以下において、ユーザが二回に分けて、アクションの実行に必要な変数を含む発話する場合の例について説明する。
[Example of operation]
A method of controlling the
音声認識部320は、マイクを介して例えば「新大阪から新幹線で東京まで行く。」の音声データを取得する(ステップS21)。このとき案内システム300の動作は、第2実施形態におけるステップS21からステップS27までの動作例と同様であるため詳細な説明は省略する。
The
実行部314は、変数「日時」の値が設定されていないことを判定すると(ステップS27;No)、変数「日時」に関する発話を誘導する情報の出力タイミングを計測するタイマー322をセットする(ステップS30)。その後、設定部313は、変数「乗車駅」を含むアクションが設定情報に残っているか確認する(ステップS29)。
When the
本例において、ユーザが最初に「新大阪から新幹線で東京まで行く。」と発話した後に、変数「日時」の値に関して、追加で自発的に発話しない場合について説明する。タイマー322は、所定時間経過を計測する(ステップS31)。所定時間経過後、実行部314は、変数「日時」の値が設定されていないことを判定する(ステップS32;No)。実行部314は、発話を誘導する情報を出力する(ステップS33)。実行部314は、誘導する情報として例えば「日時を教えて下さい。」を音声合成部321に出力してもよい。
In this example, a case will be described where the user does not voluntarily add the value of the variable "date and time" after first uttering "From Shin-Osaka to Tokyo by Shinkansen." The
第2実施形態における動作例と同様に、ユーザが自発的に「日時」に関する発話をした場合、所定時間経過後(ステップS31)、実行部314は値が設定されていなかった「日時」の値が設定されたことを判定し(ステップS32;Yes)処理を終了する。
As in the operation example in the second embodiment, when the user voluntarily speaks about "date and time", after a predetermined time has elapsed (step S31), the
なお、案内システム300においても、推定した変数は設定済みであり(ステップS24;Yes)、所定時間内にユーザから音声入力が無い場合、発話したユーザへの案内を終了する。ユーザが追加で発話した場合にはステップS21からステップS29の処理を繰り返す。
Also in the
〔第3実施形態の効果〕
第3実施形態では、案内システム300は、ユーザによる最初の発話に含まれる単語に基づき、アクションに必要な変数が揃うように誘導する情報を出力する。このためユーザが発話すべき内容が明確になり、ユーザの最初の発話から案内システム300のアクションの実行までの時間を短縮することができる。
[Effect of the third embodiment]
In the third embodiment, the
第3実施形態では、タイマー322を備えることにより、所定時間が経過してから不足する変数を誘導する情報を出力させるから、ユーザ主体の問合せの発話を可能にする。すなわち、タイマー322により、ユーザの発話内容を十分に聞いてから、不足している変数に関する発話を促すことができる。
In the third embodiment, by providing the
なお、第3実施形態において、タイマー322が所定時間の経過を計測する場合について説明したが、所定時間の経過は実行部314が計測してもよい。このとき、実行部314はタイマー322が示す時間を参照し、時間の経過を計測する。
In the third embodiment, the case where the
また、第3実施形態において、案内システム300がタイマー322を備える場合について説明したが、案内システム300はタイマー322を備えていなくてもよい。すなわち誘導する情報の出力のタイミングは、タイマー322により制御しない構成であってもいい。例えばアクションに必要な変数の数が所定の個数以下であると、実行部314は、不足している変数に関する発話を誘導する情報を出力してもよい。
Also, in the third embodiment, the
〔変形例〕
以下に第1実施形態に係る案内システム100の変形例について説明するが、これらの変形例は、第2および第3実施形態に係る案内システム200、300に対しても適用することができる。
[Modification]
Modifications of the
図12は、案内システム100の他のハードウエア構成例を概念的に示す図である。案内システム100の各機能は、図1に示すように1つのコンピュータ90に備えられる必要はなく、複数のコンピュータ190、290等により実現されてもよい。図1における出力装置80は、具体的には、図12に示すようにディスプレイ81およびスピーカー82であってもよい。出力装置80は、プリンタであってもよい。マイク70はコンピュータ190に接続されていてもよい。
FIG. 12 is a diagram conceptually showing another hardware configuration example of the
設定部113は、値を入力する際に、ユーザに対する返答を生成してもよい。返答とは、例えば「はい」や「なるほど」であり、検索結果の提供とは異なる。案内システム100がロボットである場合、ロボットは返答として、頷く動作をしてもよい。案内システム100が返答をすることで、ユーザは音声が入力されていることを確認することが可能になる。
The
また、案内システム100は、返答として、ユーザの発話内容を復唱してもよい。例えばユーザが「朝9時」を含む発話をすると、案内システム100は「本日の朝9時ですね。」と復唱する。案内システム100がユーザの発話内容を復唱することで、ユーザは発話内容が正しく認識されていることを確認することが可能になる。
In addition, the
以上のように、案内システム100がアクションを実行する前に、返答を行うことで、ユーザは落ち着いて問合せの発話をすることができる。
As described above, by replying before the
案内システム100は、情報案内としてディスプレイに検索結果を表示する代わりに、検索結果を表示するウェブサイトを特定する情報を出力してもよい。ウェブサイトを特定する情報はURL(Uniform Resource Locator)や二次元バーコードであってもよく、これらはディスプレイに表示されてもいいし、プリンタにより紙に印刷されてもよい。さらに、案内システム100は近距離無線通信、メール、ソーシャルネットワークサービスを通じて、ユーザに情報案内を送信してもよい。また電話案内の際には、ユーザの携帯端末に情報案内をショートメッセージサービスにより送信してもよい。
実行部が実行するアクションには、情報案内アクションの他に、会話アクションを含んでもよい。アクション情報には、ユーザの個人情報に関する変数「体調」や、地域の情報に関する変数「天気」などを含んでもよい。変数「体調」の値が「良い」であり、変数「天気」の値も「晴れ」であると、案内システム100は、例えば地域のイベントに出かけることを促す発話アクションを実行することができる。このように、案内システム100は会話ロボットとして雑談をすることもできる。
Actions executed by the execution unit may include conversation actions in addition to information guidance actions. The action information may include a variable “physical condition” related to personal information of the user, a variable “weather” related to local information, and the like. When the value of the variable “physical condition” is “good” and the value of the variable “weather” is also “sunny”, the
なお、推定部112は、ユーザの発話内容のうち、変数「体調」または変数「天気」に関係する単語を推定してもよい。設定部113は、インターネットを通じて一部の変数の値を取得し、設定してもよい。
Note that the
一般的な会話ロボットは、対話のテーマとシナリオが予め決まっているため、会話はシステム主導となり、人は予め定められたシーケンスに則って発話する必要がある。会話アクションの実行に案内システム100を適用すると、会話をユーザ主導とすることができる。
Since conversational themes and scenarios are predetermined for general conversational robots, conversations are system-driven, and humans need to speak according to a predetermined sequence. Application of
対話のテーマを自由にするために、インターネットのチャット履歴を機械学習によって学習したチャットボットを利用しても、会話の内容は一般化されてしまうから、チャットボットとの会話は各人に合わせた内容とならないことがある。会話アクションの実行に第1実施形態の案内システム100を適用すると、各人に合わせた会話が可能になる。
Even if you use a chatbot that learns the chat history of the Internet by machine learning to make the theme of dialogue freely, the content of the conversation will be generalized, so the conversation with the chatbot is tailored to each person. Content may not be included. When the
<適用例>
本開示の各実施形態は、切符の自動販売機、観光地の案内ロボット、ホテルのチェックインシステム、コンビニエンスストアのマルチメディアキオスクまたは複合機において適用することができる。
<Application example>
Each embodiment of the present disclosure can be applied in ticket vending machines, tourist attraction guide robots, hotel check-in systems, convenience store multimedia kiosks, or multifunction machines.
音声によってユーザの問合せを受け付けることで、ユーザは複雑な画面から問合せ内容を探し出す必要がなくなる。さらに音声入力によれば、ボタンの操作が困難である場面において、ハンズフリーで要求を入力することができる。 By accepting the user's inquiry by voice, the user does not have to search for the inquiry content from a complicated screen. Furthermore, voice input enables hands-free input of requests in situations where it is difficult to operate buttons.
以上、上述した実施形態を模範的な例として本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present disclosure has been described above using the above-described embodiments as exemplary examples. However, the disclosure is not limited to the embodiments described above. That is, within the scope of the present disclosure, various aspects that can be understood by those skilled in the art can be applied to the present disclosure.
100、200、300 案内システム
111、211、311 記憶部
112、212、312 推定部
113、213、313 設定部
114、214、314 実行部
220、320 音声認識部
221、321 音声合成部
322 タイマー
100, 200, 300
Claims (7)
音声から認識した単語が関係する前記変数を推定する推定手段と、
前記アクション情報を参照し、前記変数の値として、前記認識した単語を設定する設定手段と、
前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行手段と、
を備え、
前記実行手段は、値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力する
案内システム。 storage means for storing action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action;
estimating means for estimating said variables to which words recognized from speech relate;
setting means for setting the recognized word as the value of the variable by referring to the action information;
execution means for executing the action based on the set words when the values of the plurality of required variables are set;
with
The execution means outputs, after a predetermined period of time, information that guides speech regarding unset variables necessary for executing the action for which the number of variables whose values have not been set is equal to or less than a predetermined number.
guidance system.
請求項1に記載の案内システム。 The estimating means repeats estimating the variables while a plurality of variables necessary for executing the action is lacking.
Guidance system according to claim 1.
請求項1又は2に記載の案内システム。 3. The guidance system according to claim 1 or 2 , wherein when there are a plurality of the actions that can be executed, information that guides speech determined by the action to be executed is output.
請求項1乃至3のいずれか1項に記載の案内システム。 4. The guidance system according to any one of claims 1 to 3 , wherein the action is retrieval of information to guide the user.
請求項1乃至4のいずれか1項に記載の案内システム。 When setting the value, the setting means generates a reply before executing the action.
Guidance system according to any one of claims 1 to 4 .
アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定し、
値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力し、
前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する、
案内システムの制御方法。 Estimate variables related to words recognized from speech,
referring to action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, and setting the recognized word as the value of the variable necessary for executing the action;
outputting, after a predetermined period of time, information that guides speech regarding unset variables necessary for executing the action for which the number of variables whose values have not been set is equal to or less than a predetermined number;
Once the values of the required variables are set, performing the action based on the set word;
Guidance system control method.
アクションと前記アクションの実行に必要な複数の変数との対応関係を定めるアクション情報を参照し、前記アクションの実行に必要な変数の値として、前記認識した単語を設定する設定処理と、
値が未設定の変数の数が所定の個数以下となった前記アクションの実行に必要な未設定の変数に関する発話を誘導する情報を、所定時間経過後に、出力する出力処理と、
前記必要な複数の変数の値が設定されると、設定された単語に基づいて前記アクションを実行する実行処理と、
をコンピュータに実行させる案内プログラム。 an estimation process for estimating variables related to words recognized from speech;
a setting process of referring to action information that defines a correspondence relationship between an action and a plurality of variables necessary for executing the action, and setting the recognized word as the value of the variable necessary for executing the action;
an output process for outputting, after a predetermined period of time, information for inducing speech regarding unset variables necessary for executing the action for which the number of variables whose values have not been set is equal to or less than a predetermined number;
an execution process for executing the action based on the set words when the values of the plurality of required variables are set;
A guide program that causes a computer to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225540A JP7132206B2 (en) | 2019-12-13 | 2019-12-13 | GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019225540A JP7132206B2 (en) | 2019-12-13 | 2019-12-13 | GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021096293A JP2021096293A (en) | 2021-06-24 |
JP7132206B2 true JP7132206B2 (en) | 2022-09-06 |
Family
ID=76431140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019225540A Active JP7132206B2 (en) | 2019-12-13 | 2019-12-13 | GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7132206B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000193479A (en) | 1998-12-25 | 2000-07-14 | Aisin Aw Co Ltd | Navigation apparatus and recording medium |
JP2003108581A (en) | 2001-09-27 | 2003-04-11 | Mitsubishi Electric Corp | Interactive information retrieving device and interactive information retrieving method |
WO2017145373A1 (en) | 2016-02-26 | 2017-08-31 | 三菱電機株式会社 | Speech recognition device |
JP2018151631A (en) | 2017-03-10 | 2018-09-27 | サウンドハウンド,インコーポレイテッド | Speech-enabled system including domain disambiguation |
JP2019105904A (en) | 2017-12-11 | 2019-06-27 | トヨタ自動車株式会社 | Service providing apparatus, service providing program and method for providing service by speech recognition |
-
2019
- 2019-12-13 JP JP2019225540A patent/JP7132206B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000193479A (en) | 1998-12-25 | 2000-07-14 | Aisin Aw Co Ltd | Navigation apparatus and recording medium |
JP2003108581A (en) | 2001-09-27 | 2003-04-11 | Mitsubishi Electric Corp | Interactive information retrieving device and interactive information retrieving method |
WO2017145373A1 (en) | 2016-02-26 | 2017-08-31 | 三菱電機株式会社 | Speech recognition device |
JP2018151631A (en) | 2017-03-10 | 2018-09-27 | サウンドハウンド,インコーポレイテッド | Speech-enabled system including domain disambiguation |
JP2019105904A (en) | 2017-12-11 | 2019-06-27 | トヨタ自動車株式会社 | Service providing apparatus, service providing program and method for providing service by speech recognition |
Also Published As
Publication number | Publication date |
---|---|
JP2021096293A (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11869495B2 (en) | Voice to voice natural language understanding processing | |
US9742912B2 (en) | Method and apparatus for predicting intent in IVR using natural language queries | |
KR101211796B1 (en) | Apparatus for foreign language learning and method for providing foreign language learning service | |
JP5967569B2 (en) | Speech processing system | |
CN101287043B (en) | Method and apparatus for providing expressive user interaction with a multimodal application | |
RU2352979C2 (en) | Synchronous comprehension of semantic objects for highly active interface | |
CN106796788A (en) | Automatic speech recognition is improved based on user feedback | |
KR101836430B1 (en) | Voice recognition and translation method and, apparatus and server therefor | |
US11615787B2 (en) | Dialogue system and method of controlling the same | |
US20060020471A1 (en) | Method and apparatus for robustly locating user barge-ins in voice-activated command systems | |
US20060287868A1 (en) | Dialog system | |
CN110998719A (en) | Information processing apparatus, information processing method, and computer program | |
CN117809641A (en) | Terminal equipment and voice interaction method based on query text rewriting | |
KR20210098250A (en) | Electronic device and Method for controlling the electronic device thereof | |
CN105869631B (en) | The method and apparatus of voice prediction | |
Lai et al. | Conversational speech interfaces and technologies | |
JP7132206B2 (en) | GUIDANCE SYSTEM, GUIDANCE SYSTEM CONTROL METHOD, AND PROGRAM | |
JP2006251545A (en) | Spoken dialogue system and computer program | |
JP4103085B2 (en) | Interlingual dialogue processing method and apparatus, program, and recording medium | |
US12190877B1 (en) | Device arbitration for speech processing | |
WO2018135302A1 (en) | Information processing device, information processing method, and program | |
JP7310907B2 (en) | DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM | |
JP2019015950A (en) | Voice recognition method, program, voice recognition device, and robot | |
KR20230135396A (en) | Method for dialogue management, user terminal and computer-readable medium | |
JP4408665B2 (en) | Speech recognition apparatus for speech recognition, speech data collection method for speech recognition, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210415 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7132206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |