JP2022045276A - 対話型応対装置 - Google Patents
対話型応対装置 Download PDFInfo
- Publication number
- JP2022045276A JP2022045276A JP2020150882A JP2020150882A JP2022045276A JP 2022045276 A JP2022045276 A JP 2022045276A JP 2020150882 A JP2020150882 A JP 2020150882A JP 2020150882 A JP2020150882 A JP 2020150882A JP 2022045276 A JP2022045276 A JP 2022045276A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- character
- display
- information
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
案内システム1は、対話型案内システムである。案内システム1は、空港、駅、商業施設(デパート、スーパーマーケット等)、興行場、企業の事務所等の対象施設において、キャラクタを利用者(人物)と対話させることによって、利用者に対して案内又は受付係等の応対を行う。本実施形態では、案内システムの例として、対象施設を監視及び警備する監視システムについて説明するが、案内システムは、単に利用者に案内又は受付を行うシステムでもよい。
図1に示すように、案内システム1は、複数の応対装置10及び管理装置20等を有する。各応対装置10は、それぞれ異なる対象空間に設置され、各対象空間内の利用者に対する応対を行うとともに、各対象空間を監視及び警備する監視表示装置である。対象空間は、例えば対象施設の入り口又は各フロア等である。管理装置20は、警備会社が運営する警備センタ又は対象施設内の防災センタの監視卓等に設置され、各応対装置10による監視結果(撮影映像等)を収集し、管理する装置である。各応対装置10及び管理装置20は、イントラネット、インターネット又は携帯電話ネットワーク等の通信ネットワークを介して相互に接続される。
なお、案内システム1は、それぞれ異なる複数の対象施設をそれぞれ管理する複数の管理装置20を有してもよい。その場合、案内システム1は、各対象施設から離れた位置に設置された監視センタに配置されたサーバ装置をさらに有し、サーバ装置が、各管理装置20が管理する情報を収集し、管理してもよい。
また、記憶部16は、データとして、対象空間における応対装置10の設置位置、及び、入場ゲートや立入禁止区域等の特定エリアの位置を記憶する。また、記憶部16は、データとして、対象空間におけるセンサ12の配置位置、及び、パルスレーザの照射方向を記憶する。また、記憶部16は、データとして、撮像部13により撮像される画像内の各画素と、対象空間内の各位置との対応関係を示すマップ情報を記憶する。また、記憶部16は、データとして、キャラクタに対象空間内の人物と対話させるための複数のシナリオを管理するシナリオテーブル161を記憶する。シナリオテーブル161の詳細については後述する。
制御部17は、撮像部13が対象空間を撮像した入力画像又は音声入出力部14が集音した入力音声を、通信部15を介して管理装置20へ送信する。また、制御部17は、キャラクタの画像を表示部11に表示し、キャラクタの音声を音声入出力部14から出力するとともに、通信部15を介して管理装置20から受信した監視員の音声を音声入出力部14から出力する。
第2音声入出力部22は、音声入出力部14と同様の構成を有し、入力された音声をデジタルの音声データに変換して第2制御部25へ出力するとともに、第2制御部25からの指示に従って音声を出力する。
第2制御部25は、第2通信部23を介して応対装置10から受信した入力画像を第2表示部21に表示するとともに、第2通信部23を介して応対装置10から受信した入力音声を第2音声出力部23から出力する。また、第2制御部25は、第2音声入力部22から入力された監視員による音声を、第2通信部23を介して応対装置10に送信する。
表示部11は、例えば、液晶ディスプレイ又は有機ELディスプレイ等のモニターの表示面にミラーパネル111を貼り合わせることにより形成されている。ミラーパネル111は、外側(対象空間側)からの光を反射しつつ、内側(モニター側)からの光(画像)を透過する。これにより、表示部11は、対象空間Aを往来する人物Hの像を反射させて表示しつつ、制御部17から出力されたキャラクタCの画像を表示する。
ミラーパネル111の外枠112には、センサ12が対象空間Aに向けて近赤外線のパルスレーザを投光可能に配置される。同様に、外枠112には、撮像部13が対象空間Aを撮像可能に配置され、音声入出力部14が対象空間Aの音を集音可能に且つ対象空間Aに向けて音を出力可能に配置される。なお、センサ12、撮像部13及び音声入出力部14は外枠112に配置されることに限定されず、ミラーパネル111越しに配置されてもよい。
図3に示すように、シナリオテーブル161には、複数のシナリオ毎に、各シナリオの識別番号(シナリオID)、シナリオ、関連情報及び応答情報等が関連付けて記憶される。
例えば、施設案内(場所問合せ)に関する対話のシナリオについて、キーワードとして、問合せの対象となり得る用語(トイレ、会議室等)が設定される。同様に、取り次ぎ依頼に関する対話のシナリオについて、キーワードとして、アポイント等の用語が設定される。また、通報に関する対話のシナリオについて、キーワードとして、助けを求める用語や不審者等の用語が設定される。
一方、識別情報として、例えばニューラルネットワーク等の機械学習技術を利用する学習装置により、様々な種類の発話を含む複数のサンプル音声を用いて事前学習された識別器が設定される。識別器は、各サンプル音声が入力された場合に、そのサンプル音声が各シナリオに対応している確度(確からしさ)と、そのサンプル音声が示すキーワード(トイレ、会議室)、文意又は趣旨(トイレの場所、アポイントで来訪)とを出力するように事前学習される。
図5(a)に示す例では、選択部172は、キャラクタCの視線が対象空間内の人物Hの方向にわずかに傾くようにキャラクタCの動作を変化させている。応対装置10は、例えば、1枚のキャラクタCの画像を目、鼻、口、顔の輪郭、首、体、腕、足等の所定のパーツごとに分割し、各パーツにポリゴンを割り当てておく。また、応対装置10は、複数の視線方向毎に、各視線方向に対応する各パーツのポリゴンの位置及び向きを事前に記憶部16に設定しておく。選択部172は、キャラクタCが、所定の視線方向を向くように、ポリゴンを動かし、ポリゴンにあわせて各パーツを動かすことにより、キャラクタCの画像表示を更新する。なお、選択部172は、通常動作において、キャラクタCの視線を変更させるのでなく、キャラクタCに一定間隔で相槌を打たせる等、他の任意のパーツを動かすことによりキャラクタCの動作を変化させてもよい。また、選択部172は、通常動作において、キャラクタCの動作を変化させず、キャラクタCを停止させてもよい。
検知部171は、入力画像から人物を検知する。検知部171は、例えばフレーム間差分処理または背景差分処理を利用して、順次撮影された複数の入力画像において輝度値の時間的な変化を有する変化領域を抽出する。検知部171は、抽出した各変化領域の大きさ、形状等の特徴量に基づいて、人物らしいと考えられる変化領域を人物領域として抽出する。検知部171は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素を抽出する。検知部171は、抽出したエッジ画素から、例えば一般化ハフ変換を用いて、所定の大きさを有する、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を顔領域として抽出する。なお、検知部171は、Adaboost識別器等の他の公知の方法を用いて顔領域を抽出してもよい。検知部171は、入力画像から顔領域を抽出した場合、その顔領域に対応する人物領域に含まれる人物を対象空間内の人物として検出する。そして、検知部171は、マップ情報に基づいて、検出した人物の足元が写っている、人物領域の最下端の画素に対応する対象空間内の位置を人物位置として特定する。検知部171は、複数の顔領域が抽出された場合、抽出した顔領域毎に人物を検出して人物位置を特定する。
また、検知部171は、音声入出力部14から入力音声を取得し、取得した入力音声から人物を検知してもよい。検知部171は、入力音声の音圧が、予め設定された閾値以上である場合に、対象空間に人物が存在すると判定する。なお、検知部171は、入力音声の周波数が、予め設定された範囲内である場合に、対象空間に人物が存在すると判定してもよい。
第1選択処理において、選択部172は、入力音声から抽出された文字情報に、関連情報として設定された各キーワードが含まれるか否かを判定する。選択部172は、文字情報にキーワードが含まれる場合、そのキーワードを入力音声に対応する関連情報として選択し、そのキーワードをその関連情報についての表示情報(関連情報を示す文字情報やアイコン等のイメージ図)として選択する。即ち、選択部172は、入力音声に含まれる用語を含む関連情報を、入力音声に対応する関連情報として選択する。これにより、選択部172は、入力音声に適合するシナリオを精度良く選択することができる。一方、選択部172は、入力音声から抽出された文字情報にキーワードが含まれない場合、入力音声に対応する関連情報を選択しない。なお、キーワードが含まれるか否かの判定においては、認識音声の形態素解析を行い、キーワードとの品詞の一致を考慮してもよい。
また、選択部172は、関連情報として設定された各識別器に入力音声を入力し、各識別器から出力された確度及びキーワード、文意又は趣旨を取得する。選択部172は、何れかの識別器から取得した確度が、予め設定された閾値以上である場合、確度が最も大きい識別器を入力音声に対応する関連情報として選択し、その識別器から取得したキーワード、文意又は趣旨をその関連情報についての表示情報として選択する。これにより、選択部172は、入力音声に適合するシナリオを柔軟に選択することができる。一方、選択部172は、何れの識別器から取得した確度も閾値未満である場合、入力音声に対応する関連情報を選択しない。
第1選択処理において関連情報を選択しなかった場合、選択部172は、処理をステップS101へ戻す。
図5(b)に示すように、選択部172は、キャラクタCの動作を変化させることにより、特定の認識情報を取得したことを対話対象の人物に示すようにキャラクタCの画像表示を制御する。選択部172は、通常は利用者の発話を認識すると所定のタイミングで利用者の発話に反応する第1反応動作(例えば、頷く)を実行するようキャラクタCの画像表示を制御する(図5(a)参照)。一方、選択部172は、特定の認識情報を取得すると第1反応動作より動作範囲が大きい第2反応動作(例えば、大きく頷く)を実行するようキャラクタCの画像表示を制御する。即ち、選択部172は、発話内容に係る音声を認識したタイミングでその音声に反応する第1反応動作を実行し、特定の認識情報を得たタイミングで第2反応動作を実行するようにキャラクタCの画像表示を制御する。
図6(a)に示すように、選択部172は、キャラクタCの表情を変化させることにより、特定の認識情報を取得したことを対話対象の人物に示すようにキャラクタCの画像表示を制御する。図6(a)に示す例では、選択部172は、キャラクタCが微笑むようにキャラクタCの表情を変化させている。応対装置10は、例えば、複数の表情毎に、キャラクタCの顔画像を予め記憶部16に記憶しておく。選択部172は、表示部11に表示されるキャラクタCの顔画像を、記憶部16に記憶された他の顔画像に置換することにより、キャラクタCの表情を変化させる。なお、選択部172は、キャラクタCの表情を、キャラクタCが微笑むように変化させるのでなく、まじめな表情等の他の表情に変化させてもよい。
図6(b)に示すように、選択部172は、入力音声をテキスト化した文字情報T1を表示部11に表示させる。文字情報T1は、対象空間内の人物による全発話をテキスト化した文字情報である。そして、選択部172は、文字情報T1のうち選択した表示情報T2を強調して表示させ、文字情報T1の中で、選択した表示情報T2を他の文字情報と識別可能に表示させる。図6(b)に示す例では、選択部172は、表示情報T2に下線を付すことにより、表示情報T2を他の文字情報と識別可能に表示させている。なお、選択部172は、表示情報T2をハイライト表示すること、又は、表示情報T2の色、太さ、フォント等を他の文字情報の色、太さ、フォント等と異ならせることにより、表示情報T2を他の文字情報と識別可能に表示させてもよい。これにより、対象空間内の人物は、自分が発した発話の中のどの用語を応対装置10がキーワードとして認識しているかを把握でき、応対装置10が自分の発話の意図を正しく認識しているか否かを判断できる。そのため、対象空間内の人物は、安心感を得ることができるので、応対装置10は、ユーザーエクスペリエンスを向上させることができる。また、対象空間内の人物は、自分が意図していない用語を応対装置10がキーワードとして認識している場合には、早急に訂正できるので、結果として、応対装置10は、応対に要する時間を短縮させることができる。
図7(a)に示すように、選択部172は、表示情報T3をキャラクタCの頭部領域と関連付けて表示部11に表示させる。図7(a)に示す例では、選択部172は、表示情報T3をキャラクタCの頭部領域から吹き出しにより表示することにより、キャラクタCの頭部領域と関連付けて表示している。なお、選択部172は、吹き出しを用いずに、表示情報T3をキャラクタCの頭部領域の近傍に表示することにより、キャラクタCと関連付けて表示してもよい。また、図7(a)に示す例では、入力音声をテキスト化した文字情報T4も表示部11に表示されている。但し、表示情報T3をキャラクタCと関連付けて表示する場合、入力音声をテキスト化した文字情報T4は、表示されなくてもよい。これにより、対象空間内の人物は、応対装置10(キャラクタ)が認識している発話の趣旨を視覚的に把握しやすくなるので、応対装置10は、ユーザーエクスペリエンスを向上させることができる。また、対象空間内の人物は、自分が意図していない方向で応対装置10が発話の趣旨を認識している場合には、早急に訂正できるので、結果として、応対装置10は、応対に要する時間を短縮させることができる。
図7(b)に示すように、表示情報T5は、入力音声の趣旨を示す文字情報である。選択部172は、入力音声をテキスト化した文字情報を表示部11に表示させるにあたって、表示情報T5を表示部11に表示させ、表示情報T5以外の文字情報を表示部11に表示させない。これにより、対象空間内の人物は、応対装置10が認識している発話の趣旨を注視することができるので、応対装置10は、ユーザーエクスペリエンスを向上させることができる。また、対象空間内の人物は、自分が意図していない方向で応対装置10が発話の趣旨を認識している場合には、早急に訂正できるので、結果として、応対装置10は、応対に要する時間を短縮させることができる。
なお、ステップS107の処理が省略され、選択部172は、特定の認識情報を得たことを対話対象の人物に示すようにキャラクタCの画像表示を制御することなく、表示情報を表示部11に表示させてもよい。また、ステップS108の処理が省略され、選択部172は、表示情報を表示部11に表示させることなく、特定の認識情報を得たことを対話対象の人物に示すようにキャラクタCの画像表示を制御してもよい。
第2選択処理において、選択部172は、シナリオテーブルに記憶されたシナリオ毎に、第1選択処理で選択したキーワードの数を計数する。選択部172は、何れかのシナリオについて計数した数が所定数(例えば2)以上である場合、計数した数が最も大きいシナリオを選択する。一方、選択部172は、何れのシナリオについて計数した数も所定数未満である場合、シナリオを選択しない。
なお、シナリオごとにキーワードの組み合わせに関する条件(AND条件、NOT条件等)を設定して、シナリオ選択をしてもよい。シナリオIDのS01を例にとって説明すると、選択部172は、「トイレ」に加えて「場所を尋ねる情報(「場所」、「どこ」、「行きたい」等)」(AND条件)が認識されるとシナリオS01を選択し、一方、選択部172は、「トイレ」に加えて「詰まっている」(NOT条件)が認識されるとシナリオS01を選択しない。このように、「トイレ」というキーワードとの組み合わせを考慮することで、利用者の発話内容に沿ったシナリオを適切に選択できる。
また、選択部172は、シナリオテーブルに記憶されたシナリオ毎に、第1選択処理で選択した識別器から取得した確度の合計値又は平均値を算出する。選択部172は、選択部172は、何れかのシナリオについて算出した合計値又は平均値が所定値以上である場合、算出した合計値又は平均値が最も大きいシナリオを選択する。一方、選択部172は、何れのシナリオについて算出した合計値又は平均値も所定値未満である場合、シナリオを選択しない。
第2選択処理においてシナリオを選択しなかった場合、選択部172は、処理をステップS101へ戻す。
Claims (5)
- キャラクタの画像を表示する表示部と、
前記キャラクタの音声の出力及び周囲の音声の入力をする音声入出力部と、
複数のシナリオと、前記複数のシナリオに関連する複数の関連情報とを記憶する記憶部と、
所定空間内の人物を検知する検知部と、
前記複数の関連情報の中から、前記音声入出力部から入力された音声に対応する関連情報を選択し、前記選択した関連情報に基づいて前記複数のシナリオの中からシナリオを選択する選択部と、
前記選択されたシナリオに従って、前記音声入出力部を介して前記キャラクタに前記検知された人物と対話させることによって応対を行う応対部と、を有し、
前記選択部は、前記関連情報を選択した場合、当該選択した関連情報についての表示情報を前記表示部に表示させる、
ことを特徴とする対話型応対装置。 - 前記選択部は、前記複数の関連情報の中から、前記音声入出力部から入力された音声に含まれる用語を含む関連情報を選択する、請求項1に記載の対話型応対装置。
- 前記選択部は、前記音声入出力部から入力された音声をテキスト化した文字情報を前記表示部に表示させ、前記文字情報の中で、前記表示情報を他の文字情報と識別可能に表示させる、請求項1または2に記載の対話型応対装置。
- 前記選択部は、前記表示情報を前記キャラクタの頭部領域と関連付けて前記表示部に表示させる、請求項1または2に記載の対話型応対装置。
- 前記表示情報は、前記音声入出力部から入力された音声の趣旨を示す文字情報であり、
前記選択部は、前記音声入出力部から入力された音声をテキスト化した文字情報を前記表示部に表示させるにあたって、前記表示情報を前記表示部に表示させ、当該表示情報以外の文字情報を前記表示部に表示させない、請求項1または2に記載の対話型応対装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020150882A JP7574018B2 (ja) | 2020-09-08 | 2020-09-08 | 対話型応対装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020150882A JP7574018B2 (ja) | 2020-09-08 | 2020-09-08 | 対話型応対装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022045276A true JP2022045276A (ja) | 2022-03-18 |
| JP7574018B2 JP7574018B2 (ja) | 2024-10-28 |
Family
ID=80682007
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020150882A Active JP7574018B2 (ja) | 2020-09-08 | 2020-09-08 | 対話型応対装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7574018B2 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024001624A (ja) * | 2022-06-22 | 2024-01-10 | 株式会社Jvcケンウッド | 情報表示制御装置および情報表示方法 |
| CN117975964A (zh) * | 2024-03-22 | 2024-05-03 | 联众智慧科技股份有限公司 | 一种基于Bert模型的智能机器人语音交互方法及其系统 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007034504A (ja) * | 2005-07-25 | 2007-02-08 | Sharp Corp | 情報処理装置 |
| JP2009031810A (ja) * | 2008-09-29 | 2009-02-12 | Mitsubishi Electric Information Systems Corp | オペレータ業務支援システム |
| JP2011209787A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
| JP2016206249A (ja) * | 2015-04-15 | 2016-12-08 | シャープ株式会社 | 対話装置、対話システム、及び対話装置の制御方法 |
| JP2020123132A (ja) * | 2019-01-30 | 2020-08-13 | 株式会社東芝 | 表示制御システム、プログラム、及び記憶媒体 |
-
2020
- 2020-09-08 JP JP2020150882A patent/JP7574018B2/ja active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007034504A (ja) * | 2005-07-25 | 2007-02-08 | Sharp Corp | 情報処理装置 |
| JP2009031810A (ja) * | 2008-09-29 | 2009-02-12 | Mitsubishi Electric Information Systems Corp | オペレータ業務支援システム |
| JP2011209787A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
| JP2016206249A (ja) * | 2015-04-15 | 2016-12-08 | シャープ株式会社 | 対話装置、対話システム、及び対話装置の制御方法 |
| JP2020123132A (ja) * | 2019-01-30 | 2020-08-13 | 株式会社東芝 | 表示制御システム、プログラム、及び記憶媒体 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2024001624A (ja) * | 2022-06-22 | 2024-01-10 | 株式会社Jvcケンウッド | 情報表示制御装置および情報表示方法 |
| JP7782376B2 (ja) | 2022-06-22 | 2025-12-09 | 株式会社Jvcケンウッド | 情報表示制御装置および情報表示方法 |
| CN117975964A (zh) * | 2024-03-22 | 2024-05-03 | 联众智慧科技股份有限公司 | 一种基于Bert模型的智能机器人语音交互方法及其系统 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7574018B2 (ja) | 2024-10-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8819788B2 (en) | Method and system for providing security data to security stations | |
| US7574021B2 (en) | Iris recognition for a secure facility | |
| US20130321625A1 (en) | Electronic device and information transmission system | |
| CN109839614B (zh) | 固定式采集设备的定位系统及方法 | |
| JP7340063B2 (ja) | 警備システム及び監視表示装置 | |
| KR20120140486A (ko) | 휴대용 단말기에서 보행 안내 서비스를 제공하기 위한 장치 및 방법 | |
| US20220130173A1 (en) | Information processing device, information processing system, information processing method, and storage medium | |
| CN107918726A (zh) | 距离感应方法、设备及存储介质 | |
| JP2022045276A (ja) | 対話型応対装置 | |
| KR101684264B1 (ko) | 글라스형 웨어러블 디바이스의 버스도착 알림방법 및 이를 이용한 글라스형 웨어러블 디바이스용 프로그램 | |
| KR20160015142A (ko) | 글라스형 웨어러블 디바이스를 이용한 긴급시 비상연락방법 및 프로그램 | |
| KR20070029794A (ko) | 유저와 시스템 사이에 통신을 하기 위한 방법 및 시스템 | |
| JP7545267B2 (ja) | 対話型応対装置 | |
| JP7501575B2 (ja) | ビデオ会議システム、ビデオ会議方法、およびプログラム | |
| JP2001067098A (ja) | 人物検出方法と人物検出機能搭載装置 | |
| US20180089500A1 (en) | Portable identification and data display device and system and method of using same | |
| KR20160007342A (ko) | 글라스형 웨어러블 디바이스의 잠금해제 방법 및 프로그램 | |
| KR101520446B1 (ko) | 구타 및 가혹행위 방지를 위한 감시 시스템 | |
| JP2007272534A (ja) | 省略語補完装置、省略語補完方法、及びプログラム | |
| JP2005199373A (ja) | コミュニケーション装置及びコミュニケーション方法 | |
| JP7007323B2 (ja) | 監視表示装置 | |
| JP2020187389A (ja) | 移動体軌跡分析装置、移動体軌跡分析プログラム、および移動体軌跡分析方法 | |
| US20240157007A1 (en) | Information processing system, information processing method, and computer program | |
| JP7312598B2 (ja) | 監視表示装置 | |
| JP2010062797A (ja) | インターホンシステム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230714 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240327 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240625 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241001 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241016 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7574018 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |