JP2020060730A - Voice recognition device - Google Patents
Voice recognition device Download PDFInfo
- Publication number
- JP2020060730A JP2020060730A JP2018193348A JP2018193348A JP2020060730A JP 2020060730 A JP2020060730 A JP 2020060730A JP 2018193348 A JP2018193348 A JP 2018193348A JP 2018193348 A JP2018193348 A JP 2018193348A JP 2020060730 A JP2020060730 A JP 2020060730A
- Authority
- JP
- Japan
- Prior art keywords
- voice recognition
- scene
- control
- unit
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010586 diagram Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Landscapes
- Telephone Function (AREA)
Abstract
【課題】音声認識による機器制御の操作性を向上した音声認識装置を提供する。
【解決手段】音声認識装置は、入力された音声に応じて機器の制御を行う。音声認識装置は、音声入力を受け付けて音声認識を行い、発話内容を特定する音声認識部と、機器の状態を取得し、状態に基づいて定まるシーンを現在のシーンとして、複数のシーンから特定するシーン特定部と、複数のシーンのそれぞれに1つ以上の発話内容および制御内容の組み合わせを対応付けて予め記憶する記憶部と、記憶部を参照し、現在のシーンに、音声認識部が特定した発話内容が対応付けられていれば、現在のシーンに対応付けられた音声認識部が特定した発話内容に組み合わせられた制御内容を実行する機器制御部とを備える。
【選択図】図2PROBLEM TO BE SOLVED: To provide a voice recognition device with improved operability of device control by voice recognition.
A voice recognition device controls a device according to an input voice. The voice recognition device accepts a voice input, performs voice recognition, acquires a state of the voice recognition unit that identifies the utterance content and the device, and identifies a scene determined based on the state as a current scene from a plurality of scenes. The scene identification unit, a storage unit that stores in advance one or more combinations of utterance content and control content associated with each of a plurality of scenes, and the storage unit is referred to, and the voice recognition unit identifies the current scene. If the utterance content is associated, the device control unit that executes the control content combined with the utterance content identified by the voice recognition unit associated with the current scene is provided.
[Selection diagram] Figure 2
Description
本発明は、車両等に搭載される音声認識装置に関する。 The present invention relates to a voice recognition device mounted on a vehicle or the like.
各種の音声認識技術が提案されている(特許文献1、2)。とくに特許文献1は、特定のウェイクアップワードの発話によって各種設備を起動させる音声ウェイクアップ技術を開示している。 Various voice recognition techniques have been proposed (Patent Documents 1 and 2). In particular, Patent Document 1 discloses a voice wakeup technique for activating various equipment by uttering a specific wakeup word.
音声ウェイクアップ技術を、車載機器に適用すると、ユーザーは運転中に機器を操作するのにステアリングホイールから手を離さなくてよいので便利である。例えば、車内にあるユーザーの携帯電話と近距離無線通信を用いて通信し、通話音声の中継等を行う車載機器に、音声ウェイクアップ技術を適用することで、電話着信シーンにおいて、音声のみで着信に応答するようにできる。 When the voice wake-up technology is applied to an in-vehicle device, it is convenient for the user to operate the device while driving because the user does not have to take his / her hand off the steering wheel. For example, by applying voice wake-up technology to an in-vehicle device that communicates with a user's mobile phone in the vehicle using short-range wireless communication, and relays call voice, etc. Can be responded to.
この場合、まず、特定のウェイクアップワードの発話によって、その後の音声入力を受け付け可能とし、つぎに、着信応答に対応する特定の発話によって、着信応答指示をすることが考えられる。しかし、これでは、2回の発話が必要であり、また発話間で音声認識処理の起動を待つ必要がある。このように音声認識による車載機器等の制御には、操作性向上の観点で改善の余地があった。 In this case, it is conceivable that the subsequent voice input can be accepted by the utterance of the specific wakeup word, and then the incoming call response instruction is given by the specific utterance corresponding to the incoming call response. However, in this case, it is necessary to utter twice, and it is necessary to wait for activation of the voice recognition processing between utterances. As described above, there is room for improvement in controlling the in-vehicle device or the like by voice recognition from the viewpoint of improving operability.
本発明は、上記課題を鑑みてなされたものであり、音声認識による機器制御の操作性を向上した音声認識装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a voice recognition device with improved operability of device control by voice recognition.
上記課題を解決するために、本発明の一局面は、入力された音声に応じて機器の制御を行うことができる音声認識装置であって、音声入力を受け付けて音声認識を行い、発話内容を特定する音声認識部と、機器の状態を取得し、状態に基づいて定まるシーンを現在のシーンとして、複数のシーンから特定するシーン特定部と、複数のシーンのそれぞれに1つ以上の発話内容および制御内容の組み合わせを対応付けて予め記憶する記憶部と、記憶部を参照し、現在のシーンに、音声認識部が特定した発話内容が対応付けられていれば、現在のシーンに対応付けられた、音声認識部が特定した発話内容に組み合わせられた制御内容を実行する機器制御部とを備える、音声認識装置である。 In order to solve the above-mentioned problems, one aspect of the present invention is a voice recognition device capable of controlling a device in accordance with an input voice, which receives voice input, performs voice recognition, and outputs speech content. A voice recognition unit that identifies a device, a scene identification unit that obtains the state of a device, and determines a scene determined based on the state as a current scene, and a scene identification unit that identifies from a plurality of scenes, and one or more utterance contents for each of the plurality of scenes. If the utterance content specified by the voice recognition unit is associated with the current scene by referring to the storage unit and the storage unit that stores the combination of the control contents in advance, it is associated with the current scene. And a device control unit that executes control content combined with the utterance content specified by the voice recognition unit.
本発明は、音声認識による機器制御の操作性を向上した音声認識装置を提供することができる。 INDUSTRIAL APPLICABILITY The present invention can provide a voice recognition device with improved operability of device control by voice recognition.
(実施形態)
本発明の一実施形態に係る音声認識装置は、1回の発話によって、音声認識処理を開始するだけでなく、制御対象機器の動作状況等を表すシーンに応じて制御対象機器の制御内容を特定し実行する。これにより、上述したような2回の発話やその間の待機が不要となり操作性が向上する。以下、本実施形態について、図面を参照しながら詳細に説明する。
(Embodiment)
A voice recognition device according to an embodiment of the present invention not only starts voice recognition processing by one utterance, but also specifies the control content of a control target device according to a scene representing an operation state of the control target device. Then run. This eliminates the need for the two utterances and the waiting time between them, thus improving the operability. Hereinafter, the present embodiment will be described in detail with reference to the drawings.
<構成>
図1に、本実施形態に係る音声認識装置10の機能ブロック図を示す。音声認識装置10は、車両に搭載され、音声認識部11、シーン特定部12、記憶部13、機器制御部14を含む。音声認識装置10は、一例として車両に搭載されたマイク20、第1機器31、第2機器32と有線で接続され、車室内に存在する第3機器33とBlueTooth(登録商標)のような近距離無線通信によって通信可能となっている。マイク20はユーザーの音声を収音し、音声認識装置10に入力する。第1機器31、第2機器32、第3機器33は、音声認識装置10による制御対象機器であり、例えば、オーディオ装置、空調装置、携帯電話である。制御対象機器の種類や数はこれに限定されない。
<Structure>
FIG. 1 shows a functional block diagram of the voice recognition device 10 according to the present embodiment. The voice recognition device 10 is mounted on a vehicle and includes a voice recognition unit 11, a
音声認識部11は、マイク20から音声入力を受け付け、入力された音声から、音素列を抽出して発話内容を特定する。
The voice recognition unit 11 accepts a voice input from the
シーン特定部12は、例えば、第1機器31、第2機器32、第3機器33のような制御対象機器の動作状態等を表す所定の情報を取得し、これに基づいて現在のシーンを特定する。シーンの特定に必要であれば、制御対象機器以外の機器やセンサからも、例えば車両の電源状態や速度等の情報を所定の情報として取得してもよい。シーンとは、例えば制御対象機器の動作状況を表す情報であり、予め定められた複数の種別がある。
The
記憶部13は、複数のシーンのそれぞれに発話内容を対応付けて予め記憶している。
The
機器制御部14は、記憶部13を参照して、シーン特定部12が特定したシーンに対応付けられた発話内容を取得する。また、音声認識部11が特定した発話内容を取得する。これらの発話内容を比較し、一致すれば、特定されたシーンに応じて、制御対象機器の制御を行う。
The
<処理>
図2は、音声認識装置10の処理の一例を示すフローチャートである。図2を参照して、処理の例を説明する。本フローチャートは、マイク20から音声入力が行われることにより開始される。
<Process>
FIG. 2 is a flowchart showing an example of processing of the voice recognition device 10. An example of the process will be described with reference to FIG. The present flowchart is started by voice input from the
(ステップS101):音声認識部11は、入力された音声から、音素列を抽出して発話内容を特定する。 (Step S101): The voice recognition unit 11 extracts a phoneme string from the input voice and specifies the utterance content.
(ステップS102):シーン特定部12は、第1機器31、第2機器32、第3機器33のような制御対象機器等から、動作状態等の情報を取得し、シーンを特定する。
(Step S102): The
(ステップS103):機器制御部14は、記憶部13を参照して、ステップS102で特定されたシーンに対応付けられた発話内容と、ステップS101で特定された発話内容とを比較する。ステップS102で特定されたシーンに対応付けられた発話内容のいずれかと、ステップS101で特定された発話内容とが、一致すればステップS104に進み、一致しなければ本フローチャートの処理を終了する。すなわち、現在のシーンに、ステップS101で特定された発話内容が対応付けられていれば、ステップS104に進み、対応付けられていなければ本フローチャートの処理を終了する。
(Step S103): The
ここで、記憶部13が記憶しているシーンおよび発話内容の例を説明する。表1に、記憶部13の記憶内容の例を示す。この例では、第1機器31、第2機器32、第3機器33はそれぞれ、オーディオ装置、空調装置、携帯電話である。また、この例では、記憶部13はさらに、シーンごとに発話内容および制御内容の組み合わせを1つ以上記憶している。
Here, an example of scenes and utterance contents stored in the
シーン特定部12は、ステップS102で、例えば、オーディオ装置、空調装置、携帯電話等の動作状態を取得し、表1のシーンのうち該当するいずれかを特定する。なお、複数のシーンが該当する場合は、例えば所定の優先度に基づいて1つを選択すればよい。
In step S102, the
例えばステップS102で特定されたシーンが「携帯電話着信中」であり、ステップS101で特定された発話内容が「もしもし」である場合、「もしもし」はシーン「携帯電話着信中」に対応付けられた発話内容であるため、本ステップS103の処理の結果として、ステップS104に進む。 For example, when the scene specified in step S102 is "incoming mobile phone call" and the utterance content specified in step S101 is "hello", "what if" is associated with the scene "incoming mobile phone call". Since it is the utterance content, as a result of the processing in step S103, the process proceeds to step S104.
(ステップS104):機器制御部14は、ステップS102で特定されたシーンに応じて、ステップS101で特定された発話内容に基づいた制御を行う。すなわち、現在のシーンに対応付けられた組み合わせを参照し、そのうち、ステップS101で特定された発話内容に組み合わせられた制御内容を実行する。機器制御部14は、記憶部13を参照して制御内容を特定することができる。例えば、ステップS102で特定されたシーンが「携帯電話着信中」であり、ステップS101で特定された発話内容が「もしもし」である場合、機器制御部14は、携帯電話である第3機器33に対して、表1に記載のように着信に応答する指示を行う。その後、本フローチャートの処理を終了する。
(Step S104): The
以上、音声認識装置10の処理の例を説明したが、本処理は、マイク20から音声入力が行われるごとに繰り返し実行される。
The example of the process of the voice recognition device 10 has been described above, but this process is repeatedly executed each time a voice is input from the
なお、1つのシーンに、2つ以上の発話内容および制御内容を対応付ければ、そのシーンにおいて、複数種類の制御を行うことができる。しかし、これに限定されず、1つのシーンに1つの発話内容および制御内容を対応付けてもよい。また、あるシーンにおいて、1つの発話内容に2つ以上の制御内容を対応付けてもよいし、2つ以上の発話内容に同一の制御内容を対応付けてもよい。 If two or more utterance contents and control contents are associated with one scene, a plurality of types of control can be performed in that scene. However, the present invention is not limited to this, and one utterance content and one control content may be associated with one scene. Further, in a certain scene, one utterance content may be associated with two or more control contents, or two or more utterance contents may be associated with the same control content.
また、音声認識装置10は、車内のタッチディスプレイ装置のようなGUIやスピーカーを用いて、上述した制御の内容やその結果をユーザーに提示する制御部を設けてもよい。また、制御部は、例えば携帯電話の着信に応答した後、通話継続中は、マイク20およびスピーカーと、携帯電話との間で通話音声の中継を行い、その間は上述したような発話内容に基づく機器制御を抑制してもよい。
Further, the voice recognition device 10 may be provided with a control unit that presents the contents of the above-mentioned control and the result thereof to the user by using a GUI or a speaker like a touch display device in the vehicle. Also, for example, after responding to an incoming call of the mobile phone, the control unit relays the call voice between the mobile phone and the
<効果>
本発明によれば、特定されたシーンに応じて定められた発話内容の発話によって、制御対象機器の制御内容を指示することができる。すなわち、従来は、まず、1回目の発話によって、その後の音声入力を受付可能状態とし、2回目の発話によって機器制御内容を指示していたのに対し、本発明では、1回の発話によって、機器制御を行うことができる。また、シーンに応じて発話内容を設定することで、比較的短い直観的な発話によって、所望の制御内容を指示することができる。これらにより、音声認識装置による機器制御の操作性を向上することができる。
<Effect>
According to the present invention, it is possible to instruct the control content of the control target device by the utterance of the utterance content determined according to the specified scene. That is, in the past, first, the first utterance was set to the state in which the subsequent voice input can be accepted, and the second utterance was used to instruct the device control content. Device control can be performed. Further, by setting the utterance content according to the scene, it is possible to instruct the desired control content with a relatively short intuitive utterance. As a result, the operability of device control by the voice recognition device can be improved.
(変形例)
上述の例では、シーン特定部12は、ステップS102で、複数のシーンが該当する場合は、そのうち1つを選択すればよいものとしたが、該当する複数のシーンのうち2つ以上を選択してもよい。この場合、以下の表2のようにシーン間で重複しない発話内容をさらに設け、選択したシーンのうち重複する発話内容による機器制御は無効とし、重複しない発話内容による機器制御を有効とすればよい。例えば、オーディオ装置と空調装置とがいずれも動作しており、シーン特定部12が「オーディオ装置動作中」および「空調装置動作中」のシーンを選択した場合、機器制御部14は、これらのシーン間で重複する「あげて」、「さげて」の発話に基づく制御は行わないものとし、重複しない「おんりょうあげて」、「おんりょうさげて」、「おんどあげて」、「おんどさげて」の発話に基づく制御は行うようにする。これにより、オーディオ装置および空調装置のような複数の機器を同時に制御対象としても、誤制御を抑制できる。
(Modification)
In the above example, the
このように、発話内容、シーン特定部12や機器制御部14による処理内容は、制御対象機器の種類、制御内容等に応じて適宜好適に設計することができる。また、シーンの種別も、1つの制御対象機器に対してその複数の動作状態に応じて設けてもよく、2つ以上の制御対象機器の動作状態の組み合わせに応じて設けてもよい。
As described above, the utterance content and the processing content by the
(参考例)
上述の各例では、シーンごとに機器制御のための発話内容を対応付けたが、以下の表3のように複数のシーンを設けず、発話内容と制御内容との対応付けのみ行ってもよい。この場合、上述のシーン特定部12は設けず、音声認識部11が音声入力を受け付けて音声認識を行って発話内容を特定し、記憶部13が、表3のように、2つ以上の発話内容と制御内容とを対応付けて記憶し、機器制御部14が、記憶部13が記憶している発話内容と音声認識部が特定した発話内容とが一致する場合に、発話内容に対応付けられた制御内容を実行するようにすればよい。なお、機器制御部14は、制御対象機器が所定の状態であることを前提とする制御を行う場合、制御対象機器の動作状態を取得して、所定の状態にない場合は、制御を実行しないようにしてもよいし、あるいは、制御対象機器が所定の状態にない場合はその状態を前提とする制御指示を受け付けないようにしてもよい。
(Reference example)
In each of the above examples, the utterance content for device control is associated with each scene, but a plurality of scenes may not be provided as shown in Table 3 below, and only the utterance content and the control content may be associated with each other. . In this case, the above-mentioned
以上、本発明の実施形態等を説明したが、本発明は、音声認識装置、音声認識装置のコンピュータが実行する音声認識方法、音声認識プログラムおよびこれを記憶したコンピュータ読み取り可能な非一時的な記録媒体、音声認識システム、機器制御装置、車両等として捉えることができる。 Although the embodiments of the present invention have been described above, the present invention is directed to a voice recognition device, a voice recognition method executed by a computer of the voice recognition device, a voice recognition program, and a computer-readable non-transitory recording in which the program is stored. It can be considered as a medium, a voice recognition system, a device control device, a vehicle, or the like.
本発明は、車両等に搭載される音声認識装置に有用である。 INDUSTRIAL APPLICABILITY The present invention is useful for a voice recognition device mounted on a vehicle or the like.
10 音声認識装置
11 音声認識部
12 シーン特定部
13 記憶部
14 機器制御部
20 マイク
31 第1機器
32 第2機器
33 第2機器
10 voice recognition device 11
Claims (1)
音声入力を受け付けて音声認識を行い、発話内容を特定する音声認識部と、
前記機器の状態を取得し、前記状態に基づいて定まるシーンを現在のシーンとして、複数のシーンから特定するシーン特定部と、
前記複数のシーンのそれぞれに1つ以上の発話内容および制御内容の組み合わせを対応付けて予め記憶する記憶部と、
前記記憶部を参照し、前記現在のシーンに、前記音声認識部が特定した発話内容が対応付けられていれば、前記現在のシーンに対応付けられた、前記音声認識部が特定した発話内容に組み合わせられた制御内容を実行する機器制御部とを備える、音声認識装置。 A voice recognition device capable of controlling a device according to an input voice,
A voice recognition unit that accepts voice input, performs voice recognition, and specifies the utterance content,
Acquiring the state of the device, as a current scene a scene determined based on the state, a scene specifying unit for specifying from a plurality of scenes,
A storage unit that stores in advance one or more combinations of utterance content and control content in association with each of the plurality of scenes,
If the utterance content identified by the voice recognition unit is associated with the current scene by referring to the storage unit, the utterance content identified by the voice recognition unit is associated with the current scene. A voice recognition device, comprising: a device control unit that executes combined control contents.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193348A JP2020060730A (en) | 2018-10-12 | 2018-10-12 | Voice recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193348A JP2020060730A (en) | 2018-10-12 | 2018-10-12 | Voice recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020060730A true JP2020060730A (en) | 2020-04-16 |
Family
ID=70220192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193348A Pending JP2020060730A (en) | 2018-10-12 | 2018-10-12 | Voice recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020060730A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112786055A (en) * | 2020-12-25 | 2021-05-11 | 北京百度网讯科技有限公司 | Resource mounting method, device, equipment, storage medium and computer program product |
CN113284489A (en) * | 2021-04-16 | 2021-08-20 | 珠海格力电器股份有限公司 | Voice equipment control method and device, storage medium and voice equipment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004301875A (en) * | 2003-03-28 | 2004-10-28 | Toyota Central Res & Dev Lab Inc | Voice recognition device |
JP2009109587A (en) * | 2007-10-26 | 2009-05-21 | Panasonic Electric Works Co Ltd | Voice recognition control device |
-
2018
- 2018-10-12 JP JP2018193348A patent/JP2020060730A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004301875A (en) * | 2003-03-28 | 2004-10-28 | Toyota Central Res & Dev Lab Inc | Voice recognition device |
JP2009109587A (en) * | 2007-10-26 | 2009-05-21 | Panasonic Electric Works Co Ltd | Voice recognition control device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112786055A (en) * | 2020-12-25 | 2021-05-11 | 北京百度网讯科技有限公司 | Resource mounting method, device, equipment, storage medium and computer program product |
CN113284489A (en) * | 2021-04-16 | 2021-08-20 | 珠海格力电器股份有限公司 | Voice equipment control method and device, storage medium and voice equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11676601B2 (en) | Voice assistant tracking and activation | |
JP6570651B2 (en) | Voice dialogue apparatus and voice dialogue method | |
JP6155592B2 (en) | Speech recognition system | |
US20180096684A1 (en) | Vehicle-based remote control system and method | |
CN106471573A (en) | Speech recognition device and speech recognition system | |
JP2018049132A (en) | Voice dialogue system and method for voice dialogue | |
JP2020060730A (en) | Voice recognition device | |
KR20130063091A (en) | Speech recognition apparatus for vehicle | |
CN105529025B (en) | Voice operation input method and electronic equipment | |
JP6281202B2 (en) | Response control system and center | |
CN111557030B (en) | Method, device and computer-readable storage medium with instructions for processing voice input, motor vehicle with voice processing and user terminal equipment | |
CN110400568B (en) | Awakening method of intelligent voice system, intelligent voice system and vehicle | |
JP2002520681A (en) | Automatic speech recognition method | |
JP6167605B2 (en) | Speech recognition system | |
JP2013191979A (en) | On-vehicle apparatus, portable terminal, and program for portable terminal | |
US20180135998A1 (en) | Method for improved user experience during driver distraction lockout modes | |
JP7242248B2 (en) | ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM THEREOF | |
JP2018124484A (en) | Speech recognition device | |
JP5979303B2 (en) | Voice control system, voice control method, voice control program, and noise-proof voice output program | |
JP2004301875A (en) | Voice recognition device | |
JP6226911B2 (en) | Server apparatus, system, method for managing voice recognition function, and program for controlling information communication terminal | |
KR20220125523A (en) | How electronic devices and electronic devices handle recording and voice input | |
US20140128129A1 (en) | Method and Apparatus for Passing Voice Between a Mobile Device and a Vehicle | |
CN105047197B (en) | System and method for coordinating speech recognition | |
KR101628125B1 (en) | Apparatus and method of voice recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230131 |