JP7080811B2 - 強化学習ニューラルネットワークのトレーニング - Google Patents
強化学習ニューラルネットワークのトレーニング Download PDFInfo
- Publication number
- JP7080811B2 JP7080811B2 JP2018504858A JP2018504858A JP7080811B2 JP 7080811 B2 JP7080811 B2 JP 7080811B2 JP 2018504858 A JP2018504858 A JP 2018504858A JP 2018504858 A JP2018504858 A JP 2018504858A JP 7080811 B2 JP7080811 B2 JP 7080811B2
- Authority
- JP
- Japan
- Prior art keywords
- network
- action
- actions
- target
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 11
- 230000002787 reinforcement Effects 0.000 title description 33
- 230000009471 action Effects 0.000 claims description 128
- 230000001186 cumulative effect Effects 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 41
- 230000008901 benefit Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 45
- 230000008569 process Effects 0.000 description 18
- 238000004590 computer program Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 239000006163 transport media Substances 0.000 description 3
- 239000002609 medium Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Feedback Control In General (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Description
E=R+γ*NTER-CER
を満たしてもよく、ここで、Rは経験タプル中の利益であり、γは指定される割引係数であり、NTERは次のターゲットの推定される将来の累積利益であり、CERは現在推定される将来の累積利益である。
102 エージェント
104 環境
110 Qネットワーク
130 リプレイメモリ
150 ターゲットQネットワーク
Claims (11)
- コンピュータ実装方法であって、
実世界環境の状態を特徴付ける観測値を受け取り、かつ前記観測値に応じてアクションのセットからのアクションを実施することにより、前記実世界環境と相互作用する機械的なエージェントによって実施されるべきアクションを選択するために使用されるQネットワークをトレーニングする方法であって、前記エージェントが、特定のタスクを達成するために環境と相互作用するロボットであるか、または前記エージェントが、前記実世界環境を通じてナビゲーションする自動もしくは半自動車両であり、前記観測値が、前記実世界と相互作用する機械的なエージェントのセンサによって取り込まれた1つまたは複数の画像からの画素を備え、前記アクションが前記ロボットまたは前記車両への制御入力であり、
前記Qネットワークが、前記Qネットワークに含まれるパラメータのセットに従って入力から推定される将来の累積利益を生成するために、前記入力として入力観測値および入力アクションを受け取るように構成されるディープニューラルネットワークであり、
複数の経験タプルを取得するステップであって、各経験タプルが、トレーニングの観測値、前記トレーニングの観測値を受け取るのに応じて前記エージェントにより実施されるアクション、前記エージェントが前記アクションを実施するのに応じて受け取られる利益、および前記実世界環境の次の状態を特徴付ける次のトレーニングの観測値を含む、ステップと、
前記経験タプルの各々の上で前記Qネットワークをトレーニングするステップであって、各経験タプルについて、
前記Qネットワークの前記パラメータの現在の値に従って、前記Qネットワークを使用して前記経験タプル中の前記トレーニングの観測値および前記経験タプル中の前記アクションに基づいて前記経験タプルについて現在推定される将来の累積利益を決定するステップと、
前記Qネットワークを使用して、前記Qネットワークによって次の観測値と組み合わせて処理されるとき、最高と推定される将来の累積利益を前記Qネットワークが生成することになる、前記アクションのセットからアクションを選択するステップと、
ターゲットQネットワークを使用して、前記ターゲットQネットワークの前記パラメータの現在の値に従って、前記経験タプル中の前記次の観測値および前記選択されたアクションに基づいて、前記ターゲットQネットワークによって、前記選択されたアクションについての次のターゲットの推定される将来の累積利益を決定するステップであって、前記ターゲットQネットワークが前記Qネットワークと同一であるが、前記ターゲットQネットワークの前記パラメータの前記現在の値が前記Qネットワークの前記パラメータの前記現在の値と異なる、ステップと、
前記経験タプル中の前記利益、前記選択されたアクションについての前記次のターゲットの推定される将来の累積利益、および前記現在推定される将来の累積利益から前記経験タプルについての誤差を決定するステップと、
前記Qネットワークの前記パラメータの前記現在の値を更新するために前記経験タプルについての前記誤差を使用するステップと
を含む、ステップと
を含む、方法。 - 前記誤差Eが、
E=R+γ*NTER-CER
を満たし、Rは前記経験タプル中の前記利益であり、γは指定される割引係数であり、NTERは前記選択されるアクションについての前記次のターゲットの推定される将来の累積利益であり、CERは前記現在推定される将来の累積利益である、請求項1に記載の方法。 - 前記Qネットワークの前記パラメータの前記現在の値を更新するために前記経験タプルについての前記誤差を使用するステップが、
機械学習トレーニング技法を使用して前記誤差を減少させるために前記Qネットワークの前記パラメータの前記現在の値を更新するステップ
を含む、請求項1または2に記載の方法。 - 前記アクションを選択するステップが、
前記アクションのセットの中の各アクションについて、前記Qネットワークの前記パラメータの現在の値に従って、前記Qネットワークを使用して、前記経験タプル中の前記次の観測値および前記アクションに基づいて、前記アクションについてそれぞれの次の推定される将来の累積利益を決定するステップと、
最高の次の推定される将来の累積利益を有する前記アクションを選択するステップと
を含む、請求項1から3のいずれか一項に記載の方法。 - 前記ターゲットQネットワークの前記パラメータの前記値が、前記Qネットワークの前記パラメータの前記値と周期的に同期する、請求項1から4のいずれか一項に記載の方法。
- 前記Qネットワークの前記パラメータの更新された値を決定するために、前記経験タプルの各々の上で前記Qネットワークをトレーニングした後、前記Qネットワークの前記パラメータの前記更新された値と一致させるために、前記ターゲットQネットワークの前記現在の値を更新するステップ
をさらに含む、請求項5に記載の方法。 - パラメータの更新された現在の値を有する前記Qネットワークを出力するステップをさらに含む、請求項1から6のいずれか一項に記載の方法。
- 入力として入力観測値および入力アクションを受け取るステップと、
前記パラメータの更新された現在の値に従って、前記Qネットワークを使用して前記入力から推定される将来の累積利益を生成するステップと
をさらに含む、請求項1から7のいずれか一項に記載の方法。 - 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータにより実行されるとき、前記1つまたは複数のコンピュータに請求項1から8のいずれか一項に記載の方法を実施させるように動作可能な命令を記憶する、1つまたは複数の記憶デバイスとを備える、システム。
- 1つまたは複数のコンピュータにより実行されると、前記1つまたは複数のコンピュータに請求項1から8のいずれか一項に記載の方法を実施させる命令で符号化される、コンピュータ記憶媒体。
- 入力として入力観測値および入力アクションを受け取り、かつパラメータのセットに従って前記入力から推定される将来の累積利益を生成するように構成されたQネットワークであって、請求項1から8のいずれか一項に記載の方法に従ってトレーニングされたものである、Qネットワーク。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562217547P | 2015-09-11 | 2015-09-11 | |
US62/217,547 | 2015-09-11 | ||
PCT/US2016/051095 WO2017044842A1 (en) | 2015-09-11 | 2016-09-09 | Training reinforcement learning neural networks |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018526733A JP2018526733A (ja) | 2018-09-13 |
JP2018526733A5 JP2018526733A5 (ja) | 2020-10-01 |
JP7080811B2 true JP7080811B2 (ja) | 2022-06-06 |
Family
ID=56979671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018504858A Active JP7080811B2 (ja) | 2015-09-11 | 2016-09-09 | 強化学習ニューラルネットワークのトレーニング |
Country Status (6)
Country | Link |
---|---|
US (2) | US10733504B2 (ja) |
EP (1) | EP3295384B1 (ja) |
JP (1) | JP7080811B2 (ja) |
KR (1) | KR102140672B1 (ja) |
CN (1) | CN107851216B (ja) |
WO (1) | WO2017044842A1 (ja) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015213181B3 (de) * | 2015-07-14 | 2017-01-19 | Bayerische Motoren Werke Aktiengesellschaft | Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug |
DE102015213190B3 (de) | 2015-07-14 | 2016-09-29 | Bayerische Motoren Werke Aktiengesellschaft | Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug |
DE102015213183A1 (de) | 2015-07-14 | 2017-01-19 | Bayerische Motoren Werke Aktiengesellschaft | Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug |
US10885432B1 (en) * | 2015-12-16 | 2021-01-05 | Deepmind Technologies Limited | Selecting actions from large discrete action sets using reinforcement learning |
JP6728495B2 (ja) * | 2016-11-04 | 2020-07-22 | ディープマインド テクノロジーズ リミテッド | 強化学習を用いた環境予測 |
KR102399535B1 (ko) * | 2017-03-23 | 2022-05-19 | 삼성전자주식회사 | 음성 인식을 위한 학습 방법 및 장치 |
US11263490B2 (en) | 2017-04-07 | 2022-03-01 | Intel Corporation | Methods and systems for budgeted and simplified training of deep neural networks |
CN110520868B (zh) | 2017-04-14 | 2023-06-02 | 渊慧科技有限公司 | 用于分布式强化学习的方法、程序产品和存储介质 |
KR102391452B1 (ko) * | 2017-06-02 | 2022-04-27 | 에스케이텔레콤 주식회사 | 신경망에 복수의 태스크를 순차 학습시키는 방법 |
WO2018224695A1 (en) * | 2017-06-09 | 2018-12-13 | Deepmind Technologies Limited | Training action selection neural networks |
US10678241B2 (en) * | 2017-09-06 | 2020-06-09 | GM Global Technology Operations LLC | Unsupervised learning agents for autonomous driving applications |
US10254759B1 (en) * | 2017-09-14 | 2019-04-09 | Waymo Llc | Interactive autonomous vehicle agent |
WO2019060626A1 (en) * | 2017-09-20 | 2019-03-28 | Google Llc | USE OF SIMULATION AND DOMAIN ADAPTATION FOR ROBOTIC CONTROL |
EP3467717A1 (en) * | 2017-10-04 | 2019-04-10 | Prowler.io Limited | Machine learning system |
EP3467718A1 (en) * | 2017-10-04 | 2019-04-10 | Prowler.io Limited | Machine learning system |
CN109726811A (zh) * | 2017-10-27 | 2019-05-07 | 谷歌有限责任公司 | 使用优先级队列训练神经网络 |
US11568236B2 (en) | 2018-01-25 | 2023-01-31 | The Research Foundation For The State University Of New York | Framework and methods of diverse exploration for fast and safe policy improvement |
FR3077666B1 (fr) * | 2018-02-05 | 2020-01-17 | Psa Automobiles Sa | Procede de configuration automatique d’un generateur de recompenses utilisees par des strategies de conduite d’un vehicule a conduite automatisee |
EP4492291A2 (en) | 2018-02-05 | 2025-01-15 | DeepMind Technologies Limited | Distributed training using off-policy actor-critic reinforcement learning |
WO2019155061A1 (en) * | 2018-02-09 | 2019-08-15 | Deepmind Technologies Limited | Distributional reinforcement learning using quantile function neural networks |
US12221101B2 (en) | 2018-03-04 | 2025-02-11 | Traxen Inc. | Automated cruise control system |
WO2019219969A1 (en) * | 2018-05-18 | 2019-11-21 | Deepmind Technologies Limited | Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments |
US10872293B2 (en) * | 2018-05-29 | 2020-12-22 | Deepmind Technologies Limited | Deep reinforcement learning with fast updating recurrent neural networks and slow updating recurrent neural networks |
US11188035B2 (en) | 2018-07-19 | 2021-11-30 | International Business Machines Corporation | Continuous control of attention for a deep learning network |
WO2020062165A1 (zh) * | 2018-09-29 | 2020-04-02 | 区链通网络有限公司 | 一种强化学习模型的训练方法、节点、系统及存储介质 |
WO2020074741A1 (en) * | 2018-10-12 | 2020-04-16 | Deepmind Technologies Limited | Controlling agents over long time scales using temporal value transport |
CN111105029B (zh) * | 2018-10-29 | 2024-04-16 | 北京地平线机器人技术研发有限公司 | 神经网络的生成方法、生成装置和电子设备 |
CN109598332B (zh) * | 2018-11-14 | 2021-04-09 | 北京市商汤科技开发有限公司 | 神经网络生成方法及装置、电子设备和存储介质 |
EP3921785A4 (en) * | 2019-03-20 | 2022-04-20 | Sony Group Corporation | REINFORCEMENT LEARNING THROUGH A CRITICAL DUAL ACTOR ALGORITHM |
US11373108B2 (en) * | 2019-07-10 | 2022-06-28 | Microsoft Technology Licensing, Llc | Reinforcement learning in real-time communications |
KR20210012730A (ko) | 2019-07-26 | 2021-02-03 | 삼성전자주식회사 | 인공지능 모델의 학습 방법 및 전자 장치 |
WO2021048434A1 (en) * | 2019-09-13 | 2021-03-18 | Deepmind Technologies Limited | Data-driven robot control |
US20210158196A1 (en) * | 2019-11-25 | 2021-05-27 | Deepmind Technologies Limited | Non-stationary delayed bandits with intermediate signals |
CN111046156B (zh) * | 2019-11-29 | 2023-10-13 | 支付宝(杭州)信息技术有限公司 | 奖励数据的确定方法、装置和服务器 |
US11514274B2 (en) * | 2020-03-30 | 2022-11-29 | Google Llc | Geographic dataset preparation system |
CN113877202A (zh) * | 2020-07-01 | 2022-01-04 | 中移(苏州)软件技术有限公司 | 一种游戏控制方法及装置、存储介质 |
US20220226994A1 (en) * | 2020-07-20 | 2022-07-21 | Georgia Tech Research Corporation | Heterogeneous graph attention networks for scalable multi-robot scheduling |
CN112476424A (zh) * | 2020-11-13 | 2021-03-12 | 腾讯科技(深圳)有限公司 | 机器人控制方法、装置、设备及计算机存储介质 |
CN112580801B (zh) * | 2020-12-09 | 2021-10-15 | 广州优策科技有限公司 | 一种强化学习训练方法及基于强化学习的决策方法 |
KR102388911B1 (ko) * | 2021-03-08 | 2022-04-21 | (주)뤼이드 | 데이터 증강 기반 지식 추적 모델 학습 장치, 시스템 및 그것의 동작방법 |
DE102021107458A1 (de) | 2021-03-25 | 2022-09-29 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Steuervorrichtung und Verfahren |
CN113268933B (zh) * | 2021-06-18 | 2022-02-15 | 大连理工大学 | 基于强化学习的蛇形急救机器人结构参数快速设计方法 |
CN113361132B (zh) * | 2021-06-28 | 2022-03-15 | 浩鲸云计算科技股份有限公司 | 一种基于深度q学习对决网络的风冷数据中心节能方法 |
US20220274251A1 (en) * | 2021-11-12 | 2022-09-01 | Intel Corporation | Apparatus and methods for industrial robot code recommendation |
CN115114030B (zh) * | 2022-07-20 | 2023-06-16 | 杭州电子科技大学 | 一种基于强化学习的在线多工作流调度方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5790754A (en) * | 1994-10-21 | 1998-08-04 | Sensory Circuits, Inc. | Speech recognition apparatus for consumer electronic applications |
CA2467401A1 (en) * | 2001-11-16 | 2003-05-30 | Yuan Yan Chen | Pausible neural network with supervised and unsupervised cluster analysis |
CN101261634B (zh) * | 2008-04-11 | 2012-11-21 | 哈尔滨工业大学深圳研究生院 | 基于增量Q-Learning的学习方法及系统 |
CN102195975A (zh) * | 2011-04-08 | 2011-09-21 | 上海电机学院 | 基于移动代理和学习向量量化神经网络的智能nips架构 |
CN102573055B (zh) * | 2011-12-02 | 2014-04-09 | 上海电机学院 | 一种无线传感网络中的节点定位方法及系统 |
US8788439B2 (en) * | 2012-12-21 | 2014-07-22 | InsideSales.com, Inc. | Instance weighted learning machine learning model |
JP5997092B2 (ja) * | 2013-04-17 | 2016-09-28 | 日本電信電話株式会社 | ロボット協調搬送計画装置、方法及びプログラム |
US9286573B2 (en) | 2013-07-17 | 2016-03-15 | Xerox Corporation | Cost-aware non-stationary online learning |
US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
JP6230052B2 (ja) * | 2013-10-11 | 2017-11-15 | 株式会社オーディオテクニカ | エレクトレットコンデンサマイクロホン |
JP2015089801A (ja) * | 2013-11-07 | 2015-05-11 | 株式会社デンソー | 運転制御装置 |
EP3204888A4 (en) * | 2014-10-09 | 2017-10-04 | Microsoft Technology Licensing, LLC | Spatial pyramid pooling networks for image processing |
CN104794359B (zh) | 2015-04-29 | 2017-12-15 | 电子科技大学 | 一种迭代步长可变的多步q学习自适应方法 |
-
2016
- 2016-09-09 EP EP16770150.7A patent/EP3295384B1/en active Active
- 2016-09-09 KR KR1020177036754A patent/KR102140672B1/ko active IP Right Grant
- 2016-09-09 WO PCT/US2016/051095 patent/WO2017044842A1/en active Application Filing
- 2016-09-09 JP JP2018504858A patent/JP7080811B2/ja active Active
- 2016-09-09 US US15/261,579 patent/US10733504B2/en active Active
- 2016-09-09 CN CN201680034778.1A patent/CN107851216B/zh active Active
-
2020
- 2020-08-03 US US16/983,921 patent/US11886992B2/en active Active
Non-Patent Citations (1)
Title |
---|
Volodymyr MNIH et al.,"Human-level control through deep reinforcement learning",NATURE,英国,Macmillan Publishers Limited,2015年2月26日,vol.518,pages:529-541,[令和4年3月16日検索],インターネット <URL:https://www.nature.com/articles/nature14236> |
Also Published As
Publication number | Publication date |
---|---|
US10733504B2 (en) | 2020-08-04 |
JP2018526733A (ja) | 2018-09-13 |
KR102140672B1 (ko) | 2020-08-03 |
US20170076201A1 (en) | 2017-03-16 |
EP3295384B1 (en) | 2020-12-23 |
US11886992B2 (en) | 2024-01-30 |
EP3295384A1 (en) | 2018-03-21 |
WO2017044842A1 (en) | 2017-03-16 |
US20200364569A1 (en) | 2020-11-19 |
CN107851216B (zh) | 2022-03-08 |
CN107851216A (zh) | 2018-03-27 |
KR20180010241A (ko) | 2018-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7080811B2 (ja) | 強化学習ニューラルネットワークのトレーニング | |
US11783182B2 (en) | Asynchronous deep reinforcement learning | |
US11803750B2 (en) | Continuous control with deep reinforcement learning | |
CN110383298A (zh) | 用于连续控制任务的数据高效强化学习 | |
JP6667674B2 (ja) | 疑似カウントを使用する強化学習 | |
KR20180091841A (ko) | 결투 심층 신경 네트워크 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190610 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190909 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200525 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20200821 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210421 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210421 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20210510 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210512 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210517 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20210730 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20210810 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20210906 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20211011 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20220322 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20220425 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20220425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220525 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7080811 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |