[go: up one dir, main page]

KR100446725B1 - 로봇의 행동 학습방법 - Google Patents

로봇의 행동 학습방법 Download PDF

Info

Publication number
KR100446725B1
KR100446725B1 KR10-2001-0068204A KR20010068204A KR100446725B1 KR 100446725 B1 KR100446725 B1 KR 100446725B1 KR 20010068204 A KR20010068204 A KR 20010068204A KR 100446725 B1 KR100446725 B1 KR 100446725B1
Authority
KR
South Korea
Prior art keywords
robot
frame
behavior
changed
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR10-2001-0068204A
Other languages
English (en)
Other versions
KR20030037103A (ko
Inventor
김남웅
장성준
임종락
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR10-2001-0068204A priority Critical patent/KR100446725B1/ko
Publication of KR20030037103A publication Critical patent/KR20030037103A/ko
Application granted granted Critical
Publication of KR100446725B1 publication Critical patent/KR100446725B1/ko
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 행동 학습방법에 관한 것으로, 로봇의 정지자세를 로봇이 가지고 있는 모든 관절의 현재 지시값을 프레임 정보로 정의한후,그 프레임 정보와 음성명령을 연결시켜 학습시키도록 한 것이다. 이를 위하여 본 발명은 입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과; 로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과; 사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과; 상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행한다.

Description

로봇의 행동 학습방법{BEHAVIOR LEARNING METHOD OF ROBOT}
본 발명은 로봇의 행동 학습방법에 관한 것으로, 특히 사용자가 로봇의 행동을 임의적으로 행동시키도록 한 로봇의 행동 학습방법에 관한 것이다.
일반적으로, 음성인식 기능이 구현된 서비스 로봇 및 애완로봇은 사용자의 음성명령을 지각하여 특정 행동(Behavior)을 수행한다.
상기 음성인식은, '화자독립 고립단어인식'(정해진 특정 단어들을 화자에 관계없이 인식)이나, '화자독립 핵심어인식'(특정 단어들을 문장내에서 인식)을 채용한다.
따라서, 상기 음성인식 기능이 구현된 로봇들은, 사용자가 말한 특정단어를 인식하여, 이 특정단어와 연결된 행동(Behavior)을 수행함으로써, 사용자에게 로봇의 지능(Intelligence)을 느끼게 하는데, 상기 특정 단어와 특정 행동간의 연결은 로봇의 인공지능을 프로그래밍할때 부여된다.
종래에는,로봇에 새롭게 단어-행동 연결을 정의하기 위하여, 기작성된 프로그램에서 새로운 단어-행동 연결을 부가하고,행동을 정의하는 데이터를 새롭게 생성해야 하는데, 상기 데이터는 로봇을 동작시키도록 하는 각 관절의 각도를 시계열 (Time Series)로 서술한 동작정보(Motion Data)를 나타낸다.
상기와 같이, 프로그램 및 데이터 차원에서 로봇을 훈련시키거나 학습시키는 방법은 자연스럽지 못한 행동특성을 나타내는 문제점이 있다.
또한, 로봇을 훈련/학습시키기 위하여 화상인식을 통하여 사용자의 몸짓 (Gesture)등을 인식시키는 방법은, 고가의 장비를 이용해야함과 아울러 화상처리 시간이 오래 걸리는 문제점이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 사용자에 의해 입력된 음성에 대응된 움직임이 등록되어 있지 않으면, 행동학습모드로 전환한 다음, 사용자에 의해 자세가 변경된 로봇의 모든 관절의 지시값을 프레임 정보로 정의하여,그 프레임 정보를, 입력된 음성에 해당되는 동작정보로 생성하여, 음성에 대응되는 로봇의 행동을 학습시키도록 한 로봇의 행동 학습방법을 제공함에 그 목적이 있다.
도1은 본 발명 로봇의 행동 학습방법에 대한 동작흐름도.
도2는 본 발명 로봇의 행동학습방벙에 대한 실시예를 보인 개략도.
상기와 같은 목적을 달성하기 위한 본 발명은, 입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과; 로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과; 사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과; 상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행함을 특징으로 한다.
이하, 본 발명에 의한 로봇의 행동 학습방법에 대한 작용 및 효과를 첨부한도면을 참조하여 상세히 설명한다.
도1은 본 발명 로봇의 행동 학습방법에 대한 동작흐름도로서, 이에 도시한 바와같이 음성DB중 행동과 연관되지 않는 단어가 음성으로 인식되면 행동학습 모드로 전환하는 제1 과정(SP1,SP2)과; 사용자에 의해 변화된 자세를 상기 단어에 해당되는 동작정보로 생성하여 학습시킨후(SP3~SP6), 자율 모드로 복귀하는 제2 과정으로 이루어진다.
상기 제1 과정은, 행동과 연관되지 않는 단어가 음성으로 인식되면, 현재 동작을 정지하는 제1 단계와; 상기 동작이 정지된 자세를 초기 프레임으로 기록하는 제2 단계를 포함한다.
상기 제2 과정은, 일정시간 이내에 사용자가 로봇에 변화를 주었는지를 판단하는 제1 단계와; 상기 제1 단계의 판단결과, 사용자가 로봇에 변화를 주면 그 변화된 자세를 말기 프레임으로 기록한후, 자율모드로 복귀하는 제2 단계로 이루어지며, 이와 같은 본 발명의 동작을 설명한다.
음성인식 기능을 가진 로봇은, 필수적으로 단어DB를 가지고 있는데, 이 단어DB는 특정의 행동과 연결되어 사용자의 음성중 단어 DB에 등록되어 있는 단어를 인식하면 그 단어와 연결된 행동을 수행한다.
본 발명의 행동학습방법을 구현하기 위해, 로봇은 자율모드로 동작하다가, 음성DB중 행동과 연관되지 않는 단어가 음성으로 인식되면, 즉 사용자에 의해 입력된 음성이, 음성DB에 등록되어 있으나 단어DB에는 등록되어 있지 않으면 행동학습 모드로 전환하는데(SP1,SP2), 즉 행동과 연관되지 않는 단어가 음성으로 인식되면 현재 동작을 정지한후, 그 정지된 자세를 초기 프레임으로 기록한다.
상기 프레임은, 로봇의 정지자세를 나타낼 수 있는 모든 관절의 현재 지시값으로 이루어지는데, 회전관절의 경우는 각도를 지시값으로 이용하고, 직동관절의 경우는 변위를 지시값으로 이용한다.
상기 행동학습모드로 전환된 다음, 일정시간 이내에, 사용자에 의해 로봇의 자세에 변화를 주지 않으면 자율모드로 복귀하고(SP3,SP4), 일정시간 이내에 사용자에 의해 로봇의 자세가 변화되어 일정 시간 이상 유지되면 그 변화된 자세를 말기 프레임으로 기록한다(SP3~SP6).
즉, 일정시간 이내에서 사용자로부터 아무런 입력이 없으면 로봇은 자율모드로 복귀하고, 사용자가 새로운 동작을 로봇에게 학습시키기 위하여 로봇의 관절각도나 변위의 변화를 가한후, 그 변화된 자세로 일정시간 유지되면 말기프레임으로 기록한다.
그 다음, 동작정보를 상기 초기 프레임과 말기 프레임을 보간하여 시계열 (Time Series)로 생성한후, 자율모드로 복귀한다.
이때, 상기 행동과 연관되지 않는 단어를 상기 동작정보와 연결시켜 단어DB에 저장하고, 음성DB는, 로봇의 행동 학습 수행을 위해, 소정부분이 의도적으로 행동과 연결되지 않도록 이루어진다.
보다 상세하게, 도2의 실시예를 참조하여 설명하면, 이 실시예는 로봇의 음성DB중 행동과 연결되어 있지 않은 '애플'이라는 명령어를 인식했을 때, 손을 들어 올리는 동작을 수행하도록 한 것이다.
우선, 자율모드로 있던 로봇에, 사용자가 '애플'이라는 음성으로 명령할 경우, 로봇은 상기 '애플'이라는 음성이 음성DB에 있으나 행동으로 연결되어 있지 않으면 자율모드에서 행동학습모드로 전환하고, 현재 자세를 초기 프레임으로 기록한다.
이후,사용자가, 도2에서와 같이 로봇의 왼팔을 들어 올려준후, 그 왼팔이 올려진 상태로 일정시간(T) 이상 관절각에 변화가 없으면, 더 이상 사용자의 입력이 없을 것으로 판단하여, 현재 자세를 말기 프레임으로 기록하고, 상기 초기 프레임과 말기프레임을 시계열로 작성하여 동작정보를 작성한후, 그 동작정보를 단어와 연결시켜 저장한다.
이에 따라, 로봇은 자율모드에서 '애플'이라는 단어를 인식하면 손을 드는 동작을 수행하게 된다.
상기 발명의 상세한 설명에서 행해진 구체적인 실시 양태 또는 실시예는 어디까지나 본 발명의 기술 내용을 명확하게 하기 위한 것으로 이러한 구체적 실시예에 한정해서 협의로 해석해서는 안되며, 본 발명의 정신과 다음에 기재된 특허 청구의 범위내에서 여러가지 변경 실시가 가능한 것이다.
이상에서 상세히 설명한 바와같이 본 발명은, 사용자에 의해 입력된 음성에 대응되는 움직임이 등록되어 있지 않으면, 행동학습모드로 전환한 다음, 사용자에 의해 자세가 변경된 로봇의 모든 관절의 지시값을 프레임 정보로 정의하여,그 프레임 정보를, 입력된 음성에 해당되는 동작정보로 생성함으로서, 음성에 대응되는 로봇의 자연스러운 움직임을 구현하도록 로봇을 학습시키는 효과가 있다.

Claims (10)

  1. 입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과;
    로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과;
    사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과;
    상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행함을 특징으로 하는 로롯의 행동학습방법.
  2. 삭제
  3. 삭제
  4. 제1 항에 있어서, 회전관절의 지시값은, 각도인 것을 특징으로 하는 로봇의 행동 학습방법.
  5. 제1 항에 있어서, 직동관절의 지시값은, 변위인 것을 특징으로 하는 로봇의 행동 학습방법.
  6. 삭제
  7. 제1 항에 있어서, 말기 프레임은,
    사용자가 로봇의 자세에 변화를 준후 일정 시간동안 그 변화된 자세를 유지하면 자동적으로 인식하는 것을 특징으로 하는 로봇의 행동 학습방법.
  8. 삭제
  9. 삭제
  10. 삭제
KR10-2001-0068204A 2001-11-02 2001-11-02 로봇의 행동 학습방법 Expired - Fee Related KR100446725B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0068204A KR100446725B1 (ko) 2001-11-02 2001-11-02 로봇의 행동 학습방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0068204A KR100446725B1 (ko) 2001-11-02 2001-11-02 로봇의 행동 학습방법

Publications (2)

Publication Number Publication Date
KR20030037103A KR20030037103A (ko) 2003-05-12
KR100446725B1 true KR100446725B1 (ko) 2004-09-01

Family

ID=29567755

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0068204A Expired - Fee Related KR100446725B1 (ko) 2001-11-02 2001-11-02 로봇의 행동 학습방법

Country Status (1)

Country Link
KR (1) KR100446725B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100451159B1 (ko) * 2001-12-18 2004-10-02 엘지전자 주식회사 로봇의 동작편집장치 및 방법
KR20210108098A (ko) 2020-02-25 2021-09-02 삼성전자주식회사 전자 장치 및 그 제어 방법
CN114239850A (zh) * 2021-12-08 2022-03-25 新国脉文旅科技有限公司 一种基于ai智能识别的用户行为自学习方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175132A (ja) * 1997-12-15 1999-07-02 Omron Corp ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体
KR20000012347A (ko) * 1999-11-29 2000-03-06 이우열 학습 기능을 갖는 음성 인식 완구 시스템 및 이의 제어 방법
JP2000158367A (ja) * 1998-11-30 2000-06-13 Sony Corp ロボット装置及びその制御方法
JP2001157976A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
KR200228170Y1 (ko) * 2001-02-07 2001-06-15 제너시스정보통신주식회사 음성인식 기능을 갖는 로봇 제어장치
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
WO2001072478A1 (fr) * 2000-03-31 2001-10-04 Sony Corporation Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175132A (ja) * 1997-12-15 1999-07-02 Omron Corp ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体
JP2000158367A (ja) * 1998-11-30 2000-06-13 Sony Corp ロボット装置及びその制御方法
KR20000012347A (ko) * 1999-11-29 2000-03-06 이우열 학습 기능을 갖는 음성 인식 완구 시스템 및 이의 제어 방법
JP2001157976A (ja) * 1999-11-30 2001-06-12 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
WO2001072478A1 (fr) * 2000-03-31 2001-10-04 Sony Corporation Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure
KR200228170Y1 (ko) * 2001-02-07 2001-06-15 제너시스정보통신주식회사 음성인식 기능을 갖는 로봇 제어장치

Also Published As

Publication number Publication date
KR20030037103A (ko) 2003-05-12

Similar Documents

Publication Publication Date Title
US5577164A (en) Incorrect voice command recognition prevention and recovery processing method and apparatus
US20200282555A1 (en) Method and device for robot interactions
JP7490145B2 (ja) 音声信号のメタデータを生成するためのシステムおよび方法
KR101119030B1 (ko) 지능형 로봇 장치의 서비스 시나리오 편집 방법, 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체, 지능형 로봇 장치 및 지능형 로봇의 서비스 방법
JP2009066692A (ja) 軌道探索装置
CN112631128A (zh) 一种多模异构信息融合的机器人装配技能学习方法及系统
US20240288870A1 (en) Method and System for Generating a Sequence of Actions for Controlling a Robot
Kibria Speech recognition for robotic control
US7974938B2 (en) Reluctant episodic memory (REM) to store experiences of everyday interaction with objects
KR100446725B1 (ko) 로봇의 행동 학습방법
Zhang et al. A two-arm situated artificial communicator for human-robot cooperative assembly
JP2023018893A (ja) 学習装置及びロボット制御システム
Lison et al. Salience-driven contextual priming of speech recognition for human-robot interaction
KR100836739B1 (ko) 로봇 디바이스 논리적-물리적 연결의 맵핑 장치 및 방법
US20070078563A1 (en) Interactive system and method for controlling an interactive system
Fernández et al. Speech interface for controlling an hi-fi audio system based on a bayesian belief networks approach for dialog modeling
KR100429975B1 (ko) 로봇의 행동학습 강화방법
EP0903727A1 (en) A system and method for automatic speech recognition
JP4572080B2 (ja) ロボット、または、ロボットにおける行動の更新方法、並びに、ロボットにおける行動の更新を制御するプログラム
KR100434065B1 (ko) 로봇의 음성인식방법
KR100429976B1 (ko) 로봇의 행동학습방법
WO2024176673A1 (ja) プログラム、情報処理方法、情報処理装置、及びロボット
CN117532607A (zh) 模型的调整方法、装置、电子设备和可读存储介质
US20230342642A1 (en) System and method for managing a user-controllable device
Gorostiza et al. Teaching sequences to a social robot by voice interaction

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

N231 Notification of change of applicant
PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20070824

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20070824

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R13-asn-PN2301

St.27 status event code: A-5-5-R10-R11-asn-PN2301

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000