KR101369810B1 - Empirical Context Aware Computing Method For Robot - Google Patents
Empirical Context Aware Computing Method For Robot Download PDFInfo
- Publication number
- KR101369810B1 KR101369810B1 KR1020100032792A KR20100032792A KR101369810B1 KR 101369810 B1 KR101369810 B1 KR 101369810B1 KR 1020100032792 A KR1020100032792 A KR 1020100032792A KR 20100032792 A KR20100032792 A KR 20100032792A KR 101369810 B1 KR101369810 B1 KR 101369810B1
- Authority
- KR
- South Korea
- Prior art keywords
- situation
- empirical
- model
- interaction
- empirical model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Mechanical Engineering (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
Abstract
본 발명은 로봇을 위한 경험적 상황인식 방법에 관한 것으로, 로봇의 인간 또는 로봇과 같은 주체와의 상호작용을 발생시키고 변화시키는 요인으로 인한 상황 및 그 상황에서 나타나는 상호작용의 경험적 사실을 고려하여 그것의 경험적 관계와 확률관계를 통해 상황에 대한 상호작용("상황: 상호작용")이라는 경험적 모델을 대상으로 하여 상황을 인지하고 미지의 환경이나 정보에 대해 스스로 경험을 통해서 적응하고 배워가는 학습의 능력을 수행하는 지능체계를 로봇에 구현하기 위한 기술적 방법을 제공함에 그 목적이 있다.
본 발명을 적용하면, 로봇이나 응용프로그램 및 다양한 시스템에 있어서 향상된 인공지능 업무처리 수행과 미지의 환경과 지식정보에 대해서 적응하고 알아가는 능력을 구현하기 위한 기술적 어려움을 최소화하고, 새로운 요구와 환경에 대해서도 활용성이 좋고 확장성이 우수하여 개발의 번거로움을 줄이고 복잡한 상황인식의 기술적 문제를 용이하게 해결할 수 있는 장점이 있다.The present invention relates to an empirical situation recognition method for a robot, in consideration of the empirical facts of a situation caused by a factor causing and changing the interaction of the robot with a human or a subject such as the robot and the interaction occurring in the situation. Empirical and probabilistic relations are used to empirical models of interactions on situations ("situation: interaction") to recognize the situation and to learn and adapt to the unknown environment or information through experience. The purpose is to provide a technical method for implementing the intelligent system to the robot.
By applying the present invention, it is possible to minimize technical difficulties in performing improved artificial intelligence processing in robots, applications and various systems, and to realize the ability to adapt and learn about unknown environments and knowledge information, and to meet new needs and environments. In addition, it has the advantage of being easy to use and excellent in scalability, reducing the development hassle and easily solving technical problems of complex situational awareness.
Description
본 발명은 로봇을 위한 경험적 상황인식 방법에 관한 것으로, 보다 상세하게는 로봇이 주어진 상황을 인식하여 인간이나 로봇과 같은 어떤 주체와의 상호작용을 수행하는데 있어서 그 상황과 상호작용의 경험적 사실을 고려하여 그것의 경험적 관계와 확률관계를 기반으로 상황을 인지하고 미지의 환경이나 정보에 대해 스스로 경험을 통해서 적응하고 배워가는 학습의 능력을 수행할 있도록 하는 인간의 지능적인 상호작용 능력과 같은 지능체계를 로봇에 구현 할 수 있기 위한 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체를 제공하는 것이다.The present invention relates to an empirical situation recognition method for a robot. More specifically, the robot recognizes a given situation and takes into account the empirical facts of the situation and interaction in performing an interaction with a subject such as a human or a robot. Based on its empirical and probabilistic relations, intelligent systems such as the human's intelligent interaction ability to recognize the situation and perform the ability of learning to adapt and learn through the experience on an unknown environment or information. The present invention provides a computer-readable recording medium having recorded thereon a program for executing a method for implementing on a robot.
로봇의 이상적인 지능은 스스로 판단하여 작동하는 능력이 되어야 할 것이다. 똑똑한 로봇이라면 모르는 환경에서도 스스로 적응하고 주어진 상황을 올바르게 인지하여 인간처럼 대화하고 느끼면서 상호작용을 수행 할 것이다. The robot's ideal intelligence should be its ability to judge and operate on its own. Smarter robots will adapt themselves and even interact with each other in a strange environment, recognizing the given situation and interacting and feeling like humans.
이러한 로봇의 상호작용 능력이 인간의 수준까지 이르기 위해서는 많은 기술적 어려움과 난제를 극복해야만 한다. 예컨대, 종래의 음성인식, 얼굴인식, 동작인식, 감정인식 등과 같은 HRI 기술과 무선네트워크 기술, 유비쿼터스(Ubiquitous)네트워크 시스템이 서로 융합되면서 로봇의 지능적 한계를 극복하고 있다. In order for these robots to reach human level, they must overcome many technical difficulties and difficulties. For example, HRI technology such as voice recognition, face recognition, motion recognition, emotion recognition, wireless network technology, and ubiquitous network system are fused to each other to overcome the intelligent limitations of the robot.
하지만 아직까지는 대부분이 단순한 명령이나 동작패턴 등의 수행에 지나지 않으며 개발과정이 복잡하고 일회적인 경우가 많다.However, until now, most of them are merely execution of simple commands or operation patterns, and the development process is often complicated and one-off.
이러한 종래 기술들은 로봇이 인식한 대상(정보 또는 데이터) 각각에 대하여 미리 저장된 데이터(지각인자)를 기초로 상호작용을 수행하기 때문에 실제 상황과 맞지 않는 상호작용을 수행할 가능성이높다. 즉, 인식한 대상 각각에 대응하여 상호작용을 결정하므로 하나의 상호작용을 결정하는 많은 요인간의 상관관계의 고려가 결여되어 현실과 부적합한 상호작용이 발생 할 수 있다. 따라서 가능한안 많은 경우를 설정해야 하고 새로운 요구와 환경에 대하여 활용이 제한적이고 프로그램을 추가로 작성해야 한다. 물론 이런 단점을 보완하기 위해 스스로 학습 가능하도록 하는 기술이 나오고 있지만 여전히 같은 방법의 선상에 있다는 점에서 근본적인 문제 해결을 할 수 없다.These conventional techniques are highly likely to perform interactions that do not match the actual situation because they perform interactions based on pre-stored data (perception factors) for each object (information or data) recognized by the robot. That is, since the interactions are determined in correspondence with each of the recognized objects, the correlation between many factors that determine one interaction may be lacking, which may result in inappropriate interactions with reality. Therefore, as many cases as possible should be set up, and the application should be limited and new programs should be developed for new demands and environments. Of course, there is a technology that allows self-learning to compensate for these shortcomings, but it cannot solve the fundamental problem in that it is still in the same way.
본 발명은 이러한 방법의 문제가 상황과 상호작용간의 경험적 사실에 대한 충분한 고려가 되지 않은 것에서 비롯된 것으로 보고 경험적 지식정보 이해를 기반으로 상황에 따른 상호작용을 판단하고 예측할 수 있게 하려 한다. 그러기 위해서 인간의 지능적인 상호작용 원리를 이해하고 그것을 바탕으로 구현 가능한 상황인식의 모델을 제시해야 된다. 예컨대, 인간의 지능적 상호작용은 단순히 동물적인 감각과 지각에 의해 수행되는 것이 아니라 오랜 시간동안의 체험이나 학습을 통한 경험적 지식정보 이해를 기반으로 이루어지기 때문에 가능한 것이다. The present invention considers that the problem of this method stems from the lack of sufficient consideration of the empirical facts between the situation and the interaction, and is intended to be able to determine and predict the interaction according to the situation based on the understanding of the empirical knowledge information. To do this, we need to understand the principle of human intelligent interaction and present a model of situational awareness that can be implemented based on it. For example, human intelligent interaction is possible because it is based on the understanding of empirical knowledge information through long time experience or learning, not simply by animal sense and perception.
즉 인간의 지식정보 활동의 99% 이상이 경험과 학습에 의해 이루어지며 그렇지 않은 것은 극히 일부분이다. 그렇다면 정보를 매개로 하는 인간과 로봇과 같은 주체의 상호작용에 있어서 경험과 학습에 의한 지식정보만을 취급해도 무관하다는 결론이 나온다. In other words, more than 99% of human knowledge and information activities are made by experience and learning. It is concluded that it is irrelevant to treat only knowledge information by experience and learning in the interaction of subjects such as humans and robots through information.
따라서 "인간과 주체의 상호작용에 대한 지능적 범위는 주체가 갖고 있는 경험적 지식정보 체계에만 의존한다"라는 상호작용 지능 합리성의 명제를 제시할 수 있다.(도1a참조) 예를 들어, A와B가 전화통화를 한다고 하자. A가 B에게 뭐하는지 물어보자 B는 회의 중이라고 말한다. A는 B가 회의 중이라고 알려 주자 조용한 목소리로 그럼 나중에 통화하자고 전화를 끊는다. 여기서 A가 B에게 물어보지 않고 B가 뭐 하는지는 알 수 없다. 물어보지 않고 알아야 할 만큼의 지능은 필요하지 않다는 것을 의미한다. A가 뭐하는 지를 물어보고 대답을 통해 그 상황에 맞게 대처한다는 것은 경험을 통해 필요한 지능을 얻었다는 것을 보여 준다. 즉, 물어보고 대답을 듣는 경험을 함으로써 필요한 지능을 얻었다는 것이다. 또한 그 상황에 맞게 대처하는 것 역시 과거의 경험에 의한 것이다. 이와 같은 실제 인간의 지능적 상호작용 원리는 도1b와 같은 의사모델(Pseudo Model)로 표현할 수 있다.Thus, the proposition of interactive intelligence rationality, "the intelligent range of human-subject interaction depends only on the empirical knowledge information system owned by the subject" (see Figure 1a), for example, A and B Suppose you have a phone call. Ask A what he is doing and say B is in a meeting. A announces that B is in a meeting and, in a quiet voice, hangs up to talk later. Here A does not ask B and does not know what B does. This means that you don't need as much intelligence as you need to know without asking. Asking what A is doing and responding to the situation by answering shows that the experience has gained the necessary intelligence. In other words, the experience of asking and listening to answers has given us the necessary intelligence. Also, coping with the situation is based on past experience. Such a real human intelligent interaction principle can be expressed as a pseudo model as shown in FIG.
본 발명은 위에서 본 바와 같은 실제의 인간의 지능적 상호작용 원리(도1b)를 로봇과 같은 인공지능에 적용하기 위해 경험화와 경험적 상황인식모델을 제시한다. 즉 도1b의 실제적인 인간의 지능적 상호작용 원리를 의사화해서 도1c와 같은 의사모델로하고 이를 해결하기 위한 경험화 모델(도1d)과 경험적 상황인식 모델(도1e)을 제시하는 것이다.The present invention proposes an empirical and empirical situational awareness model for applying the actual human intelligent interaction principle (FIG. 1b) as described above to an artificial intelligence such as a robot. In other words, the actual human intelligent interaction principle of FIG. 1B is made into a pseudo model as shown in FIG. 1C, and an empirical model (FIG. 1D) and an empirical situational awareness model (FIG. 1E) are proposed to solve this problem.
기본적으로 상호작용을 발생시키고 변화시키는 요인들 자체는 독립된 상황이 아니며 상황은 그 요인들의 집합체로서 상호작용에 대해서 일대일의 관계("상황: 상호작용")를 갖는다. 이로써 경험적 지식정보체계는 그러한 상황과 상호작용의 쌍으로 이루어진 경험적 모델들을 관리하며 입출력을 제어하는 인터페이스 역할을 제공하는데 이러한 경험적 지식정보 체계는 경험화를 통해서 스스로 계속 변화되고 갱신된다. 이는 경험적 지식정보 이해를 기반으로 경험적 상황인식의 방법을 해결할 수 있음을 시사한다. Basically, the factors that generate and change interactions themselves are not independent situations, and situations are collections of factors that have a one-to-one relationship to interactions ("situations: interactions"). As a result, the empirical knowledge information system manages the empirical models of such situations and interactions and provides an interface for controlling input and output. The empirical knowledge information system is continuously changed and updated through empiricalization. This suggests that the empirical situation recognition method can be solved based on the understanding of empirical knowledge information.
이와 같이, 본 발명의 목적은 경험적 상황인식과 경험화의 모델을 구현하는 기술적 방법을 제공함으로써 로봇의 지능적 한계를 극복하기 위한 경험적 지능체계를 구현할 수 있도록 한다.As described above, an object of the present invention is to provide an empirical intelligent system for overcoming the intelligent limitations of a robot by providing a technical method for implementing a model of empirical situational recognition and empiricalization.
상기한 바와 같이, 로봇의 지능적인 상호작용을 수행하기 위한 지능적 한계의 문제를 해결하기 위한 것이 본 발명의 목적인데, 이를 위해서는 로봇과 어떤 주체(인간 또는 로봇 등)간의 상호작용을 발생시키고 변화시키는 요인들로부터 상황요인과, 상황 그리고 상황에 대한 상호작용("상황: 상호작용")이라는 경험적 모델을 생성하고 그 모델들 간의 경험적 관계와 확률관계를 알아 낼 수 있는 상황법칙을 제시해야 하며, 이를 통해 주어진 상황에 적합한 상호작용을 결정할 수 있는 경험적 상황인식의 알고리즘을 제시해야 하며, 경험적 모델을 관리하고 그것의 입출력을 제어하는 C와 같은 컴퓨터 프로그램 기술로 구현이 가능한 특정한 인터페이스를 제공하여(후술되는 PAL 인터페이스 ) 경험적 지식정보의 변화에 따라 경험적 지식정보체계를 작성하고 수정할 수 있는 경험화의 구현모델을 제시해야 한다. As described above, it is an object of the present invention to solve the problem of the intelligent limit for performing the intelligent interaction of the robot, in order to generate and change the interaction between the robot and any subject (human or robot, etc.) Empirical models of situational factors, situations, and interactions ("situation: interactions") from factors should be created, and the situational law to identify the empirical and probabilistic relationships between the models should be presented. It is necessary to present an empirical context-aware algorithm that can determine the appropriate interaction for a given situation, and to provide a specific interface that can be implemented by computer program technology such as C that manages the empirical model and controls its input and output. PAL interface) Create an empirical knowledge information system according to the change of empirical knowledge information. An implementation model of empiricalization that can be modified should be presented.
본 발명은 크게 4단계로 구성되는데, 입력된 원시데이터로부터 상황의 경험적 모델을 생성하는 경험적 모델 생성단계와 제1알고리즘을 수행하는 단계와 제2알고리즘을 수행하는 단계와 상기 제1,제2알고리즘 수행 단계에서 미지의 상황이나 새로 추가된 상황에 대한 상호작용의 경험적 모델에 대한 경험화를 수행하는 단계로 이루어진다.The present invention is largely composed of four steps, the empirical model generation step of generating the empirical model of the situation from the input raw data, the step of performing the first algorithm, the step of performing the second algorithm and the first and second algorithm In the execution phase, the empirical modeling of the empirical model of interaction with unknown or newly added situations is performed.
상기 경험적 모델 생성단계는, 입력된 원시 데이터들의 경험적 모델을 생성하기 위한 정규화를 수행하는 제 11단계와; 정규화가 완료된 데이터들을 상황법칙 1,2,3에 기반해서 경험적 지식정보체계의 계층화를 거쳐 경험적 모델을 생성하는 제 12단계와; 제 12단계에서 새로 생성된 상황요인들의 경험적 모델들에서 상황법칙 3과 스칼라 변위(Scalar Displacement)의 대소 관계를 통해 마스터 상황요인을 획득하는 제 13단계와; 제 12단계의 상황요인들의 경험적 모델들에 대하여 상황법칙 1,2에 기반해서 상황의 경험적 모델을 생성하기 위한 정규화 과정을 수행하는 제 14단계와; 제 14단계에서 선택된 상황요인들의 경험적 모델들을 스칼라 변위로 구성하는 집합체인 상황의 원시모델을 생성하는 제 15단계와; 제 15단계의 상황요인들의 경험적 모델의 집합체인 상황의 원시모델을 통해 상황의 경험적 모델을 생성하는 제 16단계로 이루어진다.The empirical model generation step may include an eleventh step of performing normalization for generating an empirical model of input raw data; A twelfth step of generating the empirical model through the hierarchical empirical knowledge information system based on the
여기서, 상기 원시 데이터는 원 데이터와 메타 정보로 구분되어 전송된다. 또한 상기 12단계에서 계층화는 데이터의 종류와 수평, 수직적 관계에 의해 분류되는 작업을 기초로 이뤄지고 또한 PAL 인터페이스가 구축이 되고, 원시모델과 분류모델, 파생모델을 생성하는 것을 특징으로 한다.Here, the raw data is divided into original data and meta information and transmitted. In the 12th step, the hierarchization is performed based on the work classified by the type of data and the horizontal and vertical relationship, and the PAL interface is established, and the primitive model, the classification model, and the derivative model are generated.
상기 제1알고리즘은 인식하기 위한 상황의 경험적 모델을 입력 받는 제 17단계와; 제 17단계의 상황의 경험적 모델의 각 상황요인 원소에 대한 PAL 디스크라이버의 아이템 집합들의 교집합에서 제 17단계의 상황의 경험적 모델이 존재하고 그 원소 개수가 1이 되어 상황법칙 1을 만족하는 지의 여부를 판단하여 조건을 만족하는 모델을 제17단계의 상황의 경험적 모델에 대한 경험된 모델로 결정하는 제 18단계와; 제 18단계의 조건에서 상황법칙 1을 만족하지 않고 제 18단계에서 교집합의 원소가 1보다 큰 경우 상황법칙 5에 의해 각 상황의 원소(상황요인) 개수가 가장 적은 원소를 제 17단계의 경험된 모델로 간주하는 판단을 수행하는 제 19단계와; 제 19단계의 조건을 만족하지 않는다면 경험적 지식정보체계의 경험화된 모델들로부터 확률적 추론을 통해서 제 17단계의 경험된 모델을 획득하는 제 20단계와; 제 20단계에서 경험된 모델을 획득하지 못할 경우, 제 17단계의 상황의 경험적 모델을 경험된 모델로 선택하고 이 모델에 대한 경험화를 요청하도록 수행하는 제 21단계와; 알고리즘 전체에 걸쳐 제 17단계의 상황의 경험적 모델에 대한 경험된 모델을 획득하지 못 한 경우나 예외가 발생할 경우 경험화를 요청하는 제 22단계와; 지각회로의 경험화 연산부에 미지의 경험적 모델에 대한 경험화를 요청하는 제 23단계로 이루어진다.The first algorithm may include a seventeenth step of receiving an empirical model of a situation for recognizing; Whether the empirical model of the situation of the 17th stage exists and the number of elements is 1 and satisfies the
여기서 상기 제 11단계는 데이터들의 유효성을 검증하고, 문자열 기반의 정보 명세서가 부여되며, 고유 ID가 할당되는 고유화 등의 데이터 재정의가 이루어지고, 후행 단계의 계층화를 위한 데이터 분류 작업을 수행하는 것을 포함한다. 또한 상기 제 19단계에서, 경험화된 모델이 다중 선택이 된다면 제 17단계에 해당하는 상황의 경험적 모델의 마스터 상황요인(마스터 상황 요인이 존재할 때)에 대한 PAL 디스크라이버 아이템 집합의 원소에 속한 모델을 선택하거나 상황법칙3을 적용하여 상황요인의 스칼라 변위의 대소 관계를 우선으로 해서 결정하고, 상황의 후보 중에는 원소 개수가 적은 상황이 원소 개수가 많은 상황에 포함 되는 경우가 있으므로 상황법칙 5에 의해 원소 개수가 적은 것을 택하도록 하는 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법이 제공된다.In the eleventh step, the data is validated, a string-based information specification is given, data redefinition such as uniqueness assigned to a unique ID is performed, and data classification for later layering is performed. Include. In addition, in the nineteenth step, if the empirical model is multi-selected, the model belongs to the element of the PAL disc driver item set for the master situation factor (when the master situation factor exists) of the empirical model of the situation corresponding to the seventeenth step. By selecting or using Situational Law 3, the case relation of scalar displacement of situational factors is given priority.In the case of candidates, the situation where the number of elements is small is included in the situation where the number of elements is high. An empirical situation recognition method is provided for a robot, characterized in that the number of elements is chosen to be small.
상기 제2알고리즘은 인식할 상황의 경험적 모델을 입력 받는 제 24단계와; 경험적 지식정보체계의 PAL 디스크라이버와 경험적 확률 추론으로 제 24단계의 상황에 대한 상호작용의 경험적 모델을 획득하는 제 25단계와; 제 25단계에서 획득한 상호작용의 경험적 모델들 중에서 상황법칙 3과 마스터 상황요인을 고려하여 최우선의 경험적 모델 하나를 선택하는 제 26단계와; 제 25단계에서 상호작용의 경험적 모델을 획득하지 못할 경우 제 24단계에 해당하는 상황의 경험적 모델의 후보 모델들에 대한 상호작용의 경험적 모델을 획득하는 제 27단계와; 상황법칙 3,5와 마스터 상황요인을 고려하여 제 24단계의 해당 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 새로 생성하는 제 28단계와; 최종 선택된 상호작용의 경험적 모델의 실행시간 모델(Run Time Model) ACT를 생성하는 제 29단계와; 새롭게 생성된 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델에 대하여 상황에 대한 상호작용의 경험적 모델("상황: 상호작용")로 경험화를 요청하며, 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델을 얻지 못한 경우 제 24단계의 해당 상황을 미지의 상황으로 간주하고 경험화를 요청하는 제 30단계로 이루어진다.The second algorithm may include a twenty-fourth step of receiving an empirical model of a situation to be recognized; A twenty-fifth step of obtaining an empirical model of interaction with a situation of a twenty-fourth step by using a PAL disc driver of an empirical knowledge information system and empirical probability inference; A twenty sixth step of selecting one of the empirical models having the highest priority among the empirical models of interaction obtained in the twenty-five step in consideration of the situation rule 3 and the master situation factor; Obtaining a heuristic model of the interaction with respect to candidate models of the empirical model of the situation corresponding to the twenty-fourth step if the empirical model of the interaction is not acquired in the twenty-fifth step; A 28th step of newly generating an empirical model of interaction with the empirical model of the situation in
또한 미지의 상황이나 새로 추가된 상황에 대한 상호작용의 경험적 모델에 대한 경험화를 수행하는 단계는 상기 제1알고리즘과 제2알고리즘을 수행하는 단계에서 미지의 상황의 경험적 모델이나 새롭게 추가된 상황에 대한 상호작용("상황: 상호작용")의 경험적 모델을 입력 받는 제 31단계와; 상황법칙 1,2,3에 의한 제 31단계의 경험적 모델들의 경험적 지식정보체계의 계층화를 수행하는 제 32단계와; 상황법칙 1,2,3에 의한 경험적 모델간의 스칼라 변위를 조정하는 제 33단계와(바람직하게, 33단계에서는 경험적 모델의 경험치나 주체의 속성과 현시점의 상황 등이 고려 될 수도 있다.); 제 33단계의 경험적 모델들을 경험적 지식정보체계의 소속된 계층의 PAL 요소 그룹에 추가하는 제 34단계와; 상황법칙 1,2,3에 의한 제 34단계의 경험적 모델들의 상호관계에 대한 새로운 관계성을 정의할 필요성을 검토하는 제 35단계와; 제 34단계의 PAL요소들을 PAL 디스크라이버에 추가하는 제 36단계와; 제 34단계의 경험적 모델들 중에서 상황법칙 1,2,3에 의한 모델간의 새로운 관계를 정의할 모델들에 대한 PAL 디스크라이버를 작성하는 제 37단계로 이루어진다.In addition, the empirical model of the interaction of the unknown situation or the newly added situation may be embodied in the empirical model of the unknown situation or the newly added situation in the step of performing the first algorithm and the second algorithm. A thirty-first step of receiving an empirical model of interaction ("situation: interaction") for the user; A thirty-second step of performing hierarchization of the empirical knowledge information system of the thirty-first empirical models according to the
바람직하게, 상기 제 28단계는 상황법칙 3에 의해 제 24단계 상황의 상황요인들의 스칼라 변위로 그 작용의 우선순위를 판단하고 상황법칙 5에 의거해 우선순위가 낮은 상황요인을 제거하여 제 24단계 상황의 경험적 모델을 수정하는 과정이 포함되며, 최종적으로 수정된 제 24단계의 해당 상황의 경험적 모델의 계층관계를 고려하여 허용범위 안에 들어오는 상호작용의 경험적 모델을 생성하는 것을 특징으로 한다.Preferably, in
바람직하게, 상기 제 32단계는 경험적 상황인식의 계층화를 통해 원시모델, 분류모델, 파생모델로 계층화가 되어 있는 경험적 모델들에 경험치를 반영하여 다시 계층화를 수행하고 상기 경험치는 경험적 상황인식을 거치면서 얻어진 데이터들로 상황요인들의 작용빈도, 상황의 노출빈도, 상황에 대한 상호작용의 친밀도, 상호작용의 결과 등으로 이루어진 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법이 제공된다.Preferably, in the thirty-second step, the hierarchical empirical situation recognition is performed by applying the experience value to the empirical models stratified into the primitive model, the classification model, and the derivative model, and the experience value undergoes the empirical situation recognition. The empirical situation recognition method for the robot, which is composed of the frequency of action of the situation factors, the frequency of exposure of the situation, the intimacy of the interaction with the situation, and the result of the interaction, is provided.
바람직하게, 상기 제 35단계에서 모델간의 상호관계는 상황요인에 대한 상황, 상황에 대한 상호작용 등을 의미한다. 예를 들면 새로운 종류의 상황요인이 생성 됐다면 그것에 대한 상황의 새로운 PAL 디스크라이버를 작성해야 하는 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법이 제공된다.Preferably, in step 35, the interrelationship between the models refers to a situation about a situation factor, an interaction about a situation, and the like. For example, if a new kind of situational factor is created, an empirical situational awareness method for robots is provided that requires writing a new PAL disk driver for the situation.
본 발명에서 정의되고 해석되는 상황법칙 1은 동일 상황 공존 불가의 법칙(Equivalent Context Incompatible Law; ECIL)이며, 같은 상황은 동시에 다른 개체에 대해서 존재 할 수 없다는 법칙이다. 똑같은 상황이 두 개라면 그 상황요인도 두 개이어야 한다. 그러나 하나의 개체가 다른 상황으로 함께 존재 할 수는 없다. 개체는 유일하기 때문이다.
본 발명에서 정의되고 해석되는 상황법칙 2는 상황요인 대립 불가의 법칙 (Condition Confrontation Incompatible Law; CCIL)으로, 하나의 상황에서 대립적으로 공존 할 수는 없는 상황요인이 있다는 법칙이다. 예를 들면 같은 상호작용에 대하여 서로 다른 장소나 시간이 하나의 상황에 존재 할 수 없고, 조용한 도서관에서 전화를 하는 것은 맞지 않으므로 도서관과 전화하는 것은 대립하여 같은 상황에 공존 할 수 없다. The situation law 2 defined and interpreted in the present invention is a condition confrontation incompatible law (CCIL), which is a law that there is a situation factor that cannot be opposed to coexist in one situation. For example, different places or times for the same interaction cannot exist in one situation, and calling in a quiet library is not appropriate, so calling with the library can't coexist in the same situation.
본 발명에서 정의하는 상황법칙 3은 상황요인 작용 우선의 법칙(Condition Operation Precedence Law; COPL)이며, 최근에 발생한 상황요인이 상호작용에 우선적으로 작용한다는 법칙이다.(최근 상황요인 우선의 법칙) 상호작용의 화제(Attentional Topic)에 관련된 상황요인이 우선적으로 작용한다(상황요인 관계 우선의 법칙). 예를 들면 소란한 교실에 수업 선생이 들어오면 학생들은 조용히 하고 선생님에게 집중하여 소란했던 교실의 상호작용은 변화된다.The situation law 3 defined in the present invention is a Condition Operation Precedence Law (COPL), and a law in which recently occurring situation factors preferentially interact with each other. (Latest Situation Factor Priority Law) Situational factors related to the Attentional Topic act first (the rule of situational relation priority). For example, when a class teacher enters a noisy classroom, the interactions of the classroom, where students quietly and concentrate on the teacher, change.
본 발명에서 정의되고 해석되는 상황법칙 4는 상호작용 무차별 법칙(Interaction Indiscrimination Law; IIL)으로서, 대기상황(Idle Context)에서 발생할 수 있는 상호작용은 제한이 없다는 것이다. 즉, 대기상황에서 임의의 상호작용이 발생할 수 있다. 따라서 임의의 상호작용이 발생 할 수 있는 확률은 모든 상호작용에 대해서 같다. 예를 들면, 전화기에 어떤 사람의 전화가 걸려 올지 모르듯이 누구와의 대화도 없는 혼자 있는 사람에게 어떤 일이 발생 할 지는 아무도 모른 다. 이것은 대기상황에서 발생할 수 있는 상황요인 또한 무차별하다는 의미와도 상통한다. 이 법칙은 주체로 하여금 지능적인 상호작용을 시작하는 데 있어서 매우 유연한 지능적 범위를 제공해 준다.The situation law 4 defined and interpreted in the present invention is an interaction indiscrimination law (IL), and the interactions that can occur in an idle context are not limited. In other words, any interaction may occur in atmospheric conditions. Therefore, the probability that any interaction can occur is the same for all interactions. For example, no one knows what will happen to a single person who has no conversation with anyone, just as someone might get a phone call. This is in line with the fact that the situational factors that can occur in atmospheric conditions are also indiscriminate. This law provides the subject with a very flexible range of intelligence in initiating intelligent interactions.
본 발명에서 정의되고 해석되는 상황법칙 5는 상호작용 가시범위 축소의 법칙-상황요인 개수 비례법칙(Interaction Visibility Scope Restrict Law: IPNC)으로, 상황요인의 개수가 적을수록 그 상황에 대한 상호작용의 개수 역시 줄어들게 된다는 법칙이다. 즉, 상황요인의 개수가 적을수록 그 상황에 대해 발생할 수 있는 상호작용 개수가 줄어들어 상호작용 선택의 범위를 좁힐 수 있다. (Interaction in Proportion to Number of Condition)The situation law 5 defined and interpreted in the present invention is the Law of Interaction Visibility Shrinkage-Interaction Visibility Scope Restriction Law (IPNC). The smaller the number of situation factors, the more the number of interactions for the situation. It is also a law of shrinkage. That is, the smaller the number of situational factors, the smaller the number of interactions that can occur for the situation, thereby narrowing the range of interaction choices. (Interaction in Proportion to Number of Condition)
본 발명에 따른 경험적 상황인식 방법은 종래 로봇의 상호작용수행의 지능 능력을 더욱 향상시켜주며 로봇뿐만 아닌 응용프로그램이나 다양한 시스템에 적용하여 향상된 인공지능 업무처리 수행을 할 수 있도록 기술적 어려움을 해결할 수 있게 되는 효과가 있다. 또한, 본 발명의 경험적 상황인식의 경험적 지능체계는 스스로 미지의 환경과 지식정보에 대해서 적응하고 알아가는 능력을 구현하는 것으로 새로운 요구와 환경에 대해 활용성이 좋고 확장성이 우수하여 개발의 번거로움을 줄이고 복잡한 상황인식의 기술적 문제를 효율적으로 해결할 수 있는 효과가 있다.The empirical situation recognition method according to the present invention further improves the intelligence capability of the conventional robot's interaction performance and can solve the technical difficulties to perform the improved artificial intelligence work process by applying it to not only the robot but also to application programs or various systems. It is effective. In addition, the empirical intelligence system of the empirical situation recognition of the present invention implements the ability to adapt and learn about unknown environment and knowledge information by itself, and it is easy to use for new needs and environments and has excellent scalability. It can reduce the number of points and efficiently solve the technical problem of complex situational awareness.
도 1a는 인간의 경험에 대한 지능합리성을 설명하기 위한 개념도이고, 도 1b는 인간의 실제적인 지능적 상호작용 모델을 설명하기 위한 개념도이고, 도 1c는 본원 발명에서 도입된 ECA 지능적 상호작용 모델을 설명하기위한 개념도이고, 도 1d는 ECA경험화모델을 도 1e는 ECA경험적 상황인식 모델을 각 설명하기 위한 개념도이다.
도 2는 로봇을 위한 경험적 상황인식 방법을 구현한 ECA지각회로가 적용된 시스템 전체의 외부 모습으로 데이터 입출력 흐름에 따른 구성층간의 연계성을 보여주기 위해 예시한 도면이다
도 3은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 경험적 상황인식 과정의 상위흐름을 나타내는 흐름도,
도 4는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도 3의 경험적 모델의 계층화와 상황의 경험적 모델 생성 과정의 하위 흐름도
도 5는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도 4의 상황에 대한 경험된 모델을 획득하는 과정의 하위 흐름을 구현하는 알고리즘을 도시한 도면
도 6은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도2의 경험적 상황에 대한 경험적 상호작용 모델을 획득하는 과정의 하위 흐름을 구현하는 알고리즘을 도시한 도면,
도 7은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법이 구현되는 ECA 지각회로의 경험화 과정의 하위 흐름을 나타내는 도면,
도 8, 9, 10은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함되는 경험적 지식정보 체계를 구현하는 PAL인터페이스의 디스크라이버의 수행 상태를 예시한 도면이다Figure 1a is a conceptual diagram for explaining the intelligent rationality of the human experience, Figure 1b is a conceptual diagram for explaining the actual intelligent interaction model of human, Figure 1c illustrates the ECA intelligent interaction model introduced in the present invention 1D is an conceptual diagram for explaining an ECA empirical model, and FIG. 1E is a conceptual diagram for explaining each ECA empirical situational awareness model.
FIG. 2 is a diagram illustrating an external view of an entire system to which an ECA perception circuit is implemented, which embodies an empirical situation recognition method for a robot, to show connectivity between components according to data input / output flows.
3 is a flow chart showing an upper flow of the empirical situation recognition process included in the empirical situation recognition method for the robot according to the present invention;
FIG. 4 is a sub-flow diagram of the hierarchical empirical model of FIG. 3 included in the empirical situation recognition method for the robot and the empirical model generation of the situation.
5 is a diagram illustrating an algorithm for implementing a sub-flow of a process of obtaining an experienced model of the situation of FIG. 4 included in an empirical situation recognition method for a robot according to the present invention.
6 is a diagram illustrating an algorithm for implementing a sub-flow of a process of obtaining an empirical interaction model for the empirical situation of FIG. 2 included in the empirical situation recognition method for a robot according to the present invention;
7 is a view showing a sub-flow of the empirical process of the ECA perceptual circuit in which the empirical situation recognition method for the robot according to the present invention is implemented;
8, 9 and 10 are diagrams illustrating an execution state of a disk driver of a PAL interface that implements an empirical knowledge information system included in an empirical situation recognition method for a robot according to the present invention.
이하, 본 발명에 대해 도면을 참조하여 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.
본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 인간이 경험에 의해 지식정보 활동을 한다는 생태학적 근거에 착안하여, 인간의 상호작용 원리를 하나의 모델로 만들어 냄으로써 지능적인 상호작용을 효율적으로 구현하고 복잡한 상황인식 구현의 문제를 쉽게 해결 해 줄 수 있다. 또한 그렇게 구축된 모델은 인간의 지식정보 활동의 대사를 모방한 것이기 때문에 상호작용의 목적과 환경의 변화에도 추가적인 개발 과정이 대부분 필요하지 않은 스스로 경험을 통한 지능성장으로 유연하게 대응해 갈 수 있다.The Empirical Context Aware Computing Method (ECA) for the robot according to the present invention focuses on the ecological grounds that humans perform knowledge and information activities by experience, thereby creating a model of human interaction principle. Efficiently implement intelligent interactions and easily solve the problem of complex situational awareness. In addition, the model constructed in this way mimics the metabolism of human knowledge and information activities, so it can flexibly respond to intelligent growth through self-experience, which does not require most additional development process even if the purpose of interaction and environment change.
즉, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)이 적용된 로봇이나 시스템, 응용프로그램 등은 인간처럼 스스로 경험하고 지능체계를 성장시켜 감으로써 미지의 정보와 환경에 대해서도 적응해 갈 수 있다.In other words, robots, systems, and applications applied with the Empirical Context Aware Computing Method (ECA) for robots can adapt themselves to unknown information and environments by experiencing them like humans and growing intelligent systems. have.
이를 통해, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 기존의 HRI 기술에서 보여주는 단답형 기반의 명령문, 의문문과 같은 질의에서 주체(로봇 등)의 의견이나 관심 배려 또는 의도와 같은 고등적 의사표현의 대화 수행이 가능 하도록 상호작용의 지능을 향상시켜 준다.In this way, the Empirical Context Aware Computing Method (ECA) for robots can be used to express opinions, interests, or intentions of subjects (robots, etc.) in queries such as short answer-based statements and questions. Enhances the intelligence of interactions to enable conversation of higher expressions.
보다 상세하게, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 지능적인 상호작용 구현에 필요한 복합적 정보 분석 체계를 "상황에 대한 상호작용"이라는 경험적 이미지로 추상화 하고 주어진 상황요인들로부터 상호작용과, 상호작용을 결정하는 상황정보를 모델링 한다.More specifically, the Empirical Context Aware Computing Method (ECA) for robots abstracts the complex information analysis system required to implement intelligent interactions into an empirical image called "interaction on situation" and gives the context factors. Model interactions and context information to determine interactions.
따라서, 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 로봇의 지능적인 상호작용 구현과 AI 구현에 보다 향상된 솔루션이 될 수 있다.Therefore, the Empirical Context Aware Computing Method (ECA) for robots can be an improved solution for the robot's intelligent interaction and AI implementation.
본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)의 기술적 가치를 살펴본다.The technical value of the empirical contextual awareness method (ECA) for the robot according to the present invention will be described.
기존 로봇의 HRI 기술이 단순형 질의방식이라면, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 고등적 대화가 가능하다.
If the HRI technology of the existing robot is a simple query method, the empirical contextual awareness method (ECA) for the robot according to the present invention is capable of advanced conversation.
예시 1) 경험을 통해 상대방에 대해 적응된 표현과 취지를 인식한 상태에서의 대화Example 1) Dialogue with a Recognition of Adapted Expression and Intention to the Other Through Experience
- 단순형질의: 안녕하세요! (항상 일정한 패턴의 인사)-Simple: Hello! (Always a pattern of greetings)
- 본 발명의 방법이 적용되는 경우: 안녕하세요. 지난번에 부탁한 일은 잘 처리 되었습니다. 또는 안녕하세요. 진행하는 일은 잘 되고 있나요? 또는 안녕하세요. 지난 번 보다 건강이 좋아 진 것 같습니다
If the method of the invention applies: The last thing you asked for was well done. Or hello. How is it going? Or hello. I feel better than last time
예시 2) 경험에 의한 분석과 예측으로 의견이 반영되는 대화Example 2) A dialogue in which opinions are reflected by analysis and prediction based on experience
- 단순형질의:-Of simple type:
사용자: 이 근처에 가까운 한식집을 찾아줘? User: Can you find a Korean restaurant near you?
3시 방향으로 200m에 한식집이 있습니다 There is a Korean restaurant at 200m at 3 o'clock.
- 본 발명의 방법이 적용되는 경우: Where the method of the invention is applied:
사용자: 이 근처에 한식집이 있으면 점심 먹고 갈까? (고등적 대화) User: Would you like to have lunch if you have a Korean restaurant near here? (Higher conversation)
3시 방향으로 200m에 한식집이 있는데 맛이 없어 후회 한 적이 있습니다. There is a Korean restaurant at 200m at 3 o'clock, but I regret it because it has no taste.
3시 방향으로 200m에 한식집이 있지만 조금 더 가면 맛있는 집이 있는 데 There is a Korean restaurant at 200m at 3 o'clock, but if you go a little further,
그 곳으로 갈까요?
Should we go there?
사용자: 환율이 오르는데 A사 주식 팔아버릴까? User: Do you want to sell shares of Company A when the exchange rate rises?
- 단순형: 팔면 안됩니다 (좀더 다양한 표현을 위해서는 절차적 방법으로 복잡한 상황 분석 필요) -Simple: don't sell (more complex expressions require procedural analysis)
- 본 발명의 방법이 적용되는 경우: 환율이 오르지만 A사 주가는 다시 오를 -If the method of the present invention is applied: The exchange rate will rise but company A share price will rise again
것 같으니 기다려 보는 게 좋을 것 같습니다
I think it's better to wait
예시 3) 사용자의 라이프스타일, 성격, 기분에 적응한 고등적 대화Example 3) Higher conversations adapted to the user's lifestyle, personality and mood
- 단순형질의:-Of simple type:
사용자: 새 상품에 대한 고객 반응이 안 좋은데 해결 방법을 알려줘 User: I'm having a bad customer response for a new product
가격을 내리는 방법이 있습니다. 또는 광고 효과를 높이는 방법이 있습니 There is a way to lower the price. Or how to improve your advertising effectiveness.
다All
- 본 발명의 방법이 적용되는 경우: Where the method of the invention is applied:
사용자: 이번에 출시된 상품에 대한 고객들의 반응이 별로 안 좋아 (고등 적 대화) User: Poor customer response to this launch (high level conversation)
안타깝군요. 타사 A 제품의 영향이 커서 그런가요? I'm sorry. Is the impact of third-party A products so large?
어쩌죠. 이전 제품보다 가격대 품질이 떨어진 것 같습니다. 구 제품으로 기존 고객층의 유동을 방지 하는 게 좋을 것 같습니다
What should I do? It seems that the price range is lower than the previous one. It is better to prevent the flow of existing customer base with old products.
사용자: 오늘 많이 춥네. (고등적 대화) User: It's cold today. (Higher conversation)
감기 조심하세요. 영하 10도인데 내일은 조금 따뜻해진다고 하네요. Be careful of cold. It's minus 10 degrees, but it's going to be a little warmer tomorrow.
사용자: 오늘 5년 만에 만나는 친구와 약속이 있다(고등적 대화) User: I have an appointment with a friend I've met in five years today (advanced conversation)
좋겠어요. 만나서 제일 먼저 뭘 하고 싶으세요? It's good for you. What do you want to do first?
아 현국씨요. 정말 오랜 만에 보게 되는군요 Oh Hyun-kook. You will see it after a long time.
오늘 저녁 식사에 돈 좀 쓰시겠네요 Would you spend some money for dinner?
선물이라도 하나 준비하면 좋지 않을까요?
Wouldn't it be nice to have a present?
사용자: 1년 사귄 여자 친구와 헤어졌다(고등적 대화) User: parted with 1 year girlfriend (higher conversation)
슬픈 일이네요. 힘내세요. It's sad. cheer up.
왜 헤어졌어요? 좋은 분이였잖아요 Why did you break up? You were a good man.
며칠 전에도 즐겁게 시간 같이 보냈잖아요?
Did you enjoy your time a few days ago?
한편, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 미지의 환경을 스스로 경험하면서 적응해 가고 미지의 정보에 대해서도 학습을 통해 배워간다. On the other hand, the empirical contextual awareness method (ECA) for the robot according to the present invention adapts while experiencing an unknown environment by itself and learns about unknown information through learning.
예컨대, 대화로 업무지시를 알려주는 것만으로 가정용 홈서비스 로봇을 공공 건물 고객 안내용 서비스 로봇으로 쉽게 변경 할 수 있다. 또한 화재 방지 로봇을 수해 방지 로봇으로 전환 시켜 줄 수도 있다. 구체적인 예를 들면, For example, it is possible to easily change a home home service robot into a public building customer guide service robot simply by informing a work order through a conversation. It can also convert fire protection robots into flood protection robots. For example,
- 사람들이 대화하고 생활하는 모습을 경험하면서 어떤 상황에서 어떻게 행동한다는 것을 알아 간다. 피곤하면 일찍 자더라, 한 동안 아무 말이 없으면 기분이 안 좋다는 것 등을 경험적으로 알아 간다.-Get to know how people behave in certain situations while experiencing the way people talk and live. If you're tired, you'll sleep early, and you'll know that you'll feel bad if you don't speak for a while.
- 처음 보는 사람과 대화를 하면서 그 사람에 대한 프로필을 작성하고, 특성을 알아간다.-Talk with the first person you see, create a profile about them, and get to know their characteristics.
- 모르는 문장, 사물 등을 인간처럼 단순히 대화만으로 배운다.-Learn unknown sentences, things, etc. by simply talking like a human being.
이에 반해 단순지능형 로봇 경우에 미지 환경에 대한 정보를 알려주고 미지의 정보나 지식을 다시 알려 주도록 추가 개발이 필요하다.
On the other hand, in case of a simple intelligent robot, further development is needed to inform the unknown environment and to reinform the unknown information or knowledge.
이하, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)을 기술하기 위한 용어를 정의한다.Hereinafter, terms for describing an Empirical Context Aware Computing Method (ECA) for a robot according to the present invention will be defined.
1) 상황(Context)1) Context
개체(個體)가 존재하는 시점의 모든 현실적 또는 가상적 요소들의 집합체. 개체가 존재하는 시점은 반드시 현재일 필요는 없다. 이것은 과거 혹은 미래가 될 수도 있다. 가상적 요소는 실제로 존재하지 않는 상상 또는 관념 속의 이미지일 수 있다. 현실적 요소는 시간, 공간, 물질의 상태, 인물, 동물, 사물, 사건 등 그 외 모든 시각적, 청각적, 후각적, 의사적, 감성적 등 인간이 느끼고 인식하는 모든 대상들이다.The collection of all real or imaginary elements at the time the entity exists. The point at which the entity exists does not necessarily need to be current. This may be the past or the future. The virtual element may be an image in an imagination or notion that does not actually exist. Realistic elements are all the objects that humans feel and perceive, such as time, space, state of matter, figures, animals, objects, events, and all other visual, audio, olfactory, doctoral, and emotional things.
2) 상황요인(Condition): 상황을 형성하고 있는 요소.2) Condition: An element that forms a situation.
3) 상호작용(相互作用, Interaction)3) Interaction
둘 이상의 개체들이 어떤 정보를 매개로 서로 간에 변화를 일으키는 행위(개체의 상태변화, 행위자의 ACT 등). 하나의 개체로부터 발생된 변화를 일으키는 행위는 상호작용이 아니며 단지 그 상황의 변화이다.The act by which two or more entities make changes to each other through some information (such as changes in the state of an entity or the actor's ACT). The act of causing a change from an individual is not an interaction, only a change in the situation.
이때, 개체란 반드시 ACT를 수행하는 행위자일 필요는 없다. 주변 환경의 변화에 따라 반응하는 개체가 있다면 이것 역시 환경과 반응 개체간의 상호작용이다.In this case, the entity does not necessarily need to be an actor performing an ACT. If there is an entity that responds to changes in the environment, it is also an interaction between the environment and the reacting entity.
4) 주체(主體):상호작용을 수행하는 개체(個體).4) Subject: The entity that performs the interaction.
5) 행위자(Actor): ACT를 수행하는 주체(主體).5) Actor: A subject that performs an ACT.
6) 대기상황(Idle Context): 상호작용이 발생하지 않은 상황.6) Idle Context: A situation where no interaction occurs.
7) 제로상황(Nothing Context): 어떠한 상황요인도 존재하지 않는 상황.7) Nothing Context: A situation in which no context factor exists.
8) 마스터 상황요인(Master Condition): 상황요인 중에서 상호작용이 되는 상황요인 또는 상호작용에 가장 밀접하게 영향을 미치는 상황요인.8) Master Condition: The situation factor that interacts with the situation or the situation factor that most closely affects the interaction.
9) 경험(Experience)9) Experience
경험의 사전적 의미를 포함해서 주체가 어떠한 사실(事實)을 겪어 가면서 정보나 지식을 알아가는 능력.The ability of a subject to know information or knowledge as he or she undergoes certain facts, including the dictionary meaning of experience.
10) 학습(Learning)10) Learning
사전적 의미를 포함해서 정보나 지식을 이해하고 습득해 가는 경험의 한 방법이다. 즉, 학습은 경험의 부분 집합이라 할 수 있다.It is a way of understanding and acquiring information or knowledge, including dictionary meanings. In other words, learning is a subset of experience.
11) 경험화(Self Empirical Learned): 주체가 어떠한 정보나 지식을 경험적으로 이해하고 습득해 가는 과정.Self Empirical Learned: The process by which a subject empirically understands and acquires some information or knowledge.
12) ACT12) ACT
주체가 한 번에 수행할 수 있는 행위로써 행위자의 상호작용 기본 단위가 된다. 실제 구현에서는 상호작용의 실행시간 모델(Run Time Model)을 의미한다. 예) 말(Speech),문자(Character),동작(Movement),명령처리(Command Operation)It is an action that a subject can perform at one time and becomes the basic unit of interaction of the actor. In the actual implementation, it means the run time model of the interaction. Example) Speech, Character, Movement, Command Operation
13) PAL(Perceptual Algebra League: 지각 수리 인터페이스)13) Perceptual Algebra League (PAL)
ECA에서 경험적 지식정보체계를 구현하기 위해 만든 인터페이스로써, 상황요인, 상황, 상호작용, 주체의 감정, 이성적 특성, 개체들 간의 계층관계 등을 대수학적 모델링을 통해서 수학적 해석과 접근이 용이하도록 정의한 인터페이스. 프로그램 개발 언어(예,C/C++,Java)로 구현한다.An interface created to empirical empirical knowledge information system in ECA. Interface that defines situational factors, situations, interactions, subject's emotions, rational characteristics, and hierarchical relationships among entities through algebraic modeling for easy mathematical interpretation and access . Implement in program development language (eg C / C ++, Java).
PAL 요소는 대수학적 대소 관계를 판별할 수 있는 수치로 정의한 코드 값을 갖는다.The PAL element has a code value defined as a numerical value that can determine the algebraic magnitude case.
14) PAL 디스크라이버(Describer)14) PAL Describer
PAL 내부에 있는 정의역과 치역으로 구분된 두 개의 PAL 요소 그룹의 관계를 표현한 인터페이스. 정의역과 치역의 관계는 대부분 확률 분포로 나타나지만 경우에 따라서는 함수관계로 구현 될 수도 있다.An interface that represents the relationship between two PAL element groups, divided into domains and ranges within a PAL. The relationship between domain and range is mostly represented by probability distribution, but in some cases, it can be implemented as a functional relationship.
15) 경험적 지능체계와 경험적 지식정보 체계15) empirical intelligence system and empirical knowledge information system
경험적 지능체계는 경험적 상황인식과 경험화 연산을 통해서 구현한 하나의 지능체계를 의미하며 경험적 지식정보 체계라 함은 경험적 지능체계에서 다루는 경험적 모델들을 보관하고 관리하며 입출력을 제어하는 하나의 인터페이스이다.
The empirical intelligence system refers to an intelligent system implemented through empirical situation recognition and empirical operation. The empirical knowledge information system is an interface that stores and manages the empirical models handled by the empirical intelligence system and controls the input / output.
본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)의 주요 특성을 살펴본다.The main characteristics of the Empirical Context Aware Computing Method (ECA) for the robot according to the present invention will be described.
첫 번째 특징은 상호작용에 영향을 주는 각각의 요인을 상황으로 보지 않고 경험적 모델이 되는 요소 전체를 하나의 상황으로 보고 "상황에 대한 상호작용"이라는 이미지로 추상화하여 ESGI 모델을 구현한다.The first feature implements the ESGI model by not looking at each factor that affects interaction as a situation but by looking at the whole empirical model as a situation and abstracting it as an image of "interaction with situation".
두 번째 특징은 상황과 상황요인의 관계 및 상황에 적합한 상호작용을 경험적 확률로 결정하거나 예측하는 특징이다.The second feature is the empirical probability of determining or predicting the relationship between the situation and the situation factors and the interactions appropriate to the situation.
세 번째 특징은 PAL 인터페이스를 통해 주체의 경험적 지식정보체계를 매우 유연하게 관리할 수 있는 특징이다.The third feature is the flexibility to manage the subjective empirical knowledge information system through the PAL interface.
네 번째 특징은 주체가 모르는 정보나 지식에 대하여 스스로 경험하면서 이해하고 습득하게 하는 특징이다.(경험화)The fourth feature is to make the subject understand and acquire information or knowledge that the subject does not know.
다섯 번째 특징은 ESGI 모델을 통해서 주체의 상호작용 지능이 자가 성장되게 하는 특징이다.The fifth feature is the self-growth of the subject's interactive intelligence through the ESGI model.
이러한, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)은 전술하였듯이 본 발명에서 정의된 상황 5대 법칙을 근간으로 이루어진다.As described above, the empirical situation awareness method (ECA) for the robot according to the present invention is based on the five rules of the situation defined in the present invention.
이하, 본 발명에 따른 로봇을 위한 경험적 상황인식 방법(Empirical Context Aware Computing Method: ECA)의 기술적 구현을 우선 개략적으로 살펴본다.
Hereinafter, the technical implementation of the Empirical Context Aware Computing Method (ECA) for a robot according to the present invention will be described first.
1. 지각회로의 경험적 상황인식(ECA)1. Empirical situational awareness of perceptual circuits (ECA)
Step1. 지각회로는 음성인식, 얼굴인식, 감정인식, 동작인식 등의 원시 HRI 결과나 센서데이터 또는 GPS나 웹과 같은 다양한 정보로부터 상황요인, 상황, 상호작용의 경험적 모델을 생성하고 경험적 지식정보체계의 PAL디스크라이버와 경험적 확률 방법으로 상황에 대한 상호작용을 결정하여 상호작용의 실행시간 모델 ACT를 생성한다.Step1. Perceptual circuit generates empirical models of situation factors, situations, and interactions from raw HRI results such as voice recognition, face recognition, emotion recognition, motion recognition, sensor data, or various information such as GPS or web, and the PAL of empirical knowledge information system. The interaction between the discriber and the empirical probabilistic method is used to determine the interactions for the situation, thus generating the runtime model ACT of the interactions.
Step2. 외부 대화시스템에 생성된 ACT의 실행을 요청한다.Step2. Request the execution of the created ACT in the external dialog system.
Step3. 경험하지 않은 미지의 상황을 경험화 연산부에 경험적 학습을 요청한다.Step3. Request empirical learning from the empirical computing unit for an unknown situation that has not been experienced.
2. 지각회로의 경험화 (SEL)2. Experience in Perceptual Circuits (SEL)
경험하지 않은 미지의 상황에 대한 경험적 모델을 경험적 지식정보체계에 적용한다.
Empirical models of unknown situations that are not experienced are applied to the empirical knowledge information system.
Step1. 미지의 경험적 모델의 계층화. 여기서는 경험적 모델의 원시모델, 분류모델, 파생모델을 분류하고 생성하는 과정이 포함된다.Step1. Layering of the unknown empirical model. This involves classifying and creating primitive models, classification models, and derived models of empirical models.
상기 원시모델은 모델의 본래의 속성을 잃지 않은 상태의 모델이다.The primitive model is a model in which the original properties of the model are not lost.
상기 분류모델은 모델의 수평, 수직적 계층관계에 의해 분류되는 모델이다.The classification model is a model classified by the horizontal and vertical hierarchical relationship of the model.
상기 파생모델은 분류모델에서 예측하여 얻어지는 확장 가능한 모델이다.
The derived model is an extensible model obtained by predicting from a classification model.
Step2. 미지의 경험적 모델로부터 PAL 인터페이스를 생성한다.Step2. Create a PAL interface from an unknown empirical model.
여기에는 PAL 요소를 생성하고 PAL 디스크라이버를 재 작성하여 PAL Training Samples 을 생성하는 과정이 포함된다. 이 과정에서는 PAL 요소간의 스칼라 변위(Scalar Displacement)가 변경이 되며 PAL 요소간의 새로운 관계성을 정의한 PAL 디스크라이버가 추가로 작성 될 수 있다.
This involves creating PAL elements and rewriting the PAL disk driver to generate PAL Training Samples. In this process, the scalar displacement between PAL elements is changed, and a PAL disk driver defining a new relationship between PAL elements can be additionally created.
이하, 도면을 참조하여 본 발명에 따른 로봇을 위한 경험적 상황인식 방법을 구체적으로 설명한다.Hereinafter, an empirical situation recognition method for a robot according to the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법을 구현한 ECA지각회로가 적용된 시스템 전체의 외부 흐름을 도시한 블록도이다. 이를 참조하면, 동 도면은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법이 구현되는 ECA 지각회로가 적용된 시스템에서 구성층간의 입출력(I/O) 흐름에 따른 연산수행의 연계성을 나타낸다.Figure 2 is a block diagram showing the external flow of the entire system to which the ECA perception circuit implementing the empirical situation recognition method for the robot according to the present invention. Referring to this, the figure shows the linkage of computational performance according to the flow of input / output (I / O) between components in a system to which an ECA perceptual circuit is implemented in which an empirical situation recognition method for a robot according to the present invention is implemented.
참조부호 ①은 상황요인의 원시 데이터를 보내주는 원시데이터 출력층(레이어)이다. 여기에는 기존의 HRI 솔루션(음성, 영상 입력 솔루션)이나 장치, 네트워크 시스템 등으로부터 반환되는 데이터들로 입력센서 데이터, HRI 데이터, GPS, 인터넷 정보 등 다양한 장치나 소프트웨어를 통해서 보내 줄 수 있다. 원시데이터 형식은 그것을 보내주는 구성층(레이어)에 따라 상이하지만 미디어 원래의 데이터와 메타정보로 크게 나누어 보내져야 한다.
예를 들면, 음성인식(SR) HRI 솔루션인 경우 문자열 형식의 단어나 문장이 입력되며 음성이해(SLU) 프로세싱이 가능 할 경우는 체계화된 데이터 형식(예,XML)으로 입력 될 수 있다. 영상인식 처리 경우는 인식된 영상 미디어 데이터와 그것에 대한 메타정보가 된다.For example, in the case of the SR HRI solution, a word or sentence in the form of a string is input, and in case of the SLU processing, the input may be in a structured data format (eg, XML). In the case of the image recognition process, it becomes the recognized image media data and meta information about it.
이미지나, 소리 같은 데이터들도 미디어 원래 데이터와 그것을 설명하는 메타정보가 된다. 미디어 원 데이터는 참조 가능하게 처리 된다. 이렇게 입력된 원시 데이터는 ECA 지각회로에서 처리하는 데이터 형식으로 재정의 되면서 문자열 기반의 그것에 대한 정보 명세서가 부가 된다.Data such as images and sounds also become media original data and meta information describing it. Media raw data is processed for reference. The input raw data is redefined as a data format processed by the ECA perceptual circuit, and an information specification about the string-based information is added.
참조부호 ②는 참조부호 ①에서 보내준 원시데이터를 종류별로 분류한 상황요인 데이터(음성데이터, 이미지 데이터 등)이고, ②'는 음성이해 연산층(SLU)으로써 ①의 음성인식(SR)층에서 반환된 Words를 이해하여 Known Words를 반환시켜 준다. 이것은 선택적이다. 이렇게 생성된 결과데이터는ECA의 경험적 상황인식 연산회로부(14)로 입력된다.Reference numeral ② is situation factor data (voice data, image data, etc.) classified by the type of raw data sent by
참조부호 ③은 ECA 상황인식 처리단계에서 사용될 경험화된 경험적 지식정보체계의 모델 데이터들이다. 이 데이터들은 PAL인터페이스에 의해 관리되고, 경험화(SEL) 단계에서 변화되고 갱신이 된다. 데이터는 상황과 상호작용, 상황과 상황요인 등 경험적 지식정보체계에서 다뤄질 대상이 되는 정보들의 경험적 모델들이다. 이것은 PAL 인터페이스를 통해서 입출력이 이루어진다.Reference numeral ③ is model data of the empirical empirical knowledge information system to be used in the ECA situational awareness processing stage. These data are managed by the PAL interface and are changed and updated in the empirical phase (SEL). Data are empirical models of information that are to be addressed in an empirical knowledge information system, such as situations and interactions, situations and situational factors. This is done through the PAL interface.
참조부호 ④는 ECA의 경험적 상황인식을 연산하는 (경험적 상황인식) 연산회로부이다. 상황요인 데이터들을 정규화 하여 상황에 대한 상호작용이라는 경험적 지식정보 모델을 생성한다. 생성된 경험적 모델은 ECA 상황법칙에 준하여 경험적 관계와 확률관계의 분석을 기반으로 하는 후술하는 도 5의 알고리즘에 의해서 그것이 어떤 경험적 모델인지 알아내고 주체의 상호작용에 대한 ACT(⑥)를 생성한다. 또한, 생성된 경험적 모델을 경험적 지식정보체계(PAL)에 반영을 하고 경험화 연산회로층에 경험화를 요청한다.Reference numeral ④ is a computational circuit unit for computing the empirical situational awareness of the ECA. Normalize the situation factor data to create an empirical knowledge model called interaction about the situation. The generated empirical model finds out which empirical model it is based on the analysis of empirical and probabilistic relations based on the analysis of empirical and probabilistic relations according to the ECA situation law and generates ACT (6) for the subject's interaction. Also, the generated empirical model is reflected in the empirical knowledge information system (PAL), and the empirical computational circuit layer is requested to empirical.
참조부호 ⑤는 HRI 기반의 대화 시스템 연산층으로서, ECA에 의해 요청된 ACT(⑥)를 렌더링한다Reference numeral ⑤ is an HRI based dialogue system computing layer, which renders the ACT (⑥) requested by the ECA.
참조부호 ⑥은 상기 대화 시스템 연산층(16)에서 렌더링 되어지는 ACT이다. 이것은 Speech, Word, Movement, Image, Command 등 다양한 형식으로 수행될 수 있다.Reference numeral 6 denotes an ACT rendered in the dialogue system computing layer 16. This can be done in various formats such as Speech, Word, Movement, Image, and Command.
참조부호 ⑦은 ECA 지각회로의 경험화를 연산하는 경험화 연산부이다.
도 3은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 경험적 상황인식 연산과정의 상위흐름을 나타내는 흐름도이다. 이를 참조하면, 즉, 동 도면은 도 2의 경험적 상황인식 연산회로부(④)의 상위 흐름을 나타낸 것으로, 참조부호 22는 입력된 원시 상황요인 정보들로부터 경험적 지식정보체계의 계층화를 거쳐 경험적 확률 추론방법으로 상황요인들의 경험적 모델을 생성하는 과정이다.Figure 3 is a flow chart showing the high-level flow of the empirical situation recognition operation included in the empirical situation recognition method for the robot according to the present invention. Referring to this, that is, the figure shows an upper flow of the empirical situation recognition calculation circuit unit ④ of FIG. 2, and
참조부호 24는 전 단계 과정(22)에서 새로 생성된 상황요인들의 경험적 모델로부터 상황법칙 1,2에 기반하여 상황의 경험적 모델을 생성하는 과정이다.
참조부호 26은 전 단계 과정(24)에서 새로 생성된 상황의 경험적 모델의 경험된 모델을 후술하는 도 5의 알고리즘을 통해 획득하는 과정이다.
참조부호 28은 경험적 지식정보체계의 "상황: 상호작용"의 경험적 모델을 기반으로 전 단계 과정(24)에서 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 도 6의 알고리즘을 통해서 획득하는 과정이다.
참조부호 12는 앞서 설명한 바와 같이, 경험적 지식정보체계의 경험적 모델의 학습 데이터이며, 전 단계 과정(28)의 입력 데이터이다.As described above,
도 4는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도 3의 경험적 모델의 계층화와 상황의 경험적 모델 생성 과정을 나타내는 흐름도이다4 is a flowchart illustrating a process of hierarchical empirical model generation and empirical model generation of a situation included in the empirical situation recognition method for a robot according to the present invention.
이를 참조하면, 동 도면은 도 3의 경험적 모델 생성 과정(22,24)을 보다 구체화한 흐름도로서, 참조부호 30은 입력된 원시 데이터들의 경험적 모델을 생성하기 위한 정규화를 수행하는 과정인 바, 데이터들의 유효성을 검증하고, 문자열 기반의 정보 명세서가 부여되고, 고유 ID가 할당되는 고유화 등의 데이터 재정의가 이루어지며, 후행 연산과정(예컨대, 32)의 계층화를 위한 데이터 분류 작업을 수행한다.Referring to this, the drawing is a more detailed flow chart of the empirical model generation process (22, 24) of Figure 3,
참조부호 32는 정규화가 완료된 데이터들을 경험적 지식정보체계의 계층화를 거쳐 경험적 모델을 생성하는 과정으로서, 계층화는 데이터의 종류와 수평, 수직적 관계에 의해 분류되는 작업을 기초로 수행된다. (이 단계에서 PAL 인터페이스가 구축이 되며, 원시모델과 분류모델, 파생모델을 만든다)
참조부호 34는 이전 과정(32)에서 새로 생성된 상황요인들의 경험적 모델들에서 상황법칙 3과 스칼라 변위(Scalar Displacement)의 대소 관계를 통해 마스터 상황요인을 탐색하는 과정으로서, 상기 마스터 상황요인은 상호작용 후보 모델이 되기도 하며 존재 하지 않을 수도 있다.
참조부호 36은 이전 과정(32)의 상황요인들의 경험적 모델들을 상황법칙 1,2에 기반해서 상황의 경험적 모델을 생성하기 위한 정규화 과정을 수행하는 과정이다.
참조부호 38은 이전 과정(36)에서 선택된 상황요인들의 경험적 모델들을 스칼라 변위로 구성하는 집합체인 상황의 원시모델을 생성하는 연산과정이다.
참조부호 40은 이전 과정(38)의 상황요인들의 경험적 모델의 집합체인 상황의 원시모델을 통해 상황의 경험적 모델을 생성하는 연산과정이다.
도 5는 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도3의 과정(26)의 하위 흐름으로 상황의 경험적 모델을 획득하는 알고리즘을 도시한 도면이다. 5 is a diagram illustrating an algorithm for acquiring an empirical model of the situation as a sub-flow of the
이를 참조하면, 참조부호 42는 인식하기 위한 상황의 경험적 모델을 입력 받는 연산과정이다.Referring to this,
참조부호 44는 이전 과정(42)의 상황의 경험적 모델의 각 상황요인 원소에 대한 PAL 디스크라이버의 아이템 집합들의 교집합에서 이전 과정(42)의 상황의 경험적 모델이 존재하고 그 원소 개수가 1이 되어 상황법칙 1을 만족하는 지의 여부를 판단하여 조건을 만족하는 모델을 이전 과정(42)의 상황의 경험적 모델에 대한 경험된 모델로 결정하는 연산과정이다.
참조부호 46은 이전 과정(44)의 조건에서 상황법칙1을 만족하지 않고 이전 과정(44)의 교집합의 원소가 1보다 큰 경우 상황법칙5에 의해 각 상황의 원소(상황요인) 개수가 가장 적은 원소를 이전 과정(42)의 경험된 모델로 간주하는 판단을 수행하는 연산과정이다. 이때, 경험된 모델이 다중 선택이 된다면 이전 과정(42)에 해당하는 상황의 경험적 모델의 마스터 상황요인(마스터 상황 요인이 존재할 때)에 대한 PAL 디스크라이버 아이템 집합의 원소에 속한 모델을 선택하거나 상황법칙3을 적용하여 상황요인의 스칼라 변위의 대소 관계를 우선으로 해서 결정한다. 상황의 후보 중에는 원소 개수가 적은 상황이 원소 개수가 많은 상황에 포함 되는 경우가 있으므로 상황법칙 5에 의해 원소 개수가 적은 것을 택하는 것은 적절할 것이다.
참조부호 48은 이전 과정(46)의 조건을 만족하지 않는다면 경험적 지식정보체계의 경험화된 모델들로부터 확률적 추론을 통해서 이전 과정(42)의 경험된 모델을 획득하는 연산과정이다. 이때, 상황법칙 2를 만족하는 모델을 획득하는 바, 찾은 모델의 수가 복수 개라면 이전 과정(46)의 과정을 수행한다.
참조부호 50은 이전 과정(48)에서 경험된 모델을 찾지 못할 경우, 이전 과정(42)의 상황의 경험적 모델을 경험된 모델로 선택하고 이 모델에 대한 경험화를 요청하도록 수행하는 연산과정이다.
참조부호 52는 알고리즘 전체에 걸쳐 이전 과정(42)의 상황의 경험적 모델에 대한 경험된 모델을 찾지 못 한 경우나 예외가 발생할 경우 경험화를 요청하는 연산과정이다.
참조부호 54는 지각회로의 경험화 연산부에 미지의 경험적 모델에 대한 경험화를 요청하는 연산 과정이다.
도 6은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법에 포함된 도3의 과정(28)의 하위 흐름으로 상호작용의 경험적 모델을 획득하는 알고리즘을 도시한 도면이다.FIG. 6 is a diagram illustrating an algorithm for obtaining an empirical model of interaction as a sub-flow of the
이를 참조하면, 참조부호 60은 인식할 상황의 경험적 모델을 입력 받는 과정이며, 참조부호 62는 경험적 지식정보체계의 PAL 디스크라이버와 경험적 확률 추론으로 이전 과정(60)의 상황에 대한 상호작용의 경험적 모델을 획득하는 연산과정이다.Referring to this,
참조부호 64는 이전 과정(62)에서 획득한 상호작용의 경험적 모델들 중에서 상황법칙 3과 마스터 상황요인을 고려하여 최우선의 경험적 모델 하나를 선택하는 연산과정이다.
참조부호 66은 이전 과정(62)에서 상호작용의 경험적 모델을 획득하지 못할 경우 이전 과정(60)에 해당하는 상황의 경험적 모델의 후보 모델들에 대한 상호작용의 경험적 모델을 획득하는 과정인 바, 이 과정은 선택적인 것으로 필요에 따라 생략 될 수 있다.
참조부호 68은 상황법칙 3, 5와 마스터 상황요인을 고려하여 이전 과정(60)에서 해당 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 새로 생성하는 과정으로서, 여기서는 상황법칙 3에 의해 이전 과정(60)상황의 상황요인들의 스칼라 변위로 그 작용의 우선순위를 판단하고 상황법칙 5에 의거해 우선순위가 낮은 상황요인을 제거하여 이전 과정(60)상황의 경험적 모델을 수정하는 과정이 포함된다. 최종적으로 수정된 이전 과정(60)의 경험적 모델의 계층관계를 고려하여 허용 범위 안에 들어오는 상호작용의 경험적 모델을 생성한다.
참조부호 70은 최종 선택된 상호작용의 경험적 모델의 실행시간 모델(Run Time Model) ACT를 생성하는 과정으로서, 이렇게 생성된 ACT는 대화시스템에 요청하게 된다.
참조부호 72는 새롭게 생성된 이전 과정(60)에 대한 상호작용의 경험적 모델에 대하여 상황에 대한 상호작용의 경험적 모델("상황: 상호작용")로 경험화를 요청하며, 이전 과정(60)의 해당 상황에 대한 상호작용의 경험적 모델을 얻지 못한 경우 이전 과정(60)의 해당 상황을 미지의 상황으로 간주하고 경험화 연산부에 경험화를 요청하는 연산 과정이다.
도 7은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법이 구현되는 ECA 지각회로의 경험화 과정의 하위 흐름을 나타내는 도면이다.7 is a diagram illustrating a sub-flow of the empirical process of the ECA perceptual circuit in which the empirical situation recognition method for the robot according to the present invention is implemented.
이를 참조하면, 동 도면은 도 2의 경험화 과정(⑦)을 구체화한 과정들을 설명하는 바, 참조부호 80은 미지의 상황의 경험적 모델이나 새롭게 추가된 상황에 대한 상호작용("상황: 상호작용")의 경험적 모델을 입력 받는 연산과정이다.Referring to this, the drawing describes processes embodying the empirical process (⑦) of FIG. 2, and
참조부호 82는 이전 과정(80)의 경험적 모델들의 경험적 지식정보체계의 계층화를 수행하는 과정으로서, 해당 과정(82)은 경험적 상황인식의 계층화를 통해 원시모델, 분류모델, 파생모델로 계층화가 되어 있는 경험적 모델들에 경험치를 반영하여 다시 계층화를 수행한다. 경험치는 경험적 상황인식을 거치면서 얻어진 데이터들로 상황요인들의 작용빈도, 상황의 노출빈도, 상황에 대한 상호작용의 친밀도, 상호작용의 결과 등으로 이루어진다.
참조부호 84는 경험적 모델간의 스칼라 변위를 조정하는 과정으로서, 여기서는 경험적 모델의 경험치, 주체의 속성이나 현 시점의 상황 등이 고려 될 수 있다.Reference numeral 84 is a process of adjusting the scalar displacement between the empirical models, in which the empirical model's empirical value, the subject's attributes and the current situation can be considered.
참조부호 86은 이전 과정(84)의 경험적 모델들을 경험적 지식정보체계의 소속된 계층의 PAL 요소 그룹에 추가하는 연산 과정이다.
참조부호 88은 이전 과정(86)의 경험적 모델들의 상호관계에 대한 새로운 관계성을 정의할 필요성을 검토하는 연산 과정으로서, 이때, 모델간의 상호관계는 상황요인에 대한 상황, 상황에 대한 상호작용 등을 의미한다. 예를 들면 새로운 종류의 상황요인이 생성 됐다면 그것에 대한 상황의 새로운 PAL 디스크라이버를 작성해야 한다.
참조부호 90은 이전 과정(86)의 PAL요소들을 PAL 디스크라이버에 추가하는 연산 과정이다. 참조부호 92는 이전 과정(86)의 경험적 모델들 중에서 모델간의 새로운 관계를 정의할 모델들에 대한 PAL 디스크라이버를 작성하는 연산 과정이다.
도 8, 9, 10은 본 발명에 따른 로봇을 위한 경험적 상황인식 방법의 경험적 지식정보체계를 구현하는 PAL 인터페이스의 디스크라이버의 수행상태의 예로써 여기서는 시간, 이벤트 상황요인에 대한 상황의 디스크라이버와 상황에 대한 상호작용의 디스크라이버를 예시한 도면이다.8, 9, and 10 are examples of performance states of the disk driver of the PAL interface implementing the empirical knowledge information system of the empirical situation recognition method for the robot according to the present invention. A diagram illustrating a disk driver of interaction with a situation.
이를 참조하면, 동 도면은 ECA의 경험적 지식정보체계의 PAL 디스크라이버의 단편적인 예를 보여주며 실제 구현에서는 사용자 경험이 충분히 반영된 좀 풍부하고 계층화된 자료를 기반으로 작성을 한다.Referring to this figure, the drawing shows a fragmentary example of the PAL disk driver of the ECA's empirical knowledge information system, and in actual implementation, the drawing is based on rich and hierarchical data sufficiently reflecting the user experience.
PAL 디스크라이버는 두 종류의 경험적 모델 집합(PAL 요소 그룹)의 관계성을 확률적 분포나 함수 관계로 정의한 것인데 이때의 관계성이란 것은 반드시 정의역 X축의 모델에 대해서 치역 Y축 모델의 발생 빈도만을 정의하는 것은 아니며, 경험적 모델들 간의 관계성에 따라 다양한 PAL 디스크라이버를 정의 할 수 있다.The PAL disk driver defines the relationship between two sets of empirical models (groups of PAL elements) as stochastic distributions or functional relationships, which means that only the occurrence frequency of the domain Y-axis model is defined for the domain X-axis model. It is not necessary to define various PAL disk drivers according to the relationship between empirical models.
예를 들면, 상호작용에 상관없는 상황에 따른 주체의 라이프스타일을 표현 할 수도 있다.For example, it may be possible to express the lifestyle of a subject in a situation that is irrelevant to interaction.
추가적으로 PAL 디스크라이버 상의 한 점을 PAL 아이템이라고 하는데 이 아이템은 또 다른 PAL 디스크라이버에 대한 핸들(C와 같은 컴퓨터 프로그램 언어로 작성된 프로그램상의 참조나 포인터)을 갖고 있을 수 있다. 그것을 PAL 서브디스크라이버라고 명명하는데, 아이템의 두 모델요소 X, Y성분에 각각 부속된 요소들에 대한 PAL 디스크라이버이다. 주로 아이템의 세부적인 모델들에 대한 PAL디스크라이버를 구현할 때 사용된다.In addition, PAL a point on the disk driver is called PAL Item This item may have another disk driver PAL handle on (see on the program written in a computer language such as C or program pointer). We call it the PAL subdisk driver, which is the PAL disk driver for the elements attached to the two model elements X and Y of the item, respectively. It is mainly used to implement PAL disk drivers for detailed models of items.
도 8은 시간이라는 상황요인에 대한 상황의 PAL 디스크라이버를 보여준다.8 shows a PAL disk driver of a situation for a time factor of time.
도 9는 사건(Event)라는 상황요인에 대한 상황의 PAL 디스크라이버를 보여준다.9 shows a PAL disk driver of a situation for a situational factor called an event.
도 10은 상황에 대한 ACT의 PAL디스크라이버를 보여준다. 이 예에서 아이템 (친구와 함께,*라고 물어보기)은 두 모델 요소의 세부적인 모델에 대한 PAL 서브디스크라이버를 갖고 있다는 것을 보여준다.Figure 10 shows the PAL disk driver of the ACT for the situation. In this example, the item (ask your friend, *) shows that you have a PAL subdisk driver for the detailed model of both model elements.
한편, 본 발명의 실시예에 따른 로봇을 위한 경험적 상황인식 방법은 단지 상기한 실시예에 한정되는 것이 아니라 그 기술적 요지를 이탈하지 않는 범위 내에서 다양한 변경이 가능하다.
On the other hand, the empirical situation recognition method for a robot according to an embodiment of the present invention is not limited to the above embodiments, but various modifications can be made without departing from the technical gist of the present invention.
Claims (4)
상기 경험적 모델 생성단계는,
상황법칙 1,2,3에 기반해서 입력된 원시 데이터로부터 상황요인, 상황, 상호작용에 대한 경험적 모델을 생성하고 마스터 상황요인을 획득하는 방법을 이루고,
상기 제1알고리즘은
인식하기 위한 상황의 경험적 모델을 입력 받는 제 17단계와; 제 17단계의 상황의 경험적 모델의 각 상황요인 원소에 대한 PAL 디스크라이버의 아이템 집합들의 교집합에서 제 17단계의 상황의 경험적 모델이 존재하고 그 원소 개수가 1이 되어 상황법칙 1을 만족하는 지의 여부를 판단하여 조건을 만족하는 모델을 제17단계의 상황의 경험적 모델에 대한 경험된 모델로 결정하는 제 18단계와; 제 18단계의 조건에서 상황법칙 1을 만족하지 않고 제 18단계에서 교집합의 원소가 1보다 큰 경우 상황법칙 5에 의해 각 상황의 원소(상황요인) 개수가 가장 적은 원소를 제 17단계의 경험된 모델로 간주하는 판단을 수행하는 제 19단계와; 제 19단계의 조건을 만족하지 않는다면 경험적 지식정보의 경험화된 모델들로부터 확률적 추론을 통해서 제 17단계의 경험된 모델을 획득하는 제 20단계와; 제 20단계에서 경험된 모델을 획득하지 못할 경우, 제 17단계의 상황의 경험적 모델을 경험된 모델로 선택하고 이 모델에 대한 경험화를 요청하도록 수행하는 제 21단계와; 알고리즘 전체에 걸쳐 제 17단계의 상황의 경험적 모델에 대한 경험된 모델을 획득하지 못 한 경우나 예외가 발생할 경우 경험화를 요청하는 제 22단계와; 지각회로의 경험화 연산부에 미지의 경험적 모델에 대한 경험화를 요청하는 제 23단계로 이루어진 것이고,
상기 제2알고리즘은,
인식할 상황의 경험적 모델을 입력 받는 제 24단계와; 경험적 지식정보의 PAL 디스크라이버와 경험적 확률 추론으로 제 24단계의 상황에 대한 상호작용의 경험적 모델을 획득하는 제 25단계와; 제 25단계에서 획득한 상호작용의 경험적 모델들 중에서 상황법칙 3과 마스터 상황요인을 고려하여 최우선의 경험적 모델 하나를 선택하는 제 26단계와; 제 25단계에서 상호작용의 경험적 모델을 획득하지 못할 경우 제 24단계에 해당하는 상황의 경험적 모델의 후보 모델들에 대한 상호작용의 경험적 모델을 획득하는 제 27단계와; 상황법칙 3,5와 마스터 상황요인을 고려하여 제 24단계의 해당 상황의 경험적 모델에 대한 상호작용의 경험적 모델을 새로 생성하는 제 28단계와; 최종 선택된 상호작용의 경험적 모델의 실행시간 모델(Run Time Model) ACT를 생성하는 제 29단계와; 새롭게 생성된 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델에 대하여 상황에 대한 상호작용의 경험적 모델("상황: 상호작용")로 경험화를 요청하며, 제 24단계의 해당 상황에 대한 상호작용의 경험적 모델을 얻지 못한 경우 제 24단계의 해당 상황을 미지의 상황으로 간주하고 경험화를 요청하는 제 30단계로 이루어지고,
상기 제1알고리즘과 제2알고리즘을 수행하는 단계에서 미지의 상황의 경험적 모델이나 새롭게 추가된 상황에 대한 상호작용("상황: 상호작용")의 경험적 모델을 입력 받는 제 31단계와; 상황법칙1,2,3에 의한 제 31단계의 경험적 모델들의 경험적 지식정보의 계층화를 수행하는 제 32단계와; 상황법칙1,2,3에 의한 경험적 모델간의 스칼라 변위를 조정하는 제 33단계와; 제 33단계의 경험적 모델들을 경험적 지식정보의 소속된 계층의 PAL 요소 그룹에 추가하는 제 34단계와; 상황법칙1,2,3에 의한 제 34단계의 경험적 모델들의 상호관계에 대한 새로운 관계성을 정의할 필요성을 검토하는 제 35단계와; 제 34단계의 PAL요소들을 PAL 디스크라이버에 추가하는 제 36단계와; 제 34단계의 경험적 모델들 중에서 상황법칙1,2,3에 의한 모델간의 새로운 관계를 정의할 모델들에 대한 PAL 디스크라이버를 작성하는 제 37단계로 이루어진 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법.An empirical model generation step of generating an empirical model of a situation from input raw data; Performing a first algorithm; Performing a second algorithm; And empirical knowledge information understanding situation-based situation recognition method for a robot, which is performed through the empirical experiment on an empirical model of interaction between an unknown situation or a newly added situation in the first and second algorithm execution steps.
The empirical model generation step,
On the basis of the situation rules 1,2,3, the empirical model of situation factors, situations, and interactions is generated from the input raw data, and the master situation factors are obtained.
The first algorithm is
A seventeenth step of receiving an empirical model of the situation for recognition; Whether the empirical model of the situation of the 17th stage exists and the number of elements is 1 and satisfies the situation rule 1 in the intersection of the set of items of the PAL disk driver for each situational element of the 17th stage of the empirical model of the situation. An eighteenth step of determining the model satisfying the condition as an experienced model for the empirical model of the situation of the seventeenth step; If the situation law 1 is not satisfied in the condition of step 18, and the element of the intersection is greater than 1 in step 18, the situation rule 5 shows that the element having the smallest number of elements (situation factor) in each situation is found in step 17. A nineteenth step of performing a judgment regarded as a model; A twenty-first step of obtaining an experienced model of a seventeenth step through probabilistic inference from empirical models of empirical knowledge information if the condition of the nineteenth step is not satisfied; If a model experienced in step 20 cannot be obtained, step 21 of selecting an empirical model of the situation of step 17 as an experienced model and requesting empiricalization of the model; A twenty-second step of requesting empirical case when an experienced model for an empirical model of a situation of a seventeenth step is not obtained or an exception occurs throughout the algorithm; It consists of the twenty-third step of requesting the empirical computation of the perceptual circuit to empirically the unknown empirical model,
The second algorithm is
A twenty-fourth step of receiving an empirical model of the situation to be recognized; A twenty-fifth step of obtaining an empirical model of interaction with the situation of the twenty-fourth step by a PAL disc driver of empirical knowledge information and empirical probability inference; A twenty sixth step of selecting one of the empirical models having the highest priority among the empirical models of interaction obtained in the twenty-five step in consideration of the situation rule 3 and the master situation factor; Obtaining a heuristic model of the interaction with respect to candidate models of the empirical model of the situation corresponding to the twenty-fourth step if the empirical model of the interaction is not acquired in the twenty-fifth step; A 28th step of newly generating an empirical model of interaction with the empirical model of the situation in step 24 in consideration of the situation rules 3 and 5 and the master situation factor; Creating a run time model ACT of the empirical model of the finally selected interaction; The empirical model of the interaction with respect to the situation of the newly created stage 24 is requested to be empirical with the empirical model of the interaction with the situation ("situation: interaction"), and the interaction of the situation with the stage 24 If the empirical model of the action is not obtained, the thirty-stage step is regarded as an unknown situation and the thirty-stage request is made.
A thirty-first step of receiving an empirical model of an unknown situation or an interaction (“situation: interaction”) with respect to a newly added situation in performing the first algorithm and the second algorithm; A thirty-second step of performing hierarchical empirical knowledge information of the thirty-first empirical models according to the situational rules 1, 2, and 3; A thirty-third step of adjusting the scalar displacement between the empirical models according to the situational rules 1,2,3; Adding a thirty-third empirical model to the PAL element group of the hierarchy to which heuristic knowledge information belongs; A thirty-fifth step of examining the necessity of defining a new relationship to the interrelationship of the thirty-fourth empirical models according to the situational rules 1,2,3; A thirty-sixth step of adding the thirty-fourth PAL elements to the PAL disc driver; An empirical situation recognition method for a robot comprising a thirty-seventh step of preparing a PAL disk driver for models that will define a new relationship between the models according to the situational rules 1, 2, and 3 among the empirical models of the 34th step. .
상기 제 19단계에서, 경험화된 모델이 다중 선택이 된다면 제 17단계에 해당하는 상황의 경험적 모델의 마스터 상황요인(마스터 상황 요인이 존재할 때)에 대한 PAL 디스크라이버 아이템 집합의 원소에 속한 모델을 선택하거나 상황법칙3을 적용하여 상황요인의 스칼라 변위의 대소 관계를 우선으로 해서 결정하고, 상황의 후보 중에는 원소 개수가 적은 상황이 원소 개수가 많은 상황에 포함 되는 경우가 있는 경우 상황법칙 5에 의해 원소 개수가 적은 것을 택하도록 하는 것을 특징으로 하는 로봇을 위한 경험적 상황인식 방법을 실행하는 프로그램을 기록한 컴퓨터 판독가능한 기록 매체.The method of claim 1,
In the nineteenth step, if the empirical model is multi-selected, the model belonging to the element of the PAL disc driver item set for the master situation factor (when the master situation factor exists) of the empirical model of the situation corresponding to the seventeenth step is selected. Selecting or applying Situational Law 3 to determine the magnitude of the scalar displacement of situational factors first, and if there are cases where a small number of elements is included in a situation where the number of elements is high among candidates, A computer-readable recording medium having recorded thereon a program for executing an empirical situation recognition method for a robot, characterized in that the number of elements is selected to be small.
The method of claim 1, wherein the step 28 determines the priority of the action by scalar displacement of the situation factors of the situation of step 24 according to the situation rule 3, and removes the situation factors of low priority based on the situation rule 5. The process of modifying the empirical model of the 24th stage situation is included, and finally, the empirical model of interactions within the allowance is generated by considering the hierarchical relationship of the modified empirical model of the relevant stage 24 situation. A computer-readable recording medium having recorded thereon a program for executing an empirical situational awareness method for a robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100032792A KR101369810B1 (en) | 2010-04-09 | 2010-04-09 | Empirical Context Aware Computing Method For Robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100032792A KR101369810B1 (en) | 2010-04-09 | 2010-04-09 | Empirical Context Aware Computing Method For Robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110113414A KR20110113414A (en) | 2011-10-17 |
KR101369810B1 true KR101369810B1 (en) | 2014-03-05 |
Family
ID=45028773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100032792A Active KR101369810B1 (en) | 2010-04-09 | 2010-04-09 | Empirical Context Aware Computing Method For Robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101369810B1 (en) |
Families Citing this family (210)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7669134B1 (en) | 2003-05-02 | 2010-02-23 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9053089B2 (en) | 2007-10-02 | 2015-06-09 | Apple Inc. | Part-of-speech tagging using latent analogy |
US8364694B2 (en) | 2007-10-26 | 2013-01-29 | Apple Inc. | Search assistant for digital media assets |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8327272B2 (en) | 2008-01-06 | 2012-12-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US8065143B2 (en) | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
US8289283B2 (en) | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8464150B2 (en) | 2008-06-07 | 2013-06-11 | Apple Inc. | Automatic language identification for dynamic text processing |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8768702B2 (en) | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8898568B2 (en) | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8862252B2 (en) | 2009-01-30 | 2014-10-14 | Apple Inc. | Audio user interface for displayless electronic device |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8639516B2 (en) | 2010-06-04 | 2014-01-28 | Apple Inc. | User-specific noise suppression for voice quality improvements |
US9104670B2 (en) | 2010-07-21 | 2015-08-11 | Apple Inc. | Customized search or acquisition of digital media assets |
US8719014B2 (en) | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US10515147B2 (en) | 2010-12-22 | 2019-12-24 | Apple Inc. | Using statistical language models for contextual lookup |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US10019994B2 (en) | 2012-06-08 | 2018-07-10 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US8935167B2 (en) | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
DE212014000045U1 (en) | 2013-02-07 | 2015-09-24 | Apple Inc. | Voice trigger for a digital assistant |
US9977779B2 (en) | 2013-03-14 | 2018-05-22 | Apple Inc. | Automatic supplementation of word correction dictionaries |
US9733821B2 (en) | 2013-03-14 | 2017-08-15 | Apple Inc. | Voice control to diagnose inadvertent activation of accessibility features |
US10572476B2 (en) | 2013-03-14 | 2020-02-25 | Apple Inc. | Refining a search based on schedule items |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10642574B2 (en) | 2013-03-14 | 2020-05-05 | Apple Inc. | Device, method, and graphical user interface for outputting captions |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
AU2014227586C1 (en) | 2013-03-15 | 2020-01-30 | Apple Inc. | User training by intelligent digital assistant |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014168730A2 (en) | 2013-03-15 | 2014-10-16 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
HK1220313A1 (en) | 2013-06-13 | 2017-04-28 | 苹果公司 | System and method for emergency calls initiated by voice command |
DE112014003653B4 (en) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatically activate intelligent responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
CN110797019B (en) | 2014-05-30 | 2023-08-29 | 苹果公司 | Multi-command single speech input method |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US12223282B2 (en) | 2016-06-09 | 2025-02-11 | Apple Inc. | Intelligent automated assistant in a home environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | User interface for correcting recognition errors |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | Low-latency intelligent automated assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | Far-field extension for digital assistant services |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
KR102427466B1 (en) | 2017-08-01 | 2022-08-01 | 엘지전자 주식회사 | Vehicle, refrigerater for vehicle, and controlling method for refrigerator for vehicle |
KR102449177B1 (en) | 2017-08-01 | 2022-09-29 | 엘지전자 주식회사 | Vacuum insulator and refrigerator |
KR102449175B1 (en) | 2017-08-01 | 2022-09-29 | 엘지전자 주식회사 | Vacuum insulator and refrigerator |
KR102459784B1 (en) | 2017-08-01 | 2022-10-28 | 엘지전자 주식회사 | Vacuum adiabatic body and refrigerator |
KR102529116B1 (en) | 2017-08-01 | 2023-05-08 | 엘지전자 주식회사 | Vacuum adiabatic body, fabrication method for the vacuum adibatic body, and refrigerating or warming apparatus insulated by the vacuum adiabatic body |
KR102459786B1 (en) | 2017-08-16 | 2022-10-28 | 엘지전자 주식회사 | Vacuum adiabatic body and refrigerator |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK179822B1 (en) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | Virtual assistant operation in multi-device environments |
US10504518B1 (en) | 2018-06-03 | 2019-12-10 | Apple Inc. | Accelerated task performance |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970510A1 (en) | 2019-05-31 | 2021-02-11 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
US11043220B1 (en) | 2020-05-11 | 2021-06-22 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009509673A (en) | 2005-09-30 | 2009-03-12 | アイロボット コーポレーション | Companion robot for personal interaction |
-
2010
- 2010-04-09 KR KR1020100032792A patent/KR101369810B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009509673A (en) | 2005-09-30 | 2009-03-12 | アイロボット コーポレーション | Companion robot for personal interaction |
Also Published As
Publication number | Publication date |
---|---|
KR20110113414A (en) | 2011-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101369810B1 (en) | Empirical Context Aware Computing Method For Robot | |
JP7691523B2 (en) | Using large language models in generating automated assistant responses | |
JP7386878B2 (en) | Dynamically adapting assistant responses | |
CN111033492B (en) | Providing command bundle suggestions for automated assistants | |
CN110785763B (en) | Method for realizing automatic assistant and related storage medium | |
WO2021093821A1 (en) | Intelligent assistant evaluation and recommendation methods, system, terminal, and readable storage medium | |
Trung | Multimodal dialogue management-state of the art | |
Janarthanam et al. | Adaptive generation in dialogue systems using dynamic user modeling | |
CN119476313B (en) | A method, system, device and storage medium for interactive question and answer of virtual digital human | |
CN119181102B (en) | Short text generation image model training method, system, short text to image generation method, electronic device and storage medium | |
Pruvost et al. | User interaction adaptation within ambient environments | |
Zouhaier et al. | Generating accessible multimodal user interfaces using MDA-based adaptation approach | |
Wanner et al. | Towards a multimedia knowledge-based agent with social competence and human interaction capabilities | |
Feng et al. | A platform for building mobile virtual humans | |
Karagiannidis et al. | Supporting adaptivity in intelligent user interfaces: The case of media and modalities allocation | |
CN116737964B (en) | Artificial intelligence brain system | |
CN117391078B (en) | A hybrid interactive system and method based on AI big model | |
Pineda et al. | Dialogue model specification and interpretation for intelligent multimodal HCI | |
US20250181207A1 (en) | Interactive visual content for interactive systems and applications | |
US20250182365A1 (en) | Backchanneling for interactive systems and applications | |
US20250181847A1 (en) | Deployment of interactive systems and applications using language models | |
US20250181138A1 (en) | Multimodal human-machine interactions for interactive systems and applications | |
US20250184291A1 (en) | Interaction modeling language and categorization schema for interactive systems and applications | |
US20250181424A1 (en) | Event-driven architecture for interactive systems and applications | |
US20250182366A1 (en) | Interactive bot animations for interactive systems and applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20100409 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20120116 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20120607 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20121226 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20120607 Comment text: Notification of reason for refusal Patent event code: PE06011S01I Patent event date: 20120116 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20121226 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20120807 Comment text: Amendment to Specification, etc. Patent event code: PX09012R01I Patent event date: 20120315 Comment text: Amendment to Specification, etc. |
|
PX0601 | Decision of rejection after re-examination |
Comment text: Decision to Refuse Application Patent event code: PX06014S01D Patent event date: 20130403 Comment text: Amendment to Specification, etc. Patent event code: PX06012R01I Patent event date: 20130225 Comment text: Decision to Refuse Application Patent event code: PX06011S01I Patent event date: 20121226 Comment text: Amendment to Specification, etc. Patent event code: PX06012R01I Patent event date: 20120807 Comment text: Notification of reason for refusal Patent event code: PX06013S01I Patent event date: 20120607 Comment text: Amendment to Specification, etc. Patent event code: PX06012R01I Patent event date: 20120315 Comment text: Notification of reason for refusal Patent event code: PX06013S01I Patent event date: 20120116 |
|
J201 | Request for trial against refusal decision | ||
PJ0201 | Trial against decision of rejection |
Patent event date: 20130412 Comment text: Request for Trial against Decision on Refusal Patent event code: PJ02012R01D Patent event date: 20130403 Comment text: Decision to Refuse Application Patent event code: PJ02011S01I Patent event date: 20121226 Comment text: Decision to Refuse Application Patent event code: PJ02011S01I Appeal kind category: Appeal against decision to decline refusal Decision date: 20140122 Appeal identifier: 2013101002745 Request date: 20130412 |
|
PJ1301 | Trial decision |
Patent event code: PJ13011S01D Patent event date: 20140122 Comment text: Trial Decision on Objection to Decision on Refusal Appeal kind category: Appeal against decision to decline refusal Request date: 20130412 Decision date: 20140122 Appeal identifier: 2013101002745 |
|
PS0901 | Examination by remand of revocation | ||
S901 | Examination by remand of revocation | ||
GRNO | Decision to grant (after opposition) | ||
PS0701 | Decision of registration after remand of revocation |
Patent event date: 20140211 Patent event code: PS07012S01D Comment text: Decision to Grant Registration Patent event date: 20140122 Patent event code: PS07011S01I Comment text: Notice of Trial Decision (Remand of Revocation) |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20140226 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20140227 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20170228 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20170228 Start annual number: 4 End annual number: 4 |
|
LAPS | Lapse due to unpaid annual fee |