[go: up one dir, main page]

KR101838939B1 - System for measuring the ability of ordinary performance - Google Patents

System for measuring the ability of ordinary performance Download PDF

Info

Publication number
KR101838939B1
KR101838939B1 KR1020150051607A KR20150051607A KR101838939B1 KR 101838939 B1 KR101838939 B1 KR 101838939B1 KR 1020150051607 A KR1020150051607 A KR 1020150051607A KR 20150051607 A KR20150051607 A KR 20150051607A KR 101838939 B1 KR101838939 B1 KR 101838939B1
Authority
KR
South Korea
Prior art keywords
screen output
unit
sensing
task
output unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020150051607A
Other languages
Korean (ko)
Other versions
KR20160121858A (en
Inventor
반호영
최용근
이수빈
유경환
노성준
박대관
Original Assignee
주식회사 네오펙트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네오펙트 filed Critical 주식회사 네오펙트
Priority to KR1020150051607A priority Critical patent/KR101838939B1/en
Publication of KR20160121858A publication Critical patent/KR20160121858A/en
Application granted granted Critical
Publication of KR101838939B1 publication Critical patent/KR101838939B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 작업수행능력 측정시스템에 관한 것이다.
본 발명의 일실시예에 따른 작업수행능력 측정시스템은, 사용자가 수행한 특정한 작업에 대한 움직임데이터를 센싱하는 센싱부; 상기 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하여 상기 작업에 상응하는 실시간 출력영상을 생성하는 계산부; 및 바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 화면출력부;를 포함하며, 상기 작업은 상기 화면출력부를 작업수행공간으로 하여 화면 위에서 수행되는 조리작업에 해당하며, 상기 출력영상은 상기 작업에 의한 상기 조리작업의 수행결과영상인 것을 특징으로 한다.
본 발명에 따르면, 환자가 일상생활에 필요한 작업을 통해서 재활 훈련을 수행할 수 있는 효과가 있다. 즉, 환자들이 일상생활에서 많이 쓰는 조리작업을 실제 상황과 유사하게 수행하도록 하여 사회 적응 속도를 높일 수 있는 효과가 있다.
The present invention relates to a task performance measurement system.
According to another aspect of the present invention, there is provided a system for measuring performance of a task, comprising: a sensing unit for sensing motion data for a specific task performed by a user; A calculation unit for calculating a real time performance result of the specific task based on the sensed motion data and generating a real time output image corresponding to the task; And a screen output unit arranged horizontally on the floor surface and displaying the real time output image, wherein the operation corresponds to a cooking operation performed on the screen as the task execution space, And the image is a result of performing the cooking operation by the operation.
According to the present invention, there is an effect that a patient can perform rehabilitation training through work necessary for daily life. In other words, it is possible to improve the speed of social adaptation by allowing patients to perform cooking tasks that are frequently used in daily life, in a similar manner to actual situations.

Description

작업수행능력 측정시스템 {SYSTEM FOR MEASURING THE ABILITY OF ORDINARY PERFORMANCE}[0001] SYSTEM FOR MEASURING THE ABILITY OF ORDINARY PERFORMANCE [0002]

본 발명은 작업수행능력 측정시스템에 관한 것으로, 보다 자세하게는 환자의 재활을 위해 실생활에 필요한 동작을 모의 재활훈련으로 제공하고, 재활훈련 결과를 측정하는 시스템에 관한 것이다.[0001] The present invention relates to a performance measuring system, and more particularly, to a system for providing a simulated rehabilitation training required for real life for rehabilitation of a patient and measuring the results of rehabilitation training.

최근의 산업화 과정에서 급속히 증가된 산업재해로 인해 거동이 불편한 장애인의 재활과정에서 장애인들이 정상적인 생활을 할 수 있도록 도와주는 재활치료가 보편화되고 있는 실정이다.In recent industrialization, rehabilitation is becoming popular in the process of rehabilitation of people with disabilities due to rapidly increasing industrial disasters.

그러나 기존에는 단순히 물건을 들어서 다른 쪽으로 옮기는 등의 일반적인 동작으로 재활훈련을 수행하였다. 따라서 환자들은 재활훈련을 받은 후에 바로 일상생활에서 필요한 동작을 자연스럽게 수행하지 못하여 빨리 사회에 적응하지 못하는 문제가 있었다.However, in the past, rehabilitation exercises were performed with general actions such as simply lifting objects and moving them to the other side. Therefore, patients had difficulty adapting quickly to the society because they could not perform necessary activities in daily life after rehabilitation training.

따라서 최근에는, 장애인들의 단순한 신체적인 재활치료를 넘어, 장애인들이 향후 직업을 가질 수 있도록 재활을 도모하는 직업 재활이 실시되고 있다.In recent years, vocational rehabilitation has been carried out, aiming at rehabilitation so that people with disabilities can have future jobs, beyond simple physical rehabilitation treatment of persons with disabilities.

장애인들의 직업을 통한 재활은 사회의 적극적인 지원과 많은 노력을 필요로 하고 있지만, 직업 재활의 전문적 지식기반과 연구 활동의 부족으로 인하여 장애인들의 삶을 영위하는데 가장 중요한 부분을 차지하는 직업을 통한 재활 및 사회에 적응할 수 있도록 하는 것은 소극적인 것이 현실이다. 따라서, 많은 장애인들이 직업을 구할 수 없어 직업을 갖지 못하고 있는 실정이다.
Although rehabilitation through the occupation of persons with disabilities requires active support from the society and a lot of effort, the rehabilitation and social rehabilitation through the occupation, which occupies the most important part in the life of disabled people due to the lack of professional knowledge base and research activities of vocational rehabilitation It is a passive thing to be able to adapt to the reality. Therefore, many people with disabilities can not get a job and have no job.

재활환자에 해당하는 사용자가 재활훈련 수행 중에 조리 작업과 같은 실생활에 필요한 작업을 수행하며 재활훈련을 할 수 있도록 하여, 재활환자들의 사회 적응 속도를 높일 수 있는, 작업수행능력 측정시스템을 제공하고자 한다.The present invention provides a system for measuring performance of work performance, which enables a user who is a rehabilitation patient to perform rehabilitation exercises and perform work necessary for real life such as cooking during rehabilitation training, .

본 발명의 일실시예에 따른 작업수행능력 측정시스템은, 사용자가 수행한 특정한 작업에 대한 움직임데이터를 센싱하는 센싱부; 상기 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하여 상기 작업에 상응하는 실시간 출력영상을 생성하는 계산부; 및 바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 화면출력부;를 포함하며, 상기 작업은, 상기 화면출력부를 작업수행공간으로 하여 화면 위에서 수행되는 조리작업에 해당하며, 상기 출력영상은, 상기 조리작업에 의한 수행결과영상인 것을 특징으로 한다.According to another aspect of the present invention, there is provided a system for measuring performance of a task, comprising: a sensing unit for sensing motion data for a specific task performed by a user; A calculation unit for calculating a real time performance result of the specific task based on the sensed motion data and generating a real time output image corresponding to the task; And a screen output unit arranged horizontally on the floor surface and displaying the real time output image, wherein the operation corresponds to a cooking operation performed on the screen by using the screen output unit as a work performing space, Is a result image obtained by the cooking operation.

또한, 상기 작업은, 상기 사용자의 거품내기 동작, 반죽 펼치기 동작, 썰기 동작, 뒤집기 동작, 따르기 동작, 뿌리기 동작, 벨브조절 동작, 볶기 동작 중 적어도 하나 이상에 해당하는 것을 특징으로 할 수 있다.The operation may be at least one of a bubbling operation, a dough expanding operation, a slicing operation, a flipping operation, a pouring operation, a spraying operation, a valve adjusting operation, and a frying operation of the user.

또한, 상기 센싱부는, 제1관성센서를 구비하여, 상기 움직임데이터로 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 중 적어도 하나 이상을 측정하는 것을 특징으로 할 수 있다.The sensing unit may include a first inertia sensor to measure at least one of tilt degree, linear acceleration, linear velocity, rotation acceleration, rotation speed, number of rotations, and degree of twist in the motion data have.

또한, 상기 센싱부 및 상기 화면출력부가 분리된 센싱장치 및 화면출력장치에 각각 포함되며, 상기 화면출력부는, 상기 사용자가 수행하는 상기 작업에 의해 화면 상에 가해지는 압력을 측정하는 압력센서를 포함하며, 상기 계산부는, 상기 화면출력부가 인식하는 압력의 세기를 반영하여 실시간 출력영상을 생성하는 것을 특징으로 할 수 있다.The sensing unit and the screen output unit are respectively included in a separate sensing device and a screen output device, and the screen output unit includes a pressure sensor for measuring a pressure applied on the screen by the operation performed by the user And the calculation unit may generate a real-time output image reflecting the intensity of the pressure recognized by the screen output unit.

또한, 상기 센싱부 및 상기 화면출력부가 분리된 센싱장치 및 화면출력장치에 각각 포함되며, 상기 센싱장치는, 높낮이 조절을 통해 회전 난이도 조절이 가능한 무게 추를 포함하며, 상기 무게 추의 설정된 높낮이에서 수행되는 작업의 상기 회전가속도 및 상기 회전횟수를 측정할 수 있다.In addition, the sensing unit and the screen output unit are respectively included in a separate sensing device and a screen output device, and the sensing device includes a weight that is capable of adjusting the degree of difficulty by adjusting the height, The rotation acceleration and the number of rotations of the work to be performed can be measured.

또한, 상기 화면출력부는, 상기 작업이 수행되는 상기 센싱부의 공간상 위치가 화면출력부 상으로 수직 사영된 작업지점을 측정하며, 상기 계산부는, 실시간으로 측정된 상기 작업지점에 상기 산출된 수행결과를 적용한 상기 출력영상을 생성하는 것을 특징으로 할 수 있다.The screen output unit may measure a work point where a spatial position of the sensing unit on which the operation is performed is vertically projected on a screen output unit, The output image may be generated by applying the output image.

또한, 상기 화면출력부는, 터치스크린에 해당하여 상기 작업에 의한 접촉조작을 인식하는 것을 특징으로 할 수 있다.In addition, the screen output unit recognizes the touch operation by the operation corresponding to the touch screen.

또한, 상기 화면출력부는, 상기 화면 상에 상기 작업의 목표치를 표시하고, 상기 계산부는, 상기 목표치에 대한 상기 접촉조작의 정확도를 산출하는 것을 특징으로 할 수 있다.The screen output unit may display the target value of the job on the screen, and the calculation unit may calculate the accuracy of the touch operation with respect to the target value.

또한, 상기 작업이 썰기 동작인 경우, 상기 센싱장치는, 상기 접촉조작이 가능한 칼 형상의 장치에 해당하며, 상기 계산부는, 작업달성시간 또는 상기 정확도를 반영한 상기 수행결과를 산출하고, 상기 수행결과에 따라 복수의 상기 목표치 배치간격을 조절하여 난이도를 조절하는 것을 특징으로 할 수 있다.In the case where the operation is a slicing operation, the sensing device corresponds to a knife-shaped device capable of the contact operation, and the calculating unit may calculate the operation result reflecting the operation accomplishment time or the accuracy, And the degree of difficulty is adjusted by adjusting a plurality of the target value placement intervals according to the degree of difficulty.

또한, 상기 작업이 액체류의 상기 따르기 동작인 경우, 상기 센싱부를 통해 센싱된 상기 기울임정도를 바탕으로 상기 액체류의 부어진 정도를 산출하여, 화면 상에 액체가 퍼진 영상을 표시하는 것을 특징으로 할 수 있다.When the operation is the pouring operation of the liquid flow, the pouring degree of the liquid flow is calculated on the basis of the degree of tilt sensed through the sensing unit, and an image spreading liquid on the screen is displayed can do.

또한, 상기 작업이 뒤집기 동작인 경우, 제2관성센서를 포함하는 조작물체;를 더 포함하고, 상기 제2관성센서는, 화면출력부 상에서 상기 조작물체의 배치상태를 인식할 수 있다.Further, when the operation is a flip operation, the operation unit may further include an operation object including a second inertial sensor, and the second inertial sensor may recognize the arrangement state of the operation object on the screen output unit.

또한, 상기 화면출력부는, 상기 작업을 제공하는 복수의 상기 작업수행공간을 포함하며, 상기 계산부는, 복수의 상기 작업을 임의의 순서로 제공하는 상기 출력영상을 생성하며, 상기 센싱부로부터 수신한 상기 움직임데이터를 바탕으로, 상기 출력영상에 대응하는 동작의 수행여부를 판단할 수 있다.
The screen output unit may include a plurality of job execution spaces for providing the job, and the calculation unit may generate the output image that provides a plurality of jobs in an arbitrary order, Based on the motion data, it is possible to determine whether an operation corresponding to the output image is performed.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.

첫째, 환자가 일상생활에 필요한 작업을 통해서 재활 훈련을 수행할 수 있는 효과가 있다. 즉, 환자들이 일상생활에서 많이 쓰는 조리작업을 실제 상황과 유사하게 수행하도록 하여 사회 적응 속도를 높일 수 있는 효과가 있다.First, there is an effect that the patient can perform the rehabilitation training through the work necessary for daily life. In other words, it is possible to improve the speed of social adaptation by allowing patients to perform cooking tasks that are frequently used in daily life, in a similar manner to actual situations.

둘째, 환자들이 컵을 옮기는 등의 재미없는 재활훈련이 아닌 일상생활에서 수행하는 동작들을 행하면서 재활훈련에 흥미를 느낄 수 있으며, 일상생활에 적응하기 위해서는 본 훈련을 제대로 이수할 필요가 있다는 동기부여를 하여 재활훈련에 대한 의욕을 높일 수 있는 효과가 있다.Second, patients may be interested in rehabilitation exercises while performing activities that are performed in daily life rather than not having fun without rehabilitation such as moving cups. In order to adapt to daily life, motivation is needed And to increase the motivation for rehabilitation training.

셋째, 본 시스템을 통해 다양한 조리작업들을 한번에 훈련할 수 있는 효과가 있다.Third, this system has the effect of training various cooking tasks at once.

넷째, 본 발명의 일실시예에 따른 작업수행능력 측정시스템은 환자에게 단순히 재활훈련을 제시하는 것이 아닌, 재활훈련의 성취도를 평가하여 제시할 수 있다. 또한, 환자의 재활훈련 수행 정도에 따라 난이도를 조절할 수 있어 환자에게 적합한 수준의 재활훈련을 제공할 수 있다.
Fourth, the performance measuring system according to an embodiment of the present invention can evaluate the achievement of the rehabilitation training rather than simply presenting the rehabilitation training to the patient. In addition, the difficulty level can be adjusted according to the degree of rehabilitation training performed by the patient, thereby providing a level of rehabilitation training suitable for the patient.

도 1은 본 발명의 일실시예에 따른 작업수행능력 측정시스템의 내부 구성도이다.
도 2는 본 발명의 일실시예에 따라 액체류의 따르기 동작을 수행하는 예시도면이다.
도 3은 본 발명의 일실시예에 따라 거품내기 동작을 수행하는 예시도면이다.
도 4a는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행하기 전의 상태를 도시한 예시도면이다.
도 4b는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행한 후의 상태를 도시한 예시도면이다.
도 5는 본 발명의 일실시예에 따라 조작물체의 뒤집기 동작을 수행하는 예시도면이다.
도 6은 본 발명의 일실시예에 따라 썰기 동작을 수행하는 예시도면이다.
도 7은 본 발명의 일실시예에 따라 불끄기 동작을 수행하는 예시도면이다.
도 8은 본 발명의 일실시예에 따라 센싱부의 화면출력부 상의 위치를 인식하여 출력영상에 반영하는 예시도면이다.
도 9는 본 발명의 일실시예에 따라 비전센서를 통해 센싱부의 위치를 인식하는 예시도면이다.
1 is an internal configuration diagram of a performance measuring system according to an embodiment of the present invention.
Figure 2 is an exemplary view of performing a pour operation of a liquid stream in accordance with one embodiment of the present invention.
Figure 3 is an exemplary view of performing a foaming operation according to one embodiment of the present invention.
FIG. 4A is an exemplary view showing a state before performing a kneading expansion operation according to an embodiment of the present invention. FIG.
FIG. 4B is an exemplary view showing a state after performing a kneading expansion operation according to an embodiment of the present invention. FIG.
FIG. 5 is an exemplary view for performing a flip operation of an operating object according to an embodiment of the present invention. FIG.
6 is an exemplary diagram illustrating a slicing operation according to an embodiment of the present invention.
7 is an exemplary diagram illustrating a fire-off operation according to an embodiment of the present invention.
8 is an exemplary diagram for recognizing a position on a screen output unit of a sensing unit and reflecting the position on an output image according to an embodiment of the present invention.
9 is an exemplary diagram for recognizing a position of a sensing unit through a vision sensor according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

도 1은 본 발명의 일실시예에 따른 작업수행능력 측정시스템의 내부 구성도이다. 도 2는 본 발명의 일실시예에 따라 액체류의 따르기 동작을 수행하는 예시도면이다. 도 3은 본 발명의 일실시예에 따라 거품내기 동작을 수행하는 예시도면이다. 도 4a는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행하기 전의 상태를 도시한 예시도면이다. 도 4b는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행한 후의 상태를 도시한 예시도면이다. 도 5는 본 발명의 일실시예에 따라 조작물체의 뒤집기 동작을 수행하는 예시도면이다. 도 6은 본 발명의 일실시예에 따라 썰기 동작을 수행하는 예시도면이다. 도 7은 본 발명의 일실시예에 따라 불끄기 동작을 수행하는 예시도면이다. 도 8은 본 발명의 일실시예에 따라 센싱부의 화면출력부 상의 위치를 인식하여 출력영상에 반영하는 예시도면이다. 도 9는 본 발명의 일실시예에 따라 비전센서를 통해 센싱부의 위치를 인식하는 예시도면이다.1 is an internal configuration diagram of a performance measuring system according to an embodiment of the present invention. Figure 2 is an exemplary view of performing a pour operation of a liquid stream in accordance with one embodiment of the present invention. Figure 3 is an exemplary view of performing a foaming operation according to one embodiment of the present invention. FIG. 4A is an exemplary view showing a state before performing a kneading expansion operation according to an embodiment of the present invention. FIG. FIG. 4B is an exemplary view showing a state after performing a kneading expansion operation according to an embodiment of the present invention. FIG. FIG. 5 is an exemplary view for performing a flip operation of an operating object according to an embodiment of the present invention. FIG. 6 is an exemplary diagram illustrating a slicing operation according to an embodiment of the present invention. 7 is an exemplary diagram illustrating a fire-off operation according to an embodiment of the present invention. 8 is an exemplary diagram for recognizing a position on a screen output unit of a sensing unit and reflecting the position on an output image according to an embodiment of the present invention. 9 is an exemplary diagram for recognizing a position of a sensing unit through a vision sensor according to an embodiment of the present invention.

도 1 내지 도 9에는 시스템(10); 계산부(100); 센싱부(200), 회전 추(210); 화면출력부(300); 목표치(310); 가이드라인(320); 작업수행공간(330); 비전센서(340); 및 조작물체(400)가 도시된다.1 to 9 show a system 10; A calculation unit 100; A sensing unit 200, a rotation weight 210; A screen output unit 300; Target value 310; Guideline 320; Task performing space 330; A vision sensor 340; And the manipulating object 400 are shown.

이하, 도면을 참조하여 본 발명의 실시예들에 따른 작업수행능력 측정시스템에 대해 설명하기로 한다.Hereinafter, a work performance measuring system according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)의 내부 구성도이다.1 is an internal configuration diagram of a work performance measuring system 10 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)은, 센싱부(200); 계산부(100); 및 화면출력부(300);를 포함한다.Referring to FIG. 1, a work performance measuring system 10 according to an embodiment of the present invention includes a sensing unit 200; A calculation unit 100; And a screen output unit 300.

센싱부(200)는 사용자가 수행한 특정한 작업에 대한 움직임데이터를 측정하는 기능을 수행한다. 센싱부(200)는 사용자가 작업 수행을 위한 동작을 직접 센싱 또는 간접 센싱할 수 있다. 직접 센싱은, 사용자가 센싱부(200)를 쥐고 수행하는 동작을 센싱하거나 사용자가 조작 가능한 구성을 누르거나 돌리는 동작을 센싱하는 것을 포함할 수 있다. 간접 측정은 떨어져 있는 사용자의 동작을 카메라 등을 통해 인식하는 것을 포함할 수 있다. 다만, 상기 직접 센싱 및 간접 센싱은 이에 한정되지 아니하고, 사용자의 동작을 센싱하여 움직임데이터를 획득하는 다양한 방식을 포함할 수 있다.The sensing unit 200 performs a function of measuring motion data for a specific task performed by the user. The sensing unit 200 may directly sense or indirectly sense an operation for performing a task by the user. The direct sensing may include sensing a movement of a user holding the sensing unit 200 or sensing a pushing or turning operation of a user-operable configuration. Indirect measurement may include recognizing the motion of a distant user through a camera or the like. However, the direct sensing and the indirect sensing are not limited to this, and may include various methods of sensing movement of a user to acquire motion data.

상기 작업은 상기 화면출력부(300)를 작업수행공간(330)으로 하여 화면 위에서 수행되는 조리작업에 해당할 수 있다. 즉, 작업수행능력 측정시스템(10)은 재활환자들의 실생활 적응에 필요하며 구직 등에 활용할 수 있는 조리작업을 수행하도록 하며, 수행결과 측정 및 그에 따른 결과화면 표시를 수행할 수 있다. 상기 작업은, 상기 사용자의 거품내기 동작, 반죽 동작, 칼질 동작, 뒤집기 동작, 따르기 동작, 뿌리기 동작, 벨브 조절 동작, 볶기 동작 등이 해당될 수 있다.The operation may correspond to a cooking operation performed on the screen by using the screen output unit 300 as a work performing space 330. [ That is, the work performance measuring system 10 is required for real life adaptation of the rehabilitation patients and can perform a cooking operation that can be utilized for job search, etc., and can measure the result of the performance and display a result screen accordingly. The operation may include a bubbling operation, a kneading operation, a kneading operation, a flipping operation, a follow operation, a sprinkling operation, a valve adjusting operation, a frying operation, etc. of the user.

계산부(100)는 시스템(10) 상에 필요한 전반적인 제어 및 정보처리를 수행하는 기능을 수행한다. 즉, 계산부(100)는 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하고, 수행결과에 상응하는 실시간 출력영상을 생성하는 기능을 수행할 수 있다. 또한, 계산부(100)는 사용자가 수행하는 작업의 정확도를 판단할 수 있으며, 작업의 정확도를 바탕으로 사용자의 작업수행능력을 산출할 수 있다.The calculation unit 100 performs a function of performing overall control and information processing required on the system 10. That is, the calculation unit 100 may calculate a real-time performance result of the specific task based on the sensed motion data, and generate a real-time output image corresponding to the performance result. In addition, the calculation unit 100 can determine the accuracy of the task performed by the user, and can calculate the task performance of the user based on the accuracy of the task.

화면출력부(300)는 바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 기능을 수행한다. 즉, 화면출력부(300)는 바닥면에 수평으로 배치되어, 사용자가 화면출력부(300) 상에서 수행하는 특정한 작업의 결과에 해당하는 영상을 표시할 수 있다. 또한, 화면출력부(300)는 계산부(100)에 의해 산출된 작업수행능력을 수치 또는 도형으로 화면의 일측에 표시할 수 있다. The screen output unit 300 is horizontally disposed on a floor surface, and performs a function of displaying the real-time output image. That is, the screen output unit 300 may be horizontally disposed on the floor surface, and may display an image corresponding to a result of a specific operation performed by the user on the screen output unit 300. In addition, the screen output unit 300 can display the job performing ability calculated by the calculation unit 100 on one side of the screen in numerical or graphic form.

상기 출력영상은 상기 조리작업의 수행결과영상일 수 있다. 예를 들어, 도 2에서와 같이, 사용자가 수행하는 작업이 액체류의 따르기 동작인 경우, 센싱부(200)에 의해 측정된 기울임정도에 따라 부어진 것으로 산출된 액체류 양에 따른 퍼진 정도를 출력영상으로 생성하여 보여줄 수 있다. 구체적으로 설명하면, 계산부(100)가 센싱부(200)로부터 실시간 측정되어 송신된 움직임데이터(즉, 기울임 정도)를 바탕으로, 기울기값에 상응하는 액체류가 부어져서 바닥면에서 펼쳐지는 정도를 산출하여 출력영상으로 실시간 표시할 수 있다.The output image may be a result of performing the cooking operation. For example, as shown in FIG. 2, when the operation performed by the user is a pouring operation of the liquid flow, the degree of spread according to the amount of liquid flow calculated as poured according to the degree of tilt measured by the sensing unit 200 It can be created and displayed as an output image. More specifically, based on the motion data measured in real time from the sensing unit 200 (i.e., the degree of tilt), the calculation unit 100 calculates the degree to which the liquid flow corresponding to the tilt value is swollen and spreads on the floor surface Can be calculated and displayed in real time as an output image.

또한, 화면출력부(300)는 터치스크린으로 구현될 수 있다. 화면출력부(300)가 터치스크린인 경우, 화면출력부(300)는 작업에 의한 접촉조작을 인식할 수 있다. 접촉조작은 사용자의 신체뿐만 아니라 센싱부(200)에 의해서 수행될 수 있다. 예를 들어, 도 6에서와 같이, 썰기 동작을 수행하는 경우, 터치스크린(화면출력부(300))이 칼 형상으로 구성된 센싱부(200)의 접촉조작을 인식하여 사용자가 작업공간에 해당하는 화면 상에 제대로 동작을 수행하는 지 여부를 측정할 수 있다. 이를 위해, 센싱부(200)는 화면출력부(300)와 접촉하는 부분에 전도성 물질을 구비할 수 있다.Also, the screen output unit 300 may be implemented as a touch screen. When the screen output unit 300 is a touch screen, the screen output unit 300 can recognize a touch operation by an operation. The touch operation can be performed by the sensing unit 200 as well as the user's body. For example, as shown in FIG. 6, when the slicing operation is performed, the touch screen (the screen output unit 300) recognizes the touch operation of the sensing unit 200 configured as a knife, It can be measured whether or not the operation is properly performed on the screen. For this, the sensing unit 200 may be provided with a conductive material in a portion contacting the screen output unit 300.

또한, 화면출력부(300)는 상기 화면 상에 상기 작업의 가이드라인(320)(310)를 표시할 수 있다. 상기 가이드라인(320)(310)는 사용자가 작업을 수행하여 도달하거나 맞추어야 하는 목표에 해당한다. 예를 들어, 도 2에서와 같이, 액체류를 따르는 작업의 경우, 화면출력부(300)는 액체가 퍼지는 원형(이하, 작업수행도형)에 상응하는 원형의 가이드라인(320)(310)를 화면상에 표시할 수 있다. 이를 통해, 사용자는 표시된 가이드라인(320)(310)에 작업수행도형을 정확하게 맞추는 액체류 따르기 작업을 수행할 수 있다. 또한, 상기 작업이 썰기 동작에 해당하는 경우, 도 6에서와 같이, 화면출력부(300)는 사용자가 칼 형상으로 구성된 센싱부(200)를 이용하여 썰기 동작을 수행할 직선 형태의 가이드라인을 가이드라인(320)(310)로 표시할 수 있다. In addition, the screen output unit 300 may display the job guidelines 320 and 310 on the screen. The guidelines 320 and 310 correspond to goals that a user must perform to accomplish and reach. For example, as shown in FIG. 2, in the case of a work following a liquid flow, the screen output unit 300 may include a circular guide line 320 (310) corresponding to a circle in which a liquid spreads It can be displayed on the screen. In this way, the user can perform a liquid flow pouring operation that accurately aligns the work execution graphics on the displayed guidelines 320 (310). 6, the screen output unit 300 may display a linear guide line for performing a slicing operation using the sensing unit 200 configured by a user as a knife, And can be expressed by the guidelines 320 and 310. [

화면출력부(300)가 화면상에 가이드라인(320)(310)를 표시하는 경우, 상기 계산부(100)는 상기 가이드라인(320)(310)에 대한 상기 접촉조작의 정확도를 산출할 수 있다. 예를 들어, 도 6에서와 같이, 화면출력부(300) 상에 출력된 가이드라인을 따라서 수행한 사용자의 동작이 가이드라인을 기준으로 떨어진 정도를 누적하여 작업의 정확도를 측정할 수 있다. 썰기 동작의 정확도를 산출하는 방법으로, 계산부(100)가 사용자가 센싱부(200)로 썰기동작을 수행한 선과 가이드라인(320)(310)에 해당하는 직선 사이의 면적을 측정하는 방식, 가이드라인의 특정 간격에서 작업을 수행한 선과의 오차를 누적하는 방식 등을 적용할 수 있다. When the screen output unit 300 displays the guide lines 320 and 310 on the screen, the calculation unit 100 can calculate the accuracy of the touch operation with respect to the guide lines 320 and 310 have. For example, as shown in FIG. 6, the accuracy of the task can be measured by accumulating the degree of the user's action performed along the guideline output on the screen output unit 300 based on the guideline. A method of calculating the accuracy of the slicing operation may be a method in which the calculation unit 100 measures an area between a line where the user performs the slicing operation with the sensing unit 200 and a straight line corresponding to the guide lines 320 and 310, And a method of accumulating the error between the line at which the work is performed and a line at a specific interval of the guide line.

또한, 화면출력부(300)는 압력센서를 더 구비할 수 있다. 압력센서는 사용자가 수행하는 작업이 화면에 힘(또는 압력)을 가하는 형태인 경우, 압력센서는 사용자가 화면을 누르는 세기를 인식할 수 있다. 화면출력부(300)는 수행하는 작업의 동작에 따라 바닥면에 특정 세기 이상의 압력이 가해지는 지 여부의 측정할 필요가 있을 수 있다. 예를 들어, 도 6에서와 같이, 칼 형상의 센싱부(200)로 화면출력부(300)에 썰기 동작을 수행하는 경우, 특정 재료를 자르기 위해 특정한 세기 이상의 압력을 가하는 것과 같이, 압력센서가 화면출력부(300)에 가해지는 압력을 측정하여 특정한 세기 이상이 되는 지 여부를 판단할 수 있다. 터치스크린이 접촉조작의 세기를 인식할 수 있다면, 별도의 압력센서를 구비하지 않고 터치스크린이 화면출력부(300)에 가해지는 압력 세기를 측정할 수 있다.In addition, the screen output unit 300 may further include a pressure sensor. The pressure sensor can recognize the intensity with which the user presses the screen when the work performed by the user applies force (or pressure) to the screen. The screen output unit 300 may need to measure whether or not a pressure higher than a specific intensity is applied to the floor surface according to the operation of the operation to be performed. For example, as shown in FIG. 6, when the knife-shaped sensing unit 200 performs a slicing operation on the screen output unit 300, as in the case of applying a pressure of a specific intensity or more to cut a specific material, It is possible to determine whether the pressure applied to the screen output unit 300 is equal to or greater than a specific intensity. If the touch screen can recognize the intensity of the touch operation, it is possible to measure the pressure intensity applied to the screen output unit 300 by the touch screen without a separate pressure sensor.

또한, 화면출력부(300)는, 작업을 제공하는 복수의 작업수행공간(330)을 포함할 수 있다. 화면출력부(300)는 복수의 작업수행공간(330)에 상이한 작업에 상응하는 영상을 표시할 수 있고, 임의의 순서로 사용자에게 복수의 작업을 수행하도록 요청할 수 있다. 계산부(100)는 복수의 작업을 임의의 순서로 제공하는 상기 출력영상을 생성하여 영상출력을 위해 화면출력부(300)로 전송하고, 센싱부(200)로부터 움직임데이터를 수신하여 해당 시점에 요청되는 작업에 대응하는 동작을 사용자가 수행하는 지 여부를 판단할 수 있다. 또한, 후술하는 바와 같이, 화면출력부(300)는 센싱장치의 작업지점을 인식하여 작업이 요청되는 작업수행공간(330)에 대응하는 지점에서 동작이 이루어지는 지 여부를 측정하여 작업능력 평가 또는 출력영상 생성에 반영할 수 있다.In addition, the screen output unit 300 may include a plurality of job performing spaces 330 for providing jobs. The screen output unit 300 may display an image corresponding to a different job in the plurality of job execution spaces 330 and may request the user to perform a plurality of jobs in an arbitrary order. The calculation unit 100 generates the output image providing a plurality of jobs in an arbitrary order and transmits the generated output image to the screen output unit 300 for outputting the image, receives the motion data from the sensing unit 200, It is possible to determine whether or not the user performs an operation corresponding to the requested job. As will be described later, the screen output unit 300 recognizes the operation point of the sensing device and measures whether or not the operation is performed at a point corresponding to the operation performing space 330 where the operation is requested. It can be reflected in the image generation.

센싱부(200) 및 화면출력부(300)는 하나의 장치 내에 포함될 수 있고, 분리된 센싱장치 및 화면출력장치에 각각 포함될 수도 있다. 센싱부(200) 및 화면출력부(300)가 하나의 장치 내에 포함된 경우, 센싱부(200)가 비전센서(340)와 같이 사용자의 동작을 원거리에서 측정(또는 센싱)하거나 사용자가 장치 내에 구비된 버튼 또는 스위치 등의 조작을 인식할 수 있다. 센싱부(200) 및 화면출력부(300)가 별도의 장치에 포함되는 경우, 사용자의 작업 동작에 해당하는 움직임데이터를 센싱장치가 측정하여 화면출력장치로 전송할 수 있다. 이 때, 계산부(100)는 센싱장치 또는 화면출력장치 내에 포함될 수 있고, 경우에 따라 별도의 장치로 구성될 수도 있다. 예를 들어, 계산부(100)가 화면출력부(300)와 함께 화면출력장치 내에 포함되는 경우, 센싱장치 내의 센싱부(200)가 사용자의 움직임데이터를 측정하여 유선(예를 들어, 화면출력장치와 연결된 케이블) 또는 무선(예를 들어, 근거리 통신 방식 또는 Wi-Fi와 같은 실내통신망)을 통해 화면출력장치로 전송할 수 있다. 그 후, 화면출력장치는 움직임데이터를 분석하여 수행결과를 산출하고, 상응하는 실시간 출력영상을 생성하여 화면상에 표시할 수 있다. The sensing unit 200 and the screen output unit 300 may be included in one apparatus and may be included in the separate sensing apparatus and screen output apparatus, respectively. When the sensing unit 200 and the screen output unit 300 are included in one device, the sensing unit 200 may measure (or sense) the user's operation at a distance as in the vision sensor 340, It is possible to recognize the operation of the provided buttons or switches. When the sensing unit 200 and the screen output unit 300 are included in a separate device, the sensing device may measure the motion data corresponding to the operation of the user and transmit the measured motion data to the screen output device. At this time, the calculation unit 100 may be included in the sensing device or the screen output device, and may be configured as a separate device in some cases. For example, when the calculation unit 100 is included in the screen output device together with the screen output unit 300, the sensing unit 200 in the sensing device measures the movement data of the user, (E.g., a cable connected to the device) or wireless (e.g., an indoor network such as a local area network or Wi-Fi). Thereafter, the screen output device may analyze the motion data, calculate the execution result, and generate a corresponding real-time output image to display on the screen.

센싱부(200)는 움직임데이터로 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 등을 측정할 수 있다. 예를 들어, 센싱부(200)가 별도의 센싱장치로 구현되는 경우, 사용자가 손에 쥐고 수행하는 동작에 따라 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 등의 움직임데이터의 전부 또는 일부를 획득할 수 있다. 특정한 작업이 선택된 후 사용자가 동작을 수행하는 경우, 센싱부(200)는 선택된 작업의 수행결과를 산출하는데 필요한 움직임데이터만을 측정할 수 있다. The sensing unit 200 can measure the degree of tilt, linear acceleration, linear velocity, rotation acceleration, rotation speed, number of rotations, degree of twist, and the like as motion data. For example, when the sensing unit 200 is implemented as a separate sensing device, the degree of tilt, the linear acceleration, the linear velocity, the rotation acceleration, the rotational speed, the number of rotations, All or a part of the motion data of the motion vector can be obtained. When a user performs an operation after a specific job is selected, the sensing unit 200 may measure only the motion data necessary for calculating the execution result of the selected job.

센싱부(200)는 움직임데이터를 획득하기 위해 제1관성센서(IMU 센서; Inertial measurement unit Sensor)를 포함할 수 있다. IMU 센서는 MEMS(Micro Mechanical System) 기반의 9축 IMU 센서일 수 있다. 9축 IMU 센서는 3축 가속도 센서(Acceleration Sensor)와, 3축 자이로스코프 센서(Gyroscope Sensor)와, 3축 지자기 센서(terrestrial magnetism Sensor)를 포함한다. 3축 가속도 센서는 x축, y축, z축의 이동관성(가속도)을 측정한다. 3축 자이로스코프 센서는 x축, y축, z축의 회전관성(각속도)을 측정한다. 3축 지자기 센서는 x축, y축, z축의방위각(지자기의 방향)을 측정한다. 다른 실시예에 따르면, 센싱부(200)는 IMU 센서 대신, 가속도 센서 및 지자기 센서 중 적어도 하나를 포함할 수 있다. The sensing unit 200 may include a first inertial sensor (IMU sensor) to acquire motion data. The IMU sensor may be a MEMS (Micro Mechanical System) based 9-axis IMU sensor. The 9-axis IMU sensor includes a 3-axis acceleration sensor, a 3-axis gyroscope sensor, and a 3-axis terrestrial magnetism sensor. The 3-axis acceleration sensor measures the mobile inertia (acceleration) of the x-, y-, and z-axes. The 3-axis gyroscope sensor measures the rotational inertia (angular velocity) of the x, y, and z axes. The 3-axis geomagnetic sensor measures the azimuths of the x-axis, y-axis, and z-axis (direction of the geomagnetism). According to another embodiment, the sensing unit 200 may include at least one of an acceleration sensor and a geomagnetic sensor instead of the IMU sensor.

또한, 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)은, 조작물체(400)를 더 포함할 수 있다. 조작물체(400)는 화면출력부(300) 상에서 센싱부(200)에 의해 조작되는, 제2관성센서를 포함하는 물체에 해당할 수 있다. 예를 들어, 도 5에서와 같이, 뒤집기 동작을 수행하는 경우에 화면출력부(300) 상에 배치된 물체(예를 들어, 부침개와 같이 넙적한 형상의 물체)가 조작물체(400)에 해당할 수 있다. 사용자는 센싱부(200)를 포함한 센싱장치(예를 들어, 도 5에서 뒤집개)를 이용하여 조작물체(400)의 뒤집기 동작을 수행할 수 있고, 조작물체(400)는 사용자의 조작에 따른 배치상태를 측정하여 계산부(100)로 전송할 수 있다.In addition, the work performance measuring system 10 according to an embodiment of the present invention may further include an operation object 400. [ The manipulated object 400 may correspond to an object including the second inertial sensor which is operated by the sensing unit 200 on the screen output unit 300. [ For example, as shown in FIG. 5, when the flip operation is performed, an object (for example, a hull-shaped object such as a flasher) disposed on the screen output unit 300 corresponds to the operation object 400 can do. The user can perform a flip operation of the operation object 400 using a sensing device including the sensing unit 200 (for example, a reversing device in Fig. 5) And transmits the measured state to the calculation unit 100.

또한, 상기 작업이 볶기 동작인 경우, 특정한 형상의 조작물체(400)가 배치상태를 측정하여 계산부(100)로 전송할 수 있다. 계산부(100)는 사용자의 센싱장치를 이용한 조작에 따라 변화된 조작물체(400)의 배치상태를 바탕으로 사용자의 작업 수행을 측정할 수 있다.In addition, when the operation is a roasting operation, the operation object 400 having a specific shape can be measured and transmitted to the calculation unit 100. The calculation unit 100 can measure the performance of the user based on the changed arrangement state of the manipulated object 400 according to the manipulation using the sensing device of the user.

제2관성센서는 IMU 센서에 해당할 수 있다. IMU 센서는 MEMS(Micro Mechanical System) 기반의 9축 IMU 센서일 수 있다. 9축 IMU 센서는 3축 가속도 센서(Acceleration Sensor)와, 3축 자이로스코프 센서(Gyroscope Sensor)와, 3축 지자기 센서(terrestrial magnetism Sensor)를 포함한다. 3축 가속도 센서는 x축, y축, z축의 이동관성(가속도)을 측정한다. 3축 자이로스코프 센서는 x축, y축, z축의 회전관성(각속도)을 측정한다. 3축 지자기 센서는 x축, y축, z축의방위각(지자기의 방향)을 측정한다.The second inertial sensor may correspond to an IMU sensor. The IMU sensor may be a MEMS (Micro Mechanical System) based 9-axis IMU sensor. The 9-axis IMU sensor includes a 3-axis acceleration sensor, a 3-axis gyroscope sensor, and a 3-axis terrestrial magnetism sensor. The 3-axis acceleration sensor measures the mobile inertia (acceleration) of the x-, y-, and z-axes. The 3-axis gyroscope sensor measures the rotational inertia (angular velocity) of the x, y, and z axes. The 3-axis geomagnetic sensor measures the azimuths of the x-axis, y-axis, and z-axis (direction of the geomagnetism).

이하, 본 발명의 일실시예에 따른 다양한 조리작업에 따라 수행되는 구체적인 작업능력 측정 과정 및 이를 위해 부가되는 구성에 대해서 설명한다.Hereinafter, a specific operation capability measurement process performed according to various cooking operations according to an embodiment of the present invention, and a configuration added thereto for the operation will be described.

도 2는 본 발명의 일실시예에 따라 액체류의 따르기 동작을 수행하는 예시도면이다.Figure 2 is an exemplary view of performing a pour operation of a liquid stream in accordance with one embodiment of the present invention.

도 2를 참조하면, 본 발명의 일실시예에 따라 사용자가 수행하는 작업이 액체류의 따르기 동작인 경우, 센싱부(200)는 센싱장치의 실시간 기울임정도를 측정할 수 있다. 계산부(100)는 측정된 기울임정도를 바탕으로 부어진 액체의 양을 산출하고, 상기 액체의 양에 따라 퍼진 정도를 출력영상으로 생성할 수 있다. 예를 들어, 사용자가 센싱장치를 들고 컵에서 액체를 따르는 것과 같이 센싱장치를 기울이는 경우, 실제 상황과 같이 각 기울기에 따라서 부어진 액체의 양을 설정하여, 특정 기울기 이상 센싱장치가 기울어지지 않으면 액체가 더 이상 부어지지 않도록 할 수 있다. 사용자가 센싱장치를 더 기울이면, 계산부(100)는 실시간으로 센싱된 기울기를 반영한 출력영상을 생성할 수 있다. 그 후, 화면출력부(300)는 실시간으로 생성된 액체가 퍼진 정도의 출력영상을 표시하여 줄 수 있다. 후술하는 바와 같이, 액체류의 따르기 동작에 따른 작업능력 측정은 동작이 수행되는 화면출력부(300) 상의 위치 등의 기울임정도 이외의 다양한 움직임데이터가 함께 반영될 수 있다.Referring to FIG. 2, according to an embodiment of the present invention, when the operation performed by the user is a pouring operation of the liquid flow, the sensing unit 200 can measure the degree of real-time tilting of the sensing device. The calculation unit 100 may calculate the amount of the liquid poured on the basis of the measured degree of tilt and generate the degree of spread according to the amount of the liquid as an output image. For example, when the user tilts the sensing device such as pouring the liquid in the cup by lifting the sensing device, the amount of liquid poured according to each slope is set as in the actual situation, and if the sensing device is not tilted above a certain slope, Can be prevented from being poured any further. When the user further tilts the sensing device, the calculation unit 100 can generate an output image reflecting the sensed tilt in real time. Thereafter, the screen output unit 300 may display an output image of a degree spreading the liquid generated in real time. As described later, various kinds of motion data other than the degree of inclination of the position on the screen output unit 300 on which the operation is performed can be reflected together with the measurement of the work capacity according to the pouring operation of the liquid flow.

또한, 계산부(100)가 출력영상에 부어진 액체 영역이 도달하거나 맞추어져야 할 가이드라인(320)(310)에 해당하는 도형을 더 포함하여 생성할 수 있다. 사용자는 작업수행을 통해 생성되는 액체 영역을 가이드라인(320)(310)에 맞추려고 시도하고, 계산부(100)는 사용자의 수행시간, 수행한 결과도형과 가이드라인(320)(310)의 차이정도 등을 바탕으로 사용자의 작업 수행 능력을 평가할 수 있다. 예를 들어, 사용자의 작업 동작에 따라 원형의 액체영역이 가이드라인(320)(310)에 상응하는 원형의 목표도형의 중심에서부터 확장되는 경우, 가이드라인(320)(310)에 해당하는 원형과 액체영역에 해당하는 원형의 반지름 크기를 비교할 수 있다.In addition, the calculation unit 100 may further include a figure corresponding to the guide lines 320 and 310 to which the liquid area poured into the output image reaches or is to be aligned. The user attempts to align the liquid area generated through the performance of the work with the guidelines 320 and 310 and the calculation unit 100 calculates the difference between the execution time of the user and the resultant figure and the guide line 320 The user's ability to perform tasks can be evaluated. For example, when the circular liquid region extends from the center of the circular target shape corresponding to the guide lines 320 and 310 according to the operation of the user, the circular shape corresponding to the guide lines 320 and 310 The radius of the circle corresponding to the liquid area can be compared.

도 3은 본 발명의 일실시예에 따라 거품내기 동작을 수행하는 예시도면이다.Figure 3 is an exemplary view of performing a foaming operation according to one embodiment of the present invention.

도 3을 참조하면, 본 발명의 일실시예에 따라 작업수행능력 측정시스템(10)은 거품내기 동작과 같은 손으로 저어주는 동작을 측정할 수 있다. 센싱장치는 무게 추(210)를 포함할 수 있다. 무게 추(210)는 높낮이 조절을 통해 회전 난이도 조절을 할 수 있다. 이를 통해, 센싱장치는 무게 추(210)의 높낮이 조절을 통해 설정된 난이도에 따른 환자가 수행하는 회전가속도 및 회전횟수를 측정할 수 있다.Referring to FIG. 3, the performance measuring system 10 according to an exemplary embodiment of the present invention may measure a hand-shaking motion such as a bubbling operation. The sensing device may include a weight 210. The weight 210 can adjust the degree of difficulty by adjusting the height. Accordingly, the sensing device can measure the rotational acceleration and the number of rotations performed by the patient according to the set degree of difficulty by adjusting the height of the weight 210.

계산부(100)는 측정된 회전가속도 및 회전 횟수에 상응하는 거품발생 정도를 적용하여 실시간 거품 발생 영상을 생성할 수 있다. 화면출력부(300)는 생성된 영상을 수신하여 출력하여 사용자가 자신의 수행정도에 따른 결과를 확인하도록 할 수 있다.The calculation unit 100 may generate the real-time bubble generation image by applying the degree of bubble generation corresponding to the measured rotation acceleration and the number of rotation. The screen output unit 300 may receive and output the generated image so that the user can confirm the result according to the degree of performance of the user.

도 4a는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행하기 전의 상태를 도시한 예시도면이다. 도 4b는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행한 후의 상태를 도시한 예시도면이다.FIG. 4A is an exemplary view showing a state before performing a kneading expansion operation according to an embodiment of the present invention. FIG. FIG. 4B is an exemplary view showing a state after performing a kneading expansion operation according to an embodiment of the present invention. FIG.

반죽 펼치기 동작에서, 센싱부(200)의 제1관성센서는 회전가속도, 회전속도, 또는 회전횟수 등을 포함하는 구르기 정도를 인식할 수 있다. 계산부(100)는 센싱부(200)로부터 구르기 정도를 바탕으로 화면상에 표시된 반죽 도형이 확장될 수 있다. 즉, 센싱부(200)를 포함한 센싱장치가 반죽에 해당하는 영역을 지나가기 전에는 작은 크기의 반죽도형(도 4a 참조)이었다가, 반죽 펼치기 동작(즉, 화면출력부(300) 상에서 센싱장치를 회전 병진 운동 시키는 동작)에 의한 움직임데이터를 적용하여 반죽도형이 확장되게 된다(도 4b 참조).In the kneading expansion operation, the first inertial sensor of the sensing unit 200 can recognize the degree of rolling including the rotational acceleration, the rotational speed, the number of rotations, and the like. The calculation unit 100 may expand the dough figure displayed on the screen on the basis of the degree of rolling from the sensing unit 200. [ That is, before the sensing device including the sensing unit 200 passes the area corresponding to the dough, the dough pattern is small (see FIG. 4A), and the dough spreading operation (that is, the sensing device on the screen output unit 300) The rotational motion of the kneading mold is applied to the kneading pattern (see FIG. 4B).

작업수행능력 측정시스템(10)은 반죽 펼치기 동작을 측정하기 위해 화면출력부(300)에 압력센서를 더 포함할 수 있다. 압력센서는 반죽 펼치기 작업 중에 화면출력부(300)에 가해지는 압력을 측정할 수 있다. 즉, 실제 상황에서 반죽에 가해지는 힘의 세기에 따라 반죽이 펼쳐지는 정도가 달라지는 것과 같이, 압력센서가 센싱부(200)를 굴리는 과정에서 화면출력부(300)에 가해지는 압력을 측정하여 계산부(100)의 출력영상 생성에 반영할 수 있다. The work performance measuring system 10 may further include a pressure sensor on the screen output unit 300 to measure the kneading expansion operation. The pressure sensor can measure the pressure applied to the screen output unit 300 during the dough spreading operation. That is, the pressure applied to the screen output unit 300 in the course of the pressure sensor moving the sensing unit 200 may be calculated by calculating the pressure applied to the screen output unit 300, such that the degree of spreading of the dough varies depending on the strength of the force applied to the dough in an actual situation. So that it can be reflected in the output image generation of the unit 100.

도 6은 본 발명의 일실시예에 따라 썰기 동작을 수행하는 예시도면이다.6 is an exemplary diagram illustrating a slicing operation according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일실시예에 따라 사용자가 수행하는 작업이 썰기 동작인 경우의 작업수행능력을 측정할 수 있다. 센싱부(200)를 포함하는 센싱장치는 상기 접촉조작을 할 수 있는 칼 형상의 장치에 해당할 수 있다. 계산부(100)는 썰기 동작의 가이드라인(320)(310)인 가이드라인을 출력영상 내에 생성할 수 있고, 사용자가 센싱장치로 수행하는 썰기 동작의 경로를 파악하여 정확도를 측정할 수 있다. Referring to FIG. 6, it is possible to measure an ability to perform a task when a user performs a slicing operation according to an exemplary embodiment of the present invention. The sensing device including the sensing unit 200 may correspond to a knife-shaped device capable of performing the contact operation. The calculation unit 100 can generate a guide line 320 (310) of the slicing operation in the output image, and can measure the accuracy by grasping the path of the slicing operation performed by the user.

또한, 상기 계산부(100)는 작업달성시간 또는 상기 정확도를 반영하여 복수의 상기 가이드라인(320)(310)(즉, 가이드라인) 배치간격을 조절하여 난이도를 조절할 수 있다. 예를 들어, 사용자가 가이드라인을 따라 수행한 썰기 동작의 정확도가 소정의 기준보다 높은 경우에는 이어지는 가이드라인을 촘촘하게 배치하여 작업 수행이 어렵게 할 수 있다. 또한, 계산부(100)는 작업을 수행하는 제한시간을 조절할 수도 있으며, 썰기동작을 수행할 가이드라인의 형태를 난이도 높은 형태로 변경할 수도 있다.In addition, the calculation unit 100 may adjust the difficulty level by adjusting the placement intervals of the plurality of guide lines 320 and 310 (that is, the guide lines) by reflecting the work accomplishment time or the accuracy. For example, when the precision of the slicing operation performed by the user along the guideline is higher than a predetermined standard, subsequent guiding lines may be closely arranged to make it difficult to perform the work. In addition, the calculation unit 100 may adjust a time limit for performing a task, and may change a form of a guideline for performing a slicing operation to a form of a higher degree of difficulty.

도 7은 본 발명의 일실시예에 따라 불끄기 동작을 수행하는 예시도면이다. 7 is an exemplary diagram illustrating a fire-off operation according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 일실시예에 따라 사용자가 수행하는 작업이 불끄기 동작인 경우의 작업수행능력을 측정할 수 있다. 화면출력부(300)는 복수의 작업수행공간(330)이 포함된 출력영상을 표시할 수 있으며, 계산부(100)는 화면출력부(300) 상의 특정한 작업수행공간(330)에 작업을 요청할 수 있다. 이에 따라 사용자가 요청된 작업수행공간(330)에 해당하는 센싱부(200)를 조작하도록 할 수 있다. 본 실시예에서 센싱부(200)는 복수 개의 밸브에 해당할 수 있다. 사용자가 화면출력부(300)에 불이 켜지는 특정한 작업수행공간(330)에 대응하는 밸브를 돌리도록 하여, 갑작스런 상황에 대한 반응 속도 등을 테스트할 수 있는 효과가 있다.Referring to FIG. 7, according to an exemplary embodiment of the present invention, a task performing capability when a task performed by a user is a non-performing operation can be measured. The screen output unit 300 may display an output image including a plurality of job execution spaces 330 and the calculation unit 100 may request a job in a specific job execution space 330 on the screen output unit 300 . Accordingly, the user can operate the sensing unit 200 corresponding to the requested task performing space 330. In this embodiment, the sensing unit 200 may correspond to a plurality of valves. The user can test the response speed and the like for a sudden situation by allowing the user to rotate the valve corresponding to the specific work execution space 330 in which the screen output unit 300 is lit.

도 8은 본 발명의 일실시예에 따라 센싱부(200)의 화면출력부(300) 상의 위치를 인식하여 출력영상에 반영하는 예시도면이다. 도 9는 본 발명의 일실시예에 따라 비전센서(340)를 통해 센싱부(200)의 위치를 인식하는 예시도면이다.FIG. 8 is an exemplary diagram for recognizing a position on the screen output unit 300 of the sensing unit 200 according to an exemplary embodiment of the present invention and reflecting the position on the output image. 9 is an exemplary diagram for recognizing the position of the sensing unit 200 through the vision sensor 340 according to an embodiment of the present invention.

도 8를 참조하면, 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)은 사용자에 의해 수행되는 동작의 화면출력부(300) 상의 위치를 측정하여 출력영상 생성 또는 작업수행능력 산출에 활용할 수 있다. 상기 화면출력부(300)는, 상기 센싱부(200)가 위치하는 수직하게 사영된 상기 화면출력부(300) 상의 작업지점을 측정할 수 있다. 예를 들어, 도 8에서와 같이, 사용자의 손이 이전 작업지점(점선으로 표시된 손)에서 다른 작업지점(실선으로 표시된 손)으로 이동하는 경우, 화면출력부(300)는 사용자의 손의 위치를 인식하고, 이를 계산부(100)가 출력영상에 반영하여 표시할 수 있다. 즉, 손의 위치가 이동함에 따라 액체류가 퍼지는 화면출력부(300) 상의 중심의 위치도 이동할 수 있다. 이에 따라 사용자가 작업 수행을 위해 일정한 위치에 유지할 수 있는 지 여부를 판단할 수 있다. Referring to FIG. 8, the work performance measuring system 10 according to an exemplary embodiment of the present invention measures a position on the screen output unit 300 of an operation performed by a user and calculates an output image Can be utilized. The screen output unit 300 may measure a work point on the vertically projected screen output unit 300 where the sensing unit 200 is located. 8, when the user's hand moves from a previous work point (a hand indicated by a dotted line) to another work point (a hand indicated by a solid line), the screen output unit 300 displays the position of the user's hand And the calculation unit 100 may reflect and display the output image. That is, as the position of the hand moves, the position of the center on the screen output unit 300 where the liquid flow spreads can also be moved. Accordingly, it is possible to determine whether or not the user can maintain a predetermined position for performing the task.

일실시예로 화면출력부(300)가, 도 9에서와 같이, 카메라와 같은 비전센서(340)를 포함할 수 있다. 비전센서(340)가 화면출력부(300) 상에서 수행되는 동작을 포함하는 영상을 획득하고, 계산부(100)가 영상을 수신하여 영상 분석을 통해 동작이 수행되는 작업지점를 파악할 수 있다. 그 후, 계산부(100)는 실시간으로 측정된 상기 작업지점에 수행결과(즉, 센싱부(200)가 측정한 움직임데이터에 의해 생성될 영상)를 적용한 출력영상을 생성할 수 있다. 다만, 화면출력부(300) 상의 작업지점을 인식하는 방식은 비전센서(340)에 의한 방식에 한정되지 아니하고, 센싱부(200)에 부착된 식별표지의 위치를 화면출력부(300)가 센싱하는 방식 등의 다양한 방식이 적용될 수 있다.In one embodiment, the screen output unit 300 may include a vision sensor 340, such as a camera, as in FIG. The vision sensor 340 acquires an image including an operation performed on the screen output unit 300 and the calculation unit 100 receives an image and can recognize a work point where an operation is performed through image analysis. Then, the calculation unit 100 may generate an output image to which the execution result (i.e., the image to be generated by the motion data measured by the sensing unit 200) is applied to the work point measured in real time. However, the method of recognizing the work point on the screen output unit 300 is not limited to the method by the vision sensor 340, and the position of the identification mark attached to the sensing unit 200 may be sensed by the screen output unit 300 And a method in which the data is transmitted and received.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.

첫째, 환자가 일상생활에 필요한 작업을 통해서 재활 훈련을 수행할 수 있는 효과가 있다. 즉, 환자들이 일상생활에서 많이 쓰는 조리작업을 실제 상황과 유사하게 수행하도록 하여 사회 적응 속도를 높일 수 있는 효과가 있다.First, there is an effect that the patient can perform the rehabilitation training through the work necessary for daily life. In other words, it is possible to improve the speed of social adaptation by allowing patients to perform cooking tasks that are frequently used in daily life, in a similar manner to actual situations.

둘째, 환자들이 컵을 옮기는 등의 재미없는 재활훈련이 아닌 일상생활에서 수행하는 동작들을 행하면서 재활훈련에 흥미를 느낄 수 있으며, 일상생활에 적응하기 위해서는 본 훈련을 제대로 이수할 필요가 있다는 동기부여를 하여 재활훈련에 대한 의욕을 높일 수 있는 효과가 있다.Second, patients may be interested in rehabilitation exercises while performing activities that are performed in daily life rather than not having fun without rehabilitation such as moving cups. In order to adapt to daily life, motivation is needed And to increase the motivation for rehabilitation training.

셋째, 본 시스템을 통해 다양한 조리작업들을 한번에 훈련할 수 있는 효과가 있다.Third, this system has the effect of training various cooking tasks at once.

넷째, 본 발명의 일실시예에 따른 작업수행능력 측정시스템은 환자에게 단순히 재활훈련을 제시하는 것이 아닌, 재활훈련의 성취도를 평가하여 제시할 수 있다. 또한, 환자의 재활훈련 수행 정도에 따라 난이도를 조절할 수 있어 환자에게 적합한 수준의 재활훈련을 제공할 수 있다.Fourth, the performance measuring system according to an embodiment of the present invention can evaluate the achievement of the rehabilitation training rather than simply presenting the rehabilitation training to the patient. In addition, the difficulty level can be adjusted according to the degree of rehabilitation training performed by the patient, thereby providing a level of rehabilitation training suitable for the patient.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

10 : 시스템 100 : 계산부
200 : 센싱부 210 : 무게 추
300 : 화면출력부 310 : 목표치
320 : 가이드라인 330 : 작업수행공간
340 : 비전센서 400 : 조작물체
10: system 100: calculation unit
200: sensing part 210: weight
300: screen output unit 310: target value
320: Guideline 330: Work space
340: vision sensor 400: manipulated object

Claims (12)

사용자가 수행한 특정한 작업에 대한 움직임데이터를 센싱하는 센싱부;
상기 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하여 상기 작업에 상응하는 실시간 출력영상을 생성하는 계산부; 및
바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 화면출력부;를 포함하며,
상기 센싱부는
상기 화면출력부 상에서 상기 특정한 작업을 수행하는 사용자의 손 위치에 해당하는 제1움직임데이터를 획득하는 위치센싱부; 및
손의 작업유형, 직선가속도, 직선속도, 회전가속도, 회전속도 및 기울기 중 적어도 하나를 포함하는 제2움직임데이터를 획득하는 움직임센싱부를 포함하고,
상기 센싱부, 상기 계산부 및 상기 화면출력부는 분리된 센싱장치 및 화면출력장치에 포함되며,
상기 센싱장치는 상기 움직임센싱부를 포함하여, 사용자의 손에 쥐어진 상태로 조작되고,
상기 화면출력장치는 상기 계산부, 상기 위치센싱부 및 상기 화면출력부를 포함하며, 상기 제1움직임데이터에 상응하는 작업지점을 기준으로 상기 제2움직임데이터에 상응하는 출력영상을 표시하고,
상기 제1움직임데이터는 상기 센싱장치의 공간상 위치가 화면출력부 상으로 수직 사영된 지점인, 작업수행능력 측정시스템.
A sensing unit for sensing motion data for a specific operation performed by the user;
A calculation unit for calculating a real time performance result of the specific task based on the sensed motion data and generating a real time output image corresponding to the task; And
And a screen output unit arranged horizontally on the bottom surface for displaying the real time output image,
The sensing unit
A position sensing unit for acquiring first motion data corresponding to a hand position of a user performing the specific task on the screen output unit; And
And a motion sensing unit for acquiring second motion data including at least one of a working type of a hand, a linear acceleration, a linear velocity, a rotation acceleration, a rotation speed and a slope,
Wherein the sensing unit, the calculation unit, and the screen output unit are included in a separate sensing device and a screen output device,
The sensing device includes the motion sensing unit and is operated in a state of being held in a user's hand,
Wherein the screen output device includes the calculation unit, the position sensing unit, and the screen output unit, and displays an output image corresponding to the second motion data on the basis of a working point corresponding to the first motion data,
Wherein the first motion data is a point at which the spatial position of the sensing device is vertically projected onto the screen output unit.
제1항에 있어서,
상기 작업은, 상기 화면출력부를 작업수행공간으로 하여 화면 위에서 수행되는 조리작업에 해당하며,
상기 출력영상은, 상기 조리작업에 의한 수행결과영상인 것을 특징으로 하는, 작업수행능력 측정시스템.
The method according to claim 1,
The operation corresponds to a cooking operation performed on the screen by using the screen output unit as a work performing space,
Wherein the output image is a result image obtained by the cooking operation.
제1항에 있어서,
상기 작업은 액체류의 따르기 동작에 해당하며,
상기 계산부는,
상기 움직임센싱부를 통해 센싱된 상기 기울기를 바탕으로 상기 액체류의 부어진 정도를 산출하고, 화면 상에 액체영상을 표시하는 것을 특징으로 하되,
상기 액체영상은 액체류가 부어짐에 따라 펼쳐지는 영상인, 작업수행능력 측정시스템.
The method according to claim 1,
This operation corresponds to the pouring operation of the liquid flow,
The calculation unit may calculate,
Calculating a pouring degree of the liquid flow based on the inclination sensed by the motion sensing unit, and displaying a liquid image on the screen,
Wherein the liquid image is an image unfolding as a liquid flow is swollen.
제3항에 있어서,
상기 화면출력부는,
상기 액체류가 퍼지는 형태에 상응하는 가이드라인을 표시하되,
상기 가이드라인은 상기 작업의 목표치인, 작업수행능력 측정시스템.
The method of claim 3,
Wherein the screen output unit comprises:
A guide line corresponding to the shape of the liquid flow is displayed,
Wherein the guideline is a target value of the job.
제3항에 있어서,
상기 계산부는,
상기 제2움직임데이터를 통해 제1작업지점에서 제2작업지점으로 이동을 인식하고,
상기 제2작업지점을 기준으로 액체류가 퍼지는 것으로 상기 액체영상을 생성하고,
상기 제2작업지점은 상기 화면출력부 상에서 상기 특정한 작업을 수행하는 사용자의 작업 위치가 상기 제1작업지점으로부터 변경되는 지점인 것을 특징으로 하는, 작업수행능력 측정시스템.
The method of claim 3,
The calculation unit may calculate,
Recognizes movement from a first work point to a second work point through the second motion data,
Generating a liquid image by spreading a liquid flow on the basis of the second working point,
Wherein the second work point is a point at which a work position of a user performing the specific job on the screen output unit is changed from the first work point.
제4항에 있어서,
상기 계산부는,
상기 액체영상과 상기 가이드라인을 비교하여 작업정확도를 산출하고,
작업수행시간 및 상기 작업정확도를 바탕으로, 사용자의 작업 수행능력을 평가하는, 작업수행능력 측정시스템.
5. The method of claim 4,
The calculation unit may calculate,
Comparing the liquid image with the guide line to calculate an operation accuracy,
A task performance measurement system for assessing a user's ability to perform a task based on the task execution time and the task accuracy.
제6항에 있어서,
상기 계산부는,
상기 가이드라인과 상기 액체영상 사이의 면적을 계산하여, 상기 면적이 클수록 낮은 작업정확도로 결정하는, 작업수행능력 측정시스템.
The method according to claim 6,
The calculation unit may calculate,
Calculating an area between the guide line and the liquid image, and determining the work accuracy to be lower as the area is larger.
제1항에 있어서,
상기 화면출력장치는 상기 화면출력부가 바닥면에 수평으로 배치되고,
상기 위치센싱부는 상기 화면출력장치 위의 공간에서 작업이 수행되는 상기 센싱장치를 인식하는 비전센서인, 작업수행능력 측정시스템.
The method according to claim 1,
Wherein the screen output device has a screen output unit horizontally disposed on a floor,
Wherein the position sensing unit is a vision sensor that recognizes the sensing device in which work is performed in the space on the screen output device.
제1항에 있어서,
상기 움직임센싱부는,
제1관성센서를 구비하여, 상기 제2움직임데이터로 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 중 적어도 하나를 측정하는 것을 특징으로 하는, 작업수행능력 측정시스템.
The method according to claim 1,
The motion sensing unit includes:
Wherein the first inertial sensor is provided to measure at least one of an inclination degree, a linear acceleration, a linear velocity, a rotation acceleration, a rotation speed, a rotation number, and a warp degree with the second motion data, .
삭제delete 삭제delete 삭제delete
KR1020150051607A 2015-04-13 2015-04-13 System for measuring the ability of ordinary performance Active KR101838939B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150051607A KR101838939B1 (en) 2015-04-13 2015-04-13 System for measuring the ability of ordinary performance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150051607A KR101838939B1 (en) 2015-04-13 2015-04-13 System for measuring the ability of ordinary performance

Publications (2)

Publication Number Publication Date
KR20160121858A KR20160121858A (en) 2016-10-21
KR101838939B1 true KR101838939B1 (en) 2018-03-15

Family

ID=57257154

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150051607A Active KR101838939B1 (en) 2015-04-13 2015-04-13 System for measuring the ability of ordinary performance

Country Status (1)

Country Link
KR (1) KR101838939B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102418994B1 (en) * 2019-12-31 2022-07-11 주식회사 버넥트 Method for providng work guide based augmented reality and evaluating work proficiency according to the work guide

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009000156A (en) * 2007-06-19 2009-01-08 Cooking Mama Ltd Cooking game program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009000156A (en) * 2007-06-19 2009-01-08 Cooking Mama Ltd Cooking game program

Also Published As

Publication number Publication date
KR20160121858A (en) 2016-10-21

Similar Documents

Publication Publication Date Title
JP6676213B2 (en) Detection of User Motion Range for Virtual Reality User Interface
CN102245100B (en) graphic representation
CN107577045B (en) The method, apparatus and storage medium of predicting tracing for head-mounted display
KR101726894B1 (en) Testing/training visual perception speed and/or span
WO2014146072A1 (en) Apparatus and method for simulated gameplay based on a geospatial position
KR101813522B1 (en) Apparatus for analyzing golf swing and system for virtual golf simulation using the same
JP5804553B2 (en) Posture balance measuring device
JP2009011362A (en) Information processing system, robot apparatus, and its control method
KR20150141213A (en) Motion counting measurement and display device
KR20210136043A (en) Interacting with smart devices using pointing controllers
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
JP7603291B2 (en) Action request system, action request method, and action request program
CN107617201A (en) Method for automatically configuring sensor, electronic device, and recording medium
JP6796197B2 (en) Information processing equipment, information processing methods and programs
JP2020515312A5 (en)
CN105597281B (en) Method and device for evaluating and training fine motion function of fingers
KR20110044391A (en) Input device and method
KR101838939B1 (en) System for measuring the ability of ordinary performance
JPWO2016079828A1 (en) User interface system, operation signal analysis method and program for batting operation
US20190076618A1 (en) Method, apparatus and system for mitigating motion sickness in a virtual reality environment
JP6694333B2 (en) Rehabilitation support control device and computer program
JP2014204759A (en) Standing posture balance evaluating/training system
KR102115501B1 (en) Body care motion tracking device and body care management method using the same
KR101997967B1 (en) Stair gait measuring device and method using the same
US12204098B1 (en) Head-mounted display system

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150413

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20161026

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20171229

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20180309

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20180309

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20210310

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20220307

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20230227

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20240220

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20250219

Start annual number: 8

End annual number: 8