KR101838939B1 - System for measuring the ability of ordinary performance - Google Patents
System for measuring the ability of ordinary performance Download PDFInfo
- Publication number
- KR101838939B1 KR101838939B1 KR1020150051607A KR20150051607A KR101838939B1 KR 101838939 B1 KR101838939 B1 KR 101838939B1 KR 1020150051607 A KR1020150051607 A KR 1020150051607A KR 20150051607 A KR20150051607 A KR 20150051607A KR 101838939 B1 KR101838939 B1 KR 101838939B1
- Authority
- KR
- South Korea
- Prior art keywords
- screen output
- unit
- sensing
- task
- output unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
Landscapes
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Child & Adolescent Psychology (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 작업수행능력 측정시스템에 관한 것이다.
본 발명의 일실시예에 따른 작업수행능력 측정시스템은, 사용자가 수행한 특정한 작업에 대한 움직임데이터를 센싱하는 센싱부; 상기 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하여 상기 작업에 상응하는 실시간 출력영상을 생성하는 계산부; 및 바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 화면출력부;를 포함하며, 상기 작업은 상기 화면출력부를 작업수행공간으로 하여 화면 위에서 수행되는 조리작업에 해당하며, 상기 출력영상은 상기 작업에 의한 상기 조리작업의 수행결과영상인 것을 특징으로 한다.
본 발명에 따르면, 환자가 일상생활에 필요한 작업을 통해서 재활 훈련을 수행할 수 있는 효과가 있다. 즉, 환자들이 일상생활에서 많이 쓰는 조리작업을 실제 상황과 유사하게 수행하도록 하여 사회 적응 속도를 높일 수 있는 효과가 있다.The present invention relates to a task performance measurement system.
According to another aspect of the present invention, there is provided a system for measuring performance of a task, comprising: a sensing unit for sensing motion data for a specific task performed by a user; A calculation unit for calculating a real time performance result of the specific task based on the sensed motion data and generating a real time output image corresponding to the task; And a screen output unit arranged horizontally on the floor surface and displaying the real time output image, wherein the operation corresponds to a cooking operation performed on the screen as the task execution space, And the image is a result of performing the cooking operation by the operation.
According to the present invention, there is an effect that a patient can perform rehabilitation training through work necessary for daily life. In other words, it is possible to improve the speed of social adaptation by allowing patients to perform cooking tasks that are frequently used in daily life, in a similar manner to actual situations.
Description
본 발명은 작업수행능력 측정시스템에 관한 것으로, 보다 자세하게는 환자의 재활을 위해 실생활에 필요한 동작을 모의 재활훈련으로 제공하고, 재활훈련 결과를 측정하는 시스템에 관한 것이다.[0001] The present invention relates to a performance measuring system, and more particularly, to a system for providing a simulated rehabilitation training required for real life for rehabilitation of a patient and measuring the results of rehabilitation training.
최근의 산업화 과정에서 급속히 증가된 산업재해로 인해 거동이 불편한 장애인의 재활과정에서 장애인들이 정상적인 생활을 할 수 있도록 도와주는 재활치료가 보편화되고 있는 실정이다.In recent industrialization, rehabilitation is becoming popular in the process of rehabilitation of people with disabilities due to rapidly increasing industrial disasters.
그러나 기존에는 단순히 물건을 들어서 다른 쪽으로 옮기는 등의 일반적인 동작으로 재활훈련을 수행하였다. 따라서 환자들은 재활훈련을 받은 후에 바로 일상생활에서 필요한 동작을 자연스럽게 수행하지 못하여 빨리 사회에 적응하지 못하는 문제가 있었다.However, in the past, rehabilitation exercises were performed with general actions such as simply lifting objects and moving them to the other side. Therefore, patients had difficulty adapting quickly to the society because they could not perform necessary activities in daily life after rehabilitation training.
따라서 최근에는, 장애인들의 단순한 신체적인 재활치료를 넘어, 장애인들이 향후 직업을 가질 수 있도록 재활을 도모하는 직업 재활이 실시되고 있다.In recent years, vocational rehabilitation has been carried out, aiming at rehabilitation so that people with disabilities can have future jobs, beyond simple physical rehabilitation treatment of persons with disabilities.
장애인들의 직업을 통한 재활은 사회의 적극적인 지원과 많은 노력을 필요로 하고 있지만, 직업 재활의 전문적 지식기반과 연구 활동의 부족으로 인하여 장애인들의 삶을 영위하는데 가장 중요한 부분을 차지하는 직업을 통한 재활 및 사회에 적응할 수 있도록 하는 것은 소극적인 것이 현실이다. 따라서, 많은 장애인들이 직업을 구할 수 없어 직업을 갖지 못하고 있는 실정이다.
Although rehabilitation through the occupation of persons with disabilities requires active support from the society and a lot of effort, the rehabilitation and social rehabilitation through the occupation, which occupies the most important part in the life of disabled people due to the lack of professional knowledge base and research activities of vocational rehabilitation It is a passive thing to be able to adapt to the reality. Therefore, many people with disabilities can not get a job and have no job.
재활환자에 해당하는 사용자가 재활훈련 수행 중에 조리 작업과 같은 실생활에 필요한 작업을 수행하며 재활훈련을 할 수 있도록 하여, 재활환자들의 사회 적응 속도를 높일 수 있는, 작업수행능력 측정시스템을 제공하고자 한다.The present invention provides a system for measuring performance of work performance, which enables a user who is a rehabilitation patient to perform rehabilitation exercises and perform work necessary for real life such as cooking during rehabilitation training, .
본 발명의 일실시예에 따른 작업수행능력 측정시스템은, 사용자가 수행한 특정한 작업에 대한 움직임데이터를 센싱하는 센싱부; 상기 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하여 상기 작업에 상응하는 실시간 출력영상을 생성하는 계산부; 및 바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 화면출력부;를 포함하며, 상기 작업은, 상기 화면출력부를 작업수행공간으로 하여 화면 위에서 수행되는 조리작업에 해당하며, 상기 출력영상은, 상기 조리작업에 의한 수행결과영상인 것을 특징으로 한다.According to another aspect of the present invention, there is provided a system for measuring performance of a task, comprising: a sensing unit for sensing motion data for a specific task performed by a user; A calculation unit for calculating a real time performance result of the specific task based on the sensed motion data and generating a real time output image corresponding to the task; And a screen output unit arranged horizontally on the floor surface and displaying the real time output image, wherein the operation corresponds to a cooking operation performed on the screen by using the screen output unit as a work performing space, Is a result image obtained by the cooking operation.
또한, 상기 작업은, 상기 사용자의 거품내기 동작, 반죽 펼치기 동작, 썰기 동작, 뒤집기 동작, 따르기 동작, 뿌리기 동작, 벨브조절 동작, 볶기 동작 중 적어도 하나 이상에 해당하는 것을 특징으로 할 수 있다.The operation may be at least one of a bubbling operation, a dough expanding operation, a slicing operation, a flipping operation, a pouring operation, a spraying operation, a valve adjusting operation, and a frying operation of the user.
또한, 상기 센싱부는, 제1관성센서를 구비하여, 상기 움직임데이터로 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 중 적어도 하나 이상을 측정하는 것을 특징으로 할 수 있다.The sensing unit may include a first inertia sensor to measure at least one of tilt degree, linear acceleration, linear velocity, rotation acceleration, rotation speed, number of rotations, and degree of twist in the motion data have.
또한, 상기 센싱부 및 상기 화면출력부가 분리된 센싱장치 및 화면출력장치에 각각 포함되며, 상기 화면출력부는, 상기 사용자가 수행하는 상기 작업에 의해 화면 상에 가해지는 압력을 측정하는 압력센서를 포함하며, 상기 계산부는, 상기 화면출력부가 인식하는 압력의 세기를 반영하여 실시간 출력영상을 생성하는 것을 특징으로 할 수 있다.The sensing unit and the screen output unit are respectively included in a separate sensing device and a screen output device, and the screen output unit includes a pressure sensor for measuring a pressure applied on the screen by the operation performed by the user And the calculation unit may generate a real-time output image reflecting the intensity of the pressure recognized by the screen output unit.
또한, 상기 센싱부 및 상기 화면출력부가 분리된 센싱장치 및 화면출력장치에 각각 포함되며, 상기 센싱장치는, 높낮이 조절을 통해 회전 난이도 조절이 가능한 무게 추를 포함하며, 상기 무게 추의 설정된 높낮이에서 수행되는 작업의 상기 회전가속도 및 상기 회전횟수를 측정할 수 있다.In addition, the sensing unit and the screen output unit are respectively included in a separate sensing device and a screen output device, and the sensing device includes a weight that is capable of adjusting the degree of difficulty by adjusting the height, The rotation acceleration and the number of rotations of the work to be performed can be measured.
또한, 상기 화면출력부는, 상기 작업이 수행되는 상기 센싱부의 공간상 위치가 화면출력부 상으로 수직 사영된 작업지점을 측정하며, 상기 계산부는, 실시간으로 측정된 상기 작업지점에 상기 산출된 수행결과를 적용한 상기 출력영상을 생성하는 것을 특징으로 할 수 있다.The screen output unit may measure a work point where a spatial position of the sensing unit on which the operation is performed is vertically projected on a screen output unit, The output image may be generated by applying the output image.
또한, 상기 화면출력부는, 터치스크린에 해당하여 상기 작업에 의한 접촉조작을 인식하는 것을 특징으로 할 수 있다.In addition, the screen output unit recognizes the touch operation by the operation corresponding to the touch screen.
또한, 상기 화면출력부는, 상기 화면 상에 상기 작업의 목표치를 표시하고, 상기 계산부는, 상기 목표치에 대한 상기 접촉조작의 정확도를 산출하는 것을 특징으로 할 수 있다.The screen output unit may display the target value of the job on the screen, and the calculation unit may calculate the accuracy of the touch operation with respect to the target value.
또한, 상기 작업이 썰기 동작인 경우, 상기 센싱장치는, 상기 접촉조작이 가능한 칼 형상의 장치에 해당하며, 상기 계산부는, 작업달성시간 또는 상기 정확도를 반영한 상기 수행결과를 산출하고, 상기 수행결과에 따라 복수의 상기 목표치 배치간격을 조절하여 난이도를 조절하는 것을 특징으로 할 수 있다.In the case where the operation is a slicing operation, the sensing device corresponds to a knife-shaped device capable of the contact operation, and the calculating unit may calculate the operation result reflecting the operation accomplishment time or the accuracy, And the degree of difficulty is adjusted by adjusting a plurality of the target value placement intervals according to the degree of difficulty.
또한, 상기 작업이 액체류의 상기 따르기 동작인 경우, 상기 센싱부를 통해 센싱된 상기 기울임정도를 바탕으로 상기 액체류의 부어진 정도를 산출하여, 화면 상에 액체가 퍼진 영상을 표시하는 것을 특징으로 할 수 있다.When the operation is the pouring operation of the liquid flow, the pouring degree of the liquid flow is calculated on the basis of the degree of tilt sensed through the sensing unit, and an image spreading liquid on the screen is displayed can do.
또한, 상기 작업이 뒤집기 동작인 경우, 제2관성센서를 포함하는 조작물체;를 더 포함하고, 상기 제2관성센서는, 화면출력부 상에서 상기 조작물체의 배치상태를 인식할 수 있다.Further, when the operation is a flip operation, the operation unit may further include an operation object including a second inertial sensor, and the second inertial sensor may recognize the arrangement state of the operation object on the screen output unit.
또한, 상기 화면출력부는, 상기 작업을 제공하는 복수의 상기 작업수행공간을 포함하며, 상기 계산부는, 복수의 상기 작업을 임의의 순서로 제공하는 상기 출력영상을 생성하며, 상기 센싱부로부터 수신한 상기 움직임데이터를 바탕으로, 상기 출력영상에 대응하는 동작의 수행여부를 판단할 수 있다.
The screen output unit may include a plurality of job execution spaces for providing the job, and the calculation unit may generate the output image that provides a plurality of jobs in an arbitrary order, Based on the motion data, it is possible to determine whether an operation corresponding to the output image is performed.
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.
첫째, 환자가 일상생활에 필요한 작업을 통해서 재활 훈련을 수행할 수 있는 효과가 있다. 즉, 환자들이 일상생활에서 많이 쓰는 조리작업을 실제 상황과 유사하게 수행하도록 하여 사회 적응 속도를 높일 수 있는 효과가 있다.First, there is an effect that the patient can perform the rehabilitation training through the work necessary for daily life. In other words, it is possible to improve the speed of social adaptation by allowing patients to perform cooking tasks that are frequently used in daily life, in a similar manner to actual situations.
둘째, 환자들이 컵을 옮기는 등의 재미없는 재활훈련이 아닌 일상생활에서 수행하는 동작들을 행하면서 재활훈련에 흥미를 느낄 수 있으며, 일상생활에 적응하기 위해서는 본 훈련을 제대로 이수할 필요가 있다는 동기부여를 하여 재활훈련에 대한 의욕을 높일 수 있는 효과가 있다.Second, patients may be interested in rehabilitation exercises while performing activities that are performed in daily life rather than not having fun without rehabilitation such as moving cups. In order to adapt to daily life, motivation is needed And to increase the motivation for rehabilitation training.
셋째, 본 시스템을 통해 다양한 조리작업들을 한번에 훈련할 수 있는 효과가 있다.Third, this system has the effect of training various cooking tasks at once.
넷째, 본 발명의 일실시예에 따른 작업수행능력 측정시스템은 환자에게 단순히 재활훈련을 제시하는 것이 아닌, 재활훈련의 성취도를 평가하여 제시할 수 있다. 또한, 환자의 재활훈련 수행 정도에 따라 난이도를 조절할 수 있어 환자에게 적합한 수준의 재활훈련을 제공할 수 있다.
Fourth, the performance measuring system according to an embodiment of the present invention can evaluate the achievement of the rehabilitation training rather than simply presenting the rehabilitation training to the patient. In addition, the difficulty level can be adjusted according to the degree of rehabilitation training performed by the patient, thereby providing a level of rehabilitation training suitable for the patient.
도 1은 본 발명의 일실시예에 따른 작업수행능력 측정시스템의 내부 구성도이다.
도 2는 본 발명의 일실시예에 따라 액체류의 따르기 동작을 수행하는 예시도면이다.
도 3은 본 발명의 일실시예에 따라 거품내기 동작을 수행하는 예시도면이다.
도 4a는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행하기 전의 상태를 도시한 예시도면이다.
도 4b는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행한 후의 상태를 도시한 예시도면이다.
도 5는 본 발명의 일실시예에 따라 조작물체의 뒤집기 동작을 수행하는 예시도면이다.
도 6은 본 발명의 일실시예에 따라 썰기 동작을 수행하는 예시도면이다.
도 7은 본 발명의 일실시예에 따라 불끄기 동작을 수행하는 예시도면이다.
도 8은 본 발명의 일실시예에 따라 센싱부의 화면출력부 상의 위치를 인식하여 출력영상에 반영하는 예시도면이다.
도 9는 본 발명의 일실시예에 따라 비전센서를 통해 센싱부의 위치를 인식하는 예시도면이다.1 is an internal configuration diagram of a performance measuring system according to an embodiment of the present invention.
Figure 2 is an exemplary view of performing a pour operation of a liquid stream in accordance with one embodiment of the present invention.
Figure 3 is an exemplary view of performing a foaming operation according to one embodiment of the present invention.
FIG. 4A is an exemplary view showing a state before performing a kneading expansion operation according to an embodiment of the present invention. FIG.
FIG. 4B is an exemplary view showing a state after performing a kneading expansion operation according to an embodiment of the present invention. FIG.
FIG. 5 is an exemplary view for performing a flip operation of an operating object according to an embodiment of the present invention. FIG.
6 is an exemplary diagram illustrating a slicing operation according to an embodiment of the present invention.
7 is an exemplary diagram illustrating a fire-off operation according to an embodiment of the present invention.
8 is an exemplary diagram for recognizing a position on a screen output unit of a sensing unit and reflecting the position on an output image according to an embodiment of the present invention.
9 is an exemplary diagram for recognizing a position of a sensing unit through a vision sensor according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.
도 1은 본 발명의 일실시예에 따른 작업수행능력 측정시스템의 내부 구성도이다. 도 2는 본 발명의 일실시예에 따라 액체류의 따르기 동작을 수행하는 예시도면이다. 도 3은 본 발명의 일실시예에 따라 거품내기 동작을 수행하는 예시도면이다. 도 4a는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행하기 전의 상태를 도시한 예시도면이다. 도 4b는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행한 후의 상태를 도시한 예시도면이다. 도 5는 본 발명의 일실시예에 따라 조작물체의 뒤집기 동작을 수행하는 예시도면이다. 도 6은 본 발명의 일실시예에 따라 썰기 동작을 수행하는 예시도면이다. 도 7은 본 발명의 일실시예에 따라 불끄기 동작을 수행하는 예시도면이다. 도 8은 본 발명의 일실시예에 따라 센싱부의 화면출력부 상의 위치를 인식하여 출력영상에 반영하는 예시도면이다. 도 9는 본 발명의 일실시예에 따라 비전센서를 통해 센싱부의 위치를 인식하는 예시도면이다.1 is an internal configuration diagram of a performance measuring system according to an embodiment of the present invention. Figure 2 is an exemplary view of performing a pour operation of a liquid stream in accordance with one embodiment of the present invention. Figure 3 is an exemplary view of performing a foaming operation according to one embodiment of the present invention. FIG. 4A is an exemplary view showing a state before performing a kneading expansion operation according to an embodiment of the present invention. FIG. FIG. 4B is an exemplary view showing a state after performing a kneading expansion operation according to an embodiment of the present invention. FIG. FIG. 5 is an exemplary view for performing a flip operation of an operating object according to an embodiment of the present invention. FIG. 6 is an exemplary diagram illustrating a slicing operation according to an embodiment of the present invention. 7 is an exemplary diagram illustrating a fire-off operation according to an embodiment of the present invention. 8 is an exemplary diagram for recognizing a position on a screen output unit of a sensing unit and reflecting the position on an output image according to an embodiment of the present invention. 9 is an exemplary diagram for recognizing a position of a sensing unit through a vision sensor according to an embodiment of the present invention.
도 1 내지 도 9에는 시스템(10); 계산부(100); 센싱부(200), 회전 추(210); 화면출력부(300); 목표치(310); 가이드라인(320); 작업수행공간(330); 비전센서(340); 및 조작물체(400)가 도시된다.1 to 9 show a
이하, 도면을 참조하여 본 발명의 실시예들에 따른 작업수행능력 측정시스템에 대해 설명하기로 한다.Hereinafter, a work performance measuring system according to embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)의 내부 구성도이다.1 is an internal configuration diagram of a work
도 1을 참조하면, 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)은, 센싱부(200); 계산부(100); 및 화면출력부(300);를 포함한다.Referring to FIG. 1, a work
센싱부(200)는 사용자가 수행한 특정한 작업에 대한 움직임데이터를 측정하는 기능을 수행한다. 센싱부(200)는 사용자가 작업 수행을 위한 동작을 직접 센싱 또는 간접 센싱할 수 있다. 직접 센싱은, 사용자가 센싱부(200)를 쥐고 수행하는 동작을 센싱하거나 사용자가 조작 가능한 구성을 누르거나 돌리는 동작을 센싱하는 것을 포함할 수 있다. 간접 측정은 떨어져 있는 사용자의 동작을 카메라 등을 통해 인식하는 것을 포함할 수 있다. 다만, 상기 직접 센싱 및 간접 센싱은 이에 한정되지 아니하고, 사용자의 동작을 센싱하여 움직임데이터를 획득하는 다양한 방식을 포함할 수 있다.The
상기 작업은 상기 화면출력부(300)를 작업수행공간(330)으로 하여 화면 위에서 수행되는 조리작업에 해당할 수 있다. 즉, 작업수행능력 측정시스템(10)은 재활환자들의 실생활 적응에 필요하며 구직 등에 활용할 수 있는 조리작업을 수행하도록 하며, 수행결과 측정 및 그에 따른 결과화면 표시를 수행할 수 있다. 상기 작업은, 상기 사용자의 거품내기 동작, 반죽 동작, 칼질 동작, 뒤집기 동작, 따르기 동작, 뿌리기 동작, 벨브 조절 동작, 볶기 동작 등이 해당될 수 있다.The operation may correspond to a cooking operation performed on the screen by using the
계산부(100)는 시스템(10) 상에 필요한 전반적인 제어 및 정보처리를 수행하는 기능을 수행한다. 즉, 계산부(100)는 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하고, 수행결과에 상응하는 실시간 출력영상을 생성하는 기능을 수행할 수 있다. 또한, 계산부(100)는 사용자가 수행하는 작업의 정확도를 판단할 수 있으며, 작업의 정확도를 바탕으로 사용자의 작업수행능력을 산출할 수 있다.The calculation unit 100 performs a function of performing overall control and information processing required on the
화면출력부(300)는 바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 기능을 수행한다. 즉, 화면출력부(300)는 바닥면에 수평으로 배치되어, 사용자가 화면출력부(300) 상에서 수행하는 특정한 작업의 결과에 해당하는 영상을 표시할 수 있다. 또한, 화면출력부(300)는 계산부(100)에 의해 산출된 작업수행능력을 수치 또는 도형으로 화면의 일측에 표시할 수 있다. The
상기 출력영상은 상기 조리작업의 수행결과영상일 수 있다. 예를 들어, 도 2에서와 같이, 사용자가 수행하는 작업이 액체류의 따르기 동작인 경우, 센싱부(200)에 의해 측정된 기울임정도에 따라 부어진 것으로 산출된 액체류 양에 따른 퍼진 정도를 출력영상으로 생성하여 보여줄 수 있다. 구체적으로 설명하면, 계산부(100)가 센싱부(200)로부터 실시간 측정되어 송신된 움직임데이터(즉, 기울임 정도)를 바탕으로, 기울기값에 상응하는 액체류가 부어져서 바닥면에서 펼쳐지는 정도를 산출하여 출력영상으로 실시간 표시할 수 있다.The output image may be a result of performing the cooking operation. For example, as shown in FIG. 2, when the operation performed by the user is a pouring operation of the liquid flow, the degree of spread according to the amount of liquid flow calculated as poured according to the degree of tilt measured by the
또한, 화면출력부(300)는 터치스크린으로 구현될 수 있다. 화면출력부(300)가 터치스크린인 경우, 화면출력부(300)는 작업에 의한 접촉조작을 인식할 수 있다. 접촉조작은 사용자의 신체뿐만 아니라 센싱부(200)에 의해서 수행될 수 있다. 예를 들어, 도 6에서와 같이, 썰기 동작을 수행하는 경우, 터치스크린(화면출력부(300))이 칼 형상으로 구성된 센싱부(200)의 접촉조작을 인식하여 사용자가 작업공간에 해당하는 화면 상에 제대로 동작을 수행하는 지 여부를 측정할 수 있다. 이를 위해, 센싱부(200)는 화면출력부(300)와 접촉하는 부분에 전도성 물질을 구비할 수 있다.Also, the
또한, 화면출력부(300)는 상기 화면 상에 상기 작업의 가이드라인(320)(310)를 표시할 수 있다. 상기 가이드라인(320)(310)는 사용자가 작업을 수행하여 도달하거나 맞추어야 하는 목표에 해당한다. 예를 들어, 도 2에서와 같이, 액체류를 따르는 작업의 경우, 화면출력부(300)는 액체가 퍼지는 원형(이하, 작업수행도형)에 상응하는 원형의 가이드라인(320)(310)를 화면상에 표시할 수 있다. 이를 통해, 사용자는 표시된 가이드라인(320)(310)에 작업수행도형을 정확하게 맞추는 액체류 따르기 작업을 수행할 수 있다. 또한, 상기 작업이 썰기 동작에 해당하는 경우, 도 6에서와 같이, 화면출력부(300)는 사용자가 칼 형상으로 구성된 센싱부(200)를 이용하여 썰기 동작을 수행할 직선 형태의 가이드라인을 가이드라인(320)(310)로 표시할 수 있다. In addition, the
화면출력부(300)가 화면상에 가이드라인(320)(310)를 표시하는 경우, 상기 계산부(100)는 상기 가이드라인(320)(310)에 대한 상기 접촉조작의 정확도를 산출할 수 있다. 예를 들어, 도 6에서와 같이, 화면출력부(300) 상에 출력된 가이드라인을 따라서 수행한 사용자의 동작이 가이드라인을 기준으로 떨어진 정도를 누적하여 작업의 정확도를 측정할 수 있다. 썰기 동작의 정확도를 산출하는 방법으로, 계산부(100)가 사용자가 센싱부(200)로 썰기동작을 수행한 선과 가이드라인(320)(310)에 해당하는 직선 사이의 면적을 측정하는 방식, 가이드라인의 특정 간격에서 작업을 수행한 선과의 오차를 누적하는 방식 등을 적용할 수 있다. When the
또한, 화면출력부(300)는 압력센서를 더 구비할 수 있다. 압력센서는 사용자가 수행하는 작업이 화면에 힘(또는 압력)을 가하는 형태인 경우, 압력센서는 사용자가 화면을 누르는 세기를 인식할 수 있다. 화면출력부(300)는 수행하는 작업의 동작에 따라 바닥면에 특정 세기 이상의 압력이 가해지는 지 여부의 측정할 필요가 있을 수 있다. 예를 들어, 도 6에서와 같이, 칼 형상의 센싱부(200)로 화면출력부(300)에 썰기 동작을 수행하는 경우, 특정 재료를 자르기 위해 특정한 세기 이상의 압력을 가하는 것과 같이, 압력센서가 화면출력부(300)에 가해지는 압력을 측정하여 특정한 세기 이상이 되는 지 여부를 판단할 수 있다. 터치스크린이 접촉조작의 세기를 인식할 수 있다면, 별도의 압력센서를 구비하지 않고 터치스크린이 화면출력부(300)에 가해지는 압력 세기를 측정할 수 있다.In addition, the
또한, 화면출력부(300)는, 작업을 제공하는 복수의 작업수행공간(330)을 포함할 수 있다. 화면출력부(300)는 복수의 작업수행공간(330)에 상이한 작업에 상응하는 영상을 표시할 수 있고, 임의의 순서로 사용자에게 복수의 작업을 수행하도록 요청할 수 있다. 계산부(100)는 복수의 작업을 임의의 순서로 제공하는 상기 출력영상을 생성하여 영상출력을 위해 화면출력부(300)로 전송하고, 센싱부(200)로부터 움직임데이터를 수신하여 해당 시점에 요청되는 작업에 대응하는 동작을 사용자가 수행하는 지 여부를 판단할 수 있다. 또한, 후술하는 바와 같이, 화면출력부(300)는 센싱장치의 작업지점을 인식하여 작업이 요청되는 작업수행공간(330)에 대응하는 지점에서 동작이 이루어지는 지 여부를 측정하여 작업능력 평가 또는 출력영상 생성에 반영할 수 있다.In addition, the
센싱부(200) 및 화면출력부(300)는 하나의 장치 내에 포함될 수 있고, 분리된 센싱장치 및 화면출력장치에 각각 포함될 수도 있다. 센싱부(200) 및 화면출력부(300)가 하나의 장치 내에 포함된 경우, 센싱부(200)가 비전센서(340)와 같이 사용자의 동작을 원거리에서 측정(또는 센싱)하거나 사용자가 장치 내에 구비된 버튼 또는 스위치 등의 조작을 인식할 수 있다. 센싱부(200) 및 화면출력부(300)가 별도의 장치에 포함되는 경우, 사용자의 작업 동작에 해당하는 움직임데이터를 센싱장치가 측정하여 화면출력장치로 전송할 수 있다. 이 때, 계산부(100)는 센싱장치 또는 화면출력장치 내에 포함될 수 있고, 경우에 따라 별도의 장치로 구성될 수도 있다. 예를 들어, 계산부(100)가 화면출력부(300)와 함께 화면출력장치 내에 포함되는 경우, 센싱장치 내의 센싱부(200)가 사용자의 움직임데이터를 측정하여 유선(예를 들어, 화면출력장치와 연결된 케이블) 또는 무선(예를 들어, 근거리 통신 방식 또는 Wi-Fi와 같은 실내통신망)을 통해 화면출력장치로 전송할 수 있다. 그 후, 화면출력장치는 움직임데이터를 분석하여 수행결과를 산출하고, 상응하는 실시간 출력영상을 생성하여 화면상에 표시할 수 있다. The
센싱부(200)는 움직임데이터로 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 등을 측정할 수 있다. 예를 들어, 센싱부(200)가 별도의 센싱장치로 구현되는 경우, 사용자가 손에 쥐고 수행하는 동작에 따라 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 등의 움직임데이터의 전부 또는 일부를 획득할 수 있다. 특정한 작업이 선택된 후 사용자가 동작을 수행하는 경우, 센싱부(200)는 선택된 작업의 수행결과를 산출하는데 필요한 움직임데이터만을 측정할 수 있다. The
센싱부(200)는 움직임데이터를 획득하기 위해 제1관성센서(IMU 센서; Inertial measurement unit Sensor)를 포함할 수 있다. IMU 센서는 MEMS(Micro Mechanical System) 기반의 9축 IMU 센서일 수 있다. 9축 IMU 센서는 3축 가속도 센서(Acceleration Sensor)와, 3축 자이로스코프 센서(Gyroscope Sensor)와, 3축 지자기 센서(terrestrial magnetism Sensor)를 포함한다. 3축 가속도 센서는 x축, y축, z축의 이동관성(가속도)을 측정한다. 3축 자이로스코프 센서는 x축, y축, z축의 회전관성(각속도)을 측정한다. 3축 지자기 센서는 x축, y축, z축의방위각(지자기의 방향)을 측정한다. 다른 실시예에 따르면, 센싱부(200)는 IMU 센서 대신, 가속도 센서 및 지자기 센서 중 적어도 하나를 포함할 수 있다. The
또한, 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)은, 조작물체(400)를 더 포함할 수 있다. 조작물체(400)는 화면출력부(300) 상에서 센싱부(200)에 의해 조작되는, 제2관성센서를 포함하는 물체에 해당할 수 있다. 예를 들어, 도 5에서와 같이, 뒤집기 동작을 수행하는 경우에 화면출력부(300) 상에 배치된 물체(예를 들어, 부침개와 같이 넙적한 형상의 물체)가 조작물체(400)에 해당할 수 있다. 사용자는 센싱부(200)를 포함한 센싱장치(예를 들어, 도 5에서 뒤집개)를 이용하여 조작물체(400)의 뒤집기 동작을 수행할 수 있고, 조작물체(400)는 사용자의 조작에 따른 배치상태를 측정하여 계산부(100)로 전송할 수 있다.In addition, the work
또한, 상기 작업이 볶기 동작인 경우, 특정한 형상의 조작물체(400)가 배치상태를 측정하여 계산부(100)로 전송할 수 있다. 계산부(100)는 사용자의 센싱장치를 이용한 조작에 따라 변화된 조작물체(400)의 배치상태를 바탕으로 사용자의 작업 수행을 측정할 수 있다.In addition, when the operation is a roasting operation, the
제2관성센서는 IMU 센서에 해당할 수 있다. IMU 센서는 MEMS(Micro Mechanical System) 기반의 9축 IMU 센서일 수 있다. 9축 IMU 센서는 3축 가속도 센서(Acceleration Sensor)와, 3축 자이로스코프 센서(Gyroscope Sensor)와, 3축 지자기 센서(terrestrial magnetism Sensor)를 포함한다. 3축 가속도 센서는 x축, y축, z축의 이동관성(가속도)을 측정한다. 3축 자이로스코프 센서는 x축, y축, z축의 회전관성(각속도)을 측정한다. 3축 지자기 센서는 x축, y축, z축의방위각(지자기의 방향)을 측정한다.The second inertial sensor may correspond to an IMU sensor. The IMU sensor may be a MEMS (Micro Mechanical System) based 9-axis IMU sensor. The 9-axis IMU sensor includes a 3-axis acceleration sensor, a 3-axis gyroscope sensor, and a 3-axis terrestrial magnetism sensor. The 3-axis acceleration sensor measures the mobile inertia (acceleration) of the x-, y-, and z-axes. The 3-axis gyroscope sensor measures the rotational inertia (angular velocity) of the x, y, and z axes. The 3-axis geomagnetic sensor measures the azimuths of the x-axis, y-axis, and z-axis (direction of the geomagnetism).
이하, 본 발명의 일실시예에 따른 다양한 조리작업에 따라 수행되는 구체적인 작업능력 측정 과정 및 이를 위해 부가되는 구성에 대해서 설명한다.Hereinafter, a specific operation capability measurement process performed according to various cooking operations according to an embodiment of the present invention, and a configuration added thereto for the operation will be described.
도 2는 본 발명의 일실시예에 따라 액체류의 따르기 동작을 수행하는 예시도면이다.Figure 2 is an exemplary view of performing a pour operation of a liquid stream in accordance with one embodiment of the present invention.
도 2를 참조하면, 본 발명의 일실시예에 따라 사용자가 수행하는 작업이 액체류의 따르기 동작인 경우, 센싱부(200)는 센싱장치의 실시간 기울임정도를 측정할 수 있다. 계산부(100)는 측정된 기울임정도를 바탕으로 부어진 액체의 양을 산출하고, 상기 액체의 양에 따라 퍼진 정도를 출력영상으로 생성할 수 있다. 예를 들어, 사용자가 센싱장치를 들고 컵에서 액체를 따르는 것과 같이 센싱장치를 기울이는 경우, 실제 상황과 같이 각 기울기에 따라서 부어진 액체의 양을 설정하여, 특정 기울기 이상 센싱장치가 기울어지지 않으면 액체가 더 이상 부어지지 않도록 할 수 있다. 사용자가 센싱장치를 더 기울이면, 계산부(100)는 실시간으로 센싱된 기울기를 반영한 출력영상을 생성할 수 있다. 그 후, 화면출력부(300)는 실시간으로 생성된 액체가 퍼진 정도의 출력영상을 표시하여 줄 수 있다. 후술하는 바와 같이, 액체류의 따르기 동작에 따른 작업능력 측정은 동작이 수행되는 화면출력부(300) 상의 위치 등의 기울임정도 이외의 다양한 움직임데이터가 함께 반영될 수 있다.Referring to FIG. 2, according to an embodiment of the present invention, when the operation performed by the user is a pouring operation of the liquid flow, the
또한, 계산부(100)가 출력영상에 부어진 액체 영역이 도달하거나 맞추어져야 할 가이드라인(320)(310)에 해당하는 도형을 더 포함하여 생성할 수 있다. 사용자는 작업수행을 통해 생성되는 액체 영역을 가이드라인(320)(310)에 맞추려고 시도하고, 계산부(100)는 사용자의 수행시간, 수행한 결과도형과 가이드라인(320)(310)의 차이정도 등을 바탕으로 사용자의 작업 수행 능력을 평가할 수 있다. 예를 들어, 사용자의 작업 동작에 따라 원형의 액체영역이 가이드라인(320)(310)에 상응하는 원형의 목표도형의 중심에서부터 확장되는 경우, 가이드라인(320)(310)에 해당하는 원형과 액체영역에 해당하는 원형의 반지름 크기를 비교할 수 있다.In addition, the calculation unit 100 may further include a figure corresponding to the
도 3은 본 발명의 일실시예에 따라 거품내기 동작을 수행하는 예시도면이다.Figure 3 is an exemplary view of performing a foaming operation according to one embodiment of the present invention.
도 3을 참조하면, 본 발명의 일실시예에 따라 작업수행능력 측정시스템(10)은 거품내기 동작과 같은 손으로 저어주는 동작을 측정할 수 있다. 센싱장치는 무게 추(210)를 포함할 수 있다. 무게 추(210)는 높낮이 조절을 통해 회전 난이도 조절을 할 수 있다. 이를 통해, 센싱장치는 무게 추(210)의 높낮이 조절을 통해 설정된 난이도에 따른 환자가 수행하는 회전가속도 및 회전횟수를 측정할 수 있다.Referring to FIG. 3, the
계산부(100)는 측정된 회전가속도 및 회전 횟수에 상응하는 거품발생 정도를 적용하여 실시간 거품 발생 영상을 생성할 수 있다. 화면출력부(300)는 생성된 영상을 수신하여 출력하여 사용자가 자신의 수행정도에 따른 결과를 확인하도록 할 수 있다.The calculation unit 100 may generate the real-time bubble generation image by applying the degree of bubble generation corresponding to the measured rotation acceleration and the number of rotation. The
도 4a는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행하기 전의 상태를 도시한 예시도면이다. 도 4b는 본 발명의 일실시예에 따라 반죽 펼치기 동작을 수행한 후의 상태를 도시한 예시도면이다.FIG. 4A is an exemplary view showing a state before performing a kneading expansion operation according to an embodiment of the present invention. FIG. FIG. 4B is an exemplary view showing a state after performing a kneading expansion operation according to an embodiment of the present invention. FIG.
반죽 펼치기 동작에서, 센싱부(200)의 제1관성센서는 회전가속도, 회전속도, 또는 회전횟수 등을 포함하는 구르기 정도를 인식할 수 있다. 계산부(100)는 센싱부(200)로부터 구르기 정도를 바탕으로 화면상에 표시된 반죽 도형이 확장될 수 있다. 즉, 센싱부(200)를 포함한 센싱장치가 반죽에 해당하는 영역을 지나가기 전에는 작은 크기의 반죽도형(도 4a 참조)이었다가, 반죽 펼치기 동작(즉, 화면출력부(300) 상에서 센싱장치를 회전 병진 운동 시키는 동작)에 의한 움직임데이터를 적용하여 반죽도형이 확장되게 된다(도 4b 참조).In the kneading expansion operation, the first inertial sensor of the
작업수행능력 측정시스템(10)은 반죽 펼치기 동작을 측정하기 위해 화면출력부(300)에 압력센서를 더 포함할 수 있다. 압력센서는 반죽 펼치기 작업 중에 화면출력부(300)에 가해지는 압력을 측정할 수 있다. 즉, 실제 상황에서 반죽에 가해지는 힘의 세기에 따라 반죽이 펼쳐지는 정도가 달라지는 것과 같이, 압력센서가 센싱부(200)를 굴리는 과정에서 화면출력부(300)에 가해지는 압력을 측정하여 계산부(100)의 출력영상 생성에 반영할 수 있다. The work
도 6은 본 발명의 일실시예에 따라 썰기 동작을 수행하는 예시도면이다.6 is an exemplary diagram illustrating a slicing operation according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일실시예에 따라 사용자가 수행하는 작업이 썰기 동작인 경우의 작업수행능력을 측정할 수 있다. 센싱부(200)를 포함하는 센싱장치는 상기 접촉조작을 할 수 있는 칼 형상의 장치에 해당할 수 있다. 계산부(100)는 썰기 동작의 가이드라인(320)(310)인 가이드라인을 출력영상 내에 생성할 수 있고, 사용자가 센싱장치로 수행하는 썰기 동작의 경로를 파악하여 정확도를 측정할 수 있다. Referring to FIG. 6, it is possible to measure an ability to perform a task when a user performs a slicing operation according to an exemplary embodiment of the present invention. The sensing device including the
또한, 상기 계산부(100)는 작업달성시간 또는 상기 정확도를 반영하여 복수의 상기 가이드라인(320)(310)(즉, 가이드라인) 배치간격을 조절하여 난이도를 조절할 수 있다. 예를 들어, 사용자가 가이드라인을 따라 수행한 썰기 동작의 정확도가 소정의 기준보다 높은 경우에는 이어지는 가이드라인을 촘촘하게 배치하여 작업 수행이 어렵게 할 수 있다. 또한, 계산부(100)는 작업을 수행하는 제한시간을 조절할 수도 있으며, 썰기동작을 수행할 가이드라인의 형태를 난이도 높은 형태로 변경할 수도 있다.In addition, the calculation unit 100 may adjust the difficulty level by adjusting the placement intervals of the plurality of
도 7은 본 발명의 일실시예에 따라 불끄기 동작을 수행하는 예시도면이다. 7 is an exemplary diagram illustrating a fire-off operation according to an embodiment of the present invention.
도 7을 참조하면, 본 발명의 일실시예에 따라 사용자가 수행하는 작업이 불끄기 동작인 경우의 작업수행능력을 측정할 수 있다. 화면출력부(300)는 복수의 작업수행공간(330)이 포함된 출력영상을 표시할 수 있으며, 계산부(100)는 화면출력부(300) 상의 특정한 작업수행공간(330)에 작업을 요청할 수 있다. 이에 따라 사용자가 요청된 작업수행공간(330)에 해당하는 센싱부(200)를 조작하도록 할 수 있다. 본 실시예에서 센싱부(200)는 복수 개의 밸브에 해당할 수 있다. 사용자가 화면출력부(300)에 불이 켜지는 특정한 작업수행공간(330)에 대응하는 밸브를 돌리도록 하여, 갑작스런 상황에 대한 반응 속도 등을 테스트할 수 있는 효과가 있다.Referring to FIG. 7, according to an exemplary embodiment of the present invention, a task performing capability when a task performed by a user is a non-performing operation can be measured. The
도 8은 본 발명의 일실시예에 따라 센싱부(200)의 화면출력부(300) 상의 위치를 인식하여 출력영상에 반영하는 예시도면이다. 도 9는 본 발명의 일실시예에 따라 비전센서(340)를 통해 센싱부(200)의 위치를 인식하는 예시도면이다.FIG. 8 is an exemplary diagram for recognizing a position on the
도 8를 참조하면, 본 발명의 일실시예에 따른 작업수행능력 측정시스템(10)은 사용자에 의해 수행되는 동작의 화면출력부(300) 상의 위치를 측정하여 출력영상 생성 또는 작업수행능력 산출에 활용할 수 있다. 상기 화면출력부(300)는, 상기 센싱부(200)가 위치하는 수직하게 사영된 상기 화면출력부(300) 상의 작업지점을 측정할 수 있다. 예를 들어, 도 8에서와 같이, 사용자의 손이 이전 작업지점(점선으로 표시된 손)에서 다른 작업지점(실선으로 표시된 손)으로 이동하는 경우, 화면출력부(300)는 사용자의 손의 위치를 인식하고, 이를 계산부(100)가 출력영상에 반영하여 표시할 수 있다. 즉, 손의 위치가 이동함에 따라 액체류가 퍼지는 화면출력부(300) 상의 중심의 위치도 이동할 수 있다. 이에 따라 사용자가 작업 수행을 위해 일정한 위치에 유지할 수 있는 지 여부를 판단할 수 있다. Referring to FIG. 8, the work
일실시예로 화면출력부(300)가, 도 9에서와 같이, 카메라와 같은 비전센서(340)를 포함할 수 있다. 비전센서(340)가 화면출력부(300) 상에서 수행되는 동작을 포함하는 영상을 획득하고, 계산부(100)가 영상을 수신하여 영상 분석을 통해 동작이 수행되는 작업지점를 파악할 수 있다. 그 후, 계산부(100)는 실시간으로 측정된 상기 작업지점에 수행결과(즉, 센싱부(200)가 측정한 움직임데이터에 의해 생성될 영상)를 적용한 출력영상을 생성할 수 있다. 다만, 화면출력부(300) 상의 작업지점을 인식하는 방식은 비전센서(340)에 의한 방식에 한정되지 아니하고, 센싱부(200)에 부착된 식별표지의 위치를 화면출력부(300)가 센싱하는 방식 등의 다양한 방식이 적용될 수 있다.In one embodiment, the
상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.
첫째, 환자가 일상생활에 필요한 작업을 통해서 재활 훈련을 수행할 수 있는 효과가 있다. 즉, 환자들이 일상생활에서 많이 쓰는 조리작업을 실제 상황과 유사하게 수행하도록 하여 사회 적응 속도를 높일 수 있는 효과가 있다.First, there is an effect that the patient can perform the rehabilitation training through the work necessary for daily life. In other words, it is possible to improve the speed of social adaptation by allowing patients to perform cooking tasks that are frequently used in daily life, in a similar manner to actual situations.
둘째, 환자들이 컵을 옮기는 등의 재미없는 재활훈련이 아닌 일상생활에서 수행하는 동작들을 행하면서 재활훈련에 흥미를 느낄 수 있으며, 일상생활에 적응하기 위해서는 본 훈련을 제대로 이수할 필요가 있다는 동기부여를 하여 재활훈련에 대한 의욕을 높일 수 있는 효과가 있다.Second, patients may be interested in rehabilitation exercises while performing activities that are performed in daily life rather than not having fun without rehabilitation such as moving cups. In order to adapt to daily life, motivation is needed And to increase the motivation for rehabilitation training.
셋째, 본 시스템을 통해 다양한 조리작업들을 한번에 훈련할 수 있는 효과가 있다.Third, this system has the effect of training various cooking tasks at once.
넷째, 본 발명의 일실시예에 따른 작업수행능력 측정시스템은 환자에게 단순히 재활훈련을 제시하는 것이 아닌, 재활훈련의 성취도를 평가하여 제시할 수 있다. 또한, 환자의 재활훈련 수행 정도에 따라 난이도를 조절할 수 있어 환자에게 적합한 수준의 재활훈련을 제공할 수 있다.Fourth, the performance measuring system according to an embodiment of the present invention can evaluate the achievement of the rehabilitation training rather than simply presenting the rehabilitation training to the patient. In addition, the difficulty level can be adjusted according to the degree of rehabilitation training performed by the patient, thereby providing a level of rehabilitation training suitable for the patient.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
10 : 시스템 100 : 계산부
200 : 센싱부 210 : 무게 추
300 : 화면출력부 310 : 목표치
320 : 가이드라인 330 : 작업수행공간
340 : 비전센서 400 : 조작물체10: system 100: calculation unit
200: sensing part 210: weight
300: screen output unit 310: target value
320: Guideline 330: Work space
340: vision sensor 400: manipulated object
Claims (12)
상기 센싱된 움직임데이터를 바탕으로 상기 특정한 작업의 실시간 수행결과를 산출하여 상기 작업에 상응하는 실시간 출력영상을 생성하는 계산부; 및
바닥면에 수평으로 배치되어, 상기 실시간 출력영상을 표시하는 화면출력부;를 포함하며,
상기 센싱부는
상기 화면출력부 상에서 상기 특정한 작업을 수행하는 사용자의 손 위치에 해당하는 제1움직임데이터를 획득하는 위치센싱부; 및
손의 작업유형, 직선가속도, 직선속도, 회전가속도, 회전속도 및 기울기 중 적어도 하나를 포함하는 제2움직임데이터를 획득하는 움직임센싱부를 포함하고,
상기 센싱부, 상기 계산부 및 상기 화면출력부는 분리된 센싱장치 및 화면출력장치에 포함되며,
상기 센싱장치는 상기 움직임센싱부를 포함하여, 사용자의 손에 쥐어진 상태로 조작되고,
상기 화면출력장치는 상기 계산부, 상기 위치센싱부 및 상기 화면출력부를 포함하며, 상기 제1움직임데이터에 상응하는 작업지점을 기준으로 상기 제2움직임데이터에 상응하는 출력영상을 표시하고,
상기 제1움직임데이터는 상기 센싱장치의 공간상 위치가 화면출력부 상으로 수직 사영된 지점인, 작업수행능력 측정시스템.A sensing unit for sensing motion data for a specific operation performed by the user;
A calculation unit for calculating a real time performance result of the specific task based on the sensed motion data and generating a real time output image corresponding to the task; And
And a screen output unit arranged horizontally on the bottom surface for displaying the real time output image,
The sensing unit
A position sensing unit for acquiring first motion data corresponding to a hand position of a user performing the specific task on the screen output unit; And
And a motion sensing unit for acquiring second motion data including at least one of a working type of a hand, a linear acceleration, a linear velocity, a rotation acceleration, a rotation speed and a slope,
Wherein the sensing unit, the calculation unit, and the screen output unit are included in a separate sensing device and a screen output device,
The sensing device includes the motion sensing unit and is operated in a state of being held in a user's hand,
Wherein the screen output device includes the calculation unit, the position sensing unit, and the screen output unit, and displays an output image corresponding to the second motion data on the basis of a working point corresponding to the first motion data,
Wherein the first motion data is a point at which the spatial position of the sensing device is vertically projected onto the screen output unit.
상기 작업은, 상기 화면출력부를 작업수행공간으로 하여 화면 위에서 수행되는 조리작업에 해당하며,
상기 출력영상은, 상기 조리작업에 의한 수행결과영상인 것을 특징으로 하는, 작업수행능력 측정시스템.The method according to claim 1,
The operation corresponds to a cooking operation performed on the screen by using the screen output unit as a work performing space,
Wherein the output image is a result image obtained by the cooking operation.
상기 작업은 액체류의 따르기 동작에 해당하며,
상기 계산부는,
상기 움직임센싱부를 통해 센싱된 상기 기울기를 바탕으로 상기 액체류의 부어진 정도를 산출하고, 화면 상에 액체영상을 표시하는 것을 특징으로 하되,
상기 액체영상은 액체류가 부어짐에 따라 펼쳐지는 영상인, 작업수행능력 측정시스템.The method according to claim 1,
This operation corresponds to the pouring operation of the liquid flow,
The calculation unit may calculate,
Calculating a pouring degree of the liquid flow based on the inclination sensed by the motion sensing unit, and displaying a liquid image on the screen,
Wherein the liquid image is an image unfolding as a liquid flow is swollen.
상기 화면출력부는,
상기 액체류가 퍼지는 형태에 상응하는 가이드라인을 표시하되,
상기 가이드라인은 상기 작업의 목표치인, 작업수행능력 측정시스템.The method of claim 3,
Wherein the screen output unit comprises:
A guide line corresponding to the shape of the liquid flow is displayed,
Wherein the guideline is a target value of the job.
상기 계산부는,
상기 제2움직임데이터를 통해 제1작업지점에서 제2작업지점으로 이동을 인식하고,
상기 제2작업지점을 기준으로 액체류가 퍼지는 것으로 상기 액체영상을 생성하고,
상기 제2작업지점은 상기 화면출력부 상에서 상기 특정한 작업을 수행하는 사용자의 작업 위치가 상기 제1작업지점으로부터 변경되는 지점인 것을 특징으로 하는, 작업수행능력 측정시스템.The method of claim 3,
The calculation unit may calculate,
Recognizes movement from a first work point to a second work point through the second motion data,
Generating a liquid image by spreading a liquid flow on the basis of the second working point,
Wherein the second work point is a point at which a work position of a user performing the specific job on the screen output unit is changed from the first work point.
상기 계산부는,
상기 액체영상과 상기 가이드라인을 비교하여 작업정확도를 산출하고,
작업수행시간 및 상기 작업정확도를 바탕으로, 사용자의 작업 수행능력을 평가하는, 작업수행능력 측정시스템.5. The method of claim 4,
The calculation unit may calculate,
Comparing the liquid image with the guide line to calculate an operation accuracy,
A task performance measurement system for assessing a user's ability to perform a task based on the task execution time and the task accuracy.
상기 계산부는,
상기 가이드라인과 상기 액체영상 사이의 면적을 계산하여, 상기 면적이 클수록 낮은 작업정확도로 결정하는, 작업수행능력 측정시스템.The method according to claim 6,
The calculation unit may calculate,
Calculating an area between the guide line and the liquid image, and determining the work accuracy to be lower as the area is larger.
상기 화면출력장치는 상기 화면출력부가 바닥면에 수평으로 배치되고,
상기 위치센싱부는 상기 화면출력장치 위의 공간에서 작업이 수행되는 상기 센싱장치를 인식하는 비전센서인, 작업수행능력 측정시스템.The method according to claim 1,
Wherein the screen output device has a screen output unit horizontally disposed on a floor,
Wherein the position sensing unit is a vision sensor that recognizes the sensing device in which work is performed in the space on the screen output device.
상기 움직임센싱부는,
제1관성센서를 구비하여, 상기 제2움직임데이터로 기울임정도, 직선가속도, 직선속도, 회전가속도, 회전속도, 회전횟수, 비틀기정도 중 적어도 하나를 측정하는 것을 특징으로 하는, 작업수행능력 측정시스템.The method according to claim 1,
The motion sensing unit includes:
Wherein the first inertial sensor is provided to measure at least one of an inclination degree, a linear acceleration, a linear velocity, a rotation acceleration, a rotation speed, a rotation number, and a warp degree with the second motion data, .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150051607A KR101838939B1 (en) | 2015-04-13 | 2015-04-13 | System for measuring the ability of ordinary performance |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150051607A KR101838939B1 (en) | 2015-04-13 | 2015-04-13 | System for measuring the ability of ordinary performance |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20160121858A KR20160121858A (en) | 2016-10-21 |
| KR101838939B1 true KR101838939B1 (en) | 2018-03-15 |
Family
ID=57257154
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150051607A Active KR101838939B1 (en) | 2015-04-13 | 2015-04-13 | System for measuring the ability of ordinary performance |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101838939B1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102418994B1 (en) * | 2019-12-31 | 2022-07-11 | 주식회사 버넥트 | Method for providng work guide based augmented reality and evaluating work proficiency according to the work guide |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009000156A (en) * | 2007-06-19 | 2009-01-08 | Cooking Mama Ltd | Cooking game program |
-
2015
- 2015-04-13 KR KR1020150051607A patent/KR101838939B1/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009000156A (en) * | 2007-06-19 | 2009-01-08 | Cooking Mama Ltd | Cooking game program |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20160121858A (en) | 2016-10-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6676213B2 (en) | Detection of User Motion Range for Virtual Reality User Interface | |
| CN102245100B (en) | graphic representation | |
| CN107577045B (en) | The method, apparatus and storage medium of predicting tracing for head-mounted display | |
| KR101726894B1 (en) | Testing/training visual perception speed and/or span | |
| WO2014146072A1 (en) | Apparatus and method for simulated gameplay based on a geospatial position | |
| KR101813522B1 (en) | Apparatus for analyzing golf swing and system for virtual golf simulation using the same | |
| JP5804553B2 (en) | Posture balance measuring device | |
| JP2009011362A (en) | Information processing system, robot apparatus, and its control method | |
| KR20150141213A (en) | Motion counting measurement and display device | |
| KR20210136043A (en) | Interacting with smart devices using pointing controllers | |
| WO2017021902A1 (en) | System and method for gesture based measurement of virtual reality space | |
| JP7603291B2 (en) | Action request system, action request method, and action request program | |
| CN107617201A (en) | Method for automatically configuring sensor, electronic device, and recording medium | |
| JP6796197B2 (en) | Information processing equipment, information processing methods and programs | |
| JP2020515312A5 (en) | ||
| CN105597281B (en) | Method and device for evaluating and training fine motion function of fingers | |
| KR20110044391A (en) | Input device and method | |
| KR101838939B1 (en) | System for measuring the ability of ordinary performance | |
| JPWO2016079828A1 (en) | User interface system, operation signal analysis method and program for batting operation | |
| US20190076618A1 (en) | Method, apparatus and system for mitigating motion sickness in a virtual reality environment | |
| JP6694333B2 (en) | Rehabilitation support control device and computer program | |
| JP2014204759A (en) | Standing posture balance evaluating/training system | |
| KR102115501B1 (en) | Body care motion tracking device and body care management method using the same | |
| KR101997967B1 (en) | Stair gait measuring device and method using the same | |
| US12204098B1 (en) | Head-mounted display system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150413 |
|
| PA0201 | Request for examination | ||
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20161026 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20171229 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20180309 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20180309 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee |
Payment date: 20210310 Start annual number: 4 End annual number: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20220307 Start annual number: 5 End annual number: 5 |
|
| PR1001 | Payment of annual fee |
Payment date: 20230227 Start annual number: 6 End annual number: 6 |
|
| PR1001 | Payment of annual fee |
Payment date: 20240220 Start annual number: 7 End annual number: 7 |
|
| PR1001 | Payment of annual fee |
Payment date: 20250219 Start annual number: 8 End annual number: 8 |