[go: up one dir, main page]

KR101626966B1 - 로봇 컨텐츠 저작 장치 및 방법 - Google Patents

로봇 컨텐츠 저작 장치 및 방법 Download PDF

Info

Publication number
KR101626966B1
KR101626966B1 KR1020130057176A KR20130057176A KR101626966B1 KR 101626966 B1 KR101626966 B1 KR 101626966B1 KR 1020130057176 A KR1020130057176 A KR 1020130057176A KR 20130057176 A KR20130057176 A KR 20130057176A KR 101626966 B1 KR101626966 B1 KR 101626966B1
Authority
KR
South Korea
Prior art keywords
robot
motion
event
motion event
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020130057176A
Other languages
English (en)
Other versions
KR20140115902A (ko
Inventor
김종철
정성택
홍미정
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to US14/039,942 priority Critical patent/US9495788B2/en
Publication of KR20140115902A publication Critical patent/KR20140115902A/ko
Application granted granted Critical
Publication of KR101626966B1 publication Critical patent/KR101626966B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

시간의 흐름에 따라 로봇의 모션을 순차적으로 연출할 수 있고 또한 미디어와 로봇의 모션을 동기화하여 연출할 수 있는 컨텐츠를 저작할 수 있는 장치 및 방법이 개시된다. 로봇 컨텐츠 저작 장치는, 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하고, 상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및 상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함한다.

Description

로봇 컨텐츠 저작 장치 및 방법{APPARATUS AND METHOD FOR DEVELOPING ROBOT CONTENTS}
본 발명은 로봇을 제어할 수 있는 컨텐츠를 저작할 수 있는 장치 및 방법에 관한 것으로, 보다 구체적으로, 시간의 흐름에 따라 로봇의 모션을 순차적으로 연출할 수 있고 또한 미디어와 로봇의 모션을 동기화하여 연출할 수 있는 컨텐츠를 저작할 수 있는 장치 및 방법에 관한 것이다.
일반적으로, 현재의 로봇 제어 방법은 대부분 필요시마다 개발자가 프로그래밍을 해서 로봇에서 직접 실행을 해보고 결과의 오류를 찾아 몇 차례의 디버깅을 거치는 일련의 과정을 거친다. 그리고, 디스플레이되는 화면과 실제 로봇과의 동작을 연결하여 동기화시키는 것도 간단치 않은 작업이다.
이러한 기술적 한계로 인해, 실생활에 유익한 다양한 컨텐츠를 제공하는 로봇을 상품화하는 것에 어려움이 있다. 로봇마다 플랫폼과 제어가 필요한 부분이 각기 다른 이유로 특정 로봇의 제어 목적으로 개발된 저작 툴과 컨텐츠는 다른 로봇에는 적용하기 어려운 상황이 발생하게 된다.
예를 들어, 초기에 개발된 로봇의 경우 팔이 없어 제어할 필요가 없었으나, 차기에 개발된 로봇의 경우 팔이 추가되어 제어가 필요하게 되었는데, 기존에 개발된 구조의 저작 툴로는 새로 추가된 기능을 사용할 수 없어 매번 새로운 로봇이 개발될 때마다 그에 종속적인 새로운 저작 툴과 컨텐츠를 개발해야 한다는 문제가 발생하게 된다.
또한, 로봇만의 특화된 얼굴 인식, 대화 기술, 네비게이션, 사용자 응시 등의 기능을 컨텐츠에 적용하기 어려워 PC용으로 개발된 컨텐츠와 차별화된 컨텐츠를 개발하는 데 있어 한계가 있다. 로봇의 독창적인 컨텐츠 개발을 위하여 로봇 관련 개발 기술을 컨텐츠에 접목시키는 기능이 필요하다.
최근 교육 콘텐츠 서비스를 제공하는 로봇이 개발되었다. 이러한 지능형 서비스 로봇은 외양에서 인간과 유사성을 가짐으로 자연스러운 대화가 가능하고 화면과 얼굴 LED를 통해 감정 교류가 일어날 수 있다. 또한 학습자의 상태를 음성이나 센서 등을 통해 인식하여 개별적인 학습자 필요에 반응하고 자극함으로써 자발적 학습을 촉진할 수 있다.
이러한 로봇은 기존의 도구적인 교수 매체 개념을 넘어 유아와 함께 협력하며 공존하는 로봇 선생님이나 친구로 다가가고 있다. 이러한 지능형 서비스 로봇에도 안드로이드 운영체제와 같은 오픈 아키텍처가 채택되고 있다. 따라서 지능형 서비스 로봇의 어플리케이션 개발에도 많은 일반 개발자들이 참여할 수 있게 되었다. 그런데 전술한 바와 같이 지능형 서비스 로봇은 모바일 단말과 달리 자체 이동성이 있고 자율 주행 중 회피 기동의 기능이 있으며, 회피 기능을 위한 센서들이 채용되고, 또한 감성 서비스를 제공하기 위해 여러 부위에 터치 감지 센서 및 LED 등의 여러 종류의 하드웨어가 채용된다.
따라서 이러한 지능형 서비스 로봇의 하드웨어 자원을 이용하고 제어할 수 있는 컨텐츠를 자유롭게 개발할 수 있는 환경이 요구된다.
한국공개특허 2009-0078244(2009.07.17 공개)
본 발명은 상기와 같은 문제점을 해결하기 위해 제안된 것으로, 로봇의 사용자가 프로그래밍 작업 없이 로봇의 하드웨어 자원을 이용하고 제어할 수 이는 로봇용 컨텐츠를 개발할 수 있는 저작 환경을 제공하는 로봇 컨텐츠 저작 장치 및 방법을 제공하는데 그 목적이 있다.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 목적을 달성하기 위한 로봇 컨텐츠 저작 장치는, 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하고, 상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및 상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함한다.
상기 모션 편집부는, 상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고, 사용자로부터 구동 시간을 입력받으며, 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치할 수 있다.
상기 모션 편집부는, 상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하고, 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출할 수 있다.
상기 모션 편집부는, 상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시할 수 있다.
상기 모션 편집부는, 머리 모션 편집 모드의 동작시 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경한다.
상기 모션 편집부는, 이동 모션 편집 모드의 동작시 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시할 수 있다.
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기일 수 있다.
상기 모션 편집부는, 상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고, 사용자로부터 이동 속도를 입력받으며, 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치할 수 있다.
상기 모션 편집부는, 상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시할 수 있다.
상기 모션 편집부는, 상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받으며, 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치할 수 있다.
상기 모션 편집부는, 상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시할 수 있다.
상기 모션 편집부는, 램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시할 수 있다.
상기 모션 편집부는, 상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간을 입력받고, 그 입력받은 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치할 수 있다.
상기 로봇 컨텐츠 저작 장치는, 상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 모션 재생부; 및 물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 동기화부;를 더 포함할 수 있다.
컨텐츠 편집 모드시, 상기 로봇 컨텐츠 저작 장치의 상기 편집 영역은 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환되고, 미디어의 출력을 위한 미리보기 창이 표시되며, 상기 모션 이벤트 트랙은 컨텐츠 이벤트 트랙으로 전환되고, 상기 로봇 컨텐츠 저작 장치는 상기 모션 편집부에 의해 생성된 로봇 모션 이벤트의 템플릿과 미디어 템플릿을 저장하고 리스트를 제공하는 템플릿 관리부; 및 상기 템플릿 관리부에서 제공하는 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 컨텐츠 저작부;를 더 포함할 수 있다.
상기 컨텐츠 저작부는, 재생 입력의 수신시, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력할 수 있다.
상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 로봇 컨텐츠 저작 장치에서 로봇 컨텐츠의 저작 방법은, 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계; 상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및 상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함한다.
상기 배치하는 단계는, 상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고 구동 시간을 입력받는 단계; 및 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다.
상기 입력받는 단계는, 상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하는 단계; 및 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 단계;를 포함할 수 있다.
상기 선을 표시하는 단계는, 상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시할 수 있다.
상기 방법은, 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 표현하는 단계 이후에, 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 단계;를 더 포함할 수 있다.
상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기이다.
상기 배치하는 단계는, 상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고 사용자로부터 이동 속도를 입력받는 단계; 및 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다.
상기 입력받는 단계는, 상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 단계;를 포함할 수 있다.
상기 배치하는 단계는, 상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받는 단계; 및 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함할 수 있다.
상기 입력받는 단계는, 상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 단계;를 포함할 수 있다.
상기 방법은, 상기 표현하는 단계 이후에, 램프 표현 편집 모드의 동작시 상기 편집 영역의 화면을 정면 시점(Front view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 적어도 하나 이상의 램프 위치를 표시하는 단계;를 더 포함할 수 있다.
상기 배치하는 단계는, 상기 램프 위치에 대한 선택 입력과, 램프의 색 및 시간의 입력을 수신하는 단계; 및 상기 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 상기 램프 위치 및 상기 색의 정보를 포함하는 램프 표현 이벤트 막대를 배치하는 단계;를 포함할 수 있다.
상기 방법은, 물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 단계; 및 상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 편집 영역을 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환하고, 미디어의 출력을 위한 미리보기 창을 표시하며, 상기 모션 이벤트 트랙을 컨텐츠 이벤트 트랙으로 전환하는 단계; 로봇 모션 이벤트의 템플릿과 미디어 템플릿의 리스트를 제공하는 단계; 및 상기 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 단계;를 더 포함할 수 있다.
본 발명은 로봇 개발자가 아닌 일반 로봇 사용자가 로봇용 컨텐츠를 손쉽게 저작할 수 있게 한다. 따라서 로봇을 이용한 교육 등에서 교사들이 학습 커리큘럼에 맞는 다양한 교육 컨텐츠를 저작하여 활용할 수 있다.
도 1은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 장치의 구성을 나타낸 도면이다.
도 2는 도 1의 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 프로그램의 기본 인터페이스 화면이다.
도 4는 본 발명의 일 실시예에 따른 머리 모션 편집 모드의 화면을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 머리 모션의 각도 및 시간을 설명하는 화면을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면이다.
도 7은 이동 모션 편집 모드에서 로봇 모델의 이동 전후의 위치 선을 나타낸 도면이다.
도 8은 본 발명의 다른 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 LED 표현 편집 모드의 화면을 나타낸 도면이다.
도 10은 본 발명의 다른 실시예에 따른 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다.
도 11은 본 발명의 일 실시예에 따른 컨텐츠 편집 모드의 화면이다.
도 12는 본 발명의 일 실시예에 따른 로봇의 구성을 나타낸 도면이다.
도 13은 본 발명의 일 실시예에 따른 모션 디버거의 구성을 나타낸 도면이다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 장치의 구성을 나타낸 도면이다.
도 1을 참조하면, 로봇 컨텐츠 저작 장치(100)는 메모리(110), 메모리 제어기(121), 하나 이상의 프로세서(CPU)(122), 주변 인터페이스(123), 입출력(I/O) 서브시스템(130), 디스플레이 장치(141), 입력 장치(142) 및 RF 회로(152)를 포함한다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 통하여 통신한다. 도 1에 도시한 여러 구성요소는 하나 이상의 신호 처리 및/또는 애플리케이션 전용 집적 회로(application specific integrated circuit)를 포함하여, 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어 둘의 조합으로 구현될 수 있다.
메모리(110)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 또한 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치와 같은 불휘발성 메모리, 또는 다른 불휘발성 반도체 메모리 장치를 포함할 수 있다. 일부 실시예에서, 메모리(110)는 하나 이상의 프로세서(122)로부터 멀리 떨어져 위치하는 저장 장치, 예를 들어 RF 회로(152)와, 인터넷, 인트라넷, LAN(Local Area Network), WLAN(Wide LAN), SAN(Storage Area Network) 등, 또는 이들의 적절한 조합과 같은 통신 네트워크(도시하지 않음)를 통하여 액세스되는 네트워크 부착형(attached) 저장 장치를 더 포함할 수 있다. 프로세서(122) 및 주변 인터페이스(123)와 같은 로봇 컨텐츠 저작 장치(100)의 다른 구성요소에 의한 메모리(110)로의 액세스는 메모리 제어기(121)에 의하여 제어될 수 있다.
주변 인터페이스(123)는 로봇 컨텐츠 저작 장치의 입출력 주변 장치를 프로세서(122) 및 메모리(110)와 연결시킨다. 하나 이상의 프로세서(122)는 다양한 소프트웨어 프로그램 및/또는 메모리(110)에 저장되어 있는 명령어 세트를 실행하여 로봇 컨텐츠 저작 장치(100)를 위한 여러 기능을 수행하고 데이터를 처리한다.
일부 실시예에서, 주변 인터페이스(123), 프로세서(122) 및 메모리 제어기(121)는 칩(120)과 같은 단일 칩 상에서 구현될 수 있다. 일부 다른 실시예에서, 이들은 별개의 칩으로 구현될 수 있다.
I/O 서브시스템(130)은 디스플레이 장치(141) 및 기타 입력 장치(142)와 같은 로봇 컨텐츠 저작 장치(100)의 입출력 주변장치와 주변 인터페이스(123) 사이에 인터페이스를 제공한다.
디스플레이 장치(141)는 LCD(liquid crystal display) 기술 또는 LPD(light emitting polymer display) 기술을 사용할 수 있고, 이러한 디스플레이 장치(141)는 용량형, 저항형, 적외선형 등의 터치 디스플레이일 수 있다. 터치 디스플레이는 로봇 컨텐츠 저작 장치와 사용자 사이에 출력 인터페이스 및 입력 인터페이스를 제공한다. 터치 디스플레이는 사용자에게 시각적인 출력을 표시한다. 시각적 출력은 텍스트, 그래픽, 비디오와 이들의 조합을 포함할 수 있다. 시각적 출력의 일부 또는 전부는 사용자 인터페이스 대상에 대응할 수 있다. 터치 디스플레이는 사용자 입력을 수용하는 터치 감지면을 형성한다.
프로세서(122)는 로봇 컨텐츠 저작 장치(100)에 연관된 동작을 수행하고 명령어들을 수행하도록 구성된 프로세서로서, 예를 들어, 메모리(110)로부터 검색된 명령어들을 이용하여, 로봇 컨텐츠 저작 장치(100)의 컴포넌트 간의 입력 및 출력 데이터의 수신과 조작을 제어할 수 있다.
일부 실시예에서, 소프트웨어 구성요소는 운영 체제(111), 그래픽 모듈(명령어 세트)(112) 및 로봇 컨텐츠 저작 프로그램(명령어 세트)(113)이 메모리(110)에 탑재(설치)된다.
운영 체제(111)는, 예를 들어, 다윈(Darwin), RTXC, LINUX, UNIX, OS X, WINDOWS 또는 VxWorks, 안드로이드 등과 같은 내장 운영체제일 수 있고, 일반적인 시스템 태스크(task)(예를 들어, 메모리 관리, 저장 장치 제어, 전력 관리 등)를 제어 및 관리하는 다양한 소프트웨어 구성요소 및/또는 장치를 포함하고, 다양한 하드웨어와 소프트웨어 구성요소 사이의 통신을 촉진시킨다.
그래픽 모듈(112)은 디스플레이 장치(141) 상에 그래픽을 제공하고 표시하기 위한 주지의 여러 소프트웨어 구성요소를 포함한다. "그래픽(graphics)"이란 용어는 텍스트, 웹 페이지, 아이콘(예컨대, 소프트 키를 포함하는 사용자 인터페이스 대상), 디지털 이미지, 비디오, 애니메이션 등을 제한 없이 포함하여, 사용자에게 표시될 수 있는 모든 대상을 포함한다.
RF 회로(152)는 전자파를 송수신한다. RF 회로(152)는 전기 신호를 전자파로 또는 그 반대로 변환하며 이 전자파를 통하여 통신 네트워크, 다른 이동형 게이트웨이 및 통신 장치와 통신한다. RF 회로(152)는 예를 들어 안테나 시스템, RF 트랜시버, 하나 이상의 증폭기, 튜너, 하나 이상의 오실레이터, 디지털 신호 처리기, CODEC 칩셋, 가입자 식별 모듈(subscriber identity module, SIM) 카드, 메모리 등을 포함하지만 이에 한정되지 않는, 이러한 기능을 수행하기 위한 주지의 회로를 포함할 수 있다. RF 회로(152)는 월드 와이드 웹(World Wide Web, WWW)으로 불리는 인터넷, 인트라넷과 네트워크 및/또는, 셀룰러 전화 네트워크, 무선 LAN 및/또는 MAN(metropolitan area network)와 같은 무선 네트워크, 그리고 근거리 무선 통신에 의하여 다른 장치와 통신할 수 있다. 무선 통신은 GSM(Global System for Mobile Communication), EDGE(Enhanced Data GSM Environment), WCDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), VoIP(voice over Internet Protocol), Wi-MAX, 블루투스(Bluetooth), 지그비(zigbee), 엔에프씨(NFC:Near Field Communication), 이메일, 인스턴트 메시징(instant messaging) 및/또는 단문 문자 서비스(SMS)용 프로토콜 또는 본 출원의 출원 시점에 아직 개발되지 않은 통신 프로토콜을 포함하는 기타 다른 적절한 통신 프로토콜을 포함하지만 이에 한정되지 않는 복수의 통신 표준, 프로토콜 및 기술 중 어느 것을 이용할 수 있다.
로봇 컨텐츠 저작 프로그램(113)은 디스플레이 장치(141) 및 입력 장치(142)와 연동하여 로봇 컨텐츠의 저작을 수행한다. 로봇 컨텐츠 저작 프로그램에 관해서는 이하에서 자세히 설명한다.
도 2는 도 1의 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이고, 도 3은 본 발명의 일 실시예에 따른 로봇 컨텐츠 저작 프로그램의 기본 인터페이스 화면이다.
도 3에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램은 구동시 로봇 모델(350)이 구현되어 사용자가 로봇 모델을 직접 조작하여 모션을 편집할 수 있는 편집 영역(310) 그리고 그 편집 영역(310)에서 조작되는 모션, 즉 머리 모션, 이동 모션, LED 표현의 이벤트를 시간에 따라 배치하는 모션 이벤트 트랙(330)을 표시한다. 모션 이벤트 트랙(330)에 배치된 이벤트들의 재생시 상기 편집 영역(310)에 구현된 로봇 모델(350)은 지정된 시간에 이벤트에 따른 모션, 예를 들어 고개를 돌리거나, 전진 또는 후진하거나, LED를 깜박이는 등의 행위를 한다.
도 2에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램(113)은 모션 편집부(210), 모션 재생부(220), 동기화부(230), 템플릿 관리부(240), 파일 처리기(250) 및 3D 묘화부(260)를 포함한다.
3D 묘화부(260)는 로봇 기능을 3D 공간에서 표현할 수 있는 3D 엔진을 포함하고 편집 영역(310)을 가상의 3D 공간으로 표현하며 그 편집 영역(310) 내에 3D 로봇 모델(350)을 표현한다. 3D 묘화부(260)는 2D 또는 3D 이펙트를 표현하고 2D 또는 3D UI(User Interface)를 표현한다.
모션 편집부(210)는 로봇의 기능인 목 관절, 바퀴, 그리고 로봇에 장착되는 LED를 시간 흐름에 따라 순차적으로 연출하는 일련의 동작, 즉 애니메이션을 작성한다.
모션 편집부(210)는 세 가지의 편집 모드를 제공한다. 여기서 세 가지의 편집 모드는 머리 모션 편집, 이동 모션 편집, LED 표현 편집을 포함한다. 모션 편집부(210)는 메뉴 도구에 편집 모드 종류를 표시하여 사용자로부터 편집 모드를 선택받을 수 있고, 또는 모션 이벤트 트랙(330)에 표시된 편집 부위 이름이 사용자로부터 선택됨으로써 편집 모드를 선택받을 수 있다.
머리 모션 편집
모션 편집부(210)는 머리 모션 편집 모드의 동작시 편집 영역(310)의 화면을 사선 시점(Perspective view)로 변경하고 편집 영역(310)에 표시되는 로봇 모델(350)의 목 부분에 표시기를 표시한다. 예를 들어 로봇 모델의 목 부분에 노란색 원을 표시한다.
도 4는 본 발명의 일 실시예에 따른 머리 모션 편집 모드의 화면을 나타낸 도면으로, 도 4에 도시된 바와 같이 사선 시점으로 변경된 편집 영역(310)에 표시되는 로봇 모델(350)의 목 부분에 색이 있는 원(410)이 표시된다.
도 5는 본 발명의 일 실시예에 따른 머리 모션의 각도 및 시간을 설명하는 화면을 나타낸 도면이다.
도 5를 참조하면, 모션 편집부(210)는 편집 영역(310)에서 로봇 모델(350)의 목 부분에 표시된 표시기(410)를 중심으로 로봇의 시선에 따른 선(510)과 로봇의 위치에 따른 기준선(530)을 표시하고 사용자에 의한 마우스 입력에 따라 그 선 사이의 각도를 변경하여 사용자가 선택할 수 있도록 한다. 바람직하게, 로봇의 위치에 따른 기준선(530)을 중심으로 좌우 각각 30도씩 선택할 수 있다.
모션 편집부(210)는 각도의 설정 후 시간을 선택할 수 있는 창(550)을 표시하고, 그 창(550)을 통해 로봇의 머리 모션의 구동 시간을 입력받는다. 즉, 상기 사용자가 선택한 각도를 실제 움직일 시간을 입력받는 것이다. 모션 편집부(210)는 구동 시간이 입력되면 모션 이벤트 트랙(330)에 예상 길이를 표시하여 점멸하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 구동 시간을 갖는 머리 모션의 이벤트(570)를 막대 형태로 추가한다.
이동 모션 편집
모션 편집부(210)는 이동 모션 편집 모드의 동작시 편집 영역(310)의 화면을 높이 시점(Top view)로 변경하고 편집 영역(310)에 표시되는 로봇 모델(350)에 두 개의 선택 가능한 원을 표시한다. 두 개의 원 중 하나는 로봇의 전진/후진을 처리하는 역할을 하고, 나머지 원은 로봇의 회전을 처리하는 역할을 한다.
도 6은 본 발명의 일 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면으로, 도 6에 도시된 바와 같이 높이 시점으로 변경되어 편집 영역(310)에 표시되는 로봇 모델(350)은 위에서 본 형태로 표시되고 로봇 모델에 두 개의 원(610)이 표시된다.
모션 편집부(210)는 편집 영역에 속도 설정 창(630)을 출력하고, 그 속도 설정 창(630)을 통해 사용자로부터 이동 로봇의 이동 속도 및 회전 속도를 입력받는다. 이동 속도는 전진/후진에 관계된 값으로서 단위는 초당 센치미터로 1초에 갈 수 있는 거리를 의미하고, 회전 속도는 좌회전/우회전에 관계된 값으로 각속도를 의미한다. 회전 속도는 초당 회전하는 각도일 수 있다.
(1) 전진/후진 편집
모션 편집부(210)는 모션 이벤트 트랙(330)에서 전진/후진 모션 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 전진/후진에 관련된 원(610)이 사용자에 의해 선택되면 전진/후진 편집 동작을 시작하고 사용자가 선택한 위치로 로봇 모델(350)을 이동시킨다. 모션 편집부(210)는 도 7에 도시된 바와 같이 로봇 모델의 원래 위치의 선(710) 그리고 이동 후의 위치의 선(730)을 서로 구분하여 표시하면서(예컨대 색을 달리함) 그 사이의 이동 거리 선(750)을 거리 값과 함께 표시한다. 그리고 모션 편집부(210)는 전진/후진과 관련된 원(610)이 사용자에 의해 다시 선택되면 모션 이벤트 트랙(330)에 예상 이동 시간을 점멸하여 표시하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 전진/후진의 이벤트를 추가한다.
(2) 회전 편집
도 8은 본 발명의 다른 실시예에 따른 이동 모션 편집 모드의 화면을 나타낸 도면으로, 회전 편집시의 화면이다.
모션 편집부(210)는 모션 이벤트 트랙(330)에서 회전 모션 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 회전에 관련된 원(610)이 사용자에 의해 선택되면 회전 편집 동작을 시작하고 사용자의 마우스가 움직이는 위치에 따라 로봇 모델(350)의 회전 값을 산출한다. 모션 편집부(210)는 로봇 모델(210)의 회전하기 전 원래 바라보는 각도의 선(810)과 회전 후의 각도를 나타내는 선(830)을 표시며 회전각을 표시하고, 또한 두 선 사이에 실선 또는 점선을 둥글게 표시한다.
사용자의 마우스의 절대 위치로 각도를 산출하는 경우 로봇 모델(350)의 회전하기 전 원래 바라보는 각도의 선(810)를 중심으로 좌우 180도까지만 표현할 수 있고, 마우스의 상대 위치로 각도를 산출하는 경우 0~360도까지 표현할 수 있으며, 상대 위치로 각도를 산출하는 경우 사용자에 의해 특수키(예컨대 쉬프트 키)가 눌려진 상태로 마우스가 움직이는 경우 마우스의 좌우 이동 상대 값으로 각도를 누적하여 회전각을 산출할 수 있다.
모션 편집부(210)는 회전과 관련된 원(610)이 사용자에 의해 다시 선택되면 모션 이벤트 트랙(330)에 예상 이동 시간을 점멸하여 표시하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 회전의 이벤트 막대를 추가한다.
LED 표현 편집
모션 편집부(210)는 LED 표현 편집 모드의 동작시 편집 영역(330)의 화면을 정면 시점(Front view)로 변경하고 편집 영역(330)에 표시되는 로봇 모델(350)에 LED 위치에 관련 표시기, 예를 들어 원을 표시한다. 도 9는 본 발명의 일 실시예에 따른 LED 표현 편집 모드의 화면을 나타낸 도면으로, 편집 영역(330)의 화면은 정면 시점으로 변경되고 로봇 모델(350)에 LED 표시기(910)가 표시된다. 도 9에서는 총 5 개의 원이 LED 표시기(910)로 표시된다.
모션 편집부(210)는 모션 이벤트 트랙(330)에서 LED 표현 이벤트를 추가할 위치를 사용자로부터 입력받는다. 모션 편집부(210)는 로봇 모델(350)의 어느 한 LED 표시기(910)가 사용자에 의해 선택되면 색 및 시간을 설정할 수 있는 창(930)을 표시하고 그 창(930)을 통해 LED의 색 그리고 LED가 켜져 있을 시간을 입력받는다. 모션 편집부(210)는 사용자에 의해 입력된 LED의 색으로 LED 표시기(910)를 표시한다. 모션 편집부(210)는 색 및 시간이 입력되면 모션 이벤트 트랙(330)에 예상 길이를 표시하여 점멸하고, 최종적으로 추가 입력이 수신되면 모션 이벤트 트랙(330)에 상기 설정한 색 및 시간을 갖는 LED 표현의 이벤트 막대를 추가한다.
모션 재생부(220)는 상기 모션 편집부(210)에 의해 로봇의 머리 모션, 이동 모션, LED 표현의 이벤트 편집이 완료된 후 사용자에 의해 재생 입력이 수신되면 그 설정된 이벤트를 재생한다. 즉, 모션 재생부(220)는 모션 이벤트 트랙(330)에서 사용자가 선택한 위치의 시점부터 또는 처음 시점부터 재생을 시작하여 머리 모션, 이동 모션 또는 LED 표현의 이벤트가 있는 지점에서 해당 이벤트에 따라 편집 영역(310)의 로봇 모델(350)을 동작시킨다.
동기화부(230)는 물리적인 실제 로봇과 원격으로 연결하여 상기 모션 편집부(210)를 통해 생성된 로봇의 모션 이벤트에 대한 동기화를 수행한다. 동기화부(230)는 자동 연결 또는 수동 연결을 제공한다.
동기화부(230)는, 사용자로부터 자동 연결 입력시 원격으로 연결 가능한 로봇을 검색하여 리스트를 사용자에게 제공하고 이 중 선택되는 로봇과 원격 연결한다. 또한 동기화부(230)는 사용자로부터 수동 연결 입력시 IP 주소 입력창을 표시하고 그 IP 주소 입력창을 통해 원격 연결할 로봇의 IP 주소를 입력받으며 입력된 IP 주소를 이용하여 로봇과 연결한다.
동기화부(230)는 상기 모션 재생부(220)에 의해 로봇의 이벤트가 재생되는 경우 또는 모션 이벤트 트랙(330)에서 특정 이벤트가 선택되어 재생되는 경우 실제 로봇이 편집 영역(310)의 로봇 모델(350)과 동기화되어 동작하도록 한다.
템플릿 관리부(240)는 로봇의 모션에 관한 템플릿을 저장하고 템플릿 개체를 실제 편집 데이터로 만들어준다. 여기서 템플릿은 로봇의 모션에 관한 파일로서 저작 프로그램에 기본적으로 포함되어 있는 기본 템플릿과 사용자가 저작 프로그램으로 만들어 낸 사용자 템플릿을 포함한다. 전술한 모션 편집부(210)를 통해 만들어진 모션 파일을 사용자가 템플릿 디렉토리에 넣으면, 템플릿 관리부(240)는 해당 템플릿 디렉토리에 저장된 사용자 템플릿을 관리하며 사용자의 요청시 리스트로 제공한다.
템플릿 관리부(240)는 기본 템플릿 및 사용자 템플릿을 포함하는 템플릿 리스트를 별도의 템플릿 창을 통해 표시하고, 사용자에 의해 선택된 템플릿을 모션 이벤트 트랙(330)에 추가할 수 있다. 바람직하게, 템플릿 관리부(240)는 기본 템플릿과 사용자 템플릿의 리스트를 표시할 때 그 둘을 구분할 수 있는 표시를 한다. 예컨대 이름 앞에 '+' 기호를 붙여 기본 템플릿을 사용자 템플릿과 구별하여 표시할 수 있다.
파일 처리기(250)는 모션 편집부에서 생성된 이벤트들을 종합하여 모션 파일을 생성하고 동기화부(230)를 통해 모션 파일을 실제 로봇으로 전송할 수 있다. 모션 파일의 확장자는 rmm이다.
도 10은 본 발명의 다른 실시예에 따른 로봇 컨텐츠 저작 프로그램의 구성을 나타낸 도면이다. 도 10에 있어서 도 2와 동일한 참조부호의 구성요소는 동일한 기능 및 동작을 포함하므로 여기서는 상세한 설명을 생략한다.
도 10을 참조하면, 본 실시예에 따른 로봇 컨텐츠 저작 프로그램(113)은 컨텐츠 저작부(1010)를 더 포함한다. 여기서 컨텐츠는 로봇의 모션 그리고 그 로봇의 모션과 동기화된 미디어를 포함하는 개념이다. 따라서 로봇이 컨텐츠를 재생한다는 것은, 로봇이 모션 파일에 따라 모션을 동작하면서 그 모션에 동기화된 미디어 파일, 예를 들어 노래, 또는 동영상 등을 동시에 재생하는 것을 의미한다. 본 실시예에 따른 로봇 컨텐츠 저작 프로그램(113)은 이러한 컨텐츠를 저작한다.
로봇 컨텐츠 저작 프로그램(113)은 컨텐츠 편집 모드와 모션 편집 모드에서 유사한 인터페이스를 제공한다. 도 11은 본 발명의 일 실시예에 따른 컨텐츠 편집 모드의 화면으로, 도 11에 도시된 바와 같이, 로봇 컨텐츠 저작 프로그램(113)은 모션 편집 모드의 3D 편집 영역을 에뮬레이션 영역(1110)으로 전환하고, 모션 이벤트 트랙을 컨텐츠 이벤트 트랙(1130)으로 전환한다. 그리고 미리보기 창(1150)을 표시한다.
에뮬레이션 영역(1110)은 로봇 모델(1170)이 표시되는 부분으로 일종의 가상 공간이며 로봇 모델(1170)은 모션 이벤트에 따라 에뮬레이션 영역(1110)에서 실제 로봇이 구동되는 것을 흉내내며 움직인다. 모션 편집 모드에서 사용자는 편집 영역의 로봇 모델(350)을 직접 조작하여 모션 편집을 수행하는 반면, 컨텐츠 편집 모드에서 사용자는 에뮬레이션 영역(1110)의 로봇 모델(1170)에 직접적인 조작을 전혀 하지 않고, 에뮬레이션 영역(1110)의 로봇 모델(1170)은 컨텐츠에 포함된 모션 이벤트에 따라 실제 로봇과 같이 구동할 뿐이다.
컨텐츠 이벤트 트랙(1130)은 모션 이벤트 트랙(330)과 유사하지만 구성하는 항목이 모션 이벤트 트랙(330)과는 상이하다. 모션 이벤트 트랙(330)은 시간의 순서에 따라 로봇의 모션과 관련된 머리 이벤트, 이동 이벤트, LED 표현 이벤트를 구성 항목으로 배치하는 반면, 컨텐츠 이벤트 트랙(1130)은 모션 이벤트, 미디어 이벤트, 그림 이벤트를 구성 항목으로 배치한다. 여기서 모션 이벤트는 모션 편집 모드에서 생성된 머리, 이동 및 LED 표현의 이벤트가 모두 포함된 항목이다. 미디어는 소리 또는 영상을 의미하고, 그림은 일반적인 정지 영상을 의미한다.
템플릿 관리부(240)는 로봇의 모션에 관한 템플릿 뿐만 아니라 미디어의 템플릿도 저장 및 관리한다. 로봇의 모션에 관한 템플릿은 전술한 바와 같고, 미디어의 템플릿은 소리 또는 영상, 그림을 포함한다. 템플릿 관리부(240)는 사용자의 선택에 따라 모션의 템플릿 리스트를 템플릿 창(1190)에 표시하거나, 미디어의 템플릿 리스트를 템플릿 창(1190)에 표시한다.
컨텐츠 저작부(1010)는, 사용자에 의해 컨텐츠 저작 편집 모드가 선택되는 경우, 컨텐츠 이벤트 트랙(1130)을 활성화하고, 상기 템플릿 관리부(240)와 연동하여 사용자가 템플릿 창(1190)에서 선택한 템플릿을 상기 컨텐츠 이벤트 트랙(1130)에 배치한다. 컨텐츠 저작부(1010)는 사용자가 선택한 템플릿을 컨텐츠 이벤트 트랙(1130)의 대응하는 항목에 자동 배치한다. 즉 모션 템플릿은 모션 트랙에 배치하고, 소리 또는 영상 템플릿은 미디어 트랙에 배치하며, 그림은 그림 트랙에 배치한다.
이때 컨텐츠 저작부(1010)는 모션 또는 미디어 등의 실제 재생 길이에 대응하는 막대 형태로 이벤트를 트랙(1130)에 배치하는데 해당 이벤트의 시작 시점은 사용자가 선택한 시점이다. 소리나 영상의 경우에는 절대적인 길이가 있어 해당하는 길이만큼 막대를 표시하지만, 그림의 경우에는 길이를 가지지 않으므로 미리 설정된 기본 값만큼의 길이 막대로 그림 이벤트를 배치한다.
컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트들을 편집할 수 있다. 컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트에 대한 사용자의 드래그 앤 드롭 입력에 따라 이벤트를 좌우로 움직여 배치한다. 또한 컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트의 끝단에 대한 사용자의 드래그 앤 드롭 입력에 따라 이벤트의 길이를 조정한다.
컨텐츠 저작부(1010)는 컨텐츠 이벤트 트랙(1130)에 이벤트 배치가 완료된 후 사용자의 재생 입력이 있는 경우 시간 순서에 따라 컨텐츠 이벤트 트랙(1130)에 배치된 이벤트를 해석하여 에뮬레이션 영역(1110)에 구현된 로봇 모델(1170)을 구동시킨다. 즉, 컨텐츠 저작부(1010)는 로봇 모델(1170)의 머리를 돌리거나, 로봇 모델(1170)을 전/후진 또는 회전시키거나, 또는 LED를 표시하면서 여기에 동기화된 소리 또는 영상 또는 그림이 있는 경우 로봇 모델(1170)의 모션과 함께 소리/영상/그림을 출력한다. 영상이나 그림의 경우 미리보기 창(1150)에 표시할 수 있고, 또는 로봇 모델(1170)의 디스플레이 영역에 표시할 수 있다.
파일 처리기(250)는 컨텐츠 저작부(1010)에서 생성된 이벤트들을 종합하여 컨텐츠 파일을 생성한다. 바람직하게, 모션 편집부(210)에서 생성된 모션 파일과 컨텐츠 저작부(1010)에서 생성된 모션 파일의 확장자를 서로 다르게 한다.
도 12는 본 발명의 일 실시예에 따른 로봇의 구성을 나타낸 도면으로, 전술한 로봇 컨텐츠 저작 장치에서 저작된 로봇 컨텐츠를 재생하는 로봇에 관한 것이다.
도 12를 참조하면, 본 실시예에 따른 로봇은 디스플레이 관리자(1210), 오디오 출력부(1220), 로봇 매니저 추상 인터페이스(1230) 및 컨텐츠 엔진(1240)을 포함한다. 여기서 디스플레이 관리자(1210), 오디오 출력부(1220), 로봇 매니저 추상 인터페이스(1230)는 로봇 시스템의 어플리케이션 계층(application layer)에 존재하고, 컨텐츠 엔진(1240)은 프레임워크 네이티브 런타임 라이브러리 계층에 존재한다.
디스플레이 관리자(1210)는 컨텐츠 엔진(1240)에서 처리된 영상을 로봇의 디스플레이 장치에 출력하고, 또한 컨텐츠 엔진(1240)에서 처리되어 전달되는 그림 이미지를 비트맵 이미지로 만들어 디스플레이 장치에 출력한다. 로봇에 설치되는 운영 체제가 안드로이드 시스템인 경우 디스플레이 관리자(1210)는 안드로이드 캔버스를 이용하여 이미지를 만들어 낸다.
오디오 출력부(1220)는 컨텐츠 엔진(1240)에서 만들어진 오디오 출력 데이터를 스피커와 같은 오디오 디바이스로 전송하여 출력한다.
로봇 매니저 추상 인터페이스(1230)는 로봇의 운영 체제에 탑재되는 로봇 매니저(예컨대, 안드로이드 서비스)를 래핑(wrapping)한 것으로서 로봇 컨텐츠의 정보를 로봇 매니저에서 필요한 정보로 변환하는 기능을 수행한다. 로봇에 탑재된 상기 로봇 매니저는 로봇 컨텐츠가 포함하고 있는 복합 데이터를 처리할 수 없기 때문에 별도의 로봇 매니저 추상 인터페이스를 구현하여 로봇 컨텐츠의 정보를 로봇 매니저에서 필요한 정보로 변환한다.
로봇 매니저 추상 인터페이스(1230)는 로봇 컨텐츠에 포함된 모션의 일부 기능을 로봇 매니저에서 지원하는 경우 로봇 매니저를 호출하여 재생되도록 하고, 로봇 매니저에서 지원하지 않는 기능의 경우 로봇 드라이버 안의 기능, 즉 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)을 호출하여 모션이 재생되도록 한다.
로봇 매니저 추상 인터페이스(1230)는 모션의 동기화를 위해 로보틱스 컨트롤 동기화 기능을 포함한다. 컨텐츠 엔진(1240)이 만들어 내는 모션은 최적화 과정을 거치기 때문에, 모션들의 실제 동기화를 위해서는 별도의 작업을 해야 하고, 로봇 매니저 추상 인터페이스(1230)는 상기 로보틱스 컨트롤 동기화 기능을 통해 모션의 동기화를 수행한다.
컨텐츠 엔진(1240)은 도 12에 점선으로 도시한 바와 같이, 로봇 컨텐츠 파일의 관리, 그리고 로봇 컨텐츠 파일로부터 이미지 만들기, 소리 만들기, 영상 재생, 그리고 로봇 모션 만들기 기능을 수행한다.
컨텐츠 엔진(1240)는 관리되는 자바(java) 영역에서 파일을 처리할 수 있게 해주는 컨텐츠 복제 기능을 구비하고, 또한 로봇 컨텐츠에서 원시 이미지를 추출하여 디스플레이 관리자(1210)로 전달한다.
또한, 컨텐츠 엔진(1240)은 WAV, MP3, OGG 등 오디오 파일을 처리하여 재생할 수 있는 코덱을 포함하고 로봇 컨텐츠에서 오디오 파일을 추출하여 상기 코덱으로 재생한 소리를 합성하여 PCM 데이터로 만들어 상기 오디오 출력부(1220)로 전달한다.
또한, 컨텐츠 엔진(1240)은 영상 처리를 위한 오픈 소스 프로젝트 라이브러리 및 영상 코덱을 포함하고 로봇 컨텐츠에서 영상 파일을 추출하여 상기 코덱으로 만들어 낸 데이터를 실제 재생할 수 있는 동기화 논리에 맞춰 영상 이미지로 처리하여 상기 디스플레이 관리자(1210)로 전달한다.
또한, 컨텐츠 엔진(1240)은 로봇 컨텐츠에서 모션 파일을 추출하여 모션 최적화를 수행한 후 로봇 매니저 추상 인터페이스(1230)로 전송한다. 즉, 모션 파일에 포함된 모든 모션을 하나의 모션처럼 처리하기 위해 전체 모션을 블렌딩(blending)하고 이어지거나 누락에 따른 중간 과정을 최적화한다.
도 13은 본 발명의 일 실시예에 따른 모션 디버거의 구성을 나타낸 도면이다. 모션 디버거(1300)는 로봇 컨텐츠 저작 장치와 서로 통신하면서 로봇 컨텐츠 저작 장치에서 만들어진 모션을 확인하고 데이터를 처리하는 미들웨어로서, 로봇에 설치된다.
도 13에 도시된 바와 같이, 모션 디버거(1300)는 파일 탐색기(1310), 다운로더(1330), 로봇 어플리케이션 인터페이스(1350)를 포함한다.
파일 탐색기(1310)는 로봇의 메모리에 저장된 모션 파일을 관리한다. 다운로더(1330)는 로봇 컨텐츠 저작 장치에서 만들어진 모션 파일을 다운로드하여 상기 로봇의 메모리에 저장한다.
로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치에서 원격으로 로봇의 기능을 제어하기 위한 기능을 제공한다. 즉 실제 디버깅 기능을 제공하는 역할을 수행한다.
로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치로부터 수신되는 제어 데이터에 따라 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)(1370)을 호출하여 모션 수행을 제어하고 로봇의 움직임 정보 그리고 하드웨어 상태를 로봇의 디스플레이 장치에 표시한다.
로봇 어플리케이션 인터페이스(1350)는 디버거의 구동시 로봇 드라이버, 즉 상기 로보틱스 하드웨어 추상 계층의 기능을 정지하고 오직 원격에서 접속하는 로봇 컨텐츠 저작 장치에 의해서만 구동될 수 있도록 원격 코어로 변환하도록 처리한다.
로봇 어플리케이션 인터페이스(1350)는 로봇 컨텐츠 저작 장치로부터 수신된 제어 데이터를 로봇에 설치된 로보틱스 하드웨어 추상 계층(HAL : Hardware Abstract Layer)(1370)으로 전달하면서, 로봇 컨텐츠 저작 장치와 상기 로보틱스 하드웨어 추상 계층(1370) 사이에 동시간에 동일한 처리가 일어나도록 동기화한다. 바람직하게 로봇 어플리케이션 인터페이스(1350)는 시분할 기법을 이용한 동기화 기술을 사용한다.
바람직하게, 로봇 어플리케이션 인터페이스(1350)는 프레임 단위(약 0.5초)로 로봇의 모션을 제어한다. 로보틱스 하드웨어 추상 계층(1370)은 제어 데이터에 따라 로봇 컨트롤 보드(1390)를 제어하여 로봇의 모션을 구동시킨다.
상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다.
본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 아니된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절한 부결합(subcombination)에서 구현될 수 있다.
도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 아니된다. 어떤 환경에서, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
210 : 모션 편집부 220 : 모션 재생부
230 : 동기화부 240 : 템플릿 관리부
250 : 파일 처리기 260 : 3D 묘화부

Claims (32)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 로봇 컨텐츠 저작 장치에 있어서,
    상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및
    상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함하고,
    상기 모션 편집부는,
    상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고, 사용자로부터 구동 시간을 입력받으며, 상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하고,
    상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하고, 상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하며,
    상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  5. 제 4 항에 있어서,
    상기 모션 편집부는,
    머리 모션 편집 모드의 동작시 상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  6. 삭제
  7. 삭제
  8. 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 로봇 컨텐츠 저작 장치에 있어서,
    상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및
    상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함하고,
    상기 모션 편집부는,
    이동 모션 편집 모드의 동작시 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하고,
    상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기이며,
    상기 모션 편집부는,
    상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고, 사용자로부터 이동 속도를 입력받으며, 상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  9. 제 8 항에 있어서,
    상기 모션 편집부는,
    상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  10. 편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 로봇 컨텐츠 저작 장치에 있어서,
    상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 묘화부; 및
    상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 모션 편집부;를 포함하고,
    상기 모션 편집부는,
    이동 모션 편집 모드의 동작시 상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하고,
    상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기이며,
    상기 모션 편집부는,
    상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받으며, 상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  11. 제 10 항에 있어서,
    상기 모션 편집부는,
    상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  12. 삭제
  13. 삭제
  14. 제 4 항, 제 5 항, 제 8 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 모션 재생부; 및
    물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 동기화부;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  15. 제 4 항, 제 5 항, 제 8 항 내지 제 11 항 중 어느 한 항에 있어서,
    컨텐츠 편집 모드시, 상기 편집 영역은 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환되고, 미디어의 출력을 위한 미리보기 창이 표시되며, 상기 모션 이벤트 트랙은 컨텐츠 이벤트 트랙으로 전환되고,
    상기 모션 편집부에 의해 생성된 로봇 모션 이벤트의 템플릿과 미디어 템플릿을 저장하고 리스트를 제공하는 템플릿 관리부; 및
    상기 템플릿 관리부에서 제공하는 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 컨텐츠 저작부;를 더 포함하는 로봇 컨텐츠 저작 장치.
  16. 제 15 항에 있어서,
    상기 컨텐츠 저작부는,
    재생 입력의 수신시, 상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 것을 특징으로 하는 로봇 컨텐츠 저작 장치.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 로봇 컨텐츠 저작 장치에서 로봇 컨텐츠의 저작 방법으로서,
    편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계;
    상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및
    상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하고,
    상기 배치하는 단계는,
    상기 로봇 모델의 머리에 대한 조작에 따라 머리의 움직임 각도를 산출하고 구동 시간을 입력받는 단계; 및
    상기 머리의 움직임 각도의 정보를 포함하는 상기 구동 시간에 대응하는 길이의 머리 모션 이벤트 막대를 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하며,
    상기 입력받는 단계는,
    상기 로봇 모델의 위치에 따른 기준선과 상기 로봇 모델의 시선에 따른 선을 표시하는 단계; 및
    상기 시선에 따른 선과 상기 기준선 사이의 각도를 머리의 움직임 각도로 산출하는 단계;를 포함하고,
    상기 선을 표시하는 단계는,
    상기 로봇 모델의 목 관절 부분에 표시기를 표시하고, 상기 표시기의 선택 입력시, 상기 기준선과 상기 시선에 따른 선을 표시하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
  21. 제 20 항에 있어서,
    상기 편집 영역의 화면을 사선 시점(Perspective view)로 변경하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
  22. 삭제
  23. 삭제
  24. 로봇 컨텐츠 저작 장치에서 로봇 컨텐츠의 저작 방법으로서,
    편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계;
    상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및
    상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하고,
    상기 표현하는 단계 이후에,
    상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 단계;를 더 포함하며
    상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기이며,
    상기 배치하는 단계는,
    상기 전후 이동 모션 편집 표시기의 선택시, 상기 로봇 모델의 전후 이동에 대한 조작에 따라 이동 거리를 산출하고 사용자로부터 이동 속도를 입력받는 단계; 및
    상기 이동 거리의 정보를 포함하는 이동 모션 이벤트 막대를 이동 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
  25. 제 24 항에 있어서,
    상기 입력받는 단계는,
    상기 편집 영역에 상기 로봇 모델의 이동 전 위치 선과 이동 후 위치 선을 표시하고 그 사이에 이동 거리를 표시하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
  26. 로봇 컨텐츠 저작 장치에서 로봇 컨텐츠의 저작 방법으로서,
    편집 영역과 모션 이벤트 트랙을 포함하는 인터페이스를 출력하는 단계;
    상기 편집 영역에 3차원 로봇 모델을 구현하여 표현하는 단계; 및
    상기 편집 영역의 로봇 모델에 대한 모션 조작에 따라 로봇 모션 이벤트를 생성하고 그 로봇 모션 이벤트를 시간에 따라 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하고,
    상기 표현하는 단계 이후에,
    상기 편집 영역의 화면을 높이 시점(Top view)로 변경하고 상기 편집 영역의 상기 로봇 모델에 이동 모션 편집에 관한 두 개의 표시기를 표시하는 단계;를 더 포함하며,
    상기 두 개의 표시기 중 어느 하나는 전후 이동 모션 편집 표시기이고, 다른 하나는 회전 모션 편집 표시기이며,
    상기 배치하는 단계는,
    상기 회전 모션 편집 표시기의 선택시, 상기 로봇 모델의 회전에 대한 조작에 따라 회전 각도를 산출하고, 사용자로부터 회전 속도를 입력받는 단계; 및
    상기 회전 각도의 정보를 포함하는 이동 모션 이벤트 막대를 회전 시간에 대응하는 길이로 상기 모션 이벤트 트랙에 배치하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
  27. 제 26 항에 있어서,
    상기 입력받는 단계는,
    상기 편집 영역에 상기 로봇 모델의 회전 전 시점의 선과 회전 후 시점의 선을 표시하고 그 선 사이에 회전 각도를 표시하는 단계;를 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
  28. 삭제
  29. 삭제
  30. 제 20 항, 제 21 항, 제 24 항 내지 제 27 항 중 어느 한 항에 있어서,
    물리적인 실제 로봇과 통신 연결하고 상기 로봇 모델과 상기 실제 로봇의 동작을 동기화하는 단계; 및
    상기 모션 이벤트 트랙에 배치된 이벤트에 따라 상기 편집 영역의 상기 로봇 모델을 동작시키는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
  31. 제 20 항, 제 21 항, 제 24 항 내지 제 27 항 중 어느 한 항에 있어서,
    상기 편집 영역을 가상의 공간에서 로봇 모델이 동작만 하는 에뮬레이션 영역으로 전환하고, 미디어의 출력을 위한 미리보기 창을 표시하며, 상기 모션 이벤트 트랙을 컨텐츠 이벤트 트랙으로 전환하는 단계;,
    로봇 모션 이벤트의 템플릿과 미디어 템플릿의 리스트를 제공하는 단계; 및
    상기 리스트에서 선택된 로봇 모션 이벤트와 미디어를, 해당 로봇 모션 이벤트 및 미디어의 재생 길이에 대응하는 길이의 이벤트 막대로 표현하여 상기 컨텐츠 이벤트 트랙에 배치하는 단계;를 더 포함하는 로봇 컨텐츠 저작 방법.
  32. 제 31 항에 있어서,
    상기 컨텐츠 이벤트 트랙에 배치된 로봇 모션 이벤트에 따라 상기 에뮬레이션 영역의 상기 로봇 모델을 동작시키고, 상기 컨텐츠 이벤트 트랙에 배치된 미디어를 재생하여 상기 미리보기 창에 출력하는 단계;를 더 포함하는 것을 특징으로 하는 로봇 컨텐츠 저작 방법.
KR1020130057176A 2013-03-22 2013-05-21 로봇 컨텐츠 저작 장치 및 방법 Active KR101626966B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/039,942 US9495788B2 (en) 2013-03-22 2013-09-27 Apparatus and method for developing robot contents

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130030897 2013-03-22
KR20130030897 2013-03-22

Publications (2)

Publication Number Publication Date
KR20140115902A KR20140115902A (ko) 2014-10-01
KR101626966B1 true KR101626966B1 (ko) 2016-06-02

Family

ID=51990120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130057176A Active KR101626966B1 (ko) 2013-03-22 2013-05-21 로봇 컨텐츠 저작 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101626966B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210115068A (ko) * 2019-02-11 2021-09-27 엘지전자 주식회사 액션 로봇용 단말기 및 그의 동작 방법
CN114347061A (zh) * 2022-01-24 2022-04-15 美的集团(上海)有限公司 机器人的氛围灯设置方法、设置装置及机器人

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254074A (ja) * 2007-03-30 2008-10-23 Sega Corp ロボットのモーション編集装置及びそのプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4765155B2 (ja) * 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
US8560118B2 (en) * 2007-04-16 2013-10-15 Neuroarm Surgical Ltd. Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis
FR2918477A1 (fr) * 2007-07-04 2009-01-09 Aldebaran Robotics Soc Par Act Procede d'edition de mouvements d'un robot
KR101206813B1 (ko) 2007-09-21 2012-11-30 삼성전자주식회사 금속패널 및 그 가공방법과 이를 이용하는 조리 기기

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008254074A (ja) * 2007-03-30 2008-10-23 Sega Corp ロボットのモーション編集装置及びそのプログラム

Also Published As

Publication number Publication date
KR20140115902A (ko) 2014-10-01

Similar Documents

Publication Publication Date Title
US10403050B1 (en) Multi-user virtual and augmented reality tracking systems
US6718231B2 (en) Authoring system and authoring method, and storage medium
US20050231513A1 (en) Stop motion capture tool using image cutouts
TWI413017B (zh) 用於混合式物件屬性關鍵製格模組之方法與電腦系統
CN106843150A (zh) 一种工业现场仿真模拟方法和装置
US20120107790A1 (en) Apparatus and method for authoring experiential learning content
CN102662664A (zh) 界面动画实现方法及系统
CN103258338A (zh) 利用真实数据来驱动仿真的虚拟环境的方法和系统
WO2002031710A9 (en) Authoring system
KR102186607B1 (ko) 증강현실을 통한 발레 공연 시스템 및 방법
US9495788B2 (en) Apparatus and method for developing robot contents
CN112783320A (zh) 一种沉浸式虚拟现实的案例教学展示方法及系统
WO2018173791A1 (ja) 画像処理装置および方法、並びにプログラム
KR101626966B1 (ko) 로봇 컨텐츠 저작 장치 및 방법
KR102095951B1 (ko) 로봇 제어 어플리케이션 생성을 이용한 코딩 교육 시스템
Linowes Augmented reality with unity AR foundation: a practical guide to cross-platform AR development with Unity 2020 and later versions
Jeong et al. WIKA: A projected augmented reality workbench for interactive kinetic art
TWI624782B (zh) 立體場景中超連結編輯方法與系統
KR20200003437A (ko) 로봇 제어 어플리케이션 생성을 이용한 코딩 교육 시스템
US20240112418A1 (en) XR World Build Capture and Playback Engine
JP7070547B2 (ja) 画像処理装置および方法、並びにプログラム
Reinhardt et al. ADOBE FLASH CS3 PROFESSIONAL BIBLE (With CD)
CN115565429B (zh) 一种轨道交通列车控制设备培训系统
US11983396B1 (en) Generating augmented reality tours
Φιλιόπουλος Design and implementation of a remote collaboration application with the use of smart glasses

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130521

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20130726

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20130521

Comment text: Patent Application

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20150211

Patent event code: PE09021S01D

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20151022

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20160427

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20160527

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20160527

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20190502

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20190502

Start annual number: 4

End annual number: 4