[go: up one dir, main page]

KR100735555B1 - 동작에 따른 기능을 수행하는 장치 및 방법 - Google Patents

동작에 따른 기능을 수행하는 장치 및 방법 Download PDF

Info

Publication number
KR100735555B1
KR100735555B1 KR1020050086334A KR20050086334A KR100735555B1 KR 100735555 B1 KR100735555 B1 KR 100735555B1 KR 1020050086334 A KR1020050086334 A KR 1020050086334A KR 20050086334 A KR20050086334 A KR 20050086334A KR 100735555 B1 KR100735555 B1 KR 100735555B1
Authority
KR
South Korea
Prior art keywords
motion
model
function
input
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020050086334A
Other languages
English (en)
Other versions
KR20070031658A (ko
Inventor
조성정
김동윤
방원철
최은석
기은광
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050086334A priority Critical patent/KR100735555B1/ko
Priority to US11/492,905 priority patent/US20070091292A1/en
Publication of KR20070031658A publication Critical patent/KR20070031658A/ko
Application granted granted Critical
Publication of KR100735555B1 publication Critical patent/KR100735555B1/ko
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 동작에 따른 기능을 수행하는 장치 및 방법에 관한 것으로서, 적어도 하나 이상의 동작에 의해 생성된 동작 모델을 소정의 기능에 대응시켜 저장하고, 차후에 사용자에 의해 입력된 동작과 저장된 동작 모델의 유사성을 비교하여 그 결과에 따라 대응되는 기능을 수행하는 동작에 따른 기능을 수행하는 장치 및 방법에 관한 것이다.
본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 장치는 동작을 감지하는 관성 센서와, 기 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하는 동작 확률 분포 형성부와, 상기 형성된 확률적인 분포를 이용하여 상기 동작 모델과 상기 감지된 동작의 유사 여부를 비교하는 동작 비교부 및 상기 비교 결과에 따라 상기 동작 모델에 대응되어 저장된 기능 수행 신호를 출력하는 출력부를 포함한다.
동작 모델, 동작 샘플, 관성 센서, 확률 분포

Description

동작에 따른 기능을 수행하는 장치 및 방법{Apparatus and method for operating according to movement}
도 1은 본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 장치를 나타낸 블록도이다.
도 1a는 본 발명의 실시예에 따른 동작 모델 생성부를 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 동작 샘플을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 구역의 끝점에 의해 중간점이 결정되는 것을 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 구역의 끝점 간의 관계를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 동작 샘플의 구역이 대응되는 것을 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 복수 개의 동작 샘플 간에 대응된 특정 경계를 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 동작을 등록하는 과정을 나타낸 흐름도이다.
도 8은 본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 과정을 나타낸 흐름도이다.
도 9는 본 발명의 실시예에 따른 등록된 동작의 모양을 디스플레이하는 것을 나타낸 예시도이다.
도 10은 본 발명의 실시예에 따른 궤적 복원부를 나타낸 블록도이다.
<도면의 주요 부분에 관한 부호의 설명>
110 : 관성 센서 120 : 버튼 신호 수신부
130 : 동작 모델 생성부 140 : 제어부
150 : 동작 비교부 160 : 기능 검색부
170 : 출력부 180 : 동작 확률 분포 형성부
190 : 저장부
본 발명은 동작에 따른 기능을 수행하는 장치 및 방법에 관한 것으로서, 더욱 상세하게는 적어도 하나 이상의 동작에 의해 생성된 동작 모델을 소정의 기능에 대응시켜 저장하고, 차후에 사용자에 의해 입력된 동작과 저장된 동작 모델의 유사성을 비교하여 그 결과에 따라 대응되는 기능을 수행하는 동작에 따른 기능을 수행하는 장치 및 방법에 관한 것이다.
관성 센서(Inertial Sensor)는 가속도 또는 각속도에 의해 발생되는 질량체의 관성력을 질량체에 연결된 탄성 구조물의 변형으로 표시한 후 적절한 감지 및 신호 처리 기법을 이용하여 구조물의 변형을 전기적인 신호로 표시하는 것이다.
1990년대 이후 반도체 공정을 이용한 초소형 정밀 가공 기술(Micro-ElectroMechanical Systems)의 발전에 따라 관성 센서의 초소형화 및 대량 생산이 가능해졌다. 관성 센서는 크게 가속도 센서와 각속도 센서로 나뉘며, URC(Ubiquitous Robotic Companion)의 위치 및 자세 제어 뿐만 아니라 다양한 응용 분야가 존재한다. 현재 관성 센서는 차량의 현가 장치 및 브레이크 통합 제어, 에어백, 차량 위치 인식 시스템(Car Navigation System)의 응용 분야에서 특히 각광 받고 있다. 그리고 이동 통신 복합 단말기에 적용될 휴대용 위치 인식 시스템(Portable Navigation System), 웨어러블 컴퓨터(Wearable Computer)와 PDA 등 휴대용 정보기의 데이터 입력 장치에도 적용할 수 있다. 최근에는 휴대폰에 관성 센서를 적용하여 연속 동작 인식 및 3차원 게임에 적용하고 있고, 이들 제품이 판매되고 있다. 항공 우주 분야에서는 일반 항공기의 항법 시스템 뿐 아니라 초소형 항공기(Macro Air Vehicle), 미사일 자세 제어 시스템, 군사용 개인 항법 시스템 등에 적용될 수 있다.
전술한 바와 같이, 휴대용 단말기의 입력 장치로 관성 센서를 이용할 수도 있는데, 이는 휴대용 단말기에 관성 센서를 설치하거나 관성 센서가 설치된 별도의 입력 장치를 휴대용 단말기에 연결함으로써 구현할 수 있다.
여기서, 관성 센서에 의해 생성된 데이터를 휴대용 단말기에 구비된 기능에 대응시킴으로써 사용자는 특정 기능을 수행하기 위하여 관성 센서의 움직임을 이용할 수 있다. 예를 들어, 사용자는 휴대용 단말기를 왕복 운동시킴으로써 소정 효과음을 재생할 수 있으며, 특정 도형 모양으로 운동시킴으로써 해당 도형이 디스플레 이될 수 있도록 할 수 있다.
한국 공개 특허 10-2004-0051202는 휴대용 단말기의 움직임에 의한 기능 설정을 등록한 후 휴대용 단말기의 특정 움직임에 따라 모드 전환, 메뉴 이동과 같은 특정 동작을 수행하도록 하는 방법이 개시되어 있다.
이에 따라, 사용자는 휴대용 단말기의 특정 기능을 선택한 후에 휴대용 단말기에 특정 움직임을 가하면 움직임은 지자기 신호 및 가속 신호로 변환되고 변환된 신호는 휴대용 단말기의 특정 기능에 대응되어 메모리부에 저장된다. 그리고, 사용자는 휴대용 단말기에 특정 움직임을 가함으로써 휴대용 단말기로 하여금 특정 기능을 수행하게 할 수 있다.
그러나, 개시된 발명에서 변환된 신호는 움직임 설정 데이터로 저장되는데, 움직임 설정 데이터는 지자기 신호 및 가속 신호 자체로서 저장 시에 입력한 동작과 특정 기능 수행 시에 입력한 동작의 유사성을 판단하지 않는다. 따라서, 개시된 발명에 따르면 특정 동작에 대한 기능을 수행함에 있어서, 휴대용 단말기는 저장된 2개 이상의 동작이 유사한 경우 이를 혼동하여 오동작할 수 있다. 또한, 개시된 발명에 따르면 움직임 설정 데이터 자체를 저장함으로써 동작 등록 시의 입력 시간 또는 사용자의 자세가 기능 수행 시의 입력 시간 또는 사용자의 자세와 차이가 있는 경우 이에 따른 인식률이 저하가 수반될 수도 있다.
따라서, 휴대용 단말기의 움직임과 특정 기능을 대응시키는 단계에서 입력된 움직임에 대한 유사 움직임에 대해서도 인식할 수 있는 방법의 등장이 요구된다. 또한, 동작 등록 및 기능 수행시의 입력 시간 또는 사용자의 자세에 차이가 있더라 도 이에 대한 보상을 수행하여 급격한 인식률의 저하를 방지하는 동작 모델의 등장이 요구된다.
본 발명은 적어도 하나 이상의 동작에 의해 생성된 동작 모델을 소정의 기능에 대응시켜 저장하고, 차후에 사용자에 의해 입력된 동작과 저장된 동작 모델의 유사성을 비교하여 그 결과에 따라 대응되는 기능을 수행하게 하는데 그 목적이 있다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해되어질 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 장치는 동작을 감지하는 관성 센서와, 기 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하는 동작 확률 분포 형성부와, 상기 형성된 확률적인 분포를 이용하여 동작 모델과 상기 감지된 동작의 유사 여부를 비교하는 동작 비교부 및 상기 비교 결과에 따라 상기 동작 모델에 대응되어 저장된 기능 수행 신호를 출력하는 출력부를 포함한다.
본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 방법은 동작을 감지하는 단계와, 기 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하는 단계와, 상기 형성된 확률적인 분포를 이용하여 상기 동작 모델과 상기 감지된 동작의 유사 여부를 비교하는 단계 및 상기 비교 결과에 따라 상기 동작 모델에 대응되어 저장된 기능 수행 신호를 출력하는 단계를 포함한다.
본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 방법은 (a) 지원되는 기능 중 적어도 하나에 대한 선택 명령을 수신하는 단계와, (b) 동작을 입력받는 단계와, (c) 기 저장된 동작과 상기 입력된 동작의 유사 여부를 비교하는 단계 및 (d) 상기 비교 결과에 따라 상기 선택 명령에 대응되는 기능과 상기 입력된 동작을 대응시켜 저장하는 단계를 포함한다.
본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 방법은 (a) 동작을 입력받는 단계와, (b) 기 저장된 동작과 상기 입력된 동작의 유사 여부를 비교하는 단계와, (c) 지원되는 기능 중 적어도 하나에 대한 선택 명령을 수신하는 단계 및 (d) 상기 비교 결과에 따라 상기 선택 명령에 대응되는 기능과 상기 입력된 동작을 대응시켜 저장하는 단계를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 장치를 나타낸 블록도로서, 장치(100)는 관성 센서(110), 버튼 신호 수신부(120), 동작 모델 생성부(130), 제어부(140), 동작 비교부(150), 기능 검색부(160), 출력부(170), 동작 확률 분포 형성부(180) 및 저장부(190)를 포함하여 구성된다.
본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 장치(이하, 장치라 한다)(100)의 주요 역할은 동작 등록과 기능 수행이다.
동작 등록은 장치(100)에 가해진 동작을 분석하여 이에 대한 동작 모델을 생성하고, 생성된 동작 모델에 소정의 기능을 대응시켜 저장하는 단계로서, 사용자는 한번 또는 여러 번의 동작을 장치(100)에 입력함으로써 학습에 의한 동작 모델을 생성할 수 있다.
동작 등록을 하기 위하여 사용자는 우선 동작을 입력하고 그에 대응되는 기능을 선택할 수 있으며, 반대로 기능을 선택한 후에 그에 대응되는 동작을 입력할 수도 있다.
한편, 기능 수행은 기 저장되어 있는 복수 개의 동작 모델 중 하나에 대응되어 저장된 기능을 수행하는 단계이다. 이를 위하여 장치(100)는 복수 개의 동작 모델을 이용하여 각각의 동작에 대한 확률적인 분포를 형성하고, 사용자에 의해 입력된 동작 즉, 관성력의 크기를 형성된 동작의 확률적인 분포에 대응시켜 확률 값을 산출한다. 그리고, 저장된 복수 개의 동작 모델 중 가장 높은 확률 값을 산출하도록 한 동작 모델에 대응되어 저장된 소정의 기능을 수행한다.
동작 등록 단계에서 학습에 의한 동작 모델이 생성되었으므로 사용자는 차후에 장치(100)에 동작을 입력하여 특정 기능을 수행하게 함에 있어서 약간의 오차가 포함된 동작을 입력하여도 장치(100)로 하여금 해당 기능을 수행하도록 할 수 있게 된다.
관성 센서(110)는 동작을 감지하는 역할을 한다. 관성 센서(110)는 가속도 센서 및 각속도 센서 중 적어도 하나를 포함하는데, 가속도 또는 각속도에 의해 발생되는 질량체의 관성력을 질량체에 연결된 탄성 구조물의 변형으로 표시한 후 적절한 감지 및 신호 처리 기법을 이용하여 구조물의 변형을 전기적인 신호로 표시한다.
여기서, 관성 센서(110)는 장치(100)에 포함되어 구성될 수 있고, 별도의 장치에 포함된 상태에서 유선 또는 무선 통신 수단을 통해 생성된 전기적인 신호를 장치(100)로 전달할 수도 있다.
관성 센서(110)에 의해 감지되는 동작은 직선 또는 곡선인 2차원적인 동작뿐만 아니라, 직선 및 곡선의 조합으로 구성된 3차원적인 동작도 포함될 수 있다. 다시 말해, 2차원 또는 3차원적인 하나의 기본 동작에 대해 일련의 전기적인 신호가 생성되는 것으로서, 사용자는 복수 개의 기본 동작을 조합하여 자신이 원하는 동작을 생성할 수 있다.
이때, 이전 동작과 그에 이어지는 이후 동작이 구별될 수도 있는데, 이는 소 정 버튼의 입력 또는 소정 시간 동안 동작의 부재에 따라 동작의 시작 또는 종료 시점이 결정될 수 있다.
버튼 신호 수신부(120)는 버튼 입력 신호를 수신하는 역할을 한다. 버튼 입력 신호는 동작 등록 신호 및 기능 수행 신호 중 어느 하나일 수 있는데, 각 신호에 대한 버튼은 별도로 구비되어 있을 수 있으며 하나의 버튼이 순차적으로 전환되어 신호를 발생할 수도 있다. 또한, 동작 등록 신호 또는 기능 수행 신호는 디스플레이된 메뉴 중 특정 항목이 사용자에 의해 선택됨에 따라 발생할 수도 있다.
여기서, 동작 등록 신호는 동작 모델 생성부(130)로 하여금 입력된 동작에 대한 동작 모델을 생성하도록 하는 신호이고, 기능 수행 신호는 출력부(170)로 하여금 해당 기능 수행 신호를 출력하도록 하는 신호이다.
수신된 버튼 입력 신호는 제어부(140)로 전달되는데, 입력된 버튼 입력 신호가 동작 등록 신호인 경우 제어부(140)는 동작 모델 생성부(130)에 의해 생성된 동작 모델을 소정의 기능에 대응시켜 저장부(190)에 저장한다. 이때, 제어부(140)는 동작 비교부(150)로 하여금 저장부(190)에 저장된 동작 모델을 이용하여 형성된 확률적인 분포에 감지된 동작의 관성력의 크기를 대입하여, 산출된 확률 값이 소정의 임계치를 초과하는지 확인하도록 한다. 그리하여, 저장된 동작 모델 중 현재 감지된 동작과 유사한 것이 있는 경우 즉, 산출된 확률 값이 소정의 임계치를 초과하는 경우 출력부(170)로 하여금 오류 메시지 출력 신호를 출력하도록 한다. 오류 메시지 출력 신호에 따라 장치(100)는 디스플레이부 또는 스피커 등을 이용하여 오류 메시지를 출력한다.
한편, 수신된 버튼 입력 신호가 기능 수행 신호인 경우 제어부(140)는 동작 비교부(150)로 하여금 저장부(190)에 저장된 동작 모델을 이용하여 형성된 확률적인 분포에 감지된 동작의 관성력의 크기를 대입하여, 산출된 확률 값이 소정의 임계치를 초과하는지 확인하도록 한다. 그리하여, 저장된 동작 모델 중 현재 감지된 동작과 유사한 것이 있는 경우 즉, 임계치를 초과하는 확률 값 중 가장 높은 확률 값을 산출하도록 한 동작 모델에 대하여, 출력부(170)로 하여금 해당 동작 모델에 대응되어 저장된 기능 수행 신호를 출력하도록 한다. 기능 수행 신호에 따라 장치(100)는 해당 기능을 수행한다.
동작 모델 생성부(130)는 관성 센서(110)에 의해 감지된 동작을 분석하여 감지된 동작의 확률적인 분포를 형성하는 동작 모델을 생성하는 역할을 한다.
여기서, 동작 모델은 관성 센서(110)에 의해 감지된 동작 정보 중 특징을 이루는 정보의 집합으로서, 장치(100)의 1차원, 2차원 또는 3차원 동작 패턴이 포함된 정보이다.
동작 모델은 동작 모델의 생성을 위하여 입력된 동작 샘플이 소정 시점을 경계로 구분된 구역의 수, 동작 샘플이 복수 개인 경우 복수 개의 동작 샘플 간의 연관 정도 및 복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수가 포함된 선형 관계 행렬(linear relationship matrix) 중 적어도 하나를 포함한다. 여기서, 연관 정도를 나타내는 방식은 공분산 행렬(covariance matrix)을 포함한다. 또한, 연관 정도는 소정 시점에 따른 경계에서 형성된 동작 샘플의 분산과 소정의 가중치가 부여되어 기 생성된 전체 동작 샘플의 분산을 포함 한다.
동작 모델 생성부(130)에 의해 생성된 동작 모델은 제어부(140)로 전달되고, 이에 제어부(140)는 동작 모델을 소정 기능에 대응시켜 저장부(190)에 저장한다.
사용자는 한번의 동작을 이용하여 하나의 동작 모델이 생성되도록 할 수 있고, 동일한 동작을 여러 번 시도하여 하나의 동작 모델이 생성되도록 할 수도 있다. 예를 들어, 삼각형 모양의 동작을 이용하여 이에 대한 동작 모델이 생성되도록 하는 경우 한번의 삼각형 모양의 동작을 장치(100)에 입력함으로써 삼각형 동작 모델이 생성되도록 할 수 있으며 여러 번의 삼각형 모양의 동작을 장치(100)에 입력함으로써 위 동작들에 통계적으로 나타나는 삼각형 동작 모델이 생성되도록 할 수도 있는 것이다.
이는 사용자에 의해 가해지는 장치(100)의 동작이 항상 일정할 수 없는 것에 기인하는데, 동일한 동작을 여러 번 시도함으로써 동작 모델 생성부(130)는 학습에 의한 동작 모델 즉, 확률적으로 유리하게 동작을 대표할 수 있는 동작 모델을 생성할 수 있게 되며 이에 따라, 생성된 동작 모델과 차후에 감지된 동작 간의 유사 여부에 대한 판별이 확률적으로 더욱 정확해질 수 있다.
동작 모델 생성에 대한 자세한 설명은 도 5 내지 도 6을 통하여 후술하기로 한다.
저장부(190)는 동작 모델 및 동작 모델에 대응되는 기능 수행 신호 중 적어도 하나를 저장하는 역할을 한다. 여기서, 각 동작 모델은 고유 번호가 설정되어 저장될 수 있다.
기능 수행 신호는 장치(100)에 기 구비된 기능 및 사용자에 의해 생성된 기능 중 적어도 하나를 수행하게 하는 신호를 포함한다.
예를 들어, 장치(100)가 휴대 전화인 경우 메뉴 디스플레이, 주소록 디스플레이 및 단축 번호 통화 등 장치(100)에 기 구비된 기능을 수행하게 하는 기능 수행 신호가 저장부(190)에 저장될 수 있고, 장치(100)에 기 구비된 복수 개의 기능을 조합한 별도의 기능인 사용자에 의해 생성된 기능을 수행하게 하는 기능 수행 신호가 저장부(190)에 저장될 수 있다. 복수 개의 기능이 조합된 기능에 대한 기능 수행 신호는 각 기능에 대한 기능 수행 신호의 조합일 수 있다.
여기서, 사용자는 자신의 음성 또는 별도의 음성 데이터를 동작 모델에 대응시켜 저장시킴으로써, 장치(100)의 동작에 따라 자신의 음성 또는 별도의 음성 데이터가 출력되도록 할 수도 있다.
저장부(190)는 하드 디스크, 플래시 메모리, CF 카드(Compact Flash Card), SD 카드(Secure Digital Card), SM 카드(Smart Media Card), MMC 카드(Multimedia Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 장치(100)의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.
동작 확률 분포 형성부(180)는 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하는 역할을 한다.
참고적으로, 저장된 동작 모델은 동작의 확률적인 분포를 형성하기 위한 정보뿐만 아니라 인공신경망(Neural Network)의 가중치 집합 및 서포트 벡터 머신 (Support Vector Machine)의 가중치 집합을 위한 정보가 포함될 수도 있다.
이에 따라, 동작 비교부(150)는 차후에 감지된 동작과 저장된 동작 모델의 유사 여부를 판단할 수 있게 된다.
형성된 확률적인 분포는 제어부(140)로 전달되고, 제어부(140)는 현재 감지된 동작과 함께 전달 받은 확률적인 분포를 동작 비교부(150)로 전달한다. 이때, 현재 감지된 동작에 대한 동작 비교는 저장부(190)에 저장된 모든 동작 모델에 대하여 수행된다.
동작 비교부(150)는 기 저장된 동작 모델 과 현재 감지된 동작의 유사 여부를 비교하는 역할을 한다.
이를 위하여, 동작 비교부(150)는 감지된 동작의 관성력의 크기를 확률 분포에 대입함으로써 산출된 확률 값을 이용하여 해당 동작 모델과 감지된 동작의 유사 여부를 비교한다.동작 비교는 저장된 복수 개의 동작 모델에 대하여 산출된 확률 값을 비교함으로써 수행될 수 있다.
동작 비교부(150)에 의한 비교 결과, 산출된 확률 값 중 최대값을 산출하게 한 동작 모델의 고유 번호가 기능 검색부(160)로 전달된다.
기능 검색부(160)는 동작 비교부(150)로부터 전달 받은 동작 모델의 고유 번호를 이용하여 해당 고유 번호로 설정된 동작 모델에 대응되어 저장된 기능 수행 신호를 검색하는 역할을 한다.
검색된 기능 수행 신호는 출력부(170)로 전달되고, 출력부(170)는 전달 받은 기능 수행 신호를 출력하는 역할을 한다.
출력된 기능 수행 신호에 따라 장치(100)는 해당 기능을 수행하게 된다. 예를 들어, 장치(100)가 휴대 전화인 경우 메뉴 디스플레이, 주소록 디스플레이 및 단축 번호 통화 등 장치(100)에 기 구비된 기능을 수행하거나, 사용자에 의해 생성된 기능을 수행하는 것이다.
제어부(140)는 동작 모델 생성부(130), 관성 센서(110), 버튼 신호 수신부(120), 저장부(190), 동작 비교부(150), 기능 검색부(160), 출력부(170), 동작 확률 분포 형성부(180) 및 장치(100)의 전반적인 제어를 수행한다.
도 1a는 본 발명의 실시예에 따른 동작 모델 생성부를 나타낸 블록도로서, 동작 모델 생성부(130)는 동작 샘플 입력부(312), 구역 형성부(134), 연관성 추출부(136) 및 선형 관계 추출부(138)를 포함하여 구성된다.
동작 샘플 입력부(132)는 동작 샘플을 입력받는 역할을 한다. 여기서, 동작 샘플은 관성 센서(110)에 의해 감지된 동작의 전기적인 신호일 수 있으며, 전기적인 신호를 소정 형태로 저장하고 있는 별도의 기기로부터 전달되는 동작 정보일 수도 있다.
구역 형성부는 입력된 동작 샘플을 소정 시점을 경계로 분할하여 구역을 형성하는 역할을 한다. 전술한 바와 같이, 구역은 동작 샘플에 포함된 공간 상의 각 축에서 동작의 진행 방향이 전환되는 시점을 경계로 형성될 수 있다.
연관성 추출부는 입력된 동작 샘플이 복수 개인 경우 구역 별로 복수 개의 동작 샘플 간의 연관 정도를 추출하는 역할을 한다. 여기서, 연관 정도는 공분산 행렬의 형태로 표현될 수 있으며, 연관 정도는 경계에서 형성된 동작 샘플의 분산 과 소정의 가중치가 부여되어 기 생성된 전체 동작 샘플의 분산을 포함한다.
선형 관계 추출부는 복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수가 포함된 선형 관계 행렬을 추출하는 역할을 한다.도 2는 본 발명의 실시예에 따른 동작 샘플을 나타낸 도면이다.
동작 샘플(210, 220)은 소정의 도형을 표현하기 위한 동작 정보가 포함된 것으로서, 사용자에 의해 입력된 동작 즉, 관성력의 변화가 전기적인 신호로 변환된 경우 변환된 전기적인 신호가 동작 샘플(210, 220)일 수 있다.
다시 말해, 사용자는 하나의 도형을 표현하는 일련의 동작을 장치(100)에 입력할 수 있는데, 이렇게 입력된 동작은 관성 센서(110)에 의해 감지되어 전기적인 신호로 변환되는데, 변환된 전기적인 신호가 동작 샘플(210, 220)일 수 있는 것이다.
사용자는 하나의 도형을 표현하는 일련의 동작을 여러 번 장치(100)에 입력할 수도 있는데 이에 따라 생성된 복수 개의 동작 샘플(210, 220)을 이용하여 장치(100)는 특정 도형에 대한 보다 일반적인 동작 모델을 생성할 수 있게 된다.
도 2에 도시된 바와 같이, 동작 샘플(210, 220)은 시간 축을 따라 변하는 관성력의 크기로 표현될 수 있는데, 관성력의 크기는 공간 상의 각 축(x축, y축, z축)에서 형성되는 관성력의 크기가 포함될 수 있다. 즉, 동작 샘플(210, 220)은 1차원 관성력의 크기의 변화만으로 표현될 수 있으며, 2차원 또는 3차원 관성력의 크기의 변화로 표현될 수도 있다.
여기서, 관성력은 장치(100)에 가해지는 물리량으로서, 가속도 또는 각속도 에 의해 발생하는 물리량을 포함한다.
도 2는 3차원 동작의 시간에 따른 관성력을 나타낸 그래프로서, 하나의 도형을 표현하기 위한 2개의 동작 샘플을 나타내고 있다.
동작이 입력되고 이에 대한 전기적인 신호가 분석되어 동작 샘플(210, 220)이 생성되면 장치(100)는 우선 각 동작 샘플(210, 220)을 소정 구역으로 구분한다. 구역은 동작 샘플(210, 220)이 소정 시점을 경계(211 , 212, 213, 221, 222, 223)로 구분된 것으로서, 동작 샘플(210, 220)에 포함된 공간 상의 각 축에서 관성력의 진행 방향이 전환되는 시점을 경계(211, 212, 213, 221, 222, 223)로 형성될 수 있다.
다시 말해, 공간 상의 하나의 축에서 형성되는 관성력은 시간의 흐름에 따라 그 크기가 변화하는데, 관성력의 진행 방향이 전환되는 시점 즉, 증가하다가 감소하거나 감소하다가 증가하는 시점이 구역의 경계(211, 212, 213, 221, 222, 223)로 형성될 수 있는 것이다.
동작 샘플(210, 220)에 대한 구역의 구분은 생성된 2개의 동작 샘플(210, 220)에 대해 수행되며, 구역의 구분이 완료되면 장치(100)는 2개의 동작 샘플(210, 220)에서 형성된 경계(211, 212, 213, 221, 222, 223)를 서로 대응시키고 각 경계에서의 관성력의 크기를 비교하여 그 차이를 구한다. 그리하여, 그 차이가 작은 구역으로 2개의 동작 샘플(210, 220)을 다시 대응시키고, 대응되는 구역의 개수를 확인한다.
제 1 동작 샘플(210) A(t) 및 제 2 동작 샘플(220) B(t)은 다음과 같은 수학 식으로 정의될 수 있다.
Figure 112005051731488-pat00001
Figure 112005051731488-pat00002
수학식 1에서 정의된 바와 같이 제 1 동작 샘플(210) 및 제 2 동작 샘플(220)은 시간 t에 따른 공간상의 3개의 축 성분(관성력)을 가진다.
그리고, 제 1 동작 샘플(210) A(i) 및 제 2 동작 샘플(220) B(r)의 각 경계(251, 252, 253)에서의 관성력의 크기를 비교하는 것은 다음 수학식에 의하여 수행될 수 있다.
Figure 112005051731488-pat00003
Figure 112005051731488-pat00004
Figure 112005051731488-pat00005
여기서, D(i, r)은 제 1 동작 샘플(210)의 경계 시점 i(211 내지 213)와 제 2 동작 샘플(220)의 경계 시점 r(221 내지 223)에서 관성력의 크기의 차이를 의미하고,
Figure 112005051731488-pat00006
,
Figure 112005051731488-pat00007
는 실험에 의해 결정되는 상수를 의미한다. 즉, 경계 시점 i-1과 경계 시점 r에서의 관성력의 크기의 차이와 경계 시점 i, 경계 시점 r-1에서의 관성력의 크기의 차이가 제 1 동작 샘플(210)과 제 2 동작 샘플(220)의 차이에 반영되는 정도는
Figure 112005051731488-pat00008
,
Figure 112005051731488-pat00009
를 통하여 결정될 수 있는 것이다.
또한,
Figure 112005051731488-pat00010
는 다음 수학식으로 정의된다.
Figure 112005051731488-pat00011
다시 말해, 제 1 동작 샘플(210)과 제 2 동작 샘플(220)의 각 경계(211, 212, 213, 221, 222, 223)에서의 관성력의 크기의 차이는 공간상의 각 축 성분의 차이를 이용하여 산출될 수 있음을 알 수 있다.
수학식 2에서 정의된 바와 같이, 제 1 동작 샘플(210)과 제 2 동작 샘플(220)의 각 경계(211, 212, 213, 221, 222, 223)에서의 관성력의 크기의 차이는 해당 경계에서의 차이만으로 구성되지 않고, 해당 경계 이전의 제 1 동작 샘플(210)의 관성력의 크기와 해당 경계 이전의 제 2 동작 샘플(220)의 관성력의 크기의 차이(D(i-1, r-1)), 해당 경계 이전의 제 1 동작 샘플(210)의 관성력의 크기와 해당 경계에서의 제 2 동작 샘플(220)의 관성력의 크기의 차이(D(i-1, r)), 해당 경계에서의 제 1 동작 샘플(210)의 관성력의 크기와 해당 경계 이전의 제 2 동작 샘플(220)의 관성력의 크기(D(i, r-1))의 차이 중 작은 값을 가지는 것이 포함될 수 있다. 이는 현재 비교 대상이 되는 경계에서의 관성력의 크기의 차이에 대한 총합은 이전 경계에서의 관성력의 크기에 영향을 받을 수 있음을 의미한다.
도 3은 본 발명의 실시예에 따른 구역의 끝점에 의해 중간점이 결정되는 것을 나타낸 도면으로서, 하나의 구역 내에 제 1 끝점(311)과 제 2 끝점(315)을 잇는 임의의 선이 있는 경우 제 1 중간점(313)은 제 1 끝점(311) 및 제 2 끝점(315)의 위치에 의해 그 위치가 영향 받는 것(310)을 나타낸다. 다시 말해, 제 1 끝점(311) 및 제 2 끝점(315)의 위치를 알면, 제 1 중간점(313)의 위치는 적은 오차로 예측될 수 있는 것이다.
또한, 제 1 끝점(311)과 제 1 중간점(313) 사이에 존재하는 제 2 중간점(312)은 제 1 끝점(311)과 제 1 중간점(313)에 의해 예측되며, 제 2 끝점(315)과 제 1 중간점(313) 사이에 존재하는 제 3 중간점(314)은 제 2 끝점(315)과 제 1 중간점(313)에 의해 예측되는 것을 나타낸다. 이와 마찬가지로, 제 1 끝점(311)과 제 2 중간점(312) 사이에 존재하는 중간점(미도시)은 제 1 끝점(311)과 제 2 중간점(312)에 의해 예측될 수 있으며, 이러한 과정을 반복함으로써 좀 더 세부적인 중간점이 예측될 수 있다.
320은 두 개의 기준점의 위치에 의해 그 중간점의 위치가 예측되는 것을 나타낸 베이지안 네트워크(Bayesian network)(320)로서, EP1(321)은 제 1 끝점 EP2(325)는 제 2 끝점을 나타내며, IP1(323), IP2(322) 및 IP3(324)는 중간점으로 나타낸다. 즉, EP1(321) 및 EP2(325)에 의해 IP1(323)이 예측되고, EP1(321) 및 IP1(323)에 의해 IP2(322)가 예측되며 IP1(323) 및 EP2(325)에 의해 IP3(324)가 예측되는 것을 나타낸다.
두 개의 기준점의 위치에 의해 그 중간점의 위치가 예측되는 것은 다음 수학식과 같은 가우시안 분포(Gaussian distribution)에 의해 정의될 수 있다.
Figure 112005051731488-pat00012
여기서, P i 는 중간점, P j P k 는 끝점을 의미하여,
Figure 112005051731488-pat00013
는 조건부 평균(conditional mean)으로서 다음 수학식에 의해 정의될 수 있다.
Figure 112005051731488-pat00014
즉, 조건부 평균은 두 개의 끝점에 대한 선형 보간(Linear Interpolation)을 이용하여 산출된 값에 소정의 가중치(weight)를 곱하고, 소정 상수를 더함으로써 산출될 수 있다.
도 4는 본 발명의 실시예에 따른 구역의 끝점 간의 관계를 나타낸 도면으로서, 이전에 생성된 끝점에 의해 이후에 생성된 끝점이 예측되는 것을 나타낸 베이지안 네트워크(400)이다.
참고적으로, 베이지안 네트워크(400)는 노드와 노드 사이를 연결하는 아크로 구성되는데, 베이지안 네트워크(400)에서 노드는 확률 변수에 대응되고, 아크는 확률 변수 간의 관계를 표현한다.
즉, 끝점 EP1(412)의 위치는 EP0(411)의 위치에 의존하고, EP2(413)의 위치는 EP0(411) 및 EP1(412)의 위치에 의존하며 결국, EPn(415)의 위치는 EP0(411) 내지 EPn -1(414)의 위치에 의존하는 것이다.
이와 같이 결정된 끝점(411 내지 415)은 다시 도 3에서와 같이 중간점의 위치를 예측하는데 사용된다. 즉, 이후에 생성된 중간점의 위치는 이전에 생성된 끝점 및 중간점의 위치에 의존하는 것이다.
여기서, 두 개의 끝점에 의해 생성된 제 1 중간점(421 내지 423)은 두 개의 끝점에 대한 시간적인 중간 시점에 생성된 것이고 마찬가지로, 하나의 끝점과 하나의 제 1 중간점에 의해 생성된 제 2 중간점(431 내지 436)은 그 끝점과 제 1 중간점에 대한 시간적인 중간 시점에 생성된 것이다.
그리하여, 생성된 중간점은 동작 모델에 대한 또 다른 경계의 역할을 재귀적으로 수행하는데, 중간점의 생성 과정은 모든 동작 샘플의 개수와 동일하게 될 때까지 진행된다.
각각의 끝점 및 중간점을 정의하기 위하여 각 점에 대한 동작 모델이 생성되어 저장될 수 있으며, 저장된 동작 모델은 차후에 입력된 동작과의 유사성 판단의 기준이 된다.
동작 모델은 동작 샘플 간에 대응되는 구역의 수, 구역의 경계 시점에서의 동작 샘플의 분포를 나타낸 공분산 행렬, 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수를 포함하여 구성될 수 있다.
도 5는 본 발명의 실시예에 따른 동작 샘플의 구역이 대응되는 것을 나타낸 도면이다.
전술한 바와 같이, 동작 샘플의 구역은 동작 샘플에 포함된 공간 상의 각 축에서 관성력(가속도 또는 각속도)의 진행 방향이 전환되는 시점을 경계로 형성될 수 있다.
여기서, 수학식1, 2, 3을 이용하여 복수의 동작 샘플에서 형성된 관성력의 크기의 차이를 산출할 수 있고 이에 따라, 복수의 동작 샘플의 구역을 서로 대응시킬 수 있다.
도 5는 도 2에 도시된 2개의 동작 샘플의 구역이 그 유사성에 따라 대응된 것을 나타낸 도면으로서, 이를 이용하여 대응되는 구역의 수를 알 수 있게 된다.
대응되는 구역의 수는 동작 모델의 구성 요소 중 하나로서 이를 이용하여 장치(100)는 소정 동작에 대한 확률적인 분포를 형성할 수 있게 된다.
도 6은 본 발명의 실시예에 따른 복수 개의 동작 샘플 간에 대응된 특정 경계를 나타낸 도면으로서, 경계 시점(600)에서의 동작 샘플의 분포를 나타낸 공분산 Cov new 은 다음 수학식과 같다.
Figure 112005051731488-pat00015
여기서, X는 동작 샘플을 나타낸 x, y, z축에 대한 행렬로서 Cov (X)는 입력된 동작 샘플에 대한 공분산이다. 그리고, Cov total 은 모든 경계점들에서 산출된 모든 공분산들을 평균한 것으로서, 0 내지 1사이의
Figure 112005051731488-pat00016
값을 실험에 의해 산출하여 대입함으로써 현재 시점에서의 공분산과 이전 시점에서의 공분산의 반영 정도가 결정 된다. 이와 같이, 현재 경계점에서의 공분산과 전체 공분산의 평균을 가중치 합을 하여 새로운 공분산 값을 결정하는 이유는 일반적으로 동작 샘플의 개수가 2개 정도로 작기 때문에 다른 경계점에서의 공분산까지 고려함으로써 공분산 추정의 정확도를 높이기 위함이다.
동작 샘플에 대한 공분산 Cov (X)는 다음 수학식과 같다.
Figure 112005051731488-pat00017
여기서, 전술한 바와 같이 X j j번째 입력된 동작 샘플을 나타낸 x, y, z축에 대한 행렬이고, N은 동작 모델 생성에 사용하기 위하여 입력된 동작 샘플의 총 개수이다. 그리고,
Figure 112005051731488-pat00018
는 입력된 동작 샘플의 x, y, z축에 대한 평균을 나타낸 행렬이다.
경계 시점(600)에서의 동작 샘플의 분포를 나타낸 공분산 Cov new 는 동작 모델의 구성 요소 중 하나로서 이를 이용하여 장치(100)는 소정 동작에 대한 확률적인 분포를 형성할 수 있게 된다.
복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수 w는 다음 수학식에 의해 산출되는 값을 최소로 하는 w로 정의될 수 있다.
Figure 112005051731488-pat00019
여기서, y는 현재 입력된 동작 샘플을 나타낸 3차원 축에 대한 행렬이고, x는 이전에 입력된 동작 샘플을 나타낸 3차원 축에 대한 행렬이며, M은 입력된 동작 샘플의 총 개수이다. 그리고, n은 현재 동작 샘플 내에서 현재 입력 샘플 시각의 값이 이전에 입력된 시각의 값에 영향을 받은 개수이며, w는 선형 변수로서 3차원 축에 대한 가중치이다. 즉, 현재 입력된 동작 샘플은 이전에 입력된 동작 샘플의 영향을 받으며 그 의존 관계는 가중치에 의해 결정되는 것이다.
복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수는 동작 모델의 구성 요소 중 하나로서 이를 이용하여 장치(100)는 소정 동작에 대한 확률적인 분포를 형성할 수 있게 된다.
도 7은 본 발명의 실시예에 따른 동작을 등록하는 과정을 나타낸 흐름도이다.
동작 등록을 위하여 장치(100)는 우선 사용자로부터 동작을 입력 받는다(S710). 이때, 사용자는 장치(100)에 구비된 버튼 중 동작 등록 신호를 발생하는 버튼을 선택함으로써 장치(100)로 하여금 동작 등록을 위한 동작을 입력 받도록 할 수 있다. 또한, 장치(100)는 동작 등록을 위한 메뉴를 디스플레이하고 사용자로부터 특정 항목에 대한 선택 명령을 입력 받음으로써 동작 등록을 수행할 수도 있다. 이때, 사용자는 입력되는 동작에 대한 이름을 입력할 수 있다.
입력된 동작은 관성 센서(110)에 의해 감지되는데, 관성 센서(110)는 가속도 센서 및 각속도 센서 중 적어도 하나가 포함된 것으로서, 가속도 또는 각속도에 의해 발생되는 질량체의 관성력을 전기적인 신호로 표시한다.
사용자는 직선 또는 곡선인 2차원적인 동작뿐만 아니라, 직선 및 곡선의 조합으로 구성된 3차원적인 동작을 입력할 수도 있다.
동작이 입력됨에 따라 장치(100)는 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하고(S720), 형성된 확률적인 분포를 이용하여 동작 모델과 현재 입력된 동작의 유사 여부를 확인한다(S730). 즉, 감지된 동작의 관성력의 크기를 형성된 확률적인 분포에 대입하여 확률 값을 산출하고, 산출된 확률 값이 소정 임계치를 초과하는지 확인하는 것이다.
이러한 확인 작업은 저장된 모든 동작 모델에 대하여 수행되는데, 입력된 동작과 유사한 동작 모델이 있는 경우 즉, 동작 비교에 따라 산출된 확률 값이 소정 임계치보다 큰 경우, 장치(100)는 오류 메시지를 출력한다(S740). 예를 들어, "기존 등록 동작입니다. 다시 입력하십시오."라는 메시지를 디스플레이하거나 음성으로 출력하는 것이다.
한편, 입력된 동작과 유사한 동작 모델이 없는 경우 장치(100)는 입력된 동작에 대한 동작 모델을 생성한다(S750). 이때, 사용자는 한번의 동작을 이용하여 하나의 동작 모델이 생성되도록 할 수 있고, 동일한 동작을 여러 번 시도하여 하나의 동작 모델이 생성되도록 할 수도 있다.
이때, 반복하여 입력된 동작은 동작 모델 생성부(130)에 의해 학습되어 동작 모델 생성부(130)는 보다 일반적이고 신뢰성 있는 동작 모델을 생성하게 된다.
동작 모델을 생성한 후에 장치(100)는 사용자로부터 장치(100)의 특정 기능을 입력 받는다(S760). 즉, 생성된 동작 모델에 대응되는 기능을 입력받는 것이다. 이를 위하여 장치(100)는 지원되는 기능의 목록을 디스플레이하고, 목록에 포함된 기능 및 현재 수행 중인 기능 중 적어도 하나에 대한 선택 명령을 수신할 수 있다. 즉, 사용자는 기능을 입력하기 위하여 디스플레이된 목록을 검색하여 특정 기능에 대한 선택 명령을 입력할 수 있으며 현재 수행 중인 기능에 대한 선택 명령을 입력하기 위하여 특정 버튼을 선택할 수도 있다.
기능 입력이 완료되면 장치(100)는 입력된 기능을 수행하도록 하는 기능 수행 신호와 생성된 동작 모델을 대응시켜 저장한다(S770). 이때, 동작 모델에는 고유 번호가 설정되어 저장될 수 있다.
동작 모델이 저장되는 경우 장치(100)는 입력된 동작의 모양을 디스플레이할 수 있다. 즉, 사용자에게 입력된 동작의 모양을 인식시키는 것으로서, 이를 위하여 장치(100)는 입력된 동작을 궤적 복원하여 좌표로 변환하고, 변환된 좌표에 따른 도형을 생성하며, 선택 명령에 대응되는 기능과 생성된 도형을 디스플레이한다. 여기서, 좌표는 1차원, 2차원 및 3차원 좌표 중 하나를 포함하는데 다시 말해, 사용자에 의해 입력되는 도형은 1차원, 2차원 및 3차원 도형 중 하나일 수 있는 것이다.
참고적으로, 사용자는 동작을 입력하기 전에 기능을 입력할 수도 있다. 즉, 디스플레이된 메뉴를 검색하거나 특정 버튼을 선택함으로써 기능을 입력한 후에 동 작을 입력하는 것으로서 예를 들어, 사용자는 메뉴를 검색하다가 동작 등록을 원하는 기능을 선택한 후에 동작을 입력함으로써 동작 등록을 할 수 있다.
도 8은 본 발명의 실시예에 따른 동작에 따른 기능을 수행하는 과정을 나타낸 흐름도이다.
동작에 따른 기능을 수행하기 위하여 장치(100)는 우선 사용자로부터 동작을 입력 받는다(S810). 이때, 사용자는 장치(100)에 구비된 버튼 중 기능 수행 신호를 발생하는 버튼을 선택함으로써 장치(100)로 하여금 기능 수행을 위한 동작을 입력 받도록 할 수 있다.
입력된 동작은 관성 센서(110)에 의해 감지되는데, 관성 센서(110)는 가속도 센서 및 각속도 센서 중 적어도 하나가 포함된 것으로서, 가속도 또는 각속도에 의해 발생되는 질량체의 관성력을 전기적인 신호로 표시한다.
사용자는 직선 또는 곡선인 2차원적인 동작뿐만 아니라, 직선 및 곡선의 조합으로 구성된 3차원적인 동작을 입력할 수도 있다.
동작이 입력됨에 따라 장치(100)는 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하고(S820), 형성된 확률적인 분포를 이용하여 해당 동작 모델과 현재 입력된 동작의 유사 여부를 확인한다(S830). 즉, 감지된 동작의 관성력의 크기를 형성된 확률적인 분포에 대입하여 확률 값을 산출하고, 산출된 확률 값이 소정 임계치를 초과하는지 확인하는 것이다.
이러한 확인 작업은 저장된 모든 동작 모델에 대하여 수행되는데, 입력된 동작과 유사한 동작 모델이 있는 경우 즉, 임계치를 초과하는 확률 값 중 가장 높은 확률 값을 산출하도록 한 동작 모델에 대해, 장치(100)는 해당 동작 모델의 고유 번호를 이용하여 해당 고유 번호로 설정된 동작 모델에 대응되어 저장된 기능 수행 신호를 검색하고(S840), 검색된 기능 수행 신호를 출력한다(S850).
출력된 기능 수행 신호에 따라 장치(100)는 해당 기능을 수행한다(S860). 예를 들어, 장치(100)가 휴대 전화인 경우 메뉴 디스플레이, 주소록 디스플레이 및 단축 번호 통화 등 장치(100)에 기 구비된 기능을 수행하거나, 사용자에 의해 생성된 기능을 수행하는 것이다.
도 9는 본 발명의 실시예에 따른 등록된 동작의 모양을 디스플레이하는 것을 나타낸 예시도이다.
등록된 동작에 대응하는 기능을 수행함에 있어서 장치(100)는 등록된 동작의 모양(920)을 디스플레이할 수 있다. 즉, 사용자의 선택에 따라 선택된 동작의 모양(920)이 디스플레이되며, 사용자는 이를 살펴봄으로써 기능을 수행하기 위한 동작의 모양을 기억할 수 있다. 이는 사용자가 자신의 동작을 특정 기능에 대응시켜 저장한 후, 오랜 시간이 흘렀을 때 어떤 동작을 등록하였는지 기억을 상기시키는 효과가 있다.
이때, 동작에 대한 이름(910)에 대응되어 동작의 모양(920)이 디스플레이됨으로써 사용자는 동작의 이름(910)을 이용하여 해당 동작의 모양(920)을 인식할 수 있다.
동작의 모양(920)을 디스플레이하기 위하여 궤적 복원이 수행될 수 있는데, 본 발명의 실시예에 따른 장치(100)는 궤적 복원을 위하여 궤적 복원부를 더 포함 할 수 있다.
도 10은 본 발명의 실시예에 따른 궤적 복원부를 나타낸 블록도로서, 궤적 복원부(1000)는 회전각 정보 추정 연산부(1010), 변환 연산부(1020)를 포함하여 구성된다.
장치(100)는 장치(100)의 동작 성분 중 가속도만을 이용하여 궤적 복원을 수행할 수 있는데, 이하 관성 센서(110)에 의해 가속도 정보만이 감지되어 궤적 복원이 수행되는 것을 설명하기로 한다.
관성 센서(110)는 장치(100)의 동작에 기초하여, X, Y, Z 세 개의 축에 기초하여 바디프레임의 X, Y, Z 세 개의 축에 대응되어 구비된다. 관성 센서(110)는 장치(100)의 동작에 기초하여 동작의 가속도 정보, 동작 직전 가속도 정보 및 동작 직후 가속도 정보를 검출한 후 각각 출력한다.
동작의 가속도 정보, 동작 직전 가속도 정보 및 동작 직후 가속도 정보에 대한 정의는 다음과 같다.
본 발명의 실시예에 따르면 장치(100)의 동작에 대한 궤적 복원을 수행하기 위하여 장치(100)에 의해 표현하고자 하는 동작의 직전과 동작의 직후에 장치(100)는 움직이지 않아야 한다는 가정이 필요하다. 따라서 본 발명에 따른 관성 센서(110)는 장치(100)에 의해 표현하고자 하는 동작의 직전 가속도 정보 및 동작의 직후 가속도 정보를 검출할 수 있다.
동작 직전 가속도 정보는 표현하고자 하는 동작의 바로 직전의 가속도 정보를 의미한다. 그리고, 동작 직후 가속도 정보는 표현하고자 하는 동작의 바로 직후 의 가속도 정보를 의미한다. 동작의 가속도 정보는 사용자에 의해 표현하고자 하는 동작에 기초한 가속도 정보를 의미한다.
회전각 정보 추정 연산부(1010)는 관성 센서(110)로부터 출력된 동작 직전 및 동작 직후 가속도 정보에 기초하여 회전각 정보를 추정 연산한다.
본 실시예에서 회전각 정보 추정 연산부(1010)는 제 1 연산부(1014) 및 제 2 연산부(1016)를 포함하여 구성된다.
제 1 연산부(1014)는 관성 센서(110)로부터 장치(100)의 동작 직전 가속도 정보 및 동작 직후 가속도 정보를 입력 받는다.
제 1 연산부(1014)는 동작 직전 가속도 정보에 기초하여 소정의 연산 과정을 통해 동작 직전 회전각 정보 중
Figure 112005051731488-pat00020
Figure 112005051731488-pat00021
를 각각 연산한다. 여기서 동작 직전 회전각 정보는 동작 직전 가속도 정보에 대응하는 회전각 정보이다.
제 1 연산부(1014)는 동작 직후 가속도 정보에 기초하여 소정의 연산 과정을 통해 동작 직후 회전각 정보 중
Figure 112005051731488-pat00022
Figure 112005051731488-pat00023
을 각각 연산한다. 여기서, 동작 직후 회전각 정보는 동작 직후 가속도 정보에 대응하는 회전각 정보이다.
장치(100)의 바디프레임의 좌표축을 X, Y, Z라고 할 때, 바디프레임에서의 X축에 대한 가속도 정보를 A bx 로, 바디프레임에서의 Y축에 대한 가속도 정보를 A by 로, 바디프레임에서의 Z축에 대한 가속도 정보를 A bz 로, Z0축에 대한 회전각 정보를
Figure 112005051731488-pat00024
로,
Figure 112005051731488-pat00025
에 의한 회전에 의해 Y0이 회전한 후의 축을 의미하는 Y1축에 대한 회전각 정보를
Figure 112005051731488-pat00026
로 나타낼 경우,
Figure 112005051731488-pat00027
,
Figure 112005051731488-pat00028
각각의 회전에 의해 X0축이 회전한 후의 축을 의미하는 X2축에 대한 회전각 정보
Figure 112005051731488-pat00029
은 다음의 수학식에 의해 표현될 수 있다.
Figure 112005051731488-pat00030
바디프레임의 좌표축을 X, Y, Z라고 할 때, 바디프레임에서의 X축에 대한 가속도 정보를 A bx 로, 바디프레임에서의 Y축에 대한 가속도 정보를 A by 로, 바디프레임에서의 Z축에 대한 가속도 정보를 A bz 로, Z0축에 대한 회전각 정보를
Figure 112005051731488-pat00031
로 나타낼 경우,
Figure 112005051731488-pat00032
에 의한 회전에 의해 Y0이 회전한 후의 축을 의미하는 Y1축에 대한 회전각 정보
Figure 112005051731488-pat00033
는 다음의 수학식에 의해 표현될 수 있다.
Figure 112005051731488-pat00034
수학식 9 및 수학식 10은 각각 동작을 멈춘 상태에서의 가속도 정보로부터 회전각 정보 중
Figure 112005051731488-pat00035
Figure 112005051731488-pat00036
를 각각 산출할 수 있는 공식이다.
제 2 연산부(1016)는 제 1 연산부(1014)로부터 산출된 동작 직전 회전각 정보 중
Figure 112005051731488-pat00037
Figure 112005051731488-pat00038
를 입력 받는다. 제 2 연산부(1016)는 제 1 연산부(1014)로부터 산 출된 동작 직후 회전각 정보 중
Figure 112005051731488-pat00039
Figure 112005051731488-pat00040
를 입력 받는다.
제 2 연산부(1016)는 입력된 동작 직전 회전각 정보 중
Figure 112005051731488-pat00041
및 동작 직후 회전각 정보 중
Figure 112005051731488-pat00042
에 기초하여 소정의 연산 과정을 통해 동작의 회전각 정보
Figure 112005051731488-pat00043
를 연산한다.
제 2 연산부(1016)는 입력된 동작 직전 회전각 정보 중
Figure 112005051731488-pat00044
및 동작 직후 회전각 정보 중
Figure 112005051731488-pat00045
에 기초하여 소정의 연산 과정을 통해 동작의 회전각 정보
Figure 112005051731488-pat00046
를 연산한다.
동작 직전의 시각을 t 1 으로, 동작 직후의 시각을 t 2 로,
Figure 112005051731488-pat00047
a로,
Figure 112005051731488-pat00048
b로 나타낼 경우, 동작의 회전각 정보 중
Figure 112005051731488-pat00049
는 다음의 수학식에 의해 표현될 수 있다.
Figure 112005051731488-pat00050
그리고, 동작 직전의 시각을 t 1 으로, 동작 직후의 시각을 t 2
Figure 112005051731488-pat00051
c로,
Figure 112005051731488-pat00052
d로 나타낼 경우, 동작의 회전각 정보 중
Figure 112005051731488-pat00053
는 다음의 수학식으로 표현될 수 있다.
Figure 112005051731488-pat00054
변환 연산부(1020)는 관성 센서(110)로부터 동작의 가속도 정보를 입력 받고, 회전각 정보 추정 연산부(1010)로부터 추정된 동작의 회전각 정보를 입력 받는다. 입력된 동작의 가속도 정보 및 동작의 회전각 정보에 기초하여 항법프레임에서의 동작의 속도 정보 및 동작의 위치 정보를 산출한다.
최적 평면 연산부는 변환 연산부(1020)에서 출력된 동작의 위치 정보를 가상의 2차원 최적 평면에 투영하여 좌표값을 추출한다. 최적 평면 연산부에 의해 추출된 좌표값은 제어부(140)로 전달되고, 제어부(140)는 장치(100)에 구비된 디스플레이부를 통하여 동작의 모양을 디스플레이한다.
또한, 회전각 정보 추정 연산부(1010)는 분리부(1012)를 포함하여 구성된다.
분리부(1012)는 출력된 동작의 가속도 정보를 입력 받고, 입력된 동작의 가속도 정보로부터 장치(100)의 동작 자체에 기초한 가속도 정보와 중력 가속도에 기초한 가속도 정보를 소정의 방법에 의해 분리하는 역할을 한다.
소정의 방법을 위하여 분리부(1012)가 저역 통과 필터(Low Pass Filter)를 구비할 수 있다.
일반적으로, 동작 자체에 기초한 가속도 정보에 비하여 중력 가속도에 기초한 가속도 정보가 더 낮은 주파수대에 존재한다. 따라서, 분리부(1012)에 저역 통과 필터가 구비되는 경우 중력 가속도에 기초한 가속도 정보는 분리부(1012)에 의해 필터링된다.
그리고, 제 1 연산부(1014) 및 제 2 연산부(1016)는 중력 가속도에 기초한 가속도 정보를 입력 받는다.
제 1 연산부(1014) 및 제 2 연산부(1016)는 입력된 중력 가속도에 기초한 가속도 정보에 기초하여 수학식 9 및 수학식 10을 통해 동작의 회전각 정보를 산출한다.
일반적으로 물체가 정지한 상태에서는 동작이 없고 중력에 의해서만 영향을 받으므로 동작의 가속도 정보 중 중력 가속도에 기초한 가속도 정보는 정지해 있는 상태에 해당된다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상기한 바와 같은 본 발명의 동작에 따른 기능을 수행하는 장치 및 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 적어도 하나 이상의 동작에 의해 생성된 동작 모델을 소정의 기능에 대응시켜 저장하고, 차후에 사용자에 의해 입력된 동작과 저장된 동작 모델의 유사성을 비교함으로써 저장된 동작 모델에 대한 유사 동작에 대해서도 인식할 수 있는 장점이 있다.
둘째, 학습에 의하여 동작 모델을 구축함으로써 적은 수의 동작 샘플만으로도 동작 모델을 구축할 수 있는 장점이 있다.
셋째, 자신의 동작을 등록함으로써, 기존의 기능 수행 동작 모양을 자신만의 동작 모양으로 바꿀 수 있고 이에 따라, 자신에게 기억하기 쉽고 쓰기 편한 모양으로 설정이 가능한 장점도 있다.

Claims (38)

  1. 동작을 감지하는 관성 센서;
    기 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하는 동작 확률 분포 형성부;
    상기 형성된 확률적인 분포를 이용하여 상기 동작 모델과 상기 감지된 동작의 유사 여부를 비교하는 동작 비교부; 및
    상기 비교 결과에 따라 상기 동작 모델에 대응되어 저장된 기능 수행 신호를 출력하는 출력부를 포함하는 동작에 따른 기능을 수행하는 장치.
  2. 제 1항에 있어서,
    상기 관성 센서는 각속도 센서 및 가속도 센서 중 적어도 하나를 포함하는 동작에 따른 기능을 수행하는 장치.
  3. 제 1항에 있어서,
    상기 동작 모델은
    상기 동작 모델의 생성을 위하여 입력된 동작 샘플이 소정 시점을 경계로 구분된 구역의 수,
    상기 동작 샘플이 복수 개인 경우 상기 복수 개의 동작 샘플 간의 연관 정도 및
    상기 복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수가 포함된 선형 관계 행렬(linear relationship matrix) 중 적어도 하나를 포함하는 동작에 따른 기능을 수행하는 장치.
  4. 제 3항에 있어서,
    상기 연관 정도를 나타내는 방식은 공분산 행렬(covariance matrix)을 포함하는 동작에 따른 기능을 수행하는 장치.
  5. 제 3항에 있어서,
    상기 연관 정도는 상기 경계에서 형성된 상기 동작 샘플의 분산과 소정의 가중치가 부여되어 기 생성된 전체 동작 샘플의 분산을 포함하는 동작에 따른 기능을 수행하는 장치.
  6. 제 3항에 있어서,
    상기 동작 샘플을 이용하여 상기 동작 모델을 생성하는 동작 모델 생성부를 더 포함하는 동작에 따른 기능을 수행하는 장치.
  7. 제 6항에 있어서,
    상기 동작 모델 생성부는 상기 동작 샘플을 입력받는 동작 샘플 입력부;
    상기 시점을 경계로 상기 동작 샘플을 분할하여 상기 구역을 형성하는 구역 형성부;
    상기 입력된 동작 샘플이 복수 개인 경우 상기 구역 별 상기 복수 개의 동작 샘플 간의 연관 정도를 추출하는 연관성 추출부; 및
    상기 복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수가 포함된 상기 선형 관계 행렬을 추출하는 선형 관계 추출부를 포함하는 동작에 따른 기능을 수행하는 장치.
  8. 제 6항에 있어서,
    상기 동작 모델 생성부는 1차원, 2차원 또는 3차원의 상기 동작 샘플에 대한 동작 모델을 생성하는 동작에 따른 기능을 수행하는 장치.
  9. 제 3항에 있어서,
    상기 구역은 상기 동작 샘플에 포함된 공간 상의 각 축에서 동작의 진행 방향이 전환되는 시점을 경계로 형성되는 동작에 따른 기능을 수행하는 장치.
  10. 제 1항에 있어서,
    상기 동작 비교부는 상기 감지된 동작의 관성력의 크기를 상기 확률적인 분포에 대입함으로써 산출된 확률 값을 이용하여 상기 동작 모델과 상기 감지된 동작의 유사 여부를 비교하는 동작에 따른 기능을 수행하는 장치.
  11. 제 1항에 있어서,
    상기 기능 수행 신호는 기 구비된 기능 및 사용자에 의해 생성된 기능 중 적어도 하나를 수행하게 하는 신호를 포함하는 동작에 따른 기능을 수행하는 장치.
  12. 제 1항에 있어서,
    상기 동작 모델 및 상기 기능 수행 신호 중 적어도 하나를 저장하는 저장부를 더 포함하는 동작에 따른 기능을 수행하는 장치.
  13. 제 1항에 있어서,
    버튼 입력 신호를 수신하는 버튼 신호 수신부를 더 포함하는 동작에 따른 기능을 수행하는 장치.
  14. 제 13항에 있어서,
    상기 버튼 입력 신호는 상기 동작 모델을 생성하는 버튼 신호 및 상기 기능 수행 신호를 출력하는 버튼 신호 중 적어도 하나를 포함하는 동작에 따른 기능을 수행하는 장치.
  15. 관성 센서를 이용하여 동작을 감지하는 단계;
    기 저장된 동작 모델을 이용하여 소정 동작에 대한 확률적인 분포를 형성하는 단계;
    상기 형성된 확률적인 분포를 이용하여 상기 동작 모델과 상기 감지된 동작의 유사 여부를 비교하는 단계; 및
    상기 비교 결과에 따라 상기 동작 모델에 대응되어 저장된 기능 수행 신호를 출력하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  16. 제 15항에 있어서,
    상기 관성 센서는 각속도 센서 및 가속도 센서 중 적어도 하나를 포함하는 동작에 따른 기능을 수행하는 방법.
  17. 제 15항에 있어서,
    상기 동작 모델은
    상기 동작 모델의 생성을 위하여 입력된 동작 샘플이 소정 시점을 경계로 구분된 구역의 수,
    상기 동작 샘플이 복수 개인 경우 상기 복수 개의 동작 샘플 간의 연관 정도 및
    상기 복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수가 포함된 선형 관계 행렬(linear relationship matrix) 중 적어도 하나를 포함하는 동작에 따른 기능을 수행하는 방법.
  18. 제 17항에 있어서,
    상기 연관 정도를 나타내는 방식은 공분산 행렬(covariance matrix)을 포함하는 동작에 따른 기능을 수행하는 방법.
  19. 제 17항에 있어서,
    상기 연관 정도는 상기 경계에서 형성된 상기 동작 샘플의 분산과 소정의 가중치가 부여되어 기 생성된 전체 동작 샘플의 분산을 포함하는 동작에 따른 기능을 수행하는 방법.
  20. 제 17항에 있어서,
    상기 동작 샘플을 이용하여 상기 동작 모델을 생성하는 단계를 더 포함하는 동작에 따른 기능을 수행하는 방법.
  21. 제 20항에 있어서,
    상기 동작 모델을 생성하는 단계는 상기 동작 샘플을 입력받는 단계;
    상기 시점을 경계로 상기 동작 샘플을 분할하여 상기 구역을 형성하는 단계;
    상기 입력된 동작 샘플이 복수 개인 경우 상기 구역 별 상기 복수 개의 동작 샘플 간의 연관 정도를 추출하는 단계; 및
    상기 복수 개의 동작 샘플 간의 차이가 감소되도록 학습에 의하여 결정되는 선형 변수가 포함된 상기 선형 관계 행렬을 추출하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  22. 제 20항에 있어서,
    상기 동작 모델을 생성하는 단계는 1차원, 2차원 또는 3차원의 상기 동작 샘플에 대한 동작 모델을 생성하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  23. 제 17항에 있어서,
    상기 구역은 상기 동작 샘플에 포함된 공간 상의 각 축에서 동작의 진행 방향이 전환되는 시점을 경계로 형성되는 동작에 따른 기능을 수행하는 방법.
  24. 제 15항에 있어서,
    상기 동작 모델과 상기 감지된 동작의 유사 여부를 비교하는 단계는 상기 감지된 동작의 관성력의 크기를 상기 확률적인 분포에 대입하여 확률 값을 산출하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  25. 제 15항에 있어서,
    상기 기능 수행 신호는 기 구비된 기능 및 사용자에 의해 생성된 기능 중 적어도 하나를 수행하게 하는 신호를 포함하는 동작에 따른 기능을 수행하는 방법.
  26. 제 15항에 있어서,
    상기 동작 모델 및 상기 기능 수행 신호 중 적어도 하나를 저장하는 단계를 더 포함하는 동작에 따른 기능을 수행하는 방법.
  27. 제 15항에 있어서,
    버튼 입력 신호를 수신하는 단계를 더 포함하는 동작에 따른 기능을 수행하는 방법.
  28. 제 27항에 있어서,
    상기 버튼 입력 신호는 상기 동작 모델을 생성하는 버튼 신호 및 상기 기능 수행 신호를 출력하는 버튼 신호 중 적어도 하나를 포함하는 동작에 따른 기능을 수행하는 방법.
  29. (a) 지원되는 기능 중 적어도 하나에 대한 선택 명령을 수신하는 단계;
    (b) 동작을 입력받는 단계;
    (c) 기 저장된 동작과 상기 입력된 동작의 유사 여부를 비교하는 단계; 및
    (d) 상기 비교 결과에 따라 상기 선택 명령에 대응되는 기능과 상기 입력된 동작을 대응시켜 저장하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  30. 제 29항에 있어서,
    상기 지원되는 기능의 목록을 디스플레이하는 단계를 더 포함하는 동작에 따 른 기능을 수행하는 방법.
  31. 제 30항에 있어서,
    상기 (a) 단계는 상기 목록에 포함된 기능 및 현재 수행 중인 기능 중 적어도 하나에 대한 선택 명령을 수신하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  32. 제 29항에 있어서,
    상기 (d) 단계는
    상기 입력된 동작을 궤적 복원하여 좌표로 변환하는 단계;
    상기 변환된 좌표에 따른 도형을 생성하는 단계; 및
    상기 선택 명령에 대응되는 기능과 상기 생성된 도형을 디스플레이하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  33. 제 32항에 있어서,
    상기 좌표는 1차원, 2차원 및 3차원 좌표 중 하나를 포함하는 동작에 따른 기능을 수행하는 방법.
  34. (a) 동작을 입력받는 단계;
    (b) 기 저장된 동작과 상기 입력된 동작의 유사 여부를 비교하는 단계;
    (c) 지원되는 기능 중 적어도 하나에 대한 선택 명령을 수신하는 단계; 및
    (d) 상기 비교 결과에 따라 상기 선택 명령에 대응되는 기능과 상기 입력된 동작을 대응시켜 저장하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  35. 제 34항에 있어서,
    상기 지원되는 기능의 목록을 디스플레이하는 단계를 더 포함하는 동작에 따른 기능을 수행하는 방법.
  36. 제 35항에 있어서,
    상기 (c) 단계는 상기 목록에 포함된 기능 및 현재 수행 중인 기능 중 적어도 하나에 대한 선택 명령을 수신하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  37. 제 34항에 있어서,
    상기 (d) 단계는
    상기 입력된 동작을 궤적 복원하여 좌표로 변환하는 단계;
    상기 변환된 좌표에 따른 도형을 생성하는 단계; 및
    상기 선택 명령에 대응되는 기능과 상기 생성된 도형을 디스플레이하는 단계를 포함하는 동작에 따른 기능을 수행하는 방법.
  38. 제 37항에 있어서,
    상기 좌표는 1차원, 2차원 및 3차원 좌표 중 하나를 포함하는 동작에 따른 기능을 수행하는 방법.
KR1020050086334A 2005-09-15 2005-09-15 동작에 따른 기능을 수행하는 장치 및 방법 Expired - Fee Related KR100735555B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020050086334A KR100735555B1 (ko) 2005-09-15 2005-09-15 동작에 따른 기능을 수행하는 장치 및 방법
US11/492,905 US20070091292A1 (en) 2005-09-15 2006-07-26 System, medium, and method controlling operation according to instructional movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050086334A KR100735555B1 (ko) 2005-09-15 2005-09-15 동작에 따른 기능을 수행하는 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20070031658A KR20070031658A (ko) 2007-03-20
KR100735555B1 true KR100735555B1 (ko) 2007-07-04

Family

ID=37984985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050086334A Expired - Fee Related KR100735555B1 (ko) 2005-09-15 2005-09-15 동작에 따른 기능을 수행하는 장치 및 방법

Country Status (2)

Country Link
US (1) US20070091292A1 (ko)
KR (1) KR100735555B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009062176A3 (en) * 2007-11-09 2009-07-16 Google Inc Activating applications based on accelerometer data

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090315766A1 (en) 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
US8467991B2 (en) 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
JP5208637B2 (ja) * 2008-09-16 2013-06-12 株式会社東芝 情報処理装置、方法及びプログラム
US20100117959A1 (en) * 2008-11-10 2010-05-13 Samsung Electronics Co., Ltd. Motion sensor-based user motion recognition method and portable terminal using the same
US8843181B2 (en) * 2009-05-27 2014-09-23 Qualcomm Incorporated Sensor uses in communication systems
US8872767B2 (en) 2009-07-07 2014-10-28 Microsoft Corporation System and method for converting gestures into digital graffiti
WO2011083572A1 (ja) * 2010-01-07 2011-07-14 株式会社 東芝 移動状態推定装置、方法およびプログラム
US8730157B2 (en) * 2010-11-15 2014-05-20 Hewlett-Packard Development Company, L.P. Hand pose recognition
CN102915171A (zh) * 2011-08-04 2013-02-06 王振兴 移动轨迹产生方法
JP5978687B2 (ja) * 2012-03-22 2016-08-24 富士ゼロックス株式会社 移動状況判定プログラム及び移動状況判定装置
US9253752B2 (en) * 2012-06-04 2016-02-02 Senaya, Inc. Asset tracking system activated by predetermined pattern of asset movement
US9613239B2 (en) * 2012-09-27 2017-04-04 Chep Technology Pty Limited Pattern recognition based motion detection for asset tracking system
US11423464B2 (en) 2013-06-06 2022-08-23 Zebra Technologies Corporation Method, apparatus, and computer program product for enhancement of fan experience based on location data
US20140365640A1 (en) 2013-06-06 2014-12-11 Zih Corp. Method, apparatus, and computer program product for performance analytics determining location based on real-time data for proximity and movement of objects
US10609762B2 (en) 2013-06-06 2020-03-31 Zebra Technologies Corporation Method, apparatus, and computer program product improving backhaul of sensor and other data to real time location system network
US10437658B2 (en) 2013-06-06 2019-10-08 Zebra Technologies Corporation Method, apparatus, and computer program product for collecting and displaying sporting event data based on real time data for proximity and movement of objects
US9699278B2 (en) 2013-06-06 2017-07-04 Zih Corp. Modular location tag for a real time location system network
US9715005B2 (en) 2013-06-06 2017-07-25 Zih Corp. Method, apparatus, and computer program product improving real time location systems with multiple location technologies
US9517417B2 (en) 2013-06-06 2016-12-13 Zih Corp. Method, apparatus, and computer program product for performance analytics determining participant statistical data and game status data
WO2015186044A1 (en) 2014-06-05 2015-12-10 Zih Corp. Receiver processor for adaptive windowing and high-resolution toa determination in a multiple receiver target location system
WO2015186084A1 (en) 2014-06-05 2015-12-10 Zih Corp. Method for iterative target location in a multiple receiver target location system
US20150375083A1 (en) 2014-06-05 2015-12-31 Zih Corp. Method, Apparatus, And Computer Program Product For Enhancement Of Event Visualizations Based On Location Data
US9668164B2 (en) 2014-06-05 2017-05-30 Zih Corp. Receiver processor for bandwidth management of a multiple receiver real-time location system (RTLS)
US9626616B2 (en) 2014-06-05 2017-04-18 Zih Corp. Low-profile real-time location system tag
US9661455B2 (en) 2014-06-05 2017-05-23 Zih Corp. Method, apparatus, and computer program product for real time location system referencing in physically and radio frequency challenged environments
DE112015002651B4 (de) 2014-06-05 2023-02-16 Zebra Technologies Corporation Systeme, Vorrichtung und Verfahren zur Ratenvariablen Ultrabreitbandkommunikation
AU2015270105A1 (en) 2014-06-06 2016-12-22 Zih Corp. Method, apparatus, and computer program product improving real time location systems with multiple location technologies
US9759803B2 (en) 2014-06-06 2017-09-12 Zih Corp. Method, apparatus, and computer program product for employing a spatial association model in a real time location system
KR101628482B1 (ko) 2014-09-18 2016-06-21 현대자동차주식회사 무선신호 분석을 통한 동작 인식 시스템 및 그 방법
EP3607509B1 (en) 2017-04-07 2024-06-26 BXB Digital PTY Limited Systems and methods for tracking promotions
WO2018204499A1 (en) 2017-05-02 2018-11-08 BXB Digital Pty Limited Systems and methods for pallet identification
US10832208B2 (en) 2017-05-02 2020-11-10 BXB Digital Pty Limited Systems and methods for facility matching and localization
WO2018204912A1 (en) 2017-05-05 2018-11-08 BXB Digital Pty Limited Pallet with tracking device
EP3673426B1 (en) 2017-08-21 2024-03-06 BXB Digital PTY Limited Systems and methods for pallet tracking using hub and spoke architecture
MA50387A (fr) 2017-10-20 2020-08-26 Bxb Digital Pty Ltd Systèmes et procédés de suivi de transporteurs de marchandises
US10816637B2 (en) 2018-12-27 2020-10-27 Chep Technology Pty Limited Site matching for asset tracking
JP7147074B2 (ja) 2019-02-25 2022-10-04 ビィ・エックス・ビィ・デジタル・プロプライエタリー・リミテッド サプライチェーンにおけるスマートな物理的クロージャ

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000312255A (ja) * 1999-04-27 2000-11-07 Sharp Corp 通話装置
JP2004252714A (ja) * 2003-02-20 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体
KR20040096880A (ko) * 2004-10-05 2004-11-17 장중혁 휴대 정보 기기의 모션 센싱을 이용한 대화면 gui 인터페이스 제어 장치
KR20050060923A (ko) * 2003-12-17 2005-06-22 엘지전자 주식회사 이동통신 단말기 입력 장치 및 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU608503B2 (en) * 1985-07-15 1991-04-11 Chevron Research And Technology Company Method of avoiding stuck drilling equipment
US6369794B1 (en) * 1998-09-09 2002-04-09 Matsushita Electric Industrial Co., Ltd. Operation indication outputting device for giving operation indication according to type of user's action
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6529144B1 (en) * 2000-09-22 2003-03-04 Motorola Inc. Method and apparatus for motion activated control of an electronic device
US7184020B2 (en) * 2002-10-30 2007-02-27 Matsushita Electric Industrial Co., Ltd. Operation instructing device, operation instructing method, and operation instructing program
KR100518832B1 (ko) * 2003-03-18 2005-10-05 삼성전자주식회사 3차원 관성항법시스템에 기초한 입력시스템 및 이의궤적추정방법
US7355586B2 (en) * 2003-03-28 2008-04-08 General Electric Co. Method for associating multiple functionalities with mouse buttons
US6998966B2 (en) * 2003-11-26 2006-02-14 Nokia Corporation Mobile communication device having a functional cover for controlling sound applications by motion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000312255A (ja) * 1999-04-27 2000-11-07 Sharp Corp 通話装置
JP2004252714A (ja) * 2003-02-20 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> 空間情報獲得方法、装置、空間情報獲得プログラム、および該プログラムを記録した記録媒体
KR20050060923A (ko) * 2003-12-17 2005-06-22 엘지전자 주식회사 이동통신 단말기 입력 장치 및 방법
KR20040096880A (ko) * 2004-10-05 2004-11-17 장중혁 휴대 정보 기기의 모션 센싱을 이용한 대화면 gui 인터페이스 제어 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009062176A3 (en) * 2007-11-09 2009-07-16 Google Inc Activating applications based on accelerometer data

Also Published As

Publication number Publication date
KR20070031658A (ko) 2007-03-20
US20070091292A1 (en) 2007-04-26

Similar Documents

Publication Publication Date Title
KR100735555B1 (ko) 동작에 따른 기능을 수행하는 장치 및 방법
US7259756B2 (en) Method and apparatus for selecting information in multi-dimensional space
US10353476B2 (en) Efficient gesture processing
TWI409667B (zh) 用於個人化媒體設備的基於移動介面
CN102405463B (zh) 利用多模态信息的用户意图推理装置及方法
Choi et al. Beatbox music phone: gesture-based interactive mobile phone using a tri-axis accelerometer
US10126825B2 (en) Method for recognizing handwriting on a physical surface
JP2005292829A (ja) 動き基盤の音声発生方法および装置
KR100630806B1 (ko) 동작 인식 장치를 이용한 명령 입력 방법
WO2003001340A2 (en) Gesture recognition system and method
Hussain et al. User independent hand gesture recognition by accelerated DTW
WO2011145304A1 (ja) 携帯型情報処理端末
Abdelnasser et al. WiGest demo: A ubiquitous WiFi-based gesture recognition system
EP3289435B1 (en) User interface control using impact gestures
CN108196668B (zh) 一种便携式手势识别系统及方法
KR101228336B1 (ko) 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기
CN114546106B (zh) 一种隔空手势的识别方法、装置、电子设备和存储介质
EP1686778A1 (en) Motion-based sound setting apparatus and method and motion-based sound generating apparatus and method
Yuan et al. Accelerometer-based Chinese traffic police gesture recognition system
Kallio et al. User independent gesture interaction for small handheld devices
CN114167984A (zh) 设备控制方法、装置、存储介质及电子设备
WO2009072736A1 (en) User adaptive gesture recognition method and user adaptive gesture recognition system
CN111580660A (zh) 一种操作触发方法、装置、设备及可读存储介质
KR20190027726A (ko) 제스쳐를 이용하는 단말 제어 방법
US20130006572A1 (en) Methods for detection of unique physical motions

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

FPAY Annual fee payment

Payment date: 20130530

Year of fee payment: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

FPAY Annual fee payment

Payment date: 20140529

Year of fee payment: 8

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8

FPAY Annual fee payment

Payment date: 20150528

Year of fee payment: 9

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 9

FPAY Annual fee payment

Payment date: 20160530

Year of fee payment: 10

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 10

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20170629

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20170629