[go: up one dir, main page]

KR20120006503A - 개선된 텍스트 입력 - Google Patents

개선된 텍스트 입력 Download PDF

Info

Publication number
KR20120006503A
KR20120006503A KR1020117023526A KR20117023526A KR20120006503A KR 20120006503 A KR20120006503 A KR 20120006503A KR 1020117023526 A KR1020117023526 A KR 1020117023526A KR 20117023526 A KR20117023526 A KR 20117023526A KR 20120006503 A KR20120006503 A KR 20120006503A
Authority
KR
South Korea
Prior art keywords
candidate
candidates
input
key
controller
Prior art date
Application number
KR1020117023526A
Other languages
English (en)
Inventor
미카엘 다니엘손
임레 즈보린지
스벤 엑스트롬
Original Assignee
짐플 어플리케이션스 아이오엘 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 짐플 어플리케이션스 아이오엘 에이비 filed Critical 짐플 어플리케이션스 아이오엘 에이비
Publication of KR20120006503A publication Critical patent/KR20120006503A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

컨트롤러를 포함하는 장치가 개시되며, 상기 컨트롤러는 키 또는 필기 인식 결과에 관련되고 터치 포인트를 식별하는 입력을 수신하고; 상기 터치 포인트 주변에 배열된 복수의 후보를 포함하는 후보들의 제1 세트를 표시하고; 상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하고; 상기 제1 후보의 선택 명령을 수신하며; 상기 선택된 후보를 텍스트로 입력하도록 구성된다. 추가적인 장치, 방법, 유저 인터페이스 및 컴퓨터 프로그램이 또한 개시된다.

Description

개선된 텍스트 입력{IMPROVED TEXT INPUT}
본 발명은 개선된 텍스트 입력을 위한 유저 인터페이스, 장치 및 방법에 관한 것으로, 상세하게는 후보들을 제공하는 것을 기반으로 하는 개선된 텍스트 입력을 위한 유저 인터페이스, 장치 및 방법에 관한 것이다.
점차 소형화되고 있는 많은 이동 전화, PDA(Personal Digital Assistants) 및 랩탑 컴퓨터와 같은 휴대 장치들은 텍스트 입력을 위해 이용된다.
사용자들은 빠르고 쉬운 텍스트 입력을 필요로 한다.
빠르고 쉬운 텍스트 입력을 가능하게 하는 장치는 현대 사회에서 유용하다.
이 배경에서, 청구항에 따른 장치를 제공함에 의한 빠르고 쉬운 텍스트 입력을 제공하는 유저 인터페이스, 장치 및 방법을 제공함은 이로울 수 있다.
교시의 일 측면에 따르면, 키에 관련되고 터치 포인트를 식별하는 입력을 수신하기 위한 입력 수단; 상기 터치 포인트 주변에 배열된 적어도 하나의 후보를 포함하는 후보들의 제1 세트를 표시하기 위한 표시 수단; 상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하는 입력 수단; 상기 제1 후보의 선택 명령을 수신하는 입력 수단; 및 상기 선택된 후보를 텍스트로 입력하는 제어 수단을 포함하는 장치가 제공된다.
본 측면의 일 실시예에 따르면, 상기 장치는 상기 제1 후보에 관련된 입력을 수신하면 후보들의 추가 세트를 표시하기 위한 수단을 더 포함하되, 상기 후보들의 추가 세트는 적어도 하나의 추가 후보를 포함한다.
본 측면의 일 실시예 및 상기 실시예에 따르면, 상기 장치는 상기 추가 세트에 포함된 추가 후보에 관련된 입력을 수신하기 위한 입력 수단 및 상기 추가 후보를 제1 후보로 식별하기 위한 제어 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 장치는 후보들의 추가 세트를 포함하는 제2 세트를 표시하기 위한 제어 수단을 더 포함한다.
본 측면의 일 실시예에 따르면, 상기 장치는 상기 제1 후보에 대한 입력을 받으면 후보들의 제2 세트를 표시하는 수단을 포함하되, 상기 후보들의 제2 세트는 상기 제1 세트의 적어도 하나의 후보에 대한 대안인 적어도 하나의 제2 후보를 포함하며, 후보들의 제2 세트는 후보들의 제1 세트로 간주된다. 본 측면의 일 실시예 및 상기 실시예에 따르면, 상기 장치는 상기 터치 포인트를 표시하는 디스플레이 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 입력은 가상 키를 식별하는 터치 입력이며 상기 터치 포인트는 상기 터치 입력에 대한 터치의 포인트이다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 장치는 상기 후보를 가상 키로서 표시하기 위한 표시 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 장치는 터치 입력 해제를 수신하고 상기 해제를 선택 명령으로 해석하기 위한 입력 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 장치는 이전 입력에 기초하여 한 세트의 후보들을 표시하기 위한 제어 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 후보는 단어 완성에 연관된다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 후보는 단어 예측에 연관된다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 적어도 하나의 상기 후보는 적어도 하나의 배치 및 연관된 키에 대해서 고정적이다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 각 후보는 방향에 연관되며 상기 장치는 방향 지시를 수신하고 따라서 후보를 제1 후보로 식별하기 위한 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예에 따르면, 상기 장치는 상기 터치 포인트로부터의 위치 오프셋에 상기 후보들을 표시하고 터치 입력을 오프셋 위치를 가진 것으로 해석하기 위한 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 입력은 물리적 키보드로부터의 키 입력이고, 상기 터치 포인트는 상기 물리적 키보드 상에서 터치된 키의 위치이며, 상기 장치는 상기 터치 포인트를 디스플레이 위치에 투영하고 상기 투영된 터치 포인트 주변에 배열된 상기 후보들을 표시하여 각 후보가 상기 물리적 키보드 상의 키에 매핑되도록 하는 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 터치 포인트는 상기 후보들의 제1 세트를 표시하기 위한 상기 물리적 키보드 상의 충분한 주변 키를 가지지 않은 키의 위치이며, 상기 상치는 상기 터치 포인트 투영을 상기 후보들의 제1 세트로 표시하기 위한 상기 물리적 키보드 상에 충분한 주변 키를 가진 상기 키의 위치로 번역하며 상기 후보들을 상기 번역된 터치 포인트 투영 주변에 배열하기 위한 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 장치는 상기 키에 연관된 복수의 문자 중 하나를 식별하는 멀티탭 입력에 기초하여, 키에 대한 입력을 멀티탭 입력으로 해석하기 위한 수단을 더 포함하고, 상기 후보들의 제1 세트는 상기 식별된 문자에 연관된 적어도 하나의 후보를 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 키 입력은 적어도 두 개의 문자에 연관된 키에 관련되며, 상기 후보들의 제1 세트는 상기 문자에 연관된 후보들을 각각 포함하며, 상기 장치는 상기 선택된 후보에 연관된 문자에 연관된 후보들의 추가 세트를 표시하기 위한 수단을 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 키입력은 하나 이상의 키 입력 이벤트를 포함하고, 상기 적어도 하나의 키 입력 이벤트는 적어도 두 개의 문자에 연관되어 상기 키 입력이 적어도 두 개의 텍스트 해석에 상응하는 키에 관련되며, 상기 후보들의 제1 세트는 제1 텍스트 해석에 연관된 후보 및 제2 텍스트 해석에 연관된 후보를 적어도 포함한다. 이 문맥에서, 키 입력 이벤트라는 용어는 누름, 해제, 터치 또는 사용자에 의해 수행되는 다른 발동 작용과 같은 키에서 수행되는 동작을 지칭할 수 있다.
교시들의 제2 관점에 따르면, 키에 관련되고 터치 포인트를 식별하는 입력을 수신하는 단계; 상기 터치 포인트 주변에 배열된 복수의 후보를 포함하는 후보들의 제1 세트를 표시하는 단계; 상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하는 단계; 상기 제1 후보의 선택 명령을 수신하는 단계; 및 상기 선택된 후보를 텍스트로 입력하는 단계를 포함하는 텍스트 입력 방법이 제공된다.
본 측면의 일 실시예 및 상기 실시예에 따르면, 상기 방법은 상기 제1 후보에 관련된 입력을 수신하면 후보들의 추가 세트를 표시하는 단계를 더 포함하며, 상기 후보들의 추가 세트는 적어도 하나의 추가 후보를 포함한다.
본 측면의 일 실시예 및 상기 실시예에 따르면, 상기 방법은 상기 추가 세트에 포함된 추가 후보에 관련된 입력을 수신하는 단계 및 상기 추가 후보를 제1 후보로 식별하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 방법은 상기 터치 포인트를 표시하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 제1 후보에 대한 입력을 받으면 후보들의 제2 세트를 표시하는 단계를 더 포함하되, 상기 후보들의 제2 세트는 상기 제1 세트의 적어도 하나의 후보에 대한 대안인 적어도 하나의 제2 후보를 포함하며, 후보들의 제2 세트는 후보들의 제1 세트로 간주된다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 방법은 상기 터치 포인트를 표시하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 입력은 가상 키를 식별하는 터치 입력이며 상기 터치 포인트는 상기 터치 입력에 대한 터치의 포인트이다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 방법은 상기 후보를 가상 키로서 표시하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 방법은 터치 입력 해제를 수신하는 단계 및 상기 해제를 선택 명령으로 해석하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 이전 입력에 기초하여 한 세트의 후보들을 표시하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 후보는 단어 완성에 연관된다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 후보는 단어 예측에 연관된다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 적어도 하나의 상기 후보는 적어도 하나의 배치 및 연관된 키에 대해서 고정적이다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 각 후보는 방향에 연관되며, 방향 지시를 수신하는 단계 및 따라서 후보를 제1 후보로 식별하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 터치 포인트로부터의 위치 오프셋에 상기 후보들을 표시하는 단계 및 터치 입력을 오프셋 위치를 가진 것으로 해석하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 입력은 물리적 키보드로부터의 키 입력이고, 상기 터치 포인트는 상기 물리적 키보드 상에서 터치된 키의 위치이며, 상기 터치 포인트를 디스플레이 위치에 투영하는 단계 및 상기 투영된 터치 포인트 주변에 배열된 상기 후보들을 표시하여 각 후보가 상기 물리적 키보드 상의 키에 매핑하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 터치 포인트는 상기 후보들의 제1 세트를 표시하기 위한 상기 물리적 키보드 상의 충분한 주변 키를 가지지 않은 키의 위치이며, 상기 터치 포인트 투영을 상기 후보들의 제1 세트로 표시하기 위한 상기 물리적 키보드 상에 충분한 주변 키를 가진 상기 키의 위치로 번역하는 단계 및 상기 후보들을 상기 번역된 터치 포인트 투영 주변에 배열하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 방법은 상기 키에 연관된 복수의 문자 중 하나를 식별하는 멀티탭 입력에 기초하여, 키에 대한 입력을 멀티-탭 입력으로 해석하는 단계를 더 포함하고, 상기 후보들의 제1 세트는 상기 식별된 문자에 연관된 적어도 하나의 후보를 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 키 입력은 적어도 두 개의 문자에 연관된 키에 관련되며, 상기 후보들의 제1 세트는 상기 문자에 연관된 후보들을 각각 포함하며, 상기 후보들 중 어느 하나를 선택하면, 상기 선택된 후보에 연관된 문자에 연관된 후보들의 추가 세트를 표시하는 단계를 더 포함한다.
본 측면의 일 실시예 및 상기 실시예들에 따르면, 상기 키 입력은 하나 이상의 키 입력 이벤트를 포함하고, 상기 적어도 하나의 키 입력 이벤트는 적어도 두 개의 문자에 연관되어 상기 키 입력이 적어도 두 개의 텍스트 해석에 상응하는 키에 관련되며, 상기 후보들의 제1 세트는 제1 텍스트 해석에 연관된 후보 및 제2 텍스트 해석에 연관된 후보를 적어도 포함한다. 이 문맥에서, 용어 키 입력 이벤트는 누름, 해제, 터치, 또는 사용자에 의해 수행된 다른 발동 작용과 같이 키 상에서 수행된 임의의 동작에 관련된다.
교시의 제3 측면에 따르면, 필기 인식 결과에 관련되고 터치 포인트를 식별하는 입력을 수신하기 위한 입력 수단; 상기 터치 포인트 주변에 배열된 적어도 하나의 후보를 포함하는 후보들의 제1 세트를 표시하기 위한 디스플레이 수단; 상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하기 위한 입력 수단; 상기 제1 후보의 선택 명령을 수신하기 위한 입력 수단; 및 상기 선택된 후보를 텍스트로 입력하기 위한 제어 수단을 포함하는 장치가 제공된다.
이 측면의 추가 실시예들은 제1 측면에 따르면 본 실시예와 많이 유사함을 보여준다.
교시의 제4 측면에 따르면, 필기 인식 결과에 관련되고 터치 포인트를 식별하는 입력을 수신하는 단계; 상기 터치 포인트 주변에 배열된 복수의 후보를 포함하는 후보들의 제1 세트를 표시하는 단계; 상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하는 단계; 상기 제1 후보의 선택 명령을 수신하는 단계; 및 상기 선택된 후보를 텍스트로 입력하는 단계를 포함하는 방법이 제공된다.
본 측면의 추가 실시예들은 제2 측면에 따르면 본 실시예와 많이 유사함을 보여준다.
교시의 제5 측면에 따르면, 키에 관련되고 터치 포인트를 식별하는 입력을 수신하고; 상기 터치 포인트 주변에 배열된 적어도 하나의 후보를 포함하는 후보들의 제1 세트를 디스플레이하고; 상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하고; 상기 제1 후보의 선택 명령을 수신하며; 상기 선택된 후보를 텍스트로 입력하도록 구성되는 유저 인터페이스가 제공된다.
교시의 제6 측면에 따르면, 필기 인식 결과에 관련되고 터치 포인트를 식별하는 입력을 수신하고; 상기 터치 포인트 주변에 배열된 복수의 후보를 포함하는 후보들의 제1 세트를 디스플레이하고; 상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하고; 상기 제1 후보의 선택 명령을 수신하며; 상기 선택된 후보를 텍스트로 입력하도록 구성되는 유저 인터페이스가 제공된다.
교시의 제7 측면에 따르면, 컴퓨터 프로그램이 제공되며, 컴퓨터 프로그램은 제2 및 제4 측면의 실시예 중 하나에 따른 따른 방법을 수행하도록 프로세서를 동작시키는 명령들을 포함한다.
본 출원에 따른 장치, 방법 및 컴퓨터 판독 가능한 매체의 추가적인 목적, 특징, 장점 및 특성은 상세한 설명으로부터 명확해질 것이다.
본 설명의 이하 상세한 설명에서, 본 출원의 교시는 도면들에서 보여지는 예시 실시예를 참조하여 더욱 상세히 설명될 것이다:
도 1은 본 출원에 따른 기기가 일 실시예에 따라 이용되는 통신 시스템의 개요이고, 도 2a 및 b 는 일 실시예에 따른 각 장치의 뷰이고,
도 3은 본 출원에 따른 도 2a의 장치들에 대한 일반적인 아키텍처를 나타내는 블록 다이어그램이고,
도 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 18, 19, 20, 21, 22, 23 및 24는 일 실시예에 따른 장치의 일련의 스크린 샷 뷰이고,
도 17은 본 출원의 일 실시예에 따른 방법을 나타낸 흐름도이다.
이하 상세한 설명에서, 셀룰러/이동 전화의 형태인 본 출원의 교시에 따른 유저 인터페이스, 장치, 방법 및 소프트웨어 제품은 그 실시예들에 의해 설명될 것이다. 오직 하나의 이동 전화가 설명되지만, 본 출원의 교시는 랩탑, PDA, 이동 통신 단말, 전자책, 노트패드 및 정보에 접근을 제공하는 다른 전자 기기와 같은 휴대 전자 기기와 같은 어떤 전자 기기에서도 사용될 수 있음을 주목해야 한다.
도 1은 본 출원의 교시가 적용된 셀룰러 통신 시스템의 예를 나타낸다. 도 1의 통신 시스템에서, 셀룰러 음성호, www 또는 무선 어플리케이션 프로토콜(Wireless, Application Protocol, WAP) 브라우징, 셀룰러 영상호, 데이터호, 펙시밀리 전송, 음악 전송, 정지 영상 전송, 비디오 전송, 전자 메시지 전송, 전자 상거래 등과 같은 다양한 통신 서비스는 본 발명의 교시에 따른 이동 단말(100)과 타 이동 단말(106) 또는 고정된 전화(132)와 같은 타 기기 간에서 수행될 수 있다. 이동 전화(100)의 다른 실시예를 위해서 그리고 다른 상황에서 상술한 통신 서비스의 다른 형태가 이용 가능하거나 가능하지 않을 수 있다. 본 출원의 교시는 이에 관한 어떠한 특정한 세트의 서비스에 한정되지 않는다.
이동 단말(100, 106)은 휴대 전기통신 네트워크(110)로 기지국(104, 109)를 거친 전파 주파수 링크(102, 108)를 통해 연결된다. 휴대 전기 통신 네트워크(110)는 Group Speciale Mobile(GSM), Universal Mobile Telecommunications System (UMTS), Digital Advanced Mobile Phone system (D-AMPS), The code division multiple access standards (CDMA and CDMA2000), Freedom Of Mobile Access (FOMA), and Time Division-Synchronous Code Division Multiple Access (TD- SCDMA)와 같은 상업적으로 가능한 이동 통신 표준에 따를 수 있다.
휴대 전기통신 네트워크는 인터넷 또는 그 일부인 광범위 네트워크(120)와 영향을 끼쳐 연결된다. 인터넷 서버(122)는 데이터 스토리지(124)를 갖고 인터넷 클라이언트 컴퓨터(126)과 같이 광대역 네트워크(wide area network)(120)와 연결된다. 서버(122)는 www/wap 컨텐츠를 이동 단말(100)로 제공할 수 있는 www/wap 서버를 호스트할 수 있다.
공중 전화망(Public Switched Telephone Network, PSTN)(130)는 당업자에게 일반적으로 알려진 이동 통신 네트워크(110)에 연결된다. 다양한 고정된 단말(132)을 포함하는 전화 단말은 PSTN(130)으로 연결된다.
또한 이동 단말(100)은 로컬 링크(101)를 거쳐 하나 이상의 로컬 기기(103)와 지역적으로 통신할 수 있다. 로컬 링크는 블루투스, 범용 시리얼 버스(Universal Serial Bus, USB) 링크, 무선 범용 시리얼 버스(Wireless Universal Serial Bus, WUSB) 링크, IEEE 802.11 무선 로컬 네트워크(Wireless local area network) 링크, RS-232 시리얼 링크 등의 무선 표준 링크와 같은 제한적인 범위의 링크일 수 있다. 로컬 기기(103)는 예를 들어, 측정값을 로컬 링크(101)를 통해 이동 단말(100)로 전달할 수 있는 다양한 센서일 수 있다.
랩탑 또는 데스크탑과 같은 컴퓨터는 WLAN(Wireless Local Area Network) 표준 IEEE 802.11을 이용한 무선 주파수 연결에 대한 대중적인 용어인 WiFi 링크와 같은 무선 링크를 통해 네트워크에 연결될 수 있다.
또한 본 출원의 교시들은 상술한 통신 네트워크가 일부일 수 있는 인터넷 네트워크 에서 이용될 수 있음을 주목해야 한다.
여기에서 교시들은 무선 네트워크에 대해서만 설명하고 있지만, 교시들은 무선 네트워크에 한정되지 않고 인터넷 또는 유사한 네트워크에서 이용될 수 있음으로 이해될 것을 주목해야 한다.
여기에서 교시들에 따른 장치들은 이동 전화, PDA, 랩탑 뿐만 아니라 데스크탑 컴퓨터나 서버와 같은 고정된 기기가 될 수 있는 것으로 이해되어야 한다.
또한 장치는 통신 수단을 구비한 디지털 카메라일 수 있다. 이 같은 통신 수단은 컴퓨터와 같은 다른 기기와 통신 가능한 시리얼 연결일 수 있다.
이동 단말(100)의 일 실시예(200)는 도 2a에 더욱 상세히 도시되어 있다. 이동 단말(200)은 스피커 또는 이어폰(202), 마이크(206), 일 실시예에서 터치 디스플레이인 메인 또는 제1 디스플레이(203), 일반적인 ITU-T 타입(문자 "0"-"9", "*" 및 "#"를 표시하는 알파뉴메릭 키패드)의 키패드(204a) 및 소프트 키(204b, 204c)과 같은 다른 키들을 포함하는 키들의 한 세트(204), 조이스틱(205) 또는 다른 타입의 네비게이션 입력 기기를 포함한다.
여기에서 교시의 대안 실시예는 컴퓨터(이 예시에서는 랩탑 컴퓨터(200)) 형태로 도 2b에 도시되어 있다. 랩탑 컴퓨터는 디스플레이(203), 키패드(204), 커서 제어 입력 수단(이 예시에서는 터치패드(205)) 형태의 네비게이션 수단을 포함한다.
컴퓨터는 도 1에서 예시된 무선 네트워크와 연결될 수 있고 컴퓨터(200)는 장치(100)의 일 실시예일 수 있음을 주목해야 한다.
이동 단말(200)의 내부 요소, 소프트웨어 및 프로토콜 구조는 도 3과 관련하여 지금부터 설명될 것이다. 이동 단말은 이동 단말의 전체 작업을 책임지고 상업적으로 이용가능한 CPU("Central Processing Unit"), DSP ("Digital Signal Processor") 또는 다른 전자적 프로그램 가능한 로직 장치에 의해 구현될 수 있는 컨트롤러(300)를 포함한다. 컨트롤러(300)는 랜덤 엑세스 메모리(Random Access Memory, RAM), 읽기 전용 메모리(Read Only Memory, ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), 플래시 메모리 또는 이들의 조합과 같은 전자 메모리(302)와 연동된다. 메모리(302)는 컨트롤러(300)에 의해, 일 예로 이동 단말에서 사용되는 데이터를 저장하거나 다양한 소프트웨어의 프로그램 명령들을 저장하는 것과 같은 다양한 목적으로 사용된다. 소프트웨어는 다양한 어플리케이션 뿐만이 아니라 실시간 운영 체제(320), 인간-기계 인터페이스(man-machine interface, MMI)(334)에 대한 드라이버들, 어플리케이션 핸들러(332) 를 포함한다. 어플리케이션은 음성호, 영상호, 단문 메시지 서비스(SMS), 멀티미디어 메시지 서비스(MMS) 또는 이메일과 같은 메시지 송수신, 웹 브라우징, 인스턴트 메시지 어플리케이션, 전화부 어플리케이션, 캘린더 어플리케이션, 제어판 어플리케이션, 카메라 어플리케이션, 하나 이상의 비디오 게임 등의 다양한 타 어플리케이션(370) 뿐만이 아니라 메시지 텍스트 편집기(350), 노트패드 어플리케이션(360)을 포함할 수 있다. 상술한 둘 이상의 어플리케이션은 하나의 어플리케이션으로 실행될 수 있음을 주목해야 한다.
또한 MMI(334)는 하나 이상의 하드웨어 컨트롤러를 또한 포함하며, 하드웨어 컨트롤러는 MMI 드라이버와 함께 터치패드(205)와 같은 네비게이션 입력 장치와 같은 다양한 입력/출력 장치, 마이크, 스피커, 진동기, 링톤 발생기, LED(Light Emitting Diode) 지시기 등뿐만이 아니라 디스플레이(336/203), 키패드(338/204)와 상호 동작한다.
또한 소프트웨어는 일반적으로 330으로 지정되고 RF 인터페이스(306), 부가적으로 로컬 연결성을 위한 블루투스 인터페이스(308) 및/또는 IrDA 인터페이스(310) (전송, 네트워크 및 연결과 같은) 통신 서비스를 제공하는 다양한 모듈, 프로토콜 스택, 드라이버 등을 포함한다. RF 인터페이스(306)는 기지국과 무선 링크를 개설 및 유지(예를 들어, 도 1의 링크(102) 및 기지국(104))하는 내부 또는 외부 안테나 및 적합한 무선 회로를 포함한다. 당업자에게 잘 알려졌다시피 무선 회로는 무선 수신기 및 송신기를 형성하는 일련의 아날로그 및 디지털 전자 컴포넌트들을 포함한다. 이 컴포넌트들은 밴드 패스 필터, 증폭기, 믹서, 로컬 오실레이터, 로우 패스 필터, 아날로그-디지털 및 디지털-아날로그(AD/DA) 컨버터 등을 포함한다.
또한 이동 단말은 가입자 식별 모듈(Subscriber Identity Module, SIM) 카드(304) 및 관련된 리더를 포함한다. 잘 알려졌다시피, SIM 카드(304)는 프로세서 및 로컬 워크(local work) 및 데이터 메모리를 포함한다.
도 4a 내지 4c(이하 도 4로 지칭)는 교시들의 장치(400)에 대한 일련의 스크린 샷 뷰를 나타낸다. 장치는 이동 전화로 한정되지 않고 텍스트 입력을 수신할 수 있는 어떤 장치가 될 수 있음을 주목해야 한다.
장치(400)는 가상 키보드가 표시되는 디스플레이(403)를 포함한다. 가상 키보드는 글자와연관된 다수의 가상 키를 포함한다.
컨트롤러는 글자 키에 대한 터치 입력을 수신하도록 구성된다. 장치(440)에서 글자를 입력하기 위해 사용자는 글자에 관련된 가상 키 상을 간단히 탭하면, 컨트롤러는 관련된 글자를 입력할 수 있다.
이 문맥에서 탭은 일련의 터치 디스플레이 상에서 가상 키와 같은 그래픽적인 객체를 터치하고 짧은 시간 기간 내에 그 터치를 해제하는 것으로 정의된다. 짧은 시간 기간은 이런 면에서 0.3 초보다 짧은 시간 기간으로 고려된다. 시간 기간에 대한 다른 대안은 종래 기술에서 알려져 있다.
일 실시예에서 터치된 가상 키보드는 마크된다. 일 실시예에서 마킹은 색을 반전시킴으로써 수행된다. 다른 실시예에서 마킹은 터치된 가상 키를 다른 가상 키들과 다른 색으로 표시함으로서 수행된다.
컨트롤러는 후보 단어 객체들의 세트를 표시하도록 더 구성된다. 단어 객체는 접미사, 접두사, 일반적으로 사용되는 글자 조합, 단어 또는 부분 단어(partial word)일 수 있다.
일 실시예에서 후보들은 터치 포인트 주위에 배열된다. 이 실시예에서 후보들은 터치된 가상 키 주변에 표시된다.
후보의 세트는 각 단어 객체와 연관된 일련의 가상 키로서 터치된 가상 키의 주변에 표시된다.
일 실시예에서 후보는 터치된 키의 주변에 균등하게 분배된다.
일 실시예에서 표시되는 후보들의 수는 8이다. 이와 같은 실시예에서 후보들은 터치된 가상 키의 좌상측, 상측, 우상측, 좌측, 우측, 좌하측, 하측, 우하측 순으로 표시될 수 있다. 이는 사용자에게 원래 터치된 가상 키로부터 동일한 거리에 모든 후보들이 있는 후보 리스트를 한눈에 보는 편리함을 제공한다. 이는 사용자가 모든 후보들에 쉽게 접근할 수 있도록 한다.
일 실시예에서 후보들은 사용빈도 순으로 배열되어 가장 자주 사용된 후보가 가장 접근하기 쉬운 위치에 표시된다. 이는 입력 스트로크 시퀀스가 가장 자주 입력되는 후보들에 대해 가능한 한 매끄럽게 되는 것을 보증한다.
일 실시예에서 후보들은 알파벳 순서로 배열된다. 일 실시예에서 순서는 시계방향이다. 일 실시예에서 순서는 반시계 방향이다.
표시되는 후보들의 수는 디스플레이 크기, 키패드 크기, 가상키 크기, 또한 사용된 스타일러스의 넓이와 같은 설계 이슈 및 가능한 후보의 수에 의존한다.
컨트롤러는 후보를 식별하는 입력을 수신하도록 구성된다.
일 실시예에서 식별된 후보는 마크된다.
후보를 식별하기 위해 사용자는 간단히 스타일러스를 후보 상으로 드래그한다.
컨트롤러는 입력을 위한 후보를 선택하는 선택 명령을 수신하도록 설정된다.
일 실시예에서 선택 명령은 스타일러스를 터치 디스플레이(403)으로부터 해제하는 것이다.
후보를 선택하기 위해 사용자는 스타일러스를 후보 상으로 밀어서 해제한다.
도 4에 나타난 예시에서 사용자는 글자 'g'에 연관된 가상 키 상을 터치한다. 이에 반응하여 컨트롤러는 후보들의 세트를 표시한다. 후보들은 도 4a와 같이 "good", "get", "going", "give", "g*", "great", "go" 및 "got" 이다. 이어서 사용자는 도 4b와 같이 스타일러스를 마크된 후보 "great" 상으로 민다. 도 4c와 같이 사용자가 스타일러스를 디스플레이(403)에서 해제함에 따라 후보는 텍스트 스트링으로 입력된다.
일 실시예에서 선택 명령은 추가적인 탭이다. 일 실시예에서 후보들은 선택 명령이 수신되거나 글자와 연관된 다른 가상 키가 터치될 때까지 표시된다.
상기와 같은 일 실시예에서 사용자는 스타일러스 또는 손가락을 후보 상으로 밀지 않아도 된다. 입력을 위한 글자 상의 탭핑은 후보들을 표시하고 후보 상의 추가적인 탭은 후보를 선택한다. 일 실시예에서 글자와 연관된 가상 키 상의 더블탭(가상 키를 식별하기 위한 한 탭 및 입력을 위한 글자에 대한 선택을 위한 한 탭)은 글자를 입력한다.
선택 및 마킹의 대안은 상술한 모든 실시예의 실시에서 구현할 수 있음을 주목해야 한다.
일 실시예에서 컨트롤러는 글자에 대한 터치 입력이 긴 시간 기간 동안 터치 디스플레이(403)을 터치하는 것일 경우, 이에 반응하여 후보 단어 객체들의 세트를 표시한다.
일 실시예에서 컨트롤러는 사용된 언어에서 사용 빈도 순으로 후보들을 표시하도록 구성된다.
일 실시예에서 컨트롤러는 사용자에 의한 사용 빈도 순으로 후보들을 표시하도록 구성된다.
일 실시예에서 컨트롤러는 가장 자주 사용된 후보를 상측 위치로 표시하고, 두 번째로 자주 사용된 후보를 제1 후보의 우측에 위치하도록 후보들을 시계방향 배열으로 표시한다.
일 실시예에서 상기 컨트롤러는 상부 위치에 최고 빈도의 후보 그리고 상기 제1 후보의 왼편으로 두 번째로 많이 사용되는 후보 등의 반시계 방향의 배열로 후보들을 표시하도록 구성된다.
일 실시예에서 상기 컨트롤러는 예를 들어 상부 위치에 최고 빈도의 후보 그리고 최하부 위치에 두 번째로 많이 사용되는 후보, 그 왼편에 세 번째로 많이 사용되는 후보, 그 오른편에 네 번째로 많이 사용되는 후보 등의 교대로 마주보는 배열로 후보들을 표시하도록 구성된다.
일 실시예에서 상기 컨트롤러는 사용자 또는 읽기 설정으로부터 명령들을 수신하고, 이에 따라 배열 내에 후보들을 표시한다. 이러한 실시예에서 사용자는 후보들을 자신의 취향에 맞게 배열할 수 있다. 이러한 실시예에서는 또한 서비스 제공자가 배열 설정을 장치로 푸시하는 것이 가능할 수 있다.
일 실시예에서 상기 컨트롤러는 각 후보 세트에 대하여 고정 배열을 유지하도록 한다. 이러한 실시예에서 후보들의 순서 그리고 그들의 위치는 시간이 지남에 따라(또는 단순히 사용자 명령에 따라) 변경되지 않는다. 이는 사용자가 후보가 어디에 위치되는지를 보다 쉽게 학습할 수 있게 하고, 그 후보를 특정 제스처와 보다 쉽게 연관시킬 수 있게 한다. 이는 점점 더 많은 제스처들이 사용자에 의해 학습될수록, 사용자가 후보들을 신속하고 능률적으로 입력할 수 있게 한다.
위에 기재된 예에서, 사용자는 하나의 간단한 제스처 하나를 만듦으로써 단어 "great"를 입력할 수 있다.
도 5a 내지 도 5d는, 이하 주로 도 5로서 지칭되며 여기에서 상기 교시들에 따라 장치(500)의 일련의 스크린 샷 뷰를 보여준다. 이와 같은 장치는 이동 전화에 한정되는 것이 아니고 텍스트 입력을 수신할 수 있는 어떠한 장치라도 가능함을 주목해야 한다.
상기 장치(500)는 가상 키보드가 표시되는 디스플레이(503)를 가질 수 있다. 상기 가상 키보드는 글자와 연관된 다수의 가상 키들을 포함한다.
도 5a에서 사용자가 글자 'g'와 연관되어 있는 가상 키를 터치하고, 그러면 한 세트의 후보들이 표시된다. 컨트롤러는 터치 입력을 수신하고 이에 대한 응답으로 터치된 후보에 연관된 후보들을 포함하는 추가 세트의 후보들을 표시한다.
일 실시예에서 상기 후보들은 터치 포인트 주변에 배열된다. 이러한 예의 실시예에서 상기 후보들은 터치되고 있는 후보의 주변에 표시된다.
도 5b는 한 세트인 4개의 후보들이 "go"에 관련된 터치된 후보에 대한 추가 세트를 표시하고 있는 디스플레이를 보여준다.
표시된 후보들의 수는 스타일러스 폭과 후보들의 가용 수 뿐만 아니라 디스플레이 사이즈, 키패드 사이즈, 폰트 사이즈와 같은 디자인 이슈들에도 의존한다.
일 실시예에서 상기 추가 후보들은 후보들의 제1 세트와 동시에 표시된다. 이는 보여질 수 있고 선택 가능한 추가 옵션들을 제공한다.
일 실시예에서 상기 추가 세트는 상기 제1 세트를 오버랩한다.
일 실시예에서 상기 제1 세트는 상기 추가 세트가 표시되면 더 이상 표시되지 않는다.
일 실시예에서 상기 터치된 후보는 추가 세트가 표시될 때 표시된다. 상기 터치된 후보는 이러한 실시예에서 선택 가능하다.
일 실시예에서 상기 추가 세트의 후보들은 그들을 표시시키기 위한 후보의 어형 변화(inflection), 격의 변환(declination), 동사 활용형(conjugation)에 연관된다. 일 실시예에서 상기 추가 세트의 후보들은 그들을 표시시키기 위한 후보의 확장이다. 일 실시예에서 상기 추가 세트의 후보들은 그들을 표시시키기 위한 후보로 시작하는 단어들의 완성들일 수 있다. 그리고 일 실시예에서 상기 추가 세트의 후보들은 이러한 선택 가능한 것들의 조합이다.
도 5b에서 터치되고 있는 후보는 "go"이고, 표시되는 상기 후보들은 "went", "goes", "gone" 그리고 "going"이다. 입력을 위해 이미 마크된 것 즉, "go"를 실제적으로 변화시킨 "went"로 볼 수 있다. 비록 스펠링은 일치하지 않지만 "go"를 선택하는 것은 "went"에 도달될 것임을 사용자에게 직관시키기 때문에 단어 "went"는 "go"에 연관된다.
따라서 상기 후보들 및 상기 추가 후보들은 사용자에게 찾기 직관적이고 도달하기 쉬운 가용 후보들의 세트를 제공한다.
사용자들의 외국어 작문을 위해서, 이는 또한 상기 후보들이 어떻게 철자로 쓰여지는지를 정확히 알 필요 없이 단어들의 다른 형태들이 상기 후보들로 제시되는 것과 같은 지원을 제공한다.
도 5c에서 사용자는 "going"에 연관되어 있는 후보로 스타일러스를 민다. 이러한 실시예에서 터치된 후보는 그에 따라 마크된다. 이러한 실시예에서 상기 마킹은 다른 후보들의 그래픽 표시와는 다른 색상의 사용을 통해서 수행된다. 컨트롤러는 터치된 후보에 관한 선택 명령을 수신하고, 이에 응답하여 상기 후보에 연관된 단어 객체를 입력한다. 도 5d는 사용자가 도 5c로부터 터치된 후보를 해제하고 이에 따라 단어 "going"이 입력되고 텍스트 입력 영역에 표시되는 디스플레이를 보여준다.
위에 기재된 예에서 사용자는 하나의 단일 및 간단한 제스처를 만듦으로써 단어 "going"을 입력할 수 있다.
도 6a 내지 도 6e는, 이하 주로 도 6으로 지칭되며, 여기의 교시에 따른 장치(600)를 보여준다. 이와 같은 장치는 이동 전화에 제한되는 것이 아니고, 텍스트 입력을 수신할 수 있는 어떠한 장치라도 가능함을 주목해야 한다.
상기 장치(600)는 가상 키보드가 표시되는 디스플레이(603)를 가진다. 상기 가상 키보드는 글자에 연관된 다수의 가상 키들을 포함한다.
일 실시예에서 컨트롤러는 글자와 연관된 가상 키가 도 4와 연관하여 기재되었던 것과 동일한 방식으로 터치되었을 때 한 세트의 후보들을 표시하도록 한다.
일 실시예에서 후보는 제2 세트의 후보들과 연관되고, 사용자에게 더 많은 후보들이 사용 가능하다는 것을 나타낸다. 이와 같은 후보는 일 실시예에서 글자 "g"에 연관된 가상 키와 연관된 후보 세트를 위해 "g*"와 같이 연관된 글자 다음에 별표에 의해 나타낸다. 대안 실시예들에서 다른 마킹들은 "g…", "…", "MORE", "more" 등과 같은 것들이 사용될 수 있다. 일 실시예에서 색상은 후보가 마크되었음을 나타내기 위해 사용된다. 그러한 실시예에서 마크된 후보는 함께 표시된 다른 후보들과는 다른 색상 세트를 사용함으로써 표시된다.
일 실시예에서 상기 후보들은 터치 포인트 주변에 배열된다.
일 실시예에서 제2 세트의 후보들은 글자에 연관된 가상 키 주변에 표시되며, 여기서 가상 키는 터치 포인트이다. 그러한 실시예에서 더 많은 후보들이 사용 가능함을 나타내는 후보와 연관된 상기 가상 키는 제1 세트의 후보들과 재연관될 수 있고, 그 후보 상에서의 반복된 터치 입력은 컨트롤러가 제1 세트를 표시하는 것으로 재전환되도록 한다.
일 실시예에서 제2 세트는 제2세트가 사용 가능하다는 것을 지시하는 후보 주변에 표시되며, 여기서 후보는 터치 포인트이다. 이는 보다 능숙한 밀기 제스처들을 위해 제공된다. 그리고 또한 이는 더 많은 후보들이 표시되도록 허용한다. 게다가 제1 세트는 또한, 가능한 부분적으로, 동시에 표시될 수 있다.
일 실시예에서 제2 세트의 후보들은 제2 세트의 후보들이 여전히 사용 가능함을 나타내는 후보를 포함할 수 있다. 일 실시예에서 제2 세트의 후보들은 제1 세트의 후보들과 연관된 후보를 포함할 수 있다.
도 6a에서 사용자는 도 4a에서와 같이 표시되었던 가상 키를 터치한다. 컨트롤러는 제2 세트의 후보들과 연관되고 있는 후보를 지시하는 입력을 수신한다. 일 실시예에서 상기 입력은 글자 "g"에 연관되어 있는 터치된 가상 키로부터 제2 세트에 연관되어 있는 후보에 연관된 가상 키 다시 말해, "g*"로 마크된 가상 키로의 슬라이딩 제스처이다. 도 6b는 사용자가 "g"로부터 "g*"로 스타일러스를 드래그하고 그에 따라 그 후보 주변에 제2 세트의 후보들이 표시된 후의 디스플레이(603)을 보여준다.
일 실시예에서 도 6b를 보면 제1 세트의 후보들 대신에 제2 세트의 후보들이 표시된다. 제2 세트의 후보들은 "ground", "group", "girl", "green", "gone", "grow", "gave" 그리고 "game" 후보들을 포함한다.
일 실시예에서 접두사들은 예를 들어 "pre-"와 같은 말미 붙임표(hyphen)로 나타낸다.
일 실시예에서 접미사들은 예를 들어 "-fix"와 같은 개시 붙임표로 나타낸다.
일 실시예에서 상기 후보들은 이름들로 표시한다.
일 실시예에서 후보는 그 후보를 표시하는 이미지로서 표시된다. 이러한 실시예에서 사과는 후보 "apple"을 표시하기 위해 표시될 수 있다. 또 다른 이러한 실시예에서 이미지는 이름과 연관된 후보를 표시하기 위해 표시된다. 이러한 실시예에서 컨트롤러는 데이터베이스, 일 실시예에서 콘택트 데이터베이스를 통해서 검색하고 후보를 이미지와 매칭시키기 위해 배열된다. 예를 들어 어떤 후보가 "John"에 연관되고, 전화번호부에는 John Smith의 사진에 연관된 엔트리인 "John Smith"의 엔트리가 있다. 후보가 표시될 때 후보는 John Smith의 사진에 의해 표시된다. 대안 실시예에서 컨트롤러는 후보에 인접한 연관 사진을 표시하도록 한다. 이러한 실시예에서 사진의 선택은 컨트롤러가 그 사진과 연관된 전체 이름을 입력하도록 할 수 있다.
도 6c 및 6d는 도 6a에서 도 6b 그리고 도 5의 도면들의 실시예들의 조합을 보여준다. 컨트롤러는 제2 후보에 관련된 터치 입력을 수신하고, 이에 응답하여 한 세트의 추가 후보들을 표시한다. 상기 컨트롤러는 추가 후보에 관련된 입력을 수신하고 또한 추가 후보의 선택 명령을 수신하도록 더 구성된다.
도 6c에서 사용자는 단어 객체 "girl"에 연관된 후보로 스타일러스를 슬라이드하고, 이에 응답하여 컨트롤러는 단어 "girl"의 모든 형태들인 한 세트의 추가 후보들 즉, "girls"를 표시한다. 다른 가능한 후보들은 예를 들어 "girly"와 "girlish" (미도시)가 될 수 있다.
도 5b와 연관하여 기재된 바와 같이 상기 추가 세트의 후보들은 그들을 표시시키기 위한 후보의 어형 변화(inflection), 격의 변화(declination), 동사 활용형(conjugation)에 관련된다. 일 실시예에서 상기 추가 세트의 후보들은 그들을 표시시키기 위한 후보의 확장형들이다. 일 실시예에서 상기 추가 세트의 후보들은 그들을 표시시키기 위한 후보로 시작하는 단어들의 완성들일 수 있다. 그리고 일 실시예에서 상기 추가 세트의 후보들은 이러한 선택 가능한 것들의 조합이다.
컨트롤러는 제2 후보들의 하나에 관한 선택 명령을 수신한다. 일 실시예에서 상기 선택 명령은 터치 디스플레이(603)으로부터 스타일러스의 해제이다.
도 6e는 사용자가 제2 세트의 후보 밖으로 스타일러스를 밀고 입력으로 그 제2세트의 후보를 선택한 후의 디스플레이(603)을 보여준다. 이러한 예에서 "girls"에 연관된 후보가 선택된다.
위에 기재된 예에서 사용자는 하나의 간단한 제스처를 만듦으로써 단어 "girls"을 입력할 수 있다.
일 실시예에서 상기 추가 세트의 후보들의 후보들은 터치된 후보의 주변에 고르게 분포된다. 일 실시예에서 상기 추가 세트의 후보들의 후보들은 터치된 후보의 하나 이상의 측면에 인접하여 분포된다. 이는 상기 추가 세트의 후보들이 표시되고 있는 동안, 제1 세트의 후보들이 보여지도록 하여서, 사용자가 제1 세트 후보들 중 하나를 입력할 가능성을 허용하도록 한다.
일 실시예에서 컨트롤러는 후보가 입력을 위해 선택되었을 때 스페이스 문자를 추가한다. 예를 들어 단어 "done"이 선택되었을 때 그 결과로 초래된 스트링은 "done "일 것이다.
일 실시예에서 컨트롤러는 접두사에 연관되어 있는 후보가 입력을 위해 선택되었을 때 텍스트에 스페이스 문자를 추가하지 않는다. 예를 들어, 접두사 "en-"가 선택되었을 때 그 결과로 초래된 스트링은 "en"일 것이다.
일 실시예에서 컨트롤러는 접미사에 연관되어 있는 후보가 입력을 위해 선택되었을 때 텍스트로부터 바로 앞의 스페이스 문자를 삭제한다. 예를 들어, 스트링 "enter "를 초래하는 단어 "enter"가 이미 입력 완료되고 접미사 "-ed"가 입력을 위해 선택되었을 때 그 결과로 초래된 스트링은 "entered"일 것이다.
일 실시예에서 컨트롤러는 표시된 후보들 위에서 원형 또는 나선의 움직임을 표시하는 터치 입력을 수신한다. 그리고 나서 컨트롤러는 제2 세트의 후보들을 디스플레이하도록 한다.
도 7a는 사용자가 글자 'e'에 연관되어 있는 가상 키를 터치하고 컨트롤러는 수신된 터치 입력에 응답하여 한 세트의 후보들을 표시하는 장치를 보여준다. 상기 후보들은 "every", "each", "earth", "enough", "example", "end", "even" 그리고 "ever"이다. 도 7b에서 사용자는 단어 "earth"에 연관되어 있는 후보를 터치하고 있다. 도 7c를 보면 사용자가 회전 움직임을 실행하고 단어 "example"에 연관되어 있는 후보를 터치하면, 다시 컨트롤러는 이를 검출하고 도 7d에 도시된 바와 같이 이에 응답하여 제2 세트를 표시한다. 제2 세트의 단어 객체들은 "en-", "-ed", "everything", "ever-", "easy", "-est", "-er" 그리고 "else"이다.
일 실시예에서 상기 후보들은 터치 포인트 주변에 배열된다. 이러한 예의 실시예에서 상기 후보들은 터치되고 있는 가상 키는 주변에 표시되며, 여기서 가상 키는 터치 포인트이다.
일 실시예에서 제2 세트를 지시하는 후보(도 6a에 마크된 "g*")는 원형 또는 나선 움직임에 따라 동일한 제2 세트에 연관되어 표시된다. 이러한 본보기의 실시예에서는 그렇지 않다.
일 실시예에서 제2 세트의 후보들을 지시하는 후보는 원형 또는 나선 움직임과는 다른 제2 세트와 연관되어 표시된다. 일 예로, 하나의 제2 세트는 단어 후보들을 포함할 수 있고, 또 다른 제2 세트는 적절한 이름 후보들을 포함할 수 있다.
일 실시예에서 시계 방향의 원형 또는 회전 움직임은 컨트롤러에게 다음 후보 세트로 전환하도록 지시한다.
일 실시예에서 반 시계 방향의 원형 또는 회전 모션은 컨트롤러에게 이전 후보 세트로 전환하도록 지시한다.
일 실시예에서 상기 후보 세트들은 논리적으로 링크된 루프의 일부이고, 그 결과 지속적인 회전 이동은 가상 키들 위한 가용한 후보 세트들을 순서대로 표시하고 그리고 나서 다시 제1 후보 세트로 되돌아가는 결과를 초래할 것이다.
회전 방향에 연관된 후보 세트들의 순서는 언어 그리고 문화적 선호도에 의존하고 설계 이슈이라는 것을 주목해야 한다.
일 실시예에서 컨트롤러는 이전에 입력된 글자들을 참작하여, 입력될 단어의 완성들인 한 세트의 후보들을 표시하도록 구성된다. 일 실시예에서 참작된 글자들은 최근에 입력된 스페이스 문자 다음에 오는 글자들이다. 일 실시예에서 참작된 글자들은 최근에 입력된 붙임표(hyphen) 문자 다음에 오는 글자들이다.
일 실시예에서 컨트롤러는 위의 실시예들 중 어떤 실시예에라도 기재된 바와 같이 단어 완성들과 현재 처리되고 있는 가상 키에 연관된 단어 객체들 모두에 연관하는 후보들을 표시하도록 한다.
도 8a 및 8b는 사용자가 도 8a에서 보듯이 2개의 글자 'h'와 'e'를 이미 입력한 예를 보여준다. 사용자가 'l'을 터치함에 따라, 도 8b에 보듯이 후보들 "hello", "hell", "held", "help", "Helen" 그리고 "helicopter"가 표시된다.
사용자가 후보를 터치함에 따라, 컨트롤러는 위 실시예에 기재된 바와 같이 그 후보를 식별하도록 구성된다.
일 실시예에서 후보 세트는 단어 완성이 될 모든 후보들의 세트에 연관된 후보를 포함한다. 일 실시예에서 이러한 후보는 "…"로 마크된다. 위 예에서 단어들 "hello", "hell", "held", "help", "Helen" 그리고 "helicopter"는 제1 세트의 후보들에서 표시되지 않고, "…"로 마크된 후보가 표시될 것이고, 상기 후보의 선택 또는 터치에 따라 "hello", "hell", "held", "help", "Helen" 그리고 "helicopter"에 연관된 후보들이 표시될 것이다. 제1 세트에서는 "1"로 시작하는 단어 객체들에 연관된 후보들이 표시될 것이다.
일 실시예에서 컨트롤러는 이전에 입력된 단어들에 참작하여 입력될 다음 단어의 예측들인 한 세트의 후보들을 표시하도록 한다. 일 실시예에서 단어 예측은 이미 입력된 단어 하나 이상에 기초된다.
일 실시예에서 단어 예측은 이전에 입력된 단어들의 문맥에 기초된다. 예를 들어, 만일 사용자가 기차에 연관한 단어들을 이전에 입력하였다거나, 또는 만일 사용자가 기차에 연관한 단어들을 포함하는 메시지에 답변하는 중이라면, 컨트롤러는 기차에 연관된 예측 후보들을 제공한다.
일 실시예에서 컨트롤러는 한 단어 이상에 연관하는 후보들을 제공하도록 한다. 일 실시예에서 하나의 후보와 연관한 복수의 단어들은 결합되었을 때 하나의 의미를 가진다. 그런 단어들의 예들로는 "train station", "ticket line", "picket fence"가 있다.
일 실시예에서 컨트롤러는 위 실시예들 중 어떤 실시예에라도 기재된 바와 같은 단어 예측들에 연관한 후보들과, 현재 처리되고 있는 가상 키에 연관된 단어 객체들에 연관된 후보들이 동시에 표시하도록 한다.
도 9a는 단어 "train"을 포함하는 메시지에 응답하여, 사용자가 이전에 입력한 단어들인 "Hi, let's meet in the"을 갖는 장치(미도시)의 스크린 뷰(903)을 보여준다. 컨트롤러는 글자에 연관한 터치 입력을 수신하고, 이에 응답하여 그 글자로 시작하는 후보들을 제시한다. 컨트롤러는 더 나아가 이전에 입력된 단어들 그리고 현재 작성중인 문맥에 연관되는 단어 예측 후보들을 제시한다. 도 9b는 글자 't'에 연관된 가상 키를 사용자가 터치하였을 때의 디스플레이 뷰를 보여준다. 컨트롤러는 도 9b에 보듯이 부분 단어(partial word)들 "tac", "tol", "te", "the", "thi" 뿐만 아니라 단어들 "station" 그리고 "ticket line"에 연관된 한 세트의 후보들 그리고 "t*"로 마크된 제2 세트를 표시하기 위한 후보를 표시한다. 이러한 케이스에서 "station" 그리고 "ticket line"에 연관된 후보들은 글자 't'에 연관되지 않지만, 기차에 연관된 메시지의 문맥에서, "Hi, let's meet m the" 다음에 오는 단어들의 시퀀스 또는 다음 단어의 예측과 연관된다. 이러한 케이스에서 그 후보들은 어떤 가상 키가 터치되고 있는 중인지와 무관하게 표시된다.
사용자가 후보를 터치하면, 위 실시예들에 기재된 바와 같이, 도 9c를 보듯이 "ticket line"에 연관된 후보가 선택되는 도 9c를 보듯이, 컨트롤러는 그 후보에 연관된 단어(들)를 입력한다.
일 실시예에서 후보 세트는 단어 예측될 모든 후보들의 세트에 연관된 후보를 포함한다. 일 실시예에서 이러한 후보는 "…"로 마크된다. 위 예에서 단어들 "station" 그리고 "ticket line"은 제1 세트의 후보들에서 표시되지 않고, "…"로 마크된 후보가 표시될 것이고, 상기 후보의 선택 또는 터치에 따라 "station" 그리고 "ticket line"에 연관된 두 개의 후보들이 표시될 것이다.
일 실시예에서 예측에 연관된 후보들은 고정이다.
일 실시예에서 예측에 연관된 후보들은 동적이고 사용에 따라 변화한다. 후보가 변화하는 것에 관한 사용 원칙의 예들은 사용의 빈도, 저장된 패스워드들과 같은 애플리케이션 데이터, 그리고 그 애플리케이션에 의해 좌우된 특정 단어 조합들이다.
일 실시예에서 제1 입력 문자에 대해 표시된 후보들은 고정(가능한 사용자 정의된) 설정에 연관되는 반면, 임의의 입력 문자에 대해 표시된 후보들은 가능한 동적 단어 리스트에 기초된 단어 완성에 연관될 수 있다. 이러한 실시예의 장점은 제1 글자 상에 이미 가용한 적절한 사용자 설정을 갖는, 가장 일반적인 단어들이 암기될 수 있고 그 후보들을 읽지 않고서도 매우 빨리 입력할 수 있는 반면, 덜 일반적인 단어들은 하나 이상의 추가 글자들의 입력 후에 계속 사용 가능하게 되는 것이다. 그것은 또한 각 단어의 첫 번째 글자에 대한 비교할 수 있을 만큼 큰 완성 단어 리스트 내에서의 룩업(lookup)을 피할 수 있다. 일 실시예에서 이는 도 9에 관해 기재된 바와 같이 단어 예측과 더 결합된다.
일 실시예에서 각 후보는 방향에 연관되고, 컨트롤러는 방향을 지시하는 입력을 수신하고 상기 방향에 따라서 후보를 식별하도록 한다. 이러한 실시예에서 사용자는 스타일러스 또는 다른 입력 수단들을 후보에까지 계속 이동할 필요가 없다. 그것은 단지 원하는 후보의 방향을 지시하는 것만이 필요하다. 이는 긴 후보들을 포함하는 더 긴 세트들에 대해서 특히 유용하다. 예를 들어 만일 맨 위 열 세 개 후보들이 "helicopter", "helienecephalitis" 그리고 "helicultural"이고, 그 글자에 연관된 터치 포인트로부터 오른 편 후보까지의 거리가 매우 길고, 사용자는 원하는 후보에 도달하기 위해 또 다른 후보를 통해 스타일러스를 아마도 이동시켜야 할 것이다. 이러한 실시예에서 각 후보는 왼쪽 위 = "helicopter", 위 = "helienecephalitis" 그리고 오른쪽 위 = "helicultural" 방향에 연관된다. 그리고 나서 사용자는 원하는 후보로서 "helicultural"를 식별하기 위해 스타일러스를 대각선으로 오른쪽 위로 이동시키기만 하면 된다. 8개의 후보들을 갖는 일 예의 실시예에서 각 후보는 위 왼쪽, 위, 위 오른쪽, 오른쪽, 아래 오른쪽, 아래, 아래 왼쪽, 그리고 왼쪽 방향 중 하나에 연관될 것이다. 6개의 후보들을 갖는 일 예의 실시예에서 각 후보는 위 외쪽, 위 오른쪽, 오른쪽, 아래 오른쪽, 아래 왼쪽, 그리고 왼쪽 방향들과 연관될 것이다. 후보들이 어떻게 배열될 수 있는지 그리고 어떤 방향에 연관될 것인지에 관한 많은 대안들이 있으며, 이는 스크린 사이즈, 키패드 레이아웃, 후보들의 수, 스타일러스의 사이즈 등과 같은 이슈들에 의존한다는 것을 주목해야 한다.
일 실시예에서 각 후보에 연관된 방향들은 실제 터치 포인트에 가깝게 그래픽적으로 나타낸다. 도 10에서, 아래에 보듯이, 지시는 구획된 원(1060)으로 만들어진다. 각 세그먼트(1065)는 방향을 표시하고, 만일 스타일러스(1040) 또는 손가락이 그 세그먼트(1065)로 움직이게 되면 그 세그먼트(1065)에 의해 표시되는 방향에 연관된 후보가 식별된다.
일부 케이스들에서 후보는 사용되는 스타일러스에 의해서 사용자의 시선으로부터 가로막힐 수 있고, 이러한 케이스들에서 만일 실제 후보들이 터치 포인트로부터 옵셋을 두고 표시된다면 유익하게 될 것이다. 이러한 실시예에서 스타일러스에 의해 만들어지는 모든 이동들은 식별된 글자 주변에 위치된 일 영역에서 수신될 것이고, 그리고 표시된 후보들의 영역 내에서 만들어지도록 해석될 것이다.
따라서 사용자는 문자 스트링을 입력하기 위한 간단하고 연속적인 제스처들 또는 스트로크들을 계속 하는 동안에도 모든 후보들을 분명히 볼 수 있게 될 것이다.
도 10a 및 10b는, 이하 도 10으로 지칭되며, 여기의 교시에 따른 대안 장치(1000)을 보여준다. 이러한 장치는 텍스트 입력을 수신할 수 있는 어떠한 장치 또는 디바이스라도 가능함을 주목해야 한다.
상기 장치(1000)는 디스플레이(1003)(이러한 예에서는 터치 디스플레이(1003))와 키패드(1004)(이러한 예에서는 상기 터치 디스플레이(1003) 상에 표시되는 가상 쿼티 키패드(1004))를 가진다.
도 10a에서 사용자는 글자 'G'에 연관되고 있는 가상 키(1004b)를 터치하면, 컨트롤러는 글자 'G'에 연관되고 있는 한 세트의 후보를 표시함으로써 응답한다. 이러한 예에서 상기 후보들은 "Good", "Get", "Going", "Give", "G*", "Great", "Go" 그리고 "Got"이다.
또한 도 10a에 표시된 것은 스타일러스가 어떤 방향을 지시하는지에 관한 그래픽 방향 지시자(1060)는 후보를 선택하기 위해 이동될 것이다. 이러한 실시예에서 모든 후보들은 방향에 연관된다. 이러한 예에서 그 연관들은 "Good" - 위 왼쪽, "Get" - 위, "Going" - 위 오른쪽, "Give" - 왼쪽, "G*" - 오른쪽, "Great" - 아래 왼쪽, "Go" - 아래, 그리고 "Got" - 아래 오른쪽이다.
방향 지시를 표시하는 것은 선택적이며 설계자 또는 사용자에 의해 설정될 수 있음을 주목해야 한다.
일 실시예에서 상기 오프셋 표시된 후보 세트(1070)은 투영된 터치 포인트 주변에 표시된다. 터치 디스플레이(1003)를 이용하는 이러한 실시예에서 컨트롤러는 수신된 터치 포인트를 그 수신된 터치 포인트가 오프셋 표시될 투영된 터치 포인트로 맵핑시킨다.
도 10b에서 사용자는 스타일러스(1040)를 아래 오른쪽 방향을 지시하는 세그먼트(1065)로 아래 및 오른쪽으로 이동한다. 이러한 예에서 후보 "Got"이 이 방향에 연관된다.
컨트롤러는 스타일러스의 이동을 수신하고 방향을 결정하고, 이러한 방향으로부터 표시된 세트에서 어떤 후보들이 이 방향에 연관되는지를 결정하고, 이러한 후보를 제1 후보로서 식별한다.
상기 식별된 제1 후보 "Got"은 선택을 위해 식별된 후보를 사용자에게 알릴 수 있도록 오프셋 표시된 후보 세트(1070) 내에서 마크된다.
이러한 실시예에서 상기 식별된 후보는 그 후보의 색상을 전환시킴으로써 마크된다. 이미 여기에서 논의된 바와 같이 다른 마킹들도 가능함을 주목해야 한다.
대안 실시예에서 상기 후보들은, 오른손잡이 사용자에 적합하도록, 후보들의 더 아래 오른쪽 코너의 후보들의 빈 공간 또는 공동(void)을 남겨두고 터치 포인트 주변에 표시된다. 대안 실시예에서 상기 후보들은, 왼손잡이 사용자에 적합하도록, 후보들의 더 아래 왼쪽 코너의 후보들의 빈 공간 또는 공동(void)을 남겨두고 터치 포인트 주변에 표시된다.
도 4에서 도 10까지를 참조하여 기재된 모든 특징들은 디자인 원칙에 따라 전부 쉽게 결합될 수 있음을 주목해야 한다.
도 11a에서 11d는, 여기서는 주로 도 11로 지칭되며, 여기의 교시에 따른 대안 장치(1100)를 보여준다. 이러한 장치는 텍스트 입력을 수신할 수 있는 어떤 장치 또는 디바이스라도 가능함을 주목해야 한다.
상기 장치(1100)는 디스플레이(1103)과 터치패드(1105)를 가진다.
일 실시예에서 상기 터치패드(1105)는 상기 장치(1100)에 통합된다.
일 실시예에서 상기 터치패드(1105)는 상기 장치(1100)로부터 분리된다.
도 11a는 디스플레이(1103) 상에 표시되는 키패드를 보여준다. 컨트롤러는 상기 터치 패드(1105)를 통해서 입력을 수신하고, 디스플레이(1103) 상에 표시되는 콘텐트를 배경으로 상기 입력을 맵핑시킨다. 일반적으로 알려진 바와 같이 상기 터치 패드(1105)는 디스플레이(1103) 상의 콘텐트를 제어하는데 이용될 수 있다.
컨트롤러는 터치 패드 상의 터치 포인트를 디스플레이(1103) 상의 투영된 터치 포인트에 맵핑시킨다. 컨트롤러는 표시된 키패드(1104) 내에 포함되는 키(1104a)를 식별하는 입력을 상기 터치 패드를 경유하여 수신하도록 더 구성된다. 상기 키(1104a)는 글자에 연관되고, 컨트롤러는 식별된 키에 연관되는 글자로 시작하는 단어 객체들에 연관되는 한 세트의 후보들을 표시하도록 구성된다.
도 11b에서 사용자는 글자 't'에 연관되어 있는 키에 맵핑된 위치에서 터치패드(1105) 상을 터치한다. 컨트롤러는 이에 대한 응답으로 한 세트의 후보들을 표시한다. 상기 후보들은 단어 객체들 "tac", "tol", "te", "the", "thi" 그리고 "t*"에 연관된다. 이러한 예에서 6개의 후보들이 표시되지만, 기재했던 바와 같이 표시되는 후보들의 수는 다수의 설계 및 런타임 원칙에 의존한다.
일 실시예에서 상기 후보들은 투영된 터치 포인트 주변에 배열된다. 이러한 예의 실시예에서 상기 후보들은 터치되고 있는 가상 키에 대한 디스플레이 상의 맵핑된 위치 주변에 표시된다.
위 실시예에 참조하여 기재된 모든 후보 가능성들은 도 11에 참조하여 기재된 실시예들에서 구현되는 것이 가능함을 주목해야 한다.
도 11c에서 사용자는 터치패드(1105) 상에서 단어 객체 "the"에 연관된 디스플레이 위치에 맵핑된 위치로 민다.
일 실시예에서 컨트롤러는 선택 명령을 수신하고, 이에 대한 응답으로 현재 식별된 후보에 연관되어 있는 단어 객체를 입력한다.
도 11d에서 사용자는 스타일러스를 터치패드(1105)로부터 해제하고, 그러면 컨트롤러는 텍스트 영역(1110)에 표시된 단어 객체 "the"를 입력한다.
비록 도 11에 연관하는 위 실시예들은 터치패드(1105) 상의 위치들을 디스플레이(1103)로 맵핑하는 것으로 기재되고 있지만, 키패드 및/또는 한 세트의 후보들이 표시되는 디스플레이(1103) 위에서 이동되는 커서를 제어하기 위해 터치패드를 사용하는 것도 가능함을 주목해야 한다.
도 12a 내지 12d는, 이하 주로 도 12로 지칭되며, 여기의 교시에 따른 대안 장치(1200)를 보여준다. 이러한 장치는 텍스트 입력을 수신할 수 있는 어떠한 장치라도 가능함을 주목해야 한다.
상기 장치는 디스플레이(1203)와 카메라(1230)과 같은 광학적 입력 디바이스를 가진다. 또한 도 12에 보여지는 것은 종이(1220)이다.
컨트롤러(미도시)는 카메라(1230)으로부터 입력을 수신하고, 종이(1220) 위에 만든 어떤 이동들 또는 제스처들을 검출한다. 컨트롤러는 이러한 이동들을 제어 신호들로서 해석한다.
종이(1220)이 그림들을 가져옴으로써 컨트롤러는 어떤 이동들이 종이(1220) 상에 위치들을 식별하게 만드는지를 결정할 수 있다.
컨트롤러는 더 나아가 종이(1220) 상에 위치 지시를 디스플레이(1203) 상에 표시되고 있는 콘텐트에 대한 위치 지시로서 해석한다.
이는 터치 패드의 대안으로서 종이를 이용하는 장치를 제공한다.
텍스트의 입력은 도 10에 연관한 실시예에 연관하여 기재하였던 바와 같이 유사하게 성취된다.
도 12a는 쿼티(QWERTY) 스타일 키패드(1204)가 디스플레이(1203) 상에 표시되는 장치(1200)를 나타낸다.
도 12a에서 사용자는 표시된 키패드(1204) 중 하나의 키(1204a)에 상응하는 디스플레이(1203) 상의 위치와 매핑된 종이(1220) 위의 위치를 스타일러스(1240)로 가리키고 있다. 상기 키(1204a)는 하나의 글자와 관련되며 컨트롤러는 상기 식별된 키와 관련된 상기 글자로 시작하는 단어 객체와 관련된 후보들의 세트를 표시하도록 더 구성된다.
일 실시예에서 상기 후보들은 투영된 터치 지점 주위에 배열된다. 본 실시예에서 상기 후보들은 터치되고 있는 가상 키를 위한 디스플레이 상의 상기 매핑되거나 지시된 위치 주위에 표시된다.
도 12b에서 사용자는 글자 ‘t’와 관련되는 키와 매핑된 위치를 종이(1220) 위에서 터치한다. 컨트롤러는 그에 대한 응답으로 후보들의 세트를 표시한다. 후보들은 단어 객체 “tac”, “tol”, “te”, “the”, “thi” 및 “t*”와 관련된다. 본 예시에서는 여섯 개의 후보들이 표시되지만, 설명한 바와 같이 표시되는 후보들의 숫자는 다수의 설계 또는 런타임 원칙에 의존한다.
위의 실시예들과 관련하여 설명된 모든 후보 가능성이 도 12와 관련하여 설명되는 실시예들에 구현될 수 있음이 주목되어야 한다.
도 12c에서 사용자는 단어 객체 “the”와 관련된 후보에 상응하는 디스플레이(1203) 상의 위치와 매핑된 위치로 종이(1220) 상에서 스타일러스를 민다.
일 실시예에서 상기 컨트롤러는 선택 명령을 수신하고 그에 대한 응답으로 현재 식별된 후보와 관련된 단어 객체를 입력하도록 구성된다.
도 12d에서 사용자는 종이(1220)로부터 스타일러스를 해제하고 컨트롤러는 텍스트 영역(1210)에 표시되어 있는 단어 객체 “the”를 입력한다.
일 실시예에서 상기 컨트롤러는 스타일러스, 손가락 또는 다른 포인팅 도구(1240)와 종이(1220) 사이의 거리를 알아내고 사용자에 의해 누름 동작이 행해지고 있는지 아닌지를 결정하도록 더 구성된다.
이러한 실시예에서 컨트롤러는 도 10과 관련하여 위에서 설명한 바와 유사하게 터치하는 것과 누르는 것을 구별할 수 있다.
일 실시예에서 상기 장치는 프로젝터(미도시)와 함께 구성될 수 있다. 컨트롤러는 상기 프로젝터를 사용하여 키패드(1204)를 표시한다. 투영 영역에 종이(1220)를 설치함으로써 표시된 내용과 매핑되는 상기 종이(1220) 상의 위치들에 맞게 키패드(1204)의 뷰가 정렬될 수 있어 사용자는 스타일러스를 놓아야 할 곳에 관한 시각적 안내를 받게 된다.
이하에서 일반적으로 도 13이라고 참조되는, 도 13a 내지 도 13d는 여기서의 교시에 따른 또 다른 장치(1300)를 나타낸다. 이와 같은 장치는 텍스트 입력을 수신할 수 있는 어떠한 장치도 될 수 있음을 주목하여야 한다.
상기 장치는 디스플레이(1303) 및 제어 입력 수단(1340)을 포함한다. 상기 제어 입력 수단은 모션 디텍터(미도시)를 포함한다. 모션 디텍터는 본 발명이 속하는 기술 분야에서 일반적으로 알려져 있는 것이어서 그 내부 기능에 대한 자세한 설명은 여기서 제공되지 않을 것이다.
컨트롤러는 상기 디스플레이(1303) 상에 복수의 키를 포함하는 키패드(1304)를 표시하도록 구성된다. 상기 키(1304a) 중 적어도 하나는 글자와 연관된다. 도 13a를 참조하면, 상기 컨트롤러는 상기 디스플레이 상에 커서(1345)를 표시하도록 구성된다.
상기 컨트롤러는 상기 모션 센서로부터 모션 신호를 수신하고 이를 커서 제어 신호로 해석하도록 구성된다.
이는 상기 제어 입력 수단을 움직임으로써 커서를 제어할 수 있는 가능성을 사용자에게 제공한다.
컨트롤러는 나아가 식별된 키와 관련된 글자로 시작하는 단어 객체와 관련되는 후보들의 세트를 표시하도록 구성된다.
도 13b에서 사용자는 키(1304a)를 식별하는 상기 표시된 키패드(1304) 내에서 상기 키(1304a) 위로 커서(1345)를 위치시킨다. 본 예시에서 키(1304a)는 글자 ‘t’와 관련되고 컨트롤러는 그에 대한 응답으로 후보들의 세트를 표시한다. 상기 후보들은 단어 객체 “tac”, “tol”, “te”, “the”, “thi” 및 “t*”와 관련된다. 본 예시에서 여섯 개의 후보들이 표시되지만 설명된 바와 같이 표시되는 후보들의 숫자는 다수의 설계 또는 런타임 원칙에 따른 숫자에 의존한다.
일 실시예에서 상기 후보들은 투영된 터치 지점 주위에 배열된다. 본 실시예에서 상기 후보들은 커서가 위치한 가상 키 주위에 표시된다.
위의 실시예들과 관련하여 설명된 모든 후보 가능성이 도 13과 관련하여 설명되는 실시예들에 구현될 수 있음이 주목되어야 한다.
도 13c에서 사용자는 커서를 단어 객체 “the”와 관련된 후보 위로 위치시킨다.
일 실시예에서 상기 컨트롤러는 선택 명령을 수신하고 그에 대한 응답으로 현재 식별된 후보와 관련된 단어 객체를 입력하도록 구성된다.
일 실시예에서 상기 컨트롤러는 특정 제스처를 표현하는 수신된 모션 신호를 선택 명령으로 해석하도록 구성된다. 이러한 일 실시예에서 사용자는 제어 입력 수단(1340)을 흔듦으로써 한 후보를 선택할 수 있다.
일 실시예에서 상기 제어 입력 수단(1340)은 선택 키를 포함하고 상기 컨트롤러는 상기 선택 키로부터 입력을 수신하여 상기 입력을 선택 명령으로 해석하도록 구성될 수 있다.
도 13d에서 사용자는 상기 선택 키를 누르고 상기 컨트롤러는 텍스트 영역(1310)에 표시되고 있는 단어 객체 “the”를 입력한다.
이하에서 일반적으로 도 18이라고 참조되는, 도 18a 내지 도 18d는 여기서의 교시에 따른 또 다른 장치(1800)를 나타낸다. 이와 같은 장치는 텍스트 입력을 받을 수 있는 어떠한 장치도 될 수 있음을 주목하여야 한다.
상기 장치(1800)는 터치 감지 디스플레이(1803)를 가진다. 컨트롤러(미도시)는 상기 디스플레이로부터 터치 입력을 수신하고 그와 관련하여 상기 입력을 필기된 문자로 해석하도록 구성된다.
일 실시예에서 상기 컨트롤러는 터치 입력의 완성된 시퀀스를 가리키는 사용자의 행동을 감지하고, 그에 대한 응답으로 상기 터치 입력을 필기된 문자 혹은 문자의 시퀀스로 해석하며, 또한 상기 필기된 문자 혹은 문자의 시퀀스와 관련된 단어 객체 후보들의 세트를 표시하도록 구성된다. 일 실시예에서, 도 18, 19 및 20에 관련된 예시에서와 같이, 완성된 입력을 가리키는 상기 사용자의 행동은 스타일러스의 움직임을 소정의 기간 이상 중지하는 것이다. 또 다른 실시예에서, 상기 사용자의 행동은 스타일러스를 상기 터치 감지 디스플레이로부터 해제하는 것일 수 있다.
도 18a에서 사용자는 글자 “G”를 형성한다. 도 18b를 참조하면, 사용자가 소정의 기간 동안 움직임을 중지하면 컨트롤러는 상기 입력을 글자 “G”로 해석하고 단어 후보의 세트를 표시한다. 본 예시에서 상기 후보들은 “Good”, “Get”, “Going”, “Give”, “Great”, “Go”, “Got” 및 위의 다른 예시들과 관련하여 설명되는 바와 같이 추가 후보들을 나타내는 특수 후보 “G*”이다.
일 실시예에서 상기 컨트롤러는 입력을 위해 상기 식별된 후보를 선택하는 선택 명령을 수신하도록 구성된다. 일 실시예에서, 도 18과 관련된 예시에서와 같이, 상기 선택 명령은 스타일러스를 상기 터치 감지 디스플레이로부터 해제하는 것이다.
도 18c 에서 사용자는 후보 “Great”로 스타일러스를 밀고 상기 컨트롤러는 상기 후보의 시각적 표현을 변경함으로써 응답하여 그것이 식별되었음을 나타낸다. 도 18d를 참조하면, 상기 사용자가 스타일러스를 상기 디스플레이로부터 해제하면, 식별된 후보는 입력을 위해 선택되고 텍스트 입력 영역에 표시된다.
이하에서 일반적으로 도 19라고 참조되는, 도 19a 및 도 19b는 여기서의 교시에 따른 또 다른 장치(1900)를 나타낸다. 이와 같은 장치는 텍스트 입력을 받을 수 있는 어떠한 장치도 될 수 있음을 주목하여야 한다.
상기 장치(1900)는 터치 감지 디스플레이(1903)를 가진다. 컨트롤러(미도시)는 상기 디스플레이(1903)로부터 터치 입력을 수신하고 그와 관련하여 상기 입력을 필기된 문자로 해석하도록 구성된다.
도 19a에서 사용자는 이전에 글자 “h” 및 “e”를 입력하였고 상기 디스플레이(1903)에 단지 글자 “l”을 형성한다. 상기 컨트롤러는 글자 시퀀스 “hel”로 시작하는 후보들의 세트를 표시함으로써 응답한다. 본 예시에서 후보들은 "hello", "help", "hell", "helicopter", "Helen" 및 "held"이다. 후보들의 식별과 선택은 도 18과 관련된 예시와 동일하다.
이하에서 일반적으로 도 20이라고 참조되는, 도 20a 및 도 20b는 여기서의 교시에 따른 또 다른 장치(2000)를 나타낸다. 이와 같은 장치는 텍스트 입력을 받을 수 있는 어떠한 장치도 될 수 있음을 주목하여야 한다.
상기 장치(2000)는 터치 감지 디스플레이(2003)를 가진다. 컨트롤러(미도시)는 상기 디스플레이(2003)로부터 터치 입력을 수신하고 그와 관련하여 상기 입력을 필기된 문자로 해석하도록 구성된다.
도 20a에서 사용자는 글자열 “HEL”을 상기 디스플레이(2003) 상에 형성한다. 도 20b를 참조하면, 상기 사용자가, 계속 디스플레이(2003)를 터치하면서, 소정의 기간 동안 움직임을 정지하면, 상기 컨트롤러는 상기 입력을 글자 시퀀스 “HEL”로 해석하고 그에 대한 응답으로 이 시퀀스로 시작하는 단어 후보들의 세트를 표시한다. 본 예시에서, 상기 후보들은 "hello", "help", "hell", "helicopter", "Helen" 및 "held"이다. 후보들의 식별과 선택은 도 18과 관련된 예시와 동일하다.
대안 실시예에서 상기 컨트롤러는 상기 예시와 유사한 방식으로 연속된 필기를 해석하도록 더 구성된다. 이는, 이하에서 일반적으로 도 21로 참조되는, 도 21a 및 도 21b에 도시되어 있다.
도 21a를 참조하면, 도 20과 관련된 예시에서와 같이, 사용자는 텍스트 스트링 “hel”을 입력하지만, 이번에는 글자들 사이에서 스타일러스나 손가락을 들어올리지 않는 연속적 움직임으로 입력한다. 도 21b를 참조하면, 상기 사용자가 상기 글자열 “hel”의 입력 이후에 소정의 기간 이상 움직임을 멈추게 되면, 상기 컨트롤러는 단어 후보들의 세트를 표현함으로써 응답한다. 본 예시에서, 상기 후보들은 "hello", "help", "hell", "helicopter", "Helen" 및 "held"이다. 후보들의 식별과 선택은 도 18과 관련된 예시와 동일하다.
도 18, 19, 20 및 21과 관련하여 설명된 실시예는 도 4, 5, 6, 7, 8, 9 및 10과 관련하여 설명된 실시예와 결합될 수 있고, 도 11, 12 및 13과 관련된 예시에서 설명된 사용자 상호작용 패러다임에 동일하게 적용될 수 있음이 이해되어야 한다.
이하에서 일반적으로 도 14라고 참조되는, 도 14a 내지 도 14d는 여기서의 교시에 따른 또 다른 장치(1400)를 나타낸다. 이와 같은 장치는 텍스트 입력을 받을 수 있는 어떠한 장치도 될 수 있음을 주목하여야 한다.
상기 장치(1400)는 디스플레이(1403) 및 키패드(1404)를 가진다. 일 실시예에서 상기 키패드는 쿼티(QWERTY) 스타일 키패드이다.
컨트롤러(미도시)는 키를 식별하거나 참조하는 입력을 수신하도록 구성된다. 상기 입력은 사용자가 키패드의 키(1404a)를 누르거나 탭(tap)함으로써 생성된다. 상기 키패드(1404)의 적어도 복수의 키가 한 글자와 연관된다.
일 실시예에서 상기 키패드(1404)는 터치 감지 키를 포함한다. 이러한 키는 키가 눌려짐 없이 키가 터치되었는지 아닌지를 감지할 수 있다. 이하의 예시에서는 터치 감지 키가 터치되는 것과 키가 눌리는 것 간에 구별이 없을 것이다.
도 14a의 실시예에서 글자 ‘e’와 연관된 키가 눌려진다.
상기 컨트롤러는 나아가 입력 수신에 대한 응답으로 식별된 상기 글자와 관련되는 후보들의 세트를 표시하도록 구성된다. 전술한 바와 같이 일 실시예에서, 상기 후보는 식별된 문자로 시작하는 단어 또는 접두사나 접미사와 같은 다른 단어 객체와 관련된다.
일 실시예에서, 도 14의 예시에서와 같이, 상기 후보들은 터치되고 있는 물리적 키를 위해 투영된 터치 포인트 주위에 배열되고, 각 후보는 주변의 물리적 키 중 하나와 매핑된다. 이러한 일 실시예에서 매핑은, 예를 들면 상응하는 후보와 함께 물리적 키의 표면의 텍스트를 표시함으로써 시각적으로 지정된다. 도 14b를 참조하면, 일 실시예에서 여섯 개의 후보들의 세트가 식별된 글자를 위해 나타난다. 쿼티(QWERTY) 스타일의 키패드는 대부분의 키(가장자리의 키는 제외함)가 여섯 개의 다른 키에 둘러싸여 있어 후보를 주변의 키와 매핑하는 것은 용이하고 직관적이다.
본 예시에서는 상기 후보들 "ex", "est", "en", "ed", "es" 및 "e*"가 표시된다. 전술한 바와 같이 “e”로 마크된 후보는 제2 세트의 후보들과 연관된다.
상기 컨트롤러는 나아가 후보의 선택 명령을 수신하고 그에 대한 응답으로 연관된 단어 객체를 입력하도록 구성된다.
도 14c에서 사용자는 도 14d의 디스플레이(1403) 상에 입력되고 표시된 “est”와 관련된 후보에 매핑된 ‘4’가 표시된 키(1404b)를 누른다.
추가적인 실시예에서 상기 컨트롤러는 위의 실시예들과 연관하여 설명한 바와 같은 방법으로 후보를 위해 후보들의 추가 세트를 표시하도록 더 구성된다.
일 실시예에서 상기 컨트롤러는 키 눌림과 물리적 키의 터치를 구분하도록 구성된다. 이러한 실시예에서는 선택 명령이 키를 누름에 의해 입력된다. 다른 실시예에서는 선택 명령은 키를 해제함에 의해 입력된다.
이러한 실시예에서 상기 컨트롤러는 만약 키가 눌려졌다면 상기 눌려진 키와 연관된 글자를 입력하고 만약 키가 단지 터치되었을 뿐이라면 상응하는 후보와 관련된 단어 객체를 입력하도록 구성된다.
이는 사용자가 키를 누름에 의해 통상적인 방식으로 글자를 입력하고 키 위를 터치하거나 그 위를 흘러감에 의해 단어 객체, 단어 완성 혹은 단어 예측을 입력하는 것을 가능하게 한다. 이는 터치 디스플레이를 가지는 실시예를 위해 설명한 바와 동일한 신속하고 간단하고 쉬운 텍스트 입력 방식을 제공한다.
전술한 모든 것과 호환되는 일 실시예에서 컨트롤러가 입력이 키 또는 후보 위에 미리 설정된 제한시간의 한계점 보다 오래 동안 머물러 있다고 판단한 이후에 상기 콘트롤러는 키와 관련되는 후보 세트 또는 후보를 표시하도록 구성된다.
이러한 실시예에서 만약 사용자가 가상 키 위를 터치하고 스타일러스를 일정 시간 기간 동안 상기 가상 키 위에 머물게 한다면 후보 세트는 글자와 관련되어 있는 가상 키를 위해 표시될 것이다.
일 실시예에서 압력 감지 입력 장치가 사용된다. 이러한 입력 감지 입력 장치의 예는 압력 감별(pressure differentiated) 터치 디스플레이, 터치 패드 및 키패드이다. 이러한 입력 장치의 핵심 특징은 통상의 기술자가 인식할 바와 같이 그에 가해지는 압력에 의존하여 서로 다른 입력을 제공할 수 있다는 점이다.
이러한 실시예의 하나에서 후보의 선택은 상기 후보 위에 추가적인 압력이 가함을 통해 사용자에 의해 영향을 받을 수 있다.
결합될 수 있는 다른 하나의 실시예에서 컨트롤러는 높은 압력 수준을 나타내는 입력을 수신하고 그에 대한 응답으로 상기 입력의 현재 위치와 관련된 후보의 세트를 표시하도록 구성된다. 이러한 실시예에서 사용자는 글자 또는 후보 위를 더 세게 누름으로써 상기 컨트롤러가 후보 세트를 표시하는 것을 유발할 수 있다.
이러한 압력 감지 및 감별 입력 장치를 사용하는 것은 어떠한 타이밍 이슈도 처리되지 않아 입력이 신속하게 이루어진다는 이점을 가진다.
일 실시예에서 ITU-T 키패드가 사용된다(ITU-T는 국제전기통신연합(International Telecommunication Union)을 위한 표준화 기관임).
일 실시예에서 장치는 터치 디스플레이를 가지며 상기 키패드는 상기 터치 디스플레이 상에 표시되는 가상 키패드이다.
일반적인 ITU-T 키패드는 통상적으로 알려진 바와 같이 12 키를 포함한다. 이러한 12 키 중 8개는 문자와 관련된다. 이는 키 누름이 어느 문자가 입력되어야 하는지에 관해 모호하다는 점을 야기한다.
일 실시예에서 컨트롤러는 복수의 문자들과 관련된 키를 위한 멀티-탭 입력을 수신하도록 구성되며 상기 멀티-탭은 이 문자들 중 어느 하나를 식별한다. 탭의 횟수는 상기 문자들이 키 상에 표시되는 순서와 연관된다.
일 실시예에서 각 키와 관련된 문자는 그들의 상응하는 키 상의 방향과 더 관련된다. 일 실시예에서 문자는 어떠한 방향과도 관련되지 않을 수 있다. 컨트롤러는 키를 위한 방향 지시, 복수의 문자와 관련되는 상기 키, 그 방향과 관련되는 문자를 식별하는 상기 방향 지시를 수신할 수 있다. 일 실시예에서 문자는 일렬로 표시되고 거기에서 방향 없는 키 눌림은 중간 문자를 식별하고, 왼쪽을 가리키는 키 눌림은 왼쪽 문자를 식별하고 오른쪽을 가리키는 키 눌림은 오른쪽 문자를 식별한다. 일 실시예에서 위쪽을 가리키는 키 눌림은 두 번째 문자를 식별하고, 만약 네 개의 문자가 키와 연관되어 있다면 아래쪽을 가리키는 키 눌림은 세 번째 캐릭터를 식별하고, 왼쪽을 가리키는 키 눌림은 첫 번째 캐릭터를 식별하고 또한 만약 네 개의 문자가 키와 연관되어 있다면 오른쪽을 가리키는 키 눌림은 네 번째 캐릭터를 식별하며, 그리고 만약 단 세 개의 문자만이 키와 연관되어 있다면 오른쪽을 가리키는 키 눌림은 세 번째 캐릭터를 식별한다.
본 실시예에 상응하는 예시에서 문자 ‘a’, ‘b’ 및 ‘c’는 모두 동일한 키와 연관되고, 각각은 방향과 더 연관된다. 본 예시에서 ‘a’는 왼쪽과 연관되고, ‘b’는 무방향과 연관되고 또한 ‘c’는 오른쪽과 연관된다. 사용자는 상기 키를 누르고 왼쪽 방향을 가리키기 위해 왼쪽으로 밀거나 기울이고; 상기 컨트롤러는 그에 대한 응답으로 ‘a’를 수신한다. 사용자는 상기 키를 누르고 아무 방향도 지시하지 않으며 해제하고; 상기 컨트롤러는 그에 대한 응답으로 ‘b를 수신한다. 사용자는 상기 키를 누르고 오른쪽 방향을 가리키기 위해 오른쪽으로 밀거나 기울이고; 상기 컨트롤러는 그에 대한 응답으로 ‘c’를 수신한다.
상기 컨트롤러는 문자를 식별하는 입력을 수신하는 것에 응답하여 후보 세트를 표시하도록 구성된다.
일 실시예에서 후보들은 키패드의 키에 매핑되도록 순서대로 표시된다. 일 실시예에서 숫자 5와 연관되어 있는 키를 위한 매핑이 이루어져 “5” 키의 눌림은 컨트롤러가 후보들이 그 문자를 위해 표시되는 식별된 문자를 입력하는 것을 야기한다. 다른 키패드 키 중 하나를 누르는 것은 상기 컨트롤러가 상응하는 후보를 입력하는 것을 야기할 것이다.
일 실시예에서 컨트롤러는 이중 누름(double press) 또는 다른 실시예에서는 키의 긴 누름(long press)을 수신하고 그에 대한 응답으로 이중으로 혹은 길게 눌려진 키와 연관되는 후보와 연관된 후보들의 추가 세트를 표시하도록 구성될 수 있다.
일 실시예에서 조이스틱 또는 4나 5 방향 키(four or five-way key)와 같은 네비게이션 입력 키가 후보들 간을 이동하기 위해 사용된다.
일 실시예에서는 키가 눌리는 동안에 후보가 표시된다.
적어도 하나의 키가 복수의 글자와 연관되는 일 실시예에서 제공되는 후보들은 선택된 키 혹은 키들의 가능한 텍스트 해석(textual interpretation)을 표현한다. 일 예시에서는 장치가 ITU-T 키패드를 가지며 사용자는 이전에 ‘2’ 및 ‘6’ 키를 탭 하였다. 컨트롤러가 ‘3’ 키가 식별된 입력을 수신함에 따라 상기 컨트롤러는 상기 세 키의 가능한 본문 해석을 표현하는 후보들의 세트를 표시한다. 비록 여기서 개시된 바와 같은 입력 방법과 결합된 사용은 아니지만, 명확화 텍스트 엔진(disambiguating text engine)을 이용한 이러한 본문 해석 후보들의 생성은 일반적으로 알려져 있다. 본 예시에서 표시되는 후보들은 "and", "cod", "2nd", "ame", "bod", "cof", "ane", "coe" 및 "boe”가 될 수 있다. 만약 모든 후보들을 표시할 충분한 공간이 없다면 몇 개의 후보들은 후보들의 제2 세트에 배열된다.
사용되는 키패드의 사이즈는 다른 이점을 제공한다. 더 작은 키패드는 더 적은 시작 포인트를 제공하고 사용자가 최소한의 움직임으로 시작 포인트를 빠르게 찾을 수 있도록 한다. 가능한 후보들이 더 많은 키에 분포되므로 더 큰 키패드는 원하는 단어 객체로의 더 짧은 경로를 가능하게 한다.
이하에서 일반적으로 도 15라고 참조되는, 도 15a 내지 도 15d는 장치(1500)를 나타낸다. 상기 장치(1500)는 텍스트 입력을 받을 수 있는 어떠한 장치도 될 수 있음을 주목하여야 한다.
상기 장치(1500)는 디스플레이(1503) 및 키패드(1504)을 가진다. 본 예시에서 키패드(1504)는 ITU-T 타입이다.
도 15a에서 사용자는 “4”가 표시된 키(1504a)를 누른다. 이 키는 전통적으로 복수 개의 글자와 연관되고 본 예시에서는 글자 ‘g’, ‘h’ 및 ‘i'와 연관된다. 도 15b를 참조하면, 본 예시에서 사용자는 단지 한 번 눌렀고 따라서 글자 ‘g’와 관련된 후보들이 상기 키(1504a)를 위한 투영된 터치 지점의 근처에 표시된다. 본 실시예에서는 8개인, 후보들은 모두 키패드의 각 키와 매핑되어 중간 키는 중앙 후보-본 예시에서는 글자 ‘g’임-와 매핑된다. 본 예시에서 후보들은 "good", "get", "going", "give", "g*", "great", "go" 및 "got"이다.
도 15c를 참조하면, 사용자가 “3”이 표시된 키(1504b)를 누름에 따라 그 위치에 매핑된 디스플레이 상에 위치한 후보가 텍스트 영역(1511)에 입력된다.
도 15d는 사용자가 대신 “4”가 표시된 키(1504a)를 세 번 누른 후 상기 장치를 나타내며, 도 15b 및 위의 상응하는 예시와 비교한다. 본 예시에서는 키(1504a)와 관련된 세 번째 글자와 관련되어 있는 후보들이 표시된다. 본 예시에서 후보들은 "it", "in", "its", "into", "i*", "if", "is" 및 "important"이다. 이러한 후보들은 상응하는 키를 누름으로써 선택될 수 있다.
감소된 개수의 키를 가지는 키보드-가장 잘 알려진 예는 많은 핸드헬드 장치 및 기타 기기에서 사용되는 ITU-T 스타일 키패드임-를 채용한 시스템에서의 텍스트 입력과 관련된 어려움은 잘 알려져 있으며 선행 문헌에서 잘 분석되어 있다. 이러한 점에서 키보드는 이미 논한 바와 같이 물리적 키보드 또는 가상 키보드 중 하나일 수 있다. 본 발명이 주로 감소된 키보드를 가지는 시스템에서의 모호하지 않은 텍스트 입력과 관련된 어려움을 다루는 반면에, 상기 발명을 이러한 시스템에 적용하는 것은 몇 가지 고려가 요구된다. 이하에서, 몇 가지의 알려진 명확화 테크닉이 본 발명에 관하여 설명된다. 본 발명에 다른 명확화 테크닉이 동일하게 적용될 수 있으며, 아래의 예시가 주어진다면, 본 발명이 속하는 분야의 통상의 기술자에 의해 어떤 필요한 변형도 쉽게 식별될 수 있음에 주목하여야 한다.
일 실시예에서 멀티-탭 테크닉이 한 키보드 키와 관련된 복수의 문자 간을 명확화하는데 사용된다. 이러한 실시예에서 컨트롤러는 멀티-탭 방법에 의해 식별된 문자와 관련된 단어 객체 후보들을 표시하도록 구성된다.
이하에서 일반적으로 도 22라고 참조되는, 도 22a 내지 도 22d는 장치(2200)를 나타낸다. 상기 장치(1500)는 텍스트 입력을 받을 수 있는 어떠한 장치도 될 수 있음을 주목하여야 한다.
상기 장치(2200)는 디스플레이(2203) 및 키패드(2204)를 가진다. 본 예시에서 키패드(2204)는 ITU-T 타입이다. 본 예시에서 상기 장치(2200)는 키패드의 한 키와 관련된 복수의 문자 간을 명확화하기 위해 멀티-탭 방법을 더 채용한다.
도 22a에서 사용자는, 본 예시에서 글자 ‘a’, ‘b’ 및 ‘c’와 더 연관된, “2”가 표시된 키(2204a)를 한번 탭 한다. 키 누름에 대한 응답으로 상기 컨트롤러는, 각각이 키패드 상의 한 키와 매핑되어 있는, 후보 단어들의 세트를 표시한다. 도 22a의 예시에서 “1” 내지 “4”가 표시된 키는 각각 "are", "and", "as" 및 "at"와 매핑되어 있고, “6” 내지 “9”로 마크된 키는 각각 words "all", "an", "a" 및 "about"과 매핑되어 있다. “5”가 표시된 키는 현재 식별된 문자 ‘a’와 매핑되어 있다.
일 실시예에서 사용자는 멀티-탭 방법과 관련된 시각적 안내를 더 제공받는다. 이는 탭된 키와 관련된 몇 개의 혹은 모든 문자의 시각적 제시(presentation), 및 어떤 문자가 현재 식별되고 있는지에 대한 표시를 포함한다. 일 실시예에서 추가적인 시각적 안내가 제시된 후보들의 세트 중 일부로서, 예를 들면 도 22a에서와 같은 키 매핑 세트의 중앙 위치에, 표시된다. 일 실시예에서는 상기 추가적인 시각적 안내가 디스플레이 상의 분리된 위치에서 제공된다.
도 22b에서 사용자는 “2”가 표시된 키(2204a)를 추가적으로 탭 한다. 그에 대한 응답으로 컨트롤러는 글자 ‘b’를 식별하고 키패드 키에 상응하도록 매핑된 단어 후보들을 제시한다. 본 예시에서 단어 후보들은 "but", "be", "been", "back", "because", "between", "by" 및 "big"이다. 식별된 문자 ‘b’는 “5”가 표시된 키와 매핑된다. 도 22에서와 같은 실시예에서 소정의 타임아웃 기간이 멀티-탭 방식과 연관되어, 상기 타임아웃 기간이 경과한 이후에는 식별된 문자가 입력을 위해 컨트롤러에 의해 자동으로 선택된다. 경과 시간은 상기 타임아웃 기간 이내에 동일한 키가 새로 탭될 때마다 리셋된다. 상기 타임아웃 기간이 경과한 후에, 동일한 키 상의 새로운 탭은 다음 문자의 식별로서 해석될 것이다. 이에 대한 예시가, 사용자가 “2”로 마크된 키(2204a)를 다시 한번 탭하였지만, 이번에는 타임아웃 기간이 경과한 이후인, 도 22c에서 보여질 수 있다. 상기 컨트롤러는 키패드 키에 매핑된 단어 완료 후보들의 세트를 제시함으로써 응답한다. 상기 단어 완료 후보들은 모두 이전에 선택된 문자 ‘b’(도 22b 참조) 및 현재 식별된 문자 ‘a’로부터 만들어진 문자열 “ba”로 시작한다. 본 예시에서는 스트링 “ba”도 역시 디스플레이 장치의 텍스트 입력 영역(2211)에 출력된다. 또 다른 실시예에서는 현재 단어의 초기 문자들이 상기 텍스트 입력 영역에 출력되지 않는다. 일 실시예에서는 탭된 키와 관련되는 문자 세트에서 식별된 문자를 위한 선택 기준은 타임아웃 대신에 사용자로부터의 명시적인 동작이다.
도 22d에서 사용자는 키 2204b를 길게 누르고, 도 22c의 예에서 사용자는 단어 후보 "base"를 매핑한다. 그 결과 컨트롤러는 텍스트 입력 영역(2211)의 단어 "Base"를 표시한다.
도 22는 필요한 만큼 개별 문자의 멀티-탭 선택에 기초한 단어 완성 방법을 나타낸다. 예를 들어, 큰 수의 단어 완성 후보들(예를 들어 직관적으로 키패드의 키들과 매핑된 8 후보들)의 레이아웃과 결합되면, 상기 방법은 몇몇의 장점을 제공한다; 총 키 누름 횟수를 줄이고 텍스트 입력을 위한 시간을 줄이기 위해 완성 단어 후보들을 제공하는 동안, 그것은 사용자에게 시간에 맞춰 각 순간에 입력되는 것의 완벽한 가시성을 준다.
대안적인 실시예에서, 대신에 문자 레벨 명확화는 키패드 키들에 문자들을 매핑하는 제2 단계에 기초한다. 사용자가 문자를 입력하기 위해 키를 누를 때, 컨트롤러는 눌러진 키와 관련한 문자 후보들(각 후보는 키보드의 키와 매핑됨)을 제시한다. 컨트롤러는 현재 후보들에 대한 선택 명령을 수신하도록 더 설정된다. 일 실시예에서, 후보들에 대한 선택 명령은 키가 후보와 매핑된 키보드의 키 누름이다. 컨트롤러는 선택된 후보에 관련한 문자를 텍스트 입력 영역에 입력하고 그 문자와 관련된 한 세트의 단어 객체 후보들을 표시하도록 설정된다.
도 23a 내지 23e(이하 도 23이라 지칭)는 장치 2300을 나타낸다. 장치 2300은 텍스트 입력이 가능한 장치일 수 있다.
장치 2300은 디스플레이(2303) 및 키패드(2304)를 포함한다. 본 실시예에서 키패드(2304)는 ITU-T 타입이다.
도 23a에서 사용자는 "2"로 마킹된 키 2304a를 누르고 컨트롤러는 한 세트의 문자 후보들(각 후보는 키패드 키에 매핑됨)을 표시하는 것으로 반응한다. 후보들은 눌러진 키(2304a)와 연관된 문자(이 경우에서는 'a', 'b', 'c', '
Figure pct00001
', '
Figure pct00002
', '
Figure pct00003
','
Figure pct00004
' 및 '2')이다. 각 키와 연관된 문자의 세트는 언어에 의존적이다. 일 실시예에서 후보들의 수가 매핑을 위해 가능한 키의 수를 초과할 때, 적어도 하나의 후보들은 추가 세트의 후보들을 나타낸다.
도 23b에서 사용자는 다시 한번 "2"가 표시된 (본 실시예에서 글자 'b'와 매핑된)키(2304a)를 누른다. 컨트롤러는 그 글자 'b'를 텍스트 입력 영역(2311)로 입력하고 모두 'b'로 시작하고 각각 키패드 키에 매핑된 한 세트의 단어 후보들을 표시함으로써 반응한다. 도 23b의 예에서 단어 후보들은 "but", "be", "been", "back", "below", "because", "between", "by" 및 "big"이다. 일 실시예에서 컨트롤러는 후보를 선택하는 것과 다음 문자의 입력을 시작하는 것을 구분하도록 설정된다. 일 실시예에서, 예를 들어, 키의 킨 누름은 대응하는 단어 객체 후보를 선택하는 것으로 해석되고, 짧은 누름은 다음 문자의 입력 시작으로 해석된다.
도 23c에서 사용자는 다음 문자의 입력 시작을 위해 "2"가 표시된 키(2304a)를 짧게 누른다. 컨트롤러는 한 세트의 후보 문자들을 상기 도 23a 처럼 표시함으로써 반응한다. 사용자는 글자 "a"를 선택하기 위해 "1"가 표시된 키(2304b)를 더 누른다. 컨트롤러는 글자 'a'를 텍스트 입력 영역(2311)에 출력하고 도 23d와 같이 스트링 "ba"로 시작하고 각 후보가 키패드 키와 매핑된 한 세트의 단어 후보들을 표시함으로써 반응한다. 도 23e에서 사용자는 "1"가 표시되고 단어 "base"와 매핑된 키(2304b)를 길게 누르고, 컨트롤러는 단어 "Base"를 텍스트 입력 영역(2311)로 출력한다.
위의 예시 23과 같은 일 실시예에서, 매핑이 가능한 키의 수가 가능한 후보의 수를 초과한 경우에, 디스플레이 상에 하나 이상의 매핑된 위치는 어떤 키들이 매핑된 단어 후보를 가지지 않은지를 사용자를 안내하기 위하여 공백 필드를 포함한다.
문자 레벨 명확화에 대한 대안은, 일련의 키 누름 또는 다른 입력 이벤트를 포함하는 입력 시퀀스를 대신에 명확하게 하는 것이다. 기본 방법은, 각 입력 이벤트에 매핑된 복수의 문자에 기초하여 입력 시퀀스를 매칭시키는 가능한 문자 조합을 계산하는 단계 및 계산된 문자 조합에 연관된 단어 객체 후보를 데이터베이스에서 식별하는 단계를 포함한다. 종래 기술은 상세한 알고리즘 및 사용자에 대한 표현의 다수 변형을 정의한다. 일반적으로, 입력 시퀀스에 가능하게 매칭되는 단어 객체의 수가 너무 크면 동시에 사용자에게 표현될 수 없다.
일 실시예에서, 입력 시퀀스의 명확화에 기초하여, 컨트롤러는 입력 시퀀스를 매칭시키는 복수의 가능한 문자 조합에 대한 후보들을 도시에 표시한다.
도 24a 내지 24d는, 이하에서는 도 24로 통칭되며, 장치(2400)를 보여주고 있다. 장치(2400)는 텍스트 입력이 가능한 임의의 장치가 될 수 있음을 주목해야 한다.
장치(2400)는 디스플레이(2403) 및 키패드(2404)를 가진다. 이 예시의 키패드(2404)는 ITU-T 유형이다.
도 24a에서, 사용자는 "2"가 표시된 키(2404)를 누르면 컨트롤러는 눌러진 키에 연관된 임의의 문자로 시작하는 단어 후보의 한 세트를 표시함으로써 응답한다. 눌려진 키에 연관된 문자는 이 예시에서 'a', 'b', 'c', '
Figure pct00005
', '
Figure pct00006
','
Figure pct00007
', '
Figure pct00008
' 및 '2'이다. 각 키에 연관된 문자들의 세트는 언어 의존적이다. 단어 후보는 이 예시에서 "and", "a", "are", "as", "2", "be", "by", "but", 및 "at"이다. 6개의 연관된 문자 중 오직 3개만이 이 세트에서 표시된다. 이는 제시할 후보 단어를 선택하는 원칙이 사용 빈도 또는 명백한 사용자 설정을 포함하는 예시에 대해서는 상당히 정상적인 것으로 볼 수 있다. 대안 실시예에서, 후보의 선택은 각 연관된 문자가 적어도 하나의 단어 후보에 의해 가능한 한 멀리 표현되도록 수행된다. 일 실시예에서, 후보의 수가 매핑이 가능한 키의 수를 초과할 때, 적어도 하나의 후보는 후보들의 추가 세트를 표시할 수 있다.
도 24b에서, 사용자가 "2"가 표시된 키(2404a)를 두 번 누르면 컨트롤러는 입력 시퀀스 '22'에 연관된 문자로부터 만들어질 수 있는 임의의 문자 조합으로 시작하는 단어 조합의 한 세트를 표시함으로써 응답한다. 후보들은 이 예시에서 "can", "about", "called", "back", "22", "above", "across", "car" 및 "came"이다.
도 24c에서, 사용자가 "7"로 표시된 키(2404b)를 더 누르면, 컨트롤러는 "across", "car", "carefully", "carry", "227", "base", "case", "capital" 및 "basic" 후보를 표시함으로써 응답한다. 본 예시에서, 다수의 후보들은 도 24b에서 이전에 제시되었으나, 사용자에 의해 선택되지 않았다. 다른 실시예에서, 이미 제시된 후보들은 추가 입력이 주어지면 제외되어, 추가적으로 새로운 후보를 위한 공간을 만든다.
도 24d에서, 사용자가 "6"으로 표시된 키(2404c)를 길게 누르면 컨트롤러는 단어 후보 "base"의 입력을 받아들이고 텍스트 입력 영역(2411)에 단어 "Base"를 표시함으로써 응답한다.
도 24의 예시에서, "5"로 표시된 키는 입력 시퀀스 자체를 표시하는 후보에 매핑된다. 이는 사용자가 시퀀스의 수치적 표현을 선택하도록 할 뿐 아니라, 사용자가 입력한 것에 대한 적절한 피드백을 제공한다. 이는 입력 도중에 사용자가 하나 이상의 실수를 한 경우에 특히 도움이 된다.
후보가 입력 시퀀스를 직접 표시하는 일 실시예에서, 수치적 단어 객체는 사용자가 후보에 매핑된 키를 길게 누를 때 입력을 위해 선택되며, 수치적 스트링은 텍스트 입력 영역(2411)에 표시된다. 대안 실시예에서, 입력 시퀀스를 직접 표시하는 후보에 매핑된 키의 길게 누름은 사용자가 입력 시퀀스가 어떻게 해석되어야 할지를 명확하게 특정할 수 있는 명확화 모드에 연관된다. 그러한 명확화 모드의 예시는, 각 키패드 키에 매핑된 가능한 문자 후보를 표시함으로써, 사용자가 시퀀스 내 각 문자를 명확하게 하도록 도와준다. 이는 예를 들어 도 23a 및 23c를 참조한 예시에 유사하게 구현될 수 있다.
일 실시예에서, 도 22 내지 24를 참조하여 설명된 모든 다른 실시예들에서, 컨트롤러는 단어 객체 후보의 선택에 대한 응답으로 다음 단어 또는 단어 시퀀스의 예측을 표시하는 후보들을 더 표시한다. 일 실시예에서, 키의 길게 누름은 그 키에 매핑된 예측된 단어 또는 단어의 시퀀스의 선택으로 컨트롤러에 의해 해석되지만, 짧게 누름은 도 22 내지 24를 참조하여 설명된 예시들과 실시예들에서와 같이 다음 단어의 입력의 시작으로 해석된다.
도 15, 22, 23 및 24를 참조하여 설명된 실시예는 도 4, 5, 6, 7, 8 및 9를 참조하여 설명된 실시예와 병합이 가능함을 이해하여야 한다.
여기에서 설명된 다수의 실시예에서, 사용자는 단일 또는 단순한 터치 제스처를 사용하여 단어 또는 다른 단어 객체를 입력할 수 있다. 후보들을 동일한 장소 및 순서로 항상 표시함으로써, 사용자는 어떤 제스처가 어떤 단어 객체에 대응하는지 또는 다시 말해 어떤 스트로크의 시퀀스가 어떤 단어 객체를 초래하는지를 학습할 수 있다. 이는 사용자가 일련의 단순한 스트로크에 의해 단어 또는 단어 객체를 입력하는 속기와 유사한 입력 방법을 제공한다.
테스트는 이것이 배우고 이해하기가 매우 쉽다는 것을 보여준다.
200 단어 객체의 사전이 제스처로 단 두 스트로크 내에 원하는 후보를 찾는 높은 성공률을 제공, 또는 다시 말해 후보의 제1 세트 또는 추가 세트 내에 원하는 후보를 제시하기에 충분함을 증명했다.
상기 방법은 완성된 제스처의 각 부분 또는 스트로크가 설명되며 이용 가능한 진행 옵션이 사용하는 스타일러스 인근에서 사용자에게 표시되므로 배우기 쉽다.
상기 예시에서, 후보는 단어, 단어의 일부, 단어의 조합, 이름 등인 것으로 개시되었다. 여기에서의 교시는 모든 종류의 문자 및 문자 스트링에 적용 가능함에 주목해야 한다.
일 실시예에서, 후보는 구두점 또는 그 조합일 수 있다. 그러한 실시예에서, 사용자는 '.', ',', ';' 또는 ':'와 같은 구두점에 연관된 키를 누름으로써 smileys로 불리는 인기 있는 이모티콘을 입력할 수 있다. 이모티콘은 특정 기분을 표현한 인물의 그림과 유사한 문자의 조합이다. 예를 들어, 조합 ":)"는 행복을 묘사하는데 이용되며, 조합 ":("는 불행을 묘사하는데 이용된다.
일 실시예에서, 후보는 제어 문자의 조합이 될 수 있다. 그러한 일 실시예에서, 후보는 제어 문자 및 다른 문자의 조합이 될 수 있다. 그러한 실시예에서, 사용자는 문자 스트링 ",
Figure pct00009
Figure pct00010
"을 입력할 수 있다. 문자 '
Figure pct00011
'는 이를 수신한 편집자가 새 라인으로 건너뛰고 그것의 처음에서 시작하라는 의미인 라인 피드 및 캐리지 리턴을 나타낸다. 일 실시예에서, 이 문자 스트링은 문자 ','에 연관된 키에 대한 후보이다. 편지나 다른 메시지를 쓰고 싶고 "Dear John"을 입력하고 싶은 사용자는 메시지 본문 작성을 시작하기 전에 ','에 연관된 키로 시작하는 단순한 제스처를 함으로써 콤마를 추가하고 공백 라인을 삽입할 수 있다. 사용자가 계속해서 "it was nice to see you"라고 입력한다고 가정하면, 결과적인 입력은 다음과 같이 보일 수 있다.
"Dear John,
It was nice to see you."
카타카나 또는 히라가나 또는 중국어, 일본어 또는 한국어에서 사용되는 유사한 문자와 같은 복잡한 문자의 입력을 위해 채택된 실시예에서, 키패드는 기본 스트로크에 연관되며 후보들은 결합되어 부분적인 문자 또는 완성된 문자를 형성할 수 있는 추가 스트로크이다.
일 실시예에서, 컨트롤러는 스트링을 특정 문자에 대한 후보로서 수신하고 저장하도록 구성된다. 그러한 실시예에서, 사용자는 키 및 그 키에 연관된 글자 또는 문자를 선택하여 그 글자 또는 문자에 대한 하나 이상의 후보를 입력한다.
일 실시예에서, 컨트롤러는 후보에 대한 디스플레이 설정을 수신하도록 더 구성되며, 디스플레이 설정은 어디 또는 어떤 순서로 후보들이 표시되는지를 나타낸다.
일 실시예에서, 컨트롤러는 후보를 재배열하는 드래그 및 드랍 동작에 이어서 후보를 식별하고 새로운 배열을 저장하는 터치 입력을 수신하도록 구성된다. 그러한 실시예에서, 사용자는 후보들을 드래그 및 드랍함으로서 재배열할 수 있다.
상기 실시예에 따른 예시적인 실시예에서, 사용자는 ','를 선택하고, 후보 ",
Figure pct00012
Figure pct00013
"를 입력하고 그것을 키의 하부 왼쪽 모서리에 배열할 수 있다. 스트링을 입력하기 위해 사용자는 ','상에서 시작해서 왼쪽 방향으로 밀어 내린 후 해제한다. 이 제스처는 큰 쉼표와 유사하므로 기억하기 쉽다.
일 실시예에서, 컨트롤러는 후보를 한 글자에서 다른 글자로 할당하는 사용자 입력에 의한 명령을 수신한다. 일 실시예에서, 사용자는 한 글자에 대한 세트에서 다른 글자로 후보를 드래그 및 드랍함으로서 이 명령을 발행한다.
일 실시예에서, 텍스트 입력의 시간 의존적 행위에 관련된 적어도 하나의 수치값 또는 다른 특성은 사용자에 의해 변경될 수 있다.
글자에 대해 저장된 후보들은 그 글자를 최초 문자로 가지고 있을 필요가 없음에 주목해야 한다.
도 16은 여기에서의 교시에 따른 장치(1600)를 보여준다. 그러한 장치는 이동 전화에 한정되지 않으며, 텍스트 입력을 수신할 수 있는 어떠한 장치라도 될 수 있다.
장치(1600)는 가상 키패드(1604)가 표시되는 터치 디스플레이(1603)를 가진다. 가상 키패드(1604)는 본 실시예에서 결합 기능에 연관된 가상 키(1604b)를 포함한다.
컨트롤러는 결합 키(1604b)를 식별하는 명령을 수신하고 그에 응답하여 결합 기능을 실행한다.
결합 기능의 목적은 두 단어 객체를 함께 결합하는 것이다.
일 실시예에서, 컨트롤러는 스페이스 문자를 분리하고 제거하기 위해 입력 텍스트를 분석하도록 구성된다. 일 실시예에서, 가장 마지막에 입력된 스페이스 문자가 제거된다. 일 실시예에서, 가장 왼쪽의 스페이스 문자가 제거된다. 일 실시예에서 가장 오른쪽의 스페이스 문자가 제거된다.
일 실시예에서, 컨트롤러는 분석을 왼쪽에서 오른쪽으로 수행하도록 구성된다.
일 실시예에서, 컨트롤러는 분석을 오른쪽에서 왼쪽으로 수행하도록 구성된다.
일 실시예에서, 컨트롤러는 분석을 위에서 아래로 수행하도록 구성된다.
방향은 일 실시예에서 사용된 입력 언어에 의존적이다.
제거될 스페이스 문자는 언어 입력 방법론과 같은 이슈에 매우 의존적이다. 예를 들어, 영어에 대한 구현을 위해서는, 가장 오른쪽 스페이스 문자가 제거될 수 있으며, 아랍어에 대한 구현을 위해서는, 가장 왼쪽에 있는 스페이스 문자가 제거될 수 있다.
일 실시예에서, 컨트롤러는 입력 이벤트를 수신하고 이 이벤트를 스택과 같은 메모리 구조에서 유지하도록 구성된다. 그러한 일 실시예에서, 컨트롤러는 스택을 가로질러 스페이스 문자에 연관된 이벤트를 제거하도록 구성된다. 일 실시예에서, 입력 이벤트는 스페이스 문자가 아닌 문자 스트링(가능하게 길이 1임)에 연관된다. 그러한 실시예에서, 스택은 상호 배치된 스페이스 문자와 함께 표시되는 단어 또는 다른 텍스트 스트링을 포함한다. 그러한 실시예에서, 컨트롤러는 스택을 가로질러 두 이벤트를 하나로 결합한다.
일 실시예에서, 컨트롤러는 텍스트를 분석하여 첫 번째 스페이스 문자를 발견하도록 구성된다. 일 실시예에서 분석의 방향은 사용된 언어에 의존한다.
도 16a는 사용자가 스페이스 문자로 분리된 단어 "do" 및 "able"을 입력한 예시를 보여준다. 사용자가 가상 키(1604b)를 누르면, 컨트롤러는 결합 기능을 실행하여 두 단어를 분리하는 스페이스 문자를 제거하고 디스플레이 영역(1611)에 결과 텍스트 스트링을 표시한다. 결과 텍스트 스트링은 이제 도 16b에서 볼 수 있듯이 "doable"이다.
도 16c는 더 긴 단어를 표시하는 예시 텍스트 스트링을 보여준다. 본 예시에서 이용된 스트링은 "He m in g way"이다. 일 실시예에서, 단어 객체는 상술한 실시예에 따른 입력 방법을 사용하여 입력되었다.
결합 키(1604b)를 반복적으로 누름에 대한 응답으로, 컨트롤러는 결합 기능을 반복적으로 실행한다. 도 16d는 즉각적인 결과 텍스트 스트링을 생성하는 결합 키를 총 네 번 누른 후 표시된 뷰를 보여준다. "He m in g way" -> "He m in gway" -> "He m mgway" -> "He mmgway" -> "Hemingway" 도 16d는 그 결과를 보여준다.
스웨덴어에 대한 다른 예시로, 스트링은 "ut rike s pol i tik"이다. 결합 키를 반복적으로 누름은 "Ut rike s pol i tik" -> "Ut rike s pol ltik" -> "Ut rike s politik" -> "Ut rike spolitik" -> "Ut rikespolitik" -> "Utrikespolitik" 결과를 생성하고, 이는 외환 정치를 의미한다.
헝가리어, 타갈로그어(필리핀어), 터키어 및 핀란드어와 같은 언어와 함께 스웨덴어는 교착어이다. 그러한 언어에서 단어는 그 언어에서 일반적으로 사용되는 형태소 또는 단어 일부에 의해 구성된다. 그러한 언어의 이러한 특성은 이들을 여기의 교시를 이용한 입력에 가장 적합하게 한다.
일본어는 부정(negation), 과거형(past tense), 인과(causation) 및 수동태(passive voice)와 같은 단어의 특성 및 편향이 기본 형태에 추가되는 교착어의 다른 예시이다.
독일어와 같은 굴절어(fusional language) 및 베트남어 및 전통 중국어와 같은 고립어도 여기의 교시의 이용을 발견하는데, 그러한 언어 역시 공통적으로 사용되는 단어 객체를 이용한 구조를 포함하며, 여기의 교시 또한 완성된 단어를 직접 또는 완성에 의해 입력하는 방법에 관한 것임에 주목해야 한다.
일 실시예에서, 컨트롤러는 결과 단어에 대한 매치가 사전 데이터베이스에서 발견될 때까지 스페이스 문자에 대한 분석을 계속하도록 구성된다. 따라서 일부 키 누름을 줄이는 "utrikes politik"과 같은 단계에서 단어 객체를 결합할 수 있다.
도 4 내지 16을 참조하여 상술한 예시들이 QWERTY 스타일 키패드로 주어졌지만, 다른 종류의 키패드로도 동작 가능함을 이해할 수 있다는 점에 주목해야 한다.
도 17은 여기의 교시에 따른 방법을 보여주는 흐름도이다.
시작 단계(1710)에서, 컨트롤러는 글자 및 터치 포인트, 가능하게는 투영된 터치 포인트를 식별하는 입력을 수신한다. 거기에 대한 응답으로, 후보들의 세트가 단계(1720)에서 생성되어 터치 포인트 주변, 가능하게는 투영된 터치 포인트에 단계(1730)에서 표시된다. 컨트롤러는 단계(1740)에서 후보를 식별하는 추가 입력을 수신하여 후보를 텍스트 입력으로 단계(1750)에서 입력한다.
상술한 다양한 측면들은 단독 또는 조합하여 사용될 수 있다. 본 출원의 교시는 하드웨어 및 소프트웨어의 조합에 의해 구현될 수 있지만, 하드웨어 또는 소프트웨어로도 구현될 수 있다. 본 출원의 교시는 컴퓨터 판독 가능한 매체 상의 컴퓨터 판독 가능한 코드로 구현될 수도 있다. 본 출원의 교시는 이동 전화와 같은 이동 통신 단말에서의 사용에 한정되지 않으며, PDA(Personal digital Assistants), 게임 콘솔, 매체 재생기, 퍼스널 오거나이저(personal organizer), 컴퓨터 또는 텍스트 입력을 위해 설계된 임의의 다른 장치에서도 동일하게 잘 적용될 수 있다.
본 출원의 교시는 수 많은 장점을 가진다. 다른 실시예들 또는 구현들은 하나 이상의 후술할 장점을 산출한다. 이것은 완전한 리스트가 아니며 여기에 설명되지 않은 다른 장점이 있을 수 있음에 주목해야 한다. 예를 들어, 본 출원의 교시의 한 장점은 사용자가 단지 몇 개의 단순하고 빠른 제스처를 이용해서 단어 또는 다른 단어 객체를 입력할 수 있다는 점이다. 사용자가 다른 후보에 대한 경로를 학습하면, 사용자는 디지털 속기로 여기에서 설명된 입력 방법을 사용할 수 있다.
본 출원의 교시가 설명의 목적으로 상세하게 설명되었지만, 그러한 상세는 그 목적을 위한 것이며, 변형들이 본 기술 분야에서 숙련된 자에 의해 본 출원의 교시의 범위에서 벗어나지 않고도 만들어질 수 있음이 이해된다.
예를 들어, 본 출원의 교시는 이동 전화로 설명되었지만, 본 출원의 교시는 매체 재생기, 팜탑 컴퓨터, 랩탑 컴퓨터, 데스크탑 컴퓨터, 게임 콘솔, 전자 사전 등과 같은 다른 종류의 전자 장치에도 적용될 수 있음을 이해할 수 있다. 본 출원의 교시의 방법 및 장치를 구현하는 많은 대안들이 있음을 또한 주목해야 한다.
여기서의 교시는 장애인을 돕기 위해 일반적으로 알려진 입력 수단 상에 이용되고 실행될 수 있음에도 주목해야 한다. 그러한 입력 수단은 본 출원의 스타일러스 및 디스플레이로 작동하는 포인팅 장치 및 디스플레이를 일반적으로 포함한다.
전술한 설명에서 설명된 특징들은 여기에서 명백하게 설명된 것 이외의 조합으로 사용될 수 있다.
특별히 중요하다고 믿는 발명의 그러한 특징들에 주위를 집중시키기 위해 상술한 명세서에서 노력하는 한편, 본 출원인은 특별히 중요시하였는지 여부에 상관 없이 도면에서 참조 및/또는 도시된 특허 받을 수 있는 특징 또는 특징들의 조합에 대한 보호를 청구함을 이해하여야 한다.
청구항에서 사용된 용어 "포함하다"는 다른 구성 요소나 단계를 배제하지 않는다. 청구항에서 사용된 용어 "하나"는 복수를 배제하지 않는다. 한 유닛 또는 다른 수단은 청구항에서 인용된 다수의 유닛 또는 수단의 기능을 수행한다.

Claims (65)

  1. 컨트롤러를 포함하는 장치에 있어서,
    상기 컨트롤러는,
    키에 관련되고 터치 포인트를 식별하는 입력을 수신하고;
    상기 터치 포인트 주변에 배열된 적어도 하나의 후보를 포함하는 후보들의 제1 세트를 표시하고;
    상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하고;
    상기 제1 후보의 선택 명령을 수신하며;
    상기 선택된 후보를 텍스트로 입력하도록 구성되는 장치.
  2. 제1항에 있어서, 상기 컨트롤러는 상기 제1 후보에 관련된 입력을 수신하면 후보들의 추가 세트를 표시하도록 더 구성되며, 상기 후보들의 추가 세트는 적어도 하나의 추가 후보를 포함하는 장치.
  3. 제2항에 있어서, 상기 컨트롤러는 상기 추가 세트에 포함된 추가 후보에 관련된 입력을 수신하고 상기 추가 후보를 제1 후보로 식별하도록 더 구성되는 장치.
  4. 제1항, 제2항 또는 제3항에 있어서, 상기 컨트롤러는 상기 터치 포인트를 디스플레이 상에 표시하도록 더 구성되는 장치.
  5. 제1항, 제2항, 제3항 또는 제4항에 있어서, 상기 입력은 가상 키를 식별하는 터치 입력이며 상기 터치 포인트는 상기 터치 입력에 대한 터치의 포인트인 장치.
  6. 제1항, 제2항, 제3항, 제4항 또는 제5항에 있어서, 상기 컨트롤러는 상기 후보를 가상 키로서 표시하도록 더 구성되는 장치.
  7. 제1항, 제2항, 제3항, 제4항, 제5항 또는 제6항에 있어서, 상기 컨트롤러는 터치 입력 해제를 수신하고 상기 해제를 선택 명령으로 해석하도록 더 구성되는 장치.
  8. 제1항, 제2항, 제3항, 제4항, 제5항, 제6항 또는 제7항에 있어서, 상기 컨트롤러는 이전 입력에 기초하여 한 세트의 후보들을 제공하도록 더 구성되는 장치.
  9. 제1항, 제2항, 제3항, 제4항, 제5항, 제6항, 제7항 또는 제8항에 있어서, 상기 후보는 단어 완성에 연관된 장치.
  10. 제1항, 제2항, 제3항, 제4항, 제5항, 제6항, 제7항 또는 제8항에 있어서, 상기 후보는 단어 예측에 연관된 장치.
  11. 제1항, 제2항, 제3항, 제4항, 제5항, 제6항, 제7항, 제8항, 제9항 또는 제10항에 있어서, 적어도 하나의 상기 후보는 적어도 하나의 배치 및 연관된 키에 대해서 고정적인 장치.
  12. 제1항, 제2항, 제3항, 제4항, 제5항, 제6항, 제7항, 제8항, 제9항, 제10항 또는 제11항에 있어서, 각 후보는 방향에 연관되며 상기 컨트롤러는 방향 지시를 수신하고 따라서 후보를 제1 후보로 식별하도록 구성되는 장치.
  13. 제5항, 제6항, 제7항, 제8항, 제9항, 제10항, 제11항 또는 제12항에 있어서, 상기 컨트롤러는 상기 터치 포인트로부터의 위치 오프셋에 상기 후보들을 표시하고 터치 입력을 오프셋 위치를 가진 것으로 해석하도록 더 구성되며 상기 오프셋은 동일한 장치.
  14. 제1항, 제2항, 제3항, 제4항, 제7항, 제8항, 제9항, 제10항, 제11항 또는 제12항에 있어서, 상기 입력은 물리적 키보드로부터의 키 입력이고, 상기 터치 포인트는 상기 물리적 키보드 상에서 터치된 키의 위치이며, 상기 컨트롤러는 상기 터치 포인트를 디스플레이 위치에 투영하고 상기 투영된 터치 포인트 주변에 배열된 상기 후보들을 표시하여 각 후보가 상기 물리적 키보드 상의 키에 매핑되도록 더 구성되는 장치.
  15. 제14항에 있어서, 상기 터치 포인트는 상기 후보들의 제1 세트를 표시하기 위한 상기 물리적 키보드 상의 충분한 주변 키를 가지지 않은 키의 위치이며, 상기 컨트롤러는 상기 터치 포인트 투영을 상기 후보들의 제1 세트로 표시하기 위한 상기 물리적 키보드 상에 충분한 주변 키를 가진 상기 키의 위치로 번역하며 상기 후보들을 상기 번역된 터치 포인트 투영 주변에 배열하도록 더 구성되는 장치.
  16. 제14항 또는 제15항에 있어서, 상기 키 입력은 멀티-탭 입력이며, 상기 컨트롤러는, 상기 멀티-탭 입력에 기초하여, 상기 키에 연관된 복수의 문자 중 하나를 식별하도록 더 구성되며, 상기 후보들의 제1 세트는 상기 식별된 문자에 연관된 적어도 하나의 후보를 포함하는 장치.
  17. 제14항 또는 제15항에 있어서, 상기 키 입력은 적어도 두 개의 문자에 연관된 키에 관련되며, 상기 후보들의 제1 세트는 상기 문자에 연관된 후보들을 각각 포함하며, 상기 컨트롤러는, 상기 후보들 중 어느 하나를 선택하면, 상기 선택된 후보에 연관된 문자에 연관된 후보들의 추가 세트를 표시하도록 구성되는 장치.
  18. 제14항 또는 제15항에 있어서, 상기 키 입력은 하나 이상의 키 입력 이벤트를 포함하고, 상기 적어도 하나의 키 입력 이벤트는 적어도 두 개의 문자에 연관되어 상기 키 입력이 적어도 두 개의 텍스트 해석에 상응하는 키에 관련되며, 상기 후보들의 제1 세트는 제1 텍스트 해석에 연관된 후보 및 제2 텍스트 해석에 연관된 후보를 적어도 포함하는 장치.
  19. 키에 관련되고 터치 포인트를 식별하는 입력을 수신하는 단계;
    상기 터치 포인트 주변에 배열된 복수의 후보를 포함하는 후보들의 제1 세트를 표시하는 단계;
    상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하는 단계;
    상기 제1 후보의 선택 명령을 수신하는 단계; 및
    상기 선택된 후보를 텍스트로 입력하는 단계를 포함하는 텍스트 입력 방법.
  20. 제19항에 있어서, 상기 제1 후보에 관련된 입력을 수신하면 후보들의 추가 세트를 표시하는 단계를 더 포함하며, 상기 후보들의 추가 세트는 적어도 하나의 추가 후보를 포함하는 텍스트 입력 방법.
  21. 제20항에 있어서, 상기 추가 세트에 포함된 추가 후보에 관련된 입력을 수신하는 단계 및 상기 추가 후보를 제1 후보로 식별하는 단계를 더 포함하는 텍스트 입력 방법.
  22. 제19항, 제20항 또는 제21항에 있어서, 상기 터치 포인트를 표시하는 단계를 더 포함하는 텍스트 입력 방법.
  23. 제19항, 제20항, 제21항 또는 제22항에 있어서, 상기 입력은 가상 키를 식별하는 터치 입력이며 상기 터치 포인트는 상기 터치 입력에 대한 터치의 포인트인 텍스트 입력 방법.
  24. 제19항, 제20항, 제21항, 제22항 또는 제23항에 있어서, 상기 후보를 가상 키로서 표시하는 단계를 더 포함하는 텍스트 입력 방법.
  25. 제19항, 제20항, 제21항, 제22항, 제23항 또는 제24항에 있어서, 터치 입력 해제를 수신하는 단계 및 상기 해제를 선택 명령으로 해석하는 단계를 더 포함하는 텍스트 입력 방법.
  26. 제19항, 제20항, 제21항, 제22항, 제23항, 제24항 또는 제25항에 있어서, 이전 입력에 기초하여 한 세트의 후보들을 표시하는 단계를 더 포함하는 텍스트 입력 방법.
  27. 제19항, 제20항, 제21항, 제22항, 제23항, 제24항, 제25항 또는 제26항에 있어서, 상기 후보는 단어 완성에 연관된 텍스트 입력 방법.
  28. 제19항, 제20항, 제21항, 제22항, 제23항, 제24항, 제25항 또는 제26항에 있어서, 상기 후보는 단어 예측에 연관된 텍스트 입력 방법.
  29. 제19항, 제20항, 제21항, 제22항, 제23항, 제24항, 제25항, 제26항, 제27항 또는 제28항에 있어서, 적어도 하나의 상기 후보는 적어도 하나의 배치 및 연관된 키에 대해서 고정적인 텍스트 입력 방법.
  30. 제19항, 제20항, 제21항, 제22항, 제23항, 제24항, 제25항, 제26항, 제27항, 제28항 또는 제29항에 있어서, 각 후보는 방향에 연관되며, 방향 지시를 수신하는 단계 및 따라서 후보를 제1 후보로 식별하는 단계를 더 포함하는 텍스트 입력 방법.
  31. 제23항, 제24항, 제25항, 제26항, 제27항, 제28항, 제29항 또는 제30항에 있어서, 상기 터치 포인트로부터의 위치 오프셋에 상기 후보들을 표시하는 단계 및 터치 입력을 오프셋 위치를 가진 것으로 해석하는 단계를 더 포함하는 텍스트 입력 방법.
  32. 제19항, 제20항, 제21항, 제22항, 제23항, 제24항, 제25항, 제26항, 제27항, 제28항, 제29항 또는 제30항에 있어서, 상기 입력은 물리적 키보드로부터의 키 입력이고, 상기 터치 포인트는 상기 물리적 키보드 상에서 터치된 키의 위치이며, 상기 터치 포인트를 디스플레이 위치에 투영하는 단계 및 상기 투영된 터치 포인트 주변에 배열된 상기 후보들을 표시하여 각 후보가 상기 물리적 키보드 상의 키에 매핑하는 단계를 더 포함하는 텍스트 입력 방법.
  33. 제32항에 있어서, 상기 터치 포인트는 상기 후보들의 제1 세트를 표시하기 위한 상기 물리적 키보드 상의 충분한 주변 키를 가지지 않은 키의 위치이며, 상기 터치 포인트 투영을 상기 후보들의 제1 세트로 표시하기 위한 상기 물리적 키보드 상에 충분한 주변 키를 가진 상기 키의 위치로 번역하는 단계 및 상기 후보들을 상기 번역된 터치 포인트 투영 주변에 배열하는 단계를 더 포함하는 텍스트 입력 방법.
  34. 제32항 또는 제33항에 있어서, 상기 키 입력은 멀티-탭 입력이며, 상기 멀티-탭 입력에 기초하여, 상기 키에 연관된 복수의 문자 중 하나를 식별하는 단계를 더 포함하며, 상기 후보들의 제1 세트는 상기 식별된 문자에 연관된 적어도 하나의 후보를 포함하는 텍스트 입력 방법.
  35. 제32항 또는 제33항에 있어서, 상기 키 입력은 적어도 두 개의 문자에 연관된 키에 관련되며, 상기 후보들의 제1 세트는 상기 문자에 연관된 후보들을 각각 포함하며, 상기 후보들 중 어느 하나를 선택하면, 상기 선택된 후보에 연관된 문자에 연관된 후보들의 추가 세트를 표시하는 단계를 더 포함하는 텍스트 입력 방법.
  36. 제32항 또는 제33항에 있어서, 상기 키 입력은 하나 이상의 키 입력 이벤트를 포함하고, 상기 적어도 하나의 키 입력 이벤트는 적어도 두 개의 문자에 연관되어 상기 키 입력이 적어도 두 개의 텍스트 해석에 상응하는 키에 관련되며, 상기 후보들의 제1 세트는 제1 텍스트 해석에 연관된 후보 및 제2 텍스트 해석에 연관된 후보를 적어도 포함하는 텍스트 입력 방법.
  37. 컨트롤러를 포함하는 장치에 있어서,
    상기 컨트롤러는,
    필기 인식 결과에 관련되고 터치 포인트를 식별하는 입력을 수신하고;
    상기 터치 포인트 주변에 배열된 적어도 하나의 후보를 포함하는 후보들의 제1 세트를 표시하고;
    상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하고;
    상기 제1 후보의 선택 명령을 수신하며;
    상기 선택된 후보를 텍스트로 입력하도록 구성되는 장치.
  38. 제37항에 있어서, 상기 컨트롤러는 상기 제1 후보에 관련된 입력을 수신하면 후보들의 추가 세트를 표시하도록 더 구성되며, 상기 후보들의 추가 세트는 적어도 하나의 추가 후보를 포함하는 장치.
  39. 제38항에 있어서, 상기 컨트롤러는 상기 추가 세트에 포함된 추가 후보에 관련된 입력을 수신하고 상기 추가 후보를 제1 후보로 식별하도록 더 구성되는 장치.
  40. 제37항, 제38항 또는 제39항에 있어서, 상기 컨트롤러는 상기 터치 포인트를 디스플레이 상에 표시하도록 더 구성되는 장치.
  41. 제37항, 제38항, 제39항 또는 제40항에 있어서, 상기 터치 포인트는 상기 터치 입력에 대한 터치의 포인트인 장치.
  42. 제37항, 제38항, 제39항, 제40항 또는 제41항에 있어서, 상기 컨트롤러는 상기 후보를 가상 키로서 표시하도록 더 구성되는 장치.
  43. 제37항, 제38항, 제39항, 제40항, 제41항 또는 제42항에 있어서, 상기 컨트롤러는 터치 입력 해제를 수신하고 상기 해제를 선택 명령으로 해석하도록 더 구성되는 장치.
  44. 제37항, 제38항, 제39항, 제40항, 제41항, 제42항 또는 제43항에 있어서, 상기 컨트롤러는 이전 입력에 기초하여 한 세트의 후보들을 제공하도록 더 구성되는 장치.
  45. 제37항, 제38항, 제39항, 제40항, 제41항, 제42항, 제43항 또는 제44항에 있어서, 상기 후보는 단어 완성에 연관된 장치.
  46. 제37항, 제38항, 제39항, 제40항, 제41항, 제42항, 제43항 또는 제44항에 있어서, 상기 후보는 단어 예측에 연관된 장치.
  47. 제37항, 제38항, 제39항, 제40항, 제41항, 제42항, 제43항, 제44항, 제45항 또는 제46항에 있어서, 적어도 하나의 상기 후보는 적어도 하나의 배치 및 연관된 키에 대해서 고정적인 장치.
  48. 제37항, 제38항, 제39항, 제40항, 제41항, 제42항, 제43항, 제44항, 제45항, 제46항 또는 제47항에 있어서, 각 후보는 방향에 연관되며 상기 컨트롤러는 방향 지시를 수신하고 따라서 후보를 제1 후보로 식별하도록 구성되는 장치.
  49. 제41항, 제42항, 제43항, 제44항, 제45항, 제46항, 제47항 또는 제48항에 있어서, 상기 컨트롤러는 상기 터치 포인트로부터의 위치 오프셋에 상기 후보들을 표시하고 터치 입력을 오프셋 위치를 가진 것으로 해석하도록 더 구성되며 상기 오프셋은 동일한 장치.
  50. 필기 인식 결과에 관련되고 터치 포인트를 식별하는 입력을 수신하는 단계;
    상기 터치 포인트 주변에 배열된 복수의 후보를 포함하는 후보들의 제1 세트를 표시하는 단계;
    상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하는 단계;
    상기 제1 후보의 선택 명령을 수신하는 단계; 및
    상기 선택된 후보를 텍스트로 입력하는 단계를 포함하는 텍스트 입력 방법.
  51. 제50항에 있어서, 상기 제1 후보에 관련된 입력을 수신하면 후보들의 추가 세트를 표시하는 단계를 더 포함하며, 상기 후보들의 추가 세트는 적어도 하나의 추가 후보를 포함하는 텍스트 입력 방법.
  52. 제51항에 있어서, 상기 추가 세트에 포함된 추가 후보에 관련된 입력을 수신하는 단계 및 상기 추가 후보를 제1 후보로 식별하는 단계를 더 포함하는 텍스트 입력 방법.
  53. 제50항, 제51항 또는 제52항에 있어서, 상기 터치 포인트를 표시하는 단계를 더 포함하는 텍스트 입력 방법.
  54. 제50항, 제51항, 제52항 또는 제53항에 있어서, 상기 터치 포인트는 상기 터치 입력에 대한 터치의 포인트인 텍스트 입력 방법.
  55. 제50항, 제51항, 제52항, 제53항 또는 제54항에 있어서, 상기 후보를 가상 키로서 표시하는 단계를 더 포함하는 텍스트 입력 방법.
  56. 제50항, 제51항, 제52항, 제53항, 제54항 또는 제55항에 있어서, 터치 입력 해제를 수신하는 단계 및 상기 해제를 선택 명령으로 해석하는 단계를 더 포함하는 텍스트 입력 방법.
  57. 제50항, 제51항, 제52항, 제53항, 제54항, 제55항 또는 제56항에 있어서, 이전 입력에 기초하여 한 세트의 후보들을 표시하는 단계를 더 포함하는 텍스트 입력 방법.
  58. 제50항, 제51항, 제52항, 제53항, 제54항, 제55항, 제56항 또는 제57항에 있어서, 상기 후보는 단어 완성에 연관된 텍스트 입력 방법.
  59. 제50항, 제51항, 제52항, 제53항, 제54항, 제55항, 제56항 또는 제57항에 있어서, 상기 후보는 단어 예측에 연관된 텍스트 입력 방법.
  60. 제50항, 제51항, 제52항, 제53항, 제54항, 제55항, 제56항, 제57항, 제58항 또는 제59항에 있어서, 적어도 하나의 상기 후보는 적어도 하나의 배치 및 연관된 키에 대해서 고정적인 텍스트 입력 방법.
  61. 제50항, 제51항, 제52항, 제53항, 제54항, 제55항, 제56항, 제57항, 제58항, 제59항 또는 제60항에 있어서, 각 후보는 방향에 연관되며, 방향 지시를 수신하는 단계 및 따라서 후보를 제1 후보로 식별하는 단계를 더 포함하는 텍스트 입력 방법.
  62. 제50항, 제51항, 제52항, 제53항, 제54항, 제55항, 제56항, 제57항, 제58항, 제59항, 제60항 또는 제61항에 있어서, 상기 터치 포인트로부터의 위치 오프셋에 상기 후보들을 표시하는 단계 및 터치 입력을 오프셋 위치를 가진 것으로 해석하는 단계를 더 포함하는 텍스트 입력 방법.
  63. 키에 관련되고 터치 포인트를 식별하는 입력을 수신하고;
    상기 터치 포인트 주변에 배열된 적어도 하나의 후보를 포함하는 후보들의 제1 세트를 표시하고;
    상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하고;
    상기 제1 후보의 선택 명령을 수신하며;
    상기 선택된 후보를 텍스트로 입력하도록 구성되는 유저 인터페이스.
  64. 필기 인식 결과에 관련되고 터치 포인트를 식별하는 입력을 수신하고;
    상기 터치 포인트 주변에 배열된 복수의 후보를 포함하는 후보들의 제1 세트를 표시하고;
    상기 제1 세트에 포함된 제1 후보에 관련된 입력을 수신하고;
    상기 제1 후보의 선택 명령을 수신하며;
    상기 선택된 후보를 텍스트로 입력하도록 구성되는 유저 인터페이스.
  65. 컴퓨터 프로그램이 실행되어 제19항 내지 36항 및 제50항 내지 제62항 중 어느 한 항에 따른 방법을 수행하도록 프로세서를 동작시키는 명령들을 포함하는 컴퓨터 프로그램.
KR1020117023526A 2009-03-06 2009-06-29 개선된 텍스트 입력 KR20120006503A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/399,509 2009-03-06
US12/399,509 US8605039B2 (en) 2009-03-06 2009-03-06 Text input

Publications (1)

Publication Number Publication Date
KR20120006503A true KR20120006503A (ko) 2012-01-18

Family

ID=41335611

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117023526A KR20120006503A (ko) 2009-03-06 2009-06-29 개선된 텍스트 입력

Country Status (4)

Country Link
US (2) US8605039B2 (ko)
EP (1) EP2404230A1 (ko)
KR (1) KR20120006503A (ko)
WO (1) WO2010099835A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540441B2 (en) 2016-10-21 2020-01-21 Samsung Electronics Co., Ltd. Device and method for providing recommended words for character input

Families Citing this family (228)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8599106B2 (en) 2010-10-01 2013-12-03 Z124 Dual screen application behaviour
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010068445A2 (en) 2008-11-25 2010-06-17 Spetalnick Jeffrey R Methods and systems for improved data input, compression, recognition, correction, and translation through frequency-based language analysis
US8605039B2 (en) 2009-03-06 2013-12-10 Zimpl Ab Text input
US10191654B2 (en) 2009-03-30 2019-01-29 Touchtype Limited System and method for inputting text into electronic devices
GB0905457D0 (en) * 2009-03-30 2009-05-13 Touchtype Ltd System and method for inputting text into electronic devices
US9424246B2 (en) 2009-03-30 2016-08-23 Touchtype Ltd. System and method for inputting text into electronic devices
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
KR101542136B1 (ko) * 2009-03-31 2015-08-05 삼성전자 주식회사 문자 메시지 작성 방법 및 이를 이용한 휴대 단말기
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
DE212010000169U1 (de) * 2009-10-26 2012-07-26 Google, Inc. Prädiktive Texteingabe für Eingabeeinrichtungen
DE102009057725A1 (de) 2009-12-10 2011-06-16 Siemens Enterprise Communications Gmbh & Co. Kg Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
JP5615583B2 (ja) * 2010-04-08 2014-10-29 京セラ株式会社 文字入力装置、文字入力方法および文字入力プログラム
US8698764B1 (en) 2010-06-30 2014-04-15 Amazon Technologies, Inc. Dorsal touch input
JP2012032872A (ja) * 2010-07-28 2012-02-16 Funai Electric Co Ltd 文字入力装置
US8918734B2 (en) 2010-07-28 2014-12-23 Nuance Communications, Inc. Reduced keyboard with prediction solutions when input is a partial sliding trajectory
JP5625612B2 (ja) * 2010-08-19 2014-11-19 株式会社リコー 操作表示装置および操作表示方法
US9122318B2 (en) 2010-09-15 2015-09-01 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
JP5782699B2 (ja) 2010-10-15 2015-09-24 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
US9244604B1 (en) 2010-11-05 2016-01-26 Amazon Technologies, Inc. Adaptive touch sensor interface
CN102467322A (zh) * 2010-11-09 2012-05-23 腾讯科技(深圳)有限公司 一种基于触摸屏的信息显示方法及系统
WO2012076743A1 (en) * 2010-12-08 2012-06-14 Nokia Corporation An apparatus and associated methods for text entry
EP2469384A1 (en) * 2010-12-23 2012-06-27 Research In Motion Limited Portable electronic device and method of controlling same
US8730188B2 (en) * 2010-12-23 2014-05-20 Blackberry Limited Gesture input on a portable electronic device and method of controlling the same
KR20120074175A (ko) * 2010-12-27 2012-07-05 삼성전자주식회사 단말기에서 문자 입력 장치 및 방법
US20120162086A1 (en) * 2010-12-27 2012-06-28 Samsung Electronics Co., Ltd. Character input method and apparatus of terminal
EP2661705A4 (en) 2011-01-05 2016-06-01 Google Inc METHOD AND SYSTEM FOR FACILITATING TEXT INPUT
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US20130249832A1 (en) * 2011-03-31 2013-09-26 Ntt Docomo, Inc. Mobile terminal
CN102171642A (zh) * 2011-04-11 2011-08-31 华为终端有限公司 信息处理方法及终端设备
US9251717B2 (en) * 2011-04-27 2016-02-02 Heidi LoStracco Augmentative and alternative communication language system
KR20120126491A (ko) * 2011-05-12 2012-11-21 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 데이터 입력 방법 및 장치
CN102203715B (zh) 2011-05-23 2013-03-20 华为终端有限公司 一种输入方法、输入装置和终端设备
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US20130069881A1 (en) * 2011-09-15 2013-03-21 Research In Motion Limited Electronic device and method of character entry
EP2570892A1 (en) * 2011-09-15 2013-03-20 Research In Motion Limited Electronic device and method of character entry
US8842057B2 (en) 2011-09-27 2014-09-23 Z124 Detail on triggers: transitional states
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US9652448B2 (en) 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
US9715489B2 (en) * 2011-11-10 2017-07-25 Blackberry Limited Displaying a prediction candidate after a typing mistake
US8904309B1 (en) * 2011-11-23 2014-12-02 Google Inc. Prediction completion gesture
EP2799954B1 (en) * 2011-12-28 2020-01-15 Hiroyuki Ikeda Portable terminal
KR20130080891A (ko) * 2012-01-06 2013-07-16 삼성전자주식회사 디스플레이장치 및 그 제어방법
CA2789827C (en) 2012-01-19 2017-06-13 Research In Motion Limited Virtual keyboard providing an indication of received input
US9134810B2 (en) * 2012-01-19 2015-09-15 Blackberry Limited Next letter prediction for virtual keyboard
US9557913B2 (en) 2012-01-19 2017-01-31 Blackberry Limited Virtual keyboard display having a ticker proximate to the virtual keyboard
WO2013119712A1 (en) * 2012-02-06 2013-08-15 Colby Michael K Character-string completion
US20130222255A1 (en) 2012-02-24 2013-08-29 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
CN103380407B (zh) * 2012-02-24 2017-05-03 黑莓有限公司 在触摸屏键盘与候选字母靠近关联的分区中提供词预测的触摸屏键盘
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9201510B2 (en) 2012-04-16 2015-12-01 Blackberry Limited Method and device having touchscreen keyboard with visual cues
US9354805B2 (en) 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
EP2660684A1 (en) * 2012-04-30 2013-11-06 BlackBerry Limited User interface for changing an input state of a virtual keyboard
US9292192B2 (en) 2012-04-30 2016-03-22 Blackberry Limited Method and apparatus for text selection
US10025487B2 (en) 2012-04-30 2018-07-17 Blackberry Limited Method and apparatus for text selection
US20130285916A1 (en) * 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard providing word predictions at locations in association with candidate letters
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9218526B2 (en) 2012-05-24 2015-12-22 HJ Laboratories, LLC Apparatus and method to detect a paper document using one or more sensors
US9207860B2 (en) 2012-05-25 2015-12-08 Blackberry Limited Method and apparatus for detecting a gesture
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
JP6071107B2 (ja) 2012-06-14 2017-02-01 裕行 池田 携帯端末
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US9274609B2 (en) 2012-07-23 2016-03-01 Mingyan Xie Inputting radical on touch screen device
US9256366B2 (en) 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US9524290B2 (en) 2012-08-31 2016-12-20 Blackberry Limited Scoring predictions based on prediction length and typing speed
US9063653B2 (en) 2012-08-31 2015-06-23 Blackberry Limited Ranking predictions based on typing speed and typing confidence
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8843845B2 (en) * 2012-10-16 2014-09-23 Google Inc. Multi-gesture text input prediction
KR101370834B1 (ko) * 2012-10-18 2014-03-07 삼성전자주식회사 디스플레이 장치 및 이의 문자 입력 방법
US8806384B2 (en) * 2012-11-02 2014-08-12 Google Inc. Keyboard gestures for character string replacement
US20140136967A1 (en) * 2012-11-09 2014-05-15 Research In Motion Limited Method of providing predictive text
US9880736B2 (en) * 2012-12-03 2018-01-30 Facebook, Inc. Systems and methods for determining a symbol input by a user from two sets of symbols on a multi-layer keyboard
WO2014100949A1 (en) * 2012-12-24 2014-07-03 Nokia Corporation Apparatus for user interface and associated methods
US8832589B2 (en) 2013-01-15 2014-09-09 Google Inc. Touch keyboard using language and spatial models
IN2013CH00469A (ko) * 2013-01-21 2015-07-31 Keypoint Technologies India Pvt Ltd
WO2014111959A2 (en) 2013-01-21 2014-07-24 Keypoint Technologies India Pvt. Ltd. Text input system and method
US20140208258A1 (en) * 2013-01-22 2014-07-24 Jenny Yuen Predictive Input Using Custom Dictionaries
CN103970278B (zh) * 2013-01-25 2017-02-08 胡竞韬 一种圆形触感键盘的输入方法及装置
US20140215397A1 (en) * 2013-01-29 2014-07-31 Research In Motion Limited Apparatus and Method Pertaining to Predicted-Text Derivatives
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US10037139B2 (en) 2013-02-20 2018-07-31 Blackberry Limited Method and apparatus for word completion
US8701050B1 (en) * 2013-03-08 2014-04-15 Google Inc. Gesture completion path display for gesture-based keyboards
DE102013004239A1 (de) * 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung Vervollständigungs-Vorschlag
DE102013004246A1 (de) * 2013-03-12 2014-09-18 Audi Ag Einem Fahrzeug zugeordnete Vorrichtung mit Buchstabiereinrichtung - Vervollständigungs-Kennzeichnung
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
JP2016513849A (ja) * 2013-03-15 2016-05-16 ノリス,フォーブス,ホルテン,サード スペース最適化マイクロキーボードの方法および装置
US9274685B2 (en) * 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
US9348429B2 (en) * 2013-03-15 2016-05-24 Blackberry Limited Method and apparatus for word prediction using the position of a non-typing digit
US20140282203A1 (en) * 2013-03-15 2014-09-18 Research In Motion Limited System and method for predictive text input
EP2778861A1 (en) * 2013-03-15 2014-09-17 BlackBerry Limited System and method for predictive text input
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9183195B2 (en) * 2013-03-15 2015-11-10 Disney Enterprises, Inc. Autocorrecting text for the purpose of matching words from an approved corpus
KR102087896B1 (ko) 2013-04-03 2020-03-12 삼성전자주식회사 터치스크린을 가지는 전자 장치에서 텍스트 입력하는 방법 및 장치
US8887103B1 (en) 2013-04-22 2014-11-11 Google Inc. Dynamically-positioned character string suggestions for gesture typing
US9721362B2 (en) * 2013-04-24 2017-08-01 Microsoft Technology Licensing, Llc Auto-completion of partial line pattern
US9261973B2 (en) 2013-06-07 2016-02-16 Blackberry Limited Method and system for previewing characters based on finger position on keyboard
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
KR102157264B1 (ko) 2013-10-30 2020-09-17 삼성전자주식회사 디스플레이 장치 및 그 ui 제공 방법
GB2520266A (en) 2013-11-13 2015-05-20 Ibm Cursor-Based Character input interface
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US20150160855A1 (en) * 2013-12-10 2015-06-11 Google Inc. Multiple character input with a single selection
KR20150081181A (ko) * 2014-01-03 2015-07-13 삼성전자주식회사 디스플레이 장치 및 이의 추천 문자 제공 방법
CN106605200A (zh) 2014-04-08 2017-04-26 福布斯·霍尔滕·三世·诺里斯 一种优化人体工程学的向用户呈现按键的拇指键入方法
KR102257817B1 (ko) * 2014-04-11 2021-05-28 삼성전자 주식회사 전자장치에서 숫자의 입력을 제어하는 방법 및 장치
CN105095182B (zh) * 2014-05-22 2018-11-06 华为技术有限公司 一种回复信息推荐方法及装置
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US20150350118A1 (en) * 2014-05-30 2015-12-03 Apple Inc. Canned answers in messages
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN106716396A (zh) * 2014-07-15 2017-05-24 艾玛尔·Y·塞维尔公司 基于符号的书面语言的字符的输入
US20160026382A1 (en) * 2014-07-22 2016-01-28 Qualcomm Incorporated Touch-Based Flow Keyboard For Small Displays
US10534532B2 (en) * 2014-08-08 2020-01-14 Samsung Electronics Co., Ltd. Electronic device and method for processing letter input in electronic device
US10929012B2 (en) * 2014-09-09 2021-02-23 Microsoft Technology Licensing, Llc Systems and methods for multiuse of keys for virtual keyboard
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US20170371515A1 (en) 2014-11-19 2017-12-28 Honda Motor Co., Ltd. System and method for providing absolute and zone coordinate mapping with graphic animations
US9727231B2 (en) * 2014-11-19 2017-08-08 Honda Motor Co., Ltd. System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen
CN104516674B (zh) * 2014-12-19 2017-11-14 网易有道信息技术(北京)有限公司 文字处理方法和装置
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) * 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11054981B2 (en) * 2015-06-10 2021-07-06 Yaakov Stein Pan-zoom entry of text
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US9952764B2 (en) 2015-08-20 2018-04-24 Google Llc Apparatus and method for touchscreen keyboard suggestion word generation and display
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
CN105389114A (zh) * 2015-11-10 2016-03-09 北京新美互通科技有限公司 内容输入方法及装置
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
GB201610984D0 (en) 2016-06-23 2016-08-10 Microsoft Technology Licensing Llc Suppression of input images
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
WO2018053803A1 (zh) * 2016-09-23 2018-03-29 华为技术有限公司 一种压力触控方法及终端
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
CN109101168A (zh) * 2017-06-20 2018-12-28 中兴通讯股份有限公司 数据输入方法、装置和移动终端
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US11200815B2 (en) * 2017-11-17 2021-12-14 Kimberly White Tactile communication tool
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
DE102018117619A1 (de) * 2018-07-20 2020-01-23 Amazonen-Werke H. Dreyer Gmbh & Co. Kg Bedieneinheit für eine landwirtschaftliche Maschine
CN109240590B (zh) * 2018-09-17 2020-12-25 东莞华贝电子科技有限公司 用于虚拟键盘的输入控制方法及装置
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. User activity shortcut suggestions
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5818437A (en) * 1995-07-26 1998-10-06 Tegic Communications, Inc. Reduced keyboard disambiguating computer
EP0842463B1 (en) * 1995-07-26 2000-03-29 Tegic Communications, Inc. Reduced keyboard disambiguating system
US7319957B2 (en) * 2004-02-11 2008-01-15 Tegic Communications, Inc. Handwriting and voice input with automatic correction
US7679534B2 (en) * 1998-12-04 2010-03-16 Tegic Communications, Inc. Contextual prediction of user words and user actions
US6636162B1 (en) * 1998-12-04 2003-10-21 America Online, Incorporated Reduced keyboard text input system for the Japanese language
US7293231B1 (en) * 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
US6204848B1 (en) * 1999-04-14 2001-03-20 Motorola, Inc. Data entry apparatus having a limited number of character keys and method
US7821503B2 (en) * 2003-04-09 2010-10-26 Tegic Communications, Inc. Touch screen and graphical user interface
US7750891B2 (en) * 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
US7177797B1 (en) * 2000-08-31 2007-02-13 Semantic Compaction Systems Linguistic retrieval system and method
DE60131894T2 (de) 2000-10-18 2008-12-18 602531 British Columbia Ltd., Vancouver Verfahren, System und Medien zum Eingeben von Daten in eine Personal-Computer-Vorrichtung
EP1887451A3 (en) 2000-10-18 2009-06-24 602531 British Columbia Ltd. Data entry method and system for personal computer, and corresponding computer readable medium
US20090040184A9 (en) * 2001-10-04 2009-02-12 Infogation Corporation Information entry mechanism
US7075520B2 (en) * 2001-12-12 2006-07-11 Zi Technology Corporation Ltd Key press disambiguation using a keypad of multidirectional keys
KR100941948B1 (ko) * 2002-05-21 2010-02-11 코닌클리케 필립스 일렉트로닉스 엔.브이. 객체를 선택 및 입력하는 시스템, 객체 세트로부터 객체를 입력하는 방법, 및 이 방법을 구현하기 위한 소프트웨어 코드를 저장하기 위한 컴퓨터 판독가능 매체
EP1567927B1 (en) * 2002-11-29 2013-07-10 Koninklijke Philips Electronics N.V. System and method for user interface with displaced representation of touch area
US7453439B1 (en) * 2003-01-16 2008-11-18 Forward Input Inc. System and method for continuous stroke word-based text input
US20040153963A1 (en) * 2003-02-05 2004-08-05 Simpson Todd G. Information entry mechanism for small keypads
US20060236239A1 (en) * 2003-06-18 2006-10-19 Zi Corporation Text entry system and method
CN100589099C (zh) 2003-06-18 2010-02-10 字源加拿大公司 可配置的信息识别系统和方法
US20050192802A1 (en) * 2004-02-11 2005-09-01 Alex Robinson Handwriting and voice input with automatic correction
US7587671B2 (en) * 2005-05-17 2009-09-08 Palm, Inc. Image repositioning, storage and retrieval
US8185841B2 (en) * 2005-05-23 2012-05-22 Nokia Corporation Electronic text input involving a virtual keyboard and word completion functionality on a touch-sensitive display screen
US7886233B2 (en) 2005-05-23 2011-02-08 Nokia Corporation Electronic text input involving word completion functionality for predicting word candidates for partial word inputs
US7443316B2 (en) * 2005-09-01 2008-10-28 Motorola, Inc. Entering a character into an electronic device
US10521022B2 (en) * 2006-03-17 2019-12-31 Conversant Wireless Licensing S.a.r.l. Mobile communication terminal and method therefor
EP1953623B1 (en) 2007-01-30 2018-09-05 Samsung Electronics Co., Ltd. Apparatus and method for inputting characters on touch keyboard
WO2009034220A1 (en) 2007-09-13 2009-03-19 Elektrobit Wireless Communications Oy Control system of touch screen and method
US8661340B2 (en) * 2007-09-13 2014-02-25 Apple Inc. Input methods for device having multi-language environment
CN100592249C (zh) * 2007-09-21 2010-02-24 上海汉翔信息技术有限公司 快速输入相关词的方法
DE102007059273A1 (de) * 2007-12-08 2009-06-18 T-Mobile Internationale Ag Virtuelle Tastatur eines mobilen Endgerätes
US8949743B2 (en) * 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
KR100988397B1 (ko) * 2008-06-09 2010-10-19 엘지전자 주식회사 이동 단말기 및 그의 텍스트 수정방법
US20100088087A1 (en) * 2008-10-02 2010-04-08 Sony Ericsson Mobile Communications Ab Multi-tapable predictive text
US20100085312A1 (en) * 2008-10-03 2010-04-08 Sony Ericsson Mobile Communications Ab Method and Apparatus for Dual Input Text Entry
KR101564314B1 (ko) * 2008-10-06 2015-11-02 삼성전자주식회사 텍스트 입력방법 및 이를 적용한 디스플레이 장치
US20100199176A1 (en) * 2009-02-02 2010-08-05 Chronqvist Fredrik A Electronic device with text prediction function and method
US8605039B2 (en) 2009-03-06 2013-12-10 Zimpl Ab Text input
US20100293457A1 (en) * 2009-05-15 2010-11-18 Gemstar Development Corporation Systems and methods for alphanumeric navigation and input
US7721222B1 (en) * 2009-06-10 2010-05-18 Cheman Shaik Dynamic language text generation system and method
DE212010000169U1 (de) * 2009-10-26 2012-07-26 Google, Inc. Prädiktive Texteingabe für Eingabeeinrichtungen

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540441B2 (en) 2016-10-21 2020-01-21 Samsung Electronics Co., Ltd. Device and method for providing recommended words for character input
US11481551B2 (en) 2016-10-21 2022-10-25 Samsung Electronics Co., Ltd. Device and method for providing recommended words for character input
US12216995B2 (en) 2016-10-21 2025-02-04 Samsung Electronics Co., Ltd. Device and method for providing recommended words for character input

Also Published As

Publication number Publication date
US20140123050A1 (en) 2014-05-01
EP2404230A1 (en) 2012-01-11
US20100225599A1 (en) 2010-09-09
WO2010099835A1 (en) 2010-09-10
US8605039B2 (en) 2013-12-10

Similar Documents

Publication Publication Date Title
KR20120006503A (ko) 개선된 텍스트 입력
US8583440B2 (en) Apparatus and method for providing visual indication of character ambiguity during text entry
US7584429B2 (en) Method and device for operating a user-input area on an electronic display device
US9329753B2 (en) Handheld electronic device having selectable language indicator and menus for language selection and method therefor
US9128921B2 (en) Touchscreen keyboard with corrective word prediction
US8548793B2 (en) Handheld electronic device having selectable language indicator for language selection and method therefor
KR20130001261A (ko) 이동 전화의 터치 스크린과 함께 사용하기 위한 다중 모드 문자 입력 시스템
JP2007133884A5 (ko)
JP2007133884A (ja) 減少型キーボード曖昧さ除去システム
JP2003015808A (ja) タッチ式キー入力装置
JP6681518B2 (ja) 文字入力装置
US8589145B2 (en) Handheld electronic device including toggle of a selected data source, and associated method
WO2009074278A1 (en) Device and method for inputting combined characters
US20210271364A1 (en) Data entry systems
US20060279433A1 (en) Method of mapping characters for a mobile telephone keypad
CA2541580C (en) Handheld electronic device including toggle of a selected data source, and associated method
EP1921836A1 (en) Handheld electronic device having selectable language indicator for language selection and method therefor
EP2668554A2 (en) Improved data entry systems
KR20100025628A (ko) 전기전자기기의 버튼효율 증대방법
EP2075674A1 (en) Handheld electronic device having selectable input mode indicator and method therefor
KR20090119184A (ko) 전기전자기기의 버튼효율 증대방법
EP1921543A1 (en) Handheld electronic device having selectable language indicator and menus for language selection and method therefor
TW201331785A (zh) 改良的資料鍵入系統
KR20080101696A (ko) 전기전자기기의 버튼효율 증대방법

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20111006

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20140618

Comment text: Request for Examination of Application

N231 Notification of change of applicant
PN2301 Change of applicant

Patent event date: 20140729

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20150206

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20150828

PC1904 Unpaid initial registration fee