KR20140141089A - 사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치 - Google Patents
사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치 Download PDFInfo
- Publication number
- KR20140141089A KR20140141089A KR1020130062388A KR20130062388A KR20140141089A KR 20140141089 A KR20140141089 A KR 20140141089A KR 1020130062388 A KR1020130062388 A KR 1020130062388A KR 20130062388 A KR20130062388 A KR 20130062388A KR 20140141089 A KR20140141089 A KR 20140141089A
- Authority
- KR
- South Korea
- Prior art keywords
- application
- pen
- locus
- movement
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
본 개시는 전자 장치의 운용에 관한 것으로 특히, 사용자 입력에 응답하여 어플리케이션을 실행하도록 한 방법 및 이를 구현하는 전자 장치에 관한 것이다. 본 개시에 따른 전자 장치를 동작시키는 방법은 표시부에 설치된 터치패널을 통해 펜의 움직임을 검출하는 동작; 상기 펜의 움직임에 응답하여 어플리케이션 리스트에서 상기 움직임에 대응되는 어플리케이션을 검색하는 동작; 상기 검색된 어플리케이션의 정보를 표시하는 동작; 및 상기 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 상기 표시된 정보에 해당되는 어플리케이션을 실행하는 동작을 포함할 수 있다.
Description
본 개시는 전자 장치의 운용에 관한 것으로 특히, 사용자 입력에 응답하여 어플리케이션을 실행하도록 한 방법 및 이를 구현하는 전자 장치에 관한 것이다.
최근 들어, 전자 장치는 하드웨어 기술의 발달을 기반으로 다양한 사용자 기능들을 복합적으로 운용할 수 있도록 지원하고 있다. 특히, 터치스크린을 가지는 전자 장치가 많이 사용되고 있는 추세다. 이러한 전자 장치는 정보를 터치스크린에 표시하고, 표시된 정보에 대한 사용자의 입력(예, 터치스크린에 표시된 아이콘에 대한 터치)에 응답하여 피드백을 사용자에게 제공할 수 있다. 예컨대, 전자 장치는 터치된 아이콘에 대응되는 어플리케이션을 실행하고, 실행된 어플리케이션과 관련된 정보를 표시할 수 있다.
사용자는 다양한 어플리케이션들을 자신의 전자 장치(예, 스마트폰, 태블릿 PC 등)로 다운로드받아 사용할 수 있다. 예컨대, 전자 장치는 어플리케이션의 실행을 위한 아이콘을 표시하고, 표시된 아이콘과 관련한 사용자 입력에 응답하여 어플리케이션을 실행할 수 있다. 또한 전자 장치는 어플리케이션 아이콘에 대응되는 바로 가기를 표시하고, 이를 통해 어플리케이션이 실행되게 할 수도 있다. 또한 전자 장치는 동일한 종류(예, 게임 등)의 어플리케이션들을 한데 묶어 놓은 폴더를 표시하고, 이를 통해 어플리케이션이 실행되게 할 수도 있다.
그런데, 어떠한 어플리케이션이 실행되려면 여러 번의 사용자 입력 과정들이 필요할 수 있다. 예컨대, 전자 장치는 웹 페이지를 표시하다가, 사용자의 요청에 응답하여 게임을 실행할 수 있다. 이러한 게임을 실행하기 위해서는, 웹 페이지의 표시를 종료하기 위한 사용자 입력과, 게임에 대응되는 아이콘을 찾기 위한 사용자 입력과, 검색된 아이콘을 표시하기 위한 사용자 입력과, 표시된 아이콘을 선택하기 위한 사용자 입력이 필요할 수 있다. 이와 같은 여러 번의 사용자 입력 과정들은 사용자에게 불편함과 번거로움을 줄 수 있다.
본 개시는 사용자가 원하는 어플리케이션을 쉽고 빠르게 실행할 수 있도록 하는 방법 및 장치를 제공함을 목적으로 한다. 특히, 본 개시는 터치스크린을 통한 펜 입력을 이용하여, 어플리케이션을 쉽고 빠르게 실행할 수 있도록 하는 방법 및 장치를 제공함을 목적으로 한다.
본 개시에 따른 전자 장치를 동작시키는 방법은 표시부에 설치된 터치패널을 통해 펜의 움직임을 검출하는 동작; 상기 펜의 움직임에 응답하여 어플리케이션 리스트에서 상기 움직임에 대응되는 어플리케이션을 검색하는 동작; 상기 검색된 어플리케이션의 정보를 표시하는 동작; 및 상기 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 상기 표시된 정보에 해당되는 어플리케이션을 실행하는 동작을 포함할 수 있다.
본 개시에 따른 전자 장치는 터치패널을 포함하는 표시부; 어플리케이션 리스트를 저장하는 메모리; 상기 터치패널을 통해 펜의 움직임을 검출하는 동작과, 상기 펜의 움직임에 응답하여 상기 어플리케이션 리스트에서 상기 움직임에 대응되는 어플리케이션을 검색하는 동작과, 상기 검색된 어플리케이션의 정보를 표시하는 동작과, 상기 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 상기 표시된 정보에 해당되는 어플리케이션을 실행하는 동작을 수행하도록 설정된 어플리케이션 실행 모듈; 및 상기 어플리케이션 실행 모듈을 실행하기 위한 적어도 하나의 프로세서를 포함할 수 있다.
이상으로 본 개시에 따른 방법 및 장치는 어플리케이션을 쉽고 빠르게 실행할 수 있다.
도 1은 본 개시의 일 실시예에 따른 전자 장치의 블록 구성도이다.
도 2a 내지 도 2d는 본 개시의 전자 장치의 동작에 따른 예시 화면들이다.
도 3은 본 개시의 일 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 4는 본 개시의 다른 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 5는 본 개시의 또 다른 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 2a 내지 도 2d는 본 개시의 전자 장치의 동작에 따른 예시 화면들이다.
도 3은 본 개시의 일 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 4는 본 개시의 다른 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 5는 본 개시의 또 다른 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
본 개시에 따른 전자 장치는 예컨대, 스마트폰, 태블릿 PC, 노트북 PC, 디지털 카메라, 스마트 TV, PDA(Personal Digital Assistant), 전자수첩, 데스크탑 PC, PMP(Portable Multimedia Player), 미디어 플레이어(Media Player)(예컨대, MP3 플레이어), 음향기기, 스마트 손목시계, 게임용 단말기 등을 포함할 수 있다. 또한 본 개시에 따른 전자 장치는 터치스크린을 가지는 가전기기(예, 냉장고, TV, 세탁기)를 포함할 수 있다.
본 개시에 따른 전자 장치는 터치스크린을 가지며, 터치스크린을 통해 사용자 입력을 검출할 수 있다. 특히, 본 개시에 따른 전자 장치는 터치스크린을 통해 펜 입력을 검출할 수 있다. 또한 본 개시에 따른 전자 장치는 펜 입력에 응답하여 어플리케이션을 실행할 수 있다.
이하, 본 개시의 다양한 실시 예들을 첨부된 도면에 의거하여 상세히 설명한다.
실시 예들을 설명함에 있어서 본 개시가 속하는 기술 분야에 익히 알려져 있고 본 개시와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 또한, 실질적으로 동일한 구성과 기능을 가진 구성 요소들에 대해서는 상세한 설명을 생략하도록 한다.
마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 개시는 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한되어지지 않는다.
도 1은 본 개시의 일 실시예에 따른 전자 장치의 블록 구성도이다.
도 1을 참조하면, 전자 장치(100)는 표시부(110), 키입력부(120), 무선통신부(130), 오디오 처리부(140), 스피커(SPK), 마이크(MIC), 펜(150), 메모리(160) 및 제어부(170)를 포함할 수 있다.
표시부(110)는 제어부(170) 특히, 어플리케이션 프로세서(Application Processor; AP)의 제어 하에 다양한 정보를 화면에 표시할 수 있다. 예컨대, 제어부(170)가 정보를 처리(예컨대, 디코딩(decoding))하여 메모리(예, 프레임 버퍼)에 저장하면, 표시부(110)는 프레임 버퍼에 저장된 데이터를 아날로그 신호로 변환하여 화면에 표시할 수 있다. 표시부(110)는 액정 표시 장치(Liquid Crystal Display: LCD), AMOLED(Active Matrix Organic Light Emitted Diode), 플랙서블 디스플레이(Flexible display) 또는 투명 디스플레이로 이루어질 수 있다.
표시부(110)에 전원이 공급되면 표시부(110)는 잠금 이미지를 화면에 표시할 수 있다. 잠금 이미지가 표시되고 있는 상태에서 잠금 해제를 위한 사용자 입력(예, 비밀번호)이 검출되면 제어부(170)는 잠금을 해제할 수 있다. 잠금이 해제된 경우 표시부(110)는 제어부(190)의 제어 하에 잠금 이미지 대신 예컨대, 홈 이미지를 표시할 수 있다. 홈 이미지는 배경(background) 이미지(예컨대, 사용자에 의해 설정된 사진)와, 이 위에 표시되는 아이콘들을 포함할 수 있다. 여기서 아이콘들은 각각 어플리케이션 또는 콘텐츠(예, 사진 파일, 비디오 파일, 녹음 파일, 문서, 메시지 등)를 지시할 수 있다. 아이콘들 중 하나의 실행을 위한 사용자 입력이 검출되면, 제어부(170)는 해당 어플리케이션을 실행할 수 있다.
터치패널(111)은 표시부(110)의 화면에 설치된다. 예컨대, 터치패널(111)은 표시부(110)의 화면에 위치하는 애드 온 타입(add-on type)이나 표시부(110) 내에 삽입되는 온 셀 타입(on-cell type) 또는 인 셀 타입(in-cell type)으로 구현될 수 있다. 또한 터치패널(111)은 표시부(110)의 화면 즉, 터치스크린에 대한 포인팅 기구(예, 손가락이나 펜)의 사용자 입력(예, 접근, 호버링, 터치 등)에 응답하여 이벤트(예, 접근 이벤트, 호버링(hovering) 이벤트, 터치이벤트 등)를 발생하고, 이벤트를 AD(Analog to Digital) 변환하여 제어부(170) 특히, 터치스크린 컨트롤러로 전달할 수 있다. 포인팅 기구가 터치스크린에 접근하면, 터치패널(111)은 이에 응답하여 접근 이벤트를 발생할 수 있고, 접근 이벤트를 터치스크린 컨트롤러로 전달할 수 있다. 접근 이벤트는 포인팅 기구의 움직임과 그 방향을 나타내는 정보를 포함할 수 있다. 포인팅 기구가 터치스크린에 호버링하면, 터치패널(111)은 이에 응답하여 호버링 이벤트를 발생할 수 있고, 호버링 이벤트를 터치스크린 컨트롤러로 전달할 수 있다. 여기서 호버링 이벤트에는 로우(raw) 데이터 예컨대, 하나 이상의 호버링 좌표(x_hovering, y_hovering)를 포함할 수 있다. 포인팅 기구가 터치스크린에 터치하면, 터치패널(111)은 이에 응답하여 터치 이벤트를 발생할 수 있고, 터치 이벤트를 터치스크린 컨트롤러로 전달할 수 있다. 여기서 터치이벤트는 로우 데이터 예컨대, 하나 이상의 터치 좌표(x_touch, y_touch)를 포함할 수 있다.
한편, 터치패널(111)은 손 입력을 감지하는 손 터치패널과 펜 입력을 감지하는 펜 터치패널을 포함하여 구성된 복합 터치패널일 수 있다. 여기서 손 터치패널은 정전용량 방식(capacitive type)으로 구현될 수 있다. 물론 손 터치패널은 저항막 방식(resistive type)이나 적외선 방식 또는 초음파 방식으로 구현될 수도 있다. 또한 손 터치패널은 인체에 의해서만 이벤트를 발생하는 것은 아니며, 다른 물체(예, 정전용량 변화를 가할 수 있는 전도성 재질의 물체)에 의해서도 이벤트를 생성할 수 있다. 펜 터치패널(일명, 디지타이저(digitizer) 센서 기판)은 전자 유도 방식(Electro-Magnetic Resonance; EMR)으로 구성될 수 있다. 이에 따라 펜 터치패널은 자기장을 형성할 수 있도록 특수 제작된 펜에 의해 이벤트를 생성할 수 있다. 펜 터치패널은 키 이벤트를 발생할 수도 있다. 예컨대, 펜에 설치된 버튼이 눌리면, 펜의 코일에서 발생되는 자기장이 변화될 수 있다. 펜 터치패널은 자기장의 변화에 응답하여 키 이벤트를 발생하고, 이를 제어부(170) 특히, 터치스크린 컨트롤러로 전달할 수 있다.
키입력부(120)는 적어도 하나의 터치 키를 포함하여 이루어질 수 있다. 이러한 터치 키는 일반적으로 인체 및 사물의 터치 또는 접근을 인식할 수 있는 모든 종류의 입력 수단을 의미한다. 예컨대, 터치 키는 전도성을 띠고 있는 인체 또는 물체의 접근을 감지하여 사용자 입력으로 인식하는 정전식 터치 키를 포함할 수 있다. 터치 키는 사용자의 터치에 응답하여 이벤트를 발생하고, 이를 제어부(170)로 전달할 수 있다. 또한 터치 키는 화면에 인접하게(예컨대, 화면의 하단) 설치될 수 있다. 예컨대, 제어부(170)는 제 1 터치 키(메뉴 불러오기 키)에 대한 사용자의 터치에 응답하여 메뉴를 화면의 하단에 표시하도록 표시부(110)를 제어할 수 있다. 또한 제어부(170)는 제 2 터치 키(되돌리기 키)에 대한 사용자의 터치에 응답하여 이전 이미지를 표시하도록 표시부(110)를 제어할 수 있다.
또한 키입력부(120)는 터치 방식 외에 다른 방식의 키를 더 포함하여 이루어질 수 있다. 예컨대, 키입력부(120)는 적어도 하나의 돔(dome) 키를 포함하여 이루어질 수 있다. 사용자가 돔 키를 내리누르면, 돔 키가 변형되어 인쇄회로기판에 접촉되고, 이에 따라 인쇄회로기판에서 키 이벤트가 발생되어 제어부(170)로 전달될 수 있다. 이러한 돔 키는 전자 장치(100)의 측면에 설치될 수도 있고 화면에 인접하게(예컨대, 화면의 하단) 설치될 수도 있다. 한편 키입력부(120)의 키는 하드 키(hard key)라 하고 표시부(110)에 표시되는 키는 소프트 키(soft key)로 지칭될 수 있다.
무선통신부(130)는 제어부(170)의 제어 하에, 네트워크를 통해 외부장치와 음성 통화, 화상 통화 또는 데이터 통신을 수행할 수 있다. 무선 통신부(130)는 이동 통신 모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5(3.5-Generation)세대 이동통신모듈 또는 4(4-Generation)세대 이동통신모듈 등), 디지털 방송 모듈(예컨대, DMB 모듈) 및 근거리 통신 모듈(예, 와이파이(Wi-Fi) 모듈, 블루투스(bluetooth) 모듈, NFC(Near Field Communication) 모듈)을 포함할 수 있다.
오디오 처리부(Audio Processor; 140)는 스피커(SPK) 및 마이크(MIC)와 결합하여 음성 인식, 음성 녹음, 디지털 레코딩(recording) 및 통화를 위한 오디오 신호(예, 음성 데이터)의 입력 및 출력을 수행한다. 오디오 처리부(140)는 제어부(170)로부터 오디오 신호(예, 음성 데이터)를 수신하고, 수신한 오디오 신호를 아날로그로 D/A 변환하고 증폭한 후 스피커(SPK)로 출력한다. 스피커(SPK)는 오디오 처리부(140)로부터 수신한 오디오 신호를 음파(sound wave)로 변환하여 출력한다. 마이크(MIC)는 사람이나 기타 소리원(sound source)들로부터 전달된 음파를 오디오 신호로 변환한다. 오디오 처리부(140)는 마이크(MIC)으로부터 수신한 오디오 신호를 디지털로 A/D 변환한 후 제어부(170)로 전달한다.
펜(150)은 전자 장치(100)로부터 분리가 가능한 휴대 단말(100)의 부속품일 수 있다. 펜(150)은 펜대와, 펜대의 끝에 배치된 펜촉과, 펜촉에 인접하게 펜대의 내부에 배치되어 자기장을 발생하는 코일과, 자기장을 변화시키기 위한 버튼(151)을 포함할 수 있다. 펜(150)의 코일은 펜촉의 부근에 자기장을 형성할 수 있다. 터치패널(111)은 자기장을 감지하고, 자기장에 대응되는 이벤트를 발생할 수 있다.
메모리(160)는 제어부(170)의 제어 하에, 전자 장치(100)의 운용에 따라 발생되거나 무선통신부(130)를 통해 외부로부터 수신한 데이터를 저장할 수 있다. 메모리(160)는 데이터 임시 저장소로써 버퍼를 포함할 수도 있다.
메모리(160)는 전자 장치(100)의 사용 환경을 설정하기 위한 다양한 설정 정보들(예, 화면 밝기, 터치 발생 시 진동 여부, 화면의 자동 회전 여부 등)을 저장할 수 있다. 이에 따라 제어부(170)는 설정 정보를 참조하여 전자 장치(100)를 운용할 수 있다.
메모리(160)는 전자 장치(100)에 설치된 어플리케이션들의 리스트(161)를 저장할 수 있다. 어플리케이션 리스트(161)는 어플리케이션들별로, 어플리케이션의 명칭, 종류, 버전(version), 해당 어플리케이션에 태깅(tagging)된 태그 정보, 해당 어플리케이션과 관련된 이미지(예, 썸네일), 해당 어플리케이션과 관련된 궤적 정보 등을 저장할 수 있다. 여기서, 태그 정보는 제조사, 출시일, 운영체제 정보 등을 포함할 수 있다. 또한 이러한 정보들은 해당 어플리케이션에 별도로 태깅되지 않고, 해당 어플리케이션에 포함될 수도 있다. 제어부(170)는 이러한 어플리케이션 리스트(161)를 이용하여 어플리케이션을 실행할 수 있다. 예컨대, 제어부(170)는 펜 입력이 검출될 경우, 어플리케이션 리스트(161)를 읽어 올 수 있다. 펜의 움직임이 검출될 경우 제어부(170)는 움직임을 분석할 수 있다. 여기서, 제어부(170)의 분석 동작은 움직임의 궤적을 인식하는 동작을 포함할 수 있다. 또한 분석 동작은 인식된 궤적을 텍스트로 변환하는 동작을 포함할 수도 있다. 여기서 궤적은 이하 개시에서, 드로잉(drawing)으로 지칭될 수도 있다. 제어부(170)는 어플리케이션 리스트(161)에서 분석 결과물(예, 궤적, 텍스트 등)에 대응되는 어플리케이션을 검색할 수 있다. 제어부(170)는 검색된 어플리케이션의 정보를 화면에 표시하도록 표시부(110)를 제어할 수 있다. 표시된 정보의 선택을 위한 사용자 입력이 검출되면 제어부(170)는 해당 어플리케이션을 실행할 수 있다.
메모리(160)는 전자 장치(100)의 운용을 위한 다양한 프로그램들 예컨대, 부팅 프로그램, 하나 이상의 운영체제 및 하나 이상의 어플리케이션을 저장할 수 있다. 특히, 메모리(160)는 어플리케이션 실행 모듈(quick execution module; 162)을 저장할 수 있다.
어플리케이션 실행 모듈(162)은 사용자 입력(특히, 펜 입력)에 응답하여 어플리케이션을 실행하도록 설정된 프로그램일 수 있다.
본 개시의 일 실시예에 따르면, 어플리케이션 실행 모듈(162)은 펜의 움직임을 검출하기 위한 동작과, 검출된 펜의 움직임이 어플리케이션의 검색을 요청하는 사용자 입력(이하, 검색 요청 입력)인지 여부를 결정하는 동작과, 펜의 움직임이 검색 요청 입력으로 결정된 경우 어플리케이션 리스트(161)에서 궤적에 대응되는 어플리케이션을 검색하는 동작과, 검색된 어플리케이션의 정보를 표시하는 동작과, 표시된 정보가 사용자에 의해 선택될 경우 해당 어플리케이션을 실행하는 동작을 수행하도록 설정될 수 있다.
본 개시의 다른 실시예에 따르면, 어플리케이션 실행 모듈(162)은 펜에 구비된 버튼의 누름을 검출하는 동작과, 버튼이 눌려진 상태에서 펜의 움직임을 검출하는 동작과, 펜의 움직임에 응답하여 궤적을 표시하는 동작과, 버튼의 누름이 해제될 경우 어플리케이션 리스트(161)에서 상기 표시된 궤적에 대응되는 어플리케이션을 검색하는 동작과, 검색된 어플리케이션의 정보를 표시하는 동작과, 표시된 정보가 사용자에 의해 선택될 경우 해당 어플리케이션을 실행하는 동작을 수행하도록 설정될 수도 있다.
본 개시의 또 다른 실시예에 따르면, 어플리케이션 실행 모듈(162)은 펜에 구비된 버튼의 누름을 검출하는 동작과, 버튼의 누름 해제여부와 상관없이 펜의 움직임을 검출하는 동작과, 펜의 움직임에 대응되는 궤적을 인식하는 동작과, 어플리케이션 리스트(161)에서 상기 인식된 궤적에 대응되는 어플리케이션을 검색하는 동작과, 검색된 어플리케이션의 정보를 표시하는 동작과, 표시된 정보가 사용자에 의해 선택될 경우 해당 어플리케이션을 실행하는 동작을 수행하도록 설정될 수도 있다.
메모리(160)는 메인 메모리(main memory)와 보조 메모리(secondary memory)를 포함할 수 있다. 메인 메모리는 예컨대, 램(RAM) 등으로 구현될 수 있다. 보조 메모리는 디스크, 램(RAM), 롬(ROM) 또는 플래시 메모리 등으로 구현될 수 있다. 메인메모리는 보조 메모리로부터 로딩된 각종 프로그램 예컨대, 부팅 프로그램, 운영체제 및 어플리케이션들을 저장할 수 있다. 제어부(170)로 배터리의 전원이 공급되면 먼저 부팅 프로그램이 메인메모리로 로딩(loading)될 수 있다. 이러한 부팅 프로그램은 운영체제를 메인메모리로 로딩할 수 있다. 운영체제는 어플리케이션(예, 어플리케이션 실행 모듈(162))을 메인메모리로 로딩할 수 있다. 제어부(170)(예컨대, AP(Applicatoin Processor))는 메인메모리에 액세스하여 프로그램의 명령어(루틴)를 해독하고, 해독 결과에 따른 기능을 실행할 수 있다. 즉 각종 프로그램들은 메인메모리로 로드되어 프로세스로써 동작할 수 있다.
제어부(170)는 전자 장치(100)의 전반적인 동작 및 전자 장치(100)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행하고, 배터리에서 상기 구성들로의 전원 공급을 제어한다. 제어부(170)는 터치스크린 컨트롤러(171)와 어플리케이션 프로세서(Application Processor; AP)(172)를 포함할 수 있다.
터치스크린 컨트롤러(171)는, 터치패널(111)로부터 이벤트가 전달되면, 터치 좌표를 계산하여 어플리케이션 프로세서(172)로 전달할 수 있다.
터치스크린 컨트롤러(171)는, 터치패널(111)로부터 호버링 이벤트가 전달되면, 호버링이 발생됨을 인식할 수 있다. 터치스크린 컨트롤러(171)는 호버링에 응답하여 터치스크린에서 호버링 영역을 결정하고, 호버링 영역에서 호버링 좌표(x_hovering, y_hovering)를 계산할 수 있다. 터치스크린 컨트롤러(171)는 계산된 호버링 좌표를 예컨대, AP(Application Processor)(172)로 전달할 수 있다. 여기서 호버링 좌표는 픽셀 단위일 수 있다. 예컨대, 화면의 해상도가 640(가로 픽셀의 개수)*480(세로 픽셀의 개수)인 경우, X축 좌표는 (0, 640)이고, Y축 좌표는 (0, 480)이다. 또한 호버링 이벤트는 깊이를 산출하기 위한 감지 정보를 포함할 수 있다. 예컨대, 호버링 이벤트는 3차원 호버링 좌표 (x, y, z)를 포함할 수 있다. 여기서, z 값이 깊이를 의미할 수 있다.
터치스크린 컨트롤러(171)는 터치패널(111)로부터 터치이벤트가 전달되면, 터치가 발생됨을 인식할 수 있다. 터치스크린 컨트롤러(171)는 터치에 응답하여 터치스크린에서 터치 영역을 결정하고, 터치 영역에서 터치 좌표(x_touch, y_touch)를 계산할 수 있다. 터치스크린 컨트롤러(171)는 계산된 터치 좌표를 예컨대, 어플리케이션 프로세서(172)로 전달할 수 있다. 여기서 터치 좌표는 픽셀 단위일 수 있다.
어플리케이션 프로세서(172)는 터치스크린 컨트롤러(171)로부터 호버링 좌표가 수신될 경우, 포인팅 기구가 터치스크린에 호버링된 것으로 결정하고 터치패널(111)로부터 호버링 좌표가 수신되지 않을 경우 터치스크린으로부터 포인팅 기구의 호버링이 해제(release)된 것으로 결정할 수 있다. 또한 어플리케이션 프로세서(172)는 호버링 좌표가 변화되고 그 변화량이 미리 설정된 이동 임계치를 초과할 경우 어플리케이션 프로세서(172)는 포인팅 기구의 호버링 움직임이 발생된 것으로 결정할 수 있다. 어플리케이션 프로세서(172)는 포인팅 기구의 호버링 움직임에 응답하여 포인팅 기구의 위치변화량(dx, dy), 포인팅 기구의 이동 속도, 호버링 움직임의 궤적 등을 산출할 수 있다. 또한, 어플리케이션 프로세서(172)는 호버링 움직임의 궤적을 텍스트로 변환할 수도 있다.
또한 어플리케이션 프로세서(172)는 호버링 좌표, 포인팅 기구의 호버링 해제 여부, 포인팅 기구의 이동 여부, 포인팅 기구의 위치변화량, 포인팅 기구의 이동 속도, 호버링 움직임의 궤적 등을 기반으로, 터치스크린에 대한 사용자의 제스처를 결정할 수 있다. 여기서, 사용자의 제스처는 예컨대, 드래그(Drag), 플릭(Flick), 핀치인(pinch in), 핀치아웃(pinch out) 등을 포함할 수 있다.
어플리케이션 프로세서(172)는 터치스크린 컨트롤러(171)로부터 터치 좌표가 수신될 경우, 포인팅 기구가 터치패널(111)에 터치된 것으로 결정하고, 터치패널(111)로부터 터치 좌표가 수신되지 않을 경우 터치스크린으로부터 포인팅 기구의 터치가 해제된 것으로 결정할 수 있다. 또한 어플리케이션 프로세서(172)는 터치 좌표가 변화되고 그 변화량이 미리 설정된 이동 임계치를 초과할 경우, 포인팅 기구의 터치 움직임이 발생된 것으로 결정할 수 있다. 어플리케이션 프로세서(172)는 포인팅 기구의 터치 움직임에 응답하여 포인팅 기구의 위치변화량(dx, dy), 포인팅 기구의 이동 속도, 터치 움직임의 궤적 등을 산출할 수 있다. 또한 어플리케이션 프로세서(172)는 터치 움직임의 궤적을 텍스트로 변환할 수도 있다.
또한, 어플리케이션 프로세서(172)는 터치 좌표, 포인팅 기구의 터치 해제 여부, 포인팅 기구의 이동 여부, 포인팅 기구의 위치변화량 및 포인팅 기구의 이동 속도, 터치 움직임의 궤적 등을 기반으로, 터치스크린에 대한 사용자의 제스처를 결정할 수 있다. 여기서, 사용자의 제스처는 터치, 멀티 터치, 탭(Tap), 더블 탭(Double Tap), 롱 탭(Long tap), 탭 앤 터치(Tap & touch), 드래그(Drag), 플릭(Flick), 프레스(Press), 핀치인(pinch in), 핀치아웃(pinch out) 등을 포함할 수 있다.
어플리케이션 프로세서(172)는 메모리(160)에 저장된 각종 프로그램들을 실행할 수 있다. 특히 어플리케이션 프로세서(172)는 어플리케이션 실행 모듈(162)을 실행할 수 있다. 여기서 어플리케이션 실행 모듈(162)은 어플리케이션 프로세서(172)가 아닌 다른 프로세서 예컨대, CPU에 의해서도 실행될 수 있다.
제어부(170)는 어플리케이션 프로세서(172) 이외에 다양한 프로세서를 더 포함할 수 있다. 예컨대, 제어부(170)는 하나 이상의 중앙처리유닛(Central Processing Unit; CPU)을 포함할 수도 있다. 또한 제어부(170)는 그래픽처리유닛(Graphic Processing Unit; GPU)을 포함할 수도 있다. 또한 제어부(170)는, 전자 장치(100)가 이동통신모듈(예컨대, 3세대(3-Generation) 이동통신모듈, 3.5세대(3.5-Generation) 이동통신모듈 또는 4세대(4-Generation) 이동통신모듈 등)을 구비한 경우, 커뮤니케이션 프로세서(Communication Processr; CP)를 더 포함할 수도 있다. 또한 제어부(170)는 전자 장치(100)가 카메라를 구비한 경우, ISP(Image Signal Processor)를 더 포함할 수도 있다. 상술한 프로세서들은 각각, 두 개 이상의 독립 코어(예, 쿼드 코어(quad-core))가 단일 집적 회로로 이루어진 하나의 패키지(package)로 통합될 수 있다. 예컨대, 어플리케이션 프로세서(172)는 하나의 멀티 코어 프로세서로 통합된 것일 수 있다. 상술한 프로세서들(예, 어플리케이션 프로세서와 ISP)은 하나의 칩으로 통합(SoC; System on Chip)된 것일 수 있다. 또한 상술한 프로세서들(예, 어플리케이션 프로세서와 ISP)은 멀티 레이어(multi layer)로 패키징(packaging)된 것일 수 있다.
한편, 전자 장치(100)는 스피커, 마이크, 이어 잭, 카메라, 가속도 센서, 근접 센서, 조도 센서, GPS 수신 모듈 등과 같이 상기에서 언급되지 않은 구성들을 더 포함할 수도 있다.
도 2a 내지 도 2d는 본 개시의 전자 장치의 동작에 따른 예시 화면들이다.
도 2a를 참조하면, 터치스크린에는 임의의 이미지(210)가 표시될 수 있다. 여기서 이미지(210)는 잠금 이미지, 홈 이미지 또는 어플리케이션 실행 이미지 등일 수 있다. 이미지(210)의 표시 중에 전자 장치는 펜(220)의 움직임을 검출할 수 있다. 펜(220)의 움직임이 검출되면 전자 장치는 움직임에 대응되는 궤적(230)을 이미지(210)의 위에 표시할 수 있다. 도 2b 및 도 2c를 참조하면, 전자 장치는 어플리케이션 리스트에서 궤적(230)에 대응되는 어플리케이션을 검색하고, 검색된 어플리케이션들 각각의 정보들(240)을 표시할 수 있다. 표시된 정보들(240) 중에 하나가 선택되면, 전자 장치는 해당 어플리케이션을 실행하고, 그 실행 이미지(250)를 표시할 수 있다. 도 2d를 참조하면, 사용자는 펜(220)으로 과 같은 궤적(260)을 그릴 수 있다. 전자 장치는 이러한 궤적(260)을 검출하고, 어플리케이션 리스트에서 궤적(260)에 대응되는 어플리케이션을 검색할 수 있따.
도 3은 본 개시의 일 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 3을 참조하면, 동작 310에서 제어부(170)는 터치패널(111)을 통해 펜(150)의 움직임을 검출할 수 있다.
동작 320에서 제어부(170)는 검출된 움직임이 검색 요청 입력인지 여부를 결정할 수 있다.
본 개시의 바람직한 일 실시예에 따르면, 펜(150)의 버튼(151)이 눌려진 상태에서 움직임이 검출된 경우, 검출된 움직임은 검색 요청 입력으로 결정될 수 있다. 펜(150)의 버튼(151)이 눌려지지 않은 상태에서 움직임이 검출된 경우, 검출된 움직임은 다른 요청 입력으로 결정될 수 있다.
다른 실시예에 따르면, 펜(150)의 버튼(151)이 눌려진 후, 버튼(151)의 누름 해제와 상관없이 펜(150)의 움직임이 검출된 경우, 검출된 움직임은 검색 요청 입력으로 결정될 수 있다. 펜(150)의 버튼(151)이 눌려지지 않고 펜(150)의 움직임이 검출된 경우, 검출된 움직임은 다른 요청 입력으로 결정될 수 있다.
또 다른 실시예에 따르면, 검출된 움직임이 호버링 움직임인 경우 검색 요청 입력으로 결정되고, 터치 움직임인 경우 다른 요청 입력으로 결정될 수 있다. 또는 검출된 움직임이 터치 움직임인 경우 검색 요청 입력으로 결정되고, 호버링 움직임인 경우 다른 요청 입력으로 결정될 수도 있다.
또 다른 임의의 실시예에 따르면, 펜 입력 모드는 드로잉 모드 및 제스처 모드 중 어느 하나로 미리 설정될 수 있다. 예컨대, 키입력부(120)의 임의의 키(예, 전자 장치의 측면에 형성된 키)가 눌려지면 또는 화면에 표시된 임의의 소프트 키가 눌려지면, 펜 입력 모드는 드로잉 모드에서 제스처 모드로 변경될 수 있다. 또는 그 반대로, 제스처 모드에서 드로잉 모드로 변경될 수도 있다. 드로잉 모드인 상태에서 펜(150)의 움직임이 검출되면, 검출된 움직임은 검색 요청 입력으로 결정될 수 있다. 제스처 모드인 상태에서 펜(150)의 움직임이 검출된 경우, 검출된 움직임은 다른 요청 입력으로 결정될 수 있다.
동작 320에서 검출된 움직임이 검색 요청 입력으로 결정되면, 동작 330에서 제어부(170)는 어플리케이션 리스트(161)에서 궤적에 대응되는 어플리케이션을 검색할 수 있다. 구체적으로 제어부(170)는 펜(150)의 움직임을 분석할 수 있다. 이러한 분석 동작은 움직임에 대응되는 궤적을 인식하는 동작과 인식된 궤적을 텍스트로 변환하는 동작을 포함할 수 있다. 제어부(170)는 분석 결과물 예컨대, 인식된 궤적의 정보와 텍스트를 메모리(160)에 저장할 수 있다. 제어부(170)는 어플리케이션 리스트(161)에서 분석 결과물에 대응되는 어플리케이션을 검색할 수 있다.
바람직한 일 실시예에 따르면, 제어부(170)는 인식된 궤적을 텍스트로 변환하고, 어플리케이션의 명칭이 상기 변환된 텍스트로 시작하는 어플리케이션을 리스트에서 검색할 수 있다. 예를 들어, 분석 결과 얻은 텍스트가 '카'인 경우, 리스트에서 명칭이 '카'로 시작하는 '카메라', '카카오톡' 및 '카카오스토리'가 검색될 수 있다.
다른 실시예에 따르면, 제어부(170)는 상기 변환된 텍스트에 대응되는 기능을 실행할 수 있는 어플리케이션을 리스트에서 검색할 수 있다. 예를 들어, 분석 결과 얻은 텍스트가 '서울'과 같이 지역 명칭인 경우, 리스트에서 지도 관련 어플리케이션들이 검색될 수 있다.
또 다른 실시예에 따르면, 제어부(170)는 인식된 궤적에 대응되는 기능을 실행할 수 있는 어플리케이션을 리스트에서 검색할 수 있다. 예컨대, 인식된 궤적이 와 같은 형상인 경우, 메시지 송수신과 관련된 어플리케이션들이 검색될 수 있다.
동작 340에서 제어부(170)는 검색된 어플리케이션의 정보를 표시하도록 표시부(110)를 제어할 수 있다. 여기서 표시되는 정보는 해당 어플리케이션의 명칭이나 아이콘 또는 썸네일 등과 같이 해당 어플리케이션을 사용자가 인지할 수 있는 정보가 될 수 있다.
동작 350에서 제어부(170)는 표시된 정보의 선택 여부를 결정할 수 있다. 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 동작 360에서 제어부(170)는 선택된 정보에 해당되는 어플리케이션을 실행할 수 있다. 실행 결과 해당 어플리케이션의 이미지가 화면에 표시될 수 있다.
한편, 동작 320에서 검출된 움직임이 제스처로 결정되면, 동작 370에서 제어부(170)는 검출된 제스처에 대응되는 기능을 수행할 수 있다. 예컨대, 제스처가 "아래에서 위로의 플릭(↑)"인 경우, 제어부(170)는 현재 표시되는 이미지에 대응되는 메뉴를 이미지 위에 오버랩하여 표시하도록 표시부(110)를 제어할 수 있다. 제스처가 "우에서 좌로의 플릭(←)"인 경우, 제어부(170)는 이전 이미지를 표시하도록 표시부(110)를 제어할 수 있다.
도 4는 본 개시의 다른 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 동작 410에서 제어부(170)는 터치패널(111)을 통해 펜(150)의 버튼(151)의 누름을 검출할 수 있다. 또한 동작 420에서 제어부(170)는 터치패널(111)을 통해 펜(150)의 움직임을 검출할 수 있다. 이때 누름과 움직임이 동시에 검출될 수도 있다.
동작 430에서 제어부(170)는 펜(150)의 움직임에 응답하여 궤적을 표시하도록 표시부(110)를 제어할 수 있다. 즉 제어부(170)는 펜(150)의 움직임을 분석하여 궤적을 인식하고, 인식된 궤적을 화면에 표시하도록 표시부(110)를 제어할 수 있다.
동작 440에서 제어부(170)는 버튼(151)의 누름 해제를 검출하고, 이에 응답하여 동작 450에서 제어부(170)는 누름 해제 전까지 표시된 궤적에 대응되는 어플리케이션을 어플리케이션 리스트(161)에서 검색할 수 있다. 동작 460에서 제어부(170)는 검색된 어플리케이션의 정보를 표시하도록 표시부(110)를 제어할 수 있다. 동작 470에서 제어부(170)는 표시된 정보의 선택 여부를 결정할 수 있다. 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 동작 480에서 제어부(170)는 선택된 정보에 해당되는 어플리케이션을 실행할 수 있다.
도 5는 본 개시의 또 다른 실시예에 따른 빠른 어플리케이션 실행 방법을 설명하기 위한 흐름도이다.
도 5를 참조하면, 동작 510에서 제어부(170)는 터치패널(111)을 통해 펜(150)의 버튼(151)의 누름을 검출할 수 있다. 또한 동작 520에서 제어부(170)는 터치패널(111)을 통해 펜(150)의 움직임을 검출할 수 있다. 이때 누름과 움직임이 동시에 검출될 수도 있다.
동작 530에서 제어부(170)는 펜(150)의 움직임에 응답하여 궤적을 인식할 수 있다. 동작 540에서 제어부(170)는 어플리케이션 리스트(161)에서 상기 인식된 궤적에 대응되는 어플리케이션을 검색할 수 있다. 동작 550에서 제어부(170)는 검색된 어플리케이션의 정보를 표시하도록 표시부(110)를 제어할 수 있다. 동작 560에서 제어부(170)는 표시된 정보의 선택 여부를 결정할 수 있다. 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 동작 570에서 제어부(170)는 선택된 정보에 해당되는 어플리케이션을 실행할 수 있다.
상술한 바와 같은 본 개시에 따른 방법은 다양한 컴퓨터를 통하여 수행될 수 있는 프로그램 명령으로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 여기서 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 포함할 수 있다. 또한 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수 있다. 또한 기록매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기매체(Magnetic Media)와, CD-ROM, DVD와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 롬(ROM)과, 램(RAM)과, 플래시 메모리 등과 같은 하드웨어 장치가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라, 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드가 포함될 수 있다. 하드웨어 장치는 본 발명을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있다.
본 개시에 따른 방법 및 장치는 전술한 실시 예에 국한되지 않고 본 개시의 기술 사상이 허용하는 범위에서 다양하게 변형하여 실시할 수가 있다.
100: 전자 장치
110: 표시부 111: 터치패널
120: 키입력부 130: 무선통신부
140: 오디오 처리부 150: 펜
151: 버튼 160: 메모리
161: 어플리케이션 리스트 162: 어플리케이션 실행 모듈
170: 제어부 171: 어플리케이션 프로세서
172: 터치스크린 컨트롤러
110: 표시부 111: 터치패널
120: 키입력부 130: 무선통신부
140: 오디오 처리부 150: 펜
151: 버튼 160: 메모리
161: 어플리케이션 리스트 162: 어플리케이션 실행 모듈
170: 제어부 171: 어플리케이션 프로세서
172: 터치스크린 컨트롤러
Claims (15)
- 표시부에 설치된 터치패널을 가지는 전자 장치를 동작시키는 방법에 있어서,
상기 터치패널을 통해 펜의 움직임을 검출하는 동작;
상기 펜의 움직임에 응답하여 어플리케이션 리스트에서 상기 움직임에 대응되는 어플리케이션을 검색하는 동작;
상기 검색된 어플리케이션의 정보를 표시하는 동작; 및
상기 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 상기 표시된 정보에 해당되는 어플리케이션을 실행하는 동작을 포함하는 방법. - 제 1 항에 있어서,
상기 어플리케이션 리스트에서 상기 움직임에 대응되는 어플리케이션을 검색하는 동작은,
상기 펜의 움직임에 대응되는 궤적을 인식하는 동작; 및
상기 어플리케이션 리스트에서 상기 궤적에 대응되는 어플리케이션을 검색하는 동작을 포함하는 방법. - 제 2 항에 있어서,
상기 궤적을 인식하는 동작은,
상기 펜에 구비된 버튼이 눌려진 후 또는 상기 버튼이 눌려진 상태에서 상기 펜의 움직임이 검출된 경우에 수행되도록 설정된 것임을 특징으로 하는 방법. - 제 2 항에 있어서,
상기 어플리케이션을 검색하는 동작은,
상기 궤적을 텍스트로 변환하여 어플리케이션을 검색하는 동작을 포함하는 방법. - 제 1 항에 있어서,
상기 펜의 움직임이 상기 펜에 구비된 버튼이 눌려진 상태에서의 움직임인 경우, 상기 펜의 움직임에 응답하여 궤적을 표시하는 동작; 및
상기 터치패널을 통해 상기 버튼의 누름 해제를 검출하는 동작을 더 포함하고,
상기 어플리케이션 리스트에서 상기 움직임에 대응되는 어플리케이션을 검색하는 동작은, 상기 버튼의 누름 해제에 응답하여 상기 누름 해제 전까지 표시된 궤적에 대응되는 어플리케이션을 상기 어플리케이션 리스트에서 검색하는 동작을 포함하는 방법. - 제 1 항에 있어서,
상기 검색된 어플리케이션의 정보를 표시하는 동작은,
상기 검색된 어플리케이션의 명칭, 아이콘 및 썸네일 중에서 적어도 하나를 표시하는 동작을 포함하는 방법. - 제 1 항에 있어서,
상기 표시된 정보에 해당되는 어플리케이션을 실행하는 동작은,
상기 표시된 정보에 해당되는 어플리케이션과 관련된 이미지를 표시하는 동작을 포함하는 방법. - 터치패널을 포함하는 표시부;
어플리케이션 리스트를 저장하는 메모리;
상기 터치패널을 통해 펜의 움직임을 검출하는 동작과, 상기 펜의 움직임에 응답하여 상기 어플리케이션 리스트에서 상기 움직임에 대응되는 어플리케이션을 검색하는 동작과, 상기 검색된 어플리케이션의 정보를 표시하는 동작과, 상기 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 상기 표시된 정보에 해당되는 어플리케이션을 실행하는 동작을 수행하도록 설정된 어플리케이션 실행 모듈; 및
상기 어플리케이션 실행 모듈을 실행하기 위한 적어도 하나의 프로세서를 포함하는 전자 장치. - 제 8 항에 있어서,
상기 어플리케이션 실행 모듈은,
상기 펜의 움직임에 대응되는 궤적을 인식하고, 상기 어플리케이션 리스트에서 상기 궤적에 대응되는 어플리케이션을 검색하는 동작을 수행하도록 설정된 전자 장치. - 제 9 항에 있어서,
상기 어플리케이션 실행 모듈은,
상기 펜에 구비된 버튼이 눌려진 후 또는 상기 버튼이 눌려진 상태에서 상기 펜의 움직임이 검출된 경우, 상기 궤적을 인식하는 동작을 수행하도록 설정된 전자 장치. - 제 9 항에 있어서,
상기 어플리케이션 실행 모듈은,
상기 궤적을 텍스트로 변환하여 어플리케이션을 검색하는 동작을 수행하도록 설정된 전자 장치. - 제 8 항에 있어서,
상기 어플리케이션 실행 모듈은,
상기 펜의 움직임이 상기 펜에 구비된 버튼이 눌려진 상태에서의 움직임인 경우, 상기 펜의 움직임에 응답하여 궤적을 표시하는 동작과, 상기 터치패널을 통해 상기 버튼의 누름 해제를 검출하는 동작과, 상기 버튼의 누름 해제에 응답하여 상기 누름 해제 전까지 표시된 궤적에 대응되는 어플리케이션을 상기 어플리케이션 리스트에서 검색하는 동작을 수행하도록 설정된 전자 장치. - 제 8 항에 있어서,
상기 어플리케이션 실행 모듈은,
상기 검색된 어플리케이션의 명칭, 아이콘 및 썸네일 중에서 적어도 하나를 표시하는 동작을 수행하도록 설정된 전자 장치. - 제 8 항에 있어서,
상기 어플리케이션 실행 모듈은,
상기 표시된 정보의 선택을 위한 사용자 입력이 검출된 경우 상기 표시된 정보에 해당되는 어플리케이션과 관련된 이미지를 표시하는 동작을 수행하도록 설정된 전자 장치. - 제 8 항에 있어서,
상기 적어도 하나의 프로세서는,
어플리케이션 프로세서를 포함하는 것을 특징으로 하는 전자 장치.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130062388A KR20140141089A (ko) | 2013-05-31 | 2013-05-31 | 사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치 |
US14/274,015 US20140354564A1 (en) | 2013-05-31 | 2014-05-09 | Electronic device for executing application in response to user input |
EP14169214.5A EP2808774A3 (en) | 2013-05-31 | 2014-05-21 | Electronic device for executing application in response to user input |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130062388A KR20140141089A (ko) | 2013-05-31 | 2013-05-31 | 사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140141089A true KR20140141089A (ko) | 2014-12-10 |
Family
ID=50979508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130062388A Withdrawn KR20140141089A (ko) | 2013-05-31 | 2013-05-31 | 사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20140354564A1 (ko) |
EP (1) | EP2808774A3 (ko) |
KR (1) | KR20140141089A (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022071686A1 (ko) * | 2020-09-29 | 2022-04-07 | 삼성전자 주식회사 | 유저 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105404625A (zh) * | 2014-09-03 | 2016-03-16 | 富泰华工业(深圳)有限公司 | 应用程序的查找方法与系统 |
JP6043334B2 (ja) * | 2014-12-22 | 2016-12-14 | 京セラドキュメントソリューションズ株式会社 | 表示装置、画像形成装置、及び、表示方法 |
US20160334959A1 (en) * | 2015-05-15 | 2016-11-17 | Fih (Hong Kong) Limited | Electronic device and application launching method |
CN109144376A (zh) * | 2017-06-14 | 2019-01-04 | 中兴通讯股份有限公司 | 一种便捷操作方法和终端 |
CN108196781B (zh) * | 2017-12-29 | 2020-05-26 | 维沃移动通信有限公司 | 界面的显示方法和移动终端 |
CN109710131B (zh) * | 2018-12-28 | 2021-10-22 | 联想(北京)有限公司 | 一种信息控制方法及装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9701793D0 (en) * | 1997-01-29 | 1997-03-19 | Gay Geoffrey N W | Means for inputting characters or commands into a computer |
US8244284B2 (en) * | 2007-06-28 | 2012-08-14 | Giga-Byte Communications, Inc. | Mobile communication device and the operating method thereof |
JP2010015238A (ja) * | 2008-07-01 | 2010-01-21 | Sony Corp | 情報処理装置、及び補助情報の表示方法 |
US8869070B2 (en) * | 2008-12-30 | 2014-10-21 | T-Mobile Usa, Inc. | Handwriting manipulation for conducting a search over multiple databases |
US8248372B2 (en) * | 2009-06-26 | 2012-08-21 | Nokia Corporation | Method and apparatus for activating one or more remote features |
US8463731B2 (en) * | 2010-02-17 | 2013-06-11 | Google Inc. | Translating user interaction with a touch screen into text |
KR20110123933A (ko) * | 2010-05-10 | 2011-11-16 | 삼성전자주식회사 | 휴대단말의 기능 제공 방법 및 장치 |
EP2527968B1 (en) * | 2011-05-24 | 2017-07-05 | LG Electronics Inc. | Mobile terminal |
US20130159939A1 (en) * | 2011-10-12 | 2013-06-20 | Qualcomm Incorporated | Authenticated gesture recognition |
-
2013
- 2013-05-31 KR KR1020130062388A patent/KR20140141089A/ko not_active Withdrawn
-
2014
- 2014-05-09 US US14/274,015 patent/US20140354564A1/en not_active Abandoned
- 2014-05-21 EP EP14169214.5A patent/EP2808774A3/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022071686A1 (ko) * | 2020-09-29 | 2022-04-07 | 삼성전자 주식회사 | 유저 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP2808774A2 (en) | 2014-12-03 |
US20140354564A1 (en) | 2014-12-04 |
EP2808774A3 (en) | 2015-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11392271B2 (en) | Electronic device having touchscreen and input processing method thereof | |
KR102010955B1 (ko) | 프리뷰 제어 방법 및 이를 구현하는 휴대 단말 | |
US9880642B2 (en) | Mouse function provision method and terminal implementing the same | |
KR102092132B1 (ko) | 호버링 입력 효과를 제공하는 전자 장치 및 그 제어 방법 | |
US20150012881A1 (en) | Method for controlling chat window and electronic device implementing the same | |
KR102133365B1 (ko) | 정보를 사용자에게 제공하기 위한 전자 장치 | |
KR20140026027A (ko) | 어플리케이션 실행 방법 및 휴대 단말 | |
KR20140141089A (ko) | 사용자 입력에 응답하여 어플리케이션을 실행하는 전자 장치 | |
KR102022288B1 (ko) | 터치 입력 방법 및 휴대 단말 | |
KR20140105689A (ko) | 사용자의 입력에 응답하여 피드백을 제공하는 방법 및 이를 구현하는 단말 | |
US20150160731A1 (en) | Method of recognizing gesture through electronic device, electronic device, and computer readable recording medium | |
WO2018082657A1 (zh) | 一种查找图标的方法及终端 | |
KR20140111790A (ko) | 가상 키보드에서 난수를 이용한 키 입력 방법 및 장치 | |
US20150007102A1 (en) | Method of displaying page and electronic device implementing the same | |
US20150128031A1 (en) | Contents display method and electronic device implementing the same | |
KR20140073258A (ko) | 어플리케이션 정보 제공 방법 및 휴대 단말 | |
US20150325254A1 (en) | Method and apparatus for displaying speech recognition information | |
KR20140105354A (ko) | 터치 감응 유저 인터페이스를 포함하는 전자장치 | |
KR101950225B1 (ko) | 액세서리 분실 방지 방법 및 휴대 단말 | |
KR20140125517A (ko) | 터치스크린의 입력을 처리하기 위한 전자 장치 | |
US20150074530A1 (en) | Method for controlling content in mobile electronic device | |
KR20140029827A (ko) | 이미지 처리 방법 및 휴대 단말 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20130531 |
|
PG1501 | Laying open of application | ||
PC1203 | Withdrawal of no request for examination | ||
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |