[go: up one dir, main page]

KR20100070733A - 아이템 표시방법 및 이를 적용한 디스플레이 장치 - Google Patents

아이템 표시방법 및 이를 적용한 디스플레이 장치 Download PDF

Info

Publication number
KR20100070733A
KR20100070733A KR1020080129413A KR20080129413A KR20100070733A KR 20100070733 A KR20100070733 A KR 20100070733A KR 1020080129413 A KR1020080129413 A KR 1020080129413A KR 20080129413 A KR20080129413 A KR 20080129413A KR 20100070733 A KR20100070733 A KR 20100070733A
Authority
KR
South Korea
Prior art keywords
item
movement
input
manipulation
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020080129413A
Other languages
English (en)
Inventor
황보경녀
임진호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020080129413A priority Critical patent/KR20100070733A/ko
Priority to EP09173692A priority patent/EP2199893A3/en
Priority to US12/639,675 priority patent/US20100162155A1/en
Publication of KR20100070733A publication Critical patent/KR20100070733A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Abstract

아이템 표시방법 및 디스플레이 장치가 제공된다. 본 아이템 표시방법은 조작 입력부에서 이동 조작이 입력되면, 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이한다. 이에 따라, 사용자는 매우 직관적인 방법으로 화면에 아이템이 표시되게 할 수 있다.
아이템, 경로, 이동, 터치

Description

아이템 표시방법 및 이를 적용한 디스플레이 장치{Method for displaying items and display apparatus applying the same}
본 발명은 아이템 표시방법 및 이를 적용한 디스플레이 장치에 관한 것으로써, 더욱 상세하게는 사용자의 조작에 따라 아이템을 화면에 표시하는 아이템 표시방법 및 이를 적용한 디스플레이 장치에 관한 것이다.
디스플레이 장치는 전자기기에 장착되어 다양한 기능에 대한 화면을 디스플레이한다. 특히, 전자기기의 기능이 매우 다양화됨에 따라, 디스플레이 장치는 화면에 표시해야할 내용이 매우 많아지고 있다.
예를 들어, TV는 방송화면, OSD 메뉴들 뿐만 아니라 각종 정보를 표시하는 위젯들도 화면에 표시하게 되었다. 그리고, MP3 플레이어에도 디스플레이 장치가 장착되어 메뉴 화면, 음악파일, 다양한 사진 등을 화면에 표시할 수 있게 되었다.
또한, 사용자가 명령을 입력하기 위한 수단인 유저 인터페이스도 다양화되고 있다. 예를 들어, 사용자의 터치 조작을 입력받을 수 있는 터치 스크린 또는 터치 패드는 최근들어 매우 직관적인 유저 인터페이스로 각광받고 있는 추세이다.
하지만, 화면에 표시되어야 할 아이템들이 많아짐에 따라, 디스플레이 장치 는 필요한 아이템을 계속해서 화면에 표시할 수 없게 되었다. 또한, 일방적으로 아이템이 화면에 표시되면, 사용자는 디스플레이 화면이 복잡하다는 느낌을 느낄 수도 있다.
사용자는 보다 직관적인 방법으로 아이템이 표시되는 것을 원한다. 이에 따라, 다양한 아이템을 직관적으로 표시하기 위한 방안의 모색이 요청된다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 조작 입력부에서 이동 조작이 입력되면, 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이하는 아이템 표시방법 및 이를 적용한 디스플레이 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 디스플레이 장치는, 사용자의 조작을 입력받는 조작 입력부; 및 상기 조작 입력부에서 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어하는 제어부;를 포함한다.
그리고, 상기 제어부는, 상기 조작 입력부에서 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템이 일정 시간 간격으로 디스플레이 되도록 제어할 수도 있다.
또한, 상기 제어부는, 상기 조작 입력부에서 이동 조작이 입력되면, 상기 이 동 조작의 경로를 따라 적어도 하나의 아이템이 일정 거리 간격으로 디스플레이 되도록 제어할 수도 있다.
그리고, 상기 제어부는, 상기 조작 입력부에서 이동 조작과 제1 조작이 함께 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어할 수도 있다.
또한, 상기 적어도 하나의 아이템은, 상기 이동 조작의 경로의 길이에 따라 디스플레이되는 개수가 달라질 수도 있다.
그리고, 상기 적어도 하나의 아이템은, 상기 이동 조작의 속도에 따라 디스플레이되는 표시 밀도가 달라질 수도 있다.
또한, 상기 제어부는, 상기 적어도 하나의 아이템이 디스플레이된 상태에서 어느 하나의 아이템을 선택하는 조작이 입력되면, 상기 선택된 아이템을 제외한 나머지 아이템들은 사라질 수도 있다.
그리고, 상기 아이템은 특정 어플리케이션을 실행시키기 위한 아이콘일 수도 있다.
한편, 본 발명의 일 실시예에 따른, 아이템 표시방법은 이동 조작을 입력받는 단계; 상기 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이하는 단계;를 포함한다.
그리고, 상기 디스플레이 단계는, 상기 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 일정 시간 간격으로 디스플레이할 수도 잇다.
또한, 상기 디스플레이 단계는, 상기 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 일정 거리 간격으로 디스플레이할 수도 있다.
그리고, 상기 입력단계는, 터치스크린 또는 터치 패드에서 스트로크(stroke) 조작을 입력받고, 상기 디스플레이 단계는, 상기 스트로크(stroke) 조작이 입력되면, 상기 스트로크 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이할 수도 있다.
또한, 상기 입력단계는, 포인팅 디바이스에서 포인터 이동 조작을 입력받고, 상기 디스플레이 단계는, 상기 포인터 이동 조작이 입력되면, 상기 포인터의 이동 경로를 따라 적어도 하나의 아이템을 디스플레이할 수도 있다.
그리고, 상기 입력단계는, 모션 센서로부터 모션 조작을 입력받고, 상기 디스플레이 단계는, 상기 모션 조작이 입력되면, 상기 모션의 이동 경로를 따라 적어도 하나의 아이템을 디스플레이할 수도 있다.
또한, 제1 조작을 입력받는 단계;를 더 포함하고, 상기 디스플레이 단계는, 상기 이동 조작과 상기 제1 조작이 함께 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이할 수도 있다.
그리고, 상기 적어도 하나의 아이템이 디스플레이된 상태에서 어느 하나의 아이템을 선택하는 조작을 입력받는 단계; 및 상기 선택된 아이템을 제외한 나머지 아이템들을 사라지게 하는 단계;를 더 포함할 수도 있다.
또한, 상기 아이템은 특정 어플리케이션을 실행시키기 위한 아이콘일 수도 있다.
그리고, 상기 적어도 하나의 아이템은, 상기 이동 조작의 경로의 길이에 따라 디스플레이되는 개수가 달라질 수도 있다.
또한, 상기 적어도 하나의 아이템은, 상기 이동 조작의 속도에 따라 디스플레이되는 표시 밀도가 달라질 수도 있다.
한편, 본 발명의 일 실시예에 따른, 아이템 표시방법은, 아이템 표시 경로를 지정하는 단계; 사용자의 조작이 입력되면, 상기 아이템 표시 경로에 따라 적어도 하나의 아이템을 디스플레이하는 단계;를 포함할 수도 있다.
상술한 바와 같이 본 발명의 다양한 실시예들에 따르면, 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이하는 아이템 표시방법 및 이를 적용한 디스플레이 장치를 제공할 수 있게 되어, 디스플레이 장치는 매우 직관적인 방법으로 화면에 아이템을 표시할 수 있게 된다
이하에서는 도면을 참고하여 본 발명의 실시예에 대해 더욱 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른, 디스플레이 장치(100)에 대한 구조를 도시한 도면이다. 도 1에 도시된 바와 같이 디스플레이 장치(100)는 인터페이스(110), 저장부(120), 코덱(130), 오디오 처리부(140), 오디오 출력부(145), 비디오 처리부(150), GUI 생성부(153), 비디오 출력부(155), 제어부(160) 및 조작입력 부(170)를 구비한다.
인터페이스(110)는 외부 기기와 디스플레이 장치(100)를 연결시켜준다. 그리고, 디스플레이 장치(100)는 인터페이스(110)를 통해 외부기기로부터 멀티미디어 파일을 다운받는다. 또한, 디스플레이 장치(100)는 인터페이스(110)를 통해 외부 기기에 멀티미디어 파일을 업로드 한다.
저장부(120)는 멀티미디어 파일을 저장하고 있다. 디스플레이 장치(100)의 저장부(120)는 음악파일, 비디오 파일, 텍스트 파일 등을 저장하고 있다. 또한, 저장부(120)는 디스플레이 장치(100)의 작동을 위한 운영 프로그램이 저장되어 있을 수도 있음은 물론이다.
코덱(130)은 멀티미디어 파일을 인코딩하거나 디코딩한다. 구체적으로 코덱(130)은 저장부(120)에 저장된 멀티미디어 파일을 디코딩한다. 그리고 코덱(130)은 디코딩된 멀티미디어 파일을 오디오 처리부(140) 및 비디오 처리부(150)로 전송한다.
오디오 처리부(140)는 코덱(130)에서 전송된 오디오 신호를 처리한다. 예를 들어, 오디오 처리부(140)는 음향 처리, 잡음 제거, 이퀄라이징 등을 수행한다. 그리고, 오디오 처리부(140)는 처리된 오디오를 오디오 출력부(145)로 출력한다.
오디오 출력부(145)는 오디오 처리부(140)에서 출력되는 오디오를 스피커를 통해 출력시키거나, 외부 출력단자를 통해 연결된 이어폰 등으로 출력한다.
비디오 처리부(150)는 코덱(130)에서 출력된 비디오 신호에 대해 비디오 스케일링 등의 신호처리를 수행한다. 그리고, 비디오 처리부(150)는 처리된 비디오를 GUI 생성부(153)로 출력한다.
GUI 생성부(153)는 디스플레이에 표시될 아이템에 대한 GUI를 생성하고, 생성한 GUI를 비디오 처리부(150)에서 출력되는 비디오에 부가한다. 여기에서, 아이템은 화면에 표시되는 소형 이미지를 의미하는 것으로 사용자에게 정보를 제공하거나 사용자에 의해 선택되어 명령을 입력받는 기능을 한다. 즉, 아이템은 특정 어플리케이션을 실행시키기 위한 아이콘(예를 들어, 위젯 어플리케이션을 실행시키기 위한 아이콘)이 될 수 있다. 아이템의 종류를 예로 들면, 위젯, 메뉴 아이템, 버튼 아이템, 리스트 아이템 등이 있다.
디스플레이부(155)는 GUI 생성부(153)에서 출력되는 GUI가 부가된 비디오를 디스플레이한다. 또한, 디스플레이부(155)는 조작 입력부(170)에서 이동 조작이 입력되면, 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이한다.
조작 입력부(170)는 사용자로부터 조작을 입력받아 제어부(160)로 전달한다. 특히, 조작 입력부(170)는 이동 조작을 입력받을 수도 있다. 여기에서, 이동 조작은 디스플레이 화면상의 제1 지점에서 제2 지점까지 사용자의 손가락, 사용자의 손 또는 포인터를 이동시키는 것을 이동시키는 조작을 의미한다.
구체적으로, 조작 입력부(170)는 터치 스크린, 터치패드, 포인팅 디바이스, 모션 센서 중 어느 하나가 될 수 있다.
조작 입력부(170)가 터치 스크린 또는 터치 패드인 경우, 이동 조작은 스트로크(stroke) 조작이 된다. 여기에서, 스트로크 조작은 사용자가 터치스크린 또는 터치패드를 손가락으로 터치한 상태에서, 손가락을 이동시킨 후에 떼는 조작을 의 미한다. 사용자가 터치스크린 또는 터치패드를 이용하여 제1 지점에서 제2 지점까지 스트로크 조작을 입력하면, 조작 입력부(170)는 스트로크 조작의 이동 경로에 관한 정보를 제어부(160)로 제공하게 된다.
조작 입력부(170)가 포인터의 포인팅 지점을 인식하는 포인팅 디바이스인 경우, 이동 조작은 화면 상에서 포인터를 이동시키는 조작이 된다. 포인팅 디바이스는 일반적으로 레이저 포인터가 디스플레이의 화면 상에 조사될 때, 레이저 포인터가 화면상에 조사된 지점을 인식하는 장치를 의미한다. 따라서, 포인팅 디바이스는 레이저 포인터가 디스플레이 화면상에서 조사된 상태로 이동되는 경우를 이동 조작으로 인식하게 된다. 즉, 사용자가 레이저 포인터를 이용하여 제1 지점에서 제2 지점까지 조사 지점을 이동시키면, 포인팅 디바이스는 레이저 포인터의 이동 경로에 관한 정보를 제어부(160)로 제공하게 된다.
조작 입력부(170)가 모션 센서로부터 모션 조작 정보를 입력받는 경우, 이동 조작은 사용자가 모션센서를 이동시키는 모션 조작이 된다. 예를 들어, 모션센서가 리모콘에 장착된 경우, 이동조작은 사용자가 리모콘을 이동시키는 모션조작이 된다. 즉, 사용자가 모션 센서를 제1 지점에서 제2 지점까지 이동시키면, 포인팅 디바이스는 모션 센서의 이동 경로에 관한 정보를 제어부(160)로 제공하게 된다.
이와 같이, 조작 입력부(170)는 다양한 형태의 이동 조작을 입력받을 수 있다.
또한, 조작 입력부(170)는 아이템 표시 버튼(미도시)을 포함할 수도 있다. 이동 조작은 아이템을 표시하는 기능 외에 다른 기능을 제공할 수도 있기 때문에, 제어부(160)는 아이템 표시 버튼이 눌러진 상태에서 이동 조작이 입력된 경우에만 아이템을 표시하도록 구현될 수도 있다.
본 실시예에서는, 아이템 표시 버튼이 눌러진 상태에서 이동 조작이 입력된 경우, 복수의 아이템이 표시되는 것으로 설명하였으나, 이는 설명의 편의를 위한 것에 불과하다. 즉, 이외에 다른 제1 조작이 이동조작과 함께 입력되는 경우에 복수의 아이템이 표시되도록 구현될 수도 있음은 물론이다.
제어부(160)는 조작 입력부(170)를 통해 전달되는 사용자의 조작 내용을 기초로 사용자 명령을 파악하고, 파악한 사용자 명령에 따라 디스플레이 장치(100)의 전반적인 동작을 제어한다.
구체적으로, 제어부(160)는 조작 입력부(170)에서 이동 조작이 입력되면, 이동 조작의 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어한다. 여기에서, 제어부(160)는 이동 조작이 입력되는 동안 아이템이 일정 시간 간격 또는 일정 거리 간격으로 하나씩 디스플레이되도록 제어할 수도 있다.
일정 시간 간격으로 아이템을 디스플레이하는 경우, 제어부(160)는 사용자의이동 조작이 입력된 상태로 일정 시간이 경과 할 때마다 아이템이 하나씩 디스플레이 되도록 제어한다. 따라서, 사용자는 아이템이 언제 표시되는지 예측할 수 있게 된다. 하지만, 사용자가 이동 조작을 천천히 할 경우에 아이템들이 겹쳐져서 표시될 우려가 있다.
일정 거리 간격으로 아이템을 디스플레이하는 경우, 제어부(160)는 사용자의 이동 조작의 경로가 일정 거리를 넘게 될 때마다 아이템이 하나씩 디스플레이되도 록 제어한다. 따라서, 아이템은 겹쳐져서 표시되지 않게 된다.
그리고, 제어부(160)는, 디스플레이되는 아이템의 개수가 이동 조작의 경로의 길이에 따라 달라지도록 제어할 수도 있다. 예를 들어, 제어부(160)는 이동 조작의 경로의 길이가 1센티미터일때 아이템이 1개, 2센티미터일때 아이템이 2개, 3센티미터일때 아이템이 3개 표시되도록 제어할 수도 있다.
또한, 제어부(160)는, 디스플레이되는 아이템의 표시 밀도가 이동 조작의 속도에 따라 달라지도록 제어할 수도 있다. 예를 들어, 제어부(160)는 이동 조작의 속도가 빠를수록 아이템 표시 밀도가 낮고, 이동 조작의 속도가 느릴수록 아이템 표시 밀도가 높아지도록 제어할 수도 있다.
한편, 제어부(160)는 이동 조작의 입력이 완료되는 시점에 복수의 아이템들이 한번에 이동 경로를 따라 표시되도록 제어할 수도 있다.
그리고, 제어부(160)는 조작 입력부(170)가 터치스크린 또는 터치패드인 경우, 터치스크린 또는 터치패드에서 스트로크(stroke) 조작이 입력되면, 스트로크 조작의 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어한다. 이에 대해서는, 추후 도 3 내지 도 7을 참고하여 상세히 설명한다.
또한, 제어부(160)는 조작 입력부(170)가 포인터의 포인팅 지점을 인식하는 포인팅 디바이스인 경우, 포인팅 디바이스의 포인터 이동 조작이 입력되면, 포인터의 이동 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어한다. 이에 대해서는, 추후 도 8을 참고하여 상세히 설명한다.
그리고, 제어부(160)는 조작 입력부(170)가 모션 센서로부터 모션 조작 정보 를 수신하는 경우, 모션 센서의 모션 조작이 입력되면, 모션의 이동 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어한다. 이에 대해서는, 추후 도 9를 참고하여 상세히 설명한다.
한편, 조작 입력부(170)가 아이템 표시 버튼(미도시)을 포함하는 경우, 제어부(160)는 아이템 표시 버튼이 눌러진 상태에서 이동 조작이 입력된 경우에만 아이템을 표시하도록 제어할 수도 있다.
그리고, 아이템 표시 버튼이 눌러진 상태에서 이동 조작이 입력된 경우, 제어부(160)가 복수의 아이템이 표시되도록 제어하는 것으로 설명하였으나, 이는 설명의 편의를 위한 것에 불과하다. 즉, 제어부(160)는 이외에 다른 제1 조작이 이동조작과 함께 입력되는 경우에 복수의 아이템이 표시되도록 제어할 수도 있음은 물론이다.
한편, 제어부(160)는 적어도 하나의 아이템이 디스플레이된 상태에서 어느 하나의 아이템을 선택하는 조작이 조작 입력부(170)를 통해 입력되면, 선택된 아이템을 제외한 나머지 아이템들은 사라지도록 제어할 수도 있다. 이와 같은 동작을 통해, 사용자는 원하는 아이템만이 화면에 표시되도록 선택할 수 있게 된다.
상술한 바와 같이, 디스플레이 장치(100)는 이동 조작의 경로를 따라 적어도 하나의 아이템을 표시할 수 있게 된다. 따라서, 사용자는 보다 직관적인 방법으로 아이템들이 표시되게 하는 명령을 입력할 수 있게 된다.
이하에서는, 도 2를 참고하여 아이템 표시방법에 대해 상세히 설명한다. 도 2는 본 발명의 일 실시예에 따른, 아이템 표시 방법에 대해 설명하기 위해 제공되 는 흐름도이다.
일단, 디스플레이 장치(100)는 아이템 표시버튼이 조작되는지 여부를 판단한다(S210). 아이템 표시 버튼이 조작되었는지 여부를 판단하는 것으로 설명하였으나, 이는 설명의 편의를 위한 것에 불과하다. 즉, 디스플레이 장치(100)는 이외에 다른 제1 조작이 입력되는지 여부를 판단할 수도 있음은 물론이다. 또한, S210 단계는 생략될 수도 있음은 물론이다.
아이템 표시버튼이 조작되면(S210-Y), 디스플레이 장치(100)는 이동 조작이 입력되었는지 여부를 판단한다(S220). 여기에서, 이동 조작은 디스플레이 화면상의 제1 지점에서 제2 지점까지의 터치에 의한 이동(즉, 사용자의 손가락의 이동) 또는 제1 지점에서 제2 지점까지의 모션 센서의 움직임(즉, 사용자의 손의 움직임) 또는 제1 지점에서 제2 지점까지의 레이저 포인터의 이동(즉, 포인팅 지점의 이동) 조작을 의미한다.
구체적으로, 조작 입력부(170)가 터치 스크린 또는 터치 패드인 경우, 이동 조작은 스트로크(stroke) 조작이 된다. 그리고, 조작 입력부(170)가 포인터의 포인팅 지점을 인식하는 포인팅 디바이스인 경우, 이동 조작은 화면 상에서 포인터를 이동시키는 조작이 된다. 또한, 조작 입력부(170)가 모션 센서로부터 모션 조작 정보를 입력받는 경우, 이동 조작은 사용자가 모션센서를 이동시키는 모션 조작이 된다.
이동 조작이 입력되면(S220-Y), 디스플레이 장치(100)는 이동 조작의 경로를 따라 적어도 하나의 아이템을 화면 상에 디스플레이한다(S230). 구체적으로, 디스 플레이 장치(100)는 이동 조작이 입력되는 동안 아이템을 일정 시간 간격 또는 일정 거리 간격으로 하나씩 디스플레이할 수도 있다.
일정 사간 간격으로 아이템을 디스플레이하는 경우, 디스플레이 장치(100)는 는 사용자의 이동 조작이 입력된 상태로 일정 시간이 경과 할 때마다 아이템을 하나씩 디스플레이한다. 따라서, 사용자는 아이템이 언제 표시되는지 예측할 수 있게 된다. 하지만, 사용자가 이동 조작을 천천히 할 경우에 아이템들이 겹쳐져서 표시될 우려가 있다.
일정 거리 간격으로 아이템을 디스플레이하는 경우, 디스플레이 장치(100)는 사용자의 이동 조작의 경로가 일정 거리를 넘게 될 때마다 아이템을 하나씩 디스플레이한다. 따라서, 아이템은 겹쳐져서 표시되지 않게 된다.
또한, 디스플레이 장치(100)는 이동 조작의 입력이 완료되는 시점에 복수의 아이템들이 한번에 이동 경로를 따라 표시되도록 제어할 수도 있다.
그 후에, 디스플레이 장치(100)는 적어도 하나의 아이템이 디스플레이된 상태에서 어느 하나의 아이템을 선택하는 조작이 조작 입력부(170)를 통해 입력되는지 여부를 판단한다(S240). 그리고, 아이템 선택 조작이 입력된 경우(S240-Y), 디스플레이 장치(100)는 선택된 아이템을 제외한 나머지 아이템들은 사라지게 한다. 이와 같은 동작을 통해, 사용자는 원하는 아이템만이 화면에 표시되도록 선택할 수 있게 된다.
이와 같은 과정을 바탕으로, 디스플레이 장치(100)는 이동 조작의 경로를 따라 적어도 하나의 아이템을 표시할 수 있게 된다.
본 실시예에서, 디스플레이 장치(100)는 TV, 모니터 등이 될 수 있으며, MP3, PMP, 휴대폰 등에 내장된 디스플레이 장치(100)가 될 수도 있다. 이와 같이, 다양한 디스플레이 장치(100)에 적용된 예에 대해, 도 3 내지 도 9를 참고하여 상세히 설명한다.
이하에서는, 도 3 내지 도 6을 참고하여, 조작 입력부(170)가 터치 스크린인 경우에 대해 설명한다. 도 3은 본 발명의 일 실시예에 따른, 터치스크린에 아이템이 하나씩 표시되는 과정을 도시한 도면이다.
제3-1 그림(310)은 사용자가 터치 스크린 상의 A 지점에서 스트로크 조작을 시작하는 상태를 도시한 도면이다. 제3-1 그림(310)에 따르면, 스트로크 조작이 시작되는 A 지점에 아이템 1이 표시된 것을 확인할 수 있다.
제3-2 그림(320)은 사용자가 터치 스크린 상의 A 지점에서 B 지점까지 스트로크 조작을 입력한 상태를 도시한 도면이다. 제3-2 그림(320)에 따르면, 스트로크 조작이 입력되는 도중에 B 지점에서 아이템 2가 표시된 것을 확인할 수 있다.
제3-3 그림(330)은 사용자가 터치 스크린 상의 A 지점에서 C 지점까지 스트로크 조작을 입력한 상태를 도시한 도면이다. 제3-3 그림(330)에 따르면, 스트로크 조작이 입력되는 도중에 C 지점에서 아이템 3이 표시된 것을 확인할 수 있다.
제3-4 그림(340)은 사용자가 터치 스크린 상의 A 지점에서 D 지점까지 스트로크 조작을 입력한 상태를 도시한 도면이다. 제3-4 그림(340)에 따르면, 스트로크 조작이 입력되는 도중에 D 지점에서 아이템 D가 표시된 것을 확인할 수 있다.
제3-5 그림(350)은 사용자가 A지점에서 D지점까지의 스트로크 조작을 완료한 후의 화면을 나타내고 있다. 제3-5 그림(350)에 도시된 바와 같이, 디스플레이 장치(100)는 사용자가 스트로크 조작을 입력한 경로에 따라 4개의 아이템을 표시하게 된다.
이와 같이, 디스플레이 장치(100)는 이동 조작이 입력되는 동안 일정 시간 또는 일정 거리 간격으로 아이템을 하나씩 표시할 수도 있다.
이하에서는, 도 4를 참고하여, 아이템이 한번에 표시되는 경우에 대해 설명한다. 도 4는 본 발명의 일 실시예에 따른, 터치스크린에 아이템이 한번에 표시되는 과정을 도시한 도면이다.
제4-1 그림(410)은 사용자가 터치 스크린 상의 A 지점에서 스트로크 조작을 시작하는 상태를 도시한 도면이다. 제4-1 그림(410)에 따르면, 스트로크 조작이 시작되더라도 아이템이 표시되지 않는 것을 확인할 수 있다.
제4-2 그림(420)은 사용자가 터치 스크린 상의 A 지점에서 B 지점까지 스트로크 조작을 입력한 상태를 도시한 도면이다. 제4-2 그림(420)에 따르면, 스트로크 조작이 입력되는 도중에 아이템이 표시되지 않는 것을 확인할 수 있다.
그리고, 제4-3 그림(430) 및 도 4-4 그림(440)에서 확인할 수 있듯이, 사용자가 A지점에서 D 지점까지 스트로크 조작을 입력하는 동안은 아이템이 디스플레이되지 않는 것을 확인할 수 있다.
제4-5 그림(450)은 사용자가 A지점에서 D지점까지의 스트로크 조작을 완료한 후의 화면을 나타내고 있다. 제4-5 그림(450)에 도시된 바와 같이, 디스플레이 장치(100)는 사용자가 스트로크 조작을 종료한 시점에, 스트로크 조작이 입력된 경로 에 따라 4개의 아이템을 표시하는 것을 확인할 수 있다.
이와 같이, 디스플레이 장치(100)는 터치 스크린 상의 스트로크 조작이 입력 완료되는 시점에 아이템을 한번에 표시할 수도 있다.
이하에서는, 도 5를 참고하여 아이템이 위젯인 경우에 대해 설명한다. 도 5는 본 발명의 일 실시예에 따른, 터치스크린에 위젯이 표시되는 과정을 도시한 도면이다.
제5-1 그림(510)은 사용자가 A 지점에서 B 지점까지 스트로크 조작을 입력한 것을 도시하고 있다. 그리고, 제5-2 그림(520)은 스트로크 조작이 입력된 경로를 따라, 날씨 위젯(521), 주식 위젯(523) 및 업데이트 위젯(525)이 화면에 표시된 것을 도시하고 있다. 여기에서, 위젯은 특정 정보를 표시해주는 소형 이미지 아이템을 의미한다. 예를 들어, 제5-2 그림(520)을 참고하면, 날씨 위젯(521)은 날씨를 표시해주고, 주식 위젯(523)은 주식 정보를 표시해주며, 업데이트 위젯(525)은 업데이트 정보를 표시해주는 것을 알 수 있다.
이하에서는 도 6을 참고하여, 사용자가 아이템을 선택하는 과정을 설명한다. 도 6은 본 발명의 일 실시예에 따른, 터치스크린에서 아이템이 표시된 후에 아이템을 선택하는 과정을 도시한 도면이다.
제6-1 그림(610)은 사용자가 터치스크린 상의 A 지점에서 B 지점까지 스트로크 조작을 입력하는 것을 도시하고 있다. 이와 같이, 스트로크 조작이 입력되면, 제6-2 그림(620)과 같이, 터치스크린 화면의 스트로크 조작 경로 상에 아이템 1 내지 아이템 5가 표시된다.
제6-3 그림(630)은 사용자가 아이템 4를 터치하여 선택하는 것을 도시하고 있다. 그러면, 도 6-4 그림(640)과 같이, 선택된 아이템 4를 제외한 나머지인, 아이템 1, 아이템 2, 아이템 3 및 아이템 5는 화면에서 사라지게 된다. 그리고 선택된 아이템 4는 확대되어 표시되는 것을 확인할 수 있다.
이와 같이, 사용자는 터치 스크린 상에 스트로크 조작을 입력하여 복수의 아이템을 표시시킬 수 있고, 그 중 원하는 아이템을 선택할 수 있게 된다.
이하에서는, 도 7을 참고하여, 터치 패드를 이용하여 아이템을 표시하는 경우에 대해 설명한다. 도 7은 본 발명의 일 실시예에 따른, 조작 입력부(170)가 터치 패드인 경우 이동 경로에 아이템을 표시하는 것을 도시한 도면이다.
제7-1 그림(710)은 사용자가 아이템 표시버튼(713)을 누른 상태에서, 터치패드(716) 상의 A 지점에서 B 지점으로 스트로크 조작을 입력한 것을 도시하고 있다. 터치 패드는 화면 상의 커서를 이동시키는 기능을 하는 경우가 많기 때문에, 디스플레이 장치(100)는 별도의 아이템 표시버튼(713)이 눌러진 경우에만 터치패드(716) 상의 스트로크 조작 경로에 따라 아이템을 표시하게 된다.
제7-2 그림(720)은 스트로크 조작 경로에 따라 5개의 아이템이 표시된 것을 도시하고 있다. 이와 같이, 사용자는 터치 패드 상에 스트로크 조작을 입력하여 아이템이 표시되게 할 수도 있다.
이하에서는, 도 8을 참고하여, 조작 입력부(170)가 포인팅 디바이스인 경우에 대해 설명한다. 도 8은 본 발명의 일 실시예에 따른, 조작 입력부(170)가 포인팅 디바이스인 경우, 이동 경로에 아이템을 표시하는 과정을 도시한 도면이다.
제8-1 그림(810)은 사용자가 레이저 포인터(813)를 이용하여 A 지점에서 B 지점까지 포인터 이동 조작을 입력하는 것을 도시하고 있다. 그리고, 제8-2 그림(820)은 포인터 이동 조작의 경로에 따라 5개의 아이템이 표시된 화면을 도시하고 있다.
이와 같이, 사용자는 레이저 포인터(813)를 이용하여 포인터 이동 조작을 입력하여 복수의 아이템이 표시되게 할 수도 있다.
이하에서는, 도 9를 참고하여, 조작 입력부(170)가 모션 센서가 내장된 리모콘(913)으로부터 모션정보를 입력받는 경우에 대해 설명한다. 도 9는 본 발명의 일 실시예에 따른, 조작 입력부(170)가 모션 센서가 내장된 리모콘(913)으로부터 모션정보를 입력받는 경우, 이동 조작의 경로에 아이템을 표시하는 과정을 도시한 도면이다.
제9-1 그림(910)은 사용자가 리모콘(913)을 왼쪽에서 오른쪽으로 이동시키는 모션조작을 입력하는 것에 대해 도시하고 있다. 여기에서 리모콘(913)에는 모션 센서가 내장되어 있다.
또한, 제9-1 그림(910)에서 사용자는 아이템 표시 버튼(916)을 누른 상태에서 리모콘을 이동시키는 것을 알 수 있다. 리모콘(913)은 이동되는 경우가 많기 때문이다. 따라서, 아이템을 화면에 표시하기 위해 이동시키는 경우, 사용자는 아이템 표시 버튼(916)을 누른 상태에서 리모콘(913)을 이동시켜야 한다.
사용자가 모션 조작을 입력하면, 제9-2 그림(920)과 같이 화면 하단에는 리모콘의 이동 경로를 따라 왼쪽부터 오른쪽으로 아이템 1 내지 아이템 5가 표시되게 된다.
이와 같이, 사용자는 리모콘(913)을 이용하여 모션조작을 임력함으로써, 복수의 아이템이 화면에 표시되게 할 수도 있다.
한편, 본 실시예에서는 사용자로부터 이동조작을 입력받는 것으로 설명하였으나, 사용자로부터 입력된 이동경로 이외에 다른 경로를 따라 아이템을 표시할 수도 있음은 물론이다.
이 경우, 아이템 표시방법은, 아이템 표시 경로를 지정하는 단계 및 사용자의 조작이 입력되면, 아이템 표시 경로에 따라 적어도 하나의 아이템을 디스플레이하는 단계를 포함하게 된다. 예를 들어, 사용자가 이동 조작을 입력하는 대신, 아이템 표시 경로를 선택하여 복수의 아이템이 표시되도록 구현될 수도 있음은 물론이다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은 본 발명의 일 실시예에 따른, 디스플레이 장치에 대한 구조를 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 아이템 표시 방법에 대해 설명하기 위해 제공되는 흐름도,
도 3은 본 발명의 일 실시예에 따른, 터치스크린에 아이템이 하나씩 표시되는 과정을 도시한 도면,
도 4는 본 발명의 일 실시예에 따른, 터치스크린에 아이템이 한번에 표시되는 과정을 도시한 도면,
도 5는 본 발명의 일 실시예에 따른, 터치스크린에 위젯이 표시되는 과정을 도시한 도면,
도 6은 본 발명의 일 실시예에 따른, 터치스크린에서 아이템이 표시된 후에 아이템을 선택하는 과정을 도시한 도면,
도 7은 본 발명의 일 실시예에 따른, 조작 입력부가 터치 패드인 경우 이동 경로에 아이템을 표시하는 과정을 도시한 도면,
도 8은 본 발명의 일 실시예에 따른, 조작 입력부가 포인팅 디바이스인 경우, 이동 조작의 경로에 아이템을 표시하는 과정을 도시한 도면,
도 9는 본 발명의 일 실시예에 따른, 조작 입력부가 모션 센서가 내장된 리모콘으로부터 모션정보를 입력받는 경우, 이동 조작의 경로에 아이템을 표시하는 과정을 도시한 도면이다.
* 도면의 주요 부분에 대한 부호의 설명 *
100 : 디스플레이 장치 110 : 인터페이스
120 : 저장부 130 : 코덱
140 : 오디오 처리부 145 : 오디오 출력부
150 : 비디오 처리부 153 : GUI 생성부
155 : 디스플레이부 160 : 제어부
170 : 조작 입력부

Claims (20)

  1. 사용자의 조작을 입력받는 조작 입력부; 및
    상기 조작 입력부에서 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어하는 제어부;를 포함하는 디스플레이 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 조작 입력부에서 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템이 일정 시간 간격으로 디스플레이 되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 조작 입력부에서 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템이 일정 거리 간격으로 디스플레이 되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 조작 입력부에서 이동 조작과 제1 조작이 함께 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템이 디스플레이되도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  5. 제1항에 있어서,
    상기 적어도 하나의 아이템은,
    상기 이동 조작의 경로의 길이에 따라 디스플레이되는 개수가 달라지는 것을 특징으로 하는 디스플레이 장치.
  6. 제1항에 있어서,
    상기 적어도 하나의 아이템은,
    상기 이동 조작의 속도에 따라 디스플레이되는 표시 밀도가 달라지는 것을 특징으로 하는 디스플레이 장치.
  7. 제1항에 있어서,
    상기 제어부는,
    상기 적어도 하나의 아이템이 디스플레이된 상태에서 어느 하나의 아이템을 선택하는 조작이 입력되면, 상기 선택된 아이템을 제외한 나머지 아이템들은 사라지도록 제어하는 것을 특징으로 하는 디스플레이 장치.
  8. 제1항에 있어서,
    상기 아이템은 특정 어플리케이션을 실행시키기 위한 아이콘인 것을 특징으로 하는 디스플레이 장치.
  9. 이동 조작을 입력받는 단계; 및
    상기 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이하는 단계;를 포함하는 아이템 표시방법.
  10. 제9항에 있어서,
    상기 디스플레이 단계는,
    상기 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 일정 시간 간격으로 디스플레이하는 것을 특징으로 하는 아이템 표시방법.
  11. 제9항에 있어서,
    상기 디스플레이 단계는,
    상기 이동 조작이 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 일정 거리 간격으로 디스플레이하는 것을 특징으로 하는 아이템 표시방법.
  12. 제9항에 있어서,
    상기 입력단계는,
    터치스크린 또는 터치 패드에서 스트로크(stroke) 조작을 입력받고,
    상기 디스플레이 단계는,
    상기 스트로크(stroke) 조작이 입력되면, 상기 스트로크 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이하는 것을 특징으로 하는 아이템 표시방법.
  13. 제9항에 있어서,
    상기 입력단계는,
    포인팅 디바이스에서 포인터 이동 조작을 입력받고,
    상기 디스플레이 단계는,
    상기 포인터 이동 조작이 입력되면, 상기 포인터의 이동 경로를 따라 적어도 하나의 아이템을 디스플레이하는 것을 특징으로 하는 아이템 표시방법.
  14. 제9항에 있어서,
    상기 입력단계는,
    모션 센서로부터 모션 조작을 입력받고,
    상기 디스플레이 단계는,
    상기 모션 조작이 입력되면, 상기 모션의 이동 경로를 따라 적어도 하나의 아이템을 디스플레이하는 것을 특징으로 하는 아이템 표시방법.
  15. 제9항에 있어서,
    제1 조작을 입력받는 단계;를 더 포함하고,
    상기 디스플레이 단계는,
    상기 이동 조작과 상기 제1 조작이 함께 입력되면, 상기 이동 조작의 경로를 따라 적어도 하나의 아이템을 디스플레이하는 것을 특징으로 하는 아이템 표시방법.
  16. 제9항에 있어서,
    상기 적어도 하나의 아이템이 디스플레이된 상태에서 어느 하나의 아이템을 선택하는 조작을 입력받는 단계; 및
    상기 선택된 아이템을 제외한 나머지 아이템들을 사라지게 하는 단계;를 더 포함하는 것을 특징으로 하는 아이템 표시방법.
  17. 제9항에 있어서,
    상기 아이템은 특정 어플리케이션을 실행시키기 위한 아이콘인 것을 특징으로 하는 아이템 표시방법.
  18. 제9항에 있어서,
    상기 적어도 하나의 아이템은,
    상기 이동 조작의 경로의 길이에 따라 디스플레이되는 개수가 달라지는 것을 특징으로 하는 아이템 표시방법.
  19. 제9항에 있어서,
    상기 적어도 하나의 아이템은,
    상기 이동 조작의 속도에 따라 디스플레이되는 표시 밀도가 달라지는 것을 특징으로 하는 아이템 표시방법.
  20. 아이템 표시 경로를 지정하는 단계;
    사용자의 조작이 입력되면, 상기 아이템 표시 경로에 따라 적어도 하나의 아이템을 디스플레이하는 단계;를 포함하는 아이템 표시방법.
KR1020080129413A 2008-12-18 2008-12-18 아이템 표시방법 및 이를 적용한 디스플레이 장치 Ceased KR20100070733A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020080129413A KR20100070733A (ko) 2008-12-18 2008-12-18 아이템 표시방법 및 이를 적용한 디스플레이 장치
EP09173692A EP2199893A3 (en) 2008-12-18 2009-10-21 Method for displaying items and display apparatus applying the same
US12/639,675 US20100162155A1 (en) 2008-12-18 2009-12-16 Method for displaying items and display apparatus applying the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080129413A KR20100070733A (ko) 2008-12-18 2008-12-18 아이템 표시방법 및 이를 적용한 디스플레이 장치

Publications (1)

Publication Number Publication Date
KR20100070733A true KR20100070733A (ko) 2010-06-28

Family

ID=42035978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080129413A Ceased KR20100070733A (ko) 2008-12-18 2008-12-18 아이템 표시방법 및 이를 적용한 디스플레이 장치

Country Status (3)

Country Link
US (1) US20100162155A1 (ko)
EP (1) EP2199893A3 (ko)
KR (1) KR20100070733A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013154289A1 (ko) * 2012-04-09 2013-10-17 Chang Yun Suk 디바이스에 저장된 데이터의 목록 정보를 제공하는 장치 및 방법
WO2019124841A1 (ko) * 2017-12-22 2019-06-27 삼성전자 주식회사 전자 장치 및 스트로크 입력에 따른 기능 실행 방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8279185B2 (en) 2009-05-08 2012-10-02 Sony Ericsson Mobile Communications Ab Methods, devices and computer program products for positioning icons on a touch sensitive screen
KR101387270B1 (ko) * 2009-07-14 2014-04-18 주식회사 팬택 터치 궤적에 따라 메뉴 정보를 표시하는 이동 단말기
KR101742986B1 (ko) 2010-07-26 2017-06-15 엘지전자 주식회사 영상표시기기 및 그 동작 방법
KR101832463B1 (ko) 2010-12-01 2018-02-27 엘지전자 주식회사 화면 표시 제어 방법 및 그를 이용한 영상 표시 기기
TWI456484B (zh) * 2012-01-16 2014-10-11 Acer Inc 電子裝置及控制電子裝置的方法
USD746856S1 (en) * 2013-02-07 2016-01-05 Tencent Technology (Shenzhen) Company Limited Display screen portion with an animated graphical user interface
CN103777850A (zh) * 2014-01-17 2014-05-07 广州华多网络科技有限公司 菜单显示方法、装置和终端
USD831700S1 (en) * 2017-07-31 2018-10-23 Shenzhen Valuelink E-Commerce Co., Ltd. Display screen or portion thereof with graphical user interface

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4772882A (en) * 1986-07-18 1988-09-20 Commodore-Amiga, Inc. Cursor controller user interface system
US5588100A (en) * 1992-05-18 1996-12-24 Microsoft Corporation Method and system for creating a freeform drawing object
JPH07271501A (ja) * 1994-03-31 1995-10-20 Wacom Co Ltd 表示画面における表示物の表示方法
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US6111588A (en) * 1996-12-05 2000-08-29 Adobe Systems Incorporated Creating and modifying curves on a computer display
US6025850A (en) * 1997-03-28 2000-02-15 Adobe Systems Incorporated Object boundaries identified in a raster image by a user selecting positions on the raster image and then using cost functions to predict likelihood of pixels near the position being on a boundary path
US6377288B1 (en) * 1998-01-12 2002-04-23 Xerox Corporation Domain objects having computed attribute values for use in a freeform graphics system
US6097387A (en) * 1998-05-11 2000-08-01 Sony Corporation Dynamic control of panning operation in computer graphics
US7089288B2 (en) * 1999-09-08 2006-08-08 Xerox Corporation Interactive context preserved navigation of graphical data sets using multiple physical tags
US20090132316A1 (en) * 2000-10-23 2009-05-21 Costar Group, Inc. System and method for associating aerial images, map features, and information
US7663605B2 (en) 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
US7453439B1 (en) * 2003-01-16 2008-11-18 Forward Input Inc. System and method for continuous stroke word-based text input
US6865453B1 (en) * 2003-03-26 2005-03-08 Garmin Ltd. GPS navigation device
EP1639439A2 (en) * 2003-06-13 2006-03-29 The University Of Lancaster User interface
US7609278B1 (en) * 2003-07-31 2009-10-27 Adobe Systems Incorporated Detecting backward motion represented by a path
WO2005038749A2 (en) * 2003-10-10 2005-04-28 Leapfrog Enterprises, Inc. Display apparatus for teaching writing
DE102004022318B4 (de) * 2004-05-06 2007-03-22 Daimlerchrysler Ag Elektronische Konstruktionsvorrichtung
US20060001656A1 (en) * 2004-07-02 2006-01-05 Laviola Joseph J Jr Electronic ink system
JP4366592B2 (ja) * 2004-07-12 2009-11-18 ソニー株式会社 電子機器、電子機器における表示制御方法およびグラフィッカル・ユーザ・インターフェース用プログラム
JP4123382B2 (ja) * 2004-07-12 2008-07-23 ソニー株式会社 電子機器、電子機器における表示制御方法およびグラフィカル・ユーザ・インターフェース
US7656395B2 (en) * 2004-07-15 2010-02-02 Microsoft Corporation Methods and apparatuses for compound tracking systems
US7466244B2 (en) * 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US20060271867A1 (en) 2005-05-27 2006-11-30 Wang Kong Q Mobile communications terminal and method therefore
US7480870B2 (en) * 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
US8146018B2 (en) * 2006-04-28 2012-03-27 Nintendo Co., Ltd. Gesture-based control of multiple game characters and other animated objects
US10313505B2 (en) * 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US7890778B2 (en) * 2007-01-06 2011-02-15 Apple Inc. Power-off methods for portable electronic devices
US8519964B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8519963B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
US7884834B2 (en) * 2007-04-13 2011-02-08 Apple Inc. In-context paint stroke characteristic adjustment
US7912596B2 (en) * 2007-05-30 2011-03-22 Honeywell International Inc. Vehicle trajectory visualization system
US9933937B2 (en) * 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
WO2009018314A2 (en) 2007-07-30 2009-02-05 Perceptive Pixel, Inc. Graphical user interface for large-scale, multi-user, multi-touch systems
DE202008018283U1 (de) 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
US8554243B2 (en) * 2007-12-04 2013-10-08 Blackberry Limited Mobile tracking
US20090284532A1 (en) * 2008-05-16 2009-11-19 Apple Inc. Cursor motion blurring
US8572480B1 (en) * 2008-05-30 2013-10-29 Amazon Technologies, Inc. Editing the sequential flow of a page
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
US9250797B2 (en) * 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
US20100134499A1 (en) * 2008-12-03 2010-06-03 Nokia Corporation Stroke-based animation creation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013154289A1 (ko) * 2012-04-09 2013-10-17 Chang Yun Suk 디바이스에 저장된 데이터의 목록 정보를 제공하는 장치 및 방법
WO2019124841A1 (ko) * 2017-12-22 2019-06-27 삼성전자 주식회사 전자 장치 및 스트로크 입력에 따른 기능 실행 방법
KR20190076729A (ko) * 2017-12-22 2019-07-02 삼성전자주식회사 전자 장치 및 스트로크 입력에 따른 기능 실행 방법
US11216154B2 (en) 2017-12-22 2022-01-04 Samsung Electronics Co., Ltd. Electronic device and method for executing function according to stroke input

Also Published As

Publication number Publication date
EP2199893A3 (en) 2010-11-17
EP2199893A2 (en) 2010-06-23
US20100162155A1 (en) 2010-06-24

Similar Documents

Publication Publication Date Title
KR20100070733A (ko) 아이템 표시방법 및 이를 적용한 디스플레이 장치
KR101224588B1 (ko) 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
KR102020345B1 (ko) 터치스크린을 구비하는 단말에서 홈 화면의 구성 방법 및 장치
KR20090077480A (ko) 조작 가이드를 표시하는 ui 제공방법 및 이를 적용한멀티미디어 기기
KR100980741B1 (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
US20140282272A1 (en) Interactive Inputs for a Background Task
EP2669786A2 (en) Method for displaying item in terminal and terminal using the same
US10175880B2 (en) Display apparatus and displaying method thereof
KR20130052743A (ko) 항목 선택 방법
US20140267032A1 (en) Systems, methods, and media for providing an enhanced remote control having multiple modes
WO2007069835A1 (en) Mobile device and operation method control available for using touch and drag
KR20120014020A (ko) 방향성 터치 원격 제어장치
CA2825827A1 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
KR20140142546A (ko) 전자 기기 및 그의 애플리케이션 제어 방법
US10582252B2 (en) Display device, television receiver, program, and recording medium
JP2012079302A (ja) 携帯用端末機における電子書籍ページめくり装置及び方法
JP2007293849A (ja) 機能アイコンの表示システム及び方法
KR20100134948A (ko) 터치스크린을 구비하는 장치의 메뉴 표시 방법
KR20130133980A (ko) 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치
KR20150007048A (ko) 전자 장치의 디스플레이 방법
KR102250091B1 (ko) 디스플레이 장치 및 디스플레이 방법
KR20130054579A (ko) 디스플레이장치 및 그 제어방법
KR20110134810A (ko) 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
US20140258860A1 (en) System and method for providing feedback to three-touch stroke motion
KR20130126067A (ko) 원격제어장치를 이용한 디스플레이 디바이스의 기능 제어 방법 및 시스템

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20081218

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20131218

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20081218

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20150121

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20150330

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20150121

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I